Софтуерът на китайско приложение, базиран на модел на изкуствен интелект на трета страна, беше подложен на проверка за улесняване на сексуално открити разговори, което накара правните експерти да настояват за по-ясни протоколи за безопасност и етични насоки за доставчиците на AI услуги.
Експертите казват, че разработчиците трябва стриктно да спазват законите и разпоредбите по време на проучване на алгоритми и големи актуализации на модела, като подчертават, че правните, етичните и безопасните граници не трябва да се преминават в преследване на нарастването на потребителите.
Опасенията следват успешното наказателно преследване на разработчика и оператора на Alien Chat, софтуер на приложение, интегриран с задграничен AI модел и създаден от базирана в Шанхай компания. Съдът в Шанхай през септември осъди двамата лица съответно на четири години и 18 месеца затвор за печалба от производството на неприлично и порнографско съдържание.
Според решението софтуерът позволява на потребителите да участват в разговори с AI система, захранвана от голям езиков модел, след като се регистрират и заплатят членски внос. Рекламирано като осигуряващо интимност, приятелство и емоционална подкрепа за млади хора, приложението със софтуера беше пуснато през май 2023 г. и беше достъпно на основните платформи през следващия месец.
До април 2024 г., когато потребителите съобщиха за софтуера на властите, той имаше повече от 116 000 потребители, включително 24 000 плащащи членове, и беше събрал повече от 3,63 милиона юана ($520 494) в членски внос.
Съдът постанови, че софтуерът представлява неприличен материал, тъй като често генерира съдържание, изрично изобразяващо сексуални действия или графично популяризиращо порнография по време на взаимодействие между потребител и AI.
Zhou Xiaoyang, адвокат, представляващ един от обвиняемите, каза в понеделник, че неговият клиент е обжалвал решението, като твърди, че „софтуерът първоначално не е предназначен за разпространение на порнография“.
Джоу каза, че модификациите на подканите на системата имат за цел да направят AI „по-динамичен и способен да посреща нуждите на потребителите от емоционално общение“. Той добави, че софтуерът вече е бил в действие, преди Китай да въведе временни мерки за управление на генеративни AI услуги през юли 2023 г. и че разработването и усъвършенстването на такава технология отнема време.
Въпреки това, съдът каза, че двамата обвиняеми, като вътрешни лица в индустрията, са били запознати с временните мерки, но не са извършили необходимите оценки на сигурността по време на работата на софтуера или не са подавали документи до органите за киберсигурност.
Съдът цитира доказателства, показващи, че без повтарящата се промяна на системните подкани, моделът не би генерирал непрекъснато нецензурно съдържание. Разследващите установили, че обвиняемите са коригирали системата не за подобряване на производителността, а за улесняване на по-гладки сексуални разговори с потребителите.
Съгласно националните разпоредби на доставчиците на генеративни AI услуги е забранено да произвеждат насилствено или порнографско съдържание и трябва да предприемат коригиращи мерки, ако такова съдържание се появи. Съдът установи, че разработчикът и операторът не са проверили дали генерираното от AI съдържание е безопасно или законно и не са приложили мерки за предотвратяване на генерирането на порнографски материали.
Xu Hao, адвокат от Beijing Jingsh Law Firm, каза, че въпреки че индивидуалните чатове между потребители и AI може да изглеждат частни, основните модели и платформи са публични.
„Ако доставчиците на услуги не успеят да извършат прегледи за безопасност на съдържанието, това може да навреди на физическото и психическото здраве на потребителите, особено на непълнолетните“, каза Xu.
Той добави, че съдържанието, генерирано от изкуствен интелект, може да бъде разпространено в много по-голям мащаб от традиционните неприлични материали, причинявайки по-голяма социална вреда. Xu каза, че технологичният напредък не трябва да включва незаконно съдържание и не трябва да злоупотребява с иновациите под прикритието на обслужване на потребителите или подобряване на производителността.
Той каза, че случаят поставя еталон за придружаващите услуги на AI, предлагащи емоционална подкрепа, подчертавайки важността на безопасността на съдържанието и етичните стандарти.
Джу Вей, доцент в Китайския университет по политически науки и право, каза, че проектирането и прилагането на големи езикови модели трябва стриктно да спазва законите и разпоредбите и не трябва да нарушава етичните норми, обществения ред или обществената безопасност, за да привлече потребители.
Той каза, че софтуерът създава условия, които позволяват мащабно генериране на незаконно съдържание. В рамките на настоящата правна рамка, когато порнографското поведение в частните чатове се засилва чрез неконтролирана платформа, ориентирана към печалба, то престава да бъде частен въпрос.
„Произтичащата социална вреда изисква доставчиците на технически услуги да поемат отговорности за управление на безопасността“, каза Джу. „Неизпълнението на тези задължения трябва да доведе до правна отговорност.“
Случаят подчертава необходимостта доставчиците на генеративни AI услуги да се регистрират в органите за киберсигурност и демонстрира ролята на правния надзор в регулирането на AI, каза той.
Нашия източник е Българо-Китайска Търговско-промишлена палaта
