Китайски късометражен драматичен сериал, за който се подозира, че използва изкуствен интелект за получаване на лицеви данни на хора, предизвика обществено недоволство през последните дни, което накара регулаторите и правните експерти да подчертаят, че технологичният напредък не трябва да нарушава личните права.

В края на март няколко блогъри – включително ентусиасти на традиционното китайско облекло и модели – обвиниха популярната серия, генерирана от AI Фиби за коса цвят праскова за използване на технология за възпроизвеждане на техните черти на лицето, тоалети и грим без съгласие за създаване на герои, които са широко разпространени в платформи за кратки видеоклипове.

Дотогава сериалът вече е събрал повече от 40 милиона гледания в Hongguo, платформа за микродрами, а някои от предполагаемите жертви казаха, че се готвят да предприемат съдебни действия.

В петък Hongguo каза в официалния си акаунт в WeChat, че сериалът е премахнат и че няма да се качва ново съдържание в продължение на 15 дни, тъй като създателят му не е успял да предостави достатъчно доказателство за съответствие с разпоредбите, регулиращи изображенията на лицето.

Платформата каза, че спазването на правните и регулаторни стандарти е базова линия, която не подлежи на обсъждане, но отбеляза, че кратките драми, като нова форма на творчески продукт, представляват големи предизвикателства за преглед на съдържанието, особено с възхода на инструментите за изкуствен интелект.

Той обеща да засили процесите на преглед на съдържанието, да надстрои технологиите за проверка и да подобри процедурите за оторизация, за да насърчи по-регулирана среда за създаване и разпространение на съдържание.

Въпреки че продуцентът не е потвърдил дали снимките на блогъри са били използвани като шаблони за генериране на AI, правни експерти казаха, че подобни действия все още могат да представляват нарушение.

Zhao Zhanling, адвокат в Beijing Javy Law Firm, каза съгласно Гражданския кодекс и правната практика, ако лице, генерирано от AI, кара обществото да го свързва с конкретно лице, това може да представлява нарушение.

„Копирането на изображение на човек и обработването му с AI е типичен пример за използване на информационни технологии за нарушаване на нечии портретни права“, каза Джао.

Тъй като AI технологията става все по-разпространена във филмовата и телевизионната индустрия, подобни случаи на размяна на лице и глас, задвижвани от AI, стават все по-чести.

Миналия месец Интернет съдът в Пекин разкри случай, в който изображенията на актриса са злоупотребени от две компании, използващи AI технология за смяна на лица в кратка драма.

Съдът се произнесе в полза на актрисата, като нареди на ответниците да поднесат публично извинение и да я компенсират за финансовите загуби.

В друг случай съдът подкрепи глас зад кадър, постановявайки, че използването на изкуствен интелект за имитиране на нечий глас без разрешение представлява нарушение на гласовите права.

„Напредъкът на изкуствения интелект улесни творческото производство, но също така беше използван за дейности, свързани с нарушаване на авторски права“, каза Ма Сянксианг, адвокат в Anjie Broad Law Firm.

Тя отбеляза, че регулаторите в Китай са започнали да се занимават с незаконното използване на такава технология, особено при размяна на лица, управлявана от AI, в кратки видеоклипове.

В четвъртък комитетът на изпълнителите на Китайската федерация на радио и телевизионните асоциации излезе с изявление, осъждащо неразрешеното използване на изображения и гласове на актьори чрез размяна на лице с изкуствен интелект, клониране на глас и неоторизирано редактиране или ремиксиране.

Комитетът каза, че всяко съдържание, което може да бъде свързано с конкретни актьори – независимо дали чрез генерирани от изкуствен интелект двойници, имитирани гласове, драми със сменени лица, търговска употреба, виртуални реплики или производни произведения – не избягва отговорността, независимо от етикетирането.

В неделя студиото на Yi Yangqianxi каза, че драми, генерирани от AI, използващи образа на актьора без разрешение, са циркулирали онлайн.

Актьорът не се е появявал в подобни продукции, нито е упълномощавал трета страна да използва образа му за AI синтез, казаха от студиото, като добавиха, че са ангажирали адвокати.

Джао каза, че търсенето на правни средства за защита е важно, но отбеляза, че е по-трудно за обикновените хора да идентифицират нарушение, тъй като съдържанието, генерирано от AI, често се основава на големи масиви от данни.

„Продуцентите често твърдят, че всяка прилика е чисто съвпадение, което прави по-трудно доказването на разпознаваемост“, каза той. „Освен това, разходите за правни действия – включително събиране на доказателства, нотариална заверка и съдебни спорове – могат да бъдат непосилно високи.“

Той посъветва лицата, които открият неразрешено съдържание, генерирано от AI, използвайки тяхното подобие, незабавно да запишат или да направят екранна снимка на материала и да запазят доказателства, за предпочитане чрез блокчейн методи.

Той добави, че подаването на жалби до хостинг платформи е по-бърз и по-достъпен начин за търсене на правна защита. Ма цитира Гражданския кодекс, който изисква от платформите да предприемат необходимите мерки – като премахване, блокиране или прекъсване на връзките – след като бъдат уведомени за нарушаващо съдържание.

При получаване на такова известие платформите трябва незабавно да го препратят на предполагаемия нарушител и да предприемат подходящи действия въз основа на предварителните доказателства и естеството на услугата, каза тя.

Тя също така призова за по-силна правна рамка за по-нататъшно регулиране на приложенията с изкуствен интелект, като по този начин се гарантира сигурността на данните, засилва защитата на личната информация и незначителните лица и служи за здравословното развитие на цифровата икономика.

[email protected]

Нашия източник е Българо-Китайска Търговско-промишлена палaта