Скандал с дипфейками заставил OpenAI усилить защиту образов знаменитостей

Скандал с дипфейками заставил OpenAI усилить защиту образов знаменитостей

Компания OpenAI была вынуждена пересмотреть свои подходы к использованию образов знаменитостей в своей новой видеонейросети Sora. Это произошло после скандала, связанного с появлением дипфейк-видео с участием известного актера Брайана Крэнстона, который не давал на это своего согласия. В результате компания выпустила совместное заявление с самим актером и профсоюзом актеров SAG-AFTRA.

Скандал разразился после того, как в сети появились видео, сгенерированные нейросетью Sora, на которых был изображен Крэнстон, в том числе в ролике, где он якобы делает селфи с Майклом Джексоном. Как сообщает издание The Verge, этот инцидент вызвал резкую критику со стороны актеров, студий и агентств. В совместном заявлении OpenAI выразила сожаление по поводу «непреднамеренных генераций» и пообещала усилить защитные механизмы, связанные с политикой использования внешности и голоса, которая теперь будет работать по принципу явного согласия (opt-in).

Хотя конкретные технические изменения в работе приложения пока не раскрываются, OpenAI подтвердила свою приверженность защите прав артистов. Компания заверила, что все исполнители и публичные личности будут иметь право самостоятельно определять, можно ли использовать их образы для симуляции, и пообещала оперативно рассматривать все жалобы на нарушения. Сам Брайан Крэнстон выразил благодарность OpenAI за изменение политики и усиление защитных мер.

Несмотря на позитивное разрешение ситуации с Крэнстоном, профсоюз актеров SAG-AFTRA настаивает на необходимости законодательного регулирования. Президент профсоюза Шон Эстин заявил, что для защиты артистов от массового незаконного копирования их образов с помощью технологий репликации нужен федеральный закон. В качестве примера он привел законопроект NO FAKES Act, который направлен на борьбу с несанкционированными цифровыми копиями.

Этот инцидент стал для OpenAI очередным уроком. Изначально компания запустила Sora 2 с политикой, позволяющей использовать образы по принципу отказа (opt-out), что вызвало волну возмущения и появление скандальных видео, таких как «Губка Боб в образе нациста». Общественное давление заставило OpenAI пересмотреть свою позицию и перейти к модели, требующей явного согласия правообладателей на использование их персонажей и образов.


Подписывайтесь на Science XXI в Дзен и Telegram.

Поделиться с друзьями
Science XXI