Известия: человек не распознает четверть аудиодипфейков, созданные нейросетями

Почти четверть аудиодипфейков, произведенных с помощью искусственного интеллекта, не могут быть распознаны человеком, отмечают «Известия».

Исследователи из Университетского колледжа Лондона (UCL) провели эксперимент с участием 500 человек, разделенных на группы говорящих на английском и китайском языках. Некоторые из участников были заранее подготовлены к выявлению аудиодипфейков, в то время как другие к такой задаче не готовились.

Для эксперимента были созданы образцы голосов на обоих языках, которые затем использовались для обучения нейросети VITS. На основе этой нейросети было создано 50 коротких аудиозаписей, которые участники должны были оценить на аутентичность. Те же записи были проанализированы с использованием алгоритма LFCC-LCNN, разработанного для выявления дипфейков.

Результаты показали, что как участники с подготовкой, так и без нее, ошибались в 25-27% случаев, путая реальные записи и дипфейки.

Эксперты из России, комментируя этот эксперимент, подчеркнули растущий риск мошенничества с использованием дипфейков. Они рекомендуют общественности оставаться настороже и критически подходить к аудиоинформации, особенно если она вызывает сомнения.

Science XXI
Adblock
detector