Эксперты выявили опасность дипфейков и сложности их обнаружения

Эксперты выявили опасность дипфейков и сложности их обнаружения

Искусственный интеллект становится всё более опасным: эксперт рассказал, как дипфейки могут навредить людям. Сейчас любой человек может стать героем поддельного видео, которое можно создать за считанные секунды. Отличить реальность от подделки становится всё сложнее.

Адам Пилтон, консультант по кибербезопасности компании CyberSmart и бывший детектив, который специализировался на расследовании киберпреступлений, рассказал в интервью изданию The Sun о быстром развитии технологий искусственного интеллекта и связанных с этим рисках. В частности, он говорил о дипфейках — видео и аудио, созданных с помощью искусственного интеллекта.

Дипфейки используют нейросети для создания убедительных видеороликов. Они могут копировать движения, речь и даже пение человека. Нейросети способны легко клонировать голос любого человека, используя лишь несколько секунд записи.

«ИИ становится всё более сложным, — отметил Адам. — Точность ответов растёт, а количество доступных инструментов и ресурсов резко увеличилось. Мы видим дипфейки с более реалистичной мимикой и голосом, что затрудняет их отличие от настоящих видео и аудио».

Эксперт также добавил, что создавать дипфейки становится всё проще благодаря множеству приложений и сервисов, которые сокращают время на создание подделок.

Однако появляются и новые методы для обнаружения дипфейков. Технологические компании разрабатывают инструменты для выявления материалов, созданных искусственным интеллектом. Это затрудняет злоумышленникам оставаться незамеченными.

Саймон Ньюман, генеральный директор Центра киберустойчивости в Лондоне, подчеркнул важность полагаться на свои инстинкты и здравый смысл при оценке контекста видео. Особенно это важно, если видео содержит смелое заявление или требует срочных действий.

«С ростом использования ИИ киберпреступниками будет всё труднее отличить подделку от настоящего», — предупредил Саймон.

Science XXI