Россиян предупредили о массовом использовании дипфейков мошенниками

Россиян предупредили о массовом использовании дипфейков мошенниками

Искусственный интеллект становится все более популярным инструментом в арсенале злоумышленников. По оценкам экспертов, к концу 2025 года каждое третье мошенническое действие будет совершаться с использованием технологий ИИ. Количество таких атак может достигать нескольких миллионов случаев ежемесячно.

Наиболее распространенным методом обмана становится использование дипфейков. Злоумышленники научились создавать поддельные изображения и видео, имитировать голоса близких людей и известных личностей. Современные технологии позволяют генерировать такой контент в режиме реального времени, что существенно затрудняет выявление подделки.

Серьезную угрозу представляют и мошенники, действующие на сайтах знакомств. Они создают фальшивые профили с фотографиями несуществующих людей, а общение ведут при помощи чат-ботов. Такой подход позволяет одновременно взаимодействовать с десятками тысяч потенциальных жертв. Злоумышленники часто просят прислать подарки вместо прямых денежных переводов.

Искусственный интеллект также используется для поиска уязвимых пользователей в социальных сетях. Нейросети анализируют профили и выявляют людей, находящихся в сложной жизненной ситуации — желающих эмигрировать, потерявших близких или испытывающих финансовые трудности.

Особую опасность представляет то, что технологии ИИ становятся все более доступными и совершенными, что усложняет борьбу с мошенниками, сообщает «Газета.Ru«.


Подписывайтесь на Science XXI в Дзен и Telegram.

Поделиться с друзьями
Science XXI