Google изменила принципы и разрешила использование ИИ для военных нужд

Компания Google, входящая в структуру Alphabet Inc., кардинально изменила свое отношение к вопросам использования искусственного интеллекта (ИИ) в военных целях. В 2018 году руководство компании заменило знаменитый девиз «Не быть злом» на более мягкое «Делать правильные вещи», а также провозгласило принципы «Ответственного ИИ», предусматривающие отказ от использования технологий для разработки оружия или систем наблюдения. Однако на этой неделе Google удалила это обещание из своих принципов.

Глава отдела по работе с ИИ Google Демис Хассабис в своем блоге охарактеризовал произошедшее как неизбежное развитие. В его заявлении говорится, что искусственный интеллект, подобно мобильным телефонам, стал повсеместным и быстро меняющимся явлением. Однако утверждения о том, что этические нормы должны эволюционировать вместе с рынком, вызывают серьезные опасения. Сегодняшняя сложная геополитическая обстановка действительно требует приспособления, но отказ от определенных этических принципов может привести к серьезным последствиям, включая эскалацию конфликтов и автоматизацию военных решений, что несет угрозу увеличения жертв среди гражданского населения.

Критики утверждают, что автоматизация в военной сфере может лишить людей возможности своевременного принятия решений. Военные действия при участии ИИ рискуют стать более разрушительными, так как системы могут функционировать с машинной скоростью, оставляя мало времени для дипломатического вмешательства. Опасность заключается в том, что полностью автоматизированные решения способны привести к ошибкам, которые будут стоить человеческих жизней.

Ранее Google предпринимала попытки ограничить использование своих технологий в военных целях, сопротивляясь заключению контрактов, подобных проекту Maven, направленному на анализ данных с дронов. Однако, несмотря на протесты сотрудников, включая петицию с 4000 подписей, эти усилия оказались лишь временной остановкой. В последние годы ряд технологических компаний, включая OpenAI и Anthropic, также начали сотрудничество с военными подрядчиками, что подчеркивает необходимость более строгого государственного регулирования.

Эксперты считают, что ситуация с Google может спровоцировать разработку более четких и обязательных международных правил в области ИИ. Предлагается, например, установить запрет на полностью автономное оружие, требовать обязательного участия человека в принятии решений и обеспечить аудит всех военных систем на базе ИИ. Подобные инициативы могли бы защитить от самых опасных последствий автоматизации в вооруженных конфликтах.

Источник: Bloomberg.


Подписывайтесь на Science XXI в Дзен и Telegram.

Поделиться с друзьями
Science XXI