Оружие с искусственным интеллектом представляет угрозу для человечества, предупреждает ведущий ученый США

В октябре ученый-компьютерщик Стюарт Рассел встретился с представителями министерства обороны Великобритании, чтобы сделать серьезное предупреждение: использование искусственного интеллекта в оружии может уничтожить человечество. Но новаторский исследователь искусственного интеллекта, который провел последнее десятилетие, пытаясь запретить использование ИИ для обнаружения и уничтожения человеческих целей, не смог получить никаких обещаний от присутствующих на встрече.

На этой неделе Рассел, британский профессор Калифорнийского университета в Беркли, который был соавтором одного из основополагающих учебников об ИИ более 25 лет назад, будет проводить ежегодные лекции Рейта на радио BBC, чтобы продвигать свою позицию.

Его призывы к международному мораторию на автономное смертоносное оружие получили отклик в академическом сообществе. На прошлой неделе более 400 немецких исследователей искусственного интеллекта опубликовали открытое письмо правительству Германии с просьбой прекратить разработку этих систем его вооруженными силами.

“Убийство людей никогда не должно быть автоматизировано на основе алгоритмических формул”, – говорилось в письме. “Такая дегуманизация принятия решений о жизни и смерти с помощью автономных систем вооружения должна быть объявлена вне закона во всем мире”.

Рассел, который регулярно встречается с правительствами на международном уровне, сказал, что США и Россия, а также Великобритания, Израиль и Австралия по-прежнему выступают против запрета.

Во второй из своих четырех лекций Рейта на тему “Жизнь с искусственным интеллектом”, которая будет транслироваться по радио Би-би-си в среду, Рассел предупредил, что оружие с ИИ больше не является научной фантастикой, а развивается быстрыми темпами, совершенно нерегулируемо. “Вы можете купить их сегодня. Они рекламируются в Интернете”, – сказал он.

В ноябре 2017 года турецкий производитель оружия под названием STM анонсировал Kargu, полностью автономный беспилотный летательный аппарат-убийца размером с мяч для регби, который может наносить точечные удары на основе изображения и распознавания лиц. По данным Организации Объединенных Наций, беспилотник использовался в ливийских конфликтах в 2020 году для выборочного наведения на цели, несмотря на эмбарго на продажу оружия Ливии.

“STM – относительно небольшой производитель в стране, которая не является лидером в области технологий. Поэтому можно предположить, что во многих странах осуществляются программы по разработке этого оружия”, – сказал Рассел.

Он также описал «Harpy» израильского правительства – 12-футовый самолет с неподвижным крылом, несущий 50-фунтовый взрывчатый груз, и его потомка – «Harop». Самолеты могут управляться удаленно или могут работать автономно после того, как география и цель будут указаны человеком-оператором.

Harop, возможно, был продан в Индию и Азербайджан, где он был замечен на видео, снятом армией. В пресс-релизе израильской аэрокосмической промышленности в том году говорилось, что “сотни” из них были проданы.

Рассел предупредил, что распространение оружия с искусственным интеллектом представляет собой неминуемую и экзистенциальную угрозу.

“Смертоносный квадрокоптер с искусственным интеллектом может быть размером с банку крема для обуви… Около трех граммов взрывчатого вещества достаточно, чтобы убить человека с близкого расстояния. Обычный контейнер может вместить миллион единиц смертоносного оружия, и … все они могут быть отправлены для выполнения своей работы незамедлительно”, – сказал он в своей лекции. “Таким образом, неизбежной конечной точкой является то, что автономное оружие становится дешевым, избирательным оружием массового уничтожения”.

В отсутствие дипломатических действий ученые объединяются, чтобы разработать свою идеальную версию договора о запрете искусственного интеллекта. В 2019 году несколько ученых-компьютерщиков, инженеров и специалистов по этике встретились, чтобы обсудить это, в бостонском доме профессора Массачусетского технологического института Макса Тегмарка, который является соучредителем института “Будущее жизни”.

На двухдневной встрече присутствовали робототехник Рон Аркин из технологического института Джорджии, Пол Шарре, бывший офицер армии США, изучающий будущее войны, и Рассел, среди прочих. В конце концов, они согласились с тем, что определение минимального веса и размера взрывчатого вещества должно быть обязательным, чтобы автономное оружие нельзя было использовать как рой. «Чего мы пытаемся избежать, так это двух парней в грузовике, запускающих миллион единиц оружия», – сказал Рассел.

Science XXI