ИИ может стать причиной вымирания всего человечества: что можно предпринять

ИИ, роботы, война

Искусственный интеллект сравнили с ядерным оружием и предложили замедлить его развитие.

Согласно докладу компании Gladstone AI Inc., подготовленному по заказу правительства США, политикам необходимо срочно принимать меры по обеспечению безопасности, поскольку быстрое развитие искусственного интеллекта (ИИ) потенциально может привести к исчезновению человечества из-за совершенствования оружия массового поражения и потери контроля над нейросетями, пишет TIME.

В отчете озаглавленном “План действий по повышению безопасности и защищенности передового искусственного интеллекта”, говорится, что развитие передовых систем искусственного интеллекта потенциально может дестабилизировать глобальную безопасность, так же, как это случилось в ходе наращивания ядерных вооружений.

“Учитывая растущий риск для национальной безопасности, создаваемый быстрым расширением возможностей ИИ из-за вооружения и потери контроля – и особенно тот факт, что продолжающееся распространение этих возможностей усиливает оба риска – существует очевидная и настоятельная необходимость правительства США вмешаться в эти процессы”, — говорится в докладе, опубликованном Gladstone AI.

В отчете предлагался план вмешательства, который разрабатывался в течение 13 месяцев исследователями в области ИИ, которые беседовали с более чем с 200 экспертами, в том числе с представителями правительств США и Канады, крупных поставщиков облачных услуг, организаций по безопасности ИИ, а также со специалистами по кибербезопасности и вычислительной технике.

Согласно плану, сначала нужно установить временные меры защиты ИИ, прежде чем они будут закреплены в законе. Тогда гарантии будут интернационализированы.

Так, по мнению экспертов, принявших участие в опросе и создании плана, некоторые меры могут включать создание нового агентства по искусственному интеллекту, которое будет ограничивать уровень вычислительной мощности ИИ. В таком случает агентство от имени правительства может потребовать от компаний, занимающихся разработкой нейросетей, алгоритмов машинного обучения, компьютерного зрения, снизить вычислительные мощности, чтобы замедлить развитие ИИ-систем, или же дать правительству возможность изучить передовые ИИ-модели на возможное наличие рисков. Также предлагается лицензирование открытого исходного кода.

В докладе также рекомендуется правительству ужесточить контроль над производством и экспортом чипов искусственного интеллекта.

Science XXI