OpenAI требует глобального регулирования для предотвращения потенциальных угроз от развития искусственного интеллекта

OpenAI призывает к созданию надзорного органа, подобного Международному агентству по атомной энергии, для предотвращения потенциального уничтожения человечества сверхразумным искусственным интеллектом.

OpenAI требует глобального регулирования для предотвращения потенциальных угроз от развития искусственного интеллекта

Эксперты из компании OpenAI, ответственной за разработку искусственного интеллекта ChatGPT, высказали требование о необходимости регулирования искусственного интеллекта для предотвращения возможных опасностей, связанных с развитием “сверхразумного” ИИ. В заметке, опубликованной на веб-сайте компании, соучредители Грег Брокман, Илья Суцкевер и исполнительный директор Сэм Альтман подчеркнули необходимость создания аналога Международного агентства по атомной энергии, который бы защищал человечество от риска случайного возникновения опасного ИИ, способного причинить его уничтожение.

Авторы заметки отмечают, что в ближайшие 10 лет системы искусственного интеллекта могут превзойти экспертные знания во многих областях и выполнять деятельность, сопоставимую с крупнейшими современными корпорациями. Они подчеркивают, что развитие “сверхразума” в ИИ может быть как благом, так и причиной проблем. Чтобы достичь лучшего будущего, эксперты призывают координацию между компаниями, занимающимися исследованиями в области искусственного интеллекта, с акцентом на безопасность и постепенную интеграцию мощных моделей с обществом.

Основываясь на десятилетиях предупреждений исследователей о возможных рисках “сверхразума” в ИИ, руководители OpenAI указывают на необходимость, чтобы границы и стандарты для систем искусственного интеллекта были определены демократическим путем людьми по всему миру. Однако они признают, что на данный момент неясно, каким образом можно создать такой регулирующий механизм. Тем не менее, они считают, что продолжение разработки мощных систем искусственного интеллекта стоит риска.

Эксперты предупреждают о том, что прекращение развития ИИ также может быть опасным. Постепенное передача системам ИИ все большего объема работы может привести к потере способности человечества к самоуправлению и полной зависимости от машин, что называется “ослаблением”. Кроме того, небольшая группа людей, контролирующая мощные системы, может сделать искусственный интеллект централизующей силой, что может привести к установлению “привязанных ценностей” и вечной кастовой системы между управляемыми и правящими.

По мнению руководителей OpenAI, гармоничное будущее возможно только при условии, что люди во всем мире будут определять границы и стандарты для искусственного интеллекта. Они подчеркивают, что разработка мощных систем ИИ может привести к значительному улучшению мира, однако необходимо балансировать риски и выгоды, чтобы достичь этой цели.

Источник: МК

Science XXI