США получат доступ к новейшим моделям ИИ для тестирования безопасности

США получат доступ к новейшим моделям ИИ для тестирования безопасности

OpenAI и Anthropic, две ведущие компании в области искусственного интеллекта, достигли соглашения с правительством США о предоставлении доступа к своим новейшим моделям ИИ для проведения оценки безопасности. Это решение было принято в рамках сотрудничества с Институтом безопасности искусственного интеллекта США, который является частью Национального института стандартов и технологий (NIST).

Согласно достигнутым договоренностям, Институт безопасности ИИ получит доступ к значимым новым моделям обеих компаний как до, так и после их публичного выпуска. Это позволит провести исследования по оценке возможностей и рисков безопасности, а также разработать стратегии по снижению этих рисков.

Данная инициатива является продолжением исполнительного указа по ИИ, изданного администрацией Байдена в октябре 2023 года. Указ предписывал компаниям, разрабатывающим ИИ, предоставлять доступ к своим моделям для проведения оценки безопасности перед их публичным выпуском.

Руководство OpenAI и Anthropic выразило поддержку миссии Института безопасности ИИ США и готовность к сотрудничеству для разработки лучших практик и стандартов безопасности моделей ИИ. Компании подчеркнули важность тестирования моделей третьей стороной для развития экосистемы ИИ.

Институт безопасности ИИ США также планирует сотрудничать с британским Институтом безопасности ИИ при предоставлении рекомендаций по улучшению безопасности моделей OpenAI и Anthropic. Это соответствует обязательствам, принятым на первом глобальном саммите по безопасности ИИ в ноябре прошлого года.

Листинг X-Empire 30 сентября! Успеть залететь в игру!

Подписывайтесь на Sciencexxi.com в Telegram
Science XXI