Глава Anthropic раскритиковал систему безопасности китайской модели DeepSeek

Глава Anthropic раскритиковал систему безопасности китайской модели DeepSeek

Генеральный директор Anthropic Дарио Амодей выразил серьезную обеспокоенность по поводу китайской компании DeepSeek, которая недавно привлекла внимание Кремниевой долины своей моделью R1. В интервью подкасту ChinaTalk он рассказал о результатах тестирования безопасности, проведенного его компанией.

По словам Амодея, модель DeepSeek показала наихудшие результаты среди всех когда-либо тестированных моделей в отношении генерации потенциально опасной информации. Компания Anthropic регулярно проводит оценку различных моделей искусственного интеллекта для выявления возможных рисков безопасности, проверяя их способность генерировать информацию, которую сложно найти в открытых источниках.

Несмотря на то, что Амодей высоко оценил команду DeepSeek как талантливых инженеров, он призвал компанию серьезнее относиться к вопросам безопасности ИИ. При этом он отметил, что текущие модели DeepSeek не представляют непосредственной опасности, хотя ситуация может измениться в ближайшем будущем.

Озабоченность вызывает и исследование специалистов Cisco, которые обнаружили, что модель DeepSeek R1 не блокировала вредоносные запросы в тестах безопасности. Однако стоит отметить, что модели других компаний, включая Meta (признана в России экстремистской и запрещена) и OpenAI, также показали высокий процент неудач в подобных тестах.

Несмотря на растущие опасения по поводу безопасности, крупные компании, такие как AWS и Microsoft, продолжают интегрировать R1 в свои облачные платформы. В то же время некоторые государственные организации и страны начали вводить запреты на использование DeepSeek. Амодей признает DeepSeek серьезным конкурентом, способным встать в один ряд с ведущими американскими компаниями в области ИИ, сообщает TechCrunch.


Подписывайтесь на Science XXI в Дзен и Telegram.

Поделиться с друзьями
Science XXI