
Генеральный директор Anthropic Дарио Амодей выразил серьезную обеспокоенность по поводу китайской компании DeepSeek, которая недавно привлекла внимание Кремниевой долины своей моделью R1. В интервью подкасту ChinaTalk он рассказал о результатах тестирования безопасности, проведенного его компанией.
По словам Амодея, модель DeepSeek показала наихудшие результаты среди всех когда-либо тестированных моделей в отношении генерации потенциально опасной информации. Компания Anthropic регулярно проводит оценку различных моделей искусственного интеллекта для выявления возможных рисков безопасности, проверяя их способность генерировать информацию, которую сложно найти в открытых источниках.
Несмотря на то, что Амодей высоко оценил команду DeepSeek как талантливых инженеров, он призвал компанию серьезнее относиться к вопросам безопасности ИИ. При этом он отметил, что текущие модели DeepSeek не представляют непосредственной опасности, хотя ситуация может измениться в ближайшем будущем.
Озабоченность вызывает и исследование специалистов Cisco, которые обнаружили, что модель DeepSeek R1 не блокировала вредоносные запросы в тестах безопасности. Однако стоит отметить, что модели других компаний, включая Meta (признана в России экстремистской и запрещена) и OpenAI, также показали высокий процент неудач в подобных тестах.
Несмотря на растущие опасения по поводу безопасности, крупные компании, такие как AWS и Microsoft, продолжают интегрировать R1 в свои облачные платформы. В то же время некоторые государственные организации и страны начали вводить запреты на использование DeepSeek. Амодей признает DeepSeek серьезным конкурентом, способным встать в один ряд с ведущими американскими компаниями в области ИИ, сообщает TechCrunch.