
В последнее время китайская компания DeepSeek оказалась в центре внимания после заявлений советника Белого дома по искусственному интеллекту Дэвида Сакса.
По словам Сакса, существуют серьезные доказательства того, что DeepSeek использовала технологию дистилляции для обучения своих моделей на основе выходных данных моделей OpenAI. Эта информация была озвучена им в интервью телеканалу Fox News, хотя конкретные доказательства представлены не были.
Генеральный директор OpenAI Сэм Альтман уже обсуждает со своими сотрудниками вопрос о том, насколько успехи DeepSeek связаны с дистилляцией моделей OpenAI, а не являются результатом самостоятельного технологического прорыва.
Несмотря на возникшие вопросы, Сакс положительно оценил способность DeepSeek создать более эффективную модель без использования большого количества передовых графических процессоров. Он также отметил, что ажиотаж вокруг DeepSeek подтолкнет американские компании к принятию мер по предотвращению дистилляции для замедления появления подобных моделей.
Ситуация привлекла особое внимание после того, как на прошлой неделе DeepSeek выпустила новую модель искусственного интеллекта с открытым исходным кодом R1, которая, по заявлениям компании, не уступает или превосходит ведущих американских разработчиков по ряду отраслевых показателей, сообщает Bloomberg.