
Китайская лаборатория DeepSeek представила новую модель искусственного интеллекта DeepSeek R1, которая демонстрирует впечатляющие результаты в сравнении с моделью OpenAI O1.
DeepSeek R1 построена на архитектуре Mixture of Experts (MoE) и содержит 671 миллиард параметров, при этом в каждом прямом проходе активируется только 37 миллиардов параметров, что делает модель вычислительно эффективной и масштабируемой.
В тестах AIME 2024 модель DeepSeek R1 достигла показателя 79,8% Pass@1, немного превзойдя OpenAI O1. На тесте MATH-500 она показала впечатляющий результат в 97,3%, что сопоставимо с показателями OpenAI O1.
Важным преимуществом DeepSeek R1 является значительно более низкая стоимость использования. Цена за миллион токенов составляет всего $0,55 на входе и $2,19 на выходе, в то время как для OpenAI O1 эти показатели составляют $15 и $60 соответственно.
Модель обладает продвинутыми возможностями самопроверки и рефлексии благодаря использованию подхода на основе обучения с подкреплением. Это позволяет ей избегать распространенных ошибок и обеспечивать более надежные результаты в сложных областях, таких как математика и программирование.
DeepSeek R1 также продемонстрировала высокие результаты в творческих задачах и работе с длинным контекстом, достигнув показателя 87,6% на AlpacaEval 2.0 и 92,3% на ArenaHard.