В марте 2025 года китайская компания DeepSeek выпустила обновление своей флагманской модели искусственного интеллекта — DeepSeek V3.1 (также известную как V3-0324). Это обновление стало значительным шагом вперёд в развитии открытых языковых моделей, предлагая улучшения в области логического мышления, программирования, обработки китайского языка и взаимодействия с инструментами.
В данной статье мы подробно рассмотрим ключевые изменения и улучшения, представленные в DeepSeek V3.1, а также их влияние на производительность модели.
Архитектурные особенности и производительность
Архитектура Mixture-of-Experts (MoE)
DeepSeek V3.1 основана на архитектуре Mixture-of-Experts (MoE), которая включает 671 миллиард параметров, из которых активируются только 37 миллиардов на каждый токен. Это обеспечивает высокую вычислительную эффективность без потери качества работы модели.
Улучшения в логическом мышлении
Модель продемонстрировала значительные улучшения в логическом мышлении, что подтверждается результатами в различных бенчмарках:
-
MMLU-Pro: увеличение с 75.9 до 81.2 (+5.3)
-
GPQA: увеличение с 59.1 до 68.4 (+9.3)
-
AIME: увеличение с 39.6 до 59.4 (+19.8)
-
LiveCodeBench: увеличение с 39.2 до 49.2 (+10.0)
Эти улучшения делают DeepSeek V3.1 одной из самых мощных открытых моделей на рынке.
Улучшения в программировании и взаимодействии с инструментами
Поддержка фронтенд-разработки
DeepSeek V3.1 предлагает улучшенную поддержку фронтенд-разработки, включая HTML, CSS и JavaScript. Модель способна генерировать более эстетичные веб-страницы и игровые интерфейсы, а также улучшила исполняемость сгенерированного кода.
Улучшения в вызове функций
Модель продемонстрировала повышенную точность в вызове функций, устранив проблемы, присутствовавшие в предыдущих версиях. Это делает её более надёжной при использовании в сложных рабочих процессах и взаимодействии с API сторонних сервисов.
Улучшения в обработке китайского языка
Повышение качества написания
DeepSeek V3.1 улучшила стиль и содержание текстов на китайском языке, обеспечивая лучшее качество в средне- и длинноформатных текстах. Модель также улучшила качество перевода и написания писем, что делает её более универсальной для различных задач.
Улучшенные возможности поиска
Модель теперь способна предоставлять более детализированные ответы на запросы, связанные с анализом отчётов и другими сложными задачами на китайском языке.
Сравнение с предыдущей версией
Ниже представлена таблица, сравнивающая ключевые показатели DeepSeek V3 и V3.1:
Показатель | DeepSeek V3 | DeepSeek V3.1 |
---|---|---|
MMLU-Pro | 75.9 | 81.2 |
GPQA | 59.1 | 68.4 |
AIME | 39.6 | 59.4 |
LiveCodeBench | 39.2 | 49.2 |
Поддержка фронтенда | Базовая | Улучшенная |
Вызов функций | Ограниченный | Повышенная точность |
Обработка китайского языка | Стандартная | Улучшенная |
Рекомендации по использованию
DeepSeek V3.1 рекомендуется использовать для задач, не требующих сложного логического мышления, таких как:
-
Генерация текста и перевод
-
Фронтенд-разработка
-
Обработка китайского языка
-
Взаимодействие с API и вызов функций
Для более сложных задач рекомендуется использовать модель DeepSeek R1.
Заключение
Обновление DeepSeek V3.1 представляет собой значительный шаг вперёд в развитии открытых языковых моделей. Улучшения в логическом мышлении, программировании, обработке китайского языка и взаимодействии с инструментами делают её мощным инструментом для различных задач. С открытым исходным кодом и высокой производительностью, DeepSeek V3.1 устанавливает новые стандарты в области искусственного интеллекта.