DeepSeek выпустила модели V3.2, превосходящие GPT-5 в логике
Китайская компания DeepSeek презентовала новую линейку языковых моделей DeepSeek-V3.2. Старшая версия модели обошла GPT-5 от OpenAI в задачах на логику и программирование, получив признание на IMO 2025 и IOI 2025. Модели V3.2 теперь доступны исследователям.
Китайская корпорация DeepSeek представила новую серию больших языковых моделей под названием DeepSeek-V3.2, которая использует технологию разреженного внимания с целью повышения производительности. В соответствии с техническим документом, опубликованным разработчиками, старшая модель этой серии преодолела показатели GPT-5 от OpenAI в задачах, связанных с логикой и программированием.
Компания заявляет: "DeepSeek-V3.2-Speciale демонстрирует исключительные аналитические способности, достигнув уровня золотой медали на Международной математической олимпиаде (IMO 2025) и Международной олимпиаде по информатике (IOI 2025)".
Инженеры компании утверждают, что интеграция механизма DSA (DeepSeek Sparse Attention) значительно снизила вычислительные издержки, при этом сохраняя точность обработки длинных контекстов. Согласно бенчмаркам, модель V3.2-Speciale достигла результатов, сравнимых с системой Gemini-3.0-Pro от Google, в то время как базовая версия V3.2 рассматривается как более эффективная альтернатива GPT-5.
Компания DeepSeek из Китая делает акцент на открытости своих решений: веса моделей V3.2 уже доступны исследовательскому сообществу.