OpenAI официально развернула семейство моделей GPT-5.2 — революционную итерацию, разработанную для масштабирования вычислений на этапе инференса (inference-time compute) в критически важных корпоративных приложениях. Модель представляет модульную архитектуру Mixture-of-Experts (MoE), которая позволяет системе динамически распределять «токены размышления» перед формированием итогового ответа, что значительно повышает надежность агентных систем. Этот релиз выводит OpenAI за рамки простых разговорных интерфейсов в режим высокоточного рассуждения, достигая доминирующего показателя в 74,1% (победа или ничья) в сравнении с экспертами-людьми на профессиональном бенчмарке GDPval.
- Точность рассуждений: результат 93,2% в тесте GPQA Diamond и подтвержденные 100% на AIME 2025.
- Техническая мощность: контекстное окно в 400 000 токенов с выделенной мощностью вывода (output) в 128 000 токенов.
- Оптимизация оборудования: внедрена нативная технология Context Compaction, снижающая нагрузку на память KV-кэша на 30%.
Динамическое масштабирование инференса
Ключевое изменение в GPT-5.2 сосредоточено на адаптивном конвейере рассуждений, который отделяет интеллект модели от «голого» количества параметров за счет масштабирования вычислений во время фазы вывода. Используя инфраструктуру NVIDIA Blackwell GB200, модель выполняет скрытые циклы «цепочки мыслей» (chain-of-thought) для проверки логики на трех уровнях: Instant (Мгновенный), Thinking (Размышляющий) и Pro. Эта архитектурная доработка гарантирует, что сложные задачи по программированию и математике получают максимальный объем FLOPs, в то время как рутинные взаимодействия остаются быстрыми и экономичными благодаря оптимизированному пути Instant.

Влияние на корпоративные агентные системы
Оптимизировав модель специально под бенчмарк SWE-Bench Pro (55,6% успеха), OpenAI позиционирует GPT-5.2 как готовый к эксплуатации движок для автономной программной инженерии. Переход на тарифицируемые «токены размышления» в уровне Pro вводит новую экономическую модель ИИ, где затраты привязаны к глубине аналитической строгости, а не только к объему входных данных. Это позволяет высокотехнологичным отраслям, таким как юридические и финансовые услуги, развертывать агентов, способных работать с документами большого контекста с сокращением уровня галлюцинаций на 30% по сравнению с предыдущим релизом GPT-5.1.
| Технический показатель | GPT-5.2 (Pro) | Gemini 3 Pro | Claude 4.6 Opus |
|---|---|---|---|
| GDPval (соответствие эксперту) | 74,1% | ~58,5% (оценка) | ~69,0% (оценка) |
| GPQA Diamond (Наука) | 93,2% | 91,9% | 89,4% |
| Пропускная способность рассуждений | 14-22 т/с | 25-30 т/с | ~18,0 т/с (оценка) |
| Контекстное окно | 400 000 | 2 000 000+ | 200 000 |
«GPT-5.2 представляет собой отделение интеллекта модели от фактического размера параметров. Приоритизируя вычисления на этапе инференса, мы можем обеспечить точность профессионального уровня в технических областях, сохраняя при этом операционную эффективность, необходимую для глобального развертывания». — Ведущий инженер OpenAI
Аналитика Ainformer
Выпуск GPT-5.2 знаменует фактическое завершение «войн за размер контекстного окна» и начало эры надежности. Решение OpenAI взимать плату на основе «токенов размышления» в уровне Pro представляет собой новую модель монетизации, в которой пользователи платят за глубину логики, а не просто за объем текста. Этот стратегический сдвиг направлен на корпоративное доминирование Google путем предложения превосходной надежности вызова инструментов (tool-calling) агентами (98,7% на Tau2-bench), фактически позиционируя GPT-5.2 как основную операционную систему для автономных корпоративных рабочих процессов.
Для читателей Ainformer наиболее важным выводом является оптимизация управления KV-кэшем через нативное сжатие контекста. Это позволяет осуществлять масштабные развертывания RAG-систем без линейного роста затрат на оборудование, который ранее сопровождал ультра-длинные контекстные окна. По мере продвижения в 2026 год конкурентным преимуществом для поставщиков ИИ станет не объем данных, который модель может поглотить, а то, насколько точно она может планировать и выполнять сложные задачи в рамках этого пространства памяти.



