OpenAI офіційно розгорнула сімейство моделей GPT-5.2 — революційну ітерацію, розроблену для масштабування обчислень на етапі інференсу (inference-time compute) у критично важливих корпоративних додатках. Модель представляє модульну архітектуру Mixture-of-Experts (MoE), яка дозволяє системі динамічно розподіляти «токени роздумів» перед формуванням кінцевого результату, що значно підвищує надійність агентних систем. Цей реліз виводить OpenAI за межі простих розмовних інтерфейсів у режим високоточного логічного виводу, досягаючи домінуючого показника у 74,1% (перемога або нічия) порівняно з експертами-людьми на професійному бенчмарку GDPval.
- Точність міркувань: результат 93,2% у тесті GPQA Diamond та підтверджені 100% на AIME 2025.
- Технічна потужність: контекстне вікно у 400 000 токенів із виділеною потужністю виводу (output) у 128 000 токенів.
- Оптимізація обладнання: впроваджено нативну технологію Context Compaction, що знижує навантаження на пам’ять KV-кешу на 30%.
Динамічне масштабування інференсу
Ключове зрушення в GPT-5.2 зосереджене на адаптивному конвеєрі міркувань, який відокремлює інтелект моделі від простої кількості параметрів шляхом масштабування обчислень під час фази виводу. Використовуючи інфраструктуру NVIDIA Blackwell GB200, модель виконує приховані цикли «ланцюжка думок» (chain-of-thought) для перевірки логіки на трьох рівнях: Instant (Миттєвий), Thinking (Роздумливий) та Pro. Така архітектурна доробка гарантує, що складні завдання з програмування та математики отримують максимальний обсяг FLOPs, тоді як рутинні взаємодії залишаються швидкими та економічними завдяки оптимізованому шляху Instant.

Вплив на корпоративні агентні системи
Оптимізувавши модель спеціально під бенчмарк SWE-Bench Pro (55,6% успіху), OpenAI позиціонує GPT-5.2 як готовий до експлуатації рушій для автономної програмної інженерії. Перехід на тарифіковані «токени роздумів» у рівні Pro запроваджує нову економічну модель ШІ, де витрати прив’язані до глибини аналітичної строгості, а не лише до обсягу вхідних даних. Це дозволяє високотехнологічним галузям, таким як юридичні та фінансові послуги, розгортати агентів, здатних працювати з документами великого контексту зі скороченням рівня галюцинацій на 30% порівняно з попереднім релізом GPT-5.1.
| Технічний показник | GPT-5.2 (Pro) | Gemini 3 Pro | Claude 4.6 Opus |
|---|---|---|---|
| GDPval (відповідність експерту) | 74,1% | ~58,5% (оцінка) | ~69,0% (оцінка) |
| GPQA Diamond (Наука) | 93,2% | 91,9% | 89,4% |
| Пропускна здатність міркувань | 14-22 т/с | 25-30 т/с | ~18,0 т/с (оцінка) |
| Контекстне вікно | 400 000 | 2 000 000+ | 200 000 |
«GPT-5.2 представляє собою відокремлення інтелекту моделі від фактичного розміру параметрів. Пріоритезуючи обчислення на етапі інференсу, ми можемо забезпечити точність професійного рівня в технічних галузях, зберігаючи при цьому операційну ефективність, необхідну для глобального розгортання». — Провідний інженер OpenAI
Аналітика Ainformer
Випуск GPT-5.2 сигналізує про фактичне завершення «воєн за розмір контекстного вікна» та початок ери надійності. Рішення OpenAI стягувати плату на основі «токенів роздумів» у рівні Pro представляє нову модель монетизації, де користувачі платять за глибину логіки, а не просто за обсяг тексту. Цей стратегічний зсув спрямований на корпоративне домінування Google шляхом пропозиції вищої надійності виклику інструментів (tool-calling) агентами (98,7% на Tau2-bench), фактично позиціонуючи GPT-5.2 як основну операційну систему для автономних корпоративних робочих процесів.
Для читачів Ainformer найбільш важливим висновком є оптимізація управління KV-кешем через нативне стиснення контексту. Це дозволяє здійснювати масштабні розгортання RAG-систем без лінійного зростання витрат на обладнання, що раніше супроводжувало ультра-довгі контекстні вікна. У міру просування у 2026 рік конкурентною перевагою для постачальників ШІ стане не обсяг даних, який модель може поглинути, а те, наскільки точно вона може планувати та виконувати складні завдання в межах цього простору пам’яті.



