Новини ШІ

OpenAI розширює співпрацю з Пентагоном після суперечки з Anthropic щодо заходів безпеки

Share on:

Від редакції Ainformer | 4 березня 2026 р.

Міністерство оборони США призупинило використання ШІ-моделей Anthropic на початку березня 2026 року через розбіжності щодо військових заходів безпеки. Незабаром після цього OpenAI підтвердила розширення співпраці з Пентагоном для безпечного та засекреченого розгортання систем.

Оновлення: OpenAI заявила, що угода з Пентагоном зберігає контроль людиною та існуючі принципи безпеки.

Що сталося з Anthropic?

За повідомленнями ЗМІ, федеральні агентства перевіряють відповідність Anthropic для участі в оборонних контрактах. Офіційні особи посилалися на ризики ланцюга постачань і національної безпеки. Компанія не називає це офіційним «чорним списком», але підтвердила розбіжності щодо допустимого військового використання своїх технологій.

Позиція Пентагону та Anthropic

Основна суперечка стосувалася заходів безпеки для масового спостереження та автономних озброєнь. Anthropic відмовилася послаблювати обмеження на використання моделей. Генеральний директор Дарио Амодей раніше заявляв, що компанія встановлює жорсткі межі для високоризикових розгортань.

Представники оборонного відомства, зокрема секретар Піт Хегсет, стверджували, що обмеження зменшують оперативну гнучкість. Через це почали оцінювати альтернативних постачальників ШІ для секретних систем.

  • Оцінка ланцюга постачань: Перевірка відповідності Anthropic для майбутніх контрактів.
  • Перегляд контрактів: OpenAI підтвердила розширення співпраці з Пентагоном.
  • Дискусія про політику: Обговорення впровадження ШІ у національну безпеку активізувалося.
Моделі OpenAI в захищеній інфраструктурі Пентагону
Концептуальна ілюстрація роботи ШІ-систем у захищених хмарних середовищах Пентагону.

Реакція ринку та користувачів

Суперечка викликала сильну реакцію у соцмережах. Хештег #QuitGPT став популярним у технологічних спільнотах. Деякі ЗМІ повідомляли про масові скасування підписок, але OpenAI не оприлюднила підтверджені дані щодо втрат користувачів.

Водночас ШІ-помічник Claude від Anthropic піднявся в рейтингах американських магазинів додатків. Аналітики вважають, що це короткострокові зміни сприйняття, а не масова міграція користувачів.

Брендинг, етика та стратегія

Експерти Брюс Шнайєр та Натан Е. Сандерс зазначили у Guardian, що інцидент відображає більш широкі напруження між передовими ШІ-системами та демократичним контролем.

“Урок тут не в тому, що одна ШІ-компанія етичніша за іншу. Суть у тому, що ми маємо оновити наші демократичні структури.” — Натан Е. Сандерс та Брюс Шнайєр

Anthropic раніше уклала оборонні угоди приблизно на 200 млн доларів. Нинішні розбіжності розглядають як суперечку щодо операційних меж, а не відмову від співпраці з військовими.

Майбутнє ШІ в обороні

Пентагон зацікавлений у ШІ не лише для автоматизації процесів. Аналітики виділяють: оптимізацію логістики, аналіз розвідданих та підтримку автономних систем.

  • Автоматизована ідентифікація цілей: Безпілотники вже використовують ШІ для виявлення цілей.
  • Принцип “людина в контурі”: OpenAI та Anthropic підтримують контроль людини.
  • Моделі з відкритими вагами: Військові США оцінюють спеціальні та відкриті ШІ-системи.

Наслідки для галузі

Цей інцидент підкреслює, що передові ШІ-системи стають стратегічно важливими. Партнерство між провідними лабораторіями та урядами ймовірно зростатиме.

Разом із тим, така співпраця несе політичні та репутаційні ризики. Компанії повинні балансувати між національною безпекою та довірою користувачів. Чи це тимчасова зміна контрактів, чи глибші структурні зміни — покаже час.

Джерела