От редакции Ainformer | 4 марта 2026 г.
Министерство обороны США приостановило использование ИИ-моделей Anthropic в начале марта 2026 года после разногласий по поводу мер военной безопасности. Вскоре после этого OpenAI подтвердила расширение сотрудничества с Пентагоном. Это касается развертывания безопасных и засекреченных систем.
Обновление: OpenAI заявила, что соглашение с Пентагоном сохраняет политику контроля со стороны человека и существующие принципы безопасности.
По сообщениям СМИ, федеральные агентства инициировали проверку соответствия Anthropic требованиям для получения некоторых оборонных контрактов. Официальные лица сослались на опасения, связанные с цепочками поставок и национальной безопасностью. Вместе с тем, Anthropic не называет этот шаг официальным внесением в черный список. Компания признала разногласия относительно допустимых способов применения технологий в военных целях.
Опасения Пентагона и позиция Anthropic
Сообщается, что спор касался мер предосторожности, связанных с массовой слежкой и полностью автономными системами вооружений. В частности, Anthropic отказалась смягчить специфические ограничения на использование своих моделей. Генеральный директор Дарио Амодей ранее заявлял, что компания строго ограничивает развертывание систем с высоким уровнем риска.
Представители министерства обороны, включая министра Пита Хегсета, раскритиковали эти ограничения. Они утверждают, что рамки снижают оперативную гибкость. В результате ведомства начали рассматривать альтернативных поставщиков ИИ для работы в секретных условиях.
- Проверка цепочки поставок: Федеральные власти начали оценку перспектив соответствия Anthropic оборонным требованиям.
- Пересмотр контрактов: OpenAI подтвердила расширение сотрудничества с Министерством обороны.
- Дебаты о политике: Ситуация обострила дискуссии о внедрении ИИ в системы национальной безопасности.

Реакция рынка и общественный резонанс
Между тем, конфликт вызвал бурную реакцию в социальных сетях. Хештег #QuitGPT стал популярным в технологических сообществах. Некоторые издания сообщили о массовых отменах подписок. Тем не менее, OpenAI пока не опубликовала подтвержденные данные о потере пользователей.
В то же время ИИ-помощник Claude от Anthropic заметно поднялся в рейтингах американских магазинов приложений. Аналитики считают, что это отражает краткосрочное изменение общественного восприятия, а не массовую миграцию пользователей между платформами.
Брендинг, этика и стратегические риски
Эксперты по безопасности Брюс Шнайер и Натан Э. Сандерс затронули проблему в недавней колонке мнений Guardian. Они отметили, что эпизод отражает более широкие структурные напряженности между передовыми ИИ-системами и демократическим контролем.
“Урок здесь не в том, что одна ИИ-компания более этична, чем другая. Суть в том, что мы должны обновить наши демократические структуры.” — Натан Э. Сандерс и Брюс Шнайер
Ранее Anthropic заключила оборонные соглашения, общая стоимость которых, по имеющимся данным, составляет около 200 миллионов долларов. Наблюдатели рассматривают текущие разногласия как спор об операционных границах, а не как полный отказ от сотрудничества с военными.
ИИ и будущее оборонных систем
Пентагон проявляет интерес к передовому ИИ далеко за рамками административной автоматизации. Аналитики выделяют применение ИИ для оптимизации логистики, анализа разведданных и поддержки автономных систем.
- Автоматизированная идентификация целей: Платформы беспилотников уже используют инструменты ИИ для обнаружения целей.
- Принцип “человек в контуре управления”: OpenAI и Anthropic поддерживают значимый контроль со стороны человека.
- Модели с открытыми весами: Американские военные продолжают оценивать специализированные ИИ-системы и модели с открытыми весами.
Последствия для отрасли
Конфликт подчеркивает тенденцию: передовые системы ИИ становятся стратегически значимыми. Партнерство крупнейших ИИ-лабораторий с правительствами будет, вероятно, расширяться.
Однако такое сотрудничество несет репутационные и политические риски. Компании должны балансировать между требованиями национальной безопасности и доверием общественности. Пока неясно, станет ли это временной сменой контрактов или сигналом глубоких структурных изменений.
Источники
- The Guardian: Мнение: Пентагон, OpenAI и общественные интересы
- Times of India: Отчет об оттоке подписчиков OpenAI
- Forbes: Отслеживание движения #QuitGPT



