Новости ИИ

OpenAI расширяет сотрудничество с Пентагоном после спора с Anthropic о мерах безопасности

Share on:

От редакции Ainformer | 4 марта 2026 г.

Министерство обороны США приостановило использование ИИ-моделей Anthropic в начале марта 2026 года после разногласий по поводу мер военной безопасности. Вскоре после этого OpenAI подтвердила расширение сотрудничества с Пентагоном. Это касается развертывания безопасных и засекреченных систем.

Обновление: OpenAI заявила, что соглашение с Пентагоном сохраняет политику контроля со стороны человека и существующие принципы безопасности.

По сообщениям СМИ, федеральные агентства инициировали проверку соответствия Anthropic требованиям для получения некоторых оборонных контрактов. Официальные лица сослались на опасения, связанные с цепочками поставок и национальной безопасностью. Вместе с тем, Anthropic не называет этот шаг официальным внесением в черный список. Компания признала разногласия относительно допустимых способов применения технологий в военных целях.

Опасения Пентагона и позиция Anthropic

Сообщается, что спор касался мер предосторожности, связанных с массовой слежкой и полностью автономными системами вооружений. В частности, Anthropic отказалась смягчить специфические ограничения на использование своих моделей. Генеральный директор Дарио Амодей ранее заявлял, что компания строго ограничивает развертывание систем с высоким уровнем риска.

Представители министерства обороны, включая министра Пита Хегсета, раскритиковали эти ограничения. Они утверждают, что рамки снижают оперативную гибкость. В результате ведомства начали рассматривать альтернативных поставщиков ИИ для работы в секретных условиях.

  • Проверка цепочки поставок: Федеральные власти начали оценку перспектив соответствия Anthropic оборонным требованиям.
  • Пересмотр контрактов: OpenAI подтвердила расширение сотрудничества с Министерством обороны.
  • Дебаты о политике: Ситуация обострила дискуссии о внедрении ИИ в системы национальной безопасности.
Модели OpenAI, интегрированные в защищенную инфраструктуру Министерства обороны США
Концептуальная иллюстрация работы ИИ-систем внутри защищенных облачных сред Министерства обороны США.

Реакция рынка и общественный резонанс

Между тем, конфликт вызвал бурную реакцию в социальных сетях. Хештег #QuitGPT стал популярным в технологических сообществах. Некоторые издания сообщили о массовых отменах подписок. Тем не менее, OpenAI пока не опубликовала подтвержденные данные о потере пользователей.

В то же время ИИ-помощник Claude от Anthropic заметно поднялся в рейтингах американских магазинов приложений. Аналитики считают, что это отражает краткосрочное изменение общественного восприятия, а не массовую миграцию пользователей между платформами.

Брендинг, этика и стратегические риски

Эксперты по безопасности Брюс Шнайер и Натан Э. Сандерс затронули проблему в недавней колонке мнений Guardian. Они отметили, что эпизод отражает более широкие структурные напряженности между передовыми ИИ-системами и демократическим контролем.

“Урок здесь не в том, что одна ИИ-компания более этична, чем другая. Суть в том, что мы должны обновить наши демократические структуры.” — Натан Э. Сандерс и Брюс Шнайер

Ранее Anthropic заключила оборонные соглашения, общая стоимость которых, по имеющимся данным, составляет около 200 миллионов долларов. Наблюдатели рассматривают текущие разногласия как спор об операционных границах, а не как полный отказ от сотрудничества с военными.

ИИ и будущее оборонных систем

Пентагон проявляет интерес к передовому ИИ далеко за рамками административной автоматизации. Аналитики выделяют применение ИИ для оптимизации логистики, анализа разведданных и поддержки автономных систем.

  • Автоматизированная идентификация целей: Платформы беспилотников уже используют инструменты ИИ для обнаружения целей.
  • Принцип “человек в контуре управления”: OpenAI и Anthropic поддерживают значимый контроль со стороны человека.
  • Модели с открытыми весами: Американские военные продолжают оценивать специализированные ИИ-системы и модели с открытыми весами.

Последствия для отрасли

Конфликт подчеркивает тенденцию: передовые системы ИИ становятся стратегически значимыми. Партнерство крупнейших ИИ-лабораторий с правительствами будет, вероятно, расширяться.

Однако такое сотрудничество несет репутационные и политические риски. Компании должны балансировать между требованиями национальной безопасности и доверием общественности. Пока неясно, станет ли это временной сменой контрактов или сигналом глубоких структурных изменений.

Источники