
Администрация президента США Дональда Трампа оказалась в центре противоречия: уже через несколько часов после объявления о прекращении сотрудничества с Anthropic американские военные использовали ее модель искусственного интеллекта (ИИ) в боевой операции на Ближнем Востоке.
По данным WSJ , инструмент Claude применяется в разных подразделениях, в частности в Центральном командовании США, для оценки разведданных, идентификации целей, а также моделирования боевых сценариев.
Конфликт вокруг использования ИИ в военных целях
Напряжение между Пентагоном и Anthropic продолжается уже несколько месяцев. Компания отказалась предоставить военным полный доступ к своим моделям во «всех законных сценариях», что стало ключевой причиной эскалации.
В ответ власти США внесли Anthropic в черный список, запретили федеральным агентствам использовать ее продукты и назвали компанию угрозой национальной безопасности.
Президент заявил:
"THE UNITED STATES OF AMERICA WILL NEVER ALLOW A RADICAL LEFT, WOKE COMPANY TO DICTATE HOW OUR GREAT MILITARY FIGHTS AND WINS WARS! That decision belongs to YOUR COMMANDER-IN-CHIEF, and the tremendous leaders I appoint to run our Military.
The Leftwing nut jobs at Anthropic… pic.twitter.com/aIEx92nnyx
— The White House (@WhiteHouse) February 27, 2026
Он также добавил:
Несмотря на это, полный отказ от Claude может занять до шести месяцев из-за его широкого использования, в частности партнерами вроде Palantir.
Роль Claude в военных операциях
Ранее модель Claude уже применялась в военной операции по захвату бывшего президента Венесуэлы Николаса Мадуро, которая включала удары по объектам в Каракасе. Это усилило дискуссии о рисках автономного оружия и роли ИИ в принятии решений.
На фоне конфликта Пентагон начал сотрудничество с OpenAI, тогда как об интеграции продукта компании xAI стало известно ранее.
В то же время внутренние позиции Anthropic остаются противоречивыми. По словам продакт-менеджера компании Роберта Байе:
Будь в курсе! Подписывайся на Телеграм.






