сша

Администрация президента США Дональда Трампа оказалась в центре противоречия: уже через несколько часов после объявления о прекращении сотрудничества с Anthropic американские военные использовали ее модель искусственного интеллекта (ИИ) в боевой операции на Ближнем Востоке.

По данным WSJ , инструмент Claude применяется в разных подразделениях, в частности в Центральном командовании США, для оценки разведданных, идентификации целей, а также моделирования боевых сценариев.

Конфликт вокруг использования ИИ в военных целях

Напряжение между Пентагоном и Anthropic продолжается уже несколько месяцев. Компания отказалась предоставить военным полный доступ к своим моделям во «всех законных сценариях», что стало ключевой причиной эскалации.

В ответ власти США внесли Anthropic в черный список, запретили федеральным агентствам использовать ее продукты и назвали компанию угрозой национальной безопасности.

Президент заявил:

«США никогда не позволят радикальной левой прогрессивной компании диктовать, как наша великая армия ведет и выигрывает войны! Это решение принадлежит вашему главнокомандующему».

Он также добавил:

«Левые радикалы из Anthropic допустили катастрофическую ошибку».

Несмотря на это, полный отказ от Claude может занять до шести месяцев из-за его широкого использования, в частности партнерами вроде Palantir.

Роль Claude в военных операциях

Ранее модель Claude уже применялась в военной операции по захвату бывшего президента Венесуэлы Николаса Мадуро, которая включала удары по объектам в Каракасе. Это усилило дискуссии о рисках автономного оружия и роли ИИ в принятии решений.

На фоне конфликта Пентагон начал сотрудничество с OpenAI, тогда как об интеграции продукта компании xAI стало известно ранее.

В то же время внутренние позиции Anthropic остаются противоречивыми. По словам продакт-менеджера компании Роберта Байе:

«Мы №1! Спасибо всем за поддержку», — после того, как приложение Claude возглавило рейтинг App Store.

Будь в курсе! Подписывайся на Телеграм.