Инвестиционный банк Goldman Sachs прекратил доступ своих сотрудников в Гонконге к моделям искусственного интеллекта Anthropic, включая Claude. Решение стало еще одним сигналом того, как геополитическая напряженность между США и Китаем влияет на использование ИИ в финансовом секторе, пишет FT .

По данным источников, банкиры в регионе потеряли доступ к Claude как напрямую, так и через внутренние ИИ-платформы компании еще несколько недель назад. Причинои стала жесткая интерпретация контракта с Anthropic после консультаций с разработчиком.

В результате решили, что сотрудники в Гонконге не должны использовать продукты компании. При этом ограничения не распространяются на другие ИИ-сервисы, в частности решения от OpenAI.

Представитель Anthropic заявил, что модели Claude «никогда официально не поддерживались» в Гонконге, однако от дальнейших комментариев отказался.

Геополитика, киберриски и конкуренция за ИИ

Ограничения связаны не только с контрактными условиями, но и с более широкими рисками. Американские ИИ-компании опасаются использования своих моделей в Китае из-за угрозы так называемои дистилляции — когда локальные игроки могут обучать собственные системы на основе чужих моделей.

Ранее OpenAI обвиняла китайскую компанию DeepSeek в использовании ее моделей для тренировки собственного ИИ, хотя доказательств обнародовано не было.

В Белом доме также заявляли о «промышленных масштабах» краж интеллектуальнои собственности, тогда как китайская сторона назвала эти обвинения «чистым наветом».

Дополнительныи фактор — обеспокоенность по поводу кибербезопасности. Новая модель Anthropic Mythos вызвала дискуссии среди правительств и корпорации из-за потенциальнои способности взламывать современные системы безопасности и создавать риски для финансовои инфраструктуры.

Решение Goldman Sachs может иметь более широкие последствия для позиции Гонконга как глобального финансового хаба. Город традиционно используется международными банками как центр для инвестиционного банкинга, сделок слияния и поглощения, а также торговли и размещения акции.

Ограничение доступа к передовым ИИ-инструментам, которые активно применяются для кодинга и финансового моделирования, может поставить местные команды в менее выгодное положение по сравнению с другими регионами.

Параллельно подобные шаги предпринимают и государственные институции. Например, Европейский парламент ранее отключил ИИ-инструменты на рабочих устройствах из-за рисков утечки данных и киберугроз.

В то же время сама Anthropic продолжает развивать свои продукты: недавно компания представила новую модель Claude Opus 4.7, которая получила улучшения в программировании и финансовом анализе.

Будь в курсе! Подписывайся на Телеграм.