Администрация Трампа приказала военным подрядчикам и федеральным агентствам прекратить сотрудничество с компанией Anthropic

Юлия Воробьева Эксклюзив
VK X OK WhatsApp Telegram

Согласно информации CNN, решение администрации Трампа стало результатом конфликта между Anthropic и Пентагоном, который может оказать значительное влияние на будущее использования технологий искусственного интеллекта. Министр обороны Пит Хегсет впоследствии отметил на платформе X, что Anthropic будет считаться «риском в цепочке поставок», что обычно относится к компаниям, которые могут быть связаны с иностранными противниками.

Этот конфликт достиг своего пика во вторник, когда в Пентагоне состоялась встреча между министром обороны и генеральным директором Anthropic Дарио Амодеи. Хотя встреча прошла в дружеской атмосфере, комментарии Трампа в пятницу указывают на эскалацию ситуации. Anthropic ранее заявила, что не собирается идти на уступки требованиям Пентагона, подчеркивая, что для них недопустимо использовать свои технологии для массового наблюдения или в качестве автономного оружия.

Пентагон, который использует систему искусственного интеллекта Claude от Anthropic в своих секретных сетях, выразил желание применять её для всех законных целей. Однако Anthropic установила две «красные линии» для Пентагона: использование Claude в автономном оружии и для массового наблюдения за гражданами США категорически запрещено.

Представитель Пентагона отметил, что они не заинтересованы в использовании ИИ с ограничениями и нуждаются в свободе в применении лицензированных технологий. На прошлой неделе Anthropic подтвердила, что не намерена поддаваться давлению.

Трамп, в своем сообщении на Truth Social, обвинил Anthropic в «катастрофической ошибке» и заявил, что компания пытается диктовать условия военным. Вскоре после этого Управление общих служб объявило о намерении исключить Anthropic из своего реестра поставщиков на сайте USAi.gov.

Хегсет в пятницу подтвердил, что ни один подрядчик или партнер, работающий с вооруженными силами США, не сможет вести дела с Anthropic. В то же время представители ИИ-индустрии, включая генерального директора OpenAI Сэма Альтмана, встали на защиту Anthropic, выразив опасения по поводу сотрудничества с Пентагоном.

Взаимодействие Anthropic с Пентагоном



Модель ИИ Claude от Anthropic была первой, интегрированной в секретные военные сети, с контрактом на сумму до 200 миллионов долларов, заключенным летом прошлого года. В отличие от других крупных компаний, таких как OpenAI, которые работали только с несекретными сетями, Anthropic удалось добиться более тесного сотрудничества.

Контракт также включал политику допустимого использования, которая запрещает использование системы Claude для массового наблюдения и автономного оружия.

Грегори Аллен, старший советник Центра стратегических и международных исследований, отметил, что пользователи в Министерстве обороны положительно относятся к Anthropic и Claude, и их ограничения на использование не вызывали проблем в прошлом.

Тем не менее, Пентагон не хочет зависеть от условий какой-либо компании. Представитель Пентагона заявил, что не может позволить себе «оперировать по принципу исключений» и что ответственность за соблюдение законов лежит на них как на конечных пользователях.

Пентагон стремится избежать ситуации, угрожающей национальной безопасности, когда ему необходимо согласовывать действия с любой компанией.

Разрыв отношений с Anthropic может создать трудности для Пентагона, так как им придется заменить все внутренние системы, использующие Claude. Хотя система ИИ Grok Илона Маска может быть использована в секретных условиях, она не считается такой же высокоразвитой, как Claude.

Последствия для бизнеса Anthropic



Хотя потеря контракта на 200 миллионов долларов может показаться значительной, для Anthropic, чья рыночная капитализация оценивается примерно в 380 миллиардов долларов, это не представляет угрозы выживанию. Однако риски, связанные с цепочкой поставок, могут создать проблемы для компаний, работающих с американскими военными, требуя от них доказательства отсутствия связей с Anthropic.

Успех Anthropic во многом зависит от корпоративных контрактов с крупными компаниями, которые могут иметь связи с Пентагоном.

«Существующая клиентская база Anthropic, большая ее часть, может исчезнуть из-за наличия государственных контрактов или желания заключить контракты с ней в будущем», — отметил Адам Коннор, вице-президент по технологической политике в Центре американского прогресса.

Дженсен Хуанг, глава Nvidia, выразил надежду на достижение компромисса между Пентагоном и Anthropic, отметив, что даже если этого не произойдет, это не станет концом света, так как есть и другие компании, занимающиеся ИИ, с которыми Пентагон может сотрудничать.

Также Пентагон сообщил о возможности применения Закона об оборонных закупках 1950 года для принуждения Anthropic к сотрудничеству, однако неясно, как это будет сочетаться с признанием компании угрозой для цепочки поставок.

В заявлении Трампа не упоминалось о возможности применения соглашения об отсрочке судебного преследования.

«Anthropic не единственная компания, находящаяся под угрозой», — добавил Коннор, подчеркнув, что действия Пентагона служат сигналом для других компаний, работающих в сфере ИИ и стремящихся к правительственным контрактам.

«Это предостережение для других компаний, с которыми ведутся переговоры о сотрудничестве, чтобы они не вводили никаких ограничений на использование ИИ», — заключил Коннор.

Если бы Пентагон был просто недоволен условиями Anthropic, он мог бы расторгнуть контракт и найти другую модель ИИ, но, похоже, правительство хочет продолжать использовать технологии Anthropic, применяя все возможные рычаги влияния.

Неясно, как Пентагон планирует заменить системы Anthropic и какие дальнейшие действия будет предпринимать администрация в этой ситуации.

«В условиях гонки ИИ с Китаем, сравнимой с космической гонкой времен холодной войны, нельзя поджигать такие компании, как Anthropic», — отметил Аллен в интервью Bloomberg, добавив, что необходимо найти лучший способ разрешения конфликта.
VK X OK WhatsApp Telegram

Читайте также: