Суд США временно заблокировал претензии Трампа к Anthropic по рискам цепочки поставок.

Федеральный судья в Сан-Франциско удовлетворил просьбу Anthropic о временном облегчении после того, как Пентагон обозначил компанию как риск для цепочки поставок.

В постановлении от четверга судья Рите Лин из Окружного суда Северного округа Калифорнии выдала предварительный запрет Пентагону относительно этой маркировки. Он также временно приостанавливает директиву президента США Дональда Трампа, предписывающую федеральным агентствам прекратить использование чат-бота Claude от Anthropic.

“Ничто в действующем законодательстве не подтверждает орвеллианское представление о том, что американскую компанию можно заклеймить как потенциального противника и диверсанта Соединенных Штатов за выражение несогласия с правительством”, – заявила судья Лин.

Согласно данным Menlo Ventures, по состоянию на 2025 год Anthropic занимала лидирующие позиции на рынках корпоративного ИИ с долей в 32%, опережая OpenAI с 25%. Повсеместное запрещение Anthropic привело бы к резкому падению этой позиции.

Судья заявила, что эти “широкие карательные меры”, предпринятые администрацией Трампа и министром обороны Питом Хегсетхом, кажутся “произвольными, капризными и злоупотреблением правом”.

Постановление последовало за поданным Anthropic иском в федеральный суд Колумбии 9 марта, в котором утверждалось, что Хегсетх превысил свои полномочия, когда обозначил компанию как риск для национальной безопасности цепочки поставок.

Скриншот из судебного решения. Источник: Courtlistener

Anthropic выступала против автономного оружия и массовой слежки

Разногласия возникли из-за соглашения в июле 2025 года между компанией по искусственному интеллекту и Пентагоном о контракте, согласно которому Claude станет первой передовой моделью ИИ, одобренной для использования в засекреченных сетях.

Переговоры сорвались в феврале, когда Пентагон потребовал пересмотра, настаивая на том, чтобы Anthropic разрешила военное использование Claude “для всех законных целей” и без ограничений.

Anthropic настаивала на том, что ее технология не должна использоваться для создания летального автономного оружия и массовой внутренней слежки за американцами.

27 февраля Трамп приказал всем федеральным агентствам прекратить использование продуктов Anthropic. “Леворадикальные сумасшедшие из Anthropic совершили КАТАСТРОФИЧЕСКУЮ ОШИБКУ, пытаясь ВЫЖИМАТЬ Министерство Войны”, – написал он в Truth Social.

90-минутное судебное слушание состоялось в Сан-Франциско 24 марта, в ходе которого судья Лин задала представителям правительства вопрос о том, наказывается ли Anthropic за публичную критику Пентагона.

Классическая незаконная месть в соответствии с Первой поправкой

“Наказание Anthropic за привлечение общественного внимания к контрактной позиции правительства – это классическая незаконная месть в соответствии с Первой поправкой”, – говорится в постановлении от 26 марта.

Anthropic заявила в своем заявлении, что “признательна суду за оперативные действия и рада, что суд согласен с тем, что Anthropic, вероятно, добьется успеха по существу”.