Компания в сфере искусственного интеллекта Anthropic подала в понедельник иск против администрации Дональда Трампа, оспаривая решение Пентагона признать компанию и ее продукты «риском для цепочек поставок» после того, как переговоры о мерах безопасности для использования технологии сорвались в начале этого месяца.
Иск, поданный в федеральный суд в Калифорнии, утверждает, что как само это решение, так и распоряжение Трампа, предписывающее всем федеральным ведомствам прекратить использование технологий Anthropic, являются «беспрецедентными и незаконными».
Компания просит суд отменить решение Пентагона, предупреждая, что «последствия этого дела будут огромными». Подобная классификация риска для цепочек поставок обычно применяется к иностранным противникам США и фактически запрещает оборонным подрядчикам использовать продукцию такой компании.
«Конституция не позволяет правительству использовать свою огромную власть, чтобы наказывать компанию за ее защищенное высказывание», — говорится в иске. «Ни один федеральный закон не уполномочивает власти на действия, предпринятые в этом случае».
Юристы Anthropic заявили, что компания обратилась в суд «в качестве последней меры», утверждая, что федеральные власти «отомстили» фирме за «приверженность собственной защищенной позиции по вопросу огромной общественной значимости — безопасности искусственного интеллекта и ограничений ее собственных моделей». По словам адвокатов, администрация Трампа также пытается «уничтожить» экономическую ценность Anthropic.
Anthropic, изначально созданная с акцентом на безопасность технологий, с конца 2024 года предоставляет свои разработки Пентагону и разведывательным структурам через партнерство с компанией Palantir.
Компания стремилась подчеркнуть отличие от конкурентов в сфере ИИ, выступая за большую прозрачность и базовые ограничения при разработке таких технологий.
В ходе переговоров с Министерством обороны США Anthropic обозначила две «красные линии» — использование искусственного интеллекта для массового внутреннего наблюдения и для автономного оружия. В компании заявили, что ИИ пока недостаточно надежен, чтобы принимать решения о жизни и смерти, одновременно радикально расширяя возможности государственного наблюдения.
Пентагон отверг эти аргументы и настаивал на праве применять искусственный интеллект «для любых законных целей».
Переговоры окончательно сорвались в начале месяца. Генеральный директор Anthropic Дарио Амодеи заявил, что компания не могла «с чистой совестью» согласиться на условия Пентагона. На прошлой неделе министр обороны Пит Хегсет уведомил фирму о присвоении ей статуса риска для цепочек поставок, после чего Трамп распорядился немедленно прекратить использование продуктов Anthropic во всех федеральных ведомствах, включая ее флагманские модели Claude.
В иске ответчиками указаны Министерство обороны, ряд федеральных агентств и исполнительный офис президента.