Президент Трамп объявил о намерении внести Anthropic в черный список правительства США — решение, которое уже называют самым значимым и спорным на стыке искусственного интеллекта и национальной безопасности. Поводом стал отказ компании выполнить требование Пентагона полностью снять ограничения на использование ее модели Claude в военных целях. В Anthropic заявили, что не готовы идти на это из-за рисков массовой внутренней слежки и разработки систем вооружения, способных применять силу без участия человека.
Пентагон реализует ранее озвученную угрозу признать Anthropic «риском для цепочки поставок» — меру, которую обычно применяют к компаниям из недружественных государств, включая китайского технологического гиганта Huawei. Министерство обороны планирует разорвать контракт с Anthropic на сумму до $200 млн и обязать всех подрядчиков сертифицировать, что в их рабочих процессах не используется Claude. Компания также будет отстранена от любого другого сотрудничества с государственными структурами. Для перехода на альтернативные решения предусмотрен шестимесячный период.
«Я поручаю КАЖДОМУ федеральному агентству правительства США НЕМЕДЛЕННО ПРЕКРАТИТЬ любое использование технологии Anthropic», — написал Трамп в Truth Social. Ситуацию делает особенно необычной то, что Claude на данный момент является единственной ИИ-моделью, применяемой в засекреченных военных системах. По данным источников, ее использовали в операции по захвату Николаса Мадуро, и теоретически она могла бы применяться в потенциальной военной операции против Ирана.
Представители оборонного ведомства высоко оценивали возможности Claude, признавая, что отказ от нее станет «серьезной головной болью». Дополнительные сложности возникают и для Palantir, которая использует Claude в самых чувствительных военных проектах и теперь, вероятно, будет вынуждена договариваться с конкурентами Anthropic. Трамп, в свою очередь, заявил, что США «НИКОГДА НЕ ПОЗВОЛЯТ РАДИКАЛЬНОЙ ЛЕВОЙ, WOKE-КОМПАНИИ ДИКТОВАТЬ, КАК НАША ВЕЛИКАЯ АРМИЯ ВЕДЕТ И ВЫИГРЫВАЕТ ВОЙНЫ». Он также обвинил руководство Anthropic в попытке навязать военному ведомству собственные условия вместо следования Конституции.
Примерно за сутки до этого генеральный директор Anthropic Дарио Амодеи публично отклонил то, что Пентагон называл «лучшим и окончательным предложением», заявив, что компания «не может с чистой совестью согласиться на эти требования». В ответ высокопоставленный представитель Пентагона Эмил Майкл назвал Амодеи «лжецом» с «комплексом бога», готовым, по его словам, поставить безопасность страны под угрозу. Ни Anthropic, ни Пентагон не дали оперативного комментария по запросу журналистов.
Пока неясно, будет ли Anthropic оспаривать решение в суде. На кону — сотни миллионов долларов, поскольку многие компании, работающие или планирующие работать с государством, могут отказаться от использования Claude. За последние годы Anthropic демонстрировала стремительный рост и закреплялась в ключевых корпоративных сегментах рынка ИИ. За последние сутки Амодеи и его команда получили широкую поддержку за свою принципиальную позицию, однако финансовая цена этого шага пока остается неопределенной.
В Пентагоне настаивают, что границы между массовой слежкой и допустимыми мерами безопасности, а также между автономными и полуавтономными системами вооружения часто размыты. По мнению военных, невозможно разбирать каждый случай использования инструмента с частной компанией. Их позиция заключается в том, что после покупки технологии армия должна самостоятельно определять стандарты и процедуры ее применения, а потому от всех ИИ-поставщиков требуется доступ к моделям «для всех законных целей».
Министр обороны Пит Хегсет неоднократно выступал против «woke-ИИ», а администрация Трампа в целом становилась все более враждебной по отношению к Anthropic, несмотря на растущую зависимость военных от ее модели. «Единственная причина, по которой мы все еще ведем с ними разговоры, — нам они нужны, и нужны прямо сейчас. Их проблема в том, что они действительно настолько хороши», — признал один из представителей оборонного ведомства накануне напряженной встречи Хегсета и Амодеи.
Параллельно xAI Илона Маска недавно подписала соглашение о допуске модели Grok к использованию в засекреченных военных системах, хотя источники сомневаются, что она сможет полноценно заменить Claude. Модели Google Gemini и ChatGPT от OpenAI уже применяются в незасекреченных системах, а Пентагон ускоряет переговоры об их допуске к работе с секретными данными. За последние сутки сотни сотрудников Google и OpenAI подписали петицию с призывом к своим компаниям занять такую же позицию, как Anthropic. Генеральный директор OpenAI Сэм Альтман сообщил сотрудникам, что компания сохранит те же «красные линии» в вопросах слежки и автономного оружия, но при этом по-прежнему рассчитывает договориться с Пентагоном.