Сэм Альтман направил сотрудникам OpenAI внутренний меморандум, в котором обозначил те же принципиальные ограничения, что уже поставили компанию Anthropic в центр острого конфликта с Пентагоном: никакого искусственного интеллекта для массовой слежки и автономного летального оружия. «Мы давно убеждены в том, что ИИ не должен применяться для массовой слежки или создания автономных систем смертоносного оружия, а человек обязан сохранять контроль над автоматизированными решениями с высокими ставками. Это наши главные красные линии», — написал он.
Если аналогичную позицию займут другие лидеры отрасли — в первую очередь Google, — это существенно осложнит планы военного ведомства найти замену модели Claude от Anthropic, которая стала первым ИИ-инструментом, интегрированным в наиболее засекреченные операции американских военных. Более того, подобный шаг стал бы первым случаем, когда ведущие технологические компании страны совместно обозначили границы допустимого использования своих разработок государством.
Вместе с тем Альтман дал понять, что не намерен разрывать отношения с Пентагоном — напротив, он рассчитывает заключить соглашение, которое позволит развернуть ChatGPT в закрытых военных системах. «Мы попробуем найти с [Пентагоном] договоренность, позволяющую использовать наши модели в засекреченных средах и соответствующую нашим принципам. Мы бы попросили, чтобы контракт охватывал любое применение, кроме незаконного или несовместимого с облачными развертываниями, — такого как внутренняя слежка и автономные наступательные вооружения», — говорится в меморандуме. Первым о нем сообщил The Wall Street Journal.
Примечательно, что ChatGPT уже функционирует в несекретных военных системах, а переговоры о его переводе в засекреченный контур заметно активизировались на фоне конфликта Пентагона с Anthropic. Однако военные настаивали на том, чтобы OpenAI и Google согласились на использование их моделей «в любых законных целях» — тот самый стандарт, который Anthropic отвергла, поскольку он не учитывал её собственных ограничений. На эти условия недавно согласилась компания xAI Илона Маска, хотя Grok не рассматривается как полноценная замена Claude.
Среди механизмов соблюдения заявленных ограничений OpenAI, по данным источников Axios, рассматривает возможность непрерывного совершенствования систем безопасности и мониторинга по мере накопления опыта реальных развертываний. Компания также настаивает на присутствии исследователей с допуском к секретным сведениям, которые могли бы отслеживать применение технологии и консультировать правительство по вопросам рисков. Наконец, OpenAI добивается технических гарантий — в частности, ограничения моделей облачной средой без выхода на периферийные устройства вроде автономных вооружений. Судя по тому, как официальные лица Пентагона описывали свою позицию Axios, эти предложения могут встретить то же сопротивление, с которым столкнулась Anthropic: военные не намерены терпеть чрезмерное влияние частных компаний на критически важные государственные решения.
Тем временем противостояние вокруг Anthropic продолжает нарастать. После того как её генеральный директор Дарио Амодеи публично отстоял принципиальные ограничения компании, сотрудники OpenAI и Google подписали коллективное письмо с призывом к руководству противостоять «давлению» со стороны Пентагона. Эмиль Майкл — чиновник, ведущий переговоры с ведущими ИИ-компаниями, — назвал Амодеи «лжецом» с «комплексом бога», который «ставит под угрозу безопасность нации». Многие в Вашингтоне и Кремниевой долине, напротив, восприняли позицию Anthropic как проявление принципиальности, достойной уважения, — пусть и сопряженной со значительными финансовыми рисками. Альтман и Амодеи — бывшие коллеги по OpenAI, превратившиеся в непримиримых конкурентов после того, как последний покинул компанию ради создания Anthropic.
«Это тот случай, когда для меня важно поступить правильно, а не просто продемонстрировать показную твердость, — написал Альтман. — Но я понимаю, что в краткосрочной перспективе это может выглядеть не лучшим образом, и здесь очень много нюансов и контекста».