Крупнейшие компании в сфере искусственного интеллекта оказались «в корне неготовыми» к последствиям создания систем с интеллектуальными возможностями, сопоставимыми с человеческими. Об этом заявила организация Future of Life Institute (FLI), специализирующаяся на рисках, связанных с ИИ.
Согласно опубликованному FLI индексу безопасности, ни одна из компаний не получила оценку выше D по критерию «экзистенциального планирования» — способности предотвращать катастрофические риски от собственных разработок.
Один из пяти независимых рецензентов отчета отметил: несмотря на заявленные цели по созданию искусственного общего интеллекта (AGI), ни одна из проверенных организаций не представила «ни сколько-нибудь связного и реализуемого плана» по обеспечению контроля над такими системами.
AGI — это гипотетический этап развития ИИ, на котором система способна выполнять любые интеллектуальные задачи на уровне человека. Компания OpenAI, разработавшая ChatGPT, заявляет, что ее миссия — сделать AGI полезным для всего человечества. Однако сторонники строгих мер безопасности предупреждают: если такая система выйдет из-под контроля, она может представлять экзистенциальную угрозу и привести к катастрофическим последствиям.
Ведущие разработчики искусственного интеллекта не готовы справляться с рисками, которые сами же считают неизбежными. Об этом говорится в новом докладе американской некоммерческой организации Future of Life Institute (FLI). По оценке исследователей, ни одна из компаний, работающих над созданием искусственного общего интеллекта (AGI), не получила оценку выше D за стратегию по предотвращению экзистенциальных угроз.
«Индустрия принципиально не готова к реализации собственных заявленных целей», — говорится в докладе. «Компании утверждают, что смогут достичь уровня AGI в течение ближайших десяти лет, но при этом ни одна из них не представила серьезного плана по управлению связанными с этим рисками».
Индекс охватывает семь компаний: Google DeepMind, OpenAI, Anthropic, Meta, xAI, а также китайские Zhipu AI и DeepSeek. Оценка производилась по шести критериям, включая «нынешний вред» и «экзистенциальную безопасность». Самый высокий общий балл — C+ — получил стартап Anthropic. За ним следуют OpenAI с C и Google DeepMind с C-.
Future of Life Institute, базирующийся в США, занимается продвижением безопасного использования передовых технологий. Организация действует независимо, в том числе благодаря безоговорочному пожертвованию от основателя Ethereum Виталика Бутерина.
Аналогичный по духу отчет в тот же день опубликовала некоммерческая организация SaferAI. В нем говорится, что крупнейшие компании обладают «слабыми или крайне слабыми системами управления рисками», а их нынешний подход назван «неприемлемым».
Экспертное жюри FLI включало в себя ведущих специалистов по ИИ, в том числе британского ученого Стюарта Рассела и активистку Снеху Реванур, основательницу движения "Encode Justice", выступающего за регулирование технологий.
Профессор Массачусетского технологического института Макс Тегмарк, сооснователь FLI, заявил, что текущая ситуация вызывает тревогу. «Странно наблюдать, как компании создают сверхинтеллектуальные системы, не публикуя при этом ни одного плана по предотвращению возможных последствий», — отметил он. По его словам, это напоминает ситуацию, когда «в самом центре Нью-Йорка строят гигантскую атомную электростанцию, которая должна запуститься уже на следующей неделе — но при этом нет ни одного плана на случай аварии».
Ранее эксперты предполагали, что на решение проблем, связанных с AGI, у человечества будет несколько десятилетий. «Теперь сами компании говорят, что это вопрос нескольких лет», — сказал Тегмарк.
Он также отметил «поразительный» прогресс с февраля этого года, когда в Париже прошел глобальный саммит по ИИ. С тех пор вышли улучшенные версии моделей: Grok 4 от xAI, Gemini 2.5 от Google, а также видеогенератор Veo3 — все они значительно превзошли своих предшественников.
В компании Google DeepMind в ответ на публикацию заявили, что отчет не учитывает в полной мере ее усилия в области безопасности. «Наш системный подход к безопасности и надежности ИИ выходит далеко за пределы оценок, приведенных в докладе», — говорится в комментарии. За разъяснениями также обратились к OpenAI, Anthropic, Meta, xAI, Zhipu AI и DeepSeek.