Новые ИИ-модели для кибербезопасности от Anthropic и OpenAI демонстрируют заметный рост возможностей, однако пока остаются сильно зависимыми от участия опытных специалистов. Такой вывод сделали компании и исследователи, тестирующие системы в реальных условиях.
Результаты показывают, что следующая стадия развития ИИ в сфере кибербезопасности может строиться не на полностью автономных атаках, а на взаимодействии человека и алгоритмов — когда люди направляют, проверяют и интерпретируют работу все более мощных моделей.
Когда Anthropic представила модель Mythos Preview, компания заявила, что она способна находить десятки тысяч уязвимостей практически во всех типах операционных систем. Независимые тесты также показали, что GPT-5.5-Cyber от OpenAI демонстрирует сопоставимые результаты при поиске ошибок и создании эксплойтов.
Интерес к подобным системам уже проявляют крупные компании и государственные структуры, пытающиеся понять, с какими угрозами им придется столкнуться, если подобные инструменты окажутся в распоряжении злоумышленников.
Первые результаты испытаний показывают значительное повышение эффективности поиска уязвимостей. В Palo Alto Networks сообщили, что с помощью моделей Anthropic и OpenAI исследователи обнаружили 75 ошибок — при том, что обычно компания находит от пяти до десяти в месяц. Кроме того, системы стали лучше объединять отдельные слабые уязвимости в более сложные сценарии атак.
Microsoft заявила, что ее новая система безопасности с элементами ИИ обнаружила 16 новых уязвимостей в сетевой инфраструктуре Windows. В компании предупредили, что развитие подобных инструментов может увеличить общее количество обнаруживаемых ошибок, создавая дополнительную нагрузку на специалистов, которым придется быстрее проверять и устранять проблемы.
Cisco представила открытый документ Foundry Security Spec, описывающий принципы использования продвинутых ИИ-моделей в корпоративной безопасности. В компании отмечают, что современные системы часто выдают убедительно звучащие, но ошибочные выводы.
«Передовые модели формируют уверенные и правдоподобные заявления об уязвимостях, которые оказываются неверными настолько часто, что использовать их выводы без проверки невозможно», — говорится в документе.
Тестирование показало, что лучшие результаты достигаются при участии опытных исследователей, способных проверять выводы системы и отделять реальные угрозы от ложных срабатываний.
Стартап XBOW, занимающийся автоматизированным тестированием на проникновение, назвал Mythos «чрезвычайно мощным инструментом для аудита исходного кода». Однако компания также отметила, что модель оказалась менее эффективной при проверке практической применимости найденных уязвимостей и иногда переоценивала их значимость.
Palo Alto Networks зафиксировала уровень ложных срабатываний около 30 процентов, хотя этот показатель снижался после дополнительной адаптации модели под конкретную среду.
Разработчик проекта Curl Даниэль Стенберг сообщил, что Mythos нашла одну незначительную ошибку и одновременно указала на несколько ложных проблем и еще одну уязвимость, которую команда в итоге сочла несущественной.
В XBOW сравнили современные ИИ-системы с «мозгом без тела».
«Модель — это мозг без тела», — написал глава направления ИИ Альберт Циглер. По его словам, система показывает максимальную эффективность, когда рядом находится человек, чьи навыки и контроль соответствуют возможностям самой модели.
При этом исследователи предупреждают, что злоумышленники могут адаптироваться к новым инструментам быстрее защитников. Как отметил директор по продуктам Palo Alto Networks Ли Кларич, у хакеров уже есть необходимые знания о способах эксплуатации уязвимостей.
Дополнительную тревогу вызывают результаты исследования Института безопасности ИИ Великобритании. В опубликованной работе отмечается, что модели способны значительно улучшать свои возможности без выпуска новых версий — только за счет увеличения вычислительных ресурсов и масштабирования процессов обработки данных.