ИИ-хакерство: как искусственный интеллект становится взломщиком

Когда Влад Ионеску и Ариэль Герберт-Восс, основатели кибербезопасного стартапа RunSybil [1], получили уведомление от своего ИИ-инструмента, они были на мгновение озадачены. Их система Sybil обнаружила сложную, ранее неизвестную уязвимость. Оказалось, что инструмент Sybil от RunSybil обнаружил уязвимость в том, как клиент развернул federated GraphQL, из-за чего светил конфиденциальной информацией [4]. Что поразило создателей, так это глубина анализа: для выявления проблемы требовалось понимание тонкого взаимодействия нескольких систем — уровень «рассуждений», который стал для них неожиданностью. Эта история — не просто частный успех, а яркий симптом более крупного явления. Тот факт, что ИИ обнаружил zero-day уязвимость такого уровня, демонстрирует качественный скачок в его возможностях. Способности ИИ-моделей к обнаружению и эксплуатации сложных уязвимостей достигли «переломного момента». Кибербезопасность вступает в новую эру, где искусственный интеллект становится не только защитником, но и потенциально самым изощренным взломщиком.

Качественный скачок: Как ИИ научился мыслить как хакер

Ключевым примером, иллюстрирующим этот качественный скачок, стал случай с компанией RunSybil, чей ИИ-инструмент обнаружил критическую уязвимость в системе клиента. Проблема заключалась не в простом дефекте кода, а в сложной логической ошибке в развертывании federated GraphQL — архитектурного подхода, который позволяет объединять данные из множества разных сервисов или баз данных в единый, унифицированный граф. Он используется для эффективного доступа к данным через API, позволяя клиентам запрашивать только нужную информацию. Сложность уязвимости была в том, что для ее обнаружения требовалось глубокое понимание взаимодействия нескольких независимых систем — задача, которая ставит в тупик даже опытных специалистов по безопасности. Как подчеркнула соосновательница RunSybil Ариэль Герберт-Восс, информации об этой конкретной уязвимости просто не существовало в интернете, что доказывает: ИИ не просто нашел известную ошибку, а пришел к ее открытию путем самостоятельных рассуждений.

Что же позволило ИИ достичь такого уровня понимания? По мнению Дон Сонг, специалиста по ИИ и кибербезопасности из Калифорнийского университета в Беркли, ответ кроется в двух ключевых технологических прорывах: имитации рассуждений и развитии агентского ИИ. Чтобы понять, что такое агентский ИИ в кибербезопасности, представьте тип искусственного интеллекта, который может самостоятельно планировать, выполнять сложные задачи, взаимодействовать с внешними системами (например, искать информацию в интернете, запускать программы) и корректировать свои действия для достижения цели. В этой сфере это означает способность ИИ действовать как полноценный хакер. Вместо пассивного сканирования кода на наличие известных сигнатур, такие модели способны «мыслить» стратегически.

Имитация рассуждений позволяет ИИ разбивать глобальную проблему на более мелкие, управляемые подзадачи. Например, столкнувшись со сложной системой, агентский ИИ может сначала изучить документацию, затем установить необходимое программное обеспечение для тестирования, провести серию многоэтапных проверок и проанализировать результаты для формулирования гипотезы об уязвимости. Именно этот комплексный подход, сочетающий автономность и логическое мышление, позволяет моделям находить глубокие системные ошибки, такие как уязвимости federated GraphQL в сложных развертываниях, которые ранее были доступны для понимания только человеку.

Гонка вооружений в цифрах: От CyberGym до Claude 4.5

Чтобы перевести дискуссию о растущих кибер-угрозах из области гипотез в плоскость фактов, необходимы объективные измерительные инструменты. Именно таким полигоном стал бенчмарк CyberGym для ИИ, созданный при участии профессора UC Berkeley Дон Сонг. Его масштаб впечатляет: бенчмарк CyberGym, созданный при участии Dawn Song, содержит 1507 известных уязвимостей в 188 open-source проектах [2]. Это не просто набор задач, а реальная среда для проверки способности искусственного интеллекта находить слабые места в коде, которым пользуются миллионы.

Динамика, продемонстрированная на этом стенде, подтверждает тезис о «переломном моменте» лучше всяких слов. Производительность больших языковых моделей (LLM) в кибербезопасности резко растет: в июле 2025 года Claude Sonnet 4 от Anthropic смог обнаружить около 20% уязвимостей в бенчмарке CyberGym, а к октябрю 2025 года Claude Sonnet 4.5 выявил уже 30% [3]. Такой скачок всего за несколько месяцев наглядно показывает, с какой скоростью развиваются современные ИИ-модели, о регуляторных аспектах которых мы писали в статье «Регуляторы против Grok: Борьба с ИИ-дипфейками на платформе X» [2]. Речь идет уже не о теоретической возможности, а о практическом инструменте, где ИИ модели находят zero-day баги — это критические уязвимости в программном обеспечении, о которых разработчики или общественность еще не знают, и для которых, соответственно, не существует патчей или исправлений. Хакеры могут использовать их «в день ноль» обнаружения, пока защита не готова.

Конечно, скептики могут указать, что, несмотря на рост, текущие модели обнаруживают лишь малую часть известных уязвимостей (70% в CyberGym остаются незамеченными), что указывает на сохранение значительного разрыва в возможностях. Однако этот аргумент упускает из виду главное. Суть переломного момента заключается не в достижении абсолютного стопроцентного результата здесь и сейчас, а в экспоненциальной скорости роста возможностей. Если за квартал эффективность модели увеличивается на 50% от предыдущего показателя, то вопрос «когда ИИ сможет находить большинство уязвимостей?» переходит из разряда «если» в разряд «когда именно». Именно эта стремительная динамика и заставляет экспертов по безопасности бить тревогу.

Новая реальность: Риски и угрозы в эпоху ИИ-хакерства

Стремительный рост навыков искусственного интеллекта в генерации кода и автоматизации действий на компьютере предоставляет хакерам серьезное преимущество, делая наступательные кибероперации более дешевыми, быстрыми и масштабируемыми. Эта трансформация несет с собой целый спектр угроз, формируя новую, куда более опасную реальность для цифрового мира.

Ключевой и, возможно, самый тревожный аспект этой новой эры — демократизация киберпреступности. Порог входа для злоумышленников резко снижается. Если раньше для обнаружения уязвимостей нулевого дня (zero-day) требовались глубокие познания и значительные ресурсы, то сегодня доступность эффективных ИИ-инструментов открывает эти возможности для гораздо более широкого круга лиц. Автономный поиск уязвимостей [3], как показывают передовые разработки в области ИИ-агентов, перестает быть прерогативой элитных хакерских групп, превращаясь в доступный сервис.

Это порождает каскад экономических и технологических рисков. Компании и правительства сталкиваются с необходимостью резкого увеличения затрат на кибербезопасность [1] и страхование, чтобы противостоять новому классу масштабируемых ИИ-атак. Одновременно мы вступаем в изнурительную технологическую гонку вооружений. Существующие защитные системы и методологии, рассчитанные на человеческую скорость и логику, стремительно устаревают. Они оказываются неспособны противостоять скорости и изощренности эксплойтов, генерируемых нейросетями, которые могут тестировать тысячи векторов атак за считанные минуты.

На вершине этой пирамиды угроз находится стратегический риск: использование передовых ИИ-моделей враждебными государствами или крупными преступными синдикатами для проведения атак на критически важную инфраструктуру — от энергосетей до финансовых систем. Конечно, стоит отметить, что сложность реальных корпоративных сетей и необходимость глубокого контекстуального понимания для проведения успешных многоэтапных атак все еще могут ограничивать эффективность полностью автономных ИИ-агентов. Однако этот барьер не является непреодолимым. С каждым новым поколением моделей он становится все ниже, и полагаться на него как на долгосрочную защиту — крайне недальновидно.

Контрмеры против ИИ-хакерства: Открытость и безопасность «по умолчанию»

На фоне растущих наступательных возможностей ИИ экспертное сообщество активно ищет адекватные контрмеры. Вместо того чтобы просто реагировать на угрозы, предлагается действовать на опережение, используя интеллект машин для укрепления обороны. Профессор Калифорнийского университета в Беркли Дон Сонг, специализирующаяся на ИИ и безопасности, выдвигает два ключевых предложения, способных изменить баланс сил в пользу защитников.

Первое — это призыв к открытости и проактивному поиску уязвимостей. Сонг настаивает на том, чтобы ведущие ИИ-компании предоставляли исследователям безопасности доступ к своим передовым моделям до их публичного релиза. Это позволило бы использовать мощь самих нейросетей для выявления слабых мест в критически важных системах, прежде чем ими воспользуются злоумышленники. Однако такой подход не лишен рисков. Требование делиться флагманскими разработками создает высокие риски утечки критически важной интеллектуальной собственности и потенциального злоупотребления технологиями, которые еще не были до конца изучены с точки зрения безопасности.

Второе, более фундаментальное предложение — это переосмысление самого процесса разработки программного обеспечения через внедрение подхода secure-by-design. Это подход к разработке программного обеспечения, при котором безопасность закладывается в архитектуру системы с самого начала, а не добавляется в конце. Цель — минимизировать уязвимости по умолчанию, делая продукт устойчивым к атакам. Искусственный интеллект здесь может сыграть решающую роль, помогая генерировать secure by design ИИ код, который изначально будет более защищенным, чем тот, что сегодня пишут многие программисты.

Впрочем, и эта стратегия имеет свою оборотную сторону. Массовое внедрение ИИ для генерации кода по принципу «безопасности по умолчанию» может привести к появлению новых, системных уязвимостей. Если в обучающих данных или архитектуре самих генеративных моделей будут скрытые ошибки, они могут тиражироваться в огромных масштабах, создавая целые классы программных продуктов с идентичными, еще не известными недостатками. Таким образом, предложенные контрмеры, хотя и являются конструктивным ответом на новые вызовы, сами порождают сложные дилеммы, требующие взвешенного подхода.

Три сценария будущего кибербезопасности

Мы стоим на пороге переломного момента. Развитие искусственного интеллекта в кибербезопасности представляет собой классическую дилемму двойного назначения: технологии, способные находить уязвимости с невиданной ранее скоростью, могут служить как для создания неуязвимых систем, так и для совершения разрушительных атак. Будущее цифрового мира во многом зависит от того, какая сторона в этом противостоянии возьмет верх, и сегодня можно выделить три наиболее вероятных сценария развития событий.

В позитивном сценарии регуляторы и разработчики успешно внедряют подход secure-by-design, используя ИИ для генерации безопасного кода, что приводит к общему снижению системных уязвимостей и повышению цифровой устойчивости. Нейтральный путь — это постоянная «гонка вооружений» между наступательным и оборонительным ИИ; в этом случае затраты на безопасность растут, но критические угрозы сдерживаются благодаря быстрому реагированию и обмену информацией между ИИ-компаниями и исследователями. Наконец, негативный сценарий предполагает, что наступательные ИИ-возможности опережают защитные, что приводит к волне масштабных и дешевых эксплойтов, подрыву доверия к цифровым системам и значительным экономическим потерям в ключевых секторах.

Какой из этих путей станет нашей реальностью, не предопределено. Выбор делается прямо сейчас — совместными усилиями исследователей, создателей ИИ-моделей, специалистов по безопасности и регуляторов. От их способности к сотрудничеству и выработке проактивных стратегий зависит, станет ли искусственный интеллект главным защитником нашего цифрового будущего или его самой большой угрозой.

Часто задаваемые вопросы

Что демонстрирует качественный скачок в возможностях ИИ-хакеров, согласно статье?

Качественный скачок демонстрирует случай со стартапом RunSybil, чей ИИ-инструмент Sybil обнаружил сложную zero-day уязвимость в развертывании federated GraphQL. Эта проблема требовала глубокого понимания взаимодействия нескольких систем, что создатели расценили как уровень «рассуждений», ранее недоступный для ИИ.

Какие два ключевых технологических прорыва позволили ИИ научиться мыслить как хакер?

По мнению специалиста по ИИ и кибербезопасности Дон Сонг, это стало возможным благодаря имитации рассуждений и развитию агентского ИИ. Агентский ИИ способен самостоятельно планировать, выполнять сложные задачи и корректировать свои действия, что позволяет ему действовать как полноценный хакер.

Что такое бенчмарк CyberGym и как он иллюстрирует рост возможностей ИИ?

CyberGym — это масштабный полигон для тестирования ИИ, содержащий 1507 известных уязвимостей в 188 open-source проектах. Динамика на этом стенде показывает, что производительность LLM резко растет: например, Claude Sonnet 4.5 увеличил процент обнаруженных уязвимостей с 20% до 30% всего за один квартал 2025 года.

Какая главная угроза связана с демократизацией киберпреступности в эпоху ИИ-хакерства?

Главная угроза заключается в резком снижении порога входа для злоумышленников, поскольку доступность эффективных ИИ-инструментов открывает возможности автономного поиска zero-day уязвимостей для гораздо более широкого круга лиц. Это делает наступательные кибероперации более дешевыми, быстрыми и масштабируемыми.

Какие две основные контрмеры против ИИ-хакерства предлагает профессор Дон Сонг?

Дон Сонг предлагает две ключевые стратегии: призыв к открытости, требуя от ведущих ИИ-компаний предоставлять исследователям доступ к своим моделям до публичного релиза, и внедрение подхода secure-by-design. Последний предполагает, что безопасность закладывается в архитектуру программного обеспечения с самого начала разработки.

Релевантные статьи

Изометрическая иллюстрация, показывающая, как нулевые налоги Индия ИИ привлекают мировые инвестиции в ЦОД.

02.02.2026

В условиях стремительного ускорения глобальной гонки за создание инфраструктуры искусственного интеллекта Индия сделала решительный и беспрецедентный шаг, способный кардинально изменить...