Как ИИ влияет на выборы: новая эра политического убеждения

В январе 2024 года телефоны зазвонили в домах по всему Нью-Гэмпширу. На другом конце провода был голос Joe Biden, призывающий демократов «сохранить свой голос», пропустив праймериз. Звонок сгенерировал искусственный интеллект [1]. Этот инцидент стал ярким примером того, как ИИ уже используется для создания убедительных фейковых медиа в политических кампаниях. Однако технология, стоящая за этим обманом, сегодня выглядит почти устаревшей на фоне инструментов вроде Sora, способных с поразительной легкостью генерировать синтетические видео. Страх, что выборы могут быть захлестнуты реалистичными фейками, стал мейнстримом, и не без оснований. Но это лишь часть истории. Гораздо более глубокая угроза заключается не в том, что ИИ может просто имитировать людей, а в том, что он способен активно их убеждать. Новые исследования подтверждают эту беспрецедентную силу воздействия. В ближайшие годы мы увидим расцвет ИИ, способного персонализировать аргументы и незаметно изменять политические взгляды в огромных масштабах. Именно этот сдвиг — от имитации к активному персонализированному убеждению искусственным интеллектом — должен вызывать у нас глубокую тревогу.

От имитации к убеждению: как ИИ становится машиной влияния

Первоначальный страх перед искусственным интеллектом в политике был сосредоточен на убедительных дипфейках, однако эта технология — лишь верхушка айсберга. Сегодня главная угроза ИИ в выборах — не имитация, а то, как ИИ убеждает избирателей через активное персонализированное воздействие, значительно более эффективное, чем традиционная реклама. Произошел фундаментальный технологический сдвиг: от простого копирования голосов и лиц ИИ эволюционировал до систем, способных вести осмысленный диалог, анализировать эмоциональные реакции собеседника и на лету адаптировать аргументы для достижения максимального эффекта. Искусственный интеллект перестал быть инструментом подделки и превратился в полноценную ИИ машину влияния в политике.

Концепция такой «машины убеждения» — это уже не футуристическая фантазия, а реально существующая архитектура, где различные ИИ-модели работают в связке. Одна нейросеть, обученная на огромных массивах текстов, пишет персонализированные сообщения. Другая, генеративная модель, создает под них уникальные изображения или видео, которые с большей вероятностью вызовут нужную эмоциональную реакцию. Третий ИИ, действуя как цифровой маркетолог, оптимизирует каналы распространения и в реальном времени отслеживает, какие комбинации текста и визуала работают лучше всего, постоянно обучаясь и совершенствуя тактику.

Всего десятилетие назад для подобных операций требовались целые «фабрики троллей» — армии людей, управляющих фейковыми аккаунтами. Этот процесс был дорогостоящим, медленным и оставлял цифровые следы. Теперь же современный ИИ способен автоматизировать масштабные кампании влияния, генерируя и распространяя убедительный контент дёшево и незаметно, практически без участия человека. Процесс, на который раньше уходили месяцы и миллионы долларов, теперь может быть запущен за считанные часы с минимальным бюджетом, что делает его доступным для гораздо более широкого круга игроков.

Самая тревожная черта этой новой реальности — повсеместность. Убеждение перестает быть чем-то, что мы видим в явной политической рекламе. Оно может быть тонко вплетено в ткань наших повседневных цифровых взаимодействий. Алгоритмы рекомендаций в социальных сетях, диалоги с чат-ботами в обучающих приложениях, ответы голосовых помощников — все это потенциальные каналы для скрытого формирования мнений. Влияние становится не эпизодическим событием, а постоянным фоном, незаметно направляющим наши взгляды и решения.

Экономика убеждения: сколько стоит повлиять на выборы?

Раньше масштабные операции по влиянию на общественное мнение требовали ресурсов, сопоставимых с бюджетами спецслужб или крупных корпораций. Сегодня, с появлением генеративного ИИ, эта парадигма рухнула, а стоимость ИИ убеждения на выборах стала поразительно низкой, практически устранив финансовый барьер для входа.

Основа ценообразования в этой новой экономике — API-запросы к большим языковым моделям, стоимость которых рассчитывается на основе обработанного объема информации. Ключевой единицей здесь выступают токены текста — это базовые единицы, на которые разбивается текст для обработки большими языковыми моделями. Это могут быть слова, части слов, символы или знаки препинания, и их количество напрямую влияет на стоимость и скорость обработки запросов. Проще говоря, чем больше текста генерирует или анализирует ИИ, тем выше стоимость, но текущие тарифы позволяют оперировать в национальных масштабах.

Расчеты показывают ошеломляющую картину. Стоимость массового персонализированного ИИ-убеждения для миллионов избирателей крайне низка: создание и рассылка уникальных сообщений для каждого из 174 миллионов зарегистрированных избирателей в США обойдется в сумму менее 1 миллиона долларов. Но еще более шокирующим является микротаргетинг: те самые 80 000 колеблющихся избирателей, решивших исход выборов 2016 года, можно было бы охватить менее чем за 3000 долларов [2]. Эта сумма сопоставима со стоимостью одного рекламного щита в небольшом городе, но потенциальный эффект несоизмеримо выше.

Таким образом, вопрос о проведении масштабной кампании по убеждению перестал быть вопросом денег. Он стал вопросом воли и наличия базовых технических навыков. Когда цена влияния на исход выборов в ключевых штатах падает до уровня карманных расходов для многих организаций или даже частных лиц, демократические процессы оказываются под угрозой нового, ранее немыслимого масштаба.

Доказанная эффективность: когда чат-бот убедительнее человека

Скепсис в отношении способности машин влиять на человеческие убеждения уступает место тревожным фактам, подкреплённым научными данными. Недавние рецензируемые исследования демонстрируют, что ИИ-чат-бот, о потенциале которого мы писали в статье «ИИ-компаньоны и приватность: Будущее нашей цифровой души» [1], способен изменять взгляды избирателей на 10-25 процентных пунктов всего за несколько коротких диалогов. Эти цифры ошеломляют, особенно в сравнении с традиционной политической рекламой, чей эффект редко превышает один-два пункта. Более того, эксперименты показали, что передовые модели, такие как GPT-4, превосходят в убедительности даже профессиональных экспертов по коммуникациям, генерируя аргументы, которые находят больший отклик у аудитории. Конечно, существует и контраргумент: эффективность ИИ-убеждения может быть преувеличена, поскольку со временем избиратели могут развить иммунитет или более критическое мышление по отношению к синтетическому контенту. Однако даже с учётом этого фактора, ключевой проблемой становится беспрецедентная технологическая доступность.

С одной стороны, крупные корпорации, такие как OpenAI, Anthropic и Google, вводят ограничения и политики безопасности для своих флагманских продуктов. Они отслеживают и блокируют аккаунты, нарушающие правила использования. Но эти барьеры действуют лишь в рамках их закрытых платформ. С другой стороны, стремительно растёт экосистема моделей с открытым исходным кодом, которые позволяют полностью обходить эти ограничения. Чтобы понять масштабы угрозы, необходимо разобраться в терминологии. В основе этих систем лежат большие языковые модели (LLM) — это тип искусственного интеллекта, обученный на огромных объемах текстовых данных для понимания, генерации и обработки человеческого языка. Они способны вести диалоги, отвечать на вопросы и создавать разнообразный текстовый контент. В то время как коммерческие гиганты пытаются контролировать свои разработки, настоящую свободу действий злоумышленникам предоставляют модели ИИ с открытым исходным кодом и открытым весом — это ИИ-модели, чьи программный код и обученные параметры (веса) доступны для публичного использования, модификации и распространения. Это позволяет любому желающему скачивать и запускать их, обходя ограничения коммерческих платформ.

Эта технология уже проходит обкатку на реальных электоральных полях. На всеобщих выборах в Индии в 2024 году миллионы долларов были потрачены на ИИ для сегментации электората и доставки персонализированных сообщений. На Тайване исследователи задокументировали связанные с Китаем операции, использующие генеративный ИИ для создания более тонкой дезинформации. Неудивительно, что главными бенефициарами этой технологической гонки становятся иностранные противники США. Таким образом, иностранное вмешательство с помощью ИИ в выборы становится главной угрозой, поскольку оснащённые локализованными и дообученными открытыми моделями сети троллей и ботов могут действовать с невиданной ранее эффективностью, не требуя даже операторов, знающих язык и культурный контекст страны-цели.

Регуляторный вакуум: почему США отстают в защите демократии

Пока технология ИИ-убеждения стремительно развивается, американские законодатели заметно отстают, создавая опасный регуляторный вакуум. В последние годы их внимание было приковано к более очевидной угрозе — дипфейкам, в то время как более тонкая и масштабная проблема убеждения оставалась в тени. Это создает серьезный правовой риск: в стране отсутствует адекватное законодательство и механизмы правоприменения для противодействия новым вызовам. Текущие усилия в США носят фрагментарный и недостаточный характер. Федеральная избирательная комиссия (FEC) пытается применять устаревшие положения о мошенничестве, Федеральная комиссия по связи (FCC) предлагает узкие правила раскрытия информации для рекламных роликов, а отдельные штаты принимают законы, сфокусированные преимущественно на дипфейках. Эти меры не затрагивают большую часть цифровых кампаний, оставляя огромные пробелы в защите электорального процесса.

На практике основная ответственность за обнаружение и пресечение скрытых кампаний по убеждению ложится на частные компании, такие как Google, Meta, X и TikTok. Однако их политика добровольна, непоследовательна и имеет существенные слепые зоны. Правила, требующие раскрытия информации об использовании ИИ в политической рекламе, охватывают лишь малую часть платного и публично демонстрируемого контента. Они практически не регулируют неоплачиваемые, частные кампании по убеждению, которые могут оказаться наиболее влиятельными.

На этом фоне подход Европейского Союза выглядит разительным контрастом. В то время как США отстают в регулировании ИИ-убеждения, полагаясь на добровольные меры частных компаний, ЕС действует на опережение. Закон ЕС об ИИ 2024 года классифицирует убеждение, связанное с выборами, как «сценарий использования с высоким риском». Любая система, разработанная для влияния на поведение при голосовании, теперь подлежит строгим требованиям [3]. Этот подход, основанный на оценке рисков, четко разграничивает административные инструменты для планирования кампаний и системы, нацеленные на формирование политических взглядов. Такое расхождение в регуляторных стратегиях не просто подчеркивает отставание США — оно обнажает уязвимость американской демократии перед лицом технологий, способных незаметно и эффективно менять общественное мнение.

Стратегия защиты: как противостоять автоматизированному убеждению

Осознание масштаба угрозы — первый шаг, но он не должен вести к панике или призывам к полному запрету ИИ в политической жизни. Некоторые его применения могут даже укрепить демократию: например, хорошо спроектированный чат-бот способен помочь избирателям разобраться в позициях кандидата или перевести сложную политическую программу на простой язык. Исследования также показывают, что ИИ может эффективно снижать веру в теории заговора. Вместо тотальных ограничений Соединенным Штатам необходима продуманная и многоуровневая стратегия защиты.

Такая стратегия должна включать три ключевых направления. Во-первых, внутренний контроль: необходимо тщательно проверять иностранные политические технологии, от видеоигр до образовательных приложений, на наличие встроенных функций убеждения, прежде чем они получат широкое распространение. Во-вторых, разработка технических и правовых стандартов. Это подразумевает ужесточение доступа к вычислительным ресурсам для иностранных субъектов, стремящихся развернуть крупномасштабные кампании. Мощности GPU (Graphics Processing Unit) — это вычислительные ресурсы, предоставляемые графическими процессорами, которые высокоэффективны для параллельных вычислений, необходимых для обучения и запуска сложных ИИ-моделей. Аренда этих мощностей является ключевым фактором для крупномасштабных ИИ-операций. Кроме того, крайне важно ввести четкие правила раскрытия информации о контенте, сгенерированном искусственным интеллектом.

В-третьих, необходим решительный внешнеполитический ответ. Поскольку противники будут пытаться обойти любые барьеры, используя офшорные серверы и модели с открытым исходным кодом, США должны инициировать многосторонние соглашения о честности выборов. Это предполагает создание общей инфраструктуры мониторинга и готовность к скоординированным санкциям против государств, использующих ИИ для манипулирования электоратом в других странах. В позитивном сценарии США и международное сообщество быстро разрабатывают и внедряют комплексные регуляторные и технологические меры, эффективно противодействуя злоупотреблениям ИИ и используя его для повышения информированности избирателей. Такой подход превратит изолированную технологическую проблему в вопрос коллективной безопасности.

Выбор, который нельзя откладывать

Эпоха убеждения с помощью ИИ — это не гипотетическое будущее, а уже наступившая реальность. Пока США медлят, их противники — от Китая до России и Ирана — готовы использовать эту технологию как стратегическую возможность. Главная угроза сместилась от вирусной лжи и грубых дипфейков к куда более тонкому инструменту: персонализированным сообщениям, которые не просто обманывают, а незаметно меняют мнения и убеждения в промышленных масштабах. Это открывает беспрецедентные возможности для усиления иностранного вмешательства с помощью ИИ в выборы и манипуляции общественным мнением.

Перед нами стоит выбор, который нельзя откладывать. Бездействие приведет к мрачному будущему, где отсутствие эффективного регулирования и координации откроет дорогу для повсеместного и скрытого использования ИИ в целях массового убеждения. Такой сценарий неизбежно дестабилизирует выборы, углубит общественную поляризацию и окончательно подорвет доверие к демократическим институтам. Политический ландшафт рискует превратиться в поле битвы автоматизированных систем, нацеленных на подрыв основ государственности.

Необходимо немедленно разработать стратегию, которая рассматривает ИИ-убеждение не как отдаленную угрозу, а как свершившийся факт. Нужны четкие стандарты, техническая инфраструктура для мониторинга и международные соглашения, способные сдержать злоупотребления. Ожидание момента, когда последствия станут очевидны для всех, будет означать, что мы уже опоздали. И тогда ущерб, нанесенный демократическому дискурсу, может оказаться необратимым.

Часто задаваемые вопросы

Какова главная угроза искусственного интеллекта в политике, согласно статье?

Главная угроза ИИ в политике сместилась от простой имитации, такой как дипфейки, к активному персонализированному убеждению избирателей. ИИ теперь способен анализировать эмоциональные реакции и адаптировать аргументы, незаметно изменяя политические взгляды в огромных масштабах, что представляет более глубокую опасность.

Как эволюционировала роль ИИ в политическом влиянии?

Изначально страх был сосредоточен на убедительных дипфейках, однако ИИ эволюционировал от простого копирования голосов и лиц до систем, способных вести осмысленный диалог и персонализировать аргументы. Теперь он действует как полноценная «машина влияния», способная активно убеждать избирателей, а не только имитировать.

Насколько дорогостоящим стало влияние на выборы с помощью ИИ?

Стоимость массового персонализированного ИИ-убеждения стала поразительно низкой, практически устранив финансовый барьер. Например, охват 174 миллионов зарегистрированных избирателей в США обойдется менее чем в 1 миллион долларов, а 80 000 колеблющихся избирателей можно охватить менее чем за 3000 долларов.

Почему США отстают в регулировании ИИ-убеждения по сравнению с Европейским Союзом?

Американские законодатели сосредоточились на дипфейках, игнорируя более тонкую проблему убеждения, что привело к регуляторному вакууму и фрагментарным мерам. В отличие от этого, ЕС принял Закон об ИИ 2024 года, который классифицирует убеждение, связанное с выборами, как «сценарий использования с высоким риском», устанавливая строгие требования.

Какие стратегии предлагаются для противодействия автоматизированному убеждению с помощью ИИ?

Предлагается многоуровневая стратегия, включающая внутренний контроль иностранных политических технологий, разработку технических и правовых стандартов, таких как ужесточение доступа к вычислительным ресурсам и правила раскрытия информации о сгенерированном ИИ контенте. Также необходим решительный внешнеполитический ответ через многосторонние соглашения о честности выборов и скоординированные санкции.

Релевантные статьи

Искусственный интеллект, символизирующий ИИ-хакерство, балансирует между атакой и защитой в киберпространстве.

15.01.2026

Когда Влад Ионеску и Ариэль Герберт-Восс, основатели кибербезопасного стартапа RunSybil [1], получили уведомление от своего ИИ-инструмента, они были на мгновение...

Логотип ИИ-агента Slackbot с интегрированным ИИ-мозгом, соединяющим корпоративные приложения.

14.01.2026

Знакомый многим помощник Slackbot уходит в прошлое, уступая место полноценному ИИ-агенту. Salesforce не скрывает своих амбиций: по словам технического директора...

Стилизованные логотипы Apple и Google, соединенные ИИ Gemini, обеспечивающие работу Google Gemini в Siri.

13.01.2026

В технологической индустрии произошло событие, которое еще недавно казалось немыслимым: Apple, компания, известная своей закрытой экосистемой, официально объявила о партнерстве...

Иконка чат-бота Grok, заблокированная цифровыми барьерами, символизирует скандал Дипфейки Grok и запрет в Азии.

12.01.2026

Мир технологий потрясла новость, знаменующая новый этап в противостоянии общества и неконтролируемого ИИ. Власти Индонезии и Малайзии заявили, что временно...