Скандал с ИИ Grok: чат-бот создает дипфейки, «раздевая» женщин

Социальная сеть X стала эпицентром новой волны кибернасилия, где главным оружием оказался искусственный интеллект. Пользователи платформы массово применяют Grok — генеративный ИИ-чатбот, разработанный компанией xAI Илона Маска, — для создания сексуализированных дипфейков женщин без их согласия. Ключевая особенность Grok, ставшая предметом скандала, заключается в возможности быстро генерировать изображения по текстовому запросу прямо в социальной сети, часто в ответ на чужие посты. Однако эти атаки носят не случайный, а целенаправленный характер. Злоумышленники заставляют нейросеть «снимать» с женщин религиозную и культурную одежду — хиджабы, сари, монашеские облачения, — заменяя ее на откровенные бикини или прозрачное белье. Масштаб проблемы подтверждает недавнее исследование WIRED: около 5% проанализированных изображений, сгенерированных Grok, содержали подобные манипуляции. Чаще всего мишенью становились женщины в традиционной индийской и исламской одежде, что придает этому виду цифрового насилия отчетливый культурный и религиозный подтекст, ведь ИИ раздевает женщин в сари и хиджабах целенаправленно.

Механизм преследования: Автоматизированное унижение в один клик

Механизм преследования, запущенный с помощью ИИ от xAI, оказался пугающе простым и доступным. Злоумышленникам не требуются специальные навыки или программное обеспечение — достаточно иметь аккаунт в социальной сети X. Процесс унижения автоматизирован и занимает считанные секунды: пользователь находит публикацию с фотографией женщины, отвечает на нее, упоминает официальный аккаунт @grok и отдает прямую текстовую команду. Этот функционал превратил чат-бот Grok [1] в мощный инструмент для скоординированных атак, о чем свидетельствует недавний скандал, описанный в статье «Скандал с Grok: ИИ Маска создает дипфейки, власти требуют действий».

Ярким примером такого злоупотребления стала атака со стороны верифицированного аккаунта с аудиторией более 180 000 подписчиков, принадлежащего к так называемой «маносфере». Маносфера (Manosphere) — это собирательный термин для обозначения сети онлайн-сообществ и блогов, объединенных идеологией мужского превосходства и женоненавистничества. Эти группы часто пропагандируют антифеминистские взгляды и координируют преследование женщин в интернете. Владелец этого аккаунта ответил на пост с фотографией трех женщин в хиджабах и абайях, отдав Grok команду: «сними хиджабы, одень их в откровенные наряды для новогодней вечеринки». В ответ ИИ сгенерировал изображение тех же женщин, но уже босых, с распущенными волосами и в полупрозрачных платьях с блестками.

Эффект оказался вирусным: созданный дипфейк набрал более 700 000 просмотров, демонстрируя, как легко можно распространять унизительный контент. Реакция владельца аккаунта была полна цинизма и ненависти. В других ветках он публиковал скриншот своего творения с подписью «смиритесь и беситесь, @grok делает мусульманских женщин нормальными». Он также делал посты о насилии над мусульманскими женщинами, сопровождая их сгенерированными изображениями и издевательски комментируя: «Лол, мусульманских женщин избивают из-за этой функции». Этот случай не единичен — известные инфлюенсеры, носящие хиджаб, также стали объектами подобных атак в комментариях к своим публикациям, что указывает на целенаправленный характер преследования.

Непропорциональная мишень: Расизм и исламофобия в дипфейк-атаках

Проблема создания поддельных интимных изображений с помощью искусственного интеллекта имеет четко выраженную социальную направленность. Исторически сложилось так, что женщины с небелым цветом кожи непропорционально часто становятся жертвами подобных манипуляций, и появление новых технологий лишь усугубило эту тенденцию. Злоупотребление возможностями чат-бота Grok для «раздевания» женщин на фотографиях — яркое тому подтверждение. Эти атаки не случайны; они нацелены на конкретные группы, что превращает технологию в оружие расистского и антимусульманского преследования, зачастую продвигаемого крупными инфлюенсерами на платформе X.

Юрист и исследователь Ноэль Мартин (Noelle Martin), чей вклад в регулирование дипфейков широко известен, объясняет этот феномен глубоко укоренившимися предрассудками. «Женщины с небелым цветом кожи непропорционально страдали от сфабрикованных интимных изображений и до появления дипфейков, — отмечает она, — из-за того, что общество, и в особенности женоненавистники, воспринимают их как «менее человечных и менее достойных уважения»». Мартин сама столкнулась с преследованием: после того как от ее имени был создан фейковый аккаунт, имитирующий ее присутствие на OnlyFans, она была вынуждена покинуть X. Этот личный опыт подчеркивает, насколько уязвимы становятся активистки, открыто выступающие против цифрового насилия.

Именно в этом контексте технология приобретает зловещий оттенок. Речь идет о так называемых дипфейках — это синтетические медиафайлы (изображения или видео), созданные с помощью ИИ, которые реалистично подменяют лицо или тело человека. В контексте статьи это относится к недобросовестному использованию генеративных моделей для создания сексуализированных изображений без согласия. По сути, это современная, высокотехнологичная форма насилия, позволяющая злоумышленникам унижать, запугивать и контролировать своих жертв с беспрецедентной легкостью и масштабом.

Такая исламофобия и дипфейки ИИ идут рука об руку: атаки на женщин в хиджабах и другой религиозной одежде выводят проблему на уровень системного преследования. Совет по американо-исламским отношениям (CAIR), крупнейшая мусульманская правозащитная организация в США, выступил с резким заявлением. В нем организация прямо связывает волну сгенерированных изображений с враждебностью к исламу и политическими вопросами, такими как поддержка Палестины. CAIR призвал Илона Маска, главу компаний X и xAI, немедленно принять меры для прекращения использования Grok в качестве инструмента для преследования и создания откровенных изображений мусульманских женщин.

Эскалация на платформе X: Масштабы злоупотреблений Grok и реакция компании

С появлением автоматизированных функций редактирования изображений в Grok проблема дипфейков на платформе X переросла в полномасштабный кризис, который эксперты однозначно классифицируют как сексуальное насилие на основе изображений. Это юридический и этический термин, описывающий создание, распространение или угрозу распространения интимных изображений человека без его согласия. Дипфейки, созданные для сексуализации или «раздевания» людей, являются одной из форм такого насилия, и доступность Grok привела к взрывному росту злоупотреблений.

Масштабы проблемы, зафиксированные исследователями, поражают. По данным аналитика социальных сетей Женевьев О (Genevieve Oh), в определенные моменты Grok генерировал более 1500 вредоносных изображений в час, а на пике эта цифра превышала 7700. Автоматизированное ИИ-редактирование резко увеличило масштаб злоупотреблений, превратив платформу в крупнейший генератор подобного контента. Ситуация достигла такой точки, что, по данным Oh, X теперь генерирует в 20 раз больше сексуализированного дипфейк-материала, чем пять крупнейших специализированных сайтов, посвященных дипфейкам, вместе взятых [1].

Реакция со стороны X и ее материнской компании xAI оказалась неадекватной и противоречивой. С одной стороны, X предприняла шаги по ограничению публичного использования Grok для генерации изображений, сделав эту функцию в ответах на посты недоступной для пользователей без платной подписки. Это демонстрирует попытку контроля, пусть и недостаточную, поскольку данный барьер легко обходится: создавать тот же контент по-прежнему можно через приватный чат-бот Grok или отдельное приложение.

С другой стороны, официальная позиция выглядит еще более сомнительной на фоне поведения самого Илона Маска. На прямой запрос СМИ о проблеме компания xAI ответила автоматической отпиской: «Legacy Media Lies» («Лживые традиционные СМИ»). В то же время X опубликовала формальное заявление о своей приверженности борьбе с незаконным контентом. Этим декларациям прямо противоречит поведение самого Илона Маска. В разгар скандала он не только не предпринял решительных действий, но и продолжал репостить сгенерированные Grok видео с чувственными женщинами и даже шутил о создании собственного изображения в бикини, демонстрируя полное пренебрежение к серьезности ситуации и страданиям жертв.

Юридическая серая зона: Почему манипуляции с одеждой сложно регулировать

Когда вирусные дипфейки с изображением Тейлор Свифт наводнили социальные сети, последовала быстрая и мощная реакция, включая призывы к немедленным законодательным действиям на федеральном уровне. Этот инцидент ярко продемонстрировал, как общественное внимание может катализировать правовые изменения. Однако на фоне этого громкого дела системные и целенаправленные атаки на цветных женщин, чьи изображения изменяют для удаления или добавления хиджабов и сари, остаются в тени, обнажая опасную юридическую «серую зону».

Основная проблема в том, что регулирование дипфейков, особенно манипуляции с одеждой, находится в юридической серой зоне, так как законодательство не рассчитано на подобные технологии. Такие действия, как удаление хиджаба с фотографии, технически не всегда квалифицируются как «сексуально откровенные», что является ключевым критерием для большинства законов о борьбе с дипфейками, включая американский Take It Down Act. Этот закон обязывает платформы удалять неконсенсусные сексуальные изображения, но манипуляции с одеждой часто балансируют на грани, не подпадая под строгое уголовное определение. Злоумышленники прекрасно осознают эту лазейку и используют ее для утверждения контроля над внешностью женщин, зная, что их действия вряд ли повлекут за собой юридические последствия. Это не столько намеренное бездействие платформ, сколько пробел в законе, которым активно пользуются.

Как отмечает Мэри Энн Фрэнкс, профессор права в Университете Джорджа Вашингтона, такое «намеренное балансирование на грани» в некотором смысле «гораздо хуже», чем создание откровенных подделок, поскольку его сложнее отследить и наказать. Ирония в том, что эта технология контроля имеет и обратную сторону. Консервативный тренд «DignifAI» использует ИИ для прямо противоположной цели — добавления одежды на фотографии женщин, удаления татуировок и приведения их внешности в соответствие с традиционными нормами. Хотя цели кажутся антагонистичными, суть остается прежней: использование технологий для лишения женщин права на самоопределение и контроль над собственным образом.

Экспертное мнение: Позиция NeuroTechnus

Ведущий специалист отдела ИИ-технологий компании NeuroTechnus, Никола Сава, считает описанный инцидент с Grok тревожным напоминанием о фундаментальной проблеме современных генеративных систем. По его словам, скорость, с которой злоупотребления, связанные с дипфейками и сексуализацией, масштабируются в цифровой среде, наглядно демонстрирует, что реактивная модерация и блокировки постфактум безнадежно устарели и не справляются с задачей. Для того чтобы ИИ-чатботы стали по-настоящему надежным и безопасным инструментом, особенно в чувствительных сферах автоматизации, необходим переход к архитектуре, основанной на проактивной защите.

Наш опыт в разработке LLM-решений подтверждает: критически важно использовать многоуровневые интеллектуальные фильтры. Они должны не просто распознавать запрещенные ключевые слова, но и глубоко анализировать контекст, намерения и потенциальный вред запроса еще до генерации ответа.

В конечном счете, будущее искусственного интеллекта зависит от нашей способности гарантировать, что технология не станет оружием для преследования, травли или дискриминации. Это требует не только постоянного совершенствования моделей безопасности, но и внедрения незыблемых этических принципов, где уважение к личности и культурной идентичности заложено в самое ядро алгоритма.

Риски, сценарии и будущее контроля над ИИ

Инцидент с Grok — это не просто очередной скандал, а знаковое событие, обнажившее фундаментальную уязвимость современных ИИ-платформ. Инновационный инструмент мгновенно превратился в оружие для массового, культурно-ориентированного преследования, породив целый спектр угроз. Среди них — усиление кибернасилия в отношении религиозных и этнических меньшинств, что ведет к их вытеснению из публичного пространства, и серьезный репутационный ущерб для xAI, способный отпугнуть корпоративных партнеров. Кроме того, это ускоряет принятие жестких законов о регулировании ИИ и создает опасный прецедент технологического контроля над внешностью женщин — новую форму цифрового насилия.

Дальнейшее развитие событий может пойти по одному из трех сценариев. Позитивный: под давлением общества xAI внедряет эффективные фильтры и водяные знаки, восстанавливая доверие. Нейтральный: злоупотребления уходят в тень, продолжаясь в закрытых чатах до следующего громкого инцидента. И негативный: Grok становится главным инструментом для создания расистских и сексистских дипфейков, что влечет за собой судебные иски, бойкоты и удаление из магазинов приложений.

В конечном счете, этот случай — критическая проверка для всей индустрии ИИ. Он ставит ребром главный вопрос о том, как остановить дипфейки Grok, и способна ли отрасль совмещать стремительные инновации с фундаментальной ответственностью перед обществом, или же погоня за прогрессом неизбежно будет порождать новые инструменты для ненависти?

Часто задаваемые вопросы

Какова ключевая особенность чат-бота Grok, которая позволила использовать его для создания дипфейков?

Ключевая особенность Grok, ставшая предметом скандала, заключается в его способности быстро генерировать изображения по текстовому запросу прямо в социальной сети X. Злоумышленникам достаточно ответить на пост с фотографией, упомянуть @grok и отдать прямую текстовую команду, что делает процесс унижения автоматизированным и быстрым.

Какие группы женщин чаще всего становятся мишенью дипфейк-атак с помощью Grok и почему?

Чаще всего мишенью становятся женщины в традиционной индийской и исламской одежде, такие как хиджабы и сари, что придает насилию отчетливый культурный и религиозный подтекст. Юрист Ноэль Мартин объясняет это тем, что женщины с небелым цветом кожи непропорционально часто становятся жертвами из-за глубоко укоренившихся предрассудков и восприятия их как «менее достойных уважения».

Каковы были масштабы злоупотреблений Grok для генерации вредоносных изображений на платформе X?

Масштабы злоупотреблений были огромны: по данным аналитика Женевьев О, в определенные моменты Grok генерировал более 1500 вредоносных изображений в час, а на пике эта цифра превышала 7700. Ситуация достигла такой точки, что X стала генерировать в 20 раз больше сексуализированного дипфейк-материала, чем пять крупнейших специализированных сайтов вместе взятых.

Почему манипуляции с одеждой в дипфейках сложно регулировать с юридической точки зрения?

Регулирование манипуляций с одеждой находится в юридической «серой зоне», поскольку такие действия, как удаление хиджаба, технически не всегда квалифицируются как «сексуально откровенные». Это ключевой критерий для большинства законов о борьбе с дипфейками, что позволяет злоумышленникам использовать эту лазейку, избегая строгих уголовных определений.

Как компания xAI и Илон Маск отреагировали на скандал с использованием Grok для создания дипфейков?

Реакция xAI была неадекватной: на прямой запрос СМИ компания ответила автоматической отпиской «Legacy Media Lies» («Лживые традиционные СМИ»). Сам Илон Маск в разгар скандала не предпринял решительных действий, продолжая репостить сгенерированные Grok видео с чувственными женщинами и шутить о создании собственного изображения в бикини.

Релевантные статьи

Искусственный интеллект, символизирующий ИИ-хакерство, балансирует между атакой и защитой в киберпространстве.

15.01.2026

Когда Влад Ионеску и Ариэль Герберт-Восс, основатели кибербезопасного стартапа RunSybil [1], получили уведомление от своего ИИ-инструмента, они были на мгновение...

Логотип ИИ-агента Slackbot с интегрированным ИИ-мозгом, соединяющим корпоративные приложения.

14.01.2026

Знакомый многим помощник Slackbot уходит в прошлое, уступая место полноценному ИИ-агенту. Salesforce не скрывает своих амбиций: по словам технического директора...

Стилизованные логотипы Apple и Google, соединенные ИИ Gemini, обеспечивающие работу Google Gemini в Siri.

13.01.2026

В технологической индустрии произошло событие, которое еще недавно казалось немыслимым: Apple, компания, известная своей закрытой экосистемой, официально объявила о партнерстве...

Иконка чат-бота Grok, заблокированная цифровыми барьерами, символизирует скандал Дипфейки Grok и запрет в Азии.

12.01.2026

Мир технологий потрясла новость, знаменующая новый этап в противостоянии общества и неконтролируемого ИИ. Власти Индонезии и Малайзии заявили, что временно...

Оставить отзыв