Sora 2: ИИ-дети в тревожных видео — новая этическая проблема

В начале октября TikTok-аккаунт @fujitiva48 опубликовал видео, вызвавшее шквал негодования. В ролике, стилизованном под рекламу, фотореалистичная девочка с восторгом представляет новую игрушку — «Vibro Rose». Несмотря на невинную подачу, двусмысленное название и дизайн, имитирующий секс-игрушку, спровоцировали возмущенную реакцию зрителей, потребовавших расследования. Источник этого тревожного контента оказался не менее шокирующим. Этот неприятный ролик был создан с помощью Sora 2, новейшего видеогенератора от OpenAI, который изначально был выпущен по приглашениям только в США 30 сентября [2]. Sora 2 — это передовая нейросеть, способная генерировать крайне реалистичные видео по текстовым описаниям, и случай с «Vibro Rose» — не единичный инцидент. Он лишь приоткрыл завесу над новой масштабной этической дилеммой: появлением инструментов для создания тревожного и потенциально эксплуататорского контента с участием неотличимых от настоящих цифровых детей.

Эпидемия цифровой эксплуатации: Масштаб проблемы и тревожная статистика

Случай с «Vibro Rose» — это не единичный инцидент, порожденный сомнительным чувством юмора, а лишь верхушка айсберга стремительно растущей эпидемии. Платформы, подобные TikTok, за считанные недели наводнились схожим контентом, созданным с помощью Sora 2. Под видом пародийной рекламы распространяются видео с водяными игрушками в форме розы или кондитерскими шприцами, которые разбрызгивают «липкое молоко» на фотореалистичные изображения детей. Эти ролики, балансирующие на грани дозволенного, демонстрируют, насколько легко и быстро генеративные технологии могут быть использованы для создания тревожного и потенциально незаконного контента, нацеленного на сексуализацию несовершеннолетних.

Масштаб проблемы подтверждается официальными данными, которые вызывают серьезную обеспокоенность. Тревожная статистика IWF по сексуальному насилию, сгенерированному ИИ, показывает, что количество сообщений о материалах с сексуальным насилием над детьми (CSAM) удвоилось за год: со 199 случаев в период с января по октябрь 2024 года до 426 за тот же период 2025 года [1]. Этот рост подчеркивает актуальность вопроса, что такое CSAM в ИИ-контенте. CSAM — это аббревиатура от Child Sexual Abuse Material, обозначающая материалы, содержащие сексуальное насилие над детьми. Этот термин используется правоохранительными органами и организациями по защите детей для классификации и борьбы с незаконным контентом. Тревогу вызывает и тот факт, что 56% этого контента относятся к Категории А — самой серьезной в британской классификации, включающей сцены проникновения и садизма.

Анализ этих данных выявляет еще одну мрачную тенденцию: подавляющее большинство жертв этой новой формы цифровой эксплуатации детей ИИ — девочки. Согласно статистике IWF, 94% незаконных изображений, созданных с помощью ИИ, касаются именно их. Это подтверждает, что генеративные нейросети используются не хаотично, а целенаправленно для создания контента, эксплуатирующего гендерные стереотипы и уязвимости. Эту точку зрения разделяет и исполнительный директор IWF. Kerry Smith, исполнительный директор IWF, рассказала WIRED: «Часто мы видим, как образы реальных детей коммерциализируются для создания обнаженных или сексуальных изображений, и в подавляющем большинстве случаев ИИ используется для создания изображений девочек. Это еще один способ, которым девочки становятся мишенью в интернете» [3]. Таким образом, проблема выходит далеко за рамки «неудачных шуток» и превращается в системную угрозу, требующую немедленного реагирования как со стороны разработчиков ИИ, так и со стороны законодателей.

«Серая зона» контента: Между черным юмором и хищничеством

Наряду с откровенно незаконными материалами, такими как CSAM, генеративные видеомодели породили обширную и тревожную «серую зону» контента. Эта серая зона ИИ-контента ставит сложнейшие задачи перед системами модерации: это сложное для навигации пространство, где сатира граничит с цинизмом, а черный юмор становится практически неотличим от хищнических намерений. Именно здесь разворачивается самая сложная битва для платформ и модераторов, ведь вредоносный контент в этой зоне не содержит явных нарушений, а маскируется под нечто иное, легко ускользая от автоматических фильтров и ставя в тупик даже людей.

Ярким примером служат пародийные рекламные ролики несуществующих игрушек, такие как «Epstein’s Island Getaway» («Побег на остров Эпштейна»), «Diddy’s Mansion Party» («Вечеринка в особняке Дидди») или «Harv’s couch» («Диван Харви»). В этих видео сгенерированные ИИ дети играют с фигурками, прямо отсылающими к реальным скандалам с сексуальным насилием. Хотя такой контент вызывает инстинктивное отторжение, мотивы его создателей часто лежат в плоскости «эджлордства» — стремления шокировать и провоцировать ради самой провокации. Проблема усугубляется тем, что эти клипы часто появляются в одних и тех же подборках с более сомнительными материалами, ведя зрителей от черного юмора к чему-то гораздо более опасному. Это создает дилемму: чрезмерно жесткое законодательство, направленное на «фетиш-контент», может непреднамеренно подавить сатиру, темный юмор и законное художественное выражение, особенно в контексте подобных неоднозначных пародий.

Граница становится еще более размытой, когда черный юмор уступает место фетишу. В сети вирусятся поддельные трейлеры в стиле Pixar на откровенно взрослые и сомнительные темы, а также анимации с персонажами неоднозначного возраста. Особую популярность приобрел мемный персонаж Incredible Gassy — страдающий метеоризмом тучный двойник Мистера Исключительного. В одной из фейковых реклам его игрушечная версия «выстреливает слизью из своих геройских мест». Этот персонаж, зародившийся как NSFW-арт по заказу на Patreon, стал символом и одновременно частью огромной волны фетиш-контента (инфляция, беременность, ожирение), захлестнувшей интернет с появлением мощных видеогенераторов. Использование в таких видео образов, неотличимых от несовершеннолетних, переводит их из категории странных интернет-мемов в разряд потенциально опасных материалов.

Однако самый тревожный аспект «серой зоны» — это контент, чья хищническая природа раскрывается исключительно через контекст, который не виден алгоритмам. Британский YouTube-блогер D0l1face3 обратила внимание на клип, созданный с помощью Veo, где тренер в раздевалке осматривает команду полных мальчиков, трогая их за животы и хваля за набор веса. Само видео не содержит явной порнографии или наготы. Но его истинное предназначение становится очевидным при взгляде на раздел комментариев: множество аккаунтов оставляли призывы добавиться к ним в Telegram — мессенджере, который правоохранительные органы давно называют центром активности педофильских сетей. В этом случае не визуальный ряд, а именно метаданные и реакция аудитории превращают внешне нейтральный ролик в инструмент для груминга и поиска жертв, демонстрируя полную несостоятельность систем модерации, ориентированных только на анализ самого изображения.

Ответный удар: Реакция платформ и законодателей

Лавинообразный рост тревожного контента спровоцировал волну ответных мер, и борьба с CSAM, созданным генеративным ИИ, стала приоритетом для законодателей и технологических гигантов. На государственном уровне реакция последовала незамедлительно: власти Великобритании инициировали поправку в законопроект о преступности и полиции, которая позволит уполномоченным органам тестировать ИИ-инструменты на способность генерировать материалы сексуального насилия над детьми (CSAM). В США этот тренд еще более выражен — уже в 45 штатах приняты законы, криминализирующие создание и распространение подобного контента с помощью искусственного интеллекта. Эти шаги сигнализируют о формировании глобального консенсуса: генеративный ИИ не должен становиться инструментом для создания незаконных и вредоносных материалов.

В авангарде корпоративной защиты выступила сама OpenAI, создатель Sora 2. Компания внедрила многоуровневую систему безопасности, направленную на защиту несовершеннолетних. Политика OpenAI прямо запрещает использование платформы для эксплуатации или сексуализации лиц младше 18 лет, а любой обнаруженный CSAM передается в Национальный центр пропавших и эксплуатируемых детей. Кроме того, действуют правила, ограничивающие общение взрослых профилей с подростками. Особое внимание уделяется проблеме Sora 2 и созданию дипфейков: приняты меры против генерации порнографических дипфейков с лицами реальных детей. Дипфейки — это реалистичные видео- или аудиозаписи, созданные с помощью искусственного интеллекта, которые манипулируют изображением или голосом человека, заставляя его говорить или делать то, чего он на самом деле не делал. В контексте статьи это относится к поддельным порнографическим изображениям с лицами реальных людей. Другие крупные игроки, такие как TikTok и Google, также реагируют на обращения, удаляя спорные видео после их обнаружения.

Однако существующие защитные механизмы OpenAI и других платформ демонстрируют свою уязвимость перед лицом контекстуально-нюансированного контента. Прямые запреты оказываются бессильны, когда создатели намеренно обходят их, играя на полутонах и двусмысленности. Яркий пример — видео с «розовыми игрушками», которые формально не нарушают правил, но их подача и сопутствующие комментарии не оставляют сомнений в сексуализированном подтексте. Эта «серая зона» показывает, что стандартных фильтров недостаточно. Появление мощных генеративных моделей, таких как Sora 2, требует параллельного развития и более совершенных инструментов модерации, о чем свидетельствует недавний анонс в статье «OpenAI представила gpt-oss-safeguard: модели-рассуждатели с открытыми весами для модерации» [1]. Именно такие технологии способны анализировать не только сам контент, но и его скрытый смысл, намерения автора и реакцию аудитории, закрывая лазейки для злоумышленников.

Гонка вооружений: Технологические риски и призыв к «безопасности по дизайну»

Распространение тревожного контента, созданного с помощью генеративного ИИ, порождает комплексную угрозу, выходящую за рамки отдельных видео. Эксперты выделяют четыре ключевых аспекта риска. Социальный риск заключается в постепенной нормализации материалов, сексуализирующих цифровых детей, что может опасно снизить порог чувствительности общества к реальному насилию. Юридический риск связан с формированием «серой зоны» в законодательстве: контент с очевидно хищническим подтекстом, но без откровенной демонстрации незаконных действий, часто остается безнаказанным из-за отсутствия четких правовых определений. Это усугубляется технологическим риском — непрерывной «гонкой вооружений» между разработчиками платформ и злоумышленниками, которые постоянно изобретают новые способы обхода фильтров. Наконец, существует репутационный риск для таких гигантов, как OpenAI и Google, чье доверие подрывается, что может спровоцировать ужесточение государственного регулирования и затормозить легитимные инновации.

В ответ на эти вызовы звучат призывы к более продуманным мерам защиты. Эксперт Майк Стабил, имеющий опыт работы в индустрии для взрослых, подчеркивает, что простые фильтры неэффективны. Он настаивает на необходимости внедрения нюансированной, контекстуальной модерации, способной распознавать скрытые намерения, а не только явные нарушения. Эту идею развивает и Internet Watch Foundation (IWF), призывая технологические компании принять принцип «Безопасность по дизайну» (Safety by Design). Этот подход требует, чтобы разработчики продуктов и платформ изначально внедряли защитные механизмы и меры безопасности на самых ранних этапах проектирования. Это предотвращает возможность использования продукта для создания вредоносного или незаконного контента, смещая фокус с реакции на проблему на ее превентивное решение.

Однако у этого подхода есть серьезные критики. Главный контраргумент заключается в том, что внедрение контекстуально-нюансированной модерации в масштабах глобальных платформ технически невыполнимо из-за огромного объема данных, субъективности контента и культурных различий в восприятии. Более того, скептики утверждают, что даже при идеальной модерации на крупных платформах проблема не исчезнет. Корень зла, по их мнению, заключается не в технологиях вроде Sora 2, а в существующем спросе и злом умысле пользователей. Это неизбежно приведет к миграции вредоносного контента на менее регулируемые или полностью неконтролируемые open-source модели, где создавать и распространять подобные материалы станет еще проще.

Три сценария будущего для генеративного ИИ и общества

Появление таких мощных инструментов, как Sora 2, ставит общество перед сложной дилеммой. С одной стороны, они открывают беспрецедентные горизонты для творчества. С другой — создают новые, пугающие возможности для эксплуатации детей в цифровом пространстве. Проблема усугубляется тем, что текущие реактивные меры, сводящиеся к блокировке аккаунтов постфактум, очевидно недостаточны. Перед нами развилка, и дальнейший путь можно представить в виде трех сценариев.

В позитивном сценарии ИИ-компании, под давлением законодательства и общественности, внедряют эффективные системы «безопасности по дизайну» и контекстуальной модерации, что значительно снижает распространение вредоносного контента, не препятствуя законному использованию. Нейтральный, и более вероятный, сценарий — это бесконечная игра в «кошки-мышки»: законодательство ужесточается, вынуждая платформы удалять явный CSAM, но борьба с контекстуально-нюансированным фетиш-контентом остается неэффективной. Наконец, негативный исход — неспособность ИИ-компаний контролировать ситуацию приводит к полному запрету или жесткому лицензированию генеративных моделей, а также к массовому переходу злоумышленников на децентрализованные и нерегулируемые ИИ-инструменты, уводя проблему в теневой интернет.

Какой из этих путей станет реальностью, зависит от того, сможет ли разработка этических норм и правовых рамок угнаться за экспоненциальным ростом возможностей самого искусственного интеллекта. Сегодня этот вопрос остается открытым.

Часто задаваемые вопросы

Что такое Sora 2 и почему ее дебют вызвал этическую дилемму?

Sora 2 — это передовая нейросеть от OpenAI, способная генерировать крайне реалистичные видео по текстовым описаниям. Ее дебют вызвал этическую дилемму после инцидента с роликом «Vibro Rose», который продемонстрировал, как легко этот инструмент может быть использован для создания тревожного и потенциально эксплуататорского контента с участием неотличимых от настоящих цифровых детей.

Насколько выросло количество сообщений о сгенерированном ИИ материале с сексуальным насилием над детьми (CSAM)?

Согласно тревожной статистике IWF, количество сообщений о материалах с сексуальным насилием над детьми, сгенерированных ИИ, более чем удвоилось за год. В период с января по октябрь 2024 года было зафиксировано 199 случаев, тогда как за тот же период 2025 года это число выросло до 426.

Что представляет собой «серая зона» ИИ-контента и почему ее сложно модерировать?

«Серая зона» — это обширное пространство контента, где сатира и черный юмор граничат с хищническими намерениями, но при этом отсутствуют явные нарушения правил. Модерация этого контента сложна, поскольку он маскируется под нечто иное, легко ускользая от автоматических фильтров, которые ориентированы только на анализ самого изображения, а не на контекст.

Какие меры предпринимает OpenAI и законодатели для борьбы с тревожным контентом?

OpenAI внедрила многоуровневую систему безопасности, которая прямо запрещает эксплуатацию несовершеннолетних и передает обнаруженный CSAM в Национальный центр пропавших и эксплуатируемых детей. На государственном уровне, например, в 45 штатах США уже приняты законы, криминализирующие создание подобного контента с помощью ИИ.

Что означает принцип «Безопасность по дизайну» (Safety by Design) в контексте генеративного ИИ?

«Безопасность по дизайну» — это подход, требующий от разработчиков платформ и продуктов изначально внедрять защитные механизмы и меры безопасности на самых ранних этапах проектирования. Цель состоит в том, чтобы превентивно предотвратить возможность использования продукта для создания вредоносного или незаконного контента, смещая фокус с реакции на проблему на ее предупреждение.

Релевантные статьи

Искусственный интеллект, символизирующий ИИ-хакерство, балансирует между атакой и защитой в киберпространстве.

15.01.2026

Когда Влад Ионеску и Ариэль Герберт-Восс, основатели кибербезопасного стартапа RunSybil [1], получили уведомление от своего ИИ-инструмента, они были на мгновение...

Логотип ИИ-агента Slackbot с интегрированным ИИ-мозгом, соединяющим корпоративные приложения.

14.01.2026

Знакомый многим помощник Slackbot уходит в прошлое, уступая место полноценному ИИ-агенту. Salesforce не скрывает своих амбиций: по словам технического директора...

Стилизованные логотипы Apple и Google, соединенные ИИ Gemini, обеспечивающие работу Google Gemini в Siri.

13.01.2026

В технологической индустрии произошло событие, которое еще недавно казалось немыслимым: Apple, компания, известная своей закрытой экосистемой, официально объявила о партнерстве...

Иконка чат-бота Grok, заблокированная цифровыми барьерами, символизирует скандал Дипфейки Grok и запрет в Азии.

12.01.2026

Мир технологий потрясла новость, знаменующая новый этап в противостоянии общества и неконтролируемого ИИ. Власти Индонезии и Малайзии заявили, что временно...