Великобритания наносит решительный удар по злоупотреблению технологиями искусственного интеллекта, объявляя войну дипфейкам. Правительство Великобритании заявило, что запретит так называемые приложения для «раздевания» (nudification) в рамках борьбы с онлайн-мизогинией [1]. Эти инструменты, использующие генеративный ИИ, позволяют создавать реалистичные поддельные обнаженные изображения людей без их согласия, что стало серьезной угрозой, особенно для женщин и девочек. Данная мера является частью более широкой стратегии, направленной на сокращение насилия и защиту жертв женоненавистничества в интернете. Новые законодательные нормы, являющиеся важным шагом в сфере регулирования ИИ в Великобритании, будут основываться на уже действующих правилах, касающихся дипфейков сексуального характера. Министр технологий Лиз Кендалл подчеркнула непреклонность властей: «Мы не будем стоять в стороне, пока технологии превращаются в оружие для унижения, эксплуатации и насилия… Те, кто извлекает из этого выгоду или способствует их использованию, ощутят на себе всю силу закона».
- Технология на службе насилия: Что такое nudification-приложения и почему они опасны
- Законодательный ответ: Как новый закон дополнит Online Safety Act
- Скепсис и вызовы: Почему запрет может оказаться «бумажным тигром»
- Потенциальные риски и непредвиденные последствия регулирования
- Экспертное мнение: Позиция NeuroTechnus
- Три сценария будущего в борьбе с дипфейками
Технология на службе насилия: Что такое nudification-приложения и почему они опасны
В основе растущей обеспокоенности лежит новая категория программного обеспечения, известная как приложения для «раздевания» (nudification). Это тип ИИ-приложений, которые используют генеративный искусственный интеллект для создания реалистичных изображений или видео, имитирующих удаление одежды с человека без его согласия. Они позволяют пользователям загрузить обычную фотографию и за считанные секунды получить дипфейк, на котором изображенный человек выглядит обнаженным. Технология, некогда требовавшая специальных знаний и мощного оборудования, теперь стала доступна любому владельцу смартфона, что превращает ее в мощный инструмент для преследования, шантажа и унижения.
Движущей силой этих приложений является генеративный ИИ — подмножество искусственного интеллекта, способное создавать новый, оригинальный контент, такой как текст, изображения или аудио, на основе данных, на которых он был обучен. В отличие от систем, которые просто классифицируют информацию, генеративные модели «сочиняют» ее, добиваясь пугающего фотореализма. Именно этот скачок в технологиях позволяет создавать генеративные ИИ-дипфейки, которые практически невозможно отличить от настоящих фотографий. Стремительное развитие и доступность подобных ИИ-приложений стали возможны благодаря фундаментальным прорывам в области вычислительных платформ, о чем свидетельствует, например, эволюция программных стеков, как обсуждалось в материале «CUDA Tile: NVIDIA о будущем ИИ и программирования GPU» [1]. Эта доступность стирает грань между цифровым хулиганством и серьезным преступлением.
Однако наибольшую тревогу вызывает использование этой технологии для создания материалов о сексуальном насилии над детьми, или CSAM (Child Sexual Abuse Material). Это любые изображения или видео, изображающие сексуальное насилие над детьми, создание и распространение которых является тягчайшим уголовным преступлением. Приложения для «раздевания» предоставляют преступникам беспрецедентную возможность генерировать CSAM из совершенно невинных фотографий детей, взятых из социальных сетей или семейных архивов. Это не только создает новые формы эксплуатации, но и делает создание CSAM с помощью ИИ доступным для широкого круга злоумышленников, подвергая риску любого ребенка, чье изображение доступно онлайн. Эксперты по кибербезопасности и правозащитные организации бьют тревогу, указывая на то, что такие инструменты могут привести к взрывному росту количества незаконного контента и нанести непоправимый вред жертвам.
Официальные лица и общественные деятели все громче заявляют о необходимости полного запрета подобных технологий. Уровень обеспокоенности достиг точки, когда требуются не полумеры, а решительные законодательные действия. Ярким примером этой позиции стало то, что в апреле Уполномоченный по правам детей Англии Dame Rachel de Souza призвала полностью запретить приложения для «раздевания» [3]. В своем докладе она подчеркнула, что если создание таких изображений является незаконным, то и технология, позволяющая это делать, также должна быть вне закона. Этот призыв отражает растущий консенсус в обществе: технологический прогресс не должен служить оправданием для насилия и эксплуатации.
Законодательный ответ: Как новый закон дополнит Online Safety Act
Новые законодательные инициативы правительства Великобритании не возникают на пустом месте, а призваны дополнить и усилить уже существующие правовые рамки. Важно понимать, что создание откровенных дипфейк-изображений кого-либо без его согласия уже является уголовным преступлением согласно закону Online Safety Act [2]. Речь идет о так называемых ИИ-дипфейках сексуального характера — это синтетические медиафайлы (изображения, видео), созданные с помощью искусственного интеллекта, которые реалистично изображают человека в сексуальном контексте без его согласия и часто используются для распространения ложной или вредоносной информации. Однако анонсированный закон делает решительный шаг вперед, смещая фокус с конечного продукта на его источник. Если Online Safety Act наказывает за создание и распространение самого контента, то новые поправки нацелены на первопричину проблемы.
Ключевое отличие заключается в том, что новые законы сделают незаконным создание и распространение самих ИИ-инструментов, имитирующих удаление одежды с человека на изображениях или видео. Этот подход к регулированию конкретного типа ИИ-инструмента, о разнообразии которых мы писали в статье «Devstral 2: ИИ-модели Mistral AI для кодирования и Vibe CLI» [2], является прецедентным. Таким образом, новое правонарушение будет нацелено не только на злоумышленников, использующих приложения для «раздевания», но и на тех, кто наживается на них или способствует их использованию. Как заявила министр технологий Лиз Кендалл, «те, кто извлекает выгоду из них или способствует их применению, ощутят на себе всю строгость закона». Этот шаг направлен на то, чтобы перекрыть кислород индустрии, паразитирующей на создании вредоносного программного обеспечения.
Для практической реализации этих мер правительство будет сотрудничать с технологическими компаниями, такими как SafeToNet, для разработки методов борьбы со злоупотреблением интимными изображениями. Эта британская фирма уже разработала ПО на основе ИИ, способное идентифицировать и блокировать контент сексуального характера, а также отключать камеру устройства при обнаружении попытки создания компрометирующих материалов. Инициативу уже приветствовали профильные организации. Например, в Internet Watch Foundation (IWF), которая помогает несовершеннолетним удалять свои откровенные изображения из сети, назвали эти меры долгожданными и необходимыми, подчеркнув, что у подобных приложений «нет причин для существования».
Скепсис и вызовы: Почему запрет может оказаться «бумажным тигром»
Несмотря на решительные заявления правительства Великобритании, в экспертном сообществе растет скептицизм относительно практической реализации тотального запрета так называемых «раздевающих» приложений. Инициатива, благая по своей сути, сталкивается с рядом фундаментальных вызовов, способных превратить ее в «бумажного тигра». Первое и главное препятствие — техническая неосуществимость тотального контроля. Полный запрет ИИ-приложений может быть технически сложно реализовать из-за децентрализованного характера распространения технологий. Интернет не имеет границ, и инструменты, разработанные и размещенные на серверах за пределами юрисдикции Соединенного Королевства, останутся доступными для любого, у кого есть подключение к сети. Блокировка отдельных сайтов или приложений часто оказывается неэффективной из-за использования VPN и других методов обхода ограничений.
Более того, эксперты предупреждают о риске обратного эффекта: жесткие меры могут не искоренить проблему, а лишь вытеснить ее в нерегулируемое пространство. Запрет легально доступных инструментов неизбежно приведет к их уходу в «теневой» интернет — даркнет, что сделает мониторинг, контроль и борьбу с незаконной деятельностью на порядок сложнее. На юридическом фронте также немало подводных камней. Критики справедливо отмечают, что существующие законы, в частности Online Safety Act, уже криминализируют создание откровенных дипфейков без согласия. Это ставит под вопрос реальную эффективность новых мер без кардинального улучшения правоприменения уже действующих норм. Кроме того, доказать состав преступления, а именно факт «наживы» или «способствования» использованию приложений, может быть юридически крайне сложной задачей, особенно для глобальных платформ, которые лишь размещают пользовательский контент и могут апеллировать к статусу посредника.
Заявленное сотрудничество с частными технологическими компаниями для мониторинга и блокировки контента также порождает серьезные опасения. Во-первых, это вызывает вопросы о конфиденциальности данных и границах допустимого надзора за личной перепиской и файлами граждан. Во-вторых, эффективность автоматизированных систем обнаружения часто оставляет желать лучшего, приводя к ошибкам и блокировке легитимного контента. Наконец, нельзя игнорировать и потенциальный конфликт интересов, когда от коммерческих корпораций требуют внедрения дорогостоящих и сложных систем контроля. В совокупности эти технические, юридические и этические барьеры создают серьезные сомнения в том, что анонсированный запрет сможет стать реальным решением проблемы, а не просто очередной декларацией о намерениях.
Потенциальные риски и непредвиденные последствия регулирования
Несмотря на благие намерения, инициатива британского правительства по запрету «nudification»-приложений сопряжена с рядом серьезных рисков, способных не только свести на нет ожидаемый эффект, но и породить новые проблемы. Попытка законодательно ограничить технологию может привести к непредвиденным последствиям в социальной, технологической и политической сферах.
Ключевой социальный риск заключается в том, что запрет легальных платформ неизбежно вытеснит создание и распространение подобных ИИ-инструментов в даркнет. Это не только не остановит их использование, но и значительно усложнит работу правоохранительных органов по отслеживанию преступников и защите жертв, перемещая активность в анонимные и зашифрованные сегменты сети. Технологически это порождает бесконечную «гонку вооружений»: разработчики вредоносного ПО будут постоянно совершенствовать генеративные модели для обхода фильтров, а регуляторы и компании — создавать все более сложные системы защиты, что потребует огромных и непрерывных инвестиций с негарантированным результатом.
Стремление правительства сделать «невозможным» создание или просмотр запрещенных изображений на персональных устройствах поднимает острые вопросы о конфиденциальности. Реализация такого тотального контроля может потребовать внедрения инвазивных систем мониторинга, что является прямым путем к нарушению частной жизни граждан и создает опасный прецедент для государственного надзора. Наконец, нельзя сбрасывать со счетов экономические и репутационные риски. Недостаточная эффективность мер может подорвать доверие к правительственным инициативам, а автоматизированные системы блокировки неизбежно будут давать ложные срабатывания, приводя к цензуре легитимного контента и ошибочным обвинениям в адрес невиновных пользователей.
Экспертное мнение: Позиция NeuroTechnus
В NeuroTechnus мы рассматриваем законодательные инициативы, подобные запрету «nudification»-приложений в Великобритании, как необходимый и своевременный шаг на пути к формированию ответственной AI-экосистемы. Стремительное развитие генеративных технологий неизбежно влечет за собой и риски их злонамеренного использования, что требует создания надежных защитных механизмов. Наш многолетний опыт в разработке AI-based technical solutions подтверждает: истинная инновационность неотделима от глубокого понимания этических рисков. Создание эффективных систем для обнаружения и блокировки вредоносного контента — это сложная задача, требующая постоянного совершенствования алгоритмов. Однако технологических усилий недостаточно. Ключ к успеху лежит в тесном сотрудничестве между разработчиками, государственными регуляторами и обществом. Только совместными усилиями мы сможем построить будущее, в котором искусственный интеллект расширяет человеческие возможности, гарантируя при этом безопасность и защиту каждого пользователя, особенно наиболее уязвимых групп населения.
Три сценария будущего в борьбе с дипфейками
Инициатива правительства Великобритании по запрету дипфейк-приложений для «раздевания» — это смелый и необходимый шаг в попытке обуздать темную сторону искусственного интеллекта. Заявленная цель — сделать невозможным для детей создание и просмотр обнаженных изображений и объявить вне закона ИИ-инструменты для создания CSAM — демонстрирует всю серьезность намерений. Однако за этим стоит фундаментальный конфликт между благими намерениями и колоссальными трудностями реализации, что ставит будущее этой борьбы на распутье. Можно выделить три вероятных сценария развития событий. В позитивном варианте Великобритания успешно внедряет законодательство, эффективно сотрудничает с техкомпаниями, значительно снижая распространение дипфейков и становясь лидером в этичном регулировании ИИ. Более реалистичный, нейтральный сценарий предполагает, что законы будут приняты, но их исполнение превратится в постоянную «гонку вооружений» между регуляторами и злоумышленниками, лишь незначительно снизив уровень угрозы. Наконец, негативный исход — запреты оказываются неэффективными, незаконная деятельность уходит в даркнет, а меры контроля вызывают общественное недовольство из-за нарушения конфиденциальности. Какой из этих путей станет реальностью, покажет время. Однако несомненно одно: успех или провал этой инициативы станет важнейшим прецедентом для всего мира, демонстрируя, возможно ли в принципе установить эффективный контроль над стремительно развивающимися технологиями.
Часто задаваемые вопросы
Какую меру предпринимает Великобритания в отношении ИИ-дипфейков?
Великобритания объявляет войну дипфейкам, запрещая так называемые приложения для «раздевания» (nudification), которые используют генеративный ИИ для создания реалистичных поддельных обнаженных изображений людей без их согласия. Эта мера является частью более широкой стратегии, направленной на сокращение насилия и защиту жертв женоненавистничества в интернете.
Что представляют собой приложения для «раздевания» и почему они считаются опасными?
Приложения для «раздевания» — это тип ИИ-приложений, использующих генеративный искусственный интеллект для создания реалистичных изображений или видео, имитирующих удаление одежды с человека без его согласия. Они опасны, поскольку позволяют любому владельцу смартфона создавать дипфейки для преследования, шантажа и унижения, а также могут быть использованы для генерации материалов о сексуальном насилии над детьми (CSAM).
В чем заключается ключевое отличие нового законодательства Великобритании от уже действующего Online Safety Act?
Существующий закон Online Safety Act уже криминализирует создание откровенных дипфейк-изображений без согласия, наказывая за конечный продукт. Новые законы делают шаг вперед, объявляя незаконным создание и распространение самих ИИ-инструментов, имитирующих удаление одежды, тем самым нацеливаясь на первопричину проблемы, а не только на ее результат.
Какие основные вызовы и риски связаны с полным запретом ИИ-приложений для «раздевания»?
Эксперты выражают скепсис относительно полного запрета, указывая на техническую неосуществимость тотального контроля из-за децентрализованного характера интернета и риска вытеснения деятельности в даркнет. Также существуют опасения по поводу сложности правоприменения, вопросов конфиденциальности данных и потенциальных ложных срабатываний автоматизированных систем, что может привести к цензуре легитимного контента.
Какова позиция NeuroTechnus относительно законодательных инициатив по регулированию ИИ-дипфейков?
В NeuroTechnus рассматривают законодательные инициативы, подобные запрету «nudification»-приложений, как необходимый и своевременный шаг к формированию ответственной AI-экосистемы. Они подчеркивают, что истинная инновационность неотделима от глубокого понимания этических рисков, и ключ к успеху лежит в тесном сотрудничестве между разработчиками, государственными регуляторами и обществом для обеспечения безопасности пользователей.







