Вступление: Deepfake умерших знаменитостей и призыв Зельды Уильямс
Зельда Уильямс, дочь покойного актёра Робина Уильямса, обратилась с трогательным посланием к фанатам своего отца [1]. В своём обращении в Instagram Stories она попросила прекратить создание и рассылку видео с использованием искусственного интеллекта, где её отец якобы говорит или действует. Такие видео создаются с помощью технологии Deepfake — это метод, позволяющий с помощью искусственного интеллекта создавать реалистичные, но поддельные видео или аудиозаписи, где человек якобы говорит или делает то, чего на самом деле не было. Зельда Уильямс публично осудила создание deepfake-видео с участием её отца, Робина Уильямса, призвав фанатов прекратить их распространение. Этот призыв прозвучал вскоре после выхода Sora 2 — модели генерации видео от OpenAI, которая сделала создание таких роликов массовым и доступным. Юридически такие действия не являются клеветой, ведь, как гласит закон, нельзя оскорбить мёртвого — но этически вопрос остаётся открытым.
- Что такое Sora 2 и как это работает
- Юридический вакуум и этические дилеммы
- Критика OpenAI и защита авторских прав
- Альтернативные точки зрения
- Будущее deepfake и три сценария развития
Что такое Sora 2 и как это работает
Sora 2 — это генеративная модель искусственного интеллекта от OpenAI, способная создавать сверхреалистичные видео по текстовому описанию, включая изображения людей и персонажей. Технология вызвала широкий резонанс благодаря своей способности воссоздавать не только вымышленных героев, но и реальных людей — в том числе умерших. При этом для живых пользователей предусмотрена функция ‘cameo’, позволяющая людям давать разрешение на использование своего изображения и устанавливать правила, как их можно изображать в сгенерированных видео. Sora не позволяет генерировать видео живых людей — если только это не вы сами или друг, который дал вам разрешение использовать своё изображение [1]. Однако для умерших подобных ограничений не существует. OpenAI через Sora позволяет генерировать deepfake умерших знаменитостей, включая Робина Уильямса, несмотря на отсутствие их согласия. В приложении уже появились ролики с участием таких личностей, как Мартин Лютер Кинг, Боб Росс, Джон Леннон и Алекс Требек. Отсутствие юридических рамок и этических барьеров превращает наследие умерших в цифровой материал, доступный для манипуляций — без их воли, без их голоса, без их защиты. Важно понимать, что Sora 2 ограничения для живых строги, а для умерших — отсутствуют, что создаёт этическую ловушку.
Юридический вакуум и этические дилеммы
Юридический вакуум, окружающий использование deepfake умерших, представляет собой одну из самых острых этических дилемм цифровой эпохи. По данным Student Press Law Center, оскорбить мёртвого юридически невозможно [1]. Это создаёт правовой вакуум, в котором образы ушедших из жизни людей могут свободно эксплуатироваться через ИИ — без согласия, без контроля и без последствий для создателей контента. Родственники, как в случае Зельды Уильямс, оказываются бессильны перед потоком цифровых подделок, которые не только травмируют их эмоционально, но и обесценивают наследие любимого человека. Когда ИИ-генерация превращает Робина Уильямса в персонажа TikTok-сюжетов или Ричарда Никсона — в пропагандиста идей, противоположных его реальным убеждениям, это не просто технический эксперимент, а акт символического насилия над памятью. Нормализация таких практик постепенно размывает границы между реальным и симулякром, формируя у общества искажённое восприятие истории и личности. Если мы допустим, что образы умерших — это просто «сырьё» для цифрового контента, мы рискуем превратить человеческую память в товар, а скорбь — в развлечение. В отсутствие законов, защищающих посмертное достоинство, этическая ответственность ложится на разработчиков ИИ и пользователей. Но пока корпорации, такие как OpenAI, предпочитают технические ограничения юридическим рамкам, общество оказывается на грани цифрового варварства, где даже смерть не защищает от манипуляций.
Критика OpenAI и защита авторских прав
Критика OpenAI со стороны общественности и организаций, защищающих авторские права, набирает обороты на фоне стремительного распространения генеративного ИИ. После запуска Sora платформа мгновенно заполнилась роликами с историческими и культурными фигурами — от Мартина Лютера Кинга до Робина Уильямса, что вызвало волну возмущения со стороны наследников и правозащитников. Особенно остро встал вопрос нарушения авторского права (IP) — права создателя или владельца на использование и распространение произведения, будь то фильм, персонаж, музыка или текст. Нарушение авторского права означает незаконное использование чужого контента, и именно это, по мнению Motion Picture Association, происходит с Sora. Ассоциация выпустила заявление, в котором подчеркнула: «Устоявшееся авторское право защищает права создателей и применимо и здесь». В ответ на критику гендиректор OpenAI Сэм Альтман заявил, что компания пересмотрит свою политику: изначально он предлагал студиям самим запрашивать исключение своих персонажей из модели, но теперь обещает изменить подход. Это создаёт фундаментальное противоречие: с одной стороны — творческая свобода и технологический прогресс, с другой — этическая и юридическая обязанность уважать наследие живых и умерших авторов. Как отмечалось в нашей статье «Гонка в ИИ: Инвестиции в среды для обучения AI-агентов» [2], развитие ИИ требует не только технических, но и правовых рамок. Без них мы рискуем превратить культурное наследие в цифровой ширпотреб, где любой может «оживить» кого угодно — без согласия, без уважения и без последствий. Вопрос авторские права ии становится всё более острым, особенно когда речь идёт о наследии умерших.
Альтернативные точки зрения
Однако, несмотря на справедливую критику, стоит рассмотреть и альтернативные точки зрения. Deepfake умерших могут использоваться в образовательных или мемориальных целях, а не только для развлечения или троллинга. Представьте интерактивный музей, где голос и образ Мартина Лютера Кинга объясняют студентам суть гражданских прав, или виртуальный мемориал, где родственники могут «поговорить» с ушедшим близким человеком — такие сценарии несут в себе глубокий эмоциональный и просветительский потенциал. Более того, политика OpenAI в отношении генерации изображений умерших персон не является неизменной догмой. Под давлением общественности и профессионального сообщества компания уже меняла свои подходы — например, отказалась от идеи, что студии должны сами «опт-аутить» свои интеллектуальные права. Это дает основания полагать, что и в вопросе deepfake умерших возможны компромиссы, учитывающие этические нормы. С другой стороны, существует риск подавления творческого переосмысления культурного наследия. Если мы полностью запретим использование образов умерших деятелей искусства, науки или политики, мы можем лишить будущие поколения возможности интерпретировать их наследие через новые медиаформаты — от документальных реконструкций до художественных экспериментов. Важно найти баланс между уважением к личности и свободой творчества, как это обсуждается в контексте регулирования ИИ в нашей статье ‘Гонка в ИИ: Инвестиции в среды для обучения AI-агентов’ [2]. Этические аспекты deepfake умерших требуют комплексного подхода, а не однозначных запретов.
Будущее deepfake и три сценария развития
Будущее deepfake технологий, особенно в контексте воссоздания образов умерших, может пойти по трём принципиально разным сценариям. Позитивный сценарий предполагает, что лидеры отрасли, такие как OpenAI, внедрят систему этического согласия, требующую разрешения от наследников, и добровольно ограничат использование deepfake умерших, став эталоном ответственного ИИ. Нейтральный сценарий — это статус-кво: технология продолжает развиваться, но регулирование отстаёт, что периодически приводит к скандалам и общественному возмущению, как в случае с видео Робина Уильямса, которое его дочь назвала «ужасающим упрощением наследия реальных людей». Негативный сценарий — самый тревожный: массовое, бесконтрольное распространение deepfake умерших приводит к дегуманизации культуры, вызывает широкий общественный протест и в итоге — к жёсткому запрету всех технологий ИИ-генерации контента. В любом случае, ключевой вывод один: технология сама по себе нейтральна, но её применение требует этической ответственности. Мы не можем допустить, чтобы память о людях превращалась в «TikTok-слякоть», как выразилась Зельда Уильямс. Будущее deepfake зависит не от алгоритмов, а от нашего выбора — использовать их с уважением или без.
Часто задаваемые вопросы
Почему Зельда Уильямс призвала фанатов прекратить создание deepfake-видео с участием её отца?
Зельда Уильямс обратилась к фанатам с просьбой прекратить создание и распространение deepfake-видео, где её отец, Робин Уильямс, якобы говорит или действует. Она назвала такие ролики «ужасающим упрощением наследия реальных людей», подчеркнув их травмирующее воздействие на родственников и обесценивание памяти умершего.
Что такое Sora 2 и как она связана с генерацией deepfake умерших знаменитостей?
Sora 2 — это генеративная модель ИИ от OpenAI, создающая сверхреалистичные видео по текстовому описанию, включая изображения умерших знаменитостей. В отличие от живых людей, для которых предусмотрены ограничения и функция ‘cameo’, для умерших никаких ограничений нет, что позволяет массово генерировать deepfake без их согласия.
Почему юридически невозможно оскорбить мёртвого, и какие этические проблемы это создаёт?
По закону нельзя оскорбить мёртвого, что создаёт правовой вакуум, позволяющий свободно эксплуатировать образы умерших через ИИ. Это приводит к этическим дилеммам: deepfake-видео травмируют родственников, искажают наследие и превращают память в цифровой товар, лишая умерших защиты и контроля над своим образом.
Как OpenAI реагирует на критику за нарушение авторских прав при использовании образов умерших?
Под давлением общественности и Motion Picture Association, которая заявила о нарушении авторских прав, гендиректор OpenAI Сэм Альтман пообещал пересмотреть политику. Компания отказалась от идеи, что студии должны сами запрашивать исключение своих персонажей, и теперь стремится к более этичному подходу.
Какие три сценария развития технологии deepfake умерших описаны в статье?
Позитивный сценарий — внедрение этического согласия и ограничений со стороны OpenAI. Нейтральный — статус-кво с периодическими скандалами. Негативный — массовое распространение deepfake, ведущее к дегуманизации культуры и жёсткому запрету ИИ-генерации. Будущее зависит от нашего выбора — использовать технологии с уважением или без.







