Горячая линия
Комментарии:0
Дипфейки, подобные тем, что направлены против Тейлор Свифт, часто используются для нападок на женщин. Технологические гиганты, регулирующие органы и законодатели должны взяться за борьбу с фейковой порнографией.
Когда ей было всего 18, австралийка Ноэль Мартин нашла в Интернете фальсифицированные откровенно сексуальные изображения, грубо созданные с использованием фотографий, взятых из ее аккаунтов в социальных сетях. Хотя изображения не были настоящими, они, тем не менее, причинили ей глубокий и непоправимый вред.
Спустя годы она столкнулась с аналогичным нарушением. Однако на этот раз ее изображение было наложено на устрашающе реалистичное порнографическое видео, созданное с использованием технологии генеративного искусственного интеллекта (ИИ), известной как «дипфейк».
Эта технология создает фальшивый аудиовизуальный контент с изображением идентифицируемого человека, используя его биометрические данные.
Инструменты для этого быстро развиваются, становятся широко доступными и используют данные, которые легко доступны в социальных сетях. Нескольких фотографий и дюжины секунд голосовых записей часто бывает достаточно, чтобы с поразительной реалистичностью воспроизвести облик человека.
Дипфейки используются в основном для нападения, преследования и причинения вреда женщинам. Технологические гиганты, такие как Google, уже предприняли некоторые действия. Обновленные правила в области телекоммуникаций могут сыграть свою роль. Но необходимы срочные изменения в нормативно-правовой базе, чтобы предложить средства правовой защиты тем, кто уже пострадал, и защиту от будущих злоупотреблений.
По мере развития этой технологии становится все труднее отличить подделки от реальных кадров, особенно потому, что они одновременно становятся дешевле и доступнее для публики. Хотя эта технология может иметь законное применение в медиапроизводстве, ее злонамеренное использование, включая производство дипфейковой порнографии, вызывает тревогу.
Например, недавно Интернет заполонили фальшивые фотографии обнаженной певицы Тейлор Свифт, созданные искусственным интеллектом. Ее поклонники сплотились, чтобы заставить X, бывший Twitter, и другие сайты удалить их, но не раньше, чем их просмотрели миллионы раз.
Хотя этот инцидент показывает, что любая женщина может стать мишенью, он также иллюстрирует серьезную проблему, с которой сталкиваются люди, не являющиеся знаменитостями: у них нет такой массовой общественной поддержки, чтобы бороться и выявлять фейки. Хотя частные лица не могут подвергаться нападениям так часто, как знаменитости, они по-прежнему уязвимы.
Признание гендерного вреда дипфейковой порнографии
Дипфейковая порнография — это форма распространения интимных изображений без согласия (NCIID), часто известная как «порноместь», когда человек, делящийся или предоставляющий изображения, является бывшим интимным партнером.
Недавние достижения в области цифровых технологий способствовали распространению NCIID в беспрецедентных масштабах.
Как отмечается в постановлении суда Квебека по делу «Р против АБ», «просто водя пальцем по экрану смартфона можно сразу стать режиссером, продюсером, оператором, а иногда и актером откровенного короткометражного фильма».
Кроме того, суд Альберты отметил в деле Р. против Хейнса-Мэттьюза: «После того, как электронные изображения передаются, остается очень мало информации, если таковая имеется вообще, о том, кто может получить к ним доступ, где они могут оказаться или как долго они будут доступны на каком-либо интернет-сайте».
После согласованных пропагандистских усилий многие страны приняли статутное законодательство, предусматривающее привлечение виновных к ответственности за NCIID и предоставляющее жертвам средства правовой защиты. Например, в 2015 году Канада ввела уголовную ответственность за распространение NCIID, и многие провинции последовали этому примеру.
До 95 процентов всех дипфейков являются порнографическими и почти исключительно нацелены на женщин. Приложения Deepfake, в том числе DeepNude в 2019 году и бот Telegram в 2020 году, были разработаны специально для «цифрового раздевания» фотографий женщин.
Если посмотреть на эволюцию технологии дипфейков через эту призму, можно увидеть гендерное насилие, которое она увековечивает и усиливает. Потенциальный ущерб фундаментальным правам и свободам женщин значителен, особенно для общественных деятелей.
Например, Рана Айюб, журналистка из Индии, стала объектом дипфейковой схемы NCIID в ответ на ее попытки освещать коррупцию в правительстве. Технология искусственного интеллекта была использована для того, чтобы перенести ее лицо на порнографическое видео и затем распространить его. Искусственный характер этих изображений не смягчил вреда, нанесенного ее репутации и карьере. Она столкнулась с широкой социальной и профессиональной негативной реакцией, которая вынудила ее переехать и временно приостановить свою работу.
Ущерб, причиненный любой жертве NCIID, значителен .
«Репутация испорчена, самооценка подорвана, чувства задеты, а неприкосновенность частной жизни непоправимо нарушена», — отмечается в решении суда Квебека.
Как обнаружили Мартин и Айюб, дипфейковая порнография наносит эмоциональный, социальный и репутационный вред. Главную озабоченность вызывает не только интимный характер этих изображений, но и тот факт, что они могут запятнать общественную репутацию человека и поставить под угрозу его безопасность.
Быстрое и потенциально безудержное распространение таких изображений представляет собой серьезное и непоправимое нарушение достоинства и прав человека.
Это означает, что вмешательство правительства в дела о дипфейковой порнографии имеет такое же оправдание, как и другие формы NCIID, которые в настоящее время регулируются.
Можно утверждать, что угроза, которую дипфейковая порнография представляет свободам женщин, больше, чем предыдущие формы NCIID. У дипфейков есть потенциал переписать условия их участия в общественной жизни.
Хотя использование фальсифицированных NCIID для угнетения женщин не является чем-то новым – отфотошопленная порнография существовала на протяжении десятилетий, а интимные произведения искусства, созданные без согласия, существовали и в предыдущие столетия – технология дипфейков обеспечивает легкодоступную среду, более реалистичную и более интуитивную, чем все, что было до нее.
В отличие от подлинных изображений или записей, которые можно защитить от злоумышленников (хотя и несовершенно, поскольку всегда есть взломы и утечки), люди мало что могут сделать, чтобы защитить себя от дипфейков.
Персональные данные, необходимые для создания дипфейков, могут быть легко получены кем угодно через социальные сети. В нашем все более цифровом мире людям практически невозможно полноценно участвовать в жизни общества, гарантируя при этом конфиденциальность своих личных данных.
Поскольку люди, особенно женщины, имеют ограниченные возможности защитить себя от злонамеренных дипфейков, существует еще более сильный стимул для принятия регулирующих мер.
Средства правовой защиты и сдерживание
Правовая система плохо подготовлена к эффективному противодействию большинству форм киберпреступности, и лишь ограниченное количество дел, связанных с NCIID, когда-либо доходит до суда. Несмотря на эти проблемы, законодательные меры по-прежнему имеют решающее значение, поскольку в Канаде не существует прецедента, устанавливающего средства правовой защиты, доступные жертвам дипфейков.
Гражданские иски по правонарушениям, такие как присвоение личности, могут стать одним из средств правовой защиты для жертв. Теоретически могут применяться несколько законов, например, уголовные положения, касающиеся диффамации или клеветы, а также законодательство об авторском праве или конфиденциальности.
Однако природа технологии дипфейков делает судебные разбирательства более сложными, чем другие формы NCIID. В отличие от реальных записей или фотографий, дипфейки не могут быть привязаны к конкретному времени и месту. Во многих случаях практически невозможно определить их происхождение или лицо(а), которые их произвели или распространили.
Технологию, лежащую в основе дипфейков, также трудно запретить, поскольку, хотя определенные приложения могут быть удалены, их код остается в доменах с открытым исходным кодом.
Кроме того, еще до недавних разработок в области искусственного интеллекта цифровые технологии бросали вызов регулирующим полномочиям таких органов, как Канадская комиссия по радио, телевидению и телекоммуникациям (CRTC), которой было поручено применять Закон о радиовещании 1991 года.
В то время как радио и телевидение имеют ограниченную пропускную способность вещания с ограниченным числом частот или каналов, Интернет такой возможности не имеет. Любой, у кого есть смартфон, может сразу стать телеведущим. Следовательно, становится невозможным отслеживать и регулировать распространение контента в той степени, в какой это делали в прошлом такие регуляторы, как CRTC.
Одна из наиболее практичных форм защиты прав жертв может вообще не исходить от правовой системы.
Крупные технологические платформы, такие как Google, уже предпринимают шаги по борьбе с дипфейковым порно и другими формами NCIID. Google создал политику «непроизвольного синтетического порнографического изображения», позволяющую людям просить технологического гиганта заблокировать онлайн-результаты , отображающие их в компрометирующих ситуациях.
Однако государственные регулирующие органы, такие как CRTC, также должны сыграть свою роль. Они могут и должны использовать свои регуляторные полномочия для работы с крупными технологическими платформами, чтобы обеспечить наличие у них эффективной политики, соответствующей основным этическим требованиям, и привлечь их к ответственности.
Дипфейки, как и другие цифровые технологии до них, фундаментально изменили медиа-ландшафт.
Этот неизбежный сбой требует развития правовой и нормативной базы, чтобы предложить различные средства правовой защиты пострадавшим. Дипфейки особенно угрожают участию общественности, от чего непропорционально страдают женщины. Крайне важно обеспечить наличие эффективных средств правовой защиты.
Коментарів: 0