Гаряча лінія
Коментарі:0
ГАРЯЧА ЛІНІЯ ДЛЯ СЕКС-ПРАЦІВНИКІВ:
+38 (067) 450 777 4
+38 (050) 450 777 4
ЗВЕРНУВШИСЬ, ВИ ЗМОЖЕТЕ ПОСПІЛКУВАТИСЬ ТЕЛЕФОНОМ З ПСИХОЛОГОМ, ЮРИСТОМ АБО ОТРИМАТИ КОНТАКТИ СПЕЦІАЛІСТІВ У ВАШОМУ РЕГІОНІ, ЯКІ ЗАБЕЗПЕЧАТЬ ВАМ ДОПОМОГУ ТА ПІДТРИМКУ НА МІСТІ
ЯКЩО ВИ СТИКНУЛИСЬ З ПОРУШЕННЯМ ПРАВ, Ви можете подати заявку та отримати правову допомогу юристів, скориставшись інструментом DataCheck. Для цього завантажте застосунок:
Діпфейки, подібні до тих, що спрямовані проти Тейлор Свіфт, часто використовуються для нападок на жінок. Технологічні гіганти, регуляційні органи та законодавці повинні взятися за боротьбу з фейковою порнографією.
Коли їй було всього 18, австралійка Ноель Мартін знайшла в Інтернеті фальсифіковані відверто сексуальні зображення, які грубо створені з використанням фотографій, взятих з її акаунтів у соціальних мережах. Хоча зображення не були справжніми, вони завдали їй глибокої й непоправної шкоди.
Через роки вона зіткнулася з аналогічним порушенням. Однак цього разу її зображення було накладено на жахливо реалістичне порнографічне відео, створене з використанням технології генеративного штучного інтелекту (ШІ), відомої як дипфейк.
Ця технологія створює фальшивий аудіовізуальний контент із зображенням людини, що ідентифікується, використовуючи її біометричні дані.
Інструменти для цього швидко розвиваються, стають широко доступними та використовують дані, які легко доступні у соціальних мережах. Декілька фотографій і дюжини секунд голосових записів часто буває достатньо, щоб з дивовижною реалістичністю відтворити образ людини.
Діпфейки використовуються в основному для нападу, переслідування та заподіяння шкоди жінкам. Технологічні гіганти, такі як Google, вже зробили деякі дії. Оновлені правила у сфері телекомунікацій можуть зіграти свою роль. Але потрібні термінові зміни в нормативно-правовій базі, щоб запропонувати засоби правового захисту тим, хто вже постраждав, та захист від майбутніх зловживань.
У міру розвитку цієї технології стає все важче відрізнити підробки від реальних кадрів, особливо тому, що технології одночасно стають дешевшими та доступнішими для публіки. Хоча ця технологія може мати законне застосування у медіавиробництві, її зловмисне використання, включаючи виробництво діпфейкової порнографії, викликає тривогу.
Наприклад, нещодавно Інтернет заполонили фальшиві фотографії оголеної співачки Тейлор Свіфт, створені штучним інтелектом. Її шанувальники згуртувалися, щоб змусити X, колишній Twitter, та інші сайти видалити їх, але не раніше, ніж їх переглянули мільйони разів.
Хоча цей інцидент показує, що будь-яка жінка може стати мішенню, він також ілюструє серйозну проблему, з якою стикаються люди, які не є знаменитостями: вони не мають такої масової громадської підтримки, щоб боротися і виявляти фейки. Хоча приватні особи не можуть зазнавати нападів так часто, як знаменитості, вони, як і раніше, вразливі.
Визнання гендерної шкоди діпфейкової порнографії
Діпфейкова порнографія — це форма розповсюдження інтимних зображень без згоди (NCIID), часто відома як «порнопомста», коли людина, яка ділиться або надає зображення, є колишнім інтимним партнером.
Нещодавні досягнення в галузі цифрових технологій сприяли поширенню NCIID у безпрецедентних масштабах.
Як зазначається в ухвалі суду Квебека у справі «Р проти АБ», «просто водячи пальцем по екрану смартфона можна одразу стати режисером, продюсером, оператором, а іноді й актором відвертого короткометражного фільму».
Крім того, суд Альберти зазначив у справі Р. проти Хейнса-Меттьюза: «Після того, як електронні зображення передаються, залишається дуже мало інформації, якщо така є взагалі, про те, хто може отримати до них доступ, де вони можуть опинитися чи як довго вони будуть доступні на якомусь інтернет-сайті».
Після злагоджених пропагандистських зусиль багато країн прийняли статутне законодавство, яке передбачає притягнення винних до відповідальності за NCIID та надає жертвам засоби правового захисту. Наприклад, у 2015 році Канада ввела кримінальну відповідальність за поширення NCIID, і багато провінцій наслідували цей приклад.
До 95 відсотків усіх діпфейків є порнографічними та майже виключно націлені на жінок. Програми Deepfake, у тому числі DeepNude у 2019 році та бот Telegram у 2020 році, були розроблені спеціально для «цифрового роздягання» фотографій жінок.
Якщо подивитися на еволюцію технології діпфейків через цю призму, то можна побачити гендерне насильство, яке вона увічнює та посилює. Потенційна шкода фундаментальним правам і свободам жінок є значною, особливо для громадських діячів.
Наприклад, Рана Айюб, журналістка з Індії, стала об’єктом діпфейкової схеми NCIID у відповідь на її спроби висвітлювати корупцію в уряді. Технологія штучного інтелекту була використана для того, щоб перенести її обличчя на порнографічне відео, а потім поширити його. Штучний характер цих зображень не пом’якшив шкоди, завданої її репутації та кар’єрі. Вона зіткнулася з широкою соціальною та професійною негативною реакцією, яка змусила її переїхати та тимчасово призупинити свою роботу.
Збитки, завдані будь-якій жертві NCIID, значні.
«Репутація зіпсована, самооцінка підірвана, почуття зачеплені, а недоторканність приватного життя непоправно порушена», — наголошується у рішенні суду Квебека.
Як виявили Мартін і Айюб, діпфейкова порнографія завдає емоційної, соціальної та репутаційної шкоди. Головне занепокоєння викликає не тільки інтимний характер цих зображень, але й той факт, що вони можуть заплямувати суспільну репутацію людини та поставити під загрозу її безпеку.
Швидке і потенційно нестримне поширення таких зображень є серйозним і непоправним порушенням гідності та прав людини.
Це означає, що втручання уряду у справи про діпфейкову порнографію має таке ж виправдання, як і інші форми NCIID, які зараз регулюються.
Можна стверджувати, що загроза, яку діпфейкова порнографія становить свободам жінок, більша, ніж попередні форми NCIID. Діпфейки мають потенціал переписати умови їхньої участі в суспільному житті.
Хоча використання фальсифікованих NCIID для придушення жінок не є чимось новим – відфотошоплена порнографія існувала протягом десятиліть, а інтимні витвори мистецтва, створені без згоди, існували і в попередні сторіччя – технологія діпфейків забезпечує легкодоступне середовище, більш реалістичне та більш інтуїтивне ніж було до неї.
На відміну від справжніх зображень або записів, які можна захистити від зловмисників (хоча й недосконало, оскільки завжди є зломи та витоки), люди мало що можуть зробити, щоб захистити себе від діпфейків.
Персональні дані, необхідні для створення діпфейков, можуть бути легко отримані будь-ким через соціальні мережі. У нашому цифровому світі людям практично неможливо повноцінно брати участь у житті суспільства, гарантуючи при цьому конфіденційність своїх особистих даних.
Оскільки люди, особливо жінки, мають обмежені можливості захистити себе від зловмисних діпфейків, існує ще сильніший стимул для вжиття регулюючих заходів.
Засоби правового захисту та стримування
Правова система погано підготовлена до ефективної протидії більшості форм кіберзлочинності, і лише обмежена кількість справ, пов’язаних з NCIID, колись доходить до суду. Попри ці проблеми, законодавчі заходи, як і раніше, мають вирішальне значення, оскільки в Канаді не існує прецеденту, що встановлює засоби правового захисту, доступні жертвам діпфейків.
Цивільні позови щодо правопорушень, такі як присвоєння особи, можуть стати одним із засобів правового захисту для жертв. Теоретично можуть застосовуватися кілька законів, наприклад, кримінальні положення щодо дифамації чи наклепів, а також законодавство про авторське право чи конфіденційність.
Проте природа технології діпфейків робить судові розгляди складнішими, ніж інші форми NCIID. На відміну від реальних записів або фотографій, діпфейки не можуть бути прив’язані до певного часу та місця. У багатьох випадках практично неможливо визначити їх походження або особу, які їх виробили або поширили.
Технологію, що лежить в основі діпфейків, також важко заборонити, оскільки, хоча певні програми можуть бути видалені, їхній код залишається в доменах з відкритим вихідним кодом.
Крім того, ще до недавніх розробок у галузі штучного інтелекту цифрові технології кидали виклик регулюючим повноваженням таких органів, як Канадська комісія з питань радіо, телебачення та телекомунікацій (CRTC), якій було доручено застосовувати Закон про радіомовлення 1991 року.
У той час як радіо та телебачення мають обмежену пропускну спроможність мовлення з обмеженою кількістю частот або каналів, Інтернет такої можливості не має. Будь-хто, хто має смартфон, може відразу стати телеведучим. Отже, стає неможливим відстежувати та регулювати поширення контенту тією мірою, якою це робили в минулому такі регулятори, як CRTC.
Одна з найбільш практичних форм захисту прав жертв може взагалі виходити від правової системи.
Великі технологічні платформи, такі як Google, вже роблять кроки по боротьбі з діпфейковим порно та іншими формами NCIID. Google створив політику «мимовільного синтетичного порнографічного зображення», що дозволяє людям просити технологічного гіганта заблокувати онлайн-результати, що відображають їх ситуаціях, що їх компрометують.
Проте державні регулюючі органи, такі як CRTC, також мають відіграти свою роль. Вони можуть і повинні використовувати свої регуляторні повноваження для роботи з великими технологічними платформами, щоб забезпечити їх ефективну політику, що відповідає основним етичним вимогам, і притягнути їх до відповідальності.
Діпфейки, як і інші цифрові технології, фундаментально змінили медіа-ландшафт.
Цей неминучий збій потребує розвитку правової та нормативної бази, щоб запропонувати різні засоби правового захисту постраждалим. Діпфейки особливо загрожують участі громадськості, від чого непропорційно страждають жінки. Вкрай важливо забезпечити наявність ефективних засобів правового захисту.
Коментарів: 0