Дипфейковая порнография
Дипфейковая порнография , или просто фейковая порнография , — это вид синтетической порнографии , которая создается путем изменения уже существующих фотографий или видео путем применения технологии дипфейка к изображениям участников. Использование дипфейкового порно вызвало споры, поскольку оно предполагает создание и распространение реалистичных видеороликов с участием несогласных людей, обычно знаменитостей женского пола, и иногда используется для порномести . Предпринимаются усилия по борьбе с этими этическими проблемами посредством законодательства и технологических решений.
История
[ редактировать ]Термин «дипфейк» был придуман в 2017 году на форуме Reddit , где пользователи делились измененными порнографическими видеороликами, созданными с использованием алгоритмов машинного обучения. Это сочетание слова «глубокое обучение», которое относится к программе, используемой для создания видео, и слова «фейк», означающего, что видео не настоящие. [ 1 ]
Дипфейк-порно изначально создавался в небольших индивидуальных масштабах с использованием комбинации алгоритмов машинного обучения , методов компьютерного зрения и программного обеспечения искусственного интеллекта . Процесс начался со сбора большого количества исходного материала (включая изображения и видео) лица человека, а затем использования модели глубокого обучения для обучения генеративно-состязательной сети созданию поддельного видео, которое убедительно меняет лицо исходного материала. на тело порноактера. Однако с 2018 года производственный процесс значительно изменился с появлением нескольких общедоступных приложений, которые в значительной степени автоматизировали этот процесс. [ 2 ]
Дипфейковую порнографию иногда путают с фейковой фотографией обнаженной натуры , но по большей части это разные вещи. В фейковых фотографиях обнаженной натуры обычно используются изображения несексуального характера, а просто создается впечатление, что люди на них обнажены.
Известные случаи
[ редактировать ]Технология Deepfake использовалась для создания без согласия порнографических изображений и видео известных женщин. дипфейковое порнографическое видео с Галь Гадот Один из самых ранних примеров произошел в 2017 году, когда пользователем Reddit было создано , которое быстро распространилось в Интернете. С тех пор было множество случаев подобного дипфейкового контента, нацеленного на других знаменитостей женского пола, таких как Эмма Уотсон , Натали Портман и Скарлетт Йоханссон . [ 3 ] Йоханссон публично высказалась по этому вопросу в декабре 2018 года, осудив эту практику, но также отказавшись от судебного иска, поскольку считает преследование неизбежным. [ 4 ]
Рана Айюб
[ редактировать ]В 2018 году Рана Айюб , индийская журналистка-расследователь, стала объектом онлайн-кампании ненависти, вызванной ее осуждением индийского правительства, в частности ее выступлениями против изнасилования восьмилетней кашмирской девочки. Айюб засыпали угрозами изнасилования и смерти, а также подделали ее порнографическое видео, распространенное в Интернете. [ 5 ] В статье Huffington Post Айюб рассказала о долгосрочных психологических и социальных последствиях, которые этот опыт оказал на нее. Она объяснила, что продолжает бороться со своим психическим здоровьем и что изображения и видео продолжают всплывать всякий раз, когда она берется за громкое дело. [ 6 ]
Споры об Атриоке
[ редактировать ]В 2023 году Twitch стример Атриок вызвал споры, когда во время прямого эфира случайно обнародовал дипфейковые порнографические материалы с участием женщин-стримеров Twitch. С тех пор влиятельный человек признался, что платил за порно, созданное искусственным интеллектом, и извинился перед женщинами и своими поклонниками. [ 7 ] [ 8 ]
Тейлор Свифт
[ редактировать ]В январе 2024 года сгенерированные искусственным интеллектом откровенно сексуальные изображения американской певицы Тейлор Свифт были размещены на X (ранее Twitter) и распространились на другие платформы, такие как Facebook , Reddit и Instagram . [ 9 ] [ 10 ] [ 11 ] Один твит с изображениями был просмотрен более 45 миллионов раз, прежде чем был удален. [ 12 ] [ 10 ] В отчете 404 Media выяснилось, что изображения, судя по всему, были созданы группой Telegram , члены которой использовали такие инструменты, как Microsoft Designer, для создания изображений, используя орфографические ошибки и хаки ключевых слов для обхода фильтров контента Designer. [ 13 ] [ 14 ] После того, как материал был опубликован, фанаты Свифта разместили записи концертов и изображения, чтобы скрыть дипфейковые изображения, а также сообщили об аккаунтах, публикующих дипфейки. [ 15 ] Поиск имени Swift был временно отключен на X , вместо этого возвращалось сообщение об ошибке. [ 16 ] Graphika , фирма по исследованию дезинформации, проследила создание изображений до сообщества 4chan . [ 17 ] [ 18 ]
Источник, близкий к Свифт, сообщил Daily Mail , что она будет рассматривать возможность судебного иска, заявив: «Будет ли предпринят судебный иск, решается, но есть одна вещь, которая ясна: эти фальшивые изображения, созданные ИИ, являются оскорбительными, оскорбительные, эксплуататорские и совершенные без согласия и/или ведома Тейлора». [ 15 ] [ 19 ]
Споры вызвали осуждение со стороны пресс-секретаря Белого дома Карин Жан-Пьер . [ 20 ] Microsoft Генеральный директор Сатья Наделла , [ 21 ] Национальная сеть изнасилований, жестокого обращения и инцеста , [ 22 ] и САГ-АФТРА . [ 23 ] Несколько американских политиков призвали принять федеральное законодательство против дипфейковой порнографии. [ 24 ] Позже в том же месяце сенаторы США Дик Дурбин , Линдси Грэм , Эми Клобучар и Джош Хоули представили двухпартийный законопроект, который позволит жертвам подавать в суд на лиц, которые производили или владели «цифровыми подделками» с намерением распространения, или на тех, кто получил материалы, зная об этом. было совершено без согласия. [ 25 ]
Этические соображения
[ редактировать ]Дипфейк CSAM
[ редактировать ]Технология Deepfake сделала создание материалов о сексуальном насилии над детьми (CSAM), также часто называемых детской порнографией, быстрее, безопаснее и проще, чем когда-либо. Дипфейки можно использовать для создания новых CSAM из уже существующих материалов или для создания CSAM из детей, не подвергавшихся сексуальному насилию. Однако Deepfake CSAM может иметь реальные и прямые последствия для детей, включая клевету, притеснение, вымогательство и издевательства. [ 26 ]
Согласие
[ редактировать ]Большая часть дипфейкового порно сделана с лицами людей, которые не дали согласия на использование их изображений в столь сексуальном ключе. В 2023 году компания Sensity, занимающаяся проверкой личности, обнаружила, что «96% дипфейков носят откровенно сексуальный характер и изображают женщин, которые не давали согласия на создание контента». [ 27 ] Часто дипфейковое порно используется для унижения и преследования, в первую очередь, женщин, аналогично порномести .
Борьба с дипфейковой порнографией
[ редактировать ]Технический подход
[ редактировать ]В последние годы обнаружение дипфейков становится все более важной областью исследований, поскольку распространение фейковых видео и изображений становится все более распространенным. Одним из многообещающих подходов к обнаружению дипфейков является использование сверточных нейронных сетей (CNN), которые показали высокую точность в различении реальных и поддельных изображений. Одним из алгоритмов на основе CNN, который был разработан специально для обнаружения дипфейков, является DeepRhythm, который продемонстрировал впечатляющий показатель точности 0,98 ( т.е. успешно обнаруживает дипфейковые изображения в 98% случаев). Этот алгоритм использует предварительно обученную CNN для извлечения особенностей из интересующих областей лица, а затем применяет новый механизм внимания для выявления несоответствий между исходным и обработанным изображениями. Хотя развитие более сложной технологии дипфейков создает постоянные проблемы для обнаружения, высокая точность таких алгоритмов, как DeepRhythm, предлагает многообещающий инструмент для выявления и предотвращения распространения вредных дипфейков. [ 1 ]
Помимо моделей обнаружения, существуют также общедоступные инструменты видеоаутентификации. В 2019 году компания Deepware запустила первый общедоступный инструмент обнаружения, который позволил пользователям легко сканировать и обнаруживать дипфейковые видео. Аналогичным образом, в 2020 году Microsoft выпустила бесплатный и удобный видеоаутентификатор. Пользователи загружают подозрительное видео или вводят ссылку и получают оценку доверия, позволяющую оценить уровень манипуляции в дипфейке.
Юридический подход
[ редактировать ]По состоянию на 2023 год отсутствует законодательство, конкретно касающееся дипфейковой порнографии. Вместо этого вред, причиненный его созданием и распространением, рассматривается судами посредством существующих уголовных и гражданских законов. [1]
Жертвы дипфейковой порнографии часто предъявляют претензии в отношении порномести , правонарушений и преследований. [ 28 ] Юридические последствия порномести варьируются от штата к штату и от страны к стране. [ 29 ] [ 30 ] Например, в Канаде наказание за публикацию интимных изображений без согласия составляет до 5 лет тюремного заключения. [ 31 ] тогда как на Мальте это штраф до 5000 евро. [ 32 ]
«Закон об ответственности за дипфейки» был представлен Конгрессу США в 2019 году, но перестал действовать в 2020 году. [ 33 ] Его целью было объявить производство и распространение визуальных медиа, измененных в цифровом виде, о которых не сообщалось, уголовным преступлением. В заголовке указано, что создание любых сексуальных, измененных материалов без согласия с целью унизить или иным образом нанести вред участникам может быть оштрафовано, заключено в тюрьму на срок до 5 лет или и то, и другое. [ 30 ] В 2021 году была представлена более новая версия законопроекта, которая требовала, чтобы любые «передовые технологические записи о ложных личностях» содержали водяной знак и аудиовизуальное раскрытие для идентификации и объяснения любых измененных аудио и визуальных элементов. Законопроект также включает в себя то, что нераскрытие этой информации с намерением преследовать или унижать человека с помощью «продвинутой технологической ложной записи о личности», содержащей сексуальный контент, «наказывается штрафом по этому титулу, тюремным заключением на срок не более 5 лет или и тем, и другим». Однако этот законопроект умер в 2023 году. [ 34 ]
В Соединенном Королевстве Юридическая комиссия Англии и Уэльса рекомендовала провести реформу по криминализации распространения дипфейковой порнографии в 2022 году. [ 35 ] В 2023 году правительство объявило о внесении поправок в законопроект о безопасности в Интернете с этой целью. Закон о безопасности в Интернете 2023 года вносит поправки в Закон о сексуальных преступлениях 2003 года, устанавливая уголовную ответственность за распространение интимных изображений, на которых изображен или «кажется, что показан» другой человек (включая дипфейковые изображения) без согласия. [ 36 ] В 2024 году правительство объявило, что преступление, криминализирующее производство дипфейковых порнографических изображений, будет включено в законопроект об уголовном правосудии 2024 года. [ 37 ] [ 38 ] Законопроект не был принят до того, как парламент был распущен перед всеобщими выборами .
Контроль распространения
[ редактировать ]Хотя правовая среда остается неразработанной, у жертв дипфейковой порнографии есть несколько инструментов для сдерживания и удаления контента, включая обеспечение удаления по постановлению суда, инструменты интеллектуальной собственности, такие как удаление DMCA, отчеты о нарушениях условий хостинговой платформы и удаление сообщая о содержании поисковым системам. [ 39 ]
Несколько крупных онлайн-платформ предприняли шаги по запрету дипфейковой порнографии. С 2018 года gfycat , Reddit , Twitter , Discord и Pornhub запретили загрузку и распространение дипфейкового порнографического контента на своих платформах. [ 40 ] [ 41 ] В сентябре того же года Google также добавила в свой список запретов «принудительные синтетические порнографические изображения», что позволило отдельным лицам требовать удаления такого контента из результатов поиска. [ 42 ]
См. также
[ редактировать ]- Поддельная фотография обнаженной натуры
- порно месть
- Другое тело , документальный фильм 2023 года о стремлении студентки к справедливости после того, как она нашла в Интернете фейковую порнографию с самой собой.
Ссылки
[ редактировать ]- ^ Jump up to: а б Гаур, Лавлин; Арора, Гурсимар Каур (27 июля 2022 г.), DeepFakes , Нью-Йорк: CRC Press, стр. 91–98, номер домена : 10.1201/9781003231493-7 , ISBN. 978-1-003-23149-3 , заархивировано из оригинала 6 марта 2024 г. , получено 20 апреля 2023 г.
- ^ Азмуде, Амин и Али Дегантанха. «Глубокое обнаружение фейков, сдерживание и реагирование: проблемы и возможности». arXiv.org, 2022.
- ^ Реттгерс, Янко (21 февраля 2018 г.). «Порнопродюсеры предлагают помочь Голливуду удалить дипфейковые видео» . Разнообразие . Архивировано из оригинала 10 июня 2019 г. Проверено 20 апреля 2023 г.
- ^ Харвелл, Дрю (31 декабря 2018 г.). «Скарлетт Йоханссон о фальшивых секс-видео, созданных искусственным интеллектом: «Ничто не может помешать кому-то вырезать и вставить мое изображение » . Вашингтон Пост . ISSN 0190-8286 . Архивировано из оригинала 13 июня 2019 г. Проверено 20 апреля 2023 г.
- ^ Мэддокс, Софи (04 июня 2020 г.). « Порно-сюжет с дипфейками, призванный заставить меня замолчать»: исследование преемственности между порнографическими и «политическими» дипфейками» . Порно исследования . 7 (4): 415–423. дои : 10.1080/23268743.2020.1757499 . ISSN 2326-8743 . S2CID 219910130 . Архивировано из оригинала 06 марта 2024 г. Проверено 20 апреля 2023 г.
- ^ Айюб, Рана (21 ноября 2018 г.). «Я стал жертвой дипфейкового порнозаговора, призванного заставить меня замолчать» . HuffPost Великобритания . Архивировано из оригинала 20 апреля 2023 г. Проверено 20 апреля 2023 г.
- ^ Миддлтон, Эмбер (10 февраля 2023 г.). «Стример Twitch был пойман за просмотром дипфейкового порно с женщинами-геймерами. Сексуальные изображения, сделанные без согласия, могут быть травмирующими и оскорбительными, говорят эксперты, — и женщины являются самыми большими жертвами» . Инсайдер . Архивировано из оригинала 06 марта 2024 г. Проверено 20 апреля 2023 г.
- ^ Паттерсон, Калум (30 января 2023 г.). «Стример Twitch Атриок приносит слезливые извинения после того, как заплатил за дипфейки женщин-стримеров» . Дексерто . Архивировано из оригинала 9 мая 2023 г. Проверено 14 июня 2023 г.
- ^ Стокел-Уокер, Крис (25 января 2024 г.). «Откровенные изображения Тейлор Свифт, созданные ИИ, наводнившие Интернет, подчеркивают серьезную проблему с генеративным ИИ» . Компания Фаст . Архивировано из оригинала 26 января 2024 года . Проверено 26 января 2024 г.
- ^ Jump up to: а б Белэнджер, Эшли (25 января 2024 г.). «X не может остановить распространение откровенных фальшивых изображений ИИ Тейлор Свифт» . Арс Техника . Архивировано из оригинала 25 января 2024 г. Проверено 25 января 2024 г.
- ^ Келли, Саманта Мерфи (25 января 2024 г.). «Явные изображения Тейлор Свифт, созданные с помощью искусственного интеллекта, быстро распространились в социальных сетях | CNN Business» . CNN . Архивировано из оригинала 25 января 2024 г. Проверено 25 января 2024 г.
- ^ Уэтербед, Джесс (25 января 2024 г.). «Тролли наводнили X графическими фейками искусственного интеллекта Тейлор Свифт» . Грань . Архивировано из оригинала 25 января 2024 г. Проверено 25 января 2024 г.
- ^ Майберг, Эмануэль; Коул ·, Саманта (25 января 2024 г.). «Порно с Тейлор Свифт, созданное искусственным интеллектом, стало вирусным в Твиттере. Вот как оно туда попало» . 404 Медиа . Архивировано из оригинала 25 января 2024 г. Проверено 25 января 2024 г.
- ^ Беланджер, Эшли (29 января 2024 г.). «Решительные шаги X: Microsoft, возможно, не остановит распространение фейкового порно с Тейлор Свифт» . Арс Техника . Архивировано из оригинала 29 января 2024 г. Проверено 30 января 2024 г.
- ^ Jump up to: а б Чжан, Кот (26 января 2024 г.). «Борьба Свифти за защиту Тейлор Свифт от искусственного интеллекта» . Разрез . Архивировано из оригинала 30 января 2024 г. Проверено 6 марта 2024 г.
- ^ Спенглер, Тодд (27 января 2024 г.). «X/Twitter блокирует поисковые запросы по запросу «Тейлор Свифт» как «временную меру по обеспечению безопасности» после потока явных фейков с использованием искусственного интеллекта» . Разнообразие . Архивировано из оригинала 28 января 2024 г. Проверено 29 января 2024 г.
- ^ Сюй, Тиффани (5 февраля 2024 г.). «Фальшивые и откровенные изображения Тейлор Свифт появились на 4chan, говорится в исследовании» . Нью-Йорк Таймс . Архивировано из оригинала 9 февраля 2024 года . Проверено 10 февраля 2024 г.
- ^ Белэнджер, Эшли (05 февраля 2024 г.). «Ежедневный вызов 4chan вызвал поток откровенных изображений AI Тейлор Свифт» . Арс Техника . Архивировано из оригинала 9 февраля 2024 г. Проверено 9 февраля 2024 г.
- ^ Призрак, Эмма (26 января 2024 г.). «Если кто и может остановить грядущий ад ИИ, так это Тейлор Свифт» . Мода . Архивировано из оригинала 6 февраля 2024 г. Проверено 6 марта 2024 г.
- ^ «Поиски Тейлор Свифт заблокированы на X после того, как распространились фейковые откровенные изображения поп-певицы» . Хранитель . Рейтер . 2024-01-29. Архивировано из оригинала 29 января 2024 г. Проверено 29 января 2024 г.
- ^ Спенглер, Тодд (26 января 2024 г.). «Явные дипфейки, созданные Тейлором Свифтом с помощью искусственного интеллекта, «тревожны и ужасны», говорит генеральный директор Microsoft: «Мы должны действовать » . Разнообразие . Архивировано из оригинала 28 января 2024 г. Проверено 29 января 2024 г.
- ^ Трэверс, Карен; Салиба, Эммануэль (27 января 2024 г.). «Фейковые откровенные изображения Тейлор Свифт: Белый дом «встревожен» » . Новости АВС . Архивировано из оригинала 28 января 2024 г. Проверено 29 января 2024 г.
- ^ Миллман, Итан (26 января 2024 г.). «Явные изображения Тейлор Свифт, созданные искусственным интеллектом, «должны быть объявлены незаконными», - заявляет SAG-AFTRA» . Роллинг Стоун . Архивировано из оригинала 29 января 2024 г. Проверено 29 января 2024 г.
- ^ Бомонт-Томас, Бен (27 января 2024 г.). «Дипфейковая порнография Тейлор Свифт вызывает новые призывы к принятию законодательства в США» . Хранитель . Архивировано из оригинала 29 января 2024 г. Проверено 29 января 2024 г.
- ^ Монтгомери, Блейк (31 января 2024 г.). «Изображения Тейлор Свифт, созданные искусственным интеллектом, побуждают законопроект США бороться с дипфейками сексуального характера без согласия» . Хранитель . Архивировано из оригинала 31 января 2024 года . Проверено 31 января 2024 г.
- ^ Кирхенгаст, Т (2020). «Дипфейки и манипулирование изображениями: криминализация и контроль». Закон об информационных и коммуникационных технологиях . 29 (3): 308–323. дои : 10.1080/13600834.2020.1794615 . S2CID 221058610 .
- ^ «Найден через Google, куплен с помощью Visa и Mastercard: изнутри экономики дипфейкового порно» . Новости Эн-Би-Си . 27 марта 2023 г. Архивировано из оригинала 29 ноября 2023 г. Проверено 30 ноября 2023 г.
- ^ «Обнажи меня: правовые последствия порномести, созданного ИИ» . Джей Ди Супра . Архивировано из оригинала 14 марта 2024 г. Проверено 14 марта 2024 г.
- ^ «Обнажи меня: правовые последствия порномести, созданного ИИ» . Джей Ди Супра . Архивировано из оригинала 14 марта 2024 г. Проверено 14 марта 2024 г.
- ^ Jump up to: а б Кирхенгаст, Тайрон (16 июля 2020 г.). «Дипфейки и манипулирование изображениями: криминализация и контроль» . Закон об информационных и коммуникационных технологиях . 29 (3): 308–323. дои : 10.1080/13600834.2020.1794615 . ISSN 1360-0834 . S2CID 221058610 . Архивировано из оригинала 26 января 2024 г. Проверено 20 апреля 2023 г.
- ^ Филиал Законодательной службы (16 января 2023 г.). «Сводные федеральные законы Канады, Уголовный кодекс» . законы-lois.justice.gc.ca . Архивировано из оригинала 3 июня 2023 г. Проверено 20 апреля 2023 г.
- ^ Мания, Каролина (2022). «Правовая защита жертв мести и дипфейковой порнографии в Европейском Союзе: результаты сравнительного правового исследования» . Травма, насилие и жестокое обращение . 25 (1): 117–129. дои : 10.1177/15248380221143772 . ПМИД 36565267 . S2CID 255117036 . Архивировано из оригинала 26 января 2024 г. Проверено 20 апреля 2023 г.
- ^ «Защита каждого человека от ложных показаний путем соблюдения Закона об ответственности за эксплуатацию от 2019 года (2019 – HR 3230)» . GovTrack.us . Архивировано из оригинала 3 декабря 2023 г. Проверено 27 ноября 2023 г.
- ^ «Закон об ответственности за DEEP FAKES (2021 г. – HR 2395)» . GovTrack.us . Архивировано из оригинала 3 декабря 2023 г. Проверено 27 ноября 2023 г.
- ^ Хилл, Амелия (07 июля 2022 г.). «Уголовные реформы нацелены на «дипфейковые» и несогласованные порнографические изображения» . Хранитель . ISSN 0261-3077 . Проверено 18 августа 2024 г.
- ^ «Закон о безопасности в Интернете 2023 г.: раздел 188» , законодательное обеспечение.gov.uk , Национальный архив , 2023 г. c. 50 (с. 188)
- ^ «Правительство борется с созданием «дипфейков»» . GOV.UK. Проверено 18 августа 2024 г.
- ^ «Создание откровенно сексуальных дипфейков станет уголовным преступлением» . Новости Би-би-си . 16 апреля 2024 г. Проверено 18 августа 2024 г.
- ^ «Разобнажить меня: варианты удаления для жертв дипфейковой порнографии» . Джей Ди Супра . Архивировано из оригинала 14 марта 2024 г. Проверено 14 марта 2024 г.
- ^ Харпал, Арджун (8 февраля 2018 г.). «Reddit и Pornhub запрещают видео, в которых используется ИИ для наложения лица человека на актера с рейтингом X» . CNBC . Архивировано из оригинала 10 апреля 2019 г. Проверено 20 апреля 2023 г.
- ^ Коул, Саманта (31 января 2018 г.). «Создатели фейковой порнографии, созданные искусственным интеллектом, были изгнаны со своего любимого хозяина» . Порок . Архивировано из оригинала 20 апреля 2023 г. Проверено 20 апреля 2023 г.
- ^ Харвелл, Дрю (30 декабря 2018 г.). «Фейковые порновидео используются в качестве оружия для преследования и унижения женщин: «Каждый является потенциальной мишенью» » . Вашингтон Пост . ISSN 0190-8286 . Архивировано из оригинала 14 июня 2019 г. Проверено 20 апреля 2023 г.