~~~~~~~~~~~~~~~~~~~~ Arc.Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~ 
Номер скриншота №:
✰ 46E59291460B0CA03DB4E3F079F17FAE__1718893200 ✰
Заголовок документа оригинал.:
✰ Deepfake - Wikipedia ✰
Заголовок документа перевод.:
✰ Дипфейк — Википедия ✰
Снимок документа находящегося по адресу (URL):
✰ https://en.wikipedia.org/wiki/Deepfake ✰
Адрес хранения снимка оригинал (URL):
✰ https://arc.ask3.ru/arc/aa/46/ae/46e59291460b0ca03db4e3f079f17fae.html ✰
Адрес хранения снимка перевод (URL):
✰ https://arc.ask3.ru/arc/aa/46/ae/46e59291460b0ca03db4e3f079f17fae__translat.html ✰
Дата и время сохранения документа:
✰ 22.06.2024 18:14:52 (GMT+3, MSK) ✰
Дата и время изменения документа (по данным источника):
✰ 20 June 2024, at 17:20 (UTC). ✰ 

~~~~~~~~~~~~~~~~~~~~~~ Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~~ 
Сервисы Ask3.ru: 
 Архив документов (Снимки документов, в формате HTML, PDF, PNG - подписанные ЭЦП, доказывающие существование документа в момент подписи. Перевод сохраненных документов на русский язык.)https://arc.ask3.ruОтветы на вопросы (Сервис ответов на вопросы, в основном, научной направленности)https://ask3.ru/answer2questionТоварный сопоставитель (Сервис сравнения и выбора товаров) ✰✰
✰ https://ask3.ru/product2collationПартнерыhttps://comrades.ask3.ru


Совет. Чтобы искать на странице, нажмите Ctrl+F или ⌘-F (для MacOS) и введите запрос в поле поиска.
Arc.Ask3.ru: далее начало оригинального документа

Дипфейк — Википедия Jump to content

Дипфейк

Из Википедии, бесплатной энциклопедии

Дипфейки ( сочетание « глубокого обучения » и «фальшивки»). [1] ) первоначально определялись как синтетические носители [2] которые были подвергнуты цифровой манипуляции, чтобы убедительно заменить сходство одного человека на сходство другого. Этот термин был придуман в 2017 году пользователем Reddit , а позже был расширен, чтобы охватить любые видео, изображения или аудио, созданные с помощью искусственного интеллекта, чтобы выглядеть реальными. [3] например, реалистичные изображения людей, которых не существует. [4] Хотя процесс создания фейкового контента не нов, дипфейки используют инструменты и методы машинного обучения и искусственного интеллекта . [5] [6] [7] включая алгоритмы распознавания лиц и искусственные нейронные сети , такие как вариационные автокодеры (VAE) и генеративно-состязательные сети (GAN). [6] [8] В свою очередь, область криминалистики изображений разрабатывает методы обнаружения манипулируемых изображений . [9] Дипфейки привлекли широкое внимание из-за их потенциального использования в создании о сексуальном насилии над детьми материалов , порнографических видеороликах со знаменитостями , порномести , фейковых новостях , мистификациях , издевательствах и финансовом мошенничестве . [10] [11] [12] [13] Распространение дезинформации и языка ненависти посредством дипфейков потенциально может подорвать основные функции и нормы демократических систем, мешая людям участвовать в принятии решений, которые их затрагивают, определять коллективные программы и выражать политическую волю посредством информированного принятия решений. [14] И индустрия информационных технологий , и правительство отреагировали рекомендациями по выявлению и ограничению их использования. [15] [16]

От традиционных развлечений к играм технология дипфейков развивается и становится все более убедительной. [17] и доступны для общественности, что позволяет разрушить индустрию развлечений и СМИ . [18]

История [ править ]

Портрет актера Сиднея Суини , созданный Stable Diffusion

Фотоманипуляция была разработана в 19 веке и вскоре применена к кинофильмам. Технологии неуклонно совершенствовались в течение 20-го века, и еще быстрее с появлением цифрового видео .

Технология Deepfake разрабатывалась исследователями академических учреждений, начиная с 1990-х годов, а затем любителями в интернет-сообществах. [19] [20] Совсем недавно эти методы были приняты промышленностью. [21]

Академические исследования

Академические исследования, связанные с дипфейками, разделены между областью компьютерного зрения , подобластью информатики, [19] который разрабатывает методы создания и идентификации дипфейков, а также подходы в области гуманитарных и социальных наук, изучающие социальные, этические и эстетические последствия дипфейков.

Социально-гуманитарные дипфейкам подходы к

В исследованиях кино дипфейки демонстрируют, как «человеческое лицо становится центральным объектом амбивалентности в эпоху цифровых технологий». [22] Видеохудожники использовали дипфейки, чтобы «игриво переписать историю кино, дооснащая каноническое кино новыми звездными исполнителями». [23] Киновед Кристофер Холлидей анализирует, как смена пола и расы исполнителей в знакомых сценах фильмов дестабилизирует гендерные классификации и категории. [23] Идея « квиринговых » дипфейков также обсуждается в обсуждении Оливером М. Гингричем медиа-произведений, в которых дипфейки используются для переосмысления гендера. [24] » британского художника Джейка Элвеса в том числе «Zizi: Queering the Dataset , произведение искусства, в котором дипфейки трансвеститов используются для намеренной игры с полом. Эстетический потенциал дипфейков также начинает исследоваться. Историк театра Джон Флетчер отмечает, что ранние демонстрации дипфейков представляют собой спектакли, и помещает их в контекст театра, обсуждая «некоторые из наиболее тревожных сдвигов парадигмы», которые дипфейки представляют собой жанр перформанса. [25]

Философы и исследователи медиа обсуждали этику дипфейков, особенно в отношении порнографии. [26] Медиа-исследователь Эмили ван дер Нагель опирается на исследования в области фотографии, посвященные манипулированию изображениями, для обсуждения систем проверки, которые позволяют женщинам давать согласие на использование их изображений. [27]

Помимо порнографии, философы называют дипфейки «эпистемической угрозой» знаниям и, следовательно, обществу. [28] Есть несколько других предложений о том, как бороться с рисками, которые дипфейки создают не только для порнографии, но и для корпораций, политиков и других лиц, а именно: «эксплуатация, запугивание и личный саботаж». [29] и есть несколько научных дискуссий о возможных правовых и нормативных мерах как в юридических исследованиях, так и в исследованиях средств массовой информации. [30] В области психологии и медиа-исследований ученые обсуждают последствия дезинформации с использованием дипфейков. [31] [32] и социальное влияние дипфейков. [33]

В то время как большинство англоязычных академических исследований дипфейков сосредоточено на опасениях Запада по поводу дезинформации и порнографии, цифровой антрополог Габриэле де Сета проанализировала китайское восприятие дипфейков, известных как хуанлянь , что переводится как «меняющееся лицо». Китайский термин не содержит «подделки» английского deepfake, и де Сета утверждает, что этот культурный контекст может объяснить, почему реакция Китая была больше связана с практическими регулятивными ответами на «риски мошенничества, права на имидж, экономическую прибыль и этический дисбаланс». ". [34]

Компьютерные дипфейков исследования

Ранним знаковым проектом была программа Video Rewrite, опубликованная в 1997 году, которая модифицировала существующие видеозаписи говорящего человека, чтобы изобразить, как этот человек произносит слова, содержащиеся в другой звуковой дорожке. [35] Это была первая система, которая полностью автоматизировала такого рода реанимацию лица, и она сделала это с помощью методов машинного обучения, чтобы установить связь между звуками, издаваемыми объектом видео, и формой лица субъекта. [35]

Современные академические проекты сосредоточены на создании более реалистичных видеороликов и совершенствовании методов. [36] [37] Программа «Синтезируя Обаму», опубликованная в 2017 году, модифицирует видеозапись бывшего президента Барака Обамы, чтобы показать, как он произносит слова, содержащиеся в отдельной аудиодорожке. [36] В качестве основного исследовательского вклада в проекте указана фотореалистичная техника синтеза формы рта из звука. [36] Программа Face2Face, опубликованная в 2016 году, изменяет видеозапись лица человека, изображая его имитирующим выражение лица другого человека в реальном времени. [37] В качестве основного исследовательского вклада в проекте указан первый метод воспроизведения выражений лица в реальном времени с использованием камеры, которая не фиксирует глубину, что позволяет реализовать эту технику с использованием обычных потребительских камер. [37]

В августе 2018 года исследователи из Калифорнийского университета в Беркли опубликовали статью, в которой представили фальшивое танцевальное приложение, которое может создавать впечатление мастерских танцевальных способностей с помощью искусственного интеллекта. [38] Этот проект расширяет применение дипфейков на все тело; предыдущие работы были сосредоточены на голове или частях лица. [39]

Исследователи также показали, что дипфейки распространяются и на другие области, например, подделку медицинских изображений. [40] пациента В этой работе было показано, как злоумышленник может автоматически ввести или удалить рак легких на 3D-КТ . Результат был настолько убедительным, что обманул трех рентгенологов и современный искусственный интеллект для обнаружения рака легких. Чтобы продемонстрировать угрозу, авторы успешно осуществили атаку на больницу в ходе теста на проникновение White Hat . [41]

Обзор дипфейков, опубликованный в мае 2020 года, дает представление о том, как продвинулись в создании и обнаружении дипфейков за последние несколько лет. [42] Опрос показывает, что исследователи сосредоточили внимание на решении следующих проблем, связанных с созданием дипфейков:

  • Обобщение. Высококачественные дипфейки часто достигаются путем тренировки на многочасовой видеозаписи цели. Эта задача состоит в том, чтобы свести к минимуму объем обучающих данных и время на обучение модели, необходимое для создания качественных изображений, а также обеспечить выполнение обученных моделей на новых идентификаторах (невидимых во время обучения).
  • Парное обучение. Обучение контролируемой модели может дать высококачественные результаты, но требует сопоставления данных. Это процесс поиска примеров входных данных и их желаемых результатов, на которых модель может учиться. Сопоставление данных трудоемко и непрактично при обучении нескольким личностям и поведению лиц. Некоторые решения включают в себя обучение с самоконтролем (с использованием кадров из одного и того же видео), использование непарных сетей, таких как Cycle-GAN, или манипулирование сетевыми встраиваниями.
  • Утечка личности. Здесь личность водителя (т. е. актера, управляющего лицом в реконструкции) частично переносится на сгенерированное лицо. Некоторые предлагаемые решения включают механизмы внимания, обучение за несколько шагов, распутывание, преобразование границ и пропуск соединений.
  • Окклюзии. Если часть лица закрыта рукой, волосами, очками или любым другим предметом, могут возникнуть артефакты. Распространенной окклюзией является закрытый рот, скрывающий внутреннюю часть рта и зубы. Некоторые решения включают сегментацию изображений во время обучения и рисования.
  • Временная согласованность. В видеороликах, содержащих дипфейки, могут возникать такие артефакты, как мерцание и дрожание, поскольку сеть не имеет контекста предыдущих кадров. Некоторые исследователи предоставляют этот контекст или используют новые потери временной когерентности, чтобы улучшить реализм. По мере совершенствования технологий помехи уменьшаются.

В целом ожидается, что дипфейки будут иметь ряд последствий в средствах массовой информации и обществе, производстве средств массовой информации, репрезентациях в средствах массовой информации, аудитории средств массовой информации, гендере, законодательстве и регулировании, а также политике. [43]

Любительская разработка [ править ]

Термин «дипфейки» возник примерно в конце 2017 года пользователем Reddit по имени «deepfakes». [44] Он, как и другие участники сообщества Reddit r/deepfakes, поделился созданными ими дипфейками; во многих видеороликах лица знаменитостей были заменены на тела актеров порнографических видеороликов, [44] в то время как непорнографический контент включал множество видеороликов, в которых актера Николаса Кейджа заменено в различных фильмах. лицо [45]

Остаются и другие онлайн-сообщества, в том числе сообщества Reddit, которые не делятся порнографией, такие как r/SFWdeepfakes (сокращение от «безопасные для работы дипфейки»), в которых члены сообщества делятся дипфейками, изображающими знаменитостей, политиков и других лиц в непорнографических сценариях. [46] Другие онлайн-сообщества продолжают делиться порнографией на платформах, которые не запретили дипфейк-порнографию. [47]

Коммерческое развитие [ править ]

В январе 2018 года было запущено фирменное десктопное приложение FakeApp. [48] Это приложение позволяет пользователям легко создавать и обмениваться видео, поменяв лица друг друга. [49] По состоянию на 2019 год FakeApp был заменен альтернативами с открытым исходным кодом, такими как Faceswap, DeepFaceLab на основе командной строки и веб-приложениями, такими как DeepfakesWeb.com. [50] [51] [52]

Более крупные компании начали использовать дипфейки. [21] Корпоративные обучающие видеоролики можно создавать с использованием дипфейковых аватаров и их голосов, например Synthesia , которая использует технологию дипфейков с аватарами для создания персонализированных видеороликов. [53] Гигант мобильных приложений Momo создал приложение Zao, которое позволяет пользователям накладывать свое лицо на телепередачи и видеоролики с помощью одного изображения. [21] По состоянию на 2019 год японская компания DataGrid, занимающаяся искусственным интеллектом, создала дипфейк всего тела, который мог бы создать человека с нуля. [54] Они намерены использовать их для моды и одежды.

По состоянию на 2020 год также существуют аудиодипфейки и программное обеспечение искусственного интеллекта, способное обнаруживать дипфейки и клонировать человеческие голоса после 5 секунд прослушивания. [55] [56] [57] [58] [59] [60] Мобильное приложение для дипфейков Impressions было запущено в марте 2020 года. Это было первое приложение для создания дипфейк-видео знаменитостей с мобильных телефонов. [61] [62]

Воскрешение [ править ]

Технологию дипфейков можно использовать не только для фабрикации сообщений и действий других людей, но и для оживления умерших людей. 29 октября 2020 года Ким Кардашьян опубликовала видео своего покойного отца Роберта Кардашьян ; Лицо в видео Роберта Кардашьян было создано с помощью технологии deepfake. [63] Голограмма была создана компанией Kaleida, которая использовала комбинацию технологий Performance, Tracking Motion, SFX, VFX и DeepFake при создании голограммы . [64]

дипфейковое видео Хоакина Оливера, жертвы стрельбы в Паркленде В 2020 году в рамках кампании по безопасности оружия было создано . Родители Оливера в партнерстве с некоммерческой организацией Change the Ref и McCann Health создали видео, в котором Оливер призывает людей поддержать закон о безопасности оружия, а также политиков, которые поддерживают его. [65]

В 2022 году дипфейковое видео Элвиса Пресли было использовано в программе America's Got Talent 17 . [66]

В телевизионной рекламе использовалось фейковое видео группы «Битлз» участника Джона Леннона , убитого в 1980 году. [67]

Техники [ править ]

Дипфейки полагаются на тип нейронной сети , называемый автокодировщиком . [68] Они состоят из кодера, который сводит изображение к скрытому пространству меньшей размерности , и декодера, который реконструирует изображение из скрытого представления. [69] Дипфейки используют эту архитектуру, имея универсальный кодировщик, который кодирует человека в скрытое пространство. [ нужна цитата ] Скрытое представление содержит ключевые особенности черт лица и позы тела. Затем это можно декодировать с помощью модели, специально обученной для целевой цели. Это означает, что подробная информация о цели будет наложена на основные черты лица и тела исходного видео, представленные в скрытом пространстве. [ нужна цитата ]

Популярное обновление этой архитектуры присоединяет генеративно-состязательную сеть к декодеру . GAN обучает генератор, в данном случае декодер, и дискриминатор в состязательных отношениях. Генератор создает новые изображения из скрытого представления исходного материала, а дискриминатор пытается определить, сгенерировано ли изображение. [ нужна цитата ] Это заставляет генератор создавать изображения, которые очень хорошо имитируют реальность, поскольку любые дефекты будут обнаружены дискриминатором. [70] Оба алгоритма постоянно совершенствуются в игре с нулевой суммой . Это затрудняет борьбу с дипфейками, поскольку они постоянно развиваются; в любой момент, когда обнаружен дефект, его можно исправить. [70]

Приложения [ править ]

Актерское мастерство [ править ]

Цифровые клоны профессиональных актеров и раньше появлялись в фильмах , и ожидается, что прогресс в технологии дипфейков повысит доступность и эффективность таких клонов. [71] Использование технологий искусственного интеллекта было серьезной проблемой во время забастовки SAG-AFTRA в 2023 году , поскольку новые методы позволили создавать и хранить цифровые изображения для использования вместо актеров. [72]

Disney улучшила свои визуальные эффекты, используя технологию замены лиц в высоком разрешении. [73] Disney усовершенствовала свою технологию посредством прогрессивного обучения, запрограммированного на распознавание выражений лица, реализации функции замены лиц и повторений для стабилизации и уточнения результатов. [73] Эта технология дипфейков с высоким разрешением экономит значительные эксплуатационные и производственные затраты. [74] Модель генерации дипфейков Диснея может создавать медиафайлы, созданные искусственным интеллектом, с разрешением 1024 x 1024, в отличие от обычных моделей, которые создают мультимедиа с разрешением 256 x 256. [74] Технология позволяет Диснею стареть персонажей или оживлять умерших актеров. [75] Подобная технология первоначально использовалась фанатами для неофициальной вставки лиц в существующие медиа, например, наложение молодого лица Харрисона Форда на лицо Хана Соло в «Соло: Истории Звездных войн» . [76] Дисней использовал дипфейки для персонажей принцессы Леи и гранд-моффа Таркина в «Изгой-один» . [77] [78]

В документальном фильме 2020 года «Добро пожаловать в Чечню» использовалась технология дипфейков, чтобы скрыть личности опрошенных и защитить их от возмездия. [79]

Агентство Creative Artists разработало средство для создания образа актера «за один день», а также для разработки цифрового клона актера, который будет контролироваться актером или его имуществом наряду с другими правами личности . [80]

Компании, которые использовали цифровые клоны профессиональных актеров в рекламе, включают Puma , Nike и Procter & Gamble . [81]

Искусство [ править ]

В марте 2018 года многопрофильный художник Джозеф Айерле опубликовал видеоработу Un'emozione per semper 2.0 (английское название: The Italian Game ). Художник работал с технологией Deepfake для создания ИИ-актера, синтетической версии кинозвезды 80-х Орнеллы Мути , путешествующей во времени с 1978 по 2018 год. Массачусетский технологический институт включил это произведение в исследование «Коллективная мудрость». [82] Художница использовала путешествие во времени Орнеллы Мути , чтобы исследовать размышления поколений, а также исследовала вопросы о роли провокации в мире искусства. [83] Для технической реализации Айерл использовала кадры с фотомоделью Кендалл Дженнер . Программа заменила лицо Дженнер на рассчитанное ИИ лицо Орнеллы Мути. В результате у ИИ-актера появилось лицо итальянской актрисы Орнеллы Мути и тело Кендалл Дженнер.

Дипфейки широко используются в сатире или для пародии на знаменитостей и политиков. Веб-сериал 2020 года «Нахальное правосудие» , созданный Треем Паркером и Мэттом Стоуном , широко демонстрирует использование дипфейковых общественных деятелей для высмеивания текущих событий и повышения осведомленности о технологии дипфейков. [84]

Шантаж [ править ]

Дипфейки могут использоваться для создания материалов шантажа, ложно инкриминирующих жертву. американского В отчете Исследовательской службы Конгресса содержится предупреждение о том, что дипфейки могут использоваться для шантажа избранных должностных лиц или тех, кто имеет доступ к секретной информации , в целях шпионажа или оказания влияния . [85]

В качестве альтернативы, поскольку подделки невозможно надежно отличить от подлинных материалов, жертвы фактического шантажа теперь могут утверждать, что настоящие артефакты являются подделками, что дает им возможность правдоподобного отрицания. В результате доверие к существующим материалам шантажа лишается доверия, что стирает лояльность к шантажистам и разрушает контроль шантажиста. Это явление можно назвать «инфляцией шантажа», поскольку оно «обесценивает» реальный шантаж, делая его бесполезным. [86] Можно использовать стандартное оборудование графического процессора с небольшой программой для создания такого шантажного контента для любого количества субъектов в огромных количествах, что приводит к безграничному и легко масштабируемому увеличению поставок фальшивого шантажного контента. [87]

Развлечения [ править ]

8 июня 2022 г. [88] Дэниел Эммет, бывший участник AGT , объединился со в области искусственного интеллекта . стартапом [89] [90] Метафизический искусственный интеллект , чтобы создать гиперреалистичный дипфейк, чтобы он выглядел как Саймон Коуэлл . Коуэлл, известный своей резкой критикой участников, [91] был на сцене, интерпретируя " You're The Inspiration " группы Chicago . Эммет пел на сцене, а образ Саймона Коуэлла появился на экране позади него в безупречной синхронности. [92]

30 августа 2022 года Metaphysic AI заставила «глубокую фальшивку» Саймона Коуэлла , Хоуи Мэндела и Терри Крюса петь оперу на сцене. [93]

13 сентября 2022 года Metaphysical AI выступила с синтетической версией Элвиса Пресли на финале America's Got Talent . [94]

Проект MIT искусственного интеллекта 15.ai использовался для создания контента для множества интернет- фандомов , особенно в социальных сетях. [95] [96] [97]

В 2023 году группы ABBA и KISS объединились с Industrial Light & Magic и Pophouse Entertainment для разработки дипфейковых аватаров, способных давать виртуальные концерты . [98]

Мошенничество и мошенничество [ править ]

Мошенники и мошенники используют дипфейки, чтобы обманом заставить людей использовать фальшивые инвестиционные схемы, финансовые махинации , криптовалюты , отправлять деньги и получать одобрения . Изображения знаменитостей и политиков использовались для крупномасштабных афер, а также портретов частных лиц для целенаправленных фишинговых атак. По данным Better Business Bureau , мошенничество с дипфейками становится все более распространенным. [99]

Фальшивые рекламные кампании злоупотребляют личностью таких знаменитостей, как Тейлор Свифт . [100] [99] Том Хэнкс , [101] Опра Уинфри , [102] и Илон Маск ; [103] ведущие новостей [104] как Гейл Кинг [101] и Салли Бандок ; [105] и такие политики, как Ли Сянь Лун [106] и Джим Чалмерс . [107] [108] Их видеоролики появились в онлайн-рекламе на YouTube , Facebook и TikTok , которые проводят политику против синтетических и манипулируемых СМИ . [109] [100] [110] Рекламу с этими видеороликами видят миллионы людей. Одна кампания по мошенничеству в программе Medicare была просмотрена более 195 миллионов раз на тысячах видео. [109] [111] Дипфейки использовались для: фальшивой раздачи кухонной посуды Le Creuset за «плату за доставку» без получения продуктов, за исключением скрытых ежемесячных платежей; [100] жевательные конфеты для похудения, стоимость которых значительно выше заявленной; [102] поддельная раздача iPhone; [100] [110] и обманным путем быстро разбогатеть , [103] [112] инвестиции, [113] и криптовалютные схемы. [106] [114]

с помощью искусственного интеллекта сочетается Во многих рекламных роликах клонирование голоса с «вырванным из контекста видео знаменитости», чтобы имитировать подлинность. Другие используют целый клип знаменитости, прежде чем перейти к другому актеру или голосу. [109] Некоторые виды мошенничества могут включать в себя дипфейки в реальном времени. [110]

Знаменитости предупреждают людей об этих фальшивых одобрениях и требуют быть более бдительными в отношении них. [99] [100] [102] Знаменитости вряд ли будут подавать иски против каждого человека, занимающегося мошенничеством с дипфейками, поскольку «поиск и судебное преследование анонимных пользователей социальных сетей требуют больших ресурсов», хотя прекратить и воздерживаться от писем компаниям социальных сетей, которые помогают удалить видео и рекламу. [115]

Аудиодипфейки использовались в рамках мошенничества с использованием социальной инженерии , заставляя людей думать, что они получают инструкции от доверенного лица. [116] В 2019 году генеральный директор британской энергетической компании был обманут по телефону, когда ему приказал перевести 220 000 евро на счет в венгерском банке от человека, который, как сообщается, использовал технологию аудио-дипфейка, чтобы выдать себя за голос руководителя материнской компании фирмы. [117] [118]

По состоянию на 2023 год эта комбинация продвинулась в технологии дипфейков, которая могла клонировать голос человека с записи продолжительностью от нескольких секунд до минуты, и новых инструментов генерации текста , которые позволили осуществлять автоматическое мошенничество с выдачей себя за другое лицо, нацеливаясь на жертв с использованием убедительного цифрового клона друга или друга. родственник. [119]

Маскировка личности [ править ]

Аудиодипфейки могут использоваться для маскировки настоящей личности пользователя. в онлайн-играх Например, игрок может захотеть выбрать голос, который будет звучать так же, как его внутриигровой персонаж, когда он разговаривает с другими игроками. Те, кто подвергается преследованиям , например женщины, дети и трансгендеры, могут использовать эти «голосовые скины», чтобы скрыть свой пол или возраст. [4]

Мемы [ править ]

В 2020 году появился интернет-мем , использующий дипфейки для создания видеороликов, на которых люди поют припев «Baka Mitai» ( ばかみたい ) , песни из игры Yakuza 0 из серии видеоигр Yakuza . В сериале меланхоличную песню поет игрок в -караоке мини-игре . В большинстве итераций этого мема в качестве шаблона используется видео 2017 года, загруженное пользователем Dobbsyrules, который синхронизирует песню по губам. [120] [121]

Политика [ править ]

Дипфейки использовались для искажения изображения известных политиков в видеороликах.

Порнография [ править ]

В 2017 году порнография Deepfake стала заметной в Интернете, особенно на Reddit . [141] По состоянию на 2019 год многие дипфейки в Интернете содержат порнографию знаменитостей, чьи изображения обычно используются без их согласия. [142] В отчете, опубликованном в октябре 2019 года голландским стартапом по кибербезопасности Deeptrace, говорится, что 96% всех дипфейков в Интернете были порнографическими. [143] В 2018 году Дейзи Ридли . внимание впервые привлек дипфейк [141] среди других. [144] [145] [146] По состоянию на октябрь 2019 года большинство субъектов дипфейков в Интернете были британскими и американскими актерами. [142] Однако около четверти участников — южнокорейцы, большинство из которых — звезды K-pop. [142] [147]

В июне 2019 года было выпущено загружаемое приложение для Windows и Linux под названием DeepNude, которое использовало нейронные сети, в частности генеративно-состязательные сети , для удаления одежды с изображений женщин. У приложения была как платная, так и бесплатная версия, платная версия стоила 50 долларов. [148] [149] 27 июня создатели удалили приложение и вернули потребителям деньги. [150]

Женщины-знаменитости часто становятся основной мишенью, когда дело доходит до дипфейковой порнографии. В 2023 году в сети появились дипфейковые порновидео с Эммой Уотсон и Скарлетт Йоханссон в приложении для обмена лицами. [151] В 2024 году в сети распространились дипфейковые порноизображения Тейлор Свифт . [152]

Основными целями были и остаются ЛГБТ-политики, женщины-политики и активистки, особенно цветные женщины , а также те, кто ставит под сомнение власть.

Социальные сети [ править ]

Дипфейки начали использоваться на популярных платформах социальных сетей, в частности, через Zao, китайское приложение для дипфейков, которое позволяет пользователям заменять свои собственные лица лицами персонажей в сценах из фильмов и телешоу, таких как « Ромео + Джульетта» и «Игра престолов» . [153] Первоначально приложение подверглось тщательной проверке из-за агрессивных пользовательских данных и политики конфиденциальности, после чего компания опубликовала заявление, утверждающее, что пересмотрит политику. [21] В январе 2020 года Facebook объявил, что вводит новые меры противодействия этому на своих платформах. [154]

привела Исследовательская служба Конгресса неуказанные доказательства того, что сотрудники иностранной разведки использовали дипфейки для создания учетных записей в социальных сетях с целью вербовки лиц, имеющих доступ к секретной информации . [85]

реалистичные дипфейковые видеоролики актера Тома Круза были опубликованы В 2021 году на TikTok , которые стали вирусными и собрали более десятков миллионов просмотров. В дипфейковых видеороликах был показан «двойник Круза, созданный искусственным интеллектом», который выполнял различные действия, такие как первый удар на поле для гольфа, демонстрация фокуса с монетой и откусывание леденца. Создатель клипов, бельгийский художник по визуальным эффектам Крис Уме, [155] сказал, что впервые заинтересовался дипфейками в 2018 году и увидел в них «творческий потенциал». [156] [157]

Носки-куклы [ править ]

Дипфейковые фотографии можно использовать для создания кукол-марионеток , несуществующих людей, которые активны как в Интернете, так и в традиционных СМИ. Дипфейковая фотография, судя по всему, была создана вместе с легендой о якобы несуществующем человеке по имени Оливер Тейлор, личность которого была описана как студент университета в Соединенном Королевстве. Личность Оливера Тейлора опубликовала свои статьи в нескольких газетах и ​​активно участвовала в онлайн-СМИ, нападая на британского ученого-юриста и его жену как на «сочувствующих террористам». Ученый привлек международное внимание в 2018 году, когда он подал в Израиле иск против NSO, компании по наблюдению, от имени людей в Мексике, которые утверждали, что стали жертвами технологии взлома телефонов NSO . Рейтер смог найти лишь скудные записи об Оливере Тейлоре, а в «его» университете не было никаких записей о нем. Многие эксперты сошлись во мнении, что фото профиля — дипфейк. Некоторые газеты не отозвали приписываемые ему статьи и не удалили их со своих сайтов. Есть опасения, что такие методы станут новым полем битвы в дезинформация . [158]

Коллекции дипфейковых фотографий несуществующих людей в социальных сетях также использовались в рамках израильской партизанской пропаганды. На странице Facebook «Сионистская весна» были размещены фотографии несуществующих людей вместе с их «свидетельствами», призванными объяснить, почему они отказались от своей левой политики и перешли к правой политике , а также на странице было большое количество сообщений от Prime. Министр Израиля Биньямин Нетаньяху и его сын, а также из других источников израильского правого крыла. Фотографии, судя по всему, были созданы с помощью технологии « синтеза изображений человека » — компьютерного программного обеспечения, которое берет данные из фотографий реальных людей для создания реалистичного составного изображения несуществующего человека. В большинстве «свидетельств» причиной принятия правых политических сил был шок, узнав о предполагаемом подстрекательстве к насилию в отношении премьер-министра. Правые израильские телекомпании затем транслировали «свидетельства» этих несуществующих людей, основываясь на том факте, что ими «делились» в Интернете. Телеканалы транслировали эти «свидетельства», несмотря на то, что не смогли найти таких людей, объяснив: «Почему происхождение имеет значение?» Другие фейковые профили в Facebook — профили вымышленных лиц — содержали материалы, которые якобы содержали подобное подстрекательство против правого премьер-министра, в ответ на что премьер-министр пожаловался, что существует заговор с целью его убийства. [159] [160]

Проблемы и контрмеры [ править ]

Хотя фейковых фотографий уже давно предостаточно, подделать кинофильмы сложнее, а наличие дипфейков затрудняет классификацию видео как подлинных или нет. [122] Исследователь искусственного интеллекта Алекс Шампандар заявил, что люди должны знать, как быстро все может быть испорчено с помощью технологии дипфейков, и что проблема не техническая, а скорее проблема, которую нужно решить, доверяя информации и журналистике. [122] Доцент компьютерных наук Хао Ли из Университета Южной Калифорнии утверждает, что дипфейки, созданные для злонамеренного использования, такие как фейковые новости , будут еще более вредными, если ничего не будет сделано для распространения информации о технологии дипфейков. [161] Ли предсказал, что подлинные видео и дипфейки станут неотличимы уже через полгода, в октябре 2019 года, благодаря быстрому развитию искусственного интеллекта и компьютерной графики. [161] Бывший Google глава по борьбе с мошенничеством Шуман Госемаджумдер назвал дипфейки областью «общественной озабоченности» и заявил, что они неизбежно разовьются до такой степени, что их можно будет генерировать автоматически, и человек сможет использовать эту технологию для создания миллионов дипфейковых видео. [162]

Достоверность информации [ править ]

Основная ошибка заключается в том, что человечество может впасть в эпоху, когда уже невозможно будет определить, соответствует ли содержание СМИ истине. [122] [163] Дипфейки — один из множества инструментов дезинформационной атаки , создания сомнений и подрыва доверия. У них есть потенциал вмешиваться в демократические функции в обществе, такие как определение коллективных программ, обсуждение проблем, информирование решений и решение проблем посредством проявления политической воли. [14] Люди также могут начать отвергать реальные события как фейки. [4]

Клевета [ править ]

Дипфейки обладают способностью наносить огромный ущерб отдельным объектам. [164] Это связано с тем, что дипфейки часто нацелены на одного человека и/или его отношения с другими в надежде создать повествование, достаточно мощное, чтобы повлиять на общественное мнение или убеждения. Это можно сделать с помощью дипфейкового голосового фишинга, который манипулирует звуком для создания фальшивых телефонных звонков или разговоров. [164] Еще один метод использования дипфейков — это сфабрикованные частные высказывания, которые манипулируют средствами массовой информации, чтобы передать людям озвучивающие оскорбительные комментарии. [164] Качество негативного видео или аудио не обязательно должно быть таким высоким. Пока чей-то образ и действия узнаваемы, дипфейк может навредить его репутации. [4]

В сентябре 2020 года Microsoft объявила, что разрабатывает программный инструмент для обнаружения Deepfake. [165]

Обнаружение [ править ]

Аудио [ править ]

Обнаружение поддельного звука — очень сложная задача, требующая пристального внимания к аудиосигналу для достижения хороших характеристик. Использование глубокого обучения, предварительной обработки дизайна функций и увеличения маскирования доказало свою эффективность в повышении производительности. [166]

Видео [ править ]

Большая часть академических исследований, посвященных дипфейкам, сосредоточена на обнаружении дипфейковых видео. [167] Один из подходов к обнаружению дипфейков заключается в использовании алгоритмов для распознавания закономерностей и выявления тонких несоответствий, возникающих в дипфейковых видео. [167] Например, исследователи разработали автоматические системы, которые проверяют видео на предмет таких ошибок, как нерегулярное мигание освещения. [168] [19] Этот подход подвергся критике, поскольку обнаружение дипфейков характеризуется « движущейся целью », при которой производство дипфейков продолжает меняться и улучшаться по мере совершенствования алгоритмов обнаружения дипфейков. [167] Чтобы оценить наиболее эффективные алгоритмы обнаружения дипфейков, коалиция ведущих технологических компаний организовала конкурс Deepfake Detection Challenge, направленный на ускорение технологии выявления манипулируемого контента. [169] Модель-победитель конкурса Deepfake Detection Challenge показала точность на 65 % на выборке из 4000 видео. [170] В декабре 2021 года команда Массачусетского технологического института опубликовала статью, демонстрирующую, что обычные люди с точностью 69–72% распознают случайную выборку из 50 таких видео. [171]

В октябре 2020 года команда из Университета Буффало опубликовала статью, в которой изложила свою технику использования отражений света в глазах изображенных для обнаружения дипфейков с высоким уровнем успеха, даже без использования инструмента обнаружения искусственного интеллекта, по крайней мере, для в настоящее время. [172]

В случае хорошо задокументированных лиц, таких как политические лидеры, были разработаны алгоритмы, позволяющие различать особенности личности, такие как черты лица, жесты и голосовые манеры, и обнаруживать фальшивых имитаторов. [173]

Другая группа под руководством Ваэля АбдАльмагида из Лаборатории визуального интеллекта и мультимедийной аналитики (ВИМАЛ) Института информационных наук Университета Южной Калифорнии разработала два поколения [174] [175] детекторов дипфейков на основе сверточных нейронных сетей . Первое поколение [174] использовали рекуррентные нейронные сети для обнаружения пространственно-временных несоответствий и выявления визуальных артефактов, оставленных процессом генерации дипфейков. Алгоритм показал точность 96% на FaceForensics++, единственном доступном на тот момент крупномасштабном тесте для дипфейков. Второе поколение [175] использовали сквозные глубокие сети, чтобы различать артефакты и семантическую информацию о лице высокого уровня, используя сети с двумя ветвями. Первая ветвь распространяет информацию о цвете, в то время как другая ветвь подавляет содержимое лица и усиливает низкоуровневые частоты с помощью лапласиана Гаусса (LoG) . Кроме того, они включили новую функцию потерь, которая изучает компактное представление настоящих лиц, рассеивая при этом представления (т.е. особенности) дипфейков. Подход ВИМАЛ показал высочайшую производительность в тестах FaceForensics++ и Celeb-DF, а 16 марта 2022 года (в тот же день релиза) был использован для выявления дипфейка Владимира Зеленского «из коробки». без какой-либо переподготовки или знания алгоритма, с помощью которого был создан дипфейк. [ нужна цитата ]

Другие методы предполагают, что блокчейн можно использовать для проверки источника медиа. [176] Например, видео, возможно, придется проверить через реестр, прежде чем оно будет показано на платформах социальных сетей. [176] Благодаря этой технологии будут одобряться только видео из надежных источников, что уменьшит распространение потенциально вредных дипфейковых медиа. [176]

Для борьбы с дипфейками было предложено цифровое подписание всего видео и изображений камерами и видеокамерами, в том числе камерами смартфонов. [177] Это позволяет отследить каждую фотографию или видео до их первоначального владельца, что может быть использовано для преследования диссидентов. [177]

Один из простых способов обнаружить фейковые видеозвонки — попросить звонящего повернуться боком. [178]

Профилактика [ править ]

Генри Эйдер, работающий в компании Deeptrace, занимающейся обнаружением дипфейков, говорит, что существует несколько способов защиты от дипфейков на рабочем месте. При проведении важных разговоров можно использовать смысловые пароли или секретные вопросы. Голосовая аутентификация и другие функции биометрической безопасности должны быть обновлены. Просвещайте сотрудников о дипфейках. [4]

Споры [ править ]

В марте 2024 года был показан видеоролик из Букингемского дворца , где у Кейт Миддлтон был рак и она проходила химиотерапию. Однако клип породил слухи о том, что женщина в этом клипе — дипфейк с искусственным интеллектом. [179] Директор забега Калифорнийского университета в Лос-Анджелесе Джонатан Перкинс сомневался, что у нее рак, и предположил, что она могла находиться в критическом состоянии или быть мертвой. [180]

Примеры событий [ править ]

Барак Обама [ править ]

17 апреля 2018 года американский актер Джордан Пил , BuzzFeed и Monkeypaw Productions разместили на YouTube дипфейк Барака Обамы, на котором Барак Обама ругался и обзывал Дональда Трампа. [181] В этом дипфейке голос и лицо Пила были преобразованы и изменены под лица Обамы. Целью этого видео было показать опасные последствия и силу дипфейков, а также то, как дипфейки могут заставить кого-то говорить что угодно.

Дональд Трамп [ править ]

5 мая 2019 года сайт Derpfakes разместил на YouTube дипфейк Дональда Трампа , основанный на пародии Джимми Фэллона, исполненной на The Tonight Show . [182] В оригинальной пародии (вышедшей в эфир 4 мая 2016 года) Джимми Фэллон переоделся Дональдом Трампом и притворился, что участвует в телефонном разговоре с Бараком Обамой, разговаривая таким образом, что он хвастался своей первой победой в Индиане. [182] В дипфейке лицо Джимми Фэллона трансформировалось в лицо Дональда Трампа, а звук остался прежним. Это дипфейковое видео было создано Derpfakes с комедийной целью.

Поддельное Midjourney изображение ареста Дональда Трампа, созданное [183]

В марте 2023 года появилась серия изображений, на которых видно, как сотрудники полиции Нью-Йорка удерживают Трампа. [184] Изображения, созданные с помощью Midjourney , первоначально были опубликованы в Твиттере Элиотом Хиггинсом, но позже были повторно опубликованы без контекста, что заставило некоторых зрителей поверить в то, что это настоящие фотографии. [183]

Нэнси Пелоси [ править ]

В 2019 году был выпущен отрывок из Нэнси Пелоси выступления в Центре американского прогресса (прочитанного 22 мая 2019 года), в котором видео было замедлено, а также изменена высота звука, чтобы создать впечатление, будто она была пьяна, широко распространялась в социальных сетях. Критики утверждают, что это был не дипфейк, а мелкий фейк менее сложная форма видеоманипуляции. [185] [186]

Марк Цукерберг [ править ]

В мае 2019 года два художника, сотрудничающие с компанией CannyAI, создали дипфейковое видео, в котором основатель Facebook Марк Цукерберг рассказывает о сборе и контроле данных миллиардов людей. Видео было частью выставки, призванной информировать общественность об опасностях искусственного интеллекта . [187] [188]

Ким Чен Ын и Владимир Путин [ править ]

"Ким Чен Ын"

29 сентября 2020 года на YouTube были загружены дипфейки северокорейского лидера Ким Чен Ына и России президента Владимира Путина , созданные беспартийной правозащитной группой RepresentUs . [189]

Дипфейковое видео: Владимир Путин предупреждает американцев о вмешательстве в выборы и усилении политического раскола

Дипфейки с изображением Кима и Путина должны были транслироваться публично в качестве рекламы, транслирующей идею о том, что вмешательство этих лидеров в выборы в США нанесет ущерб демократии Соединенных Штатов. Рекламные ролики также были направлены на то, чтобы шокировать американцев, осознав, насколько хрупка демократия и как средства массовой информации и новости могут существенно повлиять на путь страны, независимо от доверия к ним. [189] Однако, хотя рекламные ролики содержали завершающий комментарий, в котором подробно говорилось, что отснятый материал не был реальным, в конечном итоге они не вышли в эфир из-за опасений и чувствительности относительно того, как американцы могут отреагировать. [189]

5 июня 2023 года неизвестный источник транслировал по нескольким радио- и телеканалам дипфейк с изображением Владимира Путина. В ролике Путин, кажется, произносит речь, объявляющую о вторжении в Россию и призывающую к всеобщей мобилизации армии. [190]

Zelenskyy Volodymyr

одноминутное дипфейковое видео, на котором президент Украины Владимир Зеленский, по-видимому, говорит своим солдатам сложить оружие и сдаться во время российского вторжения в Украину в 2022 году . 16 марта 2022 года в социальных сетях было распространено [14] Российские социальные сети поддержали его, но после того, как он был развенчан, Facebook и YouTube удалили его. Twitter разрешил публиковать видео в твитах, где оно было разоблачено как фейк, но заявил, что оно будет удалено, если оно будет опубликовано с целью обмана людей. Хакеры вставили дезинформацию в прямую трансляцию новостей на телеканале «Украина 24», и видео ненадолго появилось на сайте телеканала в дополнение к ложным утверждениям о том, что Зеленский покинул столицу своей страны Киев . Не сразу стало ясно, кто создал дипфейк, на что Зеленский ответил собственным видео, заявив: «Мы не планируем складывать оружие. До нашей победы». [191]

Волчьи новости [ править ]

В конце 2022 года прокитайские пропагандисты начали распространять дипфейковые видеоролики якобы из «Wolf News», в которых использовались синтетические актеры. Технология была разработана лондонской компанией Synthesia, которая позиционирует ее как дешевую альтернативу живым актерам для обучения и HR-видео. [192]

Папа Франциск [ править ]

Поддельное изображение Папы Франциска в пуховике, созданное Midjourney.

В марте 2023 года анонимный строитель из Чикаго использовал Midjourney для создания фейкового изображения Папы Франциска в белой Balenciaga куртке-пуховике . Изображение стало вирусным, получив более двадцати миллионов просмотров. [193] Писатель Райан Бродерик назвал это «первым настоящим случаем дезинформации искусственного интеллекта на массовом уровне». [194] Эксперты, с которыми консультировался Slate, охарактеризовали изображение как бесхитростное: «его можно было сделать в Photoshop пять лет назад». [195]

Кейр Стармер [ править ]

дипфейковый аудиоклип, на котором лидер Лейбористской В октябре 2023 года в первый день конференции Лейбористской партии был выпущен партии Великобритании Кейр Стармер оскорбляет сотрудников. Клип якобы представлял собой аудиозапись, на которой Стармер издевается над своими сотрудниками. [196]

Рашмика Манданна [ править ]

В начале ноября 2023 года известный южноиндийский актер Рашмика Манданна стал жертвой DeepFake, когда в социальных сетях начало появляться измененное видео известного британско-индийского влиятельного лица Зары Патель с лицом Рашмики. Зара Патель утверждает, что не участвовала в его создании. [197]

Бонгбонг Маркос [ править ]

дипфейковое видео, искажающее президента Филиппин Бонгбонга Маркоса В апреле 2024 года было опубликовано . Это слайд-шоу, сопровождаемое дипфейковой аудиозаписью, на которой Маркос якобы приказывает Вооруженным силам Филиппин и специальной оперативной группе действовать «насколько уместно» в случае нападения Китая на Филиппины. Видео было опубликовано на фоне напряженности, связанной со спором в Южно-Китайском море . [198] В Управлении по связям с общественностью президента заявили, что такой директивы от президента не было, и заявили, что за сфабрикованными СМИ может стоять иностранный актер. [199] Уголовные обвинения были возбуждены Филиппинской ассоциацией вещателей в связи с дипфейковыми СМИ. [200]

Джо Байден [ править ]

Перед президентскими выборами в США 2024 года были сделаны телефонные звонки, имитирующие голос действующего президента Джо Байдена, чтобы отговорить людей голосовать за него. Лицу, ответственному за звонки, было предъявлено обвинение в подавлении избирателей и выдаче себя за кандидата; Федеральная комиссия по связи предложила оштрафовать его на долларов США 6 миллионов . Lingo Telecom и оштрафовать компанию, передавшую звонки, на 2 миллиона долларов. [201] [202]

Ответы [ править ]

Платформы социальных сетей [ править ]

Твиттер [ править ]

Twitter принимает активные меры по борьбе с синтетическими и манипулируемыми медиа на своей платформе. Чтобы предотвратить распространение дезинформации, Twitter размещает уведомление о твитах, содержащих манипулируемые медиа и/или дипфейки, которые сигнализируют зрителям о манипулировании СМИ. [203] Также появится предупреждение для пользователей, которые планируют ретвитнуть твит, поставить ему лайк или взаимодействовать с ним. [203] Twitter также будет работать над тем, чтобы предоставить пользователям ссылку рядом с твитом, содержащим манипулируемые или синтетические медиа, которые ссылаются на момент Twitter или заслуживающую доверия новостную статью на соответствующую тему — в качестве разоблачающего действия. [203] Twitter также имеет возможность удалять любые твиты, содержащие дипфейки или манипулируемые медиа, которые могут нанести ущерб безопасности пользователей. [203] Чтобы улучшить обнаружение дипфейков и манипулируемых медиа в Твиттере, Twitter попросил пользователей, заинтересованных в партнерстве с ними, разработать решения для обнаружения дипфейков, заполнив форму. [204]

Фейсбук [ править ]

Facebook предпринял усилия по поощрению создания дипфейков с целью разработки современного программного обеспечения для обнаружения дипфейков. Facebook выступил ведущим партнером в проведении конкурса Deepfake Detection Challenge (DFDC), состоявшегося в декабре 2019 года, для 2114 участников, которые создали более 35 000 моделей. [205] Самые эффективные модели с самой высокой точностью обнаружения были проанализированы на предмет сходств и различий; Эти результаты представляют собой область интересов для дальнейших исследований, направленных на улучшение и усовершенствование моделей обнаружения дипфейков. [205] Facebook также сообщил, что платформа будет удалять медиа, созданные с помощью искусственного интеллекта, используемого для изменения речи человека. [206] Однако средства массовой информации, которые были отредактированы с целью изменения порядка или контекста слов в сообщении, останутся на сайте, но будут помечены как ложные, поскольку они не были созданы искусственным интеллектом. [206]

Реакция Интернета [ править ]

31 января 2018 года Gfycat начал удалять со своего сайта все дипфейки. [207] [15] На Reddit субреддит r/deepfakes был заблокирован 7 февраля 2018 года из-за нарушения политики «принудительной порнографии». [208] [209] [210] [211] [212] В том же месяце представители Twitter заявили, что заблокируют аккаунты, подозреваемые в размещении дипфейкового контента без согласия. [213] Чат-сайт Discord в прошлом принимал меры против дипфейков. [214] и занял общую позицию против дипфейков. [15] [215] В сентябре 2018 года Google добавила в свой список запретов «непроизвольные синтетические порнографические изображения», что позволило любому запрашивать блок результатов, показывающих фальшивую обнаженную натуру. [216] [ проверить синтаксис цитаты ] В феврале 2018 года Pornhub заявил, что запретит дипфейковые видео на своем веб-сайте, поскольку они считаются «контентом, не полученным по обоюдному согласию», что нарушает их условия обслуживания. [217] Ранее они также заявили Mashable, что будут удалять контент, помеченный как дипфейк. [218] Авторы Motherboard из Buzzfeed News сообщили, что при поиске «дипфейков» на Pornhub по-прежнему выдавалось несколько недавних дипфейковых видео. [217]

Facebook ранее заявлял, что не будет удалять дипфейки со своих платформ. [219] Вместо этого видео будут помечены третьими сторонами как фейковые, а затем будут иметь меньший приоритет в лентах пользователей. [220] распространился дипфейк с видео Марка Цукерберга Такая реакция была вызвана в июне 2019 года после того, как в Facebook и Instagram 2016 года . [219]

В мае 2022 года Google официально изменила условия обслуживания своих колабов Jupyter Notebook , запретив использование своего колаб-сервиса с целью создания дипфейков. [221] Это произошло через несколько дней после публикации статьи VICE, в которой утверждалось, что «большинство дипфейков — это порно без согласия» и что в основном используется популярное программное обеспечение для дипфейков DeepFaceLab (DFL), «самая важная технология, лежащая в основе подавляющего большинства этого поколения». «дипфейков», который часто использовался в сочетании с колабами Google, будет означать создание порнографии без согласия, указывая на тот факт, что среди многих других хорошо известных примеров сторонних реализаций DFL, таких как дипфейки по заказу The Walt Disney Company , официальные музыкальные клипы и веб-сериал Sassy Justice от создателей South Park , страница DFL на GitHub также ссылается на дипфейк-порносайт Mr. ‍ Deepfakes и участники сервера DFL Discord также участвуют в Mr. ‍ Deepfakes . [222]

Юридический ответ

В США были приняты некоторые меры реагирования на проблемы, связанные с дипфейками. был внесен Закон о запрете вредоносных глубоких фейков В 2018 году в Сенат США . [223] был внесен Закон об ответственности DEEPFAKES а в 2019 году в Палату представителей . [16] Несколько штатов также приняли законы, касающиеся дипфейков, в том числе Вирджиния. [224] Техас, Калифорния и Нью-Йорк. [225] 3 октября 2019 года губернатор Калифорнии Гэвин Ньюсом подписал законопроекты о Ассамблее № 602 и № 730. [226] [227] Законопроект Собрания № 602 предоставляет лицам, ставшим жертвами дипфейкового контента сексуального характера, созданных без их согласия, основание для иска против создателя контента. [226] Законопроект Ассамблеи № 730 запрещает распространение вредоносных дипфейковых аудио- или визуальных медиа, нацеленных на кандидата, баллотирующегося на государственную должность, в течение 60 дней после его избрания. [227]

В ноябре 2019 года Китай объявил, что начиная с 2020 года на дипфейках и других искусственно сфальсифицированных материалах должно быть четкое указание об их фальшивости. Невыполнение этого требования может считаться преступлением, о чем Администрация киберпространства Китая заявила на своем веб-сайте. [228] Китайское правительство, похоже, оставляет за собой право преследовать как пользователей, так и онлайн-видеоплатформы, не соблюдающие правила. [229]

В Соединенном Королевстве производители дипфейковых материалов могут быть привлечены к ответственности за преследование, но звучат призывы объявить дипфейк конкретным преступлением; [230] В Соединенных Штатах, где были предъявлены самые разнообразные обвинения, такие как кража личных данных , киберпреследование и порноместь , также обсуждалась идея более всеобъемлющего закона. [216]

В Канаде Управление безопасности коммуникаций опубликовало отчет, в котором говорится, что дипфейки могут использоваться для вмешательства в канадскую политику, в частности, для дискредитации политиков и влияния на избирателей. [231] [232] В результате у граждан Канады есть несколько способов борьбы с дипфейками, если они становятся их мишенью. [233]

В Индии нет прямых законов или постановлений об искусственном интеллекте или дипфейках, но есть положения Индийского уголовного кодекса и Закона об информационных технологиях 2000/2008 года, которые можно рассмотреть в качестве средств правовой защиты, а новый предложенный Закон о цифровой Индии будет иметь глава об искусственном интеллекте и дипфейках, в частности, согласно МО Радживу Чандрасекхару. [234]

В Европе Закон Европейского Союза об искусственном интеллекте (Закон об искусственном интеллекте) использует основанный на оценке риска подход к регулированию систем искусственного интеллекта, включая дипфейки. Он устанавливает категории «неприемлемый риск», «высокий риск», «конкретный/ограниченный риск или риск прозрачности» и «минимальный риск» для определения уровня нормативных обязательств для поставщиков и пользователей ИИ. Однако отсутствие четких определений этих категорий риска в контексте дипфейков создает потенциальные проблемы для эффективной реализации. Ученые-правоведы выразили обеспокоенность по поводу классификации дипфейков, предназначенных для политической дезинформации или создания интимных образов без согласия. Ведутся споры о том, всегда ли такие виды использования следует считать системами ИИ «высокого риска», что приведет к ужесточению нормативных требований. [235]

Ответ DARPA [ править ]

В 2016 году Агентство перспективных исследовательских проектов Министерства обороны США (DARPA) запустило программу Media Forensics (MediFor), которая будет финансироваться до 2020 года. [236] MediFor стремился автоматически обнаруживать цифровые манипуляции с изображениями и видео, включая Deepfakes . [237] [238] Летом 2018 года MediFor провела мероприятие, на котором люди соревновались в создании видео, аудио и изображений, генерируемых искусственным интеллектом, а также в создании автоматизированных инструментов для обнаружения этих дипфейков. [239] Согласно программе MediFor, она создала систему трех уровней информации — цифровую целостность, физическую целостность и семантическую целостность — для создания единого показателя целостности, чтобы обеспечить точное обнаружение манипулируемых носителей. [240]

В 2019 году DARPA провело «день предложений» для программы Semantic Forensics (SemaFor), где исследователи были призваны предотвратить вирусное распространение СМИ, манипулируемых ИИ. [241] DARPA и Программа семантической криминалистики также работали вместе над обнаружением средств массовой информации, манипулируемых ИИ, путем обучения компьютеров использованию здравого смысла и логических рассуждений. [241] Алгоритмы атрибуции SemaFor, основанные на технологиях MediFor, делают вывод, происходят ли цифровые медиа от конкретной организации или отдельного лица, а алгоритмы определения характеристик определяют, были ли медиа созданы или ими манипулировали в злонамеренных целях. [242] В марте 2024 года SemaFor опубликовал аналитический каталог, предлагающий публичный доступ к ресурсам с открытым исходным кодом, разработанным SemaFor. [243] [244]

по информационной среде Международная группа

Международная группа по информационной среде была создана в 2023 году как консорциум из более чем 250 ученых, работающих над разработкой эффективных мер противодействия дипфейкам и другим проблемам, возникающим из-за порочных стимулов в организациях, распространяющих информацию через Интернет. [245]

В популярной культуре [ править ]

См. также [ править ]

Ссылки [ править ]

  1. ^ Брэндон, Джон (16 февраля 2018 г.). «Ужасающее высокотехнологичное порно: количество жутких «дипфейковых» видео растет» . Фокс Ньюс . Архивировано из оригинала 15 июня 2018 года . Проверено 20 февраля 2018 г.
  2. ^ «Готовьтесь, не паникуйте: синтетические медиа и дипфейки» . свидетель.орг. Архивировано из оригинала 2 декабря 2020 года . Проверено 25 ноября 2020 г.
  3. ^ «Технология Deepfake: что это такое, как она работает и для чего ее можно использовать?» . BBC Newsround. 15 мая 2024 года. Архивировано из оригинала 23 мая 2024 года . Проверено 7 июня 2024 г.
  4. ^ Перейти обратно: а б с д Это Сомерс, Мередит (21 июля 2020 г.). «Дипфейки, объяснение» . Массачусетский технологический институт Слоана . Архивировано из оригинала 5 марта 2024 года . Проверено 6 марта 2024 г.
  5. ^ Цзюэфэй-Сюй, Феликс; Ван, Беги; Хуан, Ихао; Го, Цин; Ма, Лей; Лю, Ян (1 июля 2022 г.). «Противодействие вредоносным дипфейкам: исследование, поле битвы и горизонт» . Международный журнал компьютерного зрения . 130 (7): 1678–1734. дои : 10.1007/s11263-022-01606-8 . ISSN   1573-1405 . ПМК   9066404 . ПМИД   35528632 . Архивировано из оригинала 10 июня 2024 года . Проверено 15 июля 2023 г.
  6. ^ Перейти обратно: а б Китцманн, Дж.; Ли, ЛВ; Маккарти, IP; Китцманн, TC (2020). «Дипфейки: Кошелек или жизнь?» (PDF) . Горизонты бизнеса . 63 (2): 135–146. дои : 10.1016/j.bushor.2019.11.006 . S2CID   213818098 . Архивировано (PDF) из оригинала 29 декабря 2022 года . Проверено 30 декабря 2022 г.
  7. ^ Уолдроп, М. Митчелл (16 марта 2020 г.). «Синтетические медиа: настоящая проблема с дипфейками» . Знающий журнал . Ежегодные обзоры. doi : 10.1146/knowable-031320-1 . Архивировано из оригинала 19 ноября 2022 года . Проверено 19 декабря 2022 г.
  8. ^ Шварц, Оскар (12 ноября 2018 г.). «Вы думали, что фейковые новости — это плохо? В глубоких фейках истина умирает» . Хранитель . Архивировано из оригинала 16 июня 2019 года . Проверено 14 ноября 2018 г.
  9. ^ Фарид, Хани (15 сентября 2019 г.). «Экспертиза изображений» . Ежегодный обзор Vision Science . 5 (1): 549–573. doi : 10.1146/annurev-vision-091718-014827 . ISSN   2374-4642 . ПМИД   31525144 . S2CID   263558880 . Архивировано из оригинала 10 июня 2024 года . Проверено 20 сентября 2023 г.
  10. ^ Бэнкс, Алек (20 февраля 2018 г.). «Что такое дипфейки и почему будущее порнографии ужасно» . Высокоблагородство . Архивировано из оригинала 14 июля 2021 года . Проверено 20 февраля 2018 г.
  11. ^ Кристиан, Джон. «Эксперты опасаются, что технология подмены лиц может стать началом международного противостояния» . Схема . Архивировано из оригинала 16 января 2020 года . Проверено 28 февраля 2018 г.
  12. ^ Руз, Кевин (4 марта 2018 г.). «А вот и фальшивые видео» . Нью-Йорк Таймс . ISSN   0362-4331 . Архивировано из оригинала 18 июня 2019 года . Проверено 24 марта 2018 г.
  13. ^ Шрайер, Марко; Саттаров Тимур; Реймер, Бернд; Борт, Дамиан (октябрь 2019 г.). «Состязательное изучение дипфейков в бухгалтерском учете». arXiv : 1910.03810 [ cs.LG ].
  14. ^ Перейти обратно: а б с Павелец, М (2022). «Дипфейки и демократия (теория): как синтетические аудиовизуальные средства дезинформации и разжигания ненависти угрожают основным демократическим функциям» . Цифровое общество: этика, социально-правовая политика и управление цифровыми технологиями . 1 (2): 19. дои : 10.1007/s44206-022-00010-6 . ПМЦ   9453721 . ПМИД   36097613 .
  15. ^ Перейти обратно: а б с Гошал, Абхиманью (7 февраля 2018 г.). «Twitter, Pornhub и другие платформы запрещают порно со знаменитостями, созданное искусственным интеллектом» . Следующая сеть . Архивировано из оригинала 20 декабря 2019 года . Проверено 9 ноября 2019 г.
  16. ^ Перейти обратно: а б Кларк, Иветт Д. (28 июня 2019 г.). «HR3230 — 116-й Конгресс (2019–2020 гг.): Защита каждого человека от ложных показаний путем соблюдения Закона об ответственности за эксплуатацию от 2019 года» . www.congress.gov . Архивировано из оригинала 17 декабря 2019 года . Проверено 16 октября 2019 г.
  17. ^ Карамансьон, Кевин Мэтт (21 апреля 2021 г.). «Демографический профиль, которому больше всего грозит дезинформация» . Международная конференция IEEE по Интернету вещей, электронике и мехатронике (IEMTRONICS) 2021 г. IEEE. стр. 1–7. дои : 10.1109/iemtronics52119.2021.9422597 . ISBN  978-1-6654-4067-7 . S2CID   234499888 . Архивировано из оригинала 10 июня 2024 года . Проверено 9 июня 2023 г.
  18. ^ Лалла, Веджай; Митрани, Адин; Харнед, Зак. «Искусственный интеллект: дипфейки в индустрии развлечений» . Всемирная организация интеллектуальной собственности . Архивировано из оригинала 8 ноября 2022 года . Проверено 8 ноября 2022 г.
  19. ^ Перейти обратно: а б с Харвелл, Дрю (12 июня 2019 г.). «Ведущие исследователи искусственного интеллекта спешат обнаружить «дипфейковые» видео: «Нас превосходят в вооружении» » . Вашингтон Пост . Архивировано из оригинала 31 октября 2019 года . Проверено 8 ноября 2019 г.
  20. ^ Санчес, Джулиан (8 февраля 2018 г.). «Благодаря искусственному интеллекту будущее «фейковых новостей» становится первопроходцем в домашнем порно» . Новости Эн-Би-Си . Архивировано из оригинала 9 ноября 2019 года . Проверено 8 ноября 2019 г.
  21. ^ Перейти обратно: а б с д Портер, Джон (2 сентября 2019 г.). «Еще одно убедительное фейковое приложение стало вирусным, вызвав немедленную негативную реакцию в отношении конфиденциальности» . Грань . Архивировано из оригинала 3 сентября 2019 года . Проверено 8 ноября 2019 г.
  22. ^ Боде, Лиза; Лиз, Доминик; Голдинг, Дэн (29 июля 2021 г.). «Цифровое лицо и дипфейки на экране» . Конвергенция: Международный журнал исследований новых медиа-технологий . 27 (4): 849–854. дои : 10.1177/13548565211034044 . ISSN   1354-8565 . S2CID   237402465 .
  23. ^ Перейти обратно: а б Холлидей, Кристофер (26 июля 2021 г.). «Переписывая звезды: поверхностная напряженность и гендерные проблемы в онлайн-медиа, производящих цифровые дипфейки» . Конвергенция: Международный журнал исследований новых медиа-технологий . 27 (4): 899–918. дои : 10.1177/13548565211029412 . ISSN   1354-8565 . S2CID   237402548 .
  24. ^ Гингрич, Оливер М. (5 июля 2021 г.). «ГЕНДЕР*УК: Переосмысление гендера и медиаискусства» . Труды EVA London 2021 (ЕВА 2021) . Электронные семинары по информатике. дои : 10.14236/ewic/EVA2021.25 . S2CID   236918199 .
  25. ^ Флетчер, Джон (2018). «Дипфейки, искусственный интеллект и своего рода антиутопия: новые лица онлайн-спектакля постфактум» . Театральный журнал . 70 (4): 455–471. дои : 10.1353/tj.2018.0097 . ISSN   1086-332X . S2CID   191988083 .
  26. ^ Оман, Карл (1 июня 2020 г.). «Представляем дилемму извращенца: вклад в критику дипфейковой порнографии» . Этика и информационные технологии . 22 (2): 133–140. дои : 10.1007/s10676-019-09522-1 . ISSN   1572-8439 . S2CID   208145457 .
  27. ^ ван дер Нагель, Эмили (1 октября 2020 г.). «Проверка изображений: дипфейки, контроль и согласие» . Порно исследования . 7 (4): 424–429. дои : 10.1080/23268743.2020.1741434 . ISSN   2326-8743 . S2CID   242891792 . Архивировано из оригинала 10 июня 2024 года . Проверено 9 февраля 2022 г.
  28. ^ Фаллис, Дон (1 декабря 2021 г.). «Эпистемическая угроза дипфейков» . Философия и технология . 34 (4): 623–643. дои : 10.1007/s13347-020-00419-2 . ISSN   2210-5433 . ПМЦ   7406872 . ПМИД   32837868 .
  29. ^ Чесни, Роберт; Цитрон, Даниэль Китс (2018). «Глубокие фейки: надвигающийся вызов конфиденциальности, демократии и национальной безопасности» . Электронный журнал ССРН . дои : 10.2139/ssrn.3213954 . ISSN   1556-5068 . Архивировано из оригинала 21 декабря 2019 года . Проверено 9 февраля 2022 г.
  30. ^ Ядлин-Сегал, Ая; Оппенгейм, Яэль (февраль 2021 г.). «Чья это вообще антиутопия? Дипфейки и регулирование соцсетей» . Конвергенция: Международный журнал исследований новых медиа-технологий . 27 (1): 36–51. дои : 10.1177/1354856520923963 . ISSN   1354-8565 . S2CID   219438536 . Архивировано из оригинала 9 февраля 2022 года . Проверено 9 февраля 2022 г.
  31. ^ Хван, Юри; Рю, Джи Юн; Чон, Се Хун (1 марта 2021 г.). «Эффекты дезинформации с использованием Deepfake: защитный эффект медиаобразования» . Киберпсихология, поведение и социальные сети . 24 (3): 188–193. дои : 10.1089/cyber.2020.0174 . ISSN   2152-2715 . ПМИД   33646021 . S2CID   232078561 . Архивировано из оригинала 10 июня 2024 года . Проверено 9 февраля 2022 г.
  32. ^ Хайт, Крейг (12 ноября 2021 г.). «Дипфейки и документальная практика в эпоху дезинформации» . Континуум . 36 (3): 393–410. дои : 10.1080/10304312.2021.2003756 . ISSN   1030-4312 . S2CID   244092288 . Архивировано из оригинала 9 февраля 2022 года . Проверено 9 февраля 2022 г.
  33. ^ Хэнкок, Джеффри Т.; Бейленсон, Джереми Н. (1 марта 2021 г.). «Социальное влияние дипфейков» . Киберпсихология, поведение и социальные сети . 24 (3): 149–152. дои : 10.1089/cyber.2021.29208.jth . ISSN   2152-2715 . ПМИД   33760669 . S2CID   232356146 . Архивировано из оригинала 10 июня 2024 года . Проверено 9 февраля 2022 г.
  34. ^ де Сета, Габриэле (30 июля 2021 г.). «Хуанлянь, или меняющиеся лица: дипфейки на китайских цифровых медиаплатформах» . Конвергенция: Международный журнал исследований новых медиа-технологий . 27 (4): 935–953. дои : 10.1177/13548565211030185 . hdl : 11250/2833613 . ISSN   1354-8565 . S2CID   237402447 . Архивировано из оригинала 10 июня 2024 года . Проверено 9 февраля 2022 г.
  35. ^ Перейти обратно: а б Бреглер, Кристоф; Ковелл, Мишель; Слэни, Малькольм (1997). «Переписывание видео: управление визуальной речью с помощью звука» . Материалы 24-й ежегодной конференции по компьютерной графике и интерактивным технологиям – SIGGRAPH '97 . Том. 24. С. 353–360. дои : 10.1145/258734.258880 . ISBN  0897918967 . S2CID   2341707 . Архивировано из оригинала 10 июня 2024 года . Проверено 10 июля 2023 г.
  36. ^ Перейти обратно: а б с Суваджанакорн, Супасорн; Зейтц, Стивен М.; Кемельмахер-Шлизерман, Ира (июль 2017 г.). «Синтез Обамы: обучение синхронизации губ по аудио» . АКМ Транс. График . 36 (4): 95:1–95:13. дои : 10.1145/3072959.3073640 . S2CID   207586187 . Архивировано из оригинала 19 мая 2020 года . Проверено 10 июля 2023 г.
  37. ^ Перейти обратно: а б с Тис, Юстус; Цольхёфер, Михаэль; Стаммингер, Марк; Теобальт, Кристиан; Ниснер, Матиас (июнь 2016 г.). «Face2Face: захват лиц в реальном времени и реконструкция RGB-видео». Конференция IEEE 2016 по компьютерному зрению и распознаванию образов (CVPR) . IEEE. стр. 2387–2395. arXiv : 2007.14808 . дои : 10.1109/CVPR.2016.262 . ISBN  9781467388511 . S2CID   206593693 .
  38. ^ «Дипфейки для танцев: теперь вы можете использовать ИИ, чтобы имитировать те танцевальные движения, которые вы всегда хотели» . Грань . Архивировано из оригинала 17 мая 2019 года . Проверено 27 августа 2018 г.
  39. ^ Фаркуар, Питер (27 августа 2018 г.). «Скоро появится программа искусственного интеллекта, которая поможет вам танцевать дипфейс – только не называйте это дипфейком» . Бизнес-инсайдер Австралии . Архивировано из оригинала 10 апреля 2019 года . Проверено 27 августа 2018 г.
  40. ^ Мирский, Израиль; Малер, Том; Шелеф, Илан; Еловичи, Юваль (2019). CT-GAN: Злонамеренное вмешательство в 3D-медицинские изображения с использованием глубокого обучения . стр. 461–478. arXiv : 1901.03597 . ISBN  978-1-939133-06-9 . Архивировано из оригинала 20 июня 2020 года . Проверено 18 июня 2020 г.
  41. ^ О'Нил, Патрик Хауэлл (3 апреля 2019 г.). «Исследователи демонстрируют вредоносное ПО, которое может обманом заставить врачей поставить неправильный диагноз рака» . Гизмодо . Архивировано из оригинала 10 июня 2024 года . Проверено 3 июня 2022 г.
  42. ^ Мирский, Израиль; Ли, Венке (12 мая 2020 г.). «Создание и обнаружение дипфейков: исследование». Обзоры вычислительной техники ACM . arXiv : 2004.11138 . дои : 10.1145/3425780 . S2CID   216080410 .
  43. ^ Карнускос, Стаматис (2020). «Искусственный интеллект в цифровых медиа: эра дипфейков» (PDF) . Транзакции IEEE по технологиям и обществу . 1 (3): 1. дои : 10.1109/TTS.2020.3001312 . S2CID   221716206 . Архивировано (PDF) из оригинала 14 июля 2021 года . Проверено 9 июля 2020 г.
  44. ^ Перейти обратно: а б Коул, Саманта (24 января 2018 г.). «Мы действительно облажались: сейчас все делают фейковое порно, созданное искусственным интеллектом» . Порок . Архивировано из оригинала 7 сентября 2019 года . Проверено 4 мая 2019 г.
  45. ^ Хейсом, Сэм (31 января 2018 г.). «Люди используют технологию замены лиц, чтобы добавить Николаса Кейджа в случайные фильмы и события 2018 года» . Машаемый . Архивировано из оригинала 24 июля 2019 года . Проверено 4 апреля 2019 г. .
  46. ^ "r/SFWdeepfakes" . Реддит . Архивировано из оригинала 9 августа 2019 года . Проверено 12 декабря 2018 г.
  47. ^ Хэтэуэй, Джей (8 февраля 2018 г.). «Вот куда пошли «дипфейки», новое фейковое порно о знаменитостях, после запрета Reddit» . Ежедневная точка . Архивировано из оригинала 6 июля 2019 года . Проверено 22 декабря 2018 г.
  48. ^ «Что такое дипфейки и как они создаются?» . Технические советы в Интернете . 23 мая 2019 г. Архивировано из оригинала 8 ноября 2019 г. . Проверено 8 ноября 2019 г.
  49. ^ Робертсон, Ади (11 февраля 2018 г.). «Я использую ИИ, чтобы поменять лица Илона Маска и Джеффа Безоса, и у меня это очень плохо получается» . Грань . Архивировано из оригинала 24 марта 2018 года . Проверено 8 ноября 2019 г.
  50. ^ «Deepfakes web | Лучшее онлайн-приложение для замены лиц» . Сеть дипфейков . Архивировано из оригинала 14 июля 2021 года . Проверено 21 февраля 2021 г.
  51. ^ «Faceswap — ведущее бесплатное мультиплатформенное программное обеспечение с открытым исходным кодом для Deepfakes» . 15 октября 2019 года. Архивировано из оригинала 31 мая 2021 года . Проверено 14 июля 2021 г. - через WordPress.
  52. ^ «DeepFaceLab — это инструмент, который использует машинное обучение для замены лиц в видео. Включает готовые к работе автономные двоичные файлы Windows 7,8,10 (см. readme.md).: iperov/DeepFaceLab» . 19 июня 2019 года. Архивировано из оригинала 9 мая 2019 года . Получено 6 марта 2019 г. - через GitHub.
  53. ^ Чендлер, Саймон. «Почему дипфейки приносят пользу человечеству» . Форбс . Архивировано из оригинала 16 ноября 2020 года . Проверено 3 ноября 2020 г. .
  54. ^ Пэнгберн, диджей (21 сентября 2019 г.). «Вас предупредили: дипфейки в полный рост — это следующий шаг в имитации человека на основе искусственного интеллекта» . Компания Фаст . Архивировано из оригинала 8 ноября 2019 года . Проверено 8 ноября 2019 г.
  55. ^ Лайонс, Ким (29 января 2020 г.). «ФТК утверждает, что технология создания звуковых дипфейков становится лучше» . Грань . Архивировано из оригинала 30 января 2020 года . Проверено 8 февраля 2020 г.
  56. ^ «Аудиообразцы из «Переноса обучения от проверки говорящего к синтезу речи с несколькими говорящими» » . google.github.io . Архивировано из оригинала 14 ноября 2019 года . Проверено 8 февраля 2020 г.
  57. ^ Цзя, Йе; Чжан, Ю; Вайс, Рон Дж.; Ван, Цюань; Шен, Джонатан; Рен, Фей; Чен, Чжифэн; Нгуен, Патрик; Панг, Руомин; Морено, Игнасио Лопес; У, Юнхуэй (2 января 2019 г.). «Перенос обучения от проверки говорящего к синтезу текста в речь с несколькими говорящими». arXiv : 1806.04558 [ cs.CL ].
  58. ^ «Визуальные вычисления ТУМ: профессор Маттиас Ниснер» . www.niessnerlab.org . Архивировано из оригинала 21 февраля 2020 года . Проверено 8 февраля 2020 г.
  59. ^ «Полная перезагрузка страницы» . IEEE Spectrum: Новости технологий, техники и науки . 11 декабря 2019 года. Архивировано из оригинала 26 июня 2020 года . Проверено 8 февраля 2020 г.
  60. ^ «Вклад данных в исследования по обнаружению дипфейков» . 24 сентября 2019 года. Архивировано из оригинала 5 февраля 2020 года . Проверено 8 февраля 2020 г.
  61. ^ Тален, Микаэль. «Теперь вы можете превратить себя в знаменитость всего за несколько кликов» . ежедневный точка . Архивировано из оригинала 6 апреля 2020 года . Проверено 3 апреля 2020 г. .
  62. ^ Мэтьюз, Зейн (6 марта 2020 г.). «Весело или страх: приложение Deepfake добавляет лица знаменитостей в ваши селфи» . Kool1079 . Архивировано из оригинала 24 марта 2020 года . Проверено 6 марта 2020 г.
  63. ^ «Канье Уэст, Ким Кардашьян и ее отец: стоит ли нам делать голограммы мертвых?» . Новости BBC . 31 октября 2020 года. Архивировано из оригинала 15 ноября 2020 года . Проверено 11 ноября 2020 г.
  64. ^ «Канье Уэст подарил Ким Кардашьян на день рождения голограмму ее отца» . модемы . 30 октября 2020 года. Архивировано из оригинала 11 ноября 2020 года . Проверено 11 ноября 2020 г.
  65. ^ «Жертва Паркленда Хоакин Оливер возвращается к жизни в душераздирающем призыве к избирателям» . adage.com . 2 октября 2020 г. Архивировано из оригинала 11 ноября 2020 г. . Проверено 11 ноября 2020 г.
  66. ^ Боуэнбанк, Старр (14 сентября 2022 г.). «Дуэты Саймона Коуэлла с Элвисом в последнем фейковом представлении Metaphysical 'AGT': смотрите» . Рекламный щит . Архивировано из оригинала 15 сентября 2022 года . Проверено 8 ноября 2022 г.
  67. ^ Рекламный ролик Джона Леннона «Один ноутбук на ребенка» . YouTube . 26 декабря 2008 г. Архивировано из оригинала 9 марта 2023 г. Проверено 9 марта 2023 г.
  68. ^ Зуккони, Алан (14 марта 2018 г.). «Понимание технологии DeepFakes» . Алан Зуккони . Архивировано из оригинала 1 ноября 2019 года . Проверено 8 ноября 2019 г.
  69. ^ «Что такое дипфейк?» . Блог — Синтез . 3 мая 2022 года. Архивировано из оригинала 26 июня 2022 года . Проверено 17 мая 2022 г.
  70. ^ Перейти обратно: а б «Эти новые трюки могут перехитрить дипфейковые видео — на данный момент» . Проводной . ISSN   1059-1028 . Архивировано из оригинала 3 октября 2019 года . Проверено 9 ноября 2019 г.
  71. ^ Кемп, Люк (8 июля 2019 г.). «Могут ли виртуальные актеры в эпоху дипфейков лишить людей бизнеса?» . Хранитель . ISSN   0261-3077 . Архивировано из оригинала 20 октября 2019 года . Проверено 20 октября 2019 г.
  72. ^ Верма, Праншу (21 июля 2023 г.). «Цифровые клоны, созданные с помощью технологий искусственного интеллекта, могут сделать голливудскую массовку устаревшей» . Вашингтон Пост . Архивировано из оригинала 20 июля 2023 года . Проверено 4 января 2024 г.
  73. ^ Перейти обратно: а б «Нейронная замена лиц высокого разрешения для визуальных эффектов | Disney Research Studios» . Архивировано из оригинала 27 ноября 2020 года . Проверено 7 октября 2020 г.
  74. ^ Перейти обратно: а б «Технологию дипфейков Диснея можно использовать в кино и на телевидении» . Блулуп . 21 июля 2020 года. Архивировано из оригинала 12 ноября 2020 года . Проверено 7 октября 2020 г.
  75. ^ Линдли, Джон А. (2 июля 2020 г.). «Дисней решается вернуть «мертвых актеров» посредством распознавания лиц» . Тех Таймс . Архивировано из оригинала 14 июля 2021 года . Проверено 7 октября 2020 г.
  76. ^ Радулович, Петрана (17 октября 2018 г.). «Харрисон Форд стал звездой фильма «Соло: Звёздные войны: Истории» благодаря технологии дипфейков» . Полигон . Архивировано из оригинала 20 октября 2019 года . Проверено 20 октября 2019 г.
  77. ^ Виник, Эрин. «Как марионетка Кэрри Фишер сделала карьеру принцессы Леи из «Изгоя-один»» . Обзор технологий Массачусетского технологического института . Архивировано из оригинала 23 октября 2019 года . Проверено 20 октября 2019 г.
  78. ^ «Дипфейк Люка Скайуокера — это еще один шаг на омерзительном пути компьютерной графики» . Британский журнал GQ . 10 февраля 2022 года. Архивировано из оригинала 22 мая 2022 года . Проверено 3 июня 2022 г.
  79. ^ Ошеломленный (10 февраля 2022 г.). «Перепишут ли дипфейки историю такой, какой мы ее знаем?» . Ошеломленный . Архивировано из оригинала 8 июня 2022 года . Проверено 3 июня 2022 г.
  80. ^ Шварцель, Эрих (21 декабря 2023 г.). «За созданием моего цифрового двойника искусственного интеллекта» . Уолл Стрит Джорнал . Архивировано из оригинала 6 января 2024 года . Проверено 4 января 2024 г.
  81. ^ Кофе, Патрик (18 июня 2023 г.). «Знаменитости используют ИИ, чтобы контролировать свои изображения» . Уолл Стрит Джорнал . Архивировано из оригинала 10 июня 2024 года . Проверено 4 января 2024 г.
  82. ^ Катерина Чижек, Уильям Уриккио и Сара Волозин: Коллективная мудрость | Массачусетский технологический институт [1]. Архивировано 4 марта 2020 года в Wayback Machine.
  83. ^ «ANSA | Орнелла Мути в кортометраджио во Флоренции» . 3 ноября 2017 г. Архивировано из оригинала 27 февраля 2020 г. . Проверено 27 февраля 2020 г.
  84. ^ « Создатели «Южного парка» запускают новый фейковый сатирический сериал «Дерзкое правосудие» » . НМЕ . 27 октября 2020 года. Архивировано из оригинала 10 июня 2024 года . Проверено 7 июня 2022 г.
  85. ^ Перейти обратно: а б Тайлер, Келли М.; Харрис, Лори А. (8 июня 2021 г.). Глубокие фейки и национальная безопасность (Доклад). Исследовательская служба Конгресса . п. 1. Архивировано из оригинала 14 июня 2022 года . Проверено 19 июля 2021 г.
  86. ^ Лимберг, Питер (24 мая 2020 г.). «Инфляция шантажа» . КультГосударство . Архивировано из оригинала 24 января 2021 года . Проверено 18 января 2021 г.
  87. ^ «Для Кэппи» . Телеграф . 24 мая 2020 г. Архивировано из оригинала 24 января 2021 г. . Проверено 18 января 2021 г.
  88. ^ «Судьи AGT бесценно отреагировали на прослушивание пения Саймона Коуэлла» . Официальный сайт NBC Insider . 8 июня 2022 года. Архивировано из оригинала 29 августа 2022 года . Проверено 29 августа 2022 г.
  89. ^ Марр, Бернард. «Может ли искусственный интеллект в Метавселенной завоевать таланты Америки? (И что это значит для отрасли)» . Форбс . Архивировано из оригинала 30 августа 2022 года . Проверено 30 августа 2022 г.
  90. ^ Моралес, Джови (10 июня 2022 г.). «Дипфейки становятся мейнстримом: как появление AGT от Metaphysical повлияет на индустрию развлечений» . МУО . Архивировано из оригинала 10 июня 2024 года . Проверено 29 августа 2022 г.
  91. ^ Картер, Ребекка (1 июня 2019 г.). «Зрители BGT раскритиковали Саймона Коуэлла за «грубое» и «неприятное» замечание в адрес участника» . Развлечения Ежедневно . Архивировано из оригинала 31 августа 2022 года . Проверено 31 августа 2022 г.
  92. ^ Саймон Коуэлл поет на сцене?! Метафизика лишит вас дара речи | AGT 2022 , заархивировано из оригинала 29 августа 2022 года , получено 29 августа 2022 года.
  93. ^ Сегарра, Эдвард. « Судьи «AGT» Саймон Коуэлл и Хоуи Мандель подвергаются «глубокому фейку» со стороны ИИ-акта «Метафизика»: смотрите здесь» . США СЕГОДНЯ . Архивировано из оригинала 31 августа 2022 года . Проверено 31 августа 2022 г.
  94. ^ Боуэнбанк, Старр (14 сентября 2022 г.). «Дуэты Саймона Коуэлла с Элвисом в последнем фейковом представлении Metaphysical 'AGT': смотрите» . Рекламный щит . Архивировано из оригинала 10 июня 2024 года . Проверено 15 сентября 2022 г.
  95. ^ Цвизен, Зак (18 января 2021 г.). «Веб-сайт позволяет заставить GLaDOS говорить все, что вы хотите» . Котаку . Архивировано из оригинала 17 января 2021 года . Проверено 18 января 2021 г.
  96. ^ Руперт, Лиана (18 января 2021 г.). «Заставьте GLaDOS из Portal и других любимых персонажей говорить самые странные вещи с помощью этого приложения» . Игровой информер . Игровой информер . Архивировано из оригинала 18 января 2021 года . Проверено 18 января 2021 г.
  97. ^ Клейтон, Натали (19 января 2021 г.). «Заставьте актеров TF2 декламировать старые мемы с помощью этого инструмента преобразования текста в речь ИИ» . ПК-геймер . Архивировано из оригинала 19 января 2021 года . Проверено 19 января 2021 г.
  98. ^ Шерман, Мария (3 декабря 2023 г.). «Kiss попрощались с концертными турами, стали первой группой в США, которая перешла в виртуальный формат и стала цифровыми аватарами» . АП Новости . Ассошиэйтед Пресс. Архивировано из оригинала 1 января 2024 года . Проверено 4 января 2024 г.
  99. ^ Перейти обратно: а б с Серулло, Меган (9 января 2024 г.). «Реклама, созданная искусственным интеллектом с использованием образа Тейлор Свифт, обманывает фанатов фальшивой раздачей Le Creuset» . Новости CBS . Архивировано из оригинала 10 января 2024 года . Проверено 10 января 2024 г.
  100. ^ Перейти обратно: а б с д Это Сюй, Тиффани; Лу, Ивэнь (9 января 2024 г.). «Нет, это не Тейлор Свифт, торгующая посудой Le Creuset» . Нью-Йорк Таймс . п. Б1 . Проверено 10 января 2024 г.
  101. ^ Перейти обратно: а б с Тейлор, Деррик Брайсон (2 октября 2023 г.). «Том Хэнкс предупреждает о том, что в стоматологической рекламе используется его версия с искусственным интеллектом» . Нью-Йорк Таймс . ISSN   0362-4331 . Архивировано из оригинала 10 июня 2024 года . Проверено 12 октября 2023 г.
  102. ^ Перейти обратно: а б с Джонсон, Кирстен (11 декабря 2023 г.). «Женщина из Аризоны стала жертвой дипфейкового мошенничества с использованием знаменитостей в социальных сетях» . ABC 15 Аризона . Архивировано из оригинала 10 января 2024 года . Проверено 10 января 2024 г.
  103. ^ Перейти обратно: а б Кулунду, Мэри (4 января 2024 г.). «Глубокие фейковые видео с участием Илона Маска, используемые в аферах с целью быстрого обогащения» . Агентство Франс-Пресс . Архивировано из оригинала 10 июня 2024 года . Проверено 10 января 2024 г.
  104. ^ Esmael, Lisbet (3 January 2024). "PH needs multifaceted approach vs 'deepfake' videos used to scam Pinoys". CNN Philippines. Archived from the original on 10 January 2024. Retrieved 10 January 2024.
  105. ^ Gerken, Tom (4 October 2023). "MrBeast and BBC stars used in deepfake scam videos". BBC News. Archived from the original on 10 June 2024. Retrieved 10 January 2024.
  106. ^ Jump up to: a b Lim, Kimberly (29 December 2023). "Singapore PM Lee warns of 'very convincing' deepfakes 'spreading disinformation' after fake video of him emerges". South China Morning Post. Archived from the original on 9 January 2024. Retrieved 10 January 2024.
  107. ^ Taylor, Josh (30 November 2023). "Scammer paid Facebook 7c per view to circulate video of deepfake Jim Chalmers and Gina Rinehart". The Guardian. Archived from the original on 10 June 2024. Retrieved 10 January 2024.
  108. ^ Palmer, Joseph Olbrycht (14 December 2023). "Deepfake of Australian treasury, central bank officials used to promote investment scam". Agence France-Presse. Archived from the original on 10 January 2024. Retrieved 10 January 2024.
  109. ^ Jump up to: a b c Koebler, Jason (9 January 2024). "Deepfaked Celebrity Ads Promoting Medicare Scams Run Rampant on YouTube". 404 Media. Archived from the original on 10 January 2024. Retrieved 10 January 2024.
  110. ^ Jump up to: a b c Rosenblatt, Kalhan (3 October 2023). "MrBeast calls TikTok ad showing an AI version of him a 'scam'". NBC News. Archived from the original on 10 January 2024. Retrieved 10 January 2024.
  111. ^ Koebler, Jason (25 January 2024). "YouTube Deletes 1,000 Videos of Celebrity AI Scam Ads". 404 Media. Archived from the original on 10 June 2024. Retrieved 2 February 2024.
  112. ^ Bucci, Nino (27 November 2023). "Dick Smith criticises Facebook after scammers circulate deepfake video ad". The Guardian. Archived from the original on 10 June 2024. Retrieved 10 January 2024.
  113. ^ Lomas, Natasha (7 July 2023). "Martin Lewis warns over 'first' deepfake video scam ad circulating on Facebook". TechCrunch. Archived from the original on 10 January 2024. Retrieved 10 January 2024.
  114. ^ Lopatto, Elizabeth (3 January 2024). "Fun new deepfake consequence: more convincing crypto scams". The Verge. Archived from the original on 10 January 2024. Retrieved 10 January 2024.
  115. ^ Spoto, Maia; Poritz, Isaiah (11 October 2023). "MrBeast, Tom Hanks Stung by AI Scams as Law Rushes to Keep Pace". Bloomberg Law. Archived from the original on 10 January 2024. Retrieved 10 January 2024.
  116. ^ Statt, Nick (5 September 2019). "Thieves are now using AI deepfakes to trick companies into sending them money". Archived from the original on 15 September 2019. Retrieved 13 September 2019.
  117. ^ Damiani, Jesse. "A Voice Deepfake Was Used To Scam A CEO Out Of $243,000". Forbes. Archived from the original on 14 September 2019. Retrieved 9 November 2019.
  118. ^ "Deepfakes, explained". MIT Sloan. 5 March 2024. Archived from the original on 5 March 2024. Retrieved 6 March 2024.
  119. ^ Schwartz, Christopher; Wright, Matthew (17 March 2023). "Voice deepfakes are calling – here's what they are and how to avoid getting scammed". The Conversation. Archived from the original on 4 January 2024. Retrieved 4 January 2024.
  120. ^ C, Kim (22 August 2020). "Coffin Dance and More: The Music Memes of 2020 So Far". Music Times. Archived from the original on 26 June 2021. Retrieved 26 August 2020.
  121. ^ Sholihyn, Ilyas (7 August 2020). "Someone deepfaked Singapore's politicians to lip-sync that Japanese meme song". AsiaOne. Archived from the original on 3 September 2020. Retrieved 26 August 2020.
  122. ^ Jump up to: a b c d "Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos". az Aargauer Zeitung. 3 February 2018. Archived from the original on 13 April 2019. Retrieved 9 April 2018.
  123. ^ Генсинг, Патрик. «Дипфейки: на пути к альтернативной реальности?» . Архивировано из оригинала 11 октября 2018 года . Проверено 9 апреля 2018 г.
  124. ^ Романо, Ая (18 апреля 2018 г.). «Имитация СРП Джордана Пила, созданная Обамой, является обоюдоострым предупреждением против фейковых новостей» . Вокс . Архивировано из оригинала 11 июня 2019 года . Проверено 10 сентября 2018 г.
  125. ^ Свенсон, Кайл (11 января 2019 г.). «Телеканал Сиэтла показал сфальсифицированную запись речи Трампа в Овальном кабинете. Сотрудник был уволен» . Вашингтон Пост . Архивировано из оригинала 15 апреля 2019 года . Проверено 11 января 2019 г.
  126. ^ О'Салливан, Дони (4 июня 2019 г.). «Конгресс расследует дипфейки, поскольку подделанное видео Пелоси вызвало переполох» . CNN . Архивировано из оригинала 29 июня 2019 года . Проверено 9 ноября 2019 г.
  127. ^ «#TellTheTruthБельгия» . Восстание вымирания в Бельгии . Архивировано из оригинала 25 апреля 2020 года . Проверено 21 апреля 2020 г.
  128. ^ Голубович, Джеральд (15 апреля 2020 г.). «Восстание вымирания в мире дипфейков» . Журналистика.дизайн (на французском языке). Архивировано из оригинала 29 июля 2020 года . Проверено 21 апреля 2020 г.
  129. ^ Карнахан, Дастин (16 сентября 2020 г.). «Фальшивые видео укрепляют ложные представления о психическом здоровье Байдена» . Разговор . Архивировано из оригинала 9 апреля 2022 года . Проверено 9 апреля 2022 г.
  130. ^ Паркер, Эшли (7 сентября 2020 г.). «Трамп и его союзники наращивают усилия по распространению дезинформации и фейковых новостей» . Независимый . Проверено 9 апреля 2022 г.
  131. ^ Кристофер, Нилеш (18 февраля 2020 г.). «Мы только что стали свидетелями первого использования дипфейков в предвыборной кампании в Индии» . Порок . Архивировано из оригинала 19 февраля 2020 года . Проверено 19 февраля 2020 г.
  132. ^ «Амаби: мифическое существо, возвращающее коронавирус» . Экономист . 28 апреля 2020 г. ISSN   0013-0613 . Архивировано из оригинала 20 мая 2021 года . Проверено 3 июня 2021 г.
  133. ^ Рот, Эндрю (22 апреля 2021 г.). «Европейские депутаты подверглись фейковым видеозвонкам, имитирующим российскую оппозицию» . Хранитель . Архивировано из оригинала 29 марта 2022 года . Проверено 29 марта 2022 г.
  134. ^ Иванов Максим; Ротрок, Кевин (22 апреля 2021 г.). «Здравствуйте, это Леонид Волков*. Используя дипфейковые видео и выдавая себя за правую руку Навального, российские шутники обманывают латвийских политиков и журналистов, заставляя их приглашать и давать телеинтервью» . Медуза . Архивировано из оригинала 29 марта 2022 года . Проверено 29 марта 2022 г.
  135. ^ «Голландские депутаты на видеоконференции с глубокой фейковой имитацией главы администрации Навального» . НЛ Таймс . 24 апреля 2021 года. Архивировано из оригинала 10 июня 2024 года . Проверено 29 марта 2022 г.
  136. ^ « Дипфейк» Помощник Навального нацелен на европейских законодателей» . «Москва Таймс» . 23 апреля 2021 года. Архивировано из оригинала 29 марта 2022 года . Проверено 29 марта 2022 г.
  137. ^ Винсент, Джеймс (30 апреля 2021 г.). « Дипфейк, который якобы обманул европейских политиков, был всего лишь двойником, говорят шутники» . Грань . Архивировано из оригинала 29 марта 2022 года . Проверено 29 марта 2022 г.
  138. ^ Новак, Мэтт (8 мая 2023 г.). «Вирусное видео, на котором Камала Харрис говорит тарабарщину, на самом деле является дипфейком» . Форбс . Архивировано из оригинала 18 июля 2023 года . Проверено 18 июля 2023 г.
  139. ^ «PolitiFact — Камала Харрис не говорила невнятно о сегодняшнем, вчерашнем или завтрашнем дне. Это видео изменено» . Политифакт . Архивировано из оригинала 10 июня 2024 года . Проверено 18 июля 2023 г.
  140. ^ Шухам, Мэтт (8 июня 2023 г.). «Реклама предвыборной кампании ДеСантиса показывает фальшивые изображения искусственного интеллекта, на которых Трамп обнимает Фаучи» . ХаффПост . Архивировано из оригинала 10 июня 2024 года . Проверено 8 июня 2023 г.
  141. ^ Перейти обратно: а б Реттгерс, Янко (21 февраля 2018 г.). «Порнопродюсеры предлагают помочь Голливуду удалить дипфейковые видео» . Разнообразие . Архивировано из оригинала 10 июня 2019 года . Проверено 28 февраля 2018 г.
  142. ^ Перейти обратно: а б с Диксон, Э.Дж. (7 октября 2019 г.). «Дипфейковое порно по-прежнему представляет угрозу, особенно для звезд K-Pop» . Катящийся камень . Архивировано из оригинала 30 октября 2019 года . Проверено 9 ноября 2019 г.
  143. ^ «Состояние дипфейков: ландшафт, угрозы и влияние» (PDF) . Диптрейс . 1 октября 2019 г. Архивировано (PDF) из оригинала 9 августа 2020 г. . Проверено 7 июля 2020 г.
  144. ^ Гоггин, Бенджамин (7 июня 2019 г.). «От порно к «Игре престолов»: как дипфейки и реалистично выглядящие фейковые видеоролики стали популярными» . Бизнес-инсайдер . Архивировано из оригинала 8 ноября 2019 года . Проверено 9 ноября 2019 г.
  145. ^ Ли, Дэйв (3 февраля 2018 г.). « Фейковое порно имеет серьезные последствия» . Архивировано из оригинала 1 декабря 2019 года . Проверено 9 ноября 2019 г.
  146. ^ Коул, Саманта (19 июня 2018 г.). «ИИ-решение Gfycat для борьбы с дипфейками не работает» . Порок . Архивировано из оригинала 8 ноября 2019 года . Проверено 9 ноября 2019 г.
  147. ^ Зои, Френи (24 ноября 2019 г.). «Глубокое порно никуда не денется» . Середина . Архивировано из оригинала 10 декабря 2019 года . Проверено 10 декабря 2019 г.
  148. ^ Коул, Саманта; Майберг, Эмануэль; Кеблер, Джейсон (26 июня 2019 г.). «Это ужасающее приложение раздевает фотографию любой женщины одним щелчком мыши» . Порок . Архивировано из оригинала 2 июля 2019 года . Проверено 2 июля 2019 г.
  149. ^ Кокс, Джозеф (9 июля 2019 г.). «GitHub удалил версии DeepNude с открытым исходным кодом» . Вице Медиа . Архивировано из оригинала 24 сентября 2020 года . Проверено 14 июля 2019 г.
  150. ^ «pic.twitter.com/8uJKBQTZ0o» . 27 июня 2019 года. Архивировано из оригинала 6 апреля 2021 года . Проверено 3 августа 2019 г.
  151. ^ «За последние два дня в Facebook и Instagram были опубликованы сотни фейковых рекламных объявлений сексуального характера с использованием лица Эммы Уотсон» . Новости Эн-Би-Си . 7 марта 2023 года. Архивировано из оригинала 29 февраля 2024 года . Проверено 8 марта 2024 г.
  152. ^ Филипович, Джилл (31 января 2024 г.). «Любой может стать жертвой «дипфейков». Но есть причина, по которой целью стала Тейлор Свифт» . Хранитель . ISSN   0261-3077 . Архивировано из оригинала 10 июня 2024 года . Проверено 8 марта 2024 г.
  153. ^ Дамиани, Джесси. «Китайское приложение-дипфейк Zao становится вирусным и сразу же сталкивается с критикой по поводу пользовательских данных и политики безопасности» . Форбс . Архивировано из оригинала 14 сентября 2019 года . Проверено 18 ноября 2019 г.
  154. ^ «В преддверии выборов в Ирландии и США Facebook объявляет о новых мерах против «дипфейковых» видео» . Независимый.т.е . 7 января 2020 года. Архивировано из оригинала 8 января 2020 года . Проверено 7 января 2020 г.
  155. ^ «Как бельгийский визуальный эксперт Крис Уме придумал дипфейки Тома Круза» . Государственный деятель . 6 марта 2021 года. Архивировано из оригинала 24 августа 2022 года . Проверено 24 августа 2022 г.
  156. ^ Мец, Рэйчел. «Как дипфейковый Том Круз в TikTok превратился в вполне настоящую компанию по искусственному интеллекту» . CNN . Архивировано из оригинала 10 июня 2024 года . Проверено 17 марта 2022 г.
  157. ^ Коркоран, Марк; Генри, Мэтт (23 июня 2021 г.). «Это не Том Круз. Вот что так беспокоит экспертов по безопасности» . Новости АВС . Архивировано из оригинала 28 марта 2022 года . Проверено 28 марта 2022 г.
  158. ^ Reuters, 15 июля 2020 г., Deepfake, использованный для нападения на активистскую пару, показывает новый рубеж дезинформации. Архивировано 26 сентября 2020 г. на Wayback Machine.
  159. ^ Журнал 972, 12 августа 2020 г., «Левые за Биби»? Разоблачена пропаганда Deepfake в поддержку Нетаньяху: согласно серии сообщений в Facebook, премьер-министр Израиля побеждает левых последователей - за исключением того, что ни один из людей в Вопрос существует». Архивировано 14 августа 2020 г. на Wayback Machine.
  160. ^ «Седьмой глаз», 9 июня 2020 г., порнография с подстрекательством Сторонники Нетаньяху продолжают распространять фейковые посты в группах в социальных сетях • Наряду с нелепым троллингом распространяются фальшивые фотографии с целью усиления ненависти и раскола в израильском обществе. Архивировано 18. Август 2020 года в Wayback Machine
  161. ^ Перейти обратно: а б «Идеальная технология дипфейков может появиться раньше, чем ожидалось» . www.wbur.org . 2 октября 2019 года. Архивировано из оригинала 30 октября 2019 года . Проверено 9 ноября 2019 г.
  162. ^ Зоннемейкер, Тайлер. «Пока платформы социальных сетей готовятся к наступающей волне дипфейков, бывший «царь мошенничества» Google предсказывает, что самая большая опасность заключается в том, что дипфейки со временем станут скучными» . Бизнес-инсайдер . Архивировано из оригинала 14 апреля 2021 года . Проверено 14 апреля 2021 г.
  163. ^ Ваккари, Кристиан; Чедвик, Эндрю (январь 2020 г.). «Дипфейки и дезинформация: изучение влияния синтетического политического видео на обман, неопределенность и доверие к новостям» . Социальные сети + Общество . 6 (1): 205630512090340. doi : 10.1177/2056305120903408 . ISSN   2056-3051 . S2CID   214265502 .
  164. ^ Перейти обратно: а б с Бейтман, Джон (2020). "Краткое содержание" . Дипфейки и синтетические медиа в финансовой системе : 1–2. Архивировано из оригинала 20 апреля 2021 года . Проверено 28 октября 2020 г.
  165. ^ Келион, Лев (сентябрь 2020 г.). «Инструмент обнаружения Deepfake, представленный Microsoft» . Новости BBC . Архивировано из оригинала 14 апреля 2021 года . Проверено 15 апреля 2021 г.
  166. ^ Коэн, Ариэль; Римон, Инбал; Афлало, Эран; Пермутер, Хаим Х. (июнь 2022 г.). «Исследование увеличения данных в борьбе с подделкой голоса». Речевое общение . 141 : 56–67. arXiv : 2110.10491 . doi : 10.1016/j.specom.2022.04.005 . S2CID   239050551 .
  167. ^ Перейти обратно: а б с Манке, Кара (18 июня 2019 г.). «Исследователи используют черты лица, чтобы разоблачить «дипфейки» » . Новости Беркли . Архивировано из оригинала 9 ноября 2019 года . Проверено 9 ноября 2019 г.
  168. ^ Фарид, Хани (1 декабря 2006 г.). «Цифровое врачевание: как отличить настоящее от подделки» . Значение . 3 (4): 162–166. дои : 10.1111/j.1740-9713.2006.00197.x . S2CID   13861938 .
  169. ^ «Присоединяйтесь к конкурсу по обнаружению дипфейков (DFDC)» . deepfakedetectionchallenge.ai. Архивировано из оригинала 12 января 2020 года . Проверено 8 ноября 2019 г.
  170. ^ «Результаты задачи по обнаружению дипфейков: открытая инициатива по развитию искусственного интеллекта» . ai.facebook.com . Архивировано из оригинала 29 октября 2020 года . Проверено 30 сентября 2022 г.
  171. ^ Гро, Мэтью; Эпштейн, Зив; Файерстоун, Чаз; Пикард, Розалинда (2022). «Обнаружение дипфейков толпами людей, машин и толп, информированных машинами» . Труды Национальной академии наук . 119 (1). arXiv : 2105.06496 . Бибкод : 2022PNAS..11910013G . дои : 10.1073/pnas.2110013119 . ПМЦ   8740705 . ПМИД   34969837 .
  172. ^ Ху, Шу; Ли, Юэзунь; Лю, Сивэй (12 октября 2020 г.). «Экспонирование лиц, сгенерированных GAN, с использованием непоследовательных бликов роговицы». arXiv : 2009.11924 [ cs.CV ].
  173. ^ Богачек, М; Фарид, Х. (29 ноября 2022 г.). «Защита мировых лидеров от дипфейков, использующих мимику, жесты и голосовые манеры» . Труды Национальной академии наук Соединенных Штатов Америки . 119 (48): e2216035119. Бибкод : 2022PNAS..11916035B . дои : 10.1073/pnas.2216035119 . ПМЦ   9860138 . ПМИД   36417442 .
  174. ^ Перейти обратно: а б "Google Scholar" . ученый.google.com . Проверено 30 апреля 2022 г.
  175. ^ Перейти обратно: а б Маси, Якопо; Киллекар, Адитья; Маскареньяс, Ройстон Мэриан; Гурудатт, Шеной Пратик; Абдалмагид, Ваэль (2020). Двухветвевая рекуррентная сеть для выделения дипфейков в видеороликах . Конспекты лекций по информатике. Том. 12352. стр. 667–684. arXiv : 2008.03412 . дои : 10.1007/978-3-030-58571-6_39 . ISBN  978-3-030-58570-9 . Архивировано из оригинала 10 июня 2024 года . Проверено 30 апреля 2022 г.
  176. ^ Перейти обратно: а б с «Блокчейн-решение наших проблем с дипфейками» . Проводной . ISSN   1059-1028 . Архивировано из оригинала 7 ноября 2019 года . Проверено 9 ноября 2019 г.
  177. ^ Перейти обратно: а б Литару, Калев. «Почему цифровые подписи не предотвратят глубокие фейки, но помогут репрессивным правительствам» . Форбс . Архивировано из оригинала 14 апреля 2021 года . Проверено 17 февраля 2021 г.
  178. ^ «Чтобы раскрыть фейковый видеозвонок, попросите звонящего повернуться боком» . Метафизика . 8 августа 2022 года. Архивировано из оригинала 26 августа 2022 года . Проверено 24 августа 2022 г.
  179. ^ «Кольцо Кейт Миддлтон таинственным образом исчезает, что вызывает еще больше беспокойства по поводу искусственного интеллекта» . МСН. 25 марта 2024 года. Архивировано из оригинала 10 июня 2024 года . Проверено 19 мая 2024 г.
  180. ^ Hindustan Times (5 апреля 2024 г.). « Признание Кейт в раке — фейк», — фанат Меган Маркл и директор Калифорнийского университета в Лос-Анджелесе Джонатан Перкинс выдвигает теорию заговора» . Индостан Таймс. Архивировано из оригинала 10 июня 2024 года . Проверено 19 мая 2024 г.
  181. ^ Фэган, Кейли. «Вирусное видео, на котором видно, как Обама называет Трампа «отморозком», демонстрирует тревожную новую тенденцию, называемую «дипфейками » . Бизнес-инсайдер . Архивировано из оригинала 22 сентября 2020 года . Проверено 3 ноября 2020 г. .
  182. ^ Перейти обратно: а б «Рост дипфейков и угроза демократии» . Хранитель . Архивировано из оригинала 1 ноября 2020 года . Проверено 3 ноября 2020 г. .
  183. ^ Перейти обратно: а б «Созданные искусственным интеллектом изображения ареста Трампа распространяются в социальных сетях» . АП Новости. 21 марта 2023 года. Архивировано из оригинала 10 июня 2024 года . Проверено 10 октября 2023 г.
  184. ^ «Трамп поделился фейковой фотографией, на которой он молится, в то время как изображения ареста, сделанные искусственным интеллектом, распространяются в Интернете» . Независимый . 24 марта 2023 г. Архивировано из оригинала 28 мая 2023 г. Проверено 16 июня 2023 г.
  185. ^ Тауэрс-Кларк, Чарльз. «Мона Лиза и Нэнси Пелоси: последствия дипфейков» . Форбс . Архивировано из оригинала 23 ноября 2020 года . Проверено 7 октября 2020 г.
  186. ^ «В чем разница между Deepfake и Shallowfake?» . 21 апреля 2020 года. Архивировано из оригинала 26 июня 2022 года . Проверено 5 декабря 2021 г.
  187. ^ «Галерея: Запуск «Спектра» (пресс-релиз)» . Билл Плакаты . 29 мая 2019 г. Архивировано из оригинала 10 июня 2024 г. . Проверено 15 мая 2024 г.
  188. ^ Коул, Саманта (11 июня 2019 г.). «Этот дипфейк Марка Цукерберга проверяет политику Facebook в отношении фейкового видео» . Порок . Архивировано из оригинала 10 июня 2024 года . Проверено 15 мая 2024 г.
  189. ^ Перейти обратно: а б с «Дипфейк Путин здесь, чтобы предупредить американцев об их собственной гибели» . Обзор технологий Массачусетского технологического института . Архивировано из оригинала 30 октября 2020 года . Проверено 7 октября 2020 г.
  190. ^ Зонне, Пол (5 июня 2023 г.). «В России транслируется фейковая речь Путина с призывом к введению военного положения» . Нью-Йорк Таймс . Архивировано из оригинала 10 июня 2024 года . Проверено 6 июня 2023 г.
  191. ^ Аллин, Бобби (16 марта 2022 г.). «Дипфейковое видео Зеленского может оказаться «верхушкой айсберга» в информационной войне, - предупреждают эксперты» . ЭНЕРГЕТИЧЕСКИЙ ЯДЕРНЫЙ РЕАКТОР . Архивировано из оригинала 29 марта 2022 года . Проверено 17 марта 2022 г.
  192. ^ Сатариано, Адам; Мозур, Пол (7 февраля 2023 г.). «Люди на экране фальшивые. Дезинформация реальна» . Нью-Йорк Таймс . Архивировано из оригинала 10 июня 2024 года . Проверено 10 февраля 2023 г.
  193. ^ «Папа Франциск в дипфейке Balenciaga обманывает миллионы: «Определенно страшно» » . Нью-Йорк Пост . 28 марта 2023 года. Архивировано из оригинала 10 июня 2024 года . Проверено 16 июня 2023 г.
  194. ^ Лу, Донна (31 марта 2023 г.). «Дезинформация, ошибки и Папа в пуховике: что может – и не может – сделать быстро развивающийся ИИ» . Хранитель . Архивировано из оригинала 10 июня 2024 года . Проверено 16 июня 2023 г.
  195. ^ Мерфи, Хизер Тал (29 марта 2023 г.). «Папа в пальто не из святого места» . Сланец . Архивировано из оригинала 10 июня 2024 года . Проверено 16 июня 2023 г.
  196. ^ «Глубокая аудиозапись сэра Кейра Стармера выпущена в первый день конференции Лейбористской партии» . Небесные новости . Проверено 29 мая 2024 г.
  197. ^ «Женщина в дипфейковом видео с лицом Рашмики Манданны нарушает молчание: я глубоко обеспокоена и расстроена происходящим» . Таймс оф Индия . 9 ноября 2023 г. ISSN   0971-8257 . Архивировано из оригинала 23 ноября 2023 года . Проверено 23 ноября 2023 г.
  198. ^ Купен, Беа (24 апреля 2024 г.). «Малаканьянг отмечает фальшивую аудиозапись, на которой Маркос отдает приказ о военном нападении» . Рэплер . Архивировано из оригинала 10 июня 2024 года . Проверено 14 мая 2024 г.
  199. ^ Флорес, Хелен (27 апреля 2024 г.). « Иностранный актер» замечен за аудиодипфейком президента Маркоса» . Филиппинская звезда . Архивировано из оригинала 10 июня 2024 года . Проверено 14 мая 2024 г.
  200. ^ Аргосино, Вера (14 мая 2024 г.). «На страницы в социальных сетях поступили сообщения о клеветническом контенте, дипфейк Маркоса» . Филиппинский Daily Inquirer . Архивировано из оригинала 10 июня 2024 года . Проверено 14 мая 2024 г.
  201. ^ Шепардсон, Дэвид (23 мая 2024 г.). «Американскому политологу предъявлено обвинение в звонках Байдену, сгенерированных искусственным интеллектом» . Рейтер.
  202. ^ «Американскому политологу предъявлено обвинение в звонках Байдену, сгенерированных искусственным интеллектом» . АП Новости . 23 мая 2024 года. Архивировано из оригинала 10 июня 2024 года . Проверено 8 июня 2024 г.
  203. ^ Перейти обратно: а б с д «Помогите нам сформировать наш подход к синтетическим и манипулируемым медиа» . блог.twitter.com . Архивировано из оригинала 28 октября 2020 года . Проверено 7 октября 2020 г.
  204. ^ «ТехКранч» . ТехКранч . 11 ноября 2019 г. Архивировано из оригинала 14 июля 2021 г. Проверено 7 октября 2020 г.
  205. ^ Перейти обратно: а б «Результаты задачи по обнаружению дипфейков: открытая инициатива по развитию искусственного интеллекта» . ai.facebook.com . Архивировано из оригинала 29 октября 2020 года . Проверено 7 октября 2020 г.
  206. ^ Перейти обратно: а б Пол, Кэти (4 февраля 2020 г.). «Твиттер для маркировки дипфейков и других вводящих в заблуждение медиа» . Рейтер . Архивировано из оригинала 10 октября 2020 года . Проверено 7 октября 2020 г.
  207. ^ Коул, Саманта (31 января 2018 г.). «Создатели фейковой порнографии, созданные искусственным интеллектом, были изгнаны со своего любимого хозяина» . Порок . Архивировано из оригинала 1 ноября 2019 года . Проверено 18 ноября 2019 г.
  208. ^ Бём, Маркус (7 февраля 2018 г.). « Дипфейки»: компании борются с фейковым порно со знаменитостями . Зеркало онлайн . Архивировано из оригинала 23 сентября 2019 года . Проверено 9 ноября 2019 г.
  209. ^ barbara.wimmer (8 февраля 2018 г.). «Deepfakes: Reddit удаляет форум с искусственно созданным фейковым порно» . Futurezone.at (на немецком языке). Архивировано из оригинала 8 февраля 2018 года . Проверено 9 ноября 2019 г.
  210. ^ «Deepfakes: Auch Reddit verbannt Fake-Porn» . heise онлайн (на немецком языке). 8 февраля 2018 г. Архивировано из оригинала 10 апреля 2019 г. . Проверено 9 ноября 2019 г.
  211. ^ «Reddit verbannt Deepfake-Pornos — derStandard.de» . DER STANDARD (на австрийском немецком языке). Архивировано из оригинала 9 ноября 2019 года . Проверено 9 ноября 2019 г.
  212. ^ Робертсон, Ади (7 февраля 2018 г.). «Reddit запрещает «дипфейковые» порносообщества с искусственным интеллектом» . Грань . Архивировано из оригинала 24 сентября 2019 года . Проверено 9 ноября 2019 г.
  213. ^ Коул, Саманта (6 февраля 2018 г.). «Twitter — новейшая платформа для запрета порнографии, созданной искусственным интеллектом» . Порок . Архивировано из оригинала 1 ноября 2019 года . Проверено 8 ноября 2019 г.
  214. ^ Прайс, Роб (27 января 2018 г.). «Discord только что закрыл чат-группу, посвященную обмену порновидео, отредактированными с помощью искусственного интеллекта и включающим знаменитостей» . Бизнес-инсайдер Австралии . Архивировано из оригинала 15 декабря 2019 года . Проверено 28 ноября 2019 г. .
  215. ^ «Твиттер запрещает дипфейковое порно, созданное искусственным интеллектом» . Engadget . 20 июля 2019 года. Архивировано из оригинала 15 декабря 2019 года . Проверено 28 ноября 2019 г. .
  216. ^ Перейти обратно: а б Харрелл, Дрю. «Фейковые порновидео используются в качестве оружия для преследования и унижения женщин: «Каждый является потенциальной мишенью» » . Вашингтон Пост . Архивировано из оригинала 2 января 2019 года . Проверено 1 января 2019 г.
  217. ^ Перейти обратно: а б Коул, Саманта (6 февраля 2018 г.). «Pornhub запрещает фейковые порновидео, созданные с помощью искусственного интеллекта, и утверждает, что они созданы без согласия» . Порок . Архивировано из оригинала 1 ноября 2019 года . Проверено 9 ноября 2019 г.
  218. ^ Берес, Дэймон; Гилмер, Маркус (2 февраля 2018 г.). «Руководство по «дипфейкам», последнему моральному кризису в Интернете» . Машаемый . Архивировано из оригинала 9 декабря 2019 года . Проверено 9 ноября 2019 г.
  219. ^ Перейти обратно: а б «Facebook пообещал отказаться от дипфейкового видео Марка Цукерберга» . Обзор технологий Массачусетского технологического института . Архивировано из оригинала 16 октября 2019 года . Проверено 9 ноября 2019 г.
  220. ^ Коул, Саманта (11 июня 2019 г.). «Этот дипфейк Марка Цукерберга проверяет политику Facebook в отношении фейкового видео» . Порок . Архивировано из оригинала 12 октября 2019 года . Проверено 9 ноября 2019 г.
  221. ^ Андерсон, Мартин (2022). Google запретил обучение дипфейков в Colab. Архивировано 30 мая 2022 г. на Wayback Machine , Unite.ai, 28 мая 2022 г.
  222. ^ Майберг, Эмануэль (2022). Требуется 2 клика, чтобы перейти от «Глубокого Тома Круза» к мерзкому дипфейковому порно. Архивировано 30 мая 2022 года на Wayback Machine , VICE, 17 мая 2022 года.
  223. ^ Сассе, Бен (21 декабря 2018 г.). «S. 3805–115-й Конгресс (2017–2018 гг.): Закон о запрете злонамеренных глубоких фейков 2018 года» . www.congress.gov . Архивировано из оригинала 16 октября 2019 года . Проверено 16 октября 2019 г.
  224. ^ « Дипфейковая порнография из мести теперь запрещена в Вирджинии» . ТехКранч . Июль 2019. Архивировано из оригинала 14 июля 2021 года . Проверено 16 октября 2019 г.
  225. ^ Яконо Браун, Нина (15 июля 2019 г.). «Конгресс хочет раскрыть дипфейки к 2020 году. Это должно нас беспокоить» . Журнал «Сланец» . Архивировано из оригинала 16 октября 2019 года . Проверено 16 октября 2019 г.
  226. ^ Перейти обратно: а б «Текст законопроекта — AB-602 Изображение человека, использующего цифровые или электронные технологии: материалы откровенно сексуального характера: причина иска» . leginfo.legislature.ca.gov . Архивировано из оригинала 17 ноября 2019 года . Проверено 9 ноября 2019 г.
  227. ^ Перейти обратно: а б «Текст законопроекта - Выборы AB-730: вводящие в заблуждение аудио или визуальные средства массовой информации» . leginfo.legislature.ca.gov . Архивировано из оригинала 31 октября 2019 года . Проверено 9 ноября 2019 г.
  228. ^ «Китай стремится искоренить фейковые новости и дипфейки с помощью новых правил онлайн-контента» . Reuters.com . Рейтер . 29 ноября 2019 года. Архивировано из оригинала 17 декабря 2019 года . Проверено 17 декабря 2019 г.
  229. ^ Статт, Ник (29 ноября 2019 г.). «Китай считает уголовным преступлением публикацию дипфейков или фейковых новостей без раскрытия информации» . Грань . Архивировано из оригинала 22 декабря 2019 года . Проверено 17 декабря 2019 г.
  230. Призыв к законопроекту об апскирте, включающему запрет на «дипфейковую» порнографию. Архивировано 21 июня 2018 года в Wayback Machine The Guardian.
  231. ^ [2] Архивировано 22 ноября 2019 г. в Wayback Machine, см. стр. 18.
  232. ^ Богарт, Николь (10 сентября 2019 г.). «Как дипфейки могут повлиять на выборы в Канаде в 2019 году» . Федеральные выборы 2019 . Архивировано из оригинала 27 января 2020 года . Проверено 28 января 2020 г.
  233. ^ «Что может сделать закон с дипфейками» . Mcmillan.ca . Архивировано из оригинала 7 декабря 2019 года . Проверено 28 января 2020 г.
  234. ^ Венкатасубббу, Сатиш (27 июня 2023 г.). «Как дипфейки используются для мошенничества с вами и мной? Текущие тенденции в обнаружении с использованием искусственного интеллекта и правовые нормы во всем мире» . кибермитра.в . Архивировано из оригинала 10 июня 2024 года . Проверено 3 июля 2023 г.
  235. ^ Ромеро-Морено, Фелипе (29 марта 2024 г.). «Генераторный искусственный интеллект и дипфейки: правозащитный подход к борьбе с вредным контентом» . Международное обозрение права, компьютеров и технологий . 39 (2): 1–30. дои : 10.1080/13600869.2024.2324540 . hdl : 2299/20431 . ISSN   1360-0869 .
  236. ^ Hatmaker, Taylor (1 May 2018). "DARPA is funding new tech that can identify manipulated videos and 'deepfakes'". TechCrunch. Archived from the original on 8 December 2023. Retrieved 14 April 2024.
  237. ^ Hsu, Jeremy (22 June 2018). "Experts Bet on First Deepfakes Political Scandal - IEEE Spectrum". spectrum.ieee.org. Archived from the original on 22 February 2024. Retrieved 14 April 2024.
  238. ^ "Media Forensics". www.darpa.mil. Archived from the original on 29 October 2020. Retrieved 7 October 2020.
  239. ^ "The US military is funding an effort to catch deepfakes and other AI trickery". MIT Technology Review. Archived from the original on 1 November 2020. Retrieved 7 October 2020.
  240. ^ Collins, Connor (11 March 2019). "DARPA Tackles Deepfakes With AI". GovCIO Media & Research. Archived from the original on 2 March 2024. Retrieved 14 April 2024.
  241. ^ Jump up to: a b "DARPA Is Taking On the Deepfake Problem". Nextgov.com. 6 August 2019. Archived from the original on 28 October 2020. Retrieved 7 October 2020.
  242. ^ Sybert, Sarah (16 September 2021). "DARPA Launches New Programs to Detect Falsified Media". GovCIO Media & Research. Archived from the original on 10 June 2024. Retrieved 14 April 2024.
  243. ^ Cooper, Naomi (15 March 2024). "DARPA Launches 2 New Efforts to Boost Defenses Against Manipulated Media". Archived from the original on 15 March 2024. Retrieved 14 April 2024.
  244. ^ "Semantic Forensics - Analytic Catalog". semanticforensics.com. Archived from the original on 18 April 2024. Retrieved 14 April 2024.
  245. ^ National Academies of Sciences, Engineering, and Medicine (22 June 2023). "Nobel Prize Summit Fuels Initiatives to Combat Misinformation and Disinformation and Build Trust in Science". National Academies of Sciences, Engineering, and Medicine. Wikidata Q124711722.{{cite journal}}: CS1 maint: multiple names: authors list (link)
  246. ^ "Picaper". Internet Speculative Fiction Database. Archived from the original on 29 July 2020. Retrieved 9 July 2019.
  247. ^ Kerr, Philip (2010). A Philosophical Investigation. National Geographic Books. ISBN 978-0143117537.
  248. ^ Bernal, Natasha (8 October 2019). "The disturbing truth behind The Capture and real life deepfakes". The Telegraph. Archived from the original on 14 October 2019. Retrieved 24 October 2019.
  249. ^ Crawley, Peter (5 September 2019). "The Capture: A BBC thriller of surveillance, distortion and duplicity". The Irish Times. Archived from the original on 9 September 2019. Retrieved 24 October 2019.
  250. ^ John Travolta is Forrest Gump [DeepFake]. Archived from the original on 20 April 2024. Retrieved 20 April 2024 – via www.youtube.com.
  251. ^ Novak, Lauren (24 November 2023). "John Travolta Turned Down 'Forrest Gump' & Other Stars Who Chose Not to Play Iconic Characters". Remind. Archived from the original on 10 June 2024. Retrieved 20 April 2024.
  252. ^ "ESPN Films Latest 30 for 30 Documentary Al Davis vs. The NFL to Premiere February 4" (Press release). ESPN. 15 January 2021. Archived from the original on 6 February 2021. Retrieved 5 February 2021.
  253. ^ Sprung, Shlomo (1 February 2021). "ESPN Documentary 'Al Davis Vs The NFL' Uses Deepfake Technology To Bring Late Raiders Owner Back To Life". Forbes. Archived from the original on 14 April 2021. Retrieved 4 February 2021.
  254. ^ "Hudson and Rex". Archived from the original on 13 January 2022. Retrieved 13 January 2022.
  255. ^ Jump up to: a b Wood, Mikael (9 May 2022). "Watch Kendrick Lamar morph into O.J., Kanye, Kobe, Nipsey Hussle in new video". Los Angeles Times. Archived from the original on 30 October 2022. Retrieved 10 May 2022.
  256. ^ Aloe Blacc - Wake Me Up (Universal Language Mix), 20 April 2022, archived from the original on 24 August 2022, retrieved 24 August 2022
  257. ^ "Watch Aloe Blacc Perform "Wake Me Up" in 3 Languages to Honor Avicii Using Respeecher AI Translation". Voicebot.ai. 5 May 2022. Archived from the original on 24 August 2022. Retrieved 24 August 2022.
  258. ^ Lees, Dominic (27 January 2023). "Deep Fake Neighbour Wars: ITV's comedy shows how AI can transform popular culture". The Conversation. Archived from the original on 24 June 2023. Retrieved 3 July 2023.

Further reading[edit]

  • Daniel Immerwahr, "Your Lying Eyes: People now use A.I. to generate fake videos indistinguishable from real ones. How much does it matter?", The New Yorker, 20 November 2023, pp. 54–59. "If by 'deepfakes' we mean realistic videos produced using artificial intelligence that actually deceive people, then they barely exist. The fakes aren't deep, and the deeps aren't fake. [...] A.I.-generated videos are not, in general, operating in our media as counterfeited evidence. Their role better resembles that of cartoons, especially smutty ones." (p. 59.)

External links[edit]

Arc.Ask3.Ru: конец оригинального документа.
Arc.Ask3.Ru
Номер скриншота №: 46E59291460B0CA03DB4E3F079F17FAE__1718893200
URL1:https://en.wikipedia.org/wiki/Deepfake
Заголовок, (Title) документа по адресу, URL1:
Deepfake - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть, любые претензии не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, денежную единицу можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)