Цифровое клонирование
Эта статья написана как личное размышление, личное эссе или аргументативное эссе , в котором излагаются личные чувства редактора Википедии или представлен оригинальный аргумент по определенной теме. ( январь 2021 г. ) |
Часть серии о |
Искусственный интеллект |
---|
Цифровое клонирование — это новая технология, включающая алгоритмы глубокого обучения, которые позволяют манипулировать существующими в настоящее время аудио , фотографиями и видео , которые являются гиперреалистичными. [1] Одним из последствий такой технологии является то, что сверхреалистичные видео и фотографии мешают человеческому глазу различать, что реально, а что подделка. [2] Более того, поскольку различные компании делают такие технологии доступными для общественности, они могут принести различные выгоды, а также потенциальные юридические и этические проблемы.
Цифровое клонирование можно разделить на аудиовизуальное (AV), клонирование памяти, личности и потребительского поведения . [3] При AV-клонировании создание клонированной цифровой версии цифрового или нецифрового оригинала может использоваться, например, для создания поддельного изображения, аватара или поддельного видео или аудио человека, которого невозможно легко отличить от реальный человек, которого он призван представлять. Клон памяти и личности, такой как клон разума, по сути, является цифровой копией разума человека. Клон потребительского поведения — это профиль или группа клиентов на основе демографических данных.
Труби и Браун придумали термин «цифровой мысленный клон», чтобы обозначить эволюцию цифрового клонирования в более продвинутый персонализированный цифровой клон, который состоит из «копии всех известных данных и поведения конкретного живого человека, записывающей в режиме реального времени его действия». выбор, предпочтения, поведенческие тенденции и процессы принятия решений». [3]
Цифровое клонирование впервые стало популярным в индустрии развлечений. Идея цифровых клонов возникла у кинокомпаний, создающих виртуальных актеров умерших актеров. Когда актеры умирают во время съемок фильма, можно синтезировать цифровой клон актера, используя прошлые кадры, фотографии и записи голоса, чтобы имитировать реального человека и продолжить производство фильма. [4]
Современный искусственный интеллект позволил создавать дипфейки . Это включает в себя манипуляцию видео до такой степени, что человек, изображенный на видео, говорит или выполняет действия, на которые он или она, возможно, не давали согласия. [5] В апреле 2018 года BuzzFeed опубликовал дипфейковое видео Джордана Пила , на котором был изображен бывший президент Барак Обама , делающий заявления, которые он ранее не делал публично, чтобы предостеречь общественность от потенциальных опасностей дипфейков. [6]
Помимо дипфейков, такие компании, как Intellitar, теперь позволяют легко создавать цифровые клоны самих себя, загружая серию изображений и голосовых записей. По сути, это создает цифровое бессмертие , позволяя близким взаимодействовать с теми, кто умер. [7] Цифровое клонирование не только позволяет увековечить память своих близких в цифровом виде, но также может использоваться для создания аватаров исторических личностей и использоваться в образовательных целях.
Как упоминалось выше, с развитием различных технологий возникает множество проблем, включая кражу личных данных , утечку данных и другие этические проблемы. Одна из проблем цифрового клонирования заключается в том, что практически нет законов, защищающих потенциальных жертв от этих возможных проблем. [8]
Технология
[ редактировать ]Интеллектуальные платформы аватаров (IAP)
[ редактировать ]Интеллектуальную платформу аватаров (IAP) можно определить как онлайн-платформу, поддерживаемую искусственным интеллектом , которая позволяет создавать клоны . свои [7] Человек должен научить своего клона действовать и говорить как он сам, снабжая алгоритм многочисленными голосовыми записями и видео самого себя. [9] По сути, эта платформа становится местом, где человек живет вечно, поскольку он может взаимодействовать с другими аватарами на той же платформе. IAP становится платформой для достижения цифрового бессмертия , а также сохранения генеалогического древа и наследия для последующих поколений. [7]
Некоторые примеры IAP включают Intellitar и Eterni.me. Хотя большинство этих компаний все еще находятся на стадии разработки, все они пытаются достичь одной и той же цели: позволить пользователю создать точную копию самого себя, чтобы сохранить все воспоминания, которые у него есть в голове, в киберпространстве. [7] Некоторые включают бесплатную версию, которая позволяет пользователю выбирать свой аватар только из заданного набора изображений и аудио. Однако при использовании премиум-настройки эти компании попросят пользователя загрузить фотографии, видео и аудиозаписи одного из них, чтобы сформировать реалистичную версию себя. [10] Кроме того, чтобы гарантировать, что клон максимально похож на исходного человека, компании также поощряют взаимодействие со своим собственным клоном, общаясь с ним и отвечая на вопросы. Это позволяет алгоритму изучить когнитивные способности исходного человека и применить их к клону. Intellitar закрылся в 2012 году из-за споров об интеллектуальной собственности по поводу используемой технологии. [11]
Потенциальные проблемы с IAP включают потенциальную утечку данных и отсутствие согласия умершего. IAP должен иметь прочную основу и нести ответственность за утечку данных и взлом, чтобы защитить личную информацию умерших, которая может включать записи голоса, фотографии и сообщения. [9] Помимо риска нарушения конфиденциальности личной жизни , существует также риск нарушения конфиденциальности умершего . Хотя человек может дать согласие на создание своего цифрового клона до своей физической смерти, он не может дать согласие на действия, которые может предпринять цифровой клон.
Дипфейки
[ редактировать ]Как описано ранее, дипфейки — это форма видеоманипуляций, при которой можно изменить присутствующих людей, подавая различные изображения конкретного человека, которого они хотят. Кроме того, можно также изменить голос и слова человека на видео, просто отправив серию голосовых записей нового человека продолжительностью около одной или двух минут. В 2018 году было выпущено новое приложение под названием FakeApp, позволяющее общественности легко получить доступ к этой технологии для создания видео. Это приложение также использовалось для создания видео Buzzfeed о бывшем президенте Бараке Обаме . [6] [12] С помощью дипфейков отрасли могут сократить расходы на найм актеров или моделей для фильмов и рекламы, эффективно создавая видеоролики и фильмы по низкой цене, просто собирая серию фотографий и аудиозаписей с согласия человека. [13]
Потенциальная проблема с дипфейками заключается в том, что доступ предоставляется практически каждому, кто загружает различные приложения, предлагающие одну и ту же услугу. Поскольку любой, кто имеет доступ к этому инструменту, некоторые могут злонамеренно использовать приложение для создания порномести и манипулятивных видеороликов, в которых государственные чиновники делают заявления, которые они никогда не произнесут в реальной жизни. Это не только вторгается в частную жизнь человека, изображенного на видео, но и вызывает различные этические проблемы. [14]
Клонирование голоса
[ редактировать ]Клонирование голоса — это вариант метода аудиодипфейка , который использует искусственный интеллект для создания клона голоса человека. Клонирование голоса включает в себя алгоритм глубокого обучения , который использует голосовые записи человека и может синтезировать такой голос до такой степени, что он может точно воспроизводить человеческий голос с большой точностью тона и сходства. [15]
Для клонирования голоса требуются высокопроизводительные компьютеры. Обычно вычисления выполняются с использованием графического процессора (GPU) и очень часто прибегают к облачным вычислениям из-за огромного объема необходимых вычислений.
Аудиоданные для обучения необходимо ввести в модель искусственного интеллекта. Зачастую это оригинальные записи, служащие примером голоса заинтересованного лица. Искусственный интеллект может использовать эти данные для создания аутентичного голоса, который может воспроизводить все, что набирается (так называемое преобразование текста в речь) или произносится (так называемое преобразование речи в речь).
Эта технология беспокоит многих из-за ее влияния на различные вопросы, от политического дискурса до верховенства закона. Некоторые из первых предупреждающих знаков уже появились в виде телефонного мошенничества. [16] [17] и фейковые видео в социальных сетях, где люди делают то, чего никогда не делали. [18]
Защита от этих угроз может быть реализована в основном двумя способами. Первый — создать способ анализа или определения подлинности видео. Этот подход неизбежно окажется выигрышным, поскольку постоянно развивающиеся генераторы побеждают эти детекторы. Второй способ — встроить информацию о создании и модификации в программное или аппаратное обеспечение. [19] [20] Это сработало бы только в том случае, если бы данные нельзя было редактировать, но идея состояла бы в том, чтобы создать неслышимый водяной знак, который бы служил источником правды. [21] Другими словами, мы можем узнать, является ли видео подлинным, увидев, где оно было снято, произведено, отредактировано и т. д. [15]
15.ai — некоммерческое бесплатное веб-приложение, которое началось как доказательство концепции демократизации озвучки и дубляжа с использованием технологий — предоставляет общественности доступ к такой технологии. [22] Его бесплатный и некоммерческий характер (с единственным условием: при использовании проекта должна быть указана соответствующая информация). [23] ), простота использования и существенные улучшения текущих реализаций преобразования текста в речь получили высокую оценку пользователей; [24] [25] [26] однако некоторые критики и актеры озвучивания ставят под сомнение законность и этичность оставления такой технологии общедоступной и легкодоступной. [22] [27] [28] [29]
Хотя это приложение все еще находится на стадии разработки, оно быстро развивается, поскольку крупные технологические корпорации, такие как Google и Amazon, вкладывают в разработку огромные суммы денег. [30]
Некоторые из положительных применений клонирования голоса включают возможность синтезировать миллионы аудиокниг без использования человеческого труда. [31] Кроме того, клонирование голоса использовалось для перевода контента подкаста на разные языки с использованием голоса подкастера. [32] Другой вариант включает в себя тех, кто, возможно, потерял голос, может вернуть себе чувство индивидуальности, создав свой голосовой клон, введя записи их разговоров до того, как они потеряли голос. [33]
С другой стороны, клонирование голоса также может быть использовано не по назначению. Примером этого являются клонированные голоса знаменитостей и государственных чиновников, и голос может сказать что-то, что спровоцирует конфликт, несмотря на то, что реальный человек не имеет никакой связи с тем, что сказал его голос. [34]
Признавая угрозу, которую клонирование голоса представляет для конфиденциальности, цивилизованности и демократических процессов, учреждения, в том числе Федеральная торговая комиссия , Министерства юстиции и Агентство перспективных исследовательских проектов обороны США (DARPA) и Министерство образования, университетов и исследований Италии (MIUR) рассмотрели различные варианты использования аудиодипфейков и методы, которые можно использовать для борьбы с ними. [35] [36] [37]
Конструктивное использование
[ редактировать ]Образование
[ редактировать ]Цифровое клонирование может быть полезно в образовательных целях, создавая более захватывающий опыт для учащихся. Некоторые учащиеся могут лучше учиться благодаря более интерактивному опыту, а создание дипфейков может повысить способность учащихся к обучению. Одним из примеров этого является создание цифрового клона исторических личностей, таких как Авраам Линкольн , чтобы показать, с какими проблемами он столкнулся в течение своей жизни и как он смог их преодолеть. Другой пример использования цифровых клонов в образовательных целях — создание цифрового клона самих говорящих. У различных правозащитных групп могут возникнуть проблемы с графиком, поскольку в течение года они совершают поездку по различным школам. Однако, создавая свои цифровые клоны, их клоны могут представить тему там, где группа физически не может этого сделать. Эти образовательные преимущества могут дать учащимся новый способ обучения, а также предоставить доступ тем, кто раньше не мог получить доступ к ресурсам из-за условий окружающей среды. [13]
Искусство
[ редактировать ]Хотя цифровое клонирование уже некоторое время используется в индустрии развлечений и искусства, искусственный интеллект может значительно расширить использование этих технологий в отрасли. Киноиндустрия может создавать еще более гиперреалистичных актеров и актрис, которые умерли. Кроме того, киноиндустрия также может создавать цифровые клоны сцен из фильмов, которые могут потребовать дополнений, что может помочь значительно сократить затраты на производство. Однако цифровое клонирование и другие технологии могут быть полезны в некоммерческих целях. Например, художники могут быть более выразительными, если хотят синтезировать аватары для своего видеопроизводства. Они также могут создавать цифровые аватары, чтобы оформлять свою работу и помогать формулировать идеи, прежде чем приступить к работе над окончательной работой. [13] Актер Вэл Килмер потерял голос в 2014 году после трахеотомии из-за рака горла .Однако он стал партнером компании, занимающейся искусственным интеллектом, которая создала синтетический голос на основе его предыдущих записей.Голос позволил Килмеру вернуть себе роль «Ледяного человека» из «Лучшего стрелка» 1986 года в сиквеле фильма « Лучший стрелок: Маверик» 2022 года . [38]
Цифровое бессмертие
[ редактировать ]Хотя цифровое бессмертие существует уже некоторое время, поскольку учетные записи умерших в социальных сетях продолжают оставаться в киберпространстве, создание бессмертного виртуального клона приобретает новый смысл. Создав цифровой клон, можно не только запечатлеть свое визуальное присутствие, но и свои манеры, включая личность и познание. Благодаря цифровому бессмертию можно продолжать взаимодействовать со своими близкими после их смерти, что, возможно, может положить конец барьеру физической смерти. Более того, семьи могут связываться с несколькими поколениями, образуя в некотором смысле генеалогическое древо, чтобы передать семейное наследие будущим поколениям, обеспечивая возможность передачи истории. [7]
Обеспокоенность
[ редактировать ]Фейковые новости
[ редактировать ]Из-за отсутствия правил в отношении дипфейков возникает ряд проблем. Некоторые из дипфейковых видео, которые могут принести потенциальный вред, включают изображения политических чиновников, демонстрирующих неподобающее поведение, полицейских, расстреливающих безоружных чернокожих мужчин, и солдат, убивающих невинных гражданских лиц, которые могут начать появляться, хотя этого, возможно, никогда не происходило в реальной жизни. [39] Поскольку в Интернете публикуются такие гиперреалистичные видеоролики, общественность становится очень легко дезинформировать, что может побудить людей принять меры, способствуя тем самым порочному кругу ненужного вреда. Кроме того, с ростом количества фейковых новостей в последних новостях также существует возможность объединения дипфейков и фейковых новостей. Это еще больше затруднит различение того, что настоящее, а что фальшивое. Визуальная информация может быть очень убедительной для человеческого глаза, поэтому сочетание дипфейков и фейковых новостей может оказать пагубное влияние на общество. [13] Компании, занимающиеся социальными сетями и другими новостными платформами, должны ввести строгие правила. [40]
Личное использование
[ редактировать ]Еще одна причина, по которой дипфейки могут использоваться злонамеренно, заключается в том, что один саботирует другого на личном уровне. Благодаря возросшей доступности технологий создания дипфейков шантажисты и воры могут легко извлекать личную информацию для финансовой выгоды и других целей, создавая видео близких жертвы с просьбой о помощи. [13] Кроме того, клонирование голоса может быть использовано злоумышленниками для совершения фальшивых телефонных звонков жертвам. Голос и манеры телефонных звонков будут такими же, как у человека, что может обманом заставить жертву передать личную информацию , не зная об этом. преступнику [41] В качестве альтернативы злоумышленник может, например, создать дипфейк человека, наложенный на видео, чтобы получить плату за шантаж и/или в качестве акта порномести .
Создание дипфейков и голосовых клонов для личного использования может быть чрезвычайно затруднено по закону, поскольку при этом нет никакого коммерческого вреда. Скорее, они часто приходят в форме психологического и эмоционального ущерба, что затрудняет предоставление суду средств правовой защиты. [5]
Этические последствия
[ редактировать ]Хотя при разработке таких технологий возникает множество юридических проблем, существуют и этические проблемы, которые не могут быть защищены действующим законодательством. Одной из самых больших проблем, связанных с использованием дипфейков и клонирования голоса, является возможность кражи личных данных. Однако за кражу личных данных, связанную с дипфейками, сложно привлечься к ответственности, поскольку в настоящее время не существует законов, специфичных для дипфейков. Более того, ущерб, который может принести злонамеренное использование дипфейков, носит скорее психологический и эмоциональный, а не финансовый характер, что затрудняет предоставление средств правовой защиты. Аллен утверждает, что подход к частной жизни аналогичен категорическому императиву Канта . [5]
Еще одним этическим последствием является использование частной и личной информации, от которой необходимо отказаться, чтобы использовать технологию. Поскольку цифровое клонирование, дипфейки и голосовое клонирование используют алгоритм глубокого обучения, чем больше информации получает алгоритм, тем лучше результаты. [42] Однако на каждой платформе существует риск утечки данных, что потенциально может привести к тому, что группы, на которые пользователи никогда не давали согласия, получат доступ к очень личной информации. Кроме того, конфиденциальность после смерти оказывается под вопросом, когда члены семьи близкого человека пытаются собрать как можно больше информации для создания цифрового клона умершего без разрешения того, какой объем информации они готовы предоставить. [43]
Существующие законы в США
[ редактировать ]Законы об авторском праве
[ редактировать ]В Соединенных Штатах законы об авторском праве требуют определенной оригинальности и творчества, чтобы защитить индивидуальность автора. Однако создание цифрового клона просто означает использование личных данных, таких как фотографии, голосовые записи и другая информация, для создания виртуального человека, максимально приближенного к реальному человеку. В решении Верховного суда по делу Feist Publications Inc. против Rural Television Services Company, Inc. Судья О'Коннор подчеркнул важность оригинальности и некоторой степени творчества. Однако степень оригинальности и креативности четко не определена, что создает серую зону для законов об авторском праве. [44] Для создания цифровых клонов требуются не только данные о человеке, но и данные создателя о том, как цифровой клон должен действовать или двигаться. В деле «Мешверкс против Тойоты» этот вопрос был поднят, и суд постановил, что к цифровым клонам следует применять те же законы об авторском праве, что и для фотографий. [44]
Право на гласность
[ редактировать ]При нынешнем отсутствии законодательства, защищающего людей от потенциального злонамеренного использования цифрового клонирования, право на гласность может быть лучшим способом защитить человека в юридических условиях. [4] Право на публичность , также называемое правами личности, дает человеку автономию, когда дело доходит до контроля над собственным голосом, внешним видом и другими аспектами, которые по сути составляют его личность в коммерческой среде. [45] Если без их согласия возникает дипфейковое видео или его цифровой клон, изображающий человека, совершающего действия или делающего заявления, выходящие за рамки его личности, они могут подать в суд, заявив, что это нарушает их право на публичность. Хотя в праве на публичность прямо указано, что оно предназначено для защиты имиджа человека в коммерческих целях, что требует определенного вида прибыли, некоторые утверждают, что законодательство может быть обновлено для защиты имиджа и личности практически любого человека. [46] Еще одно важное замечание: право на гласность реализуется только в определенных штатах, поэтому некоторые штаты могут интерпретировать это право по-разному по сравнению с другими штатами.
Профилактические меры
[ редактировать ]Регулирование
[ редактировать ]Цифровые и цифровые клоны мышления поднимают юридические вопросы, касающиеся конфиденциальности данных, информированного согласия, борьбы с дискриминацией, авторских прав и права на гласность. Большему количеству юрисдикций необходимо срочно принять законодательство, подобное Общему регламенту защиты данных в Европе, чтобы защитить людей от недобросовестного и вредного использования их данных, а также от несанкционированной разработки и использования цифровых мысленных клонов. [3]
Технология
[ редактировать ]Один из способов не стать жертвой любой из упомянутых выше технологий — разработать искусственный интеллект против этих алгоритмов. Уже есть несколько компаний, которые разработали искусственный интеллект, который может обнаруживать манипулируемые изображения, просматривая узоры в каждом пикселе. [47] Применяя аналогичную логику, они пытаются создать программное обеспечение, которое берет каждый кадр данного видео и анализирует его пиксель за пикселем, чтобы найти структуру исходного видео и определить, было ли оно обработано или нет. [48]
Помимо разработки новой технологии, способной обнаруживать любые манипуляции с видео, многие исследователи подчеркивают важность создания частными корпорациями более строгих правил защиты частной жизни. [30] С развитием искусственного интеллекта необходимо задаться вопросом, как это влияет на общество сегодня, поскольку оно начинает проявляться практически во всех аспектах жизни общества, включая медицину , образование , политику и экономику . Более того, искусственный интеллект начнет появляться в различных аспектах жизни общества, поэтому важно иметь законы, защищающие права человека по мере того, как технологии берут верх. Поскольку частный сектор получает больше цифровой власти над обществом, важно установить строгие правила и законы, чтобы предотвратить злонамеренное использование персональных данных частными корпорациями. Кроме того, предыстория различных утечек данных и нарушений политики конфиденциальности также должна служить предупреждением о том, как к личной информации можно получить доступ и использовать ее без согласия человека. [8]
Цифровая грамотность
[ редактировать ]Еще один способ предотвратить вред от этих технологий — рассказать людям о плюсах и минусах цифрового клонирования. Таким образом, это дает каждому человеку возможность принять рациональное решение, исходя из его собственных обстоятельств. [49] Кроме того, также важно обучать людей тому, как защитить информацию, которую они размещают в Интернете. Повышая цифровую грамотность населения, люди имеют больше шансов определить, было ли данное видео манипулировано, поскольку они могут более скептически относиться к информации, которую находят в Интернете. [30]
См. также
[ редактировать ]- Искусственный интеллект
- Дипфейк
- Глубокое обучение
- Цифровые медиа
- Посмертная конфиденциальность
- Виртуальный актер
Ссылки
[ редактировать ]- ^ Флориди, Лучано (2018). «Искусственный интеллект, дипфейки и будущее эктайпов» . Философия и технология . 31 (3): 317–321. дои : 10.1007/s13347-018-0325-3 .
- ^ Борель, Брук (2018). «Клики, ложь и видео». Научный американец . 319 (4): 38–43. Бибкод : 2018SciAm.319d..38B . дои : 10.1038/scientificamerican1018-38 . ПМИД 30273328 . S2CID 52902634 .
- ^ Jump up to: а б с Труби, Джон; Браун, Рафаэль (2021). «Клоны цифровой мысли человека: Святой Грааль искусственного интеллекта для больших данных» . Закон об информационных и коммуникационных технологиях . 30 (2): 140–168. дои : 10.1080/13600834.2020.1850174 . hdl : 10576/17266 . S2CID 229442428 . Текст был скопирован из этого источника, который доступен по международной лицензии Creative Commons Attribution 4.0 .
- ^ Jump up to: а б Борода, Джозеф (2001). «КЛОНЫ, КОСТИ И СУМЕРКИ ЗОНЫ: Защита цифровой личности быстрого, мертвого и воображаемого». Журнал технологического права Беркли . 16 (3): 1165–1271. JSTOR 24116971 .
- ^ Jump up to: а б с Аллен, Анита (2016). «Защита собственной конфиденциальности в экономике больших данных» . Гарвардский обзор права . 130 (2): 71–86.
- ^ Jump up to: а б Сильверман, Крейг (апрель 2018 г.). «Как распознать дипфейк, подобный видео Барака Обамы и Джордана Пила» . Баззфид .
- ^ Jump up to: а б с д и Миз, Джеймс (2015). «Посмертная личность и возможности цифровых медиа». Смертность . 20 (4): 408–420. дои : 10.1080/13576275.2015.1083724 . hdl : 10453/69288 . S2CID 147550696 .
- ^ Jump up to: а б Немиц, Пауль Фридрих (2018). «Конституционная демократия и технологии в эпоху искусственного интеллекта» . Философские труды Королевского общества A: Математические, физические и технические науки . 59 (9): 20180089. Бибкод : 2018RSPTA.37680089N . дои : 10.1098/rsta.2018.0089 . ПМИД 30323003 .
- ^ Jump up to: а б Михалик, Линдси (2013). « « Призрачные фрагменты »: цифровой траур и интермедийный перформанс». Театральный ежегодник . 66 (1): 41–64. ПроКвест 1501743129 .
- ^ Урсаче, Мариус. «Вечное время» .
- ^ «Этот стартап обещал 10 000 человек вечную цифровую жизнь, но затем умер | Fusion» . Архивировано из оригинала 30 декабря 2016 года . Проверено 24 мая 2020 г.
- ^ С. Агарвал, Х. Фарид, Ю. Гу, М. Хе, К. Нагано и Х. Ли, «Защита мировых лидеров от глубоких фейков», на семинарах конференции IEEE по компьютерному зрению и распознаванию образов (CVPR), Июнь 2019.
- ^ Jump up to: а б с д и Чесни, Роберт (2018). «Глубокие фейки: надвигающаяся угроза конфиденциальности, демократии и национальной безопасности» (PDF) . Электронный журнал ССРН . 26 (1): 1–58.
- ^ Суваджанакорн, Супасорн (2017). «Синтезируя Обаму» (PDF) . Транзакции ACM с графикой . 36 (4): 1–13. дои : 10.1145/3072959.3073640 . S2CID 207586187 .
- ^ Jump up to: а б «Все, что вам нужно знать о Deepfake Voice» . Веритон . 1 октября 2021 г. Проверено 30 июня 2022 г.
- ^ Дэвид, Доминик. «Сообщение совета: анализ развития технологии Deepfake Voice» . Форбс . Проверено 30 июня 2022 г.
- ^ Брюстер, Томас. «Мошенники клонировали голос директора компании при ограблении банка на сумму 35 миллионов долларов, выяснила полиция» . Форбс . Проверено 29 июня 2022 г.
- ^ Ортутай, Мэтт О'Брайен и Барбара. «Почему клонирование голоса Энтони Бурдена в документальном фильме «Roadrunner» пугает людей» . США СЕГОДНЯ . Проверено 30 июня 2022 г.
- ^ Рашид, доктор медицины Мамунур; Ли, Сук-Хван; Квон, Ки Рён (2021). «Технология блокчейн для борьбы с дипфейками и защиты целостности видео/изображений» . Журнал Корейского мультимедийного общества . 24 (8): 1044–1058. дои : 10.9717/kmms.2021.24.8.1044 . ISSN 1229-7771 .
- ^ Фрага-Ламас, Паула; Фернандес-Карамес, Тьяго М. (20 октября 2019 г.). «Фейковые новости, дезинформация и дипфейки: использование технологий распределенного реестра и блокчейна для борьбы с цифровым обманом и поддельной реальностью». ИТ-специалист . 22 (2): 53–59. arXiv : 1904.05386 . дои : 10.1109/MITP.2020.2977589 .
- ^ Ки Чан, Кристофер Чун; Кумар, Вимал; Делани, Стивен; Гочу, Мунхжаргал (сентябрь 2020 г.). «Борьба с дипфейками: Multi-LSTM и блокчейн как доказательство подлинности цифровых медиа» . Международная конференция IEEE/ITU 2020 «Искусственный интеллект во благо» (AI4G) . стр. 55–62. дои : 10.1109/AI4G50087.2020.9311067 . ISBN 978-1-7281-7031-2 . S2CID 231618774 .
- ^ Jump up to: а б Нг, Эндрю (1 апреля 2020 г.). «Клонирование голоса для масс» . Пакет . Архивировано из оригинала 7 августа 2020 года . Проверено 5 апреля 2020 г.
- ^ «15.ai — Часто задаваемые вопросы» . 15.ай. 18 января 2021 года. Архивировано из оригинала 3 марта 2020 года . Проверено 18 января 2021 г.
- ^ Руперт, Лиана (18 января 2021 г.). «Заставьте GLaDOS из Portal и других любимых персонажей говорить самые странные вещи с помощью этого приложения» . Игровой информер . Архивировано из оригинала 18 января 2021 года . Проверено 18 января 2021 г.
- ^ Цвизен, Зак (18 января 2021 г.). «Веб-сайт позволяет заставить GLaDOS говорить все, что вы хотите» . Котаку . Архивировано из оригинала 17 января 2021 года . Проверено 18 января 2021 г.
- ^ Клейтон, Натали (19 января 2021 г.). «Заставьте актеров TF2 декламировать старые мемы с помощью этого инструмента преобразования текста в речь ИИ» . ПК-геймер . Архивировано из оригинала 19 января 2021 года . Проверено 19 января 2021 г.
- ^ Нг, Эндрю (7 марта 2021 г.). «Еженедельный информационный бюллетень № 83» . Пакет . Архивировано из оригинала 26 февраля 2022 года . Проверено 7 марта 2021 г.
- ^ Лопес, Уле (16 января 2022 г.). «Фирма NFT, поддерживаемая Троем Бейкером, признает, что без разрешения использовала голосовые линии, взятые из другого сервиса» . Wccftech . Архивировано из оригинала 16 января 2022 года . Проверено 7 июня 2022 г.
- ^ Генри, Джозеф (18 января 2022 г.). «Сообщается, что партнер Троя Бейкера, компания NFT Voiceverse, крадет голосовые строки с 15.ai» . Тех Таймс . Архивировано из оригинала 26 января 2022 года . Проверено 14 февраля 2022 г.
- ^ Jump up to: а б с Брэйн, Сара (2018). «Визуальные данные и закон» . Право и социальные исследования . 43 (4): 1149–1163. дои : 10.1111/lsi.12373 . ПМЦ 10857868 . ПМИД 38343725 . S2CID 150076575 .
- ^ Чадха, Анупама; Кумар, Вайбхав; Кашьяп, Сону; Гупта, Маянк (2021), Сингх, Прадип Кумар; Вежхонь, Славомир Т.; Танвар, Судип; Ганжа, Мария (ред.), «Deepfake: Обзор» , Материалы второй международной конференции по вычислительной технике, коммуникациям и кибербезопасности , Конспекты лекций по сетям и системам, том. 203, Сингапур: Springer Singapore, стр. 557–566, doi : 10.1007/978-981-16-0733-2_39 , ISBN. 978-981-16-0732-5 , S2CID 236666289 , получено 29 июня 2022 г.
- ^ Барлетта, Брайан (12 октября 2021 г.). «Звучит прибыльно по-испански!» . adtech.podnews.net . Проверено 30 июня 2022 г.
- ^ Этьен, Ванесса (19 августа 2021 г.). «Вэл Килмер возвращает себе голос после борьбы с раком горла с помощью технологии искусственного интеллекта: узнайте результаты» . ЛЮДИ.com . Проверено 30 июня 2022 г.
- ^ Флетчер, Джон (2018). «Дипфейки, искусственный интеллект и какая-то антиутопия: новые лица онлайн-спектакля постфактум». Театральный журнал . 70 (4): 455–71. дои : 10.1353/tj.2018.0097 . S2CID 191988083 .
- ^ «Эксперты по клонированию голоса освещают преступления, положительные примеры использования и меры безопасности» . 29 января 2020 г.
- ^ «ПРЕМЬЕР-Проект» . сайты.google.com . Проверено 29 июня 2022 г.
- ^ «DARPA объявляет об отборе исследовательских групп для участия в программе семантической криминалистики» . www.darpa.mil . Проверено 1 июля 2022 г.
- ^ Тейлор, Хлоя (27 мая 2022 г.). «Как ИИ вернул «Ледяного человека» Вэла Килмера в Top Gun: Maverick» . Удача . Проверено 5 июля 2022 г.
- ^ Чесни, Роберт (2019). «Дипфейки и новая война дезинформации: грядущая эпоха геополитики постправды» . Иностранные дела . 98 (1): 147–55. Архивировано из оригинала 23 апреля 2019 года . Проверено 25 апреля 2019 г.
- ^ Холл, Кэтлин (2018). «Дипфейковые видео: когда увидеть не значит поверить» . Журнал католического университета права и технологий . 27 (1): 51–75.
- ^ Пудель, Сорпул (2016). «Интернет вещей: базовые технологии, совместимость и угрозы конфиденциальности и безопасности» . Обзор технологического права Беркли . 31 (2): 997–1021. Архивировано из оригинала 30 апреля 2017 года . Проверено 25 апреля 2019 г.
- ^ Данг, Л. Мин (2018). «Идентификация лиц на основе глубокого обучения с использованием сверточной нейронной сети» . Прикладные науки . 8 (12): 2610. дои : 10.3390/app8122610 .
- ^ Савин-Баден, Магги (2018). «Цифровое бессмертие и виртуальные люди» (PDF) . Постцифровая наука и образование . 1 (1): 87–103. дои : 10.1007/s42438-018-0007-6 .
- ^ Jump up to: а б Ньюэлл, Брайс Клейтон (2010). «Независимое творчество и оригинальность в эпоху имитации реальности: сравнительный анализ авторских прав и защиты баз данных для цифровых моделей реальных людей» . Международное право и менеджмент Университета Бригама Янга . 6 (2): 93–126.
- ^ Геринг, Кевин (2018). «Право на публичность в Нью-Йорке: переосмысление конфиденциальности и первая поправка в эпоху цифровых технологий - Весенний симпозиум 2 AELJ» . Электронный журнал ССРН . 36 (3): 601–635.
- ^ Харрис, Дуглас (2019). «Дипфейки: ложная порнография уже здесь, и закон не может вас защитить» . Обзор права и технологий герцога . 17 : 99–127.
- ^ Басс, Харви (1998). «Парадигма аутентификации фотографических доказательств в эпоху цифровых технологий» . Обзор права Томаса Джефферсона . 20 (2): 303–322.
- ^ Вэнь, Цзе (2012). «Анализ вредоносного поведения на основе рождения Cyber-I». Журнал интеллектуального производства . 25 (1): 147–55. дои : 10.1007/s10845-012-0681-2 . S2CID 26225937 . ПроКвест 1490889853 .
- ^ Марас, Мари-Элен (2018). «Определение подлинности видеодоказательств в эпоху искусственного интеллекта и после появления дипфейковых видео». Международный журнал доказательств и доказательств . 23 (1): 255–262. дои : 10.1177/1365712718807226 . S2CID 150336977 .