Jump to content

ФотоДНК

PhotoDNA  — это запатентованная идентификации изображений и фильтрации контента. технология [1] широко используется поставщиками онлайн-услуг . [2] [3]

PhotoDNA была разработана Microsoft Research и Хани Фаридом , профессором Дартмутского колледжа , начиная с 2009 года. Из базы данных известных изображений и видеофайлов она создает уникальные хэши для представления каждого изображения, которые затем можно использовать для идентификации других экземпляров этих изображений. . [4]

Первоначально метод хеширования основывался на преобразовании изображений в черно-белый формат, разделении их на квадраты и количественном определении затенения квадратов. [5] не использовал технологию распознавания лиц и не мог идентифицировать человека или объект на изображении. [ нужна ссылка ] Метод стремился быть устойчивым к изменениям изображения, включая изменение размера и незначительные изменения цвета. [4] С 2015 года [6] аналогичные методы используются для отдельных видеокадров в видеофайлах. [7]

Microsoft пожертвовала [ не удалось пройти проверку ] технология PhotoDNA для проекта VIC , управляемая и поддерживаемая Международным центром по пропавшим и эксплуатируемым детям (ICMEC) и используемая в рамках цифровой криминалистики . операций [8] [9] сохраняя «отпечатки пальцев», которые можно использовать для однозначной идентификации отдельной фотографии. [9] [10] База данных содержит хэши миллионов элементов. [11]

предоставила PhotoDNA квалифицированным организациям в виде модели «программное обеспечение как услуга» В декабре 2014 года Microsoft бесплатно через Azure Marketplace . [12]

В 2010-х и 2020-х годах PhotoDNA была выдвинута в связи с политическими предложениями, касающимися модерации контента и интернет-цензуры . [13] включая слушания в Сенате США (2019 г. по «цифровой ответственности», [2] 2022 г. по Закону «ЗАРАБОТАЙТЕ ЭТО» [14] ) и различные предложения Европейской комиссии, окрестило « фильтрами загрузки ». которые гражданское общество [15] [16] такие как так называемые добровольные кодексы (в 2016 г. [17] о разжигании ненависти [18] после событий 2015 года , 2018 год [19] и 2022 год [20] о дезинформации), законодательство об авторском праве (главным образом, директива об авторском праве 2019 года , обсуждавшаяся в период с 2014 года [21] и 2021 год [22] ), правила, связанные с терроризмом ( TERREG ) [23] и правила прослушивания телефонных разговоров в Интернете (2021 г. «контроль чата»). [24]

В 2016 году Хани Фарид предложил распространить использование этой технологии на контент, связанный с терроризмом . [25] В декабре 2016 года Facebook, Twitter, Google и Microsoft объявили о планах использовать PhotoDNA для удаления экстремистского контента, такого как видео с вербовкой террористов или изображения жестоких террористов. [26] В 2018 году Facebook заявил, что PhotoDNA использовалась для автоматического удаления видео Аль-Каиды . [13]

К 2019 году крупные технологические компании, включая Microsoft, Facebook и Google, публично объявили, что с 2017 года они используют GIFCT как общую базу данных контента, подлежащего автоматической цензуре. [2] Считалось , что по состоянию на 2021 год Apple будет использовать NeuralHash для аналогичных целей. [27]

В 2022 году The New York Times рассказала историю двух отцов, чьи учетные записи Google были закрыты после того, как фотографии своего ребенка, сделанные ими в медицинских целях, были автоматически загружены на серверы Google. [28] В статье PhotoDNA сравнивается, для которой требуется база данных известных хэшей, с технологией Google на основе искусственного интеллекта, которая может распознавать ранее невиданные эксплуататорские изображения. [29] [30]

Использование

[ редактировать ]

Первоначально Microsoft использовала PhotoDNA в своих собственных сервисах, включая Bing и OneDrive . [31] По состоянию на 2022 год PhotoDNA широко использовалась поставщиками онлайн-услуг для контента . модерации [10] [32] [33] включая Google Gmail , Twitter , [34] Фейсбук , [35] Adobe Системы , [36] Реддит , [37] и Дискорд . [38]

Британский фонд Internet Watch Foundation , который собирал справочную базу данных сигнатур PhotoDNA, как сообщается, располагал более чем 300 000 хешей известных материалов о сексуальной эксплуатации детей. [ нужна ссылка ] Другим источником базы данных был Национальный центр по делам пропавших и эксплуатируемых детей (NCMEC). [39] [40]

PhotoDNA широко используется для удаления контента, [2] отключать учетные записи и сообщать о людях. [7]

Инвертирование

[ редактировать ]

В 2021 году Аниш Аталие смог частично инвертировать хэши ФотоДНК с помощью нейронной сети, что вызывает опасения по поводу обратимости хеша ФотоДНК. [41]

См. также

[ редактировать ]
  1. ^ Дуз, Маттейс; Толиас, Гиоргос; Пицци, Эд; Папакипос, Зоя; Шануссо, Ловик; Раденович, Филип; Дженичек, Томас; Максимов, Максим; Леаль-Теше, Лаура; Элези, Исмаил; Чум, Ондржей; Феррер, Кристиан Кантон (21 февраля 2022 г.). «Набор данных и задача по сходству изображений 2021 года». arXiv : 2106.09672 [ cs.CV ]. Отпечатки изображений, такие как PhotoDNA от Microsoft, используются во всей отрасли для идентификации изображений, изображающих эксплуатацию и жестокое обращение с детьми.
  2. ^ Jump up to: Перейти обратно: а б с д «Рост контентных картелей» . сайт Knightcolumbia.org . 11 февраля 2020 г. . Проверено 21 августа 2022 г.
  3. ^ Хилл, Кашмир (21 августа 2022 г.). «Папа сфотографировал своего обнаженного малыша для врача. Google пометил его как преступника» . Нью-Йорк Таймс . ISSN   0362-4331 . Проверено 21 августа 2022 г.
  4. ^ Jump up to: Перейти обратно: а б «Новые технологии борются с детской порнографией, отслеживая ее «ФотоДНК» » . Корпорация Майкрософт. 15 декабря 2009 года . Проверено 9 сентября 2016 г.
  5. ^ «Фото ДНК: Шаг за шагом» . Майкрософт. Архивировано из оригинала 21 сентября 2013 года . Проверено 11 февраля 2014 г.
  6. ^ «Как PhotoDNA for Video используется для борьбы с эксплуатацией детей в Интернете» . 12 сентября 2018 г.
  7. ^ Jump up to: Перейти обратно: а б «Как PhotoDNA for Video используется для борьбы с эксплуатацией детей в Интернете» . news.microsoft.com. 12 сентября 2018 г.
  8. ^ Джексон, Уильям (27 августа 2014 г.). «Улучшенные инструменты анализа изображений ускоряют случаи эксплуатации детей» . ГЦН.
  9. ^ Jump up to: Перейти обратно: а б Кларк, Лиат (30 апреля 2014 г.). «Технология отслеживания жестокого обращения с детьми передана в дар всему миру» . Проводная Великобритания .
  10. ^ Jump up to: Перейти обратно: а б «Ответ Microsoft на консультацию по Сообщению Европейской комиссии о правах ребенка (2011–2014 гг.)» (PDF) . Архивировано из оригинала (PDF) 24 октября 2017 года. , Европейская Комиссия.
  11. ^ Уорд, Марк (23 марта 2014 г.). «Облачный инструмент архивирования, который поможет поймать насильников над детьми» . Новости Би-би-си .
  12. ^ «Облачный сервис PhotoDNA» . Microsoft.com . Корпорация Майкрософт . Проверено 19 февраля 2015 г.
  13. ^ Jump up to: Перейти обратно: а б Ричард Аллан (18 июня 2018 г.). «Слушание в 11:14» . в «Горизонтальная нормативно-правовая база ЕС для удаления незаконного контента в DSM» .
  14. ^ Чт; Сока, 10 февраля 2022 г., 15:30 — Берин; Кон, Ари (10 февраля 2022 г.). «Десять главных ошибок, допущенных сенаторами во время сегодняшней разметки EARN IT» . Техдирт . Проверено 21 августа 2022 г. {{cite web}}: CS1 maint: числовые имена: список авторов ( ссылка )
  15. ^ Шмон, Кристоф (3 июня 2021 г.). «Отказ Комиссии ЕС отказаться от фильтров» . Фонд электронных границ . Проверено 21 августа 2022 г.
  16. ^ «Фильтры загрузки: опасность для бесплатного интернет-контента?» . Цифровой гид IONOS . 28 марта 2019 г. . Проверено 21 августа 2022 г.
  17. ^ «Борьба с незаконными высказываниями ненависти в Интернете: первая оценка нового кодекса поведения» . ec.europa.eu . 6 декабря 2016 года . Проверено 21 августа 2022 г.
  18. ^ «Кодекс поведения ЕС по противодействию незаконным высказываниям, разжигающим ненависть в Интернете | Европейская комиссия» . Ec.europa.eu . Проверено 29 августа 2022 г.
  19. ^ «Свод правил по дезинформации | Формирование цифрового будущего Европы» . 26 сентября 2018 г.
  20. ^ «Свод правил по дезинформации 2022 года | Формирование цифрового будущего Европы» . 24 марта 2023 г.
  21. ^ «Процедурный файл: 2014/2256 (INI) | Законодательная обсерватория | Европейский парламент» .
  22. ^ СООБЩЕНИЕ КОМИССИИ ЕВРОПЕЙСКОМУ ПАРЛАМЕНТУ И СОВЕТУ. Руководство по статье 17 Директивы 2019/790 об авторском праве на едином цифровом рынке.
  23. ^ «Террористический контент в Интернете» .
  24. ^ Рейтер, Маркус; Рудль, Томас; Рау, Франциска; Хильдебр, Холли. «Почему контроль чата так опасен» . Европейские цифровые права (EDRI) . Проверено 21 августа 2022 г.
  25. ^ Уодделл, Каве (22 июня 2016 г.). «Инструмент для удаления видеороликов с обезглавливанием еще до того, как они появятся в Интернете» . Атлантика . Проверено 10 сентября 2016 г.
  26. ^ «Партнерство в целях сдерживания распространения террористического контента в Интернете | Отдел новостей Facebook» . Проверено 6 декабря 2016 г.
  27. ^ Абельсон, Хэл; Андерсон, Росс; Белловин, Стивен М.; Бенало, Джош; Блейз, Мэтт; Каллас, Джон; Диффи, Уитфилд; Ландау, Сьюзен; Нойманн, Питер Г.; Ривест, Рональд Л.; Шиллер, Джеффри И.; Шнайер, Брюс; Тиг, Ванесса; Тронкосо, Кармела (2024). «Ошибки в наших карманах: риски сканирования на стороне клиента». Журнал кибербезопасности . 10 . arXiv : 2110.07450 . дои : 10.1093/cybsec/tyad020 .
  28. ^ Хилл, Кашмир (21 августа 2022 г.). «Папа сфотографировал своего обнаженного малыша для врача. Google пометил его как преступника» . Нью-Йорк Таймс . ISSN   0362-4331 . Проверено 21 августа 2022 г. Более крупный прорыв произошел почти десять лет спустя, в 2018 году, когда Google разработал инструмент с искусственным интеллектом, который мог распознавать ранее не встречавшиеся эксплуататорские изображения детей. [...] Когда фотографии Марка и Кассио были автоматически загружены с их телефонов на серверы Google, эта технология пометила их.
  29. ^ «Google пометил фотографии больных детей родителей как сексуальное насилие» . Гизмодо . 22 августа 2022 г. . Проверено 28 августа 2022 г. По данным Google, эти отчеты об инцидентах поступают из нескольких источников, не ограничиваясь автоматизированным инструментом PhotoDNA.
  30. ^ Рот, Эмма (21 августа 2022 г.). «ИИ Google пометил аккаунты родителей на предмет потенциального насилия над обнаженными фотографиями их больных детей» . Грань . Проверено 28 августа 2022 г. Google использовал сопоставление хешей с PhotoDNA от Microsoft для сканирования загруженных изображений для обнаружения совпадений с известным CSAM. [...] В 2018 году Google объявила о запуске своего набора инструментов искусственного интеллекта Content Safety API, который может «активно идентифицировать никогда ранее не встречавшиеся изображения CSAM, чтобы их можно было просмотреть и, в случае подтверждения как CSAM, удалить и сообщить как можно быстрее». ." Он использует этот инструмент для своих собственных сервисов и, наряду с решением для сопоставления хэшей CSAI Match, разработанным инженерами YouTube, предлагает его также для использования другими.
  31. ^ «Неудачная правда о детской порнографии и Интернете [Очерк]» . 7 декабря 2012 г.
  32. ^ Эхер, Рейнхард; Крейг, Лим А.; Майнер, Майкл Х.; Пфеффлин, Фридеманн (2011). Международные перспективы оценки и лечения сексуальных преступников: теория, практика и исследования . Джон Уайли и сыновья. п. 514. ИСБН  978-1119996200 .
  33. ^ Латтанци-Лихт, Марсия; Дока, Кеннет (2004). Жизнь с горем: справиться с общественной трагедией . Рутледж. п. 317. ИСБН  1135941513 .
  34. ^ Артур, Чарльз (22 июля 2013 г.). «Twitter представит систему PhotoDNA для блокировки изображений насилия над детьми» . Хранитель . Проверено 22 июля 2013 г.
  35. ^ Смит, Кэтрин (2 мая 2011 г.). «Facebook использует Microsoft PhotoDNA для удаления детской порнографии» . Хаффингтон Пост . Проверено 22 июля 2013 г.
  36. ^ «Adobe и ФотоДНК» . www.adobe.com . Проверено 27 августа 2021 г.
  37. ^ «Reddit использует PhotoDNA для предотвращения детской порнографии» . 19 марта 2020 г.
  38. ^ «Отчет о прозрачности Discord: июль — декабрь 2020 г.» . Дискорд-блог . 2 апреля 2021 г. . Проверено 8 мая 2022 г.
  39. ^ «По сообщению Microsoft, полиция арестовала мужчину из-за изображений жестокого обращения с детьми» . Хранитель . 7 августа 2014 г.
  40. ^ Сальцито, Энтони (17 декабря 2009 г.). «Microsoft жертвует технологию PhotoDNA, чтобы сделать Интернет более безопасным для детей» . Проверено 22 июля 2013 г.
  41. ^ Атали, Аниш (20 декабря 2021 г.). «Инвертирование фотоДНК» .
[ редактировать ]
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 13a0c46717e026b27cbcb20647b4d66a__1715899380
URL1:https://arc.ask3.ru/arc/aa/13/6a/13a0c46717e026b27cbcb20647b4d66a.html
Заголовок, (Title) документа по адресу, URL1:
PhotoDNA - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)