ФотоДНК
PhotoDNA — это запатентованная идентификации изображений и фильтрации контента. технология [1] широко используется поставщиками онлайн-услуг . [2] [3]
История
[ редактировать ]PhotoDNA была разработана Microsoft Research и Хани Фаридом , профессором Дартмутского колледжа , начиная с 2009 года. Из базы данных известных изображений и видеофайлов она создает уникальные хэши для представления каждого изображения, которые затем можно использовать для идентификации других экземпляров этих изображений. . [4]
Первоначально метод хеширования основывался на преобразовании изображений в черно-белый формат, разделении их на квадраты и количественном определении затенения квадратов. [5] не использовал технологию распознавания лиц и не мог идентифицировать человека или объект на изображении. [ нужна ссылка ] Метод стремился быть устойчивым к изменениям изображения, включая изменение размера и незначительные изменения цвета. [4] С 2015 года [6] аналогичные методы используются для отдельных видеокадров в видеофайлах. [7]
Microsoft пожертвовала [ не удалось пройти проверку ] технология PhotoDNA для проекта VIC , управляемая и поддерживаемая Международным центром по пропавшим и эксплуатируемым детям (ICMEC) и используемая в рамках цифровой криминалистики . операций [8] [9] сохраняя «отпечатки пальцев», которые можно использовать для однозначной идентификации отдельной фотографии. [9] [10] База данных содержит хэши миллионов элементов. [11]
предоставила PhotoDNA квалифицированным организациям в виде модели «программное обеспечение как услуга» В декабре 2014 года Microsoft бесплатно через Azure Marketplace . [12]
В 2010-х и 2020-х годах PhotoDNA была выдвинута в связи с политическими предложениями, касающимися модерации контента и интернет-цензуры . [13] включая слушания в Сенате США (2019 г. по «цифровой ответственности», [2] 2022 г. по Закону «ЗАРАБОТАЙТЕ ЭТО» [14] ) и различные предложения Европейской комиссии, окрестило « фильтрами загрузки ». которые гражданское общество [15] [16] такие как так называемые добровольные кодексы (в 2016 г. [17] о разжигании ненависти [18] после событий 2015 года , 2018 год [19] и 2022 год [20] о дезинформации), законодательство об авторском праве (главным образом, директива об авторском праве 2019 года , обсуждавшаяся в период с 2014 года [21] и 2021 год [22] ), правила, связанные с терроризмом ( TERREG ) [23] и правила прослушивания телефонных разговоров в Интернете (2021 г. «контроль чата»). [24]
В 2016 году Хани Фарид предложил распространить использование этой технологии на контент, связанный с терроризмом . [25] В декабре 2016 года Facebook, Twitter, Google и Microsoft объявили о планах использовать PhotoDNA для удаления экстремистского контента, такого как видео с вербовкой террористов или изображения жестоких террористов. [26] В 2018 году Facebook заявил, что PhotoDNA использовалась для автоматического удаления видео Аль-Каиды . [13]
К 2019 году крупные технологические компании, включая Microsoft, Facebook и Google, публично объявили, что с 2017 года они используют GIFCT как общую базу данных контента, подлежащего автоматической цензуре. [2] Считалось , что по состоянию на 2021 год Apple будет использовать NeuralHash для аналогичных целей. [27]
В 2022 году The New York Times рассказала историю двух отцов, чьи учетные записи Google были закрыты после того, как фотографии своего ребенка, сделанные ими в медицинских целях, были автоматически загружены на серверы Google. [28] В статье PhotoDNA сравнивается, для которой требуется база данных известных хэшей, с технологией Google на основе искусственного интеллекта, которая может распознавать ранее невиданные эксплуататорские изображения. [29] [30]
Использование
[ редактировать ]Первоначально Microsoft использовала PhotoDNA в своих собственных сервисах, включая Bing и OneDrive . [31] По состоянию на 2022 год PhotoDNA широко использовалась поставщиками онлайн-услуг для контента . модерации [10] [32] [33] включая Google Gmail , Twitter , [34] Фейсбук , [35] Adobe Системы , [36] Реддит , [37] и Дискорд . [38]
Британский фонд Internet Watch Foundation , который собирал справочную базу данных сигнатур PhotoDNA, как сообщается, располагал более чем 300 000 хешей известных материалов о сексуальной эксплуатации детей. [ нужна ссылка ] Другим источником базы данных был Национальный центр по делам пропавших и эксплуатируемых детей (NCMEC). [39] [40]
PhotoDNA широко используется для удаления контента, [2] отключать учетные записи и сообщать о людях. [7]
Инвертирование
[ редактировать ]В 2021 году Аниш Аталие смог частично инвертировать хэши ФотоДНК с помощью нейронной сети, что вызывает опасения по поводу обратимости хеша ФотоДНК. [41]
См. также
[ редактировать ]Ссылки
[ редактировать ]- ^ Дуз, Маттейс; Толиас, Гиоргос; Пицци, Эд; Папакипос, Зоя; Шануссо, Ловик; Раденович, Филип; Дженичек, Томас; Максимов, Максим; Леаль-Теше, Лаура; Элези, Исмаил; Чум, Ондржей; Феррер, Кристиан Кантон (21 февраля 2022 г.). «Набор данных и задача по сходству изображений 2021 года». arXiv : 2106.09672 [ cs.CV ].
Отпечатки изображений, такие как PhotoDNA от Microsoft, используются во всей отрасли для идентификации изображений, изображающих эксплуатацию и жестокое обращение с детьми.
- ^ Jump up to: Перейти обратно: а б с д «Рост контентных картелей» . сайт Knightcolumbia.org . 11 февраля 2020 г. . Проверено 21 августа 2022 г.
- ^ Хилл, Кашмир (21 августа 2022 г.). «Папа сфотографировал своего обнаженного малыша для врача. Google пометил его как преступника» . Нью-Йорк Таймс . ISSN 0362-4331 . Проверено 21 августа 2022 г.
- ^ Jump up to: Перейти обратно: а б «Новые технологии борются с детской порнографией, отслеживая ее «ФотоДНК» » . Корпорация Майкрософт. 15 декабря 2009 года . Проверено 9 сентября 2016 г.
- ^ «Фото ДНК: Шаг за шагом» . Майкрософт. Архивировано из оригинала 21 сентября 2013 года . Проверено 11 февраля 2014 г.
- ^ «Как PhotoDNA for Video используется для борьбы с эксплуатацией детей в Интернете» . 12 сентября 2018 г.
- ^ Jump up to: Перейти обратно: а б «Как PhotoDNA for Video используется для борьбы с эксплуатацией детей в Интернете» . news.microsoft.com. 12 сентября 2018 г.
- ^ Джексон, Уильям (27 августа 2014 г.). «Улучшенные инструменты анализа изображений ускоряют случаи эксплуатации детей» . ГЦН.
- ^ Jump up to: Перейти обратно: а б Кларк, Лиат (30 апреля 2014 г.). «Технология отслеживания жестокого обращения с детьми передана в дар всему миру» . Проводная Великобритания .
- ^ Jump up to: Перейти обратно: а б «Ответ Microsoft на консультацию по Сообщению Европейской комиссии о правах ребенка (2011–2014 гг.)» (PDF) . Архивировано из оригинала (PDF) 24 октября 2017 года. , Европейская Комиссия.
- ^ Уорд, Марк (23 марта 2014 г.). «Облачный инструмент архивирования, который поможет поймать насильников над детьми» . Новости Би-би-си .
- ^ «Облачный сервис PhotoDNA» . Microsoft.com . Корпорация Майкрософт . Проверено 19 февраля 2015 г.
- ^ Jump up to: Перейти обратно: а б Ричард Аллан (18 июня 2018 г.). «Слушание в 11:14» . в «Горизонтальная нормативно-правовая база ЕС для удаления незаконного контента в DSM» .
- ^ Чт; Сока, 10 февраля 2022 г., 15:30 — Берин; Кон, Ари (10 февраля 2022 г.). «Десять главных ошибок, допущенных сенаторами во время сегодняшней разметки EARN IT» . Техдирт . Проверено 21 августа 2022 г.
{{cite web}}
: CS1 maint: числовые имена: список авторов ( ссылка ) - ^ Шмон, Кристоф (3 июня 2021 г.). «Отказ Комиссии ЕС отказаться от фильтров» . Фонд электронных границ . Проверено 21 августа 2022 г.
- ^ «Фильтры загрузки: опасность для бесплатного интернет-контента?» . Цифровой гид IONOS . 28 марта 2019 г. . Проверено 21 августа 2022 г.
- ^ «Борьба с незаконными высказываниями ненависти в Интернете: первая оценка нового кодекса поведения» . ec.europa.eu . 6 декабря 2016 года . Проверено 21 августа 2022 г.
- ^ «Кодекс поведения ЕС по противодействию незаконным высказываниям, разжигающим ненависть в Интернете | Европейская комиссия» . Ec.europa.eu . Проверено 29 августа 2022 г.
- ^ «Свод правил по дезинформации | Формирование цифрового будущего Европы» . 26 сентября 2018 г.
- ^ «Свод правил по дезинформации 2022 года | Формирование цифрового будущего Европы» . 24 марта 2023 г.
- ^ «Процедурный файл: 2014/2256 (INI) | Законодательная обсерватория | Европейский парламент» .
- ^ СООБЩЕНИЕ КОМИССИИ ЕВРОПЕЙСКОМУ ПАРЛАМЕНТУ И СОВЕТУ. Руководство по статье 17 Директивы 2019/790 об авторском праве на едином цифровом рынке.
- ^ «Террористический контент в Интернете» .
- ^ Рейтер, Маркус; Рудль, Томас; Рау, Франциска; Хильдебр, Холли. «Почему контроль чата так опасен» . Европейские цифровые права (EDRI) . Проверено 21 августа 2022 г.
- ^ Уодделл, Каве (22 июня 2016 г.). «Инструмент для удаления видеороликов с обезглавливанием еще до того, как они появятся в Интернете» . Атлантика . Проверено 10 сентября 2016 г.
- ^ «Партнерство в целях сдерживания распространения террористического контента в Интернете | Отдел новостей Facebook» . Проверено 6 декабря 2016 г.
- ^ Абельсон, Хэл; Андерсон, Росс; Белловин, Стивен М.; Бенало, Джош; Блейз, Мэтт; Каллас, Джон; Диффи, Уитфилд; Ландау, Сьюзен; Нойманн, Питер Г.; Ривест, Рональд Л.; Шиллер, Джеффри И.; Шнайер, Брюс; Тиг, Ванесса; Тронкосо, Кармела (2024). «Ошибки в наших карманах: риски сканирования на стороне клиента». Журнал кибербезопасности . 10 . arXiv : 2110.07450 . дои : 10.1093/cybsec/tyad020 .
- ^ Хилл, Кашмир (21 августа 2022 г.). «Папа сфотографировал своего обнаженного малыша для врача. Google пометил его как преступника» . Нью-Йорк Таймс . ISSN 0362-4331 . Проверено 21 августа 2022 г.
Более крупный прорыв произошел почти десять лет спустя, в 2018 году, когда Google разработал инструмент с искусственным интеллектом, который мог распознавать ранее не встречавшиеся эксплуататорские изображения детей. [...] Когда фотографии Марка и Кассио были автоматически загружены с их телефонов на серверы Google, эта технология пометила их.
- ^ «Google пометил фотографии больных детей родителей как сексуальное насилие» . Гизмодо . 22 августа 2022 г. . Проверено 28 августа 2022 г.
По данным Google, эти отчеты об инцидентах поступают из нескольких источников, не ограничиваясь автоматизированным инструментом PhotoDNA.
- ^ Рот, Эмма (21 августа 2022 г.). «ИИ Google пометил аккаунты родителей на предмет потенциального насилия над обнаженными фотографиями их больных детей» . Грань . Проверено 28 августа 2022 г.
Google использовал сопоставление хешей с PhotoDNA от Microsoft для сканирования загруженных изображений для обнаружения совпадений с известным CSAM. [...] В 2018 году Google объявила о запуске своего набора инструментов искусственного интеллекта Content Safety API, который может «активно идентифицировать никогда ранее не встречавшиеся изображения CSAM, чтобы их можно было просмотреть и, в случае подтверждения как CSAM, удалить и сообщить как можно быстрее». ." Он использует этот инструмент для своих собственных сервисов и, наряду с решением для сопоставления хэшей CSAI Match, разработанным инженерами YouTube, предлагает его также для использования другими.
- ^ «Неудачная правда о детской порнографии и Интернете [Очерк]» . 7 декабря 2012 г.
- ^ Эхер, Рейнхард; Крейг, Лим А.; Майнер, Майкл Х.; Пфеффлин, Фридеманн (2011). Международные перспективы оценки и лечения сексуальных преступников: теория, практика и исследования . Джон Уайли и сыновья. п. 514. ИСБН 978-1119996200 .
- ^ Латтанци-Лихт, Марсия; Дока, Кеннет (2004). Жизнь с горем: справиться с общественной трагедией . Рутледж. п. 317. ИСБН 1135941513 .
- ^ Артур, Чарльз (22 июля 2013 г.). «Twitter представит систему PhotoDNA для блокировки изображений насилия над детьми» . Хранитель . Проверено 22 июля 2013 г.
- ^ Смит, Кэтрин (2 мая 2011 г.). «Facebook использует Microsoft PhotoDNA для удаления детской порнографии» . Хаффингтон Пост . Проверено 22 июля 2013 г.
- ^ «Adobe и ФотоДНК» . www.adobe.com . Проверено 27 августа 2021 г.
- ^ «Reddit использует PhotoDNA для предотвращения детской порнографии» . 19 марта 2020 г.
- ^ «Отчет о прозрачности Discord: июль — декабрь 2020 г.» . Дискорд-блог . 2 апреля 2021 г. . Проверено 8 мая 2022 г.
- ^ «По сообщению Microsoft, полиция арестовала мужчину из-за изображений жестокого обращения с детьми» . Хранитель . 7 августа 2014 г.
- ^ Сальцито, Энтони (17 декабря 2009 г.). «Microsoft жертвует технологию PhotoDNA, чтобы сделать Интернет более безопасным для детей» . Проверено 22 июля 2013 г.
- ^ Атали, Аниш (20 декабря 2021 г.). «Инвертирование фотоДНК» .