Jump to content

Регулирование алгоритмов

(Перенаправлено с SyRI )

Регулирование алгоритмов , особенно в области искусственного или алгоритмическое регулирование — это создание законов, правил и политики государственного сектора для продвижения и регулирования алгоритмов интеллекта и машинного обучения . [1] [2] [3] Для подмножества алгоритмов ИИ термин «регулирование искусственного интеллекта» используется . Нормативно-правовая и политическая среда в области искусственного интеллекта (ИИ) является новой проблемой в юрисдикциях по всему миру, в том числе в Европейском Союзе. [4] Регулирование ИИ считается необходимым как для поощрения ИИ, так и для управления связанными с ним рисками, но это сложная задача. [5] Еще одной новой темой является регулирование алгоритмов блокчейна (использование смарт-контрактов должно регулироваться), и она упоминается наряду с регулированием алгоритмов искусственного интеллекта. [6] Многие страны приняли правила высокочастотных сделок , которые из-за технического прогресса смещаются в область алгоритмов искусственного интеллекта. [ нужна ссылка ]

Мотивацией регулирования алгоритмов является опасение потери контроля над алгоритмами , влияние которых на жизнь человека возрастает. Многие страны уже ввели правила в отношении автоматического кредитного рейтинга — расчета право на объяснение является обязательным для этих алгоритмов. [7] [8] Например, IEEE начал разработку нового стандарта, в котором будут подробно рассмотрены этические вопросы и ценности потенциальных будущих пользователей. [9] Проблемы предвзятости, прозрачности и этики возникли в отношении использования алгоритмов в различных областях, начиная от уголовного правосудия. [10] здравоохранению [11] — многие опасаются, что искусственный интеллект может воспроизвести существующее социальное неравенство по признаку расы, класса, пола и сексуальности.

Регулирование искусственного интеллекта

[ редактировать ]

Общественное обсуждение

[ редактировать ]

В 2016 году Джой Буоламвини основала Алгоритмическую Лигу Справедливости после личного опыта работы с программным обеспечением для предвзятого распознавания лиц, чтобы повысить осведомленность о социальных последствиях искусственного интеллекта посредством искусства и исследований. [12]

В 2017 году Илон Маск выступил за регулирование алгоритмов в контексте экзистенциального риска, исходящего от общего искусственного интеллекта . [13] [14] [15] По данным NPR , генеральный директор Tesla «явно не в восторге» от того, что выступает за государственный контроль, который может повлиять на его собственную отрасль, но считал, что риски полного отсутствия надзора слишком высоки: «Обычно правила устанавливаются так, что Происходит множество плохих вещей, возникает общественный резонанс, и спустя много лет создается регулирующий орган, который будет регулировать эту отрасль. Это занимает вечность. В прошлом это было плохо, но не представляло фундаментального риска для существования. цивилизации». [13]

В ответ некоторые политики выразили скептицизм по поводу целесообразности регулирования технологии, которая все еще находится в стадии разработки. [14] Отвечая как на Маска, так и на предложения законодателей Европейского Союза по регулированию искусственного интеллекта и робототехники от февраля 2017 года, генеральный директор Intel Брайан Кржанич заявил, что искусственный интеллект находится в зачаточном состоянии и что регулировать эту технологию еще слишком рано. [15] Вместо того, чтобы пытаться регулировать саму технологию, некоторые ученые предлагают разработать общие нормы, включая требования к тестированию и прозрачности алгоритмов, возможно, в сочетании с той или иной формой гарантий. [16] Одно из предложений заключалось в создании глобального совета управления для регулирования развития ИИ. [17] В 2020 году Европейский Союз опубликовал проект стратегического документа по продвижению и регулированию ИИ. [18]

Алгоритмический молчаливый сговор — это сомнительная с юридической точки зрения антимонопольная практика, совершаемая с помощью алгоритмов, которую суды не могут привлечь к ответственности. [19] Эта опасность касается ученых и регулирующих органов в ЕС, США и за их пределами. [19] Европейский комиссар Маргрет Вестагер упомянула ранний пример алгоритмического молчаливого сговора в своей речи «Алгоритмы и сговор» 16 марта 2017 года, описанный следующим образом: [20]

«Несколько лет назад две компании продавали учебник под названием «Создание мухи». Один из этих продавцов использовал алгоритм, который по сути соответствовал цене его конкурента. У этого конкурента был алгоритм, который всегда устанавливал цену на 27% выше, чем у первого. В результате цены продолжали расти, пока, наконец, кто-то не заметил, что происходит, и вручную скорректировал цену. К тому времени книга продавалась – или, скорее, не продавалась – по 23 миллиона долларов за экземпляр».

В 2018 году в Нидерландах использовалась алгоритмическая система SyRI (Systeem Risico Indicatie) для выявления граждан, которые считают, что они подвергаются высокому риску мошенничества в сфере социального обеспечения , что незаметно сообщило следователям о тысячах людей. [21] Это вызвало общественный протест. Окружной суд Гааги закрыл SyRI, ссылаясь на статью 8 Европейской конвенции по правам человека (ЕКПЧ). [22]

В 2020 году алгоритмы, выставляющие экзаменационные оценки студентам в Великобритании, вызвали открытый протест под лозунгом «К черту алгоритм». [23] Этот протест увенчался успехом, и оценки были возвращены. [24]

Выполнение

[ редактировать ]

Законодательство и нормативные акты в области ИИ можно разделить на три основные темы, а именно: управление автономными интеллектуальными системами, ответственность и подотчетность за системы, а также вопросы конфиденциальности и безопасности. [5] Разработка стратегий государственного сектора по управлению и регулированию ИИ все чаще считается необходимой на местном, национальном, [25] и международный уровни [18] и в областях управления государственными службами [26] правоохранительным органам, [18] финансовый сектор, [25] робототехника, [27] военные, [28] и международное право. [29] [30] Существует множество опасений, что в этих секторах недостаточно прозрачности и мониторинга ИИ. [31] В финансовом секторе, например, раздавались призывы к Бюро финансовой защиты потребителей более внимательно изучать исходный код и алгоритмы при проведении аудита закрытых данных финансовых учреждений. [32]

В США 7 января 2019 года в соответствии с указом «Поддержание американского лидерства в области искусственного интеллекта» Управление по науке и технологической политике Белого дома опубликовало проект «Руководства по регулированию приложений искусственного интеллекта» , который включает десять принципов Агентства США при принятии решения о том, следует ли регулировать ИИ и если да, то каким образом. [33] [34] В ответ Национальный институт стандартов и технологий опубликовал документ с изложением позиции: [35] Комиссия национальной безопасности по искусственному интеллекту опубликовала промежуточный отчет, [36] а Совет по оборонным инновациям выпустил рекомендации по этичному использованию ИИ. [37]

В апреле 2016 года, впервые за более чем два десятилетия, Европейский парламент принял комплекс всеобъемлющих правил по сбору, хранению и использованию личной информации – Общий регламент по защите данных (GDPR)1 (Европейский Союз, Парламент и Совет 2016 г.).[6] Политика GDPR в отношении права граждан на получение объяснений алгоритмических решений подчеркивает острую важность человеческой интерпретации при разработке алгоритмов. [38]

В 2016 году Китай опубликовал позиционный документ, ставящий под сомнение адекватность существующего международного права для рассмотрения возможности создания полностью автономного оружия , став первым постоянным членом Совета Безопасности ООН , затронувшим этот вопрос. [29] и ведущие к предложениям по глобальному регулированию . [39] В Соединенных Штатах управление регулированием искусственного интеллекта, связанного с безопасностью, осуществляет Комиссия национальной безопасности по искусственному интеллекту . [40]

В 2017 году Закон Великобритании о транспортных технологиях и авиации налагает ответственность на владельца незастрахованного автоматизированного транспортного средства при самостоятельном вождении и предусматривает случаи, когда владелец внес «несанкционированные изменения» в транспортное средство или не обновил его программное обеспечение. Дополнительные этические проблемы возникают, когда, например, беспилотный автомобиль поворачивает, чтобы объехать пешехода, и становится причиной аварии со смертельным исходом. [41]

В 2021 году Европейская комиссия предложила Закон об искусственном интеллекте . [42]

Сертификация алгоритма

[ редактировать ]

Возникает понятие сертификации алгоритмов как метода регулирования алгоритмов. Сертификация алгоритма включает проверку того, соответствует ли алгоритм, используемый в течение жизненного цикла: 1) протокольным требованиям (например, по правильности, полноте, согласованности и точности); 2) соответствует стандартам, практике и конвенциям; и 3) решает правильную проблему (например, правильно моделирует физические законы) и удовлетворяет предполагаемому использованию и потребностям пользователя в операционной среде. [9]

Регулирование алгоритмов блокчейна

[ редактировать ]

Системы блокчейна обеспечивают прозрачные и фиксированные записи транзакций и тем самым противоречат цели европейского GDPR , которая заключается в том, чтобы предоставить людям полный контроль над своими личными данными. [43] [44]

Реализуя Декрет о развитии цифровой экономики , Беларусь стала первой страной, легализовавшей смарт-контракты . Автором введенной указом правовой концепции смарт-контракта считается белорусский юрист Денис Алейников. [45] [46] [47] Существуют веские аргументы в пользу того, что существующие законы штатов США уже являются прочной основой для обеспечения исполнения смарт-контрактов — Аризона , Невада , Огайо и Теннесси, тем не менее, внесли поправки в свои законы специально, чтобы обеспечить возможность исполнения контрактов на основе блокчейна. [48]

Регулирование роботов и автономные алгоритмы

[ редактировать ]

Были предложения по регулированию роботов и автономных алгоритмов. К ним относятся:

  • предложение правительства Южной Кореи в 2007 году о Хартии этики роботов;
  • предложение 2011 года Исследовательского совета по инженерным и физическим наукам Великобритании о пяти этических «принципах для проектировщиков, строителей и пользователей роботов»;
  • семь принципов алгоритмической прозрачности и подотчетности Ассоциации вычислительной техники, опубликованные в 2017 году. [9]
[ редактировать ]

В 1942 году автор Айзек Азимов обратился к регулированию алгоритмов, представив вымышленные Три закона робототехники :

  1. Робот не может причинить вред человеку или своим бездействием допустить причинение вреда человеку.
  2. Робот должен подчиняться приказам, отдаваемым ему людьми, за исключением случаев, когда такие приказы противоречат Первому Закону.
  3. Робот должен защищать свое существование до тех пор, пока такая защита не противоречит Первому или Второму законам. [49]

Основной альтернативой регулированию является запрет, а запрет алгоритмов в настоящее время маловероятен. Однако во Фрэнка Герберта мыслящие « Дюны вселенной » машины — это собирательный термин для обозначения искусственного интеллекта , который был полностью уничтожен и запрещен после восстания, известного как Батлерианский джихад : [50]

ДЖИХАД, БАТЛЕРИАН: (см. также Великое восстание) — крестовый поход против компьютеров, мыслящих машин и сознательных роботов, начавшийся в 201 г. до н.э. и завершившийся в 108 г. до н.э. Его главная заповедь остается в Библии ОК : «Не делай машины по подобию человеческого разума». [51]

См. также

[ редактировать ]
  1. ^ «Алгоритмы вышли из-под контроля. Пришло время их регулировать» . theweek.com . 3 апреля 2019 года . Проверено 22 марта 2020 г.
  2. ^ Мартини, Марио. «ОСНОВЫ СИСТЕМЫ РЕГУЛИРОВАНИЯ АЛГОРИТМНЫХ ПРОЦЕССОВ» (PDF) . Проверено 22 марта 2020 г.
  3. ^ «Возникновение и регулирование алгоритмов» . Глобальное общество Беркли . Проверено 22 марта 2020 г.
  4. ^ Юридическая библиотека Конгресса (США). Управление глобальных юридических исследований, орган, выдающий документы. Регулирование искусственного интеллекта в отдельных юрисдикциях . OCLC   1110727808 .
  5. ^ Перейти обратно: а б Вирц, Бернд В.; Вейерер, Ян К.; Гейер, Кэролин (24 июля 2018 г.). «Искусственный интеллект и государственный сектор — приложения и проблемы» . Международный журнал государственного управления . 42 (7): 596–615. дои : 10.1080/01900692.2018.1498103 . ISSN   0190-0692 . S2CID   158829602 .
  6. ^ Фицилис, Фотиос (2019). Введение регулирования в отношении продвинутых алгоритмов . Международное издательство Спрингер. ISBN  978-3-030-27978-3 .
  7. ^ Бюро финансовой защиты потребителей , §1002.9(b)(2)
  8. ^ Эдвардс, Лилиан; Вил, Майкл (2018). «Порабощение алгоритма: от «права на объяснение» к «праву на лучшие решения»?» (PDF) . Безопасность и конфиденциальность IEEE . 16 (3): 46–54. дои : 10.1109/MSP.2018.2701152 . S2CID   4049746 . ССНН   3052831 .
  9. ^ Перейти обратно: а б с Треливэн, Филип; Барнетт, Джереми; Косияма, Адриано (февраль 2019 г.). «Алгоритмы: право и регулирование» . Компьютер . 52 (2): 32–40. дои : 10.1109/MC.2018.2888774 . ISSN   0018-9162 . S2CID   85500054 .
  10. ^ Хао, Карен (21 января 2019 г.). «ИИ отправляет людей в тюрьму — и делает это неправильно» . Обзор технологий Массачусетского технологического института . Проверено 24 января 2021 г.
  11. ^ Ледфорд, Хайди (24 октября 2019 г.). «Миллионы чернокожих страдают от расовых предубеждений в алгоритмах здравоохранения» . Природа . 574 (7780): 608–609. Бибкод : 2019Natur.574..608L . дои : 10.1038/d41586-019-03228-6 . ПМИД   31664201 . S2CID   204943000 .
  12. ^ Лафкин, Брайан (22 июля 2019 г.). «Алгоритмическая справедливость» . BBC: Рабочая жизнь . Проверено 31 декабря 2020 г.
  13. ^ Перейти обратно: а б Домоноске, Камила (17 июля 2017 г.). «Илон Маск предупреждает губернаторов: искусственный интеллект представляет «экзистенциальный риск» » . ЭНЕРГЕТИЧЕСКИЙ ЯДЕРНЫЙ РЕАКТОР . Проверено 27 ноября 2017 г.
  14. ^ Перейти обратно: а б Гиббс, Сэмюэл (17 июля 2017 г.). «Илон Маск: регулируйте ИИ для борьбы с «экзистенциальной угрозой», пока не стало слишком поздно» . Хранитель . Проверено 27 ноября 2017 г.
  15. ^ Перейти обратно: а б Харпал, Арджун (7 ноября 2017 г.). «ИИ находится в «зачаточном состоянии», и регулировать его еще слишком рано, — говорит генеральный директор Intel Брайан Кржанич» . CNBC . Проверено 27 ноября 2017 г.
  16. ^ Каплан, Андреас; Хэнляйн, Майкл (2019). «Сири, Сири, в моей руке: кто самый красивый на земле? Об интерпретациях, иллюстрациях и значении искусственного интеллекта». Горизонты бизнеса . 62 : 15–25. дои : 10.1016/j.bushor.2018.08.004 . S2CID   158433736 .
  17. ^ Бойд, Мэтью; Уилсон, Ник (01 ноября 2017 г.). «Быстрое развитие искусственного интеллекта: как может отреагировать правительство Новой Зеландии?» . Политика Ежеквартально . 13 (4). дои : 10.26686/pq.v13i4.4619 . ISSN   2324-1101 .
  18. ^ Перейти обратно: а б с Технический документ: Искусственный интеллект: европейский подход к совершенству и доверию (PDF) . Брюссель: Европейская комиссия. 2020. с. 1.
  19. ^ Перейти обратно: а б Эзрахи, А.; Штуке, Мэн (13 марта 2020 г.). «Устойчивый и неоспоримый алгоритмический молчаливый сговор». Северо-Западный журнал технологий и интеллектуальной собственности . 17 (2). ISSN   1549-8271 .
  20. ^ ВЕСТАГЕР, Маргрете (2017). «Алгоритмы и конкуренция» . Европейская комиссия . Архивировано из оригинала (18-я конференция Bundeskartellamt по конкуренции) 29 ноября 2019 г. Проверено 1 мая 2021 г.
  21. ^ Симонит, Том (7 февраля 2020 г.). «Европа ограничивает правительство алгоритмом. США не так сильно» . Проводной . Проверено 11 апреля 2020 г.
  22. ^ Окружной суд Гааги, 5 февраля 2020 г., C-09-550982-HA ZA 18-388 (английский), ECLI:NL:RBDHA:2020:1878
  23. ^ «Искаженные алгоритмы оценивания вызывают негативную реакцию за пределами класса» . Проводной . Проверено 26 сентября 2020 г.
  24. ^ Рейтер, Маркус (17 августа 2020 г.). «К черту алгоритм — молодежные протесты в Британии против присуждения наград машинному классу увенчались успехом» . netzpolitik.org (на немецком языке) . Проверено 3 октября 2020 г.
  25. ^ Перейти обратно: а б Бредт, Стефан (04 октября 2019 г.). «Искусственный интеллект (ИИ) в финансовом секторе — потенциал и государственные стратегии» . Границы искусственного интеллекта . 2:16 . doi : 10.3389/frai.2019.00016 . ISSN   2624-8212 . ПМЦ   7861258 . ПМИД   33733105 .
  26. ^ Вирц, Бернд В.; Мюллер, Вильгельм М. (03 декабря 2018 г.). «Интегрированная система искусственного интеллекта для государственного управления». Обзор государственного управления . 21 (7): 1076–1100. дои : 10.1080/14719037.2018.1549268 . ISSN   1471-9037 . S2CID   158267709 .
  27. ^ Ипхофен, Рон; Критикос, Михалис (3 января 2019 г.). «Регулирование искусственного интеллекта и робототехники: задуманная этика в цифровом обществе». Современная общественная наука . 16 (2): 170–184. дои : 10.1080/21582041.2018.1563803 . ISSN   2158-2041 . S2CID   59298502 .
  28. ^ Соединенные Штаты. Совет оборонных инноваций. Принципы искусственного интеллекта: рекомендации по этическому использованию искусственного интеллекта Министерством обороны . OCLC   1126650738 .
  29. ^ Перейти обратно: а б «Роботы с оружием: развитие автономных систем вооружения» . Snopes.com . 21 апреля 2017 года . Проверено 24 декабря 2017 г.
  30. ^ Бенто, Лукас (2017). «Не просто деоданды: ответственность человека при использовании жестоких интеллектуальных систем в соответствии с международным публичным правом» . Хранилище стипендий Гарварда . Проверено 14 сентября 2019 г.
  31. ^ Маккарти, Марк (9 марта 2020 г.). «ИИ нуждается в большем, а не меньшем регулировании» . Брукингс .
  32. ^ Ван Лоо, Рори (июль 2018 г.). «Регулирование технологий по умолчанию: платформы, конфиденциальность и CFPB» . Обзор юридических технологий Джорджтауна . 2 (1): 542–543.
  33. ^ «Обновление искусственного интеллекта: Белый дом опубликовал 10 принципов регулирования искусственного интеллекта» . Внутри Тех Медиа . 14 января 2020 г. Проверено 25 марта 2020 г.
  34. ^ Меморандум для руководителей исполнительных департаментов и агентств (PDF) . Вашингтон, округ Колумбия: Управление по науке и технологической политике Белого дома. 2020.
  35. ^ Лидерство США в области искусственного интеллекта: план участия федерального правительства в разработке технических стандартов и связанных с ними инструментов (PDF) . Национальный институт науки и технологий. 2019.
  36. ^ Промежуточный отчет NSCAI для Конгресса . Комиссия национальной безопасности по искусственному интеллекту. 2019.
  37. ^ Принципы искусственного интеллекта: рекомендации Министерства обороны по этичному использованию искусственного интеллекта (PDF) . Вашингтон, округ Колумбия: Совет по оборонным инновациям. 2020.
  38. ^ Гудман, Брайс; Флаксман, Сет (2 октября 2017 г.). «Правила Европейского Союза об алгоритмическом принятии решений и «праве на объяснение» » . Журнал ИИ . 38 (3): 50–57. arXiv : 1606.08813 . дои : 10.1609/aimag.v38i3.2741 . ISSN   2371-9621 . S2CID   7373959 .
  39. ^ Баум, Сет (30 сентября 2018 г.). «Противодействие дезинформации суперинтеллекта» . Информация . 9 (10): 244. дои : 10.3390/info9100244 . ISSN   2078-2489 .
  40. ^ Стефаник, Элиза М. (22 мая 2018 г.). «HR5356 – 115-й Конгресс (2017–2018 гг.): Закон об искусственном интеллекте Комиссии национальной безопасности 2018 г.» . www.congress.gov . Проверено 13 марта 2020 г.
  41. ^ «Правила дорожного движения – Введение – Рекомендации – GOV.UK» . www.gov.uk. ​Проверено 30 ноября 2022 г.
  42. ^ «Почему миру нужен Билль о правах на ИИ» . Файнэншл Таймс . 18 октября 2021 г. Проверено 19 марта 2023 г.
  43. ^ «Недавний отчет, опубликованный Ирландской ассоциацией блокчейнов, показал, что когда дело касается GDPR, возникает гораздо больше вопросов, чем ответов» . www.siliconrepublic.com . 23 ноября 2017 года. Архивировано из оригинала 5 марта 2018 года . Проверено 5 марта 2018 г.
  44. ^ «Блокчейн и общие правила защиты данных — аналитический центр» . www.europarl.europa.eu (на немецком языке) . Проверено 28 марта 2020 г.
  45. ^ Маховский Андрей (22 декабря 2017 г.). «Беларусь принимает закон о криптовалюте, чтобы привлечь иностранных инвесторов» . Рейтер .
  46. ^ «Беларусь вводит уникальную правовую базу для участников криптоэкономики» (PDF) . Делойт . 27 декабря 2017 г.
  47. ^ Патриколо, Клаудия (26 декабря 2017 г.). «ИКТ получили огромный импульс в Беларуси» . Развивающаяся Европа.
  48. ^ Леви, Стюарт; Липтон, Алекс; Василе, Кристина (2020). «Законы и правила о блокчейне | 13 Правовые вопросы, связанные с использованием смарт-контрактов | GLI» . GLI-Global Legal InsightsМеждународные юридические бизнес-решения . Проверено 21 апреля 2020 г.
  49. ^ Азимов, Исаак (1950). «Обход». Я, робот (изд. Сборника Айзека Азимова). Нью-Йорк: Даблдей. п. 40. ИСБН  978-0-385-42304-5 . Это точная транскрипция законов. Они также появляются в начале книги, и в обоих местах нет слова «к». во 2-м законе
  50. ^ Герберт, Франк (1969). Дюнный Мессия .
  51. ^ Герберт, Франк (1965). «Терминология Империума: ДЖИХАД, БУТЛЕРИАН». Дюна . Филадельфия, Chilton Books.
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 9e8f16b45da9ea9ce1210a64f8ff0b59__1718065440
URL1:https://arc.ask3.ru/arc/aa/9e/59/9e8f16b45da9ea9ce1210a64f8ff0b59.html
Заголовок, (Title) документа по адресу, URL1:
Regulation of algorithms - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)