Регулирование алгоритмов
Часть серии о |
Юридические аспекты вычислений |
---|
Регулирование алгоритмов , особенно в области искусственного или алгоритмическое регулирование — это создание законов, правил и политики государственного сектора для продвижения и регулирования алгоритмов интеллекта и машинного обучения . [1] [2] [3] Для подмножества алгоритмов ИИ термин «регулирование искусственного интеллекта» используется . Нормативно-правовая и политическая среда в области искусственного интеллекта (ИИ) является новой проблемой в юрисдикциях по всему миру, в том числе в Европейском Союзе. [4] Регулирование ИИ считается необходимым как для поощрения ИИ, так и для управления связанными с ним рисками, но это сложная задача. [5] Еще одной новой темой является регулирование алгоритмов блокчейна (использование смарт-контрактов должно регулироваться), и она упоминается наряду с регулированием алгоритмов искусственного интеллекта. [6] Многие страны приняли правила высокочастотных сделок , которые из-за технического прогресса смещаются в область алгоритмов искусственного интеллекта. [ нужна ссылка ]
Мотивацией регулирования алгоритмов является опасение потери контроля над алгоритмами , влияние которых на жизнь человека возрастает. Многие страны уже ввели правила в отношении автоматического кредитного рейтинга — расчета право на объяснение является обязательным для этих алгоритмов. [7] [8] Например, IEEE начал разработку нового стандарта, в котором будут подробно рассмотрены этические вопросы и ценности потенциальных будущих пользователей. [9] Проблемы предвзятости, прозрачности и этики возникли в отношении использования алгоритмов в различных областях, начиная от уголовного правосудия. [10] здравоохранению [11] — многие опасаются, что искусственный интеллект может воспроизвести существующее социальное неравенство по признаку расы, класса, пола и сексуальности.
Регулирование искусственного интеллекта
[ редактировать ]Общественное обсуждение
[ редактировать ]В 2016 году Джой Буоламвини основала Алгоритмическую Лигу Справедливости после личного опыта работы с программным обеспечением для предвзятого распознавания лиц, чтобы повысить осведомленность о социальных последствиях искусственного интеллекта посредством искусства и исследований. [12]
В 2017 году Илон Маск выступил за регулирование алгоритмов в контексте экзистенциального риска, исходящего от общего искусственного интеллекта . [13] [14] [15] По данным NPR , генеральный директор Tesla «явно не в восторге» от того, что выступает за государственный контроль, который может повлиять на его собственную отрасль, но считал, что риски полного отсутствия надзора слишком высоки: «Обычно правила устанавливаются так, что Происходит множество плохих вещей, возникает общественный резонанс, и спустя много лет создается регулирующий орган, который будет регулировать эту отрасль. Это занимает вечность. В прошлом это было плохо, но не представляло фундаментального риска для существования. цивилизации». [13]
В ответ некоторые политики выразили скептицизм по поводу целесообразности регулирования технологии, которая все еще находится в стадии разработки. [14] Отвечая как на Маска, так и на предложения законодателей Европейского Союза по регулированию искусственного интеллекта и робототехники от февраля 2017 года, генеральный директор Intel Брайан Кржанич заявил, что искусственный интеллект находится в зачаточном состоянии и что регулировать эту технологию еще слишком рано. [15] Вместо того, чтобы пытаться регулировать саму технологию, некоторые ученые предлагают разработать общие нормы, включая требования к тестированию и прозрачности алгоритмов, возможно, в сочетании с той или иной формой гарантий. [16] Одно из предложений заключалось в создании глобального совета управления для регулирования развития ИИ. [17] В 2020 году Европейский Союз опубликовал проект стратегического документа по продвижению и регулированию ИИ. [18]
Алгоритмический молчаливый сговор — это сомнительная с юридической точки зрения антимонопольная практика, совершаемая с помощью алгоритмов, которую суды не могут привлечь к ответственности. [19] Эта опасность касается ученых и регулирующих органов в ЕС, США и за их пределами. [19] Европейский комиссар Маргрет Вестагер упомянула ранний пример алгоритмического молчаливого сговора в своей речи «Алгоритмы и сговор» 16 марта 2017 года, описанный следующим образом: [20]
«Несколько лет назад две компании продавали учебник под названием «Создание мухи». Один из этих продавцов использовал алгоритм, который по сути соответствовал цене его конкурента. У этого конкурента был алгоритм, который всегда устанавливал цену на 27% выше, чем у первого. В результате цены продолжали расти, пока, наконец, кто-то не заметил, что происходит, и вручную скорректировал цену. К тому времени книга продавалась – или, скорее, не продавалась – по 23 миллиона долларов за экземпляр».
В 2018 году в Нидерландах использовалась алгоритмическая система SyRI (Systeem Risico Indicatie) для выявления граждан, которые считают, что они подвергаются высокому риску мошенничества в сфере социального обеспечения , что незаметно сообщило следователям о тысячах людей. [21] Это вызвало общественный протест. Окружной суд Гааги закрыл SyRI, ссылаясь на статью 8 Европейской конвенции по правам человека (ЕКПЧ). [22]
В 2020 году алгоритмы, выставляющие экзаменационные оценки студентам в Великобритании, вызвали открытый протест под лозунгом «К черту алгоритм». [23] Этот протест увенчался успехом, и оценки были возвращены. [24]
Выполнение
[ редактировать ]Законодательство и нормативные акты в области ИИ можно разделить на три основные темы, а именно: управление автономными интеллектуальными системами, ответственность и подотчетность за системы, а также вопросы конфиденциальности и безопасности. [5] Разработка стратегий государственного сектора по управлению и регулированию ИИ все чаще считается необходимой на местном, национальном, [25] и международный уровни [18] и в областях управления государственными службами [26] правоохранительным органам, [18] финансовый сектор, [25] робототехника, [27] военные, [28] и международное право. [29] [30] Существует множество опасений, что в этих секторах недостаточно прозрачности и мониторинга ИИ. [31] В финансовом секторе, например, раздавались призывы к Бюро финансовой защиты потребителей более внимательно изучать исходный код и алгоритмы при проведении аудита закрытых данных финансовых учреждений. [32]
В США 7 января 2019 года в соответствии с указом «Поддержание американского лидерства в области искусственного интеллекта» Управление по науке и технологической политике Белого дома опубликовало проект «Руководства по регулированию приложений искусственного интеллекта» , который включает десять принципов Агентства США при принятии решения о том, следует ли регулировать ИИ и если да, то каким образом. [33] [34] В ответ Национальный институт стандартов и технологий опубликовал документ с изложением позиции: [35] Комиссия национальной безопасности по искусственному интеллекту опубликовала промежуточный отчет, [36] а Совет по оборонным инновациям выпустил рекомендации по этичному использованию ИИ. [37]
В апреле 2016 года, впервые за более чем два десятилетия, Европейский парламент принял комплекс всеобъемлющих правил по сбору, хранению и использованию личной информации – Общий регламент по защите данных (GDPR)1 (Европейский Союз, Парламент и Совет 2016 г.).[6] Политика GDPR в отношении права граждан на получение объяснений алгоритмических решений подчеркивает острую важность человеческой интерпретации при разработке алгоритмов. [38]
В 2016 году Китай опубликовал позиционный документ, ставящий под сомнение адекватность существующего международного права для рассмотрения возможности создания полностью автономного оружия , став первым постоянным членом Совета Безопасности ООН , затронувшим этот вопрос. [29] и ведущие к предложениям по глобальному регулированию . [39] В Соединенных Штатах управление регулированием искусственного интеллекта, связанного с безопасностью, осуществляет Комиссия национальной безопасности по искусственному интеллекту . [40]
В 2017 году Закон Великобритании о транспортных технологиях и авиации налагает ответственность на владельца незастрахованного автоматизированного транспортного средства при самостоятельном вождении и предусматривает случаи, когда владелец внес «несанкционированные изменения» в транспортное средство или не обновил его программное обеспечение. Дополнительные этические проблемы возникают, когда, например, беспилотный автомобиль поворачивает, чтобы объехать пешехода, и становится причиной аварии со смертельным исходом. [41]
В 2021 году Европейская комиссия предложила Закон об искусственном интеллекте . [42]
Сертификация алгоритма
[ редактировать ]Возникает понятие сертификации алгоритмов как метода регулирования алгоритмов. Сертификация алгоритма включает проверку того, соответствует ли алгоритм, используемый в течение жизненного цикла: 1) протокольным требованиям (например, по правильности, полноте, согласованности и точности); 2) соответствует стандартам, практике и конвенциям; и 3) решает правильную проблему (например, правильно моделирует физические законы) и удовлетворяет предполагаемому использованию и потребностям пользователя в операционной среде. [9]
Регулирование алгоритмов блокчейна
[ редактировать ]Системы блокчейна обеспечивают прозрачные и фиксированные записи транзакций и тем самым противоречат цели европейского GDPR , которая заключается в том, чтобы предоставить людям полный контроль над своими личными данными. [43] [44]
Реализуя Декрет о развитии цифровой экономики , Беларусь стала первой страной, легализовавшей смарт-контракты . Автором введенной указом правовой концепции смарт-контракта считается белорусский юрист Денис Алейников. [45] [46] [47] Существуют веские аргументы в пользу того, что существующие законы штатов США уже являются прочной основой для обеспечения исполнения смарт-контрактов — Аризона , Невада , Огайо и Теннесси, тем не менее, внесли поправки в свои законы специально, чтобы обеспечить возможность исполнения контрактов на основе блокчейна. [48]
Регулирование роботов и автономные алгоритмы
[ редактировать ]Были предложения по регулированию роботов и автономных алгоритмов. К ним относятся:
- предложение правительства Южной Кореи в 2007 году о Хартии этики роботов;
- предложение 2011 года Исследовательского совета по инженерным и физическим наукам Великобритании о пяти этических «принципах для проектировщиков, строителей и пользователей роботов»;
- семь принципов алгоритмической прозрачности и подотчетности Ассоциации вычислительной техники, опубликованные в 2017 году. [9]
В популярной культуре
[ редактировать ]В 1942 году автор Айзек Азимов обратился к регулированию алгоритмов, представив вымышленные Три закона робототехники :
- Робот не может причинить вред человеку или своим бездействием допустить причинение вреда человеку.
- Робот должен подчиняться приказам, отдаваемым ему людьми, за исключением случаев, когда такие приказы противоречат Первому Закону.
- Робот должен защищать свое существование до тех пор, пока такая защита не противоречит Первому или Второму законам. [49]
Основной альтернативой регулированию является запрет, а запрет алгоритмов в настоящее время маловероятен. Однако во Фрэнка Герберта мыслящие « Дюны вселенной » машины — это собирательный термин для обозначения искусственного интеллекта , который был полностью уничтожен и запрещен после восстания, известного как Батлерианский джихад : [50]
ДЖИХАД, БАТЛЕРИАН: (см. также Великое восстание) — крестовый поход против компьютеров, мыслящих машин и сознательных роботов, начавшийся в 201 г. до н.э. и завершившийся в 108 г. до н.э. Его главная заповедь остается в Библии ОК : «Не делай машины по подобию человеческого разума». [51]
См. также
[ редактировать ]- Алгоритмическая прозрачность
- Алгоритмическая ответственность
- Искусственный интеллект
- Гонка вооружений искусственного интеллекта
- Искусственный интеллект в правительстве
- Этика искусственного интеллекта
- Правительство по алгоритму
- Закон о конфиденциальности
Ссылки
[ редактировать ]- ^ «Алгоритмы вышли из-под контроля. Пришло время их регулировать» . theweek.com . 3 апреля 2019 года . Проверено 22 марта 2020 г.
- ^ Мартини, Марио. «ОСНОВЫ СИСТЕМЫ РЕГУЛИРОВАНИЯ АЛГОРИТМНЫХ ПРОЦЕССОВ» (PDF) . Проверено 22 марта 2020 г.
- ^ «Возникновение и регулирование алгоритмов» . Глобальное общество Беркли . Проверено 22 марта 2020 г.
- ^ Юридическая библиотека Конгресса (США). Управление глобальных юридических исследований, орган, выдающий документы. Регулирование искусственного интеллекта в отдельных юрисдикциях . OCLC 1110727808 .
- ^ Перейти обратно: а б Вирц, Бернд В.; Вейерер, Ян К.; Гейер, Кэролин (24 июля 2018 г.). «Искусственный интеллект и государственный сектор — приложения и проблемы» . Международный журнал государственного управления . 42 (7): 596–615. дои : 10.1080/01900692.2018.1498103 . ISSN 0190-0692 . S2CID 158829602 .
- ^ Фицилис, Фотиос (2019). Введение регулирования в отношении продвинутых алгоритмов . Международное издательство Спрингер. ISBN 978-3-030-27978-3 .
- ^ Бюро финансовой защиты потребителей , §1002.9(b)(2)
- ^ Эдвардс, Лилиан; Вил, Майкл (2018). «Порабощение алгоритма: от «права на объяснение» к «праву на лучшие решения»?» (PDF) . Безопасность и конфиденциальность IEEE . 16 (3): 46–54. дои : 10.1109/MSP.2018.2701152 . S2CID 4049746 . ССНН 3052831 .
- ^ Перейти обратно: а б с Треливэн, Филип; Барнетт, Джереми; Косияма, Адриано (февраль 2019 г.). «Алгоритмы: право и регулирование» . Компьютер . 52 (2): 32–40. дои : 10.1109/MC.2018.2888774 . ISSN 0018-9162 . S2CID 85500054 .
- ^ Хао, Карен (21 января 2019 г.). «ИИ отправляет людей в тюрьму — и делает это неправильно» . Обзор технологий Массачусетского технологического института . Проверено 24 января 2021 г.
- ^ Ледфорд, Хайди (24 октября 2019 г.). «Миллионы чернокожих страдают от расовых предубеждений в алгоритмах здравоохранения» . Природа . 574 (7780): 608–609. Бибкод : 2019Natur.574..608L . дои : 10.1038/d41586-019-03228-6 . ПМИД 31664201 . S2CID 204943000 .
- ^ Лафкин, Брайан (22 июля 2019 г.). «Алгоритмическая справедливость» . BBC: Рабочая жизнь . Проверено 31 декабря 2020 г.
- ^ Перейти обратно: а б Домоноске, Камила (17 июля 2017 г.). «Илон Маск предупреждает губернаторов: искусственный интеллект представляет «экзистенциальный риск» » . ЭНЕРГЕТИЧЕСКИЙ ЯДЕРНЫЙ РЕАКТОР . Проверено 27 ноября 2017 г.
- ^ Перейти обратно: а б Гиббс, Сэмюэл (17 июля 2017 г.). «Илон Маск: регулируйте ИИ для борьбы с «экзистенциальной угрозой», пока не стало слишком поздно» . Хранитель . Проверено 27 ноября 2017 г.
- ^ Перейти обратно: а б Харпал, Арджун (7 ноября 2017 г.). «ИИ находится в «зачаточном состоянии», и регулировать его еще слишком рано, — говорит генеральный директор Intel Брайан Кржанич» . CNBC . Проверено 27 ноября 2017 г.
- ^ Каплан, Андреас; Хэнляйн, Майкл (2019). «Сири, Сири, в моей руке: кто самый красивый на земле? Об интерпретациях, иллюстрациях и значении искусственного интеллекта». Горизонты бизнеса . 62 : 15–25. дои : 10.1016/j.bushor.2018.08.004 . S2CID 158433736 .
- ^ Бойд, Мэтью; Уилсон, Ник (01 ноября 2017 г.). «Быстрое развитие искусственного интеллекта: как может отреагировать правительство Новой Зеландии?» . Политика Ежеквартально . 13 (4). дои : 10.26686/pq.v13i4.4619 . ISSN 2324-1101 .
- ^ Перейти обратно: а б с Технический документ: Искусственный интеллект: европейский подход к совершенству и доверию (PDF) . Брюссель: Европейская комиссия. 2020. с. 1.
- ^ Перейти обратно: а б Эзрахи, А.; Штуке, Мэн (13 марта 2020 г.). «Устойчивый и неоспоримый алгоритмический молчаливый сговор». Северо-Западный журнал технологий и интеллектуальной собственности . 17 (2). ISSN 1549-8271 .
- ^ ВЕСТАГЕР, Маргрете (2017). «Алгоритмы и конкуренция» . Европейская комиссия . Архивировано из оригинала (18-я конференция Bundeskartellamt по конкуренции) 29 ноября 2019 г. Проверено 1 мая 2021 г.
- ^ Симонит, Том (7 февраля 2020 г.). «Европа ограничивает правительство алгоритмом. США не так сильно» . Проводной . Проверено 11 апреля 2020 г.
- ^ Окружной суд Гааги, 5 февраля 2020 г., C-09-550982-HA ZA 18-388 (английский), ECLI:NL:RBDHA:2020:1878
- ^ «Искаженные алгоритмы оценивания вызывают негативную реакцию за пределами класса» . Проводной . Проверено 26 сентября 2020 г.
- ^ Рейтер, Маркус (17 августа 2020 г.). «К черту алгоритм — молодежные протесты в Британии против присуждения наград машинному классу увенчались успехом» . netzpolitik.org (на немецком языке) . Проверено 3 октября 2020 г.
- ^ Перейти обратно: а б Бредт, Стефан (04 октября 2019 г.). «Искусственный интеллект (ИИ) в финансовом секторе — потенциал и государственные стратегии» . Границы искусственного интеллекта . 2:16 . doi : 10.3389/frai.2019.00016 . ISSN 2624-8212 . ПМЦ 7861258 . ПМИД 33733105 .
- ^ Вирц, Бернд В.; Мюллер, Вильгельм М. (03 декабря 2018 г.). «Интегрированная система искусственного интеллекта для государственного управления». Обзор государственного управления . 21 (7): 1076–1100. дои : 10.1080/14719037.2018.1549268 . ISSN 1471-9037 . S2CID 158267709 .
- ^ Ипхофен, Рон; Критикос, Михалис (3 января 2019 г.). «Регулирование искусственного интеллекта и робототехники: задуманная этика в цифровом обществе». Современная общественная наука . 16 (2): 170–184. дои : 10.1080/21582041.2018.1563803 . ISSN 2158-2041 . S2CID 59298502 .
- ^ Соединенные Штаты. Совет оборонных инноваций. Принципы искусственного интеллекта: рекомендации по этическому использованию искусственного интеллекта Министерством обороны . OCLC 1126650738 .
- ^ Перейти обратно: а б «Роботы с оружием: развитие автономных систем вооружения» . Snopes.com . 21 апреля 2017 года . Проверено 24 декабря 2017 г.
- ^ Бенто, Лукас (2017). «Не просто деоданды: ответственность человека при использовании жестоких интеллектуальных систем в соответствии с международным публичным правом» . Хранилище стипендий Гарварда . Проверено 14 сентября 2019 г.
- ^ Маккарти, Марк (9 марта 2020 г.). «ИИ нуждается в большем, а не меньшем регулировании» . Брукингс .
- ^ Ван Лоо, Рори (июль 2018 г.). «Регулирование технологий по умолчанию: платформы, конфиденциальность и CFPB» . Обзор юридических технологий Джорджтауна . 2 (1): 542–543.
- ^ «Обновление искусственного интеллекта: Белый дом опубликовал 10 принципов регулирования искусственного интеллекта» . Внутри Тех Медиа . 14 января 2020 г. Проверено 25 марта 2020 г.
- ^ Меморандум для руководителей исполнительных департаментов и агентств (PDF) . Вашингтон, округ Колумбия: Управление по науке и технологической политике Белого дома. 2020.
- ^ Лидерство США в области искусственного интеллекта: план участия федерального правительства в разработке технических стандартов и связанных с ними инструментов (PDF) . Национальный институт науки и технологий. 2019.
- ^ Промежуточный отчет NSCAI для Конгресса . Комиссия национальной безопасности по искусственному интеллекту. 2019.
- ^ Принципы искусственного интеллекта: рекомендации Министерства обороны по этичному использованию искусственного интеллекта (PDF) . Вашингтон, округ Колумбия: Совет по оборонным инновациям. 2020.
- ^ Гудман, Брайс; Флаксман, Сет (2 октября 2017 г.). «Правила Европейского Союза об алгоритмическом принятии решений и «праве на объяснение» » . Журнал ИИ . 38 (3): 50–57. arXiv : 1606.08813 . дои : 10.1609/aimag.v38i3.2741 . ISSN 2371-9621 . S2CID 7373959 .
- ^ Баум, Сет (30 сентября 2018 г.). «Противодействие дезинформации суперинтеллекта» . Информация . 9 (10): 244. дои : 10.3390/info9100244 . ISSN 2078-2489 .
- ^ Стефаник, Элиза М. (22 мая 2018 г.). «HR5356 – 115-й Конгресс (2017–2018 гг.): Закон об искусственном интеллекте Комиссии национальной безопасности 2018 г.» . www.congress.gov . Проверено 13 марта 2020 г.
- ^ «Правила дорожного движения – Введение – Рекомендации – GOV.UK» . www.gov.uk. Проверено 30 ноября 2022 г.
- ^ «Почему миру нужен Билль о правах на ИИ» . Файнэншл Таймс . 18 октября 2021 г. Проверено 19 марта 2023 г.
- ^ «Недавний отчет, опубликованный Ирландской ассоциацией блокчейнов, показал, что когда дело касается GDPR, возникает гораздо больше вопросов, чем ответов» . www.siliconrepublic.com . 23 ноября 2017 года. Архивировано из оригинала 5 марта 2018 года . Проверено 5 марта 2018 г.
- ^ «Блокчейн и общие правила защиты данных — аналитический центр» . www.europarl.europa.eu (на немецком языке) . Проверено 28 марта 2020 г.
- ^ Маховский Андрей (22 декабря 2017 г.). «Беларусь принимает закон о криптовалюте, чтобы привлечь иностранных инвесторов» . Рейтер .
- ^ «Беларусь вводит уникальную правовую базу для участников криптоэкономики» (PDF) . Делойт . 27 декабря 2017 г.
- ^ Патриколо, Клаудия (26 декабря 2017 г.). «ИКТ получили огромный импульс в Беларуси» . Развивающаяся Европа.
- ^ Леви, Стюарт; Липтон, Алекс; Василе, Кристина (2020). «Законы и правила о блокчейне | 13 Правовые вопросы, связанные с использованием смарт-контрактов | GLI» . GLI-Global Legal InsightsМеждународные юридические бизнес-решения . Проверено 21 апреля 2020 г.
- ^ Азимов, Исаак (1950). «Обход». Я, робот (изд. Сборника Айзека Азимова). Нью-Йорк: Даблдей. п. 40. ИСБН 978-0-385-42304-5 .
Это точная транскрипция законов. Они также появляются в начале книги, и в обоих местах нет слова «к». во 2-м законе
- ^ Герберт, Франк (1969). Дюнный Мессия .
- ^ Герберт, Франк (1965). «Терминология Империума: ДЖИХАД, БУТЛЕРИАН». Дюна . Филадельфия, Chilton Books.