Регулирование искусственного интеллекта
Часть серии о |
Юридические аспекты вычислений |
---|
Регулирование искусственного интеллекта — это разработка политики и законов государственного сектора для продвижения и регулирования искусственного интеллекта (ИИ). Это часть более широкого регулирования алгоритмов . [1] [2] Нормативно-правовая и политическая среда в отношении ИИ является новой проблемой в юрисдикциях по всему миру, в том числе для международных организаций, не имеющих прямых полномочий по обеспечению соблюдения требований, таких как IEEE или ОЭСР . [3]
С 2016 года было опубликовано множество руководств по этике искусственного интеллекта , призванных поддерживать социальный контроль над технологией. [4] Регулирование считается необходимым как для стимулирования инноваций в области ИИ, так и для управления связанными с ними рисками.
Кроме того, организации, внедряющие ИИ, играют центральную роль в создании и внедрении заслуживающего доверия ИИ , следуя установленным принципам и принимая на себя ответственность за снижение рисков. [5]
Регулирование ИИ с помощью таких механизмов, как наблюдательные советы, также можно рассматривать как социальное средство решения проблемы контроля над ИИ . [6] [7]
Фон
[ редактировать ]Согласно индексу искусственного интеллекта Стэнфордского университета за 2023 год, ежегодное количество законопроектов, в которых упоминается «искусственный интеллект», принятых в 127 обследованных странах, выросло с одного в 2016 году до 37 в 2022 году. [8] [9]
В 2017 году Илон Маск призвал к регулированию развития ИИ. [10] По данным NPR , генеральный директор Tesla «явно не в восторге» от того, что выступает за государственный контроль, который может повлиять на его собственную отрасль, но считал, что риски полного отсутствия надзора слишком высоки: «Обычно правила устанавливаются так, что Происходит множество плохих вещей, возникает общественный резонанс, и спустя много лет создается регулирующий орган, который будет регулировать эту отрасль. Это занимает вечность. В прошлом это было плохо, но не представляло фундаментального риска для существования. цивилизации». [10] В ответ некоторые политики выразили скептицизм по поводу целесообразности регулирования технологии, которая все еще находится в стадии разработки. [11] Отвечая как на Маска, так и на предложения законодателей Европейского Союза по регулированию искусственного интеллекта и робототехники от февраля 2017 года, генеральный директор Intel Брайан Кржанич заявил, что искусственный интеллект находится в зачаточном состоянии и регулировать эту технологию еще слишком рано. [12] Многие технологические компании выступают против жесткого регулирования ИИ: «Хотя некоторые компании заявили, что приветствуют правила в отношении ИИ, они также выступили против жестких правил, подобных тем, которые создаются в Европе». [13] Вместо того, чтобы пытаться регулировать саму технологию, некоторые ученые предложили разработать общие нормы, включая требования к тестированию и прозрачности алгоритмов, возможно, в сочетании с той или иной формой гарантий. [14]
Согласно опросу Ipsos 2022 года , отношение к ИИ сильно различалось в зависимости от страны; 78% граждан Китая и только 35% американцев согласились, что «продукты и услуги, использующие ИИ, имеют больше преимуществ, чем недостатков». [8] /Ipsos , проведенный в 2023 году, Опрос Reuters показал, что 61% американцев согласны и 22% не согласны с тем, что ИИ представляет угрозу для человечества. [15] В опросе Fox News 2023 года 35% американцев сочли «очень важным», а еще 41% сочли «несколько важным» регулирование ИИ со стороны федерального правительства, по сравнению с 13%, ответившими «не очень важно» и 8% отвечая «совсем не важно». [16] [17]
Перспективы
[ редактировать ]Регулирование искусственного интеллекта — это разработка политики и законов государственного сектора для продвижения и регулирования ИИ. [18] В настоящее время регулирование считается необходимым как для поощрения искусственного интеллекта, так и для управления связанными с ним рисками. [19] [20] [21] Соображения государственного управления и политики обычно сосредоточены на технических и экономических последствиях, а также на надежных и ориентированных на человека системах искусственного интеллекта. [22] регулирование искусственного сверхинтеллекта . хотя рассматривается также [23] Базовый подход к регулированию фокусируется на рисках и предвзятости алгоритмов машинного обучения на уровне входных данных, тестирования алгоритмов и модели принятия решений. Также основное внимание уделяется объяснимости результатов. [20]
Были предложения как по жесткому, так и по мягкому законодательству по регулированию ИИ. [24] Некоторые ученые-юристы отмечают, что жесткие правовые подходы к регулированию ИИ сопряжены с серьезными проблемами. [25] [26] Среди проблем — быстрое развитие технологии искусственного интеллекта, что приводит к «проблеме темпа», когда традиционные законы и правила часто не успевают за новыми приложениями и связанными с ними рисками и преимуществами. [25] [26] Аналогичным образом, разнообразие приложений ИИ бросает вызов существующим регулирующим органам, юрисдикция которых зачастую ограничена. [25] В качестве альтернативы некоторые ученые-юристы утверждают, что подходы «мягкого права» к регулированию ИИ являются многообещающими, поскольку «мягкие законы» можно адаптировать более гибко для удовлетворения потребностей новых и развивающихся технологий ИИ и новых приложений. [25] [26] Однако подходы «мягкого права» часто не имеют существенного потенциала правоприменения. [25] [27]
Кейсон Шмит, Меган Доерр и Дженнифер Вагнер предложили создать квазиправительственный регулятор, используя права интеллектуальной собственности (т. е. лицензирование с авторским левом ) на определенные объекты ИИ (т. е. модели ИИ и наборы обучающих данных) и делегируя права принудительного исполнения назначенному правоохранительному органу. сущность. [28] Они утверждают, что ИИ может лицензироваться на условиях, требующих соблюдения определенных этических норм и кодексов поведения. (например, принципы мягкого права). [28]
Известные молодежные организации, занимающиеся вопросами ИИ, а именно Encode Justice, также опубликовали всеобъемлющие программы, призывающие к более строгим правилам ИИ и государственно-частному партнерству . [29] [30]
Регулирование ИИ может основываться на базовых принципах. Мета-обзор существующих наборов принципов, таких как Принципы Асиломара и Пекинские принципы, проведенный Центром Беркмана Кляйна в 2020 году, выявил восемь таких основных принципов: конфиденциальность, подотчетность, безопасность и защищенность, прозрачность и объяснимость, справедливость и неприкосновенность частной жизни. дискриминация, человеческий контроль над технологиями, профессиональная ответственность и уважение человеческих ценностей. [31] Законодательство и нормативные акты в области ИИ разделены на три основные темы, а именно: управление автономными интеллектуальными системами, ответственность и подотчетность за системы, а также вопросы конфиденциальности и безопасности. [19] Подход государственного управления рассматривает взаимосвязь между законодательством и регулированием ИИ, этикой ИИ и «обществом ИИ», определяемым как замена и трансформация рабочей силы, социальное признание и доверие к ИИ, а также трансформация взаимодействия человека с машиной. [32] Разработка стратегий государственного сектора по управлению и регулированию ИИ считается необходимой на местном, национальном, [33] и международный уровни [34] и в различных областях, от управления государственными службами [35] и подотчетность [36] правоохранительным органам, [34] [37] здравоохранение (особенно концепция человеческой гарантии), [38] [39] [40] [41] [42] финансовый сектор, [33] робототехника, [43] [44] автономные транспортные средства, [43] военные [45] и национальной безопасности, [46] и международное право. [47] [48]
Генри Киссинджер , Эрик Шмидт и Дэниел Хуттенлохер опубликовали в ноябре 2021 года совместное заявление под названием «Быть человеком в эпоху ИИ», в котором призвали создать правительственную комиссию по регулированию ИИ. [49]
Как ответ на проблему управления ИИ
[ редактировать ]Регулирование ИИ можно рассматривать как позитивное социальное средство решения проблемы контроля над ИИ (необходимость обеспечить долгосрочную пользу ИИ), при этом другие социальные реакции, такие как бездействие или запрет, считаются непрактичными, а такие подходы, как расширение человеческих возможностей. через трансгуманизма методы , такие как интерфейсы мозг-компьютер, которые рассматриваются как потенциально дополняющие друг друга. [7] [50] Регулирование исследований в области общего искусственного интеллекта (AGI) фокусируется на роли наблюдательных советов, от университетов или корпораций до международного уровня, а также на поощрении исследований в области безопасности ИИ . [50] вместе с возможностью дифференциального интеллектуального прогресса (приоритет защитных стратегий над рискованными стратегиями в разработке ИИ) или проведения международного массового наблюдения для осуществления контроля над вооружениями AGI. [7] Например, «AGI-няня» — это предлагаемая стратегия, потенциально находящаяся под контролем человечества, для предотвращения создания опасного сверхинтеллекта , а также для устранения других серьезных угроз благополучию человечества, таких как подрыв глобальной финансовой системы. , пока не будет безопасно создан настоящий сверхразум. Он предполагает создание более умной, чем человек, но не сверхразумной системы ИИИ, подключенной к большой сети наблюдения, с целью наблюдения за человечеством и защиты его от опасности. [7] Регулирование сознательных, этически сознательных ОИИ сосредоточено на том, как интегрировать их в существующее человеческое общество, и может быть разделено на рассмотрение их юридического статуса и их моральных прав. [7] Регулирование ИИ рассматривается как ограничительное с риском предотвращения развития ИИ. [43]
Глобальное руководство
[ редактировать ]Создание глобального совета управления для регулирования развития ИИ было предложено как минимум еще в 2017 году. [52] В декабре 2018 года Канада и Франция объявили о планах создания при поддержке G7 Международной группы по искусственному интеллекту, созданной по образцу Международной группы по изменению климата , для изучения глобального воздействия ИИ на людей и экономику, а также для управления развитием ИИ. [53] В 2019 году Группа была переименована в Глобальное партнерство по искусственному интеллекту. [54] [55]
Глобальное партнерство по искусственному интеллекту (GPAI) было запущено в июне 2020 года, заявив о необходимости разработки ИИ в соответствии с правами человека и демократическими ценностями, чтобы обеспечить общественное доверие и доверие к технологии, как указано в Принципах ОЭСР по искусственному интеллекту. Интеллект (2019). [56] 15 членами-основателями Глобального партнерства по искусственному интеллекту являются Австралия, Канада, Европейский Союз, Франция, Германия, Индия, Италия, Япония, Республика Корея, Мексика, Новая Зеландия, Сингапур, Словения, США и Великобритания. . В 2023 году в состав ГПАИ входят 29 членов. [57] Секретариат GPAI находится в ОЭСР в Париже, Франция. Мандат GPAI охватывает четыре темы, две из которых поддерживаются Международным центром экспертизы в Монреале по развитию искусственного интеллекта, а именно: ответственный искусственный интеллект и управление данными. Соответствующий центр передового опыта в Париже будет поддерживать две другие темы, касающиеся будущего сферы труда, а также инноваций и коммерциализации. GPAI также исследовала, как можно использовать ИИ для реагирования на пандемию COVID-19. [56]
Принципы ИИ ОЭСР [58] были приняты в мае 2019 года, а Принципы ИИ «Группы двадцати» — в июне 2019 года. [55] [59] [60] В сентябре 2019 года Всемирный экономический форум опубликовал десять «Руководящих принципов государственных закупок в области искусственного интеллекта». [61] В феврале 2020 года Европейский Союз опубликовал проект стратегического документа по продвижению и регулированию ИИ. [34]
В Организации Объединенных Наций (ООН) несколько организаций начали продвигать и обсуждать аспекты регулирования и политики в области ИИ, в том числе Центр ЮНИКРИ по ИИ и робототехнике . [46] В партнерстве с Интерполом Центр ЮНИКРИ опубликовал отчет «ИИ и робототехника для правоохранительных органов». в апреле 2019 года [62] и последующий отчет « На пути к ответственным инновациям в области искусственного интеллекта» в мае 2020 года. [37] На 40-й научной сессии ЮНЕСКО в ноябре 2019 года организация начала двухлетний процесс создания «глобального документа по установлению стандартов этики искусственного интеллекта». Для достижения этой цели были проведены форумы и конференции ЮНЕСКО по ИИ для сбора мнений заинтересованных сторон. Проект текста Рекомендации по этике ИИ Специальной группы экспертов ЮНЕСКО был опубликован в сентябре 2020 года и содержал призыв к устранению законодательных пробелов. [63] ЮНЕСКО представила международный документ по этике ИИ для принятия на своей Генеральной конференции в ноябре 2021 года; [56] впоследствии это было принято. [64] Хотя ООН добивается прогресса в глобальном управлении ИИ, ее институциональные и правовые возможности управлять экзистенциальным риском ИИ более ограничены. [65]
инициатива Международного союза электросвязи (МСЭ) в партнерстве с 40 родственными агентствами ООН, «ИИ во благо», представляет собой глобальную платформу, целью которой является определение практических применений ИИ для достижения целей ООН в области устойчивого развития и масштабирования этих решений для глобального воздействия. Это ориентированная на действия, глобальная и инклюзивная платформа Организации Объединенных Наций, способствующая развитию искусственного интеллекта для положительного воздействия на здоровье, климат, гендерные вопросы, инклюзивное процветание, устойчивую инфраструктуру и другие глобальные приоритеты развития. [66]
Недавние исследования показали, что страны также начнут использовать искусственный интеллект в качестве инструмента национальной киберзащиты. ИИ — новый фактор в индустрии кибероружия, поскольку его можно использовать в оборонных целях. Поэтому ученые призывают, чтобы страны установили правила использования ИИ, аналогичные тем, которые существуют для других военных отраслей. [67]
Региональное и национальное регулирование
[ редактировать ]Нормативно-правовая база в области ИИ является новой проблемой в региональных и национальных юрисдикциях по всему миру, например в Европейском Союзе. [69] и Россия. [70] С начала 2016 года многие национальные, региональные и международные органы власти начали принимать стратегии, планы действий и политические документы в области ИИ. [71] [72] Эти документы охватывают широкий спектр тем, таких как регулирование и управление, а также промышленная стратегия, исследования, таланты и инфраструктура. [22] [73]
Разные страны подошли к этой проблеме по-разному. Что касается трех крупнейших экономик, было сказано, что «Соединенные Штаты следуют рыночному подходу, Китай продвигает государственный подход, а ЕС придерживается подхода, основанного на правах человека». [74]
Австралия
[ редактировать ]В октябре 2023 года Австралийское компьютерное общество , Деловой совет Австралии , Австралийская торгово-промышленная палата , Ai Group (также известная как Австралийская промышленная группа) , Совет организаций малого бизнеса Австралии и Технический совет Австралии совместно опубликовали открытое письмо с призывом к национальный подход к стратегии ИИ. [75] В письме поддерживается федеральное правительство, создающее общеправительственную рабочую группу по искусственному интеллекту. [75]
Бразилия
[ редактировать ]30 сентября 2021 года Палата депутатов Бразилии утвердила Бразильскую правовую базу в области искусственного интеллекта, Marco Legal da Inteligência Artificial, в целях регулирования разработки и использования технологий искусственного интеллекта и дальнейшего стимулирования исследований и инноваций в области решений искусственного интеллекта, направленных на этику. , культура, справедливость, справедливость и подотчетность. В этом законопроекте, состоящем из 10 статей, изложены цели, в том числе задачи по содействию разработке этических принципов, содействию устойчивым инвестициям в исследования и устранению барьеров на пути инноваций. В частности, в статье 4 законопроекта подчеркивается необходимость избегать дискриминационных решений ИИ, плюрализм и уважение прав человека. Более того, этот закон подчеркивает важность принципа равенства в алгоритмах осознанного принятия решений, особенно для очень разнообразных и многоэтнических обществ, таких как Бразилия.
Когда законопроект впервые был обнародован, он подвергся серьезной критике, что вызвало тревогу у правительства из-за критических положений. Основная проблема заключается в том, что в этом законопроекте не удается тщательно и внимательно рассмотреть принципы подотчетности, прозрачности и инклюзивности. Статья VI устанавливает субъективную ответственность: любое лицо, которому нанесен ущерб системой искусственного интеллекта и желает получить компенсацию, должно указать заинтересованную сторону и доказать, что в жизненном цикле машины произошла ошибка. Ученые подчеркивают, что назначение лица, ответственного за доказывание алгоритмических ошибок, противоречит закону, учитывая высокую степень автономности, непредсказуемости и сложности систем ИИ. Это также привлекло внимание к возникающим в настоящее время проблемам с системами распознавания лиц в Бразилии, приводящим к несправедливым арестам полицией, а это будет означать, что, когда этот законопроект будет принят, людям придется доказывать и оправдывать эти ошибки машин.
Основные разногласия по этому законопроекту были направлены вокруг трех предложенных принципов. Во-первых, принцип недискриминации предполагает, что ИИ должен разрабатываться и использоваться таким образом, чтобы лишь смягчать возможность злоупотреблений и дискриминационной практики. Во-вторых, соблюдение принципа нейтралитета содержит рекомендации для заинтересованных сторон по смягчению предубеждений; однако без каких-либо обязательств по достижению этой цели. Наконец, принцип прозрачности гласит, что прозрачность системы необходима только тогда, когда существует высокий риск нарушения основных прав. Как легко заметить, в бразильской законодательной базе искусственного интеллекта отсутствуют обязательные положения и она скорее наполнена мягкими рекомендациями. Фактически, эксперты подчеркивают, что этот законопроект может даже еще больше затруднить достижение ответственности за дискриминационные предубеждения ИИ. По сравнению с предложением ЕС о расширенных правилах, основанных на рисках, бразильский законопроект содержит 10 статей, предлагающих расплывчатые и общие рекомендации.
По сравнению с подходом с участием многих заинтересованных сторон, применявшимся ранее в 2000-х годах при разработке бразильского Билля о правах в Интернете (Marco Civil da Internet), бразильский законопроект оценивается как существенно лишенный перспективы. Мультистейкхолдеризм, чаще называемый многосторонним управлением, определяется как практика привлечения множества заинтересованных сторон к участию в диалоге, принятии решений и реализации мер реагирования на совместно воспринимаемые проблемы. В контексте регуляторного ИИ такая перспектива с участием многих заинтересованных сторон отражает компромиссы и различные точки зрения различных заинтересованных сторон с конкретными интересами, что помогает поддерживать прозрачность и более широкую эффективность. Напротив, законодательное предложение по регулированию ИИ не придерживалось аналогичного подхода с участием многих заинтересованных сторон.
Будущие шаги могут включать в себя расширение перспективы с участием многих заинтересованных сторон. Растет обеспокоенность по поводу неприменимости законопроекта, который подчеркивает, что универсальное решение может не подходить для регулирования ИИ, и требует принятия субъективных и адаптивных положений.
Канада
[ редактировать ]Панканадская стратегия искусственного интеллекта (2017 г.) поддерживается федеральным финансированием в размере 125 миллионов канадских долларов с целью увеличения числа выдающихся исследователей ИИ и квалифицированных выпускников в Канаде, создания центров научного мастерства в трех основных центрах ИИ, развития глобальное интеллектуальное лидерство» по экономическим, этическим, политическим и правовым последствиям достижений ИИ и поддержке национального исследовательского сообщества, работающего над ИИ. [56] Канадская программа CIFAR AI Chairs является краеугольным камнем стратегии. Он получит финансирование в размере 86,5 миллионов канадских долларов в течение пяти лет для привлечения и удержания всемирно известных исследователей ИИ. [56] В мае 2019 года федеральное правительство назначило Консультативный совет по искусственному интеллекту с упором на изучение того, как использовать сильные стороны Канады, чтобы гарантировать, что достижения в области искусственного интеллекта отражают канадские ценности, такие как права человека, прозрачность и открытость. Консультативный совет по искусственному интеллекту создал рабочую группу по извлечению коммерческой выгоды из канадского искусственного интеллекта и анализа данных. [56] В 2020 году федеральное правительство и правительство Квебека объявили об открытии в Монреале Международного экспертного центра по развитию искусственного интеллекта, который будет способствовать ответственному развитию ИИ. [56] В июне 2022 года правительство Канады приступило ко второму этапу Панканадской стратегии искусственного интеллекта. [76] В ноябре 2022 года Канада представила Закон о реализации цифровой хартии (законопроект C-27), который предлагает три закона, которые были описаны как целостный пакет законов о доверии и конфиденциальности: Закон о защите конфиденциальности потребителей, Закон о защите личной информации и данных. Закон о трибуналах и Закон об искусственном интеллекте и данных (AIDA). [77] [78]
Марокко
[ редактировать ]В Марокко коалиция политических партий в парламенте выдвинула новое законодательное предложение о создании Национального агентства по искусственному интеллекту (ИИ). Целью этого агентства является регулирование технологий искусственного интеллекта, расширение сотрудничества с международными организациями в этой области и повышение осведомленности общественности как о возможностях, так и о рисках, связанных с искусственным интеллектом. [79]
Китай
[ редактировать ]Регулирование искусственного интеллекта в Китае в основном регулируется Государственным советом Китайской Народной Республики от 8 июля 2017 года «План развития искусственного интеллекта следующего поколения» (Документ Госсовета № 35), в котором Центральный комитет Коммунистическая партия Китая и Госсовет КНР призвали руководящие органы Китая содействовать развитию ИИ до 2030 года. Ускоряется регулирование вопросов этического и правового обеспечения развития ИИ, а политика обеспечивает государственный контроль над китайцами. компаний и сверхценных данных, включая хранение данных о китайских пользователях внутри страны и обязательное использование национальных стандартов Китайской Народной Республики для искусственного интеллекта, в том числе в отношении больших данных, облачных вычислений и промышленного программного обеспечения. [80] [81] [82] В 2021 году Китай опубликовал этические рекомендации по использованию ИИ в Китае, в которых говорится, что исследователи должны гарантировать, что ИИ соответствует общим человеческим ценностям, всегда находится под контролем человека и не ставит под угрозу общественную безопасность. [83] В 2023 году Китай ввел временные меры по управлению услугами генеративного искусственного интеллекта . [84]
Совет Европы
[ редактировать ]Совет Европы (СЕ) – международная организация, которая продвигает права человека, демократию и верховенство закона. В его состав входят 47 государств-членов, в том числе все 29 стран, подписавших Декларацию Европейского Союза о сотрудничестве в области искусственного интеллекта 2018 года. Совет Европы создал общее правовое пространство, в котором члены имеют юридическое обязательство гарантировать права, изложенные в Европейской конвенции по правам человека . В частности, в отношении ИИ: «Цель Совета Европы состоит в том, чтобы определить области пересечения между ИИ и нашими стандартами в области прав человека, демократии и верховенства закона, а также разработать соответствующие решения по установлению стандартов или наращиванию потенциала». Большое количество соответствующих документов, определенных Советом Европы, включает руководящие принципы, уставы, документы, отчеты и стратегии. [85] Органы-создатели этих документов по регулированию ИИ не ограничиваются одним сектором общества и включают в себя организации, компании, органы и национальные государства. [63]
Евросоюз
[ редактировать ]ЕС является одной из крупнейших юрисдикций в мире и играет активную роль в глобальном регулировании цифровых технологий посредством GDPR . [86] Закон о цифровых услугах , Закон о цифровых рынках . [87] [88] В частности, в отношении ИИ Закон об искусственном интеллекте считается в 2023 году наиболее далеко идущим нормативным актом в области ИИ во всем мире. [89] [90]
Большинство стран Европейского Союза (ЕС) имеют свои собственные национальные стратегии регулирования ИИ, но они во многом совпадают. [63] Европейский Союз руководствуется Европейской стратегией по искусственному интеллекту. [91] при поддержке Экспертной группы высокого уровня по искусственному интеллекту. [92] [93] В апреле 2019 года Европейская комиссия опубликовала « Руководство по этике для заслуживающего доверия искусственного интеллекта» (ИИ) . [94] после этого в июне 2019 года были представлены рекомендации по политике и инвестициям в отношении заслуживающего доверия искусственного интеллекта . [95] Экспертная группа высокого уровня Комиссии ЕС по искусственному интеллекту проводит работу над надежным ИИ, а Комиссия выпустила отчеты по аспектам безопасности и ответственности ИИ, а также по этике автоматизированных транспортных средств. В 2020 году Комиссия ЕС запросила мнения по предложению по конкретному законодательству в области ИИ, и этот процесс продолжается. [63]
2 февраля 2020 года Европейская комиссия опубликовала Белую книгу «Искусственный интеллект – европейский подход к совершенству и доверию» . [96] [97] Белая книга состоит из двух основных блоков: «экосистемы совершенства» и «экосистемы доверия». «Экосистема доверия» описывает подход ЕС к нормативной базе ИИ. В предлагаемом подходе Комиссия различает приложения ИИ в зависимости от того, относятся ли они к «высокому риску» или нет. В сферу будущей нормативной базы ЕС должны входить только приложения искусственного интеллекта с высоким уровнем риска. Приложение ИИ считается высокорискованным, если оно работает в рискованном секторе (например, в здравоохранении, транспорте или энергетике) и «используется таким образом, что могут возникнуть значительные риски». Для приложений ИИ с высоким уровнем риска требования в основном касаются: «данных для обучения», «данных и учета», «информации, которая должна быть предоставлена», «надежности и точности» и «человеческого контроля». Существуют также требования, специфичные для определенных видов использования, таких как удаленная биометрическая идентификация. Приложения ИИ, которые не относятся к категории «высокого риска», могут регулироваться схемой добровольной маркировки. Что касается соблюдения и обеспечения соблюдения, Комиссия рассматривает предварительные оценки соответствия, которые могут включать «процедуры тестирования, проверки или сертификации» и/или «проверки алгоритмов и наборов данных, используемых на этапе разработки». Европейская структура управления ИИ в форме структуры сотрудничества национальных компетентных органов могла бы способствовать внедрению нормативной базы. [98] [99]
Черновик от января 2021 года появился в сети 14 апреля 2021 года. [100] прежде чем Комиссия неделю спустя представила свое официальное «Предложение о Постановлении, устанавливающем гармонизированные правила в области искусственного интеллекта». [101] Вскоре на этой основе был официально предложен Закон об искусственном интеллекте (также известный как Закон об искусственном интеллекте). [102] Это предложение включает в себя уточнение подхода, основанного на рисках 2020 года, на этот раз с четырьмя категориями риска: «минимальный», «ограниченный», «высокий» и «неприемлемый». [103] Это предложение подверглось резкой критике в ходе общественных дебатов. Ученые выразили обеспокоенность по поводу различных неясных элементов предложения, таких как широкое определение того, что представляет собой ИИ, и опасаются непредвиденных юридических последствий, особенно для уязвимых групп, таких как пациенты и мигранты. [104] [105] Категория риска «ИИ общего назначения» была добавлена в Закон об ИИ для учета универсальных моделей, таких как ChatGPT , которые не соответствуют системе регулирования на основе приложений. [106] В отличие от других категорий рисков, модели ИИ общего назначения можно регулировать на основе их возможностей, а не только их использования. К более слабым моделям ИИ общего назначения предъявляются требования прозрачности, в то время как те, которые считаются представляющими «системный риск» (особенно те, которые обучены с использованием вычислительных мощностей, превышающих 10 25 FLOPS ) также должны пройти тщательную оценку. [107] Последующая версия Закона об искусственном интеллекте была окончательно принята в мае 2024 года. [108] Закон об искусственном интеллекте будет постепенно применяться. [109] Распознавание эмоций идентификация в режиме реального времени и дистанционная биометрическая будут запрещены, за некоторыми исключениями, например, для правоохранительных органов. [110]
Наблюдатели выразили обеспокоенность по поводу увеличения числа законодательных предложений в рамках Комиссии фон дер Ляйен . Скорость законодательных инициатив частично обусловлена политическими амбициями ЕС и может поставить под угрозу цифровые права европейских граждан, включая права на неприкосновенность частной жизни. [111] особенно в условиях неопределенных гарантий защиты данных посредством кибербезопасности. [93] Среди заявленных руководящих принципов в различных законодательных предложениях в области ИИ, выдвинутых Комиссией фон дер Ляйен, есть цели стратегической автономии. [112] и концепция цифрового суверенитета. [113] 29 мая 2024 года Европейская счетная палата опубликовала отчет, в котором говорится, что меры ЕС не были хорошо скоординированы с мерами стран ЕС; что мониторинг инвестиций не был систематическим; и что необходимо более сильное управление. [114]
Германия
[ редактировать ]В ноябре 2020 года [115] DIN , DKE и Федеральное министерство экономики и энергетики Германии опубликовали первое издание «Немецкой дорожной карты по стандартизации искусственного интеллекта» (NRM KI) и представили его общественности на цифровом саммите федерального правительства Германии. [116] НРМ КИ описывает требования к будущим нормам и стандартам в контексте ИИ. Реализация рекомендаций к действию призвана помочь укрепить немецкую экономику и науку в международной конкуренции в области искусственного интеллекта и создать благоприятные для инноваций условия для этой новой технологии . Первое издание представляет собой 200-страничный документ, написанный 300 экспертами. Второе издание NRM KI было опубликовано приурочено к цифровому саммиту правительства Германии 9 декабря 2022 года. [117] DIN координировал работу более 570 участвующих экспертов из самых разных областей науки, промышленности, гражданского общества и государственного сектора. Второе издание представляет собой документ объемом 450 страниц.
С одной стороны, NRM KI охватывает основные темы с точки зрения приложений (например, медицина, мобильность, энергетика и окружающая среда, финансовые услуги, промышленная автоматизация) и фундаментальных вопросов (например, классификация ИИ, безопасность, сертификация, социотехнические системы, этика). . [117] С другой стороны, он предоставляет обзор основных терминов в области ИИ и его среды для широкого круга групп интересов и источников информации. В общей сложности документ охватывает 116 потребностей в стандартизации и содержит шесть основных рекомендаций к действию. [118]
G7
[ редактировать ]30 октября 2023 года члены « Большой семерки» подписали одиннадцать руководящих принципов проектирования, производства и внедрения передовых систем искусственного интеллекта, а также добровольный Кодекс поведения разработчиков искусственного интеллекта в контексте Хиросимского процесса. [119]
Соглашение вызывает аплодисменты Урсулы фон дер Ляйен , которая находит в нем принципы Директивы по искусственному интеллекту, работа над которой в настоящее время завершается.
Италия
[ редактировать ]В октябре 2023 года итальянский орган по защите конфиденциальности утвердил постановление, которое предусматривает три принципа терапевтических решений, принимаемых автоматизированными системами: прозрачность процессов принятия решений, человеческий надзор за автоматизированными решениями и алгоритмическая недискриминация. [120]
Филиппины
[ редактировать ]Филиппин был подан законопроект В 2023 году в Палату представителей , в котором предлагалось создать Управление по развитию искусственного интеллекта (AIDA), которое будет курировать разработку и исследование искусственного интеллекта. AIDA также предлагалось стать наблюдателем за преступлениями с использованием ИИ. [121]
Комиссия по выборам также рассмотрела в 2024 году запрет на использование искусственного интеллекта и дипфейков для агитации. Они надеются ввести в действие правила, которые будут применяться уже к всеобщим выборам 2025 года. [122]
Испания
[ редактировать ]В 2018 году Министерство науки, инноваций и университетов Испании утвердило Стратегию исследований и разработок в области искусственного интеллекта. [123]
С формированием второго правительства Педро Санчеса в январе 2020 года были усилены направления, связанные с новыми технологиями , которые с 2018 года находились в ведении Министерства экономики . Так, в 2020 году был создан Государственный секретариат по цифровизации и искусственному интеллекту (SEDIA). [124] Этот вышестоящий орган, следуя рекомендациям Стратегии исследований и разработок в области искусственного интеллекта 2018 года, [125] была разработана Национальная стратегия искусственного интеллекта (2020 г.), которая уже предусматривала действия, касающиеся управления искусственным интеллектом, и этические стандарты, которые должны регулировать его использование. Этот проект также был включен в План восстановления, трансформации и устойчивости (2021 г.).
В течение 2021 года [124] Правительство сообщило, что эти идеи будут разрабатываться через новое правительственное агентство, а общий государственный бюджет на 2022 год санкционировал его создание и выделил пять миллионов евро на его развитие. [126]
Совет министров на своем заседании 13 сентября 2022 года начал процесс выборов штаб-квартиры AESIA. [127] [128] 16 испанских провинций представили кандидатуры, при этом правительство выбрало Ла-Корунья , которая предложила здание Ла-Терраса. [129]
22 августа 2023 года Правительство утвердило внутренний регламент Агентства. [130] Таким образом, Испания стала первой европейской страной, в которой существует агентство по надзору за искусственным интеллектом, ожидая вступления в силу будущего европейского регламента по искусственному интеллекту. [131] который устанавливает необходимость для государств-членов иметь надзорный орган в этом вопросе.Великобритания
[ редактировать ]Великобритания поддержала применение и развитие искусственного интеллекта в бизнесе посредством Стратегии цифровой экономики на 2015–2018 годы. [132] представлен в начале 2015 года компанией Innovate UK в рамках цифровой стратегии Великобритании. [132] В государственном секторе Департамент цифровых технологий, культуры, СМИ и спорта консультировал по этике данных, а Институт Алана Тьюринга давал рекомендации по ответственному проектированию и внедрению систем искусственного интеллекта. [133] [134] Что касается кибербезопасности, в 2020 году Национальный центр кибербезопасности выпустил руководство по «интеллектуальным инструментам безопасности». [46] [135] В следующем году Великобритания опубликовала свою 10-летнюю Национальную стратегию в области искусственного интеллекта. [136] в котором описаны действия по оценке долгосрочных рисков ИИ, включая катастрофические риски, связанные с ИИ. [137]
В марте 2023 года Великобритания опубликовала официальный документ «Инновационный подход к регулированию ИИ» . [138] В этом официальном документе представлены общие принципы искусственного интеллекта, но он оставляет существующим регулирующим органам значительную гибкость в том, как они адаптируют эти принципы к конкретным областям, таким как транспорт или финансовые рынки. [139] В ноябре 2023 года в Великобритании состоялся первый саммит по безопасности ИИ , на котором премьер-министр Риши Сунак стремился позиционировать Великобританию как лидера в регулировании безопасности ИИ . [140] [141] В ходе саммита Великобритания создала Институт безопасности искусственного интеллекта как развитие Frontier AI Taskforce под руководством Яна Хогарта . В частности, на институт была возложена ответственность за продвижение оценок безопасности самых передовых в мире моделей ИИ, также называемых передовыми моделями ИИ . [142]
Правительство Великобритании заявило о своем нежелании принимать законы на раннем этапе, утверждая, что это может замедлить рост сектора и что законы могут стать устаревшими в результате дальнейшего технологического прогресса. [143]
Соединенные Штаты
[ редактировать ]Дискуссии о регулировании ИИ в Соединенных Штатах включали такие темы, как своевременность регулирования ИИ, характер федеральной нормативной базы для управления и продвижения ИИ, в том числе то, какое агентство должно возглавлять, регулирующие и управляющие полномочия этого агентства и как обновлять правила в условиях быстро меняющихся технологий, а также роли правительств штатов и судов. [144]
Еще в 2016 году администрация Обамы начала уделять внимание рискам и правилам, связанным с искусственным интеллектом. В докладе под названием « Подготовка к будущему искусственного интеллекта» [145] Национальный совет по науке и технологиям создал прецедент, позволяющий исследователям продолжать разработку новых технологий искусственного интеллекта с небольшими ограничениями. В отчете говорится, что «подход к регулированию продуктов с поддержкой ИИ для защиты общественной безопасности должен основываться на оценке аспектов риска…». [146] Эти риски станут основной причиной создания любой формы регулирования, при условии, что любое существующее регулирование не будет применяться к технологии искусственного интеллекта.
Первым основным отчетом стал Национальный стратегический план исследований и разработок в области искусственного интеллекта. [147] 13 августа 2018 года раздел 1051 Закона о полномочиях национальной обороны Джона С. Маккейна на 2019 финансовый год (PL 115-232) учредил Комиссию национальной безопасности по искусственному интеллекту, «чтобы рассматривать методы и средства, необходимые для продвижения развития искусственного интеллекта». , машинное обучение и связанные с ними технологии для комплексного решения потребностей национальной безопасности и обороны Соединенных Штатов». [148] Руководство регулированием искусственного интеллекта, связанного с безопасностью, осуществляет Комиссия национальной безопасности по искусственному интеллекту. [149] Закон об инициативе в области искусственного интеллекта (S.1558) представляет собой предлагаемый законопроект, который создаст федеральную инициативу, призванную ускорить исследования и разработки в области искусственного интеллекта, в частности , для экономической и национальной безопасности Соединенных Штатов. [150] [151]
7 января 2019 г. в соответствии с Указом о сохранении американского лидерства в области искусственного интеллекта, [152] Белого дома Управление по науке и технологической политике опубликовало проект Руководства по регулированию приложений искусственного интеллекта . [153] который включает десять принципов для агентств США при принятии решения о том, следует ли и как регулировать ИИ. [154] В ответ Национальный институт стандартов и технологий опубликовал документ с изложением позиции: [155] а Совет по оборонным инновациям выпустил рекомендации по этичному использованию ИИ. [45] Год спустя администрация призвала дать комментарии по регулированию в другом проекте своего Руководства по регулированию приложений искусственного интеллекта. [156]
Другие специальные агентства, занимающиеся регулированием искусственного интеллекта, включают Управление по контролю за продуктами и лекарствами, [39] который создал пути регулирования использования искусственного интеллекта в медицинской визуализации. [38] Национальный совет по науке и технологиям также опубликовал Национальный стратегический план исследований и разработок в области искусственного интеллекта. [157] который получил общественное внимание и рекомендации по его дальнейшему совершенствованию для обеспечения надежного ИИ. [158]
В марте 2021 года Комиссия национальной безопасности по искусственному интеллекту опубликовала свой окончательный отчет. [159] В отчете они заявили, что «достижения в области ИИ, включая освоение более общих возможностей ИИ в одном или нескольких измерениях, вероятно, предоставят новые возможности и приложения. Некоторые из этих достижений могут привести к переломным моментам или скачкам в возможностях. Такие достижения». может также вызвать новые проблемы и риски, а также необходимость в новой политике, рекомендациях и технических достижениях, чтобы гарантировать, что системы соответствуют целям и ценностям, включая безопасность, надежность и надежность. США должны отслеживать достижения в области искусственного интеллекта и делать необходимые инвестиции в технологии. и уделять внимание политике, чтобы гарантировать, что системы искусственного интеллекта и их использование соответствуют нашим целям и ценностям».
В июне 2022 года сенаторы Роб Портман и Гэри Питерс представили Закон о глобальном смягчении катастрофических рисков. Двухпартийный законопроект «также поможет противостоять риску использования искусственного интеллекта... от злоупотреблений, которые могут представлять катастрофический риск». [160] [161] 4 октября 2022 года президент Джо Байден представил новый Билль о правах ИИ. [162] В нем изложены пять мер защиты, которые американцы должны иметь в эпоху искусственного интеллекта: 1. Безопасные и эффективные системы, 2. Алгоритмическая защита от дискриминации, 3. Конфиденциальность данных, 4. Уведомление и объяснение и 5. Человеческие альтернативы, рассмотрение и запасной вариант. Законопроект был внесен в октябре 2021 года Управлением научно-технической политики (OSTP), правительственным департаментом США, который консультирует президента по вопросам науки и технологий. [163]
В январе 2023 года вступил в силу Закон города Нью-Йорка об аудите предвзятости (Местный закон 144). [164] ) был принят Советом Нью-Йорка в ноябре 2021 года. Первоначально он должен был вступить в силу 1 января 2023 года, но дата вступления в силу местного закона 144 была перенесена из-за большого количества комментариев, полученных во время публичных слушаний по делу Департамента по защите прав потребителей. и Правила по охране труда (DCWP), разъясняющие требования законодательства. В конечном итоге он вступил в силу 5 июля 2023 года. [165] С этой даты компаниям, которые работают и нанимают сотрудников в Нью-Йорке, запрещено использовать автоматизированные инструменты для найма кандидатов или продвижения сотрудников, если только эти инструменты не прошли независимую проверку на предмет предвзятости.
В июле 2023 года администрация Байдена-Харриса добилась добровольных обязательств от семи компаний — Amazon , Anthropic , Google , Inflection , Meta , Microsoft и OpenAI — по управлению рисками, связанными с ИИ. Компании обязались обеспечить, чтобы продукты искусственного интеллекта проходили как внутреннее, так и внешнее тестирование безопасности перед их публичным выпуском; обмениваться информацией об управлении рисками ИИ с промышленностью, правительствами, гражданским обществом и научными кругами; уделять приоритетное внимание кибербезопасности и защищать собственные компоненты систем искусственного интеллекта; разработать механизмы информирования пользователей о том, что контент создается с помощью ИИ, например водяные знаки; публично сообщать о возможностях, ограничениях и областях использования своих систем ИИ; уделить приоритетное внимание исследованиям социальных рисков, связанных с ИИ, включая предвзятость, дискриминацию и проблемы конфиденциальности; и разработать системы искусственного интеллекта для решения социальных проблем, начиная от профилактики рака и заканчивая смягчением последствий изменения климата . В сентябре 2023 года появятся еще восемь компаний — Adobe , Cohere , IBM , Nvidia , Palantir. , Salesforce , Scale AI и Stability AI – подписались на эти добровольные обязательства. [166] [167]
В октябре 2023 года администрация Байдена дала понять, что выпустит указ, позволяющий использовать покупательную способность федерального правительства для формирования правил в области ИИ, намекая на активную позицию правительства в регулировании технологий ИИ. [168] 30 октября 2023 года президент Байден издал указ о безопасном, защищенном и заслуживающем доверия искусственном интеллекте . Исполнительный указ затрагивает множество вопросов, таких как сосредоточение внимания на стандартах критической инфраструктуры, кибербезопасности, усиленной искусственным интеллектом, и проектах биологического синтеза, финансируемых из федерального бюджета. [169]
Исполнительный указ предоставляет полномочия различным агентствам и департаментам правительства США, включая министерства энергетики и обороны, применять существующие законы о защите потребителей к разработке ИИ. [170]
Исполнительный указ основывается на предыдущих соглашениях администрации с компаниями, занимающимися искусственным интеллектом, о внедрении новых инициатив по «красной команде» или стресс-тестированию базовых моделей искусственного интеллекта двойного назначения, особенно тех, которые потенциально могут представлять угрозу безопасности, с передачей данных и результатов федеральное правительство.
Исполнительный указ также признает социальные проблемы ИИ и призывает компании, создающие базовые модели ИИ двойного назначения, с осторожностью относиться к этим социальным проблемам. Например, в указе говорится, что ИИ не должен «ухудшать качество рабочих мест» и не должен «вызывать перебои в работе рабочей силы». Кроме того, исполнительный указ Байдена требует, чтобы ИИ «продвигал равенство и гражданские права» и не мог ставить в невыгодное положение маргинализированные группы. [171] Он также призвал к тому, чтобы базовые модели включали «водяные знаки», чтобы помочь общественности различать контент, созданный человеком, и контент, созданный искусственным интеллектом, что вызвало споры и критику со стороны исследователей по обнаружению дипфейков. [172]
В феврале 2024 года сенатор Скотт Винер представил Закон о безопасных и надежных инновациях для пограничных моделей искусственного интеллекта законодательному собранию Калифорнии . Законопроект во многом основан на указе Байдена . [173] Его цель – снизить катастрофические риски путем проведения обязательных испытаний на безопасность самых мощных моделей искусственного интеллекта. В случае принятия законопроекта также будет создан финансируемый государством кластер облачных вычислений в Калифорнии. [174]
21 марта 2024 года в штате Теннесси был принят закон под названием « Закон ЭЛВИС» , направленный конкретно на аудиодипфейки и клонирование голоса. [175] Этот закон стал первым принятым законом в стране, направленным на регулирование моделирования изображения, голоса и изображения с помощью ИИ. [176] Законопроект был принят единогласно в Палате представителей и Сенате Теннесси . [177] Его сторонники надеялись, что успех этого закона вдохновит аналогичные действия в других штатах, внеся вклад в единый подход к авторскому праву и конфиденциальности в эпоху цифровых технологий, а также усилит важность защиты прав художников от несанкционированного использования их голосов и изображений. [178] [179]
13 марта 2024 года штата Юта губернатор Спенсер Кокс подписал Закон SB 149 «Закон о политике в области искусственного интеллекта». Этот закон вступает в силу 1 мая 2024 года. Он устанавливает ответственность, в частности, для компаний, которые не раскрывают информацию об использовании генеративного ИИ , когда этого требуют государственные законы о защите прав потребителей, или когда пользователи совершают уголовные преступления с использованием генеративного ИИ. Он также создает Управление политики в области искусственного интеллекта и Лабораторную программу обучения искусственному интеллекту . [180] [181]
Регулирование полностью автономного оружия
[ редактировать ]Юридические вопросы, связанные со смертоносными автономными системами вооружения (LAWS), в частности соблюдение законов вооруженных конфликтов , обсуждаются в Организации Объединенных Наций с 2013 года в контексте Конвенции о конкретных видах обычного оружия . [182] Примечательно, что неофициальные встречи экспертов состоялись в 2014, 2015 и 2016 годах, а в 2016 году была назначена Группа правительственных экспертов (ГПЭ) для дальнейшего обсуждения этого вопроса. 2018. [183]
В 2016 году Китай опубликовал позиционный документ, ставящий под сомнение адекватность существующего международного права для рассмотрения возможности создания полностью автономного оружия, став первым постоянным членом Совета Безопасности ООН , затронувшим этот вопрос. [47] и ведущие к предложениям по глобальному регулированию. [184] Возможность моратория или упреждающего запрета на разработку и использование АСОЛД также неоднократно поднималась другими национальными делегациями в рамках Конвенции о конкретных видах обычного оружия и активно поддерживается Кампанией по прекращению роботов-убийц – коалицией не -правительственные организации. [185] Правительство США утверждает, что действующее международное гуманитарное право способно регулировать разработку или использование ЗАКОНОВ. [186] указала В 2023 году Исследовательская служба Конгресса , что США не имеют в своем арсенале ЗАКОНЫ, но их политика не запрещает их разработку и применение. [187]
См. также
[ редактировать ]- Искусственный интеллект
- Гонка вооружений искусственного интеллекта
- Выравнивание ИИ
- Алгоритмическая ответственность
- Искусственный интеллект в правительстве
- Этика искусственного интеллекта
- Правительство по алгоритму
- Юридическая информатика
- Регулирование алгоритмов
- Ответственность за беспилотные автомобили § Искусственный интеллект и ответственность
Ссылки
[ редактировать ]- ^ Кэт, Коринн (2018). «Управление искусственным интеллектом: этические, юридические и технические возможности и проблемы» . Философские труды Королевского общества A: Математические, физические и технические науки . 376 (2133): 20180080. Бибкод : 2018RSPTA.37680080C . дои : 10.1098/rsta.2018.0080 . ПМК 6191666 . ПМИД 30322996 .
- ^ Эрдели, Оливия Дж.; Голдсмит, Джуди (2020). «Регулирование искусственного интеллекта: предложение глобального решения». arXiv : 2005.11072 [ cs.CY ].
- ^ Таллберг, Йонас; Эрман, Ева; Фюрендаль, Маркус; Гейт, Йоханнес; Кламберг, Марк; Лундгрен, Магнус (2023). «Глобальное управление искусственным интеллектом: следующие шаги эмпирических и нормативных исследований» . Обзор международных исследований . 25 (3). arXiv : 2305.11528 . дои : 10.1093/isr/viad040 .
- ^ Хедер, М (2020). «Критика этических принципов ИИ» . Информационное общество . 20 (4): 57–73. дои : 10.22503/inftars.XX.2020.4.5 . S2CID 233252939 .
- ^ Кертис, Кейтлин; Гиллеспи, Николь; Локки, Стивен (24 мая 2022 г.). «Организации, внедряющие ИИ, играют ключевую роль в устранении «идеального шторма» рисков ИИ» . ИИ и этика . 3 (1): 145–153. дои : 10.1007/s43681-022-00163-7 . ISSN 2730-5961 . ПМЦ 9127285 . ПМИД 35634256 .
- ^ «Этический подход к ИИ является абсолютным императивом, Андреас Каплан» . Проверено 26 апреля 2021 г.
- ^ Jump up to: а б с д и Сотала, Кай; Ямпольский, Роман В. (19 декабря 2014 г.). «Реакция на катастрофический риск ОГИ: опрос» . Физика Скрипта . 90 (1): 018001. Бибкод : 2015PhyS...90a8001S . дои : 10.1088/0031-8949/90/1/018001 . ISSN 0031-8949 .
- ^ Jump up to: а б Винсент, Джеймс (3 апреля 2023 г.). «ИИ вступает в эпоху корпоративного контроля» . Грань . Проверено 19 июня 2023 г.
- ^ «Отчет об индексе искусственного интеллекта за 2023 год / Глава 6: Политика и управление» (PDF) . Индекс ИИ . 2023 . Проверено 19 июня 2023 г.
- ^ Jump up to: а б «Илон Маск предупреждает губернаторов: искусственный интеллект представляет «экзистенциальный риск» » . NPR.org . Проверено 27 ноября 2017 г.
- ^ Гиббс, Сэмюэл (17 июля 2017 г.). «Илон Маск: регулируйте ИИ для борьбы с «экзистенциальной угрозой», пока не стало слишком поздно» . Хранитель . Проверено 27 ноября 2017 г.
- ^ Харпал, Арджун (7 ноября 2017 г.). «ИИ находится в «зачаточном состоянии», и регулировать его еще слишком рано, — говорит генеральный директор Intel Брайан Кржанич» . CNBC . Проверено 27 ноября 2017 г.
- ^ Чемберлен, Джоанна (март 2023 г.). «Риск-ориентированный подход к предлагаемому Европейскому Союзу постановлению об искусственном интеллекте: некоторые комментарии с точки зрения деликтного права» . Европейский журнал регулирования рисков . 14 (1): 1–13. дои : 10.1017/ошибка.2022.38 . ISSN 1867-299Х .
- ^ Каплан, Андреас; Хэнляйн, Майкл (2019). «Сири, Сири, в моей руке: кто самый справедливый на земле? Об интерпретациях, иллюстрациях и значении искусственного интеллекта». Горизонты бизнеса . 62 : 15–25. дои : 10.1016/j.bushor.2018.08.004 . S2CID 158433736 .
- ^ Эдвардс, Бендж (17 мая 2023 г.). «Опрос: ИИ представляет опасность для человечества, по мнению большинства американцев» . Арс Техника . Проверено 19 июня 2023 г.
- ^ Касперович, Питер (1 мая 2023 г.). «Регулировать ИИ? Республиканская партия гораздо более скептически, чем демократы, считает, что правительство может сделать это правильно: опрос» . Фокс Ньюс . Проверено 19 июня 2023 г.
- ^ «Опрос Fox News» (PDF) . Фокс Ньюс. 2023 . Проверено 19 июня 2023 г.
- ^ Барфилд, Вудро; Пагалло, Уго (2018). Научно-исследовательский справочник по закону искусственного интеллекта . Челтнем, Великобритания: Издательство Эдварда Элгара. ISBN 978-1-78643-904-8 . OCLC 1039480085 .
- ^ Jump up to: а б Вирц, Бернд В.; Вейерер, Ян К.; Гейер, Кэролин (24 июля 2018 г.). «Искусственный интеллект и государственный сектор — приложения и проблемы» . Международный журнал государственного управления . 42 (7): 596–615. дои : 10.1080/01900692.2018.1498103 . ISSN 0190-0692 . S2CID 158829602 .
- ^ Jump up to: а б Бьютен, Мириам К. (2019). «На пути к интеллектуальному регулированию искусственного интеллекта» . Европейский журнал регулирования рисков . 10 (1): 41–59. дои : 10.1017/ошибка.2019.8 .
- ^ Мантелеро, Алессандро; Эспозито, Мария Саманта (2021). «Обоснованная методология оценки воздействия на права человека (HRIA) при разработке систем искусственного интеллекта с интенсивным использованием данных» . Обзор компьютерного права и безопасности . 41 : 105561. doi : 10.1016/j.clsr.2021.105561 . ISSN 0267-3649 . S2CID 237588123 .
- ^ Jump up to: а б Искусственный интеллект в обществе . Париж: Организация экономического сотрудничества и развития. 11 июня 2019 г. ISBN 978-92-64-54519-9 . OCLC 1105926611 .
- ^ Камышанский Владимир П.; Руденко Евгения Юрьевна; Коломиец Евгений А.; Крипакова, Дина Р. (2020), «Возвращаясь к месту искусственного интеллекта в обществе и государстве», Искусственный интеллект: антропогенная природа против социального происхождения , Достижения в области интеллектуальных систем и вычислений, том. 1100, Чам: Springer International Publishing, стр. 359–364, номер документа : 10.1007/978-3-030-39319-9_41 , ISBN. 978-3-030-39318-2 , S2CID 213070224
- ^ «Специальный выпуск об управлении искусственным интеллектом по мягкому праву: информация о публикации журнала IEEE Technology and Society Magazine» . Журнал IEEE Technology and Society . 40 (4): С2. Декабрь 2021. doi : 10.1109/МТС.2021.3126194 .
- ^ Jump up to: а б с д и Марчант, Гэри. « Мягкое право «Управление ИИ» (PDF) . ИИ Пульс . Статьи AI PULSE . Проверено 28 февраля 2023 г.
- ^ Jump up to: а б с Джонсон, Уолтер Г.; Боуман, Диана М. (декабрь 2021 г.). «Обзор инструментов и институтов, доступных для глобального управления искусственным интеллектом». Журнал IEEE Technology and Society . 40 (4): 68–76. дои : 10.1109/МТС.2021.3123745 . S2CID 245053179 .
- ^ Сатклифф, Хиллари Р.; Браун, Саманта (декабрь 2021 г.). «Доверие и мягкое право для ИИ». Журнал IEEE Technology and Society . 40 (4): 14–24. дои : 10.1109/МТС.2021.3123741 . S2CID 244955938 .
- ^ Jump up to: а б Шмит, CD; Дорр, MJ; Вагнер, Дж. К. (17 февраля 2023 г.). «Использование интеллектуальной собственности для управления ИИ». Наука . 379 (6633): 646–648. Бибкод : 2023Sci...379..646S . дои : 10.1126/science.add2202 . ПМИД 36795826 . S2CID 256901479 .
- ^ Лима-Стронг, Криштиану (16 мая 2024 г.). «Молодежные активисты призывают мировых лидеров установить меры защиты ИИ к 2030 году» . Вашингтон Пост . Проверено 24 июня 2024 г.
- ^ Холдейн, Мэтт (21 мая 2024 г.). «Студенческие активисты в области искусственного интеллекта из Encode Justice обнародовали 22 цели на 2030 год в преддверии глобального саммита в Сеуле» . Проверено 24 июня 2024 г.
- ^ Фьелд, Джессика; Ахтен, Неле; Хиллигосс, Ханна; Надь, Адам; Шрикумар, Мадху (15 января 2020 г.). Принципиальный искусственный интеллект: сопоставление консенсуса в этических и правозащитных подходах к принципам искусственного интеллекта (отчет). Центр Беркмана Кляйна Интернета и общества.
- ^ Вирц, Бернд В.; Вейерер, Ян К.; Штурм, Бенджамин Дж. (15 апреля 2020 г.). «Темные стороны искусственного интеллекта: интегрированная система управления искусственным интеллектом для государственного управления». Международный журнал государственного управления . 43 (9): 818–829. дои : 10.1080/01900692.2020.1749851 . ISSN 0190-0692 . S2CID 218807452 .
- ^ Jump up to: а б Бредт, Стефан (04 октября 2019 г.). «Искусственный интеллект (ИИ) в финансовом секторе — потенциал и государственные стратегии» . Границы искусственного интеллекта . 2:16 . дои : 10.3389/фр.2019.00016 . ISSN 2624-8212 . ПМЦ 7861258 . ПМИД 33733105 .
- ^ Jump up to: а б с Технический документ: Искусственный интеллект: европейский подход к совершенству и доверию (PDF) . Брюссель: Европейская комиссия. 2020. с. 1.
- ^ Вирц, Бернд В.; Мюллер, Вильгельм М. (03 декабря 2018 г.). «Интегрированная система искусственного интеллекта для государственного управления». Обзор государственного управления . 21 (7): 1076–1100. дои : 10.1080/14719037.2018.1549268 . ISSN 1471-9037 . S2CID 158267709 .
- ^ Райсман, Диллон; Шульц, Джейсон; Кроуфорд, Кейт; Уиттакер, Мередит (2018). Алгоритмические оценки воздействия: практическая основа подотчетности государственных учреждений (PDF) . Нью-Йорк: Институт AI Now. Архивировано из оригинала (PDF) 14 июня 2020 г. Проверено 28 апреля 2020 г.
- ^ Jump up to: а б «На пути к ответственным инновациям в области искусственного интеллекта» . ЮНИКРИ . июль 2020 года . Проверено 18 июля 2022 г.
- ^ Jump up to: а б Кохли, Аджай; Махаджан, Видур; Силс, Кевин; Кохли, Аджит; Джа, Саураб (2019). «Концепции регулирования использования искусственного интеллекта для медицинских изображений Управлением по санитарному надзору за качеством пищевых продуктов и медикаментов США» . Американский журнал рентгенологии . 213 (4): 886–888. дои : 10.2214/18.04.20410 . ISSN 0361-803X . PMID 31166758 . S2CID 174813195 .
- ^ Jump up to: а б Хван, Томас Дж.; Кессельхайм, Аарон С.; Вокингер, Керстин Н. (17 декабря 2019 г.). «Регулирование жизненного цикла программных устройств на основе искусственного интеллекта и машинного обучения в медицине» . ДЖАМА . 322 (23): 2285–2286. дои : 10.1001/jama.2019.16842 . ISSN 0098-7484 . ПМИД 31755907 . S2CID 208230202 .
- ^ Шарма, Кавита; Манчиканти, Падмавати (01 октября 2020 г.). «Регулирование использования искусственного интеллекта в разработке лекарств и здравоохранении» . Отчет о законе о биотехнологиях . 39 (5): 371–380. дои : 10.1089/blr.2020.29183.ks . ISSN 0730-031X . S2CID 225540889 .
- ^ Петкус, Гарольдас; Хугеверф, Ян; Вятт, Джереми С. (2020). «Что думают старшие врачи об искусственном интеллекте и системах поддержки клинических решений: количественный и качественный анализ данных специализированных обществ» . Клиническая медицина . 20 (3): 324–328. дои : 10.7861/clinmed.2019-0317 . ISSN 1470-2118 . ПМК 7354034 . ПМИД 32414724 .
- ^ Ченг, Джером Ю.; Абель, Джейкоб Т.; Балис, Улисс Г.Дж.; МакКлинток, Дэвид С.; Пантановиц, Лирон (2021). «Проблемы разработки, внедрения и регулирования искусственного интеллекта в анатомической патологии» . Американский журнал патологии . 191 (10): 1684–1692. дои : 10.1016/j.ajpath.2020.10.018 . ISSN 0002-9440 . ПМИД 33245914 . S2CID 227191875 .
- ^ Jump up to: а б с Гуркайнак, Гоненц; Йылмаз, Илай; Хаксевер, Гюнес (2016). «Удушение искусственного интеллекта: опасности для человека». Обзор компьютерного права и безопасности . 32 (5): 749–758. дои : 10.1016/j.clsr.2016.05.003 . ISSN 0267-3649 .
- ^ Ипхофен, Рон; Критикос, Михалис (3 января 2019 г.). «Регулирование искусственного интеллекта и робототехники: задуманная этика в цифровом обществе». Современная общественная наука . 16 (2): 170–184. дои : 10.1080/21582041.2018.1563803 . ISSN 2158-2041 . S2CID 59298502 .
- ^ Jump up to: а б Принципы искусственного интеллекта: Рекомендации по этическому использованию искусственного интеллекта Министерством обороны (PDF) . Вашингтон, округ Колумбия: Совет по оборонным инновациям США. 2019. OCLC 1126650738 .
- ^ Jump up to: а б с Бабута, Александр; Освальд, Мэрион; Янжева, Арди (2020). Искусственный интеллект и национальная безопасность Великобритании: политические соображения (PDF) . Лондон: Королевский институт объединенных служб. Архивировано из оригинала (PDF) 02 мая 2020 г. Проверено 28 апреля 2020 г.
- ^ Jump up to: а б «Роботы с оружием: развитие автономных систем вооружения» . Snopes.com . 21 апреля 2017 года . Проверено 24 декабря 2017 г.
- ^ Бенто, Лукас (2017). «Не просто деоданды: ответственность человека при использовании жестоких интеллектуальных систем в соответствии с международным публичным правом» . Хранилище стипендий Гарварда . Проверено 14 сентября 2019 г.
- ^ Киссинджер, Генри (1 ноября 2021 г.). «Проблема быть человеком в эпоху искусственного интеллекта» . Уолл Стрит Джорнал .
- ^ Jump up to: а б Барретт, Энтони М.; Баум, Сет Д. (23 мая 2016 г.). «Модель путей к катастрофе искусственного сверхразума для анализа рисков и решений». Журнал экспериментального и теоретического искусственного интеллекта . 29 (2): 397–414. arXiv : 1607.07730 . дои : 10.1080/0952813x.2016.1186228 . ISSN 0952-813X . S2CID 928824 .
- ^ «Отчет об индексе искусственного интеллекта за 2024 год — глава 3: Ответственный искусственный интеллект» (PDF) . aiindex.stanford.edu . Апрель 2024 г.
- ^ Бойд, Мэтью; Уилсон, Ник (01 ноября 2017 г.). «Быстрое развитие искусственного интеллекта: как может отреагировать правительство Новой Зеландии?» . Политика Ежеквартально . 13 (4). дои : 10.26686/pq.v13i4.4619 . ISSN 2324-1101 .
- ^ Инновации, наука и экономическое развитие Канады (16 мая 2019 г.). «Декларация Международной группы экспертов по искусственному интеллекту» . gcnws . Проверено 29 марта 2020 г.
- ^ Симонит, Том (08 января 2020 г.). «У мира есть план по обузданию искусственного интеллекта, но США он не нравится» . Проводной . Проверено 29 марта 2020 г.
- ^ Jump up to: а б «Регулирование ИИ: время пришло?» . Информационная неделя . 24 февраля 2020 г. Проверено 29 марта 2020 г.
- ^ Jump up to: а б с д и ж г Доклад ЮНЕСКО по науке: гонка со временем ради более разумного развития . Париж: ЮНЕСКО. 11 июня 2021 г. ISBN 978-92-3-100450-6 .
- ^ "Сообщество" . ГПАИ . Архивировано из оригинала 30 марта 2023 года.
- ^ «Обзор принципов искусственного интеллекта» . ОЭСР.AI. Проверено 20 октября 2023 г.
- ^ Заявление министров G20 по торговле и цифровой экономике (PDF) . Цукуба, Япония: G20. 2019.
- ^ «Международная комиссия по этике ИИ должна быть независимой» . Природа . 572 (7770): 415. 21.08.2019. Бибкод : 2019Natur.572R.415. . дои : 10.1038/d41586-019-02491-x . ПМИД 31435065 .
- ^ Руководство по закупкам ИИ (PDF) . Колоньи/Женева: Всемирный экономический форум. 2019.
- ^ «Мероприятие высокого уровня: искусственный интеллект и робототехника – меняя будущее преступности, терроризма и безопасности» . ЮНИКРИ . Проверено 18 июля 2022 г.
- ^ Jump up to: а б с д Нифаолайн, Лабхаойз; Хайнс, Эндрю; Наллур, Вивек (2020). Оценка склонности к надежности и регулирование искусственного интеллекта в Европе (PDF) . Дублин: Технологический университет Дублина, Школа компьютерных наук, Дублин. стр. 1–12. В эту статью включен текст, доступный по лицензии CC BY 4.0 . (Лицензия CC BY 4.0 означает, что каждый имеет право повторно использовать текст, который здесь цитируется, или другие части самой оригинальной статьи, если они указывают авторов. Дополнительная информация: лицензия Creative Commons ) Изменения были внесены следующим образом: цитаты удалены и незначительные грамматические поправки.
- ^ «Рекомендации по этике искусственного интеллекта» . ЮНЕСКО . 27 февраля 2020 г. Проверено 18 июля 2022 г.
- ^ Ниндлер, Рейнмар (11 марта 2019 г.). «Способность Организации Объединенных Наций управлять экзистенциальными рисками с акцентом на искусственный интеллект» . Обзор права международного сообщества . 21 (1): 5–34. дои : 10.1163/18719732-12341388 . ISSN 1871-9740 . S2CID 150911357 .
- ^ "О" . ИИ во благо . Проверено 06 апреля 2023 г.
- ^ Таддео, Мариаросария; Флориди, Лучано (апрель 2018 г.). «Регулировать искусственный интеллект, чтобы предотвратить гонку кибервооружений» . Природа . 556 (7701): 296–298. Бибкод : 2018Natur.556..296T . дои : 10.1038/d41586-018-04602-6 . ПМИД 29662138 .
- ^ «Искусственный интеллект и робототехника» . ЮНИКРИ . Проверено 8 августа 2020 г.
- ^ Юридическая библиотека Конгресса (США). Управление глобальных юридических исследований, орган, выдающий документы. Регулирование искусственного интеллекта в отдельных юрисдикциях . LCCN 2019668143 . OCLC 1110727808 .
- ^ Попова Анна Владимировна; Горохова Светлана С.; Абрамова Марианна Г.; Балашкина, Ирина В. (2021), Система права и искусственный интеллект в современной России: цели и инструменты цифровой модернизации , Исследования в области систем, принятия решений и управления, том. 314, Чам: Springer International Publishing, стр. 89–96, номер документа : 10.1007/978-3-030-56433-9_11 , ISBN. 978-3-030-56432-2 , S2CID 234309883 , получено 27 марта 2021 г.
- ^ «Обсерватория инноваций государственного сектора ОЭСР – стратегии искусственного интеллекта и компоненты государственного сектора» . Проверено 4 мая 2020 г.
- ^ Беррихилл, Джейми; Хеанг, Кевин Кок; Клогер, Роб; Макбрайд, Киган (2019). Привет, мир: искусственный интеллект и его использование в государственном секторе (PDF) . Париж: Обсерватория инноваций государственного сектора ОЭСР.
- ^ Кэмпбелл, Томас А. (2019). Искусственный интеллект: обзор государственных инициатив (PDF) . Эвергрин, Колорадо: FutureGrasp, LLC. Архивировано из оригинала (PDF) 31 марта 2020 г.
- ^ Брэдфорд, Ану (27 июня 2023 г.). «Гонка за регулирование искусственного интеллекта» . Иностранные дела . ISSN 0015-7120 . Проверено 11 августа 2023 г.
- ^ Jump up to: а б «Австралии нужен национальный подход к стратегии ИИ» . Информационный век . Проверено 8 ноября 2023 г.
- ^ Инновации, наука и экономическое развитие Канады (22 июня 2022 г.). «Правительство Канады запускает второй этап Панканадской стратегии искусственного интеллекта» . www.canada.ca . Проверено 24 октября 2023 г.
- ^ Канада, правительство (18 августа 2022 г.). «Краткое содержание законопроекта C-27: Закон о реализации цифровой хартии, 2022 г.» . ised-isde.canada.ca . Проверено 24 октября 2023 г.
- ^ «Правительственный законопроект (Палата общин) C-27 (44–1) – Первое чтение – Закон о реализации цифровой хартии, 2022 г. – Парламент Канады» . www.parl.ca. Проверено 12 июля 2022 г.
- ^ Мароккан Таймс (24 апреля 2024 г.). «Марокко предлагает законопроект для Национального агентства по искусственному интеллекту» . «Мароккан Таймс» . Проверено 25 апреля 2024 г.
- ^ Государственный совет Китая. «План развития нового поколения искусственного интеллекта» . www.unodc.org . Архивировано из оригинала 7 июня 2023 года . Проверено 18 июля 2022 г.
- ^ Департамент международного сотрудничества Министерства науки и технологий (сентябрь 2017 г.). «План развития искусственного интеллекта следующего поколения, опубликованный Государственным советом» (PDF) . Информационный бюллетень китайской науки и технологий (17): 2–12. Архивировано из оригинала (PDF) 21 января 2022 г. – через Министерство иностранных дел Китая .
- ^ У, Фэй; Чжу, Минцзе; Чжу, Цзюнь; Ю, Ли, Мин; Ли, Цао, Сюдун (2020) . новое поколение искусственного интеллекта в Китае» . Nature Machine Intelligence . 2 (6): 312–316. doi : 10.1038/s42256-020-0183-4 . ISSN 2522-5839 . S2CID 220507829 .
- ^ «Обнародованы этические нормы для искусственного интеллекта нового поколения» . Центр безопасности и новых технологий . Проверено 18 июля 2022 г.
- ^ «Китай только что дал миру план господства генеративного искусственного интеллекта» Fortune . Проверено 24 июля 2023 г.
- ^ «Совет Европы и искусственный интеллект» . Искусственный интеллект . Проверено 29 июля 2021 г.
- ^ Пойкерт, Кристиан; Бехтольд, Стефан; Кречмер, Тобиас; Батикас, Михаил (30 сентября 2020 г.). «Регуляторный экспорт и побочные эффекты: как GDPR влияет на глобальные рынки данных» . ЦЭПР . Проверено 26 октября 2023 г.
- ^ Коултер, Мартин (24 августа 2023 г.). «Крупные технологические компании готовятся к соблюдению правил Закона ЕС о цифровых услугах» . Рейтер . Проверено 26 октября 2023 г.
- ^ «Новая роль Европы в цифровом регулировании» . Le Monde.fr . 28 августа 2023 г. Проверено 26 октября 2023 г.
- ^ Сатариано, Адам (14 июня 2023 г.). «Европейцы делают важный шаг к регулированию искусственного интеллекта», The New York Times . ISSN 0362-4331 . Проверено 25 октября 2023 г.
- ^ Браун, Райан (14 июня 2023 г.). «Законодатели ЕС приняли эпохальное постановление об искусственном интеллекте» . CNBC . Проверено 25 октября 2023 г.
- ^ Аноним (25 апреля 2018 г.). «Коммуникационный искусственный интеллект для Европы» . Формирование цифрового будущего Европы – Европейская комиссия . Проверено 5 мая 2020 г.
- ^ смухана (14 июня 2018 г.). «Экспертная группа высокого уровня по искусственному интеллекту» . Формирование цифрового будущего Европы – Европейская комиссия . Проверено 5 мая 2020 г.
- ^ Jump up to: а б Андрашко, Юзеф; Месарчик, Матуш; Хамуляк, Ондрей (2 января 2021 г.). «Регуляторное пересечение искусственного интеллекта, защиты данных и кибербезопасности: проблемы и возможности для правовой базы ЕС» . ИИ и общество . 36 (2): 623–636. дои : 10.1007/s00146-020-01125-5 . ISSN 0951-5666 . S2CID 230109912 .
- ^ «Этические рекомендации для заслуживающего доверия ИИ» . Европейская комиссия . 2019.
- ^ «Политические и инвестиционные рекомендации для надежного искусственного интеллекта» . Формирование цифрового будущего Европы – Европейская комиссия . 26 июня 2019 г. Проверено 5 мая 2020 г.
- ^ «Белая книга по искусственному интеллекту – европейский подход к совершенству и доверию» . Европейская комиссия . 19 февраля 2020 г. Проверено 7 июня 2021 г.
- ^ Бродбент, Мередит (17 марта 2021 г.). «Что ждет совместную программу регулирования искусственного интеллекта?» . www.csis.org . Архивировано из оригинала 7 июня 2021 года . Проверено 7 июня 2021 г.
- ^ Европейская комиссия. (2020). Белая книга по искусственному интеллекту: европейский подход к совершенству и доверию . OCLC 1141850140 .
- ^ «Регулирование ИИ в ЕС» . Мейсон Хейс и Карран . Проверено 30 марта 2023 г.
- ^ Хейккиля, Мелисса (14 апреля 2021 г.). «POLITICO AI: Расшифровано: правила искусственного интеллекта ЕС — Финляндия разговаривает с машинами — проект справедливости Facebook» (информационный бюллетень). ПОЛИТИКА . Проверено 14 мая 2021 г.
- ^ Европейская комиссия (21 апреля 2021 г.). Европа готова к эпохе цифровых технологий: Комиссия предлагает новые правила и действия для достижения совершенства и доверия к искусственному интеллекту (пресс-релиз). Проверено 14 мая 2021 г.
- ^ Пери, Эндрю (06 октября 2021 г.). «Надежный искусственный интеллект и технологический майнинг: проблемы и возможности» . ДипАИ . Проверено 27 февраля 2022 г.
- ^ Браун, Райан (15 мая 2023 г.). «Европа нацелилась на ChatGPT, приняв, возможно, вскоре первый на Западе закон об искусственном интеллекте. Вот что это значит» . CNBC . Проверено 25 октября 2023 г.
- ^ Вил, Майкл; Боргезиус, Фредерик Зейдервен (1 августа 2021 г.). «Демистификация проекта закона ЕС об искусственном интеллекте — анализ хороших, плохих и неясных элементов предлагаемого подхода» . Обзор компьютерного права International . 22 (4): 97–112. arXiv : 2107.03721 . дои : 10.9785/cri-2021-220402 . ISSN 2194-4164 . S2CID 235765823 .
- ^ ван Кольфшутен, Ханна (январь 2022 г.). «Регулирование ЕС в области искусственного интеллекта: проблемы прав пациентов» . Обзор права общего рынка . 59 (1): 81–112. дои : 10.54648/COLA2022005 . S2CID 248591427 .
- ^ Коултер, Мартин (7 декабря 2023 г.). «Что такое Закон ЕС об искусственном интеллекте и когда он вступит в силу?» . Рейтер .
- ^ Бертуцци, Лука (7 декабря 2023 г.). «Закон об искусственном интеллекте: политики ЕС устанавливают правила для моделей искусственного интеллекта, бодаются с правоохранительными органами» . евроактив .
- ^ Браун, Райан (21 мая 2024 г.). «Первый в мире крупный закон об искусственном интеллекте получил окончательный зеленый свет ЕС» . CNBC . Проверено 1 июня 2024 г.
- ^ «Закон об искусственном интеллекте: депутаты Европарламента принимают знаковый закон» . Европейский парламент . 13 марта 2024 г. Проверено 1 июня 2024 г.
- ^ «Реакция экспертов: ЕС заключил соглашение по правилам искусственного интеллекта. Но могут ли регуляторы действовать со скоростью технологий?» . Атлантический совет . 11 декабря 2023 г.
- ^ Натале, Лара (февраль 2022 г.). «Цифровые амбиции ЕС страдают от стратегического диссонанса» . Охватить . Проверено 25 февраля 2022 г.
- ^ Бертуцци, Лука; Киллин, Молли (17 сентября 2021 г.). «Цифровой обзор на базе Google: сделай это или сломай, Закон о чипах, показывающий путь» . Еврактив . Проверено 25 февраля 2022 г.
- ^ Пропп, Кеннет (7 февраля 2022 г.). «Новая мантра Франции: свобода, равенство, цифровой суверенитет» . Атлантический совет . Проверено 25 февраля 2022 г.
- ^ «Искусственный интеллект: ЕС должен ускорить темп» . Европейская счетная палата . 29 мая 2024 г. Проверено 29 мая 2024 г.
- ^ Защита климата, БМВК-Федеральное Минэкономики и. « Создать «ИИ – Сделано в Германии»» . www.bmwk.de (на немецком языке) . Проверено 12 июня 2023 г.
- ^ «DIN, DKE и BMWi публикуют дорожную карту стандартизации искусственного интеллекта» . вся электроника (на немецком языке) . Проверено 12 июня 2023 г.
- ^ Jump up to: а б Рунзе, Герхард; Хаймерл, Мартин; Хауэр, Марк; Голояд, Тарас; Оберт, Отто; Поулс, Генрих; Тагиев, Рустам; Зин, Йенс (2023). «Инструмент для общей терминологии ИИ — Глоссарий ИИ как выход из Вавилона» . Java Spektrum (на немецком языке) (3): 42–46.
- ^ «Дорожная карта стандартизации искусственного интеллекта» . www.dke.de (на немецком языке) . Проверено 12 июня 2023 г.
- ^ «Международные руководящие принципы Хиросимского процесса для передовых систем искусственного интеллекта | Формирование цифрового будущего Европы» . digital-strategy.ec.europa.eu . 2023-10-30 . Проверено 1 ноября 2023 г.
- ^ Марцио Бартолони (11 октября 2023 г.). «Лекарства и искусственный интеллект: конфиденциальность и риск дискриминирующего алгоритма» .
- ^ Араса, Дейл (13 марта 2023 г.). «Филиппинский законопроект об искусственном интеллекте предлагает создание агентства по искусственному интеллекту» . Филиппинский ежедневный опросник . Проверено 29 мая 2024 г.
- ^ Абарка, Чари (29 мая 2024 г.). «Comelec хочет запретить использование ИИ в агитационных материалах перед выборами 2025 года» . Филиппинский ежедневный опросник . Проверено 29 мая 2024 г.
- ^ Министерство науки Испании (2018). «Испанская стратегия исследований и разработок в области искусственного интеллекта» (PDF) . www.knowledge4policy.ec.europa.eu . Проверено 9 декабря 2023 г.
- ^ Jump up to: а б «Объединение чат-ботов: Испания приближается к Закону об искусственном интеллекте» . ПОЛИТИКА . 22 июня 2023 г. Проверено 03 сентября 2023 г.
- ^ Министерство науки Испании (2018). «Испанская стратегия исследований и разработок в области искусственного интеллекта» (PDF) . www.knowledge4policy.ec.europa.eu . Проверено 9 декабря 2023 г.
- ^ Кастильо, Карлос дель (28 декабря 2021 г.). «Испания будет следить за искусственным интеллектом, как за наркотиками или едой » . elDiario.es (на испанском языке) . Проверено 03 сентября 2023 г.
- ^ «Испания начинает процесс выбора штаб-квартиры будущего Испанского агентства по надзору за искусственным интеллектом» . Испанский (на испанском языке). 13 сентября 2022 г. Проверено 03 сентября 2023 г.
- ^ Маркос, Хосе (12 сентября 2022 г.). «Правительство начинает с переноса штаб-квартиры Агентства искусственного интеллекта за пределы Мадрида» . Эль Паис (на испанском языке) . Проверено 03 сентября 2023 г.
- ^ «В Ла-Корунье разместится Испанское агентство искусственного интеллекта» . Европа Пресс. 05.12.2022 . Проверено 03 сентября 2023 г.
- ^ «Правительство утверждает статут Испанского агентства по надзору за искусственным интеллектом» . Европа Пресс. 22 августа 2023 г. Проверено 03 сентября 2023 г.
- ^ Геррини, Федерико. «Европейские страны стремятся установить темп регулирования ИИ» . Форбс . Проверено 4 сентября 2023 г.
- ^ Jump up to: а б «Стратегия цифровой экономики на 2015–2018 годы» . www.ukri.org . 16 февраля 2015 года . Проверено 18 июля 2022 г.
- ^ «Этика данных и руководство по искусственному интеллекту» . GOV.UK. Проверено 26 октября 2023 г.
- ^ Лесли, Дэвид (11 июня 2019 г.). «Понимание этики и безопасности искусственного интеллекта: руководство по ответственному проектированию и внедрению систем искусственного интеллекта в государственном секторе» . Зенодо . arXiv : 1906.05684 . дои : 10.5281/zenodo.3240529 . S2CID 189762499 .
- ^ «Интеллектуальные средства безопасности» . www.ncsc.gov.uk. Проверено 28 апреля 2020 г.
- ^ Ричардсон, Тим. «Великобритания публикует Национальную стратегию искусственного интеллекта» . www.theregister.com .
- ^ Национальная стратегия Великобритании в области искусственного интеллекта , 2021 г. (действия 9 и 10 раздела «Направление 3 – Эффективное управление искусственным интеллектом»)
- ^ «Проинновационный подход к регулированию ИИ» . GOV.UK. Проверено 27 октября 2023 г.
- ^ Гикай, Асресс Адими (8 июня 2023 г.). «Как Великобритания обеспечивает правильное регулирование ИИ» . Разговор . Проверено 27 октября 2023 г.
- ^ Браун, Райан (12 июня 2023 г.). «Премьер-министр Великобритании Риши Сунак называет Великобританию страной, где регулируется безопасность искусственного интеллекта, поскольку Лондон претендует на роль следующей Кремниевой долины» . CNBC . Проверено 27 октября 2023 г.
- ^ «Саммит по безопасности искусственного интеллекта: введение (HTML)» . GOV.UK. Проверено 27 октября 2023 г.
- ^ «Представляем Институт безопасности ИИ» . GOV.UK. Проверено 8 июля 2024 г.
- ^ Хеншолл, Уилл (01 апреля 2024 г.). «США и Великобритания станут партнерами в разработке искусственного интеллекта для испытаний на безопасность» . ВРЕМЯ . Проверено 8 июля 2024 г.
- ^ Уивер, Джон Франк (28 декабря 2018 г.). «Регулирование искусственного интеллекта в США» . Научно-исследовательский справочник по закону искусственного интеллекта : 155–212. дои : 10.4337/9781786439055.00018 . ISBN 9781786439055 .
- ^ «Отчет администрации о будущем искусственного интеллекта» . Белый дом . 12.10.2016 . Проверено 1 ноября 2023 г.
- ^ Комитет по технологиям Национального совета по науке и технологиям (октябрь 2016 г.). «Подготовка к будущему искусственного интеллекта» . whitehouse.gov – через Национальный архив .
- ^ «Национальный стратегический план исследований и разработок искусственного интеллекта» (PDF) . Национальный совет по науке и технологиям . Октябрь 2016.
- ^ "О" . Комиссия национальной безопасности по искусственному интеллекту . Проверено 29 июня 2020 г.
- ^ Стефаник, Элиза М. (22 мая 2018 г.). «HR5356 – 115-й Конгресс (2017–2018 гг.): Закон об искусственном интеллекте Комиссии национальной безопасности 2018 г.» . www.congress.gov . Проверено 13 марта 2020 г.
- ^ Генрих, Мартин (21 мая 2019 г.). «Текст – S.1558 – 116-й Конгресс (2019–2020 гг.): Закон об инициативе в области искусственного интеллекта» . www.congress.gov . Проверено 29 марта 2020 г.
- ^ Шерер, Мэтью У. (2015). «Регулирование систем искусственного интеллекта: риски, проблемы, компетенции и стратегии». Серия рабочих документов SSRN . дои : 10.2139/ssrn.2609777 . ISSN 1556-5068 .
- ^ «Указ о сохранении американского лидерства в области искусственного интеллекта – Белый дом» . trumpwhitehouse.archives.gov . Проверено 1 ноября 2023 г.
- ^ Воут, Рассел Т. «МЕМОРАНДУМ ДЛЯ РУКОВОДИТЕЛЕЙ ИСПОЛНИТЕЛЬНЫХ УПРАВЛЕНИЙ И АГЕНТСТВ – Руководство по регулированию приложений искусственного интеллекта» (PDF) . Белый дом .
- ^ «Обновление искусственного интеллекта: Белый дом опубликовал 10 принципов регулирования искусственного интеллекта» . Внутри Тех Медиа . 14 января 2020 г. Проверено 25 марта 2020 г.
- ^ Лидерство США в области искусственного интеллекта: план участия федерального правительства в разработке технических стандартов и связанных с ними инструментов (PDF) . Национальный институт науки и технологий. 2019.
- ^ «Запрос комментариев по проекту Меморандума руководителям исполнительных ведомств и ведомств «Руководство по регулированию применения искусственного интеллекта» » . Федеральный реестр . 13 января 2020 г. Проверено 28 ноября 2020 г.
- ^ Национальный совет по науке и технологиям (21 июня 2019 г.). «Национальный стратегический план исследований и разработок искусственного интеллекта: обновление на 2019 год» (PDF) .
- ^ Гурсой, Фуркан; Какадиарис, Иоаннис А. (2023). «Стратегия исследований искусственного интеллекта США: критическая оценка и политические рекомендации» . Границы больших данных . 6 . дои : 10.3389/fdata.2023.1206139 . ISSN 2624-909X . ПМЦ 10440374 . ПМИД 37609602 .
- ^ Итоговый отчет NSCAI (PDF) . Вашингтон, округ Колумбия: Комиссия национальной безопасности по искусственному интеллекту. 2021.
- ^ Лента новостей Родины (25 июня 2022 г.). «Портман и Питерс вносят двухпартийный законопроект, призванный гарантировать готовность федерального правительства к катастрофическим рискам для национальной безопасности» . Лента новостей Родина. Архивировано из оригинала 25 июня 2022 года . Проверено 4 июля 2022 г.
- ^ «Текст – S.4488 – 117-й Конгресс (2021–2022 гг.): Законопроект о создании межведомственного комитета по глобальному катастрофическому риску и для других целей» . Конгресс.gov . Библиотека Конгресса. 23 июня 2022 г. Проверено 4 июля 2022 г.
- ^ «План Билля о правах ИИ | OSTP» . Белый дом . Проверено 1 ноября 2023 г.
- ^ «Белый дом только что представил новый Билль о правах ИИ» . Обзор технологий Массачусетского технологического института . Проверено 24 октября 2023 г.
- ^ «Местный закон о внесении поправок в административный кодекс города Нью-Йорка в отношении автоматизированных инструментов принятия решений о приеме на работу» . Городской совет Нью-Йорка . Проверено 1 ноября 2023 г.
- ^ Кестенбаум, Джонатан (5 июля 2023 г.). «Новый закон Нью-Йорка о предвзятости в области искусственного интеллекта серьезно влияет на прием на работу и требует проведения проверок» . Закон Блумберга . Проверено 24 октября 2023 г.
- ^ Дом, Белый (21 июля 2023 г.). «ФАКТИЧЕСКИЙ БЮЛЛЕТЕНЬ: Администрация Байдена-Харриса добивается от ведущих компаний, занимающихся искусственным интеллектом, добровольных обязательств по управлению рисками, создаваемыми ИИ» . Белый дом . Проверено 25 сентября 2023 г.
- ^ Дом, Белый (12 сентября 2023 г.). «ФАКТИЧЕСКИЙ БЮЛЛЕТЕНЬ: Администрация Байдена-Харриса получает добровольные обязательства от восьми дополнительных компаний, занимающихся искусственным интеллектом, для управления рисками, создаваемыми ИИ» . Белый дом . Проверено 25 сентября 2023 г.
- ^ Чаттерджи, Мохар (12 октября 2023 г.). «Приказ Белого дома искусственному интеллекту повысить покупательную способность федерального правительства» . ПОЛИТИКА . Проверено 27 октября 2023 г.
- ^ Дом, Белый (30 октября 2023 г.). «ФАКТИЧЕСКИЙ ЛИСТ: Президент Байден издает указ о безопасном, защищенном и заслуживающем доверия искусственном интеллекте» . Белый дом . Проверено 5 декабря 2023 г.
- ^ Льюис, Джеймс Эндрю; Бенсон, Эмили; Фрэнк, Майкл (31 октября 2023 г.). «Указ администрации Байдена об искусственном интеллекте» .
- ^ Дом, Белый (30 октября 2023 г.). «Указ о безопасной, надежной и надежной разработке и использовании искусственного интеллекта» . Белый дом . Проверено 5 декабря 2023 г.
- ^ Ланум, Николас (07.11.2023). «Указ президента Байдена об искусственном интеллекте имеет «опасные ограничения», — говорит генеральный директор компании по обнаружению дипфейков» . ФоксБизнес . Проверено 5 декабря 2023 г.
- ^ Майроу, Рэйчел (16 февраля 2024 г.). «Законодатели Калифорнии принимают меры по регулированию искусственного интеллекта с помощью множества законопроектов» . ККЭД .
- ^ Де Винк, Геррит (8 февраля 2024 г.). «На заднем дворе крупных технологических компаний депутат Калифорнии представляет знаковый законопроект об искусственном интеллекте» . Вашингтон Пост .
- ^ Кристин Робинсон (2024). «Теннесси принимает Закон ЭЛВИСа, защищающий голоса артистов от подделки ИИ» . Нью-Йорк Таймс . Проверено 26 марта 2024 г.
- ^ Эшли Кинг (2024). «Закон об ЭЛВИСе официально подписан и стал законом — это первое законодательство в области искусственного интеллекта на государственном уровне в США» . Новости цифровой музыки . Проверено 26 марта 2024 г.
- ^ Теннесси Хаус (2024 г.). «Сессия Палаты представителей – 44-й законодательный день» (видео) . Теннесси Хаус . Проверено 26 марта 2024 г.
- ^ Одри Гиббс (2024). «Губернатор штата Теннесси Ли подписывает Закон об Элвисе в Хонки-Тонке, защищающий музыкантов от злоупотреблений ИИ» . Теннессиец . Проверено 26 марта 2024 г.
- ^ Алекс Грин (2024). «Закон ЭЛВИСА» . Мемфис Флайер . Проверено 26 марта 2024 г.
- ^ Водецки, Бен (27 марта 2024 г.). «Юта принимает закон, регулирующий использование искусственного интеллекта» . ИИ-бизнес .
- ^ «SB0149» . le.utah.gov . Проверено 25 апреля 2024 г.
- ^ «История смертоносных автономных систем вооружения в КОО» . ООН, Женева.
- ^ «Руководящие принципы, подтвержденные Группой правительственных экспертов по новым технологиям в области летальных автономных систем вооружения» (PDF) . ООН, Женева. Архивировано из оригинала (PDF) 1 декабря 2020 г. Проверено 5 мая 2020 г.
- ^ Баум, Сет (30 сентября 2018 г.). «Противодействие дезинформации суперинтеллекта» . Информация . 9 (10): 244. дои : 10.3390/info9100244 . ISSN 2078-2489 .
- ^ «Взгляд страны на роботов-убийц» (PDF) . Кампания по прекращению роботов-убийц.
- ^ Сэйлер, Келли (2020). Искусственный интеллект и национальная безопасность: обновление от 10 ноября 2020 г. (PDF) . Вашингтон, округ Колумбия: Исследовательская служба Конгресса.
- ^ «Оборонный учебник: политика США в отношении летальных автономных систем вооружения» . Исследовательская служба Конгресса . 15 мая 2023 г.