Jump to content

Регулирование искусственного интеллекта

Регулирование искусственного интеллекта — это разработка политики и законов государственного сектора для продвижения и регулирования искусственного интеллекта (ИИ). Это часть более широкого регулирования алгоритмов . [1] [2] Нормативно-правовая и политическая среда в отношении ИИ является новой проблемой в юрисдикциях по всему миру, в том числе для международных организаций, не имеющих прямых полномочий по обеспечению соблюдения требований, таких как IEEE или ОЭСР . [3]

С 2016 года было опубликовано множество руководств по этике искусственного интеллекта , призванных поддерживать социальный контроль над технологией. [4] Регулирование считается необходимым как для стимулирования инноваций в области ИИ, так и для управления связанными с ними рисками.

Кроме того, организации, внедряющие ИИ, играют центральную роль в создании и внедрении заслуживающего доверия ИИ , следуя установленным принципам и принимая на себя ответственность за снижение рисков. [5]

Регулирование ИИ с помощью таких механизмов, как наблюдательные советы, также можно рассматривать как социальное средство решения проблемы контроля над ИИ . [6] [7]

Согласно индексу искусственного интеллекта Стэнфордского университета за 2023 год, ежегодное количество законопроектов, в которых упоминается «искусственный интеллект», принятых в 127 обследованных странах, выросло с одного в 2016 году до 37 в 2022 году. [8] [9]

В 2017 году Илон Маск призвал к регулированию развития ИИ. [10] По данным NPR , генеральный директор Tesla «явно не в восторге» от того, что выступает за государственный контроль, который может повлиять на его собственную отрасль, но считал, что риски полного отсутствия надзора слишком высоки: «Обычно правила устанавливаются так, что Происходит множество плохих вещей, возникает общественный резонанс, и спустя много лет создается регулирующий орган, который будет регулировать эту отрасль. Это занимает вечность. В прошлом это было плохо, но не представляло фундаментального риска для существования. цивилизации». [10] В ответ некоторые политики выразили скептицизм по поводу целесообразности регулирования технологии, которая все еще находится в стадии разработки. [11] Отвечая как на Маска, так и на предложения законодателей Европейского Союза по регулированию искусственного интеллекта и робототехники от февраля 2017 года, генеральный директор Intel Брайан Кржанич заявил, что искусственный интеллект находится в зачаточном состоянии и регулировать эту технологию еще слишком рано. [12] Многие технологические компании выступают против жесткого регулирования ИИ: «Хотя некоторые компании заявили, что приветствуют правила в отношении ИИ, они также выступили против жестких правил, подобных тем, которые создаются в Европе». [13] Вместо того, чтобы пытаться регулировать саму технологию, некоторые ученые предложили разработать общие нормы, включая требования к тестированию и прозрачности алгоритмов, возможно, в сочетании с той или иной формой гарантий. [14]

Согласно опросу Ipsos 2022 года , отношение к ИИ сильно различалось в зависимости от страны; 78% граждан Китая и только 35% американцев согласились, что «продукты и услуги, использующие ИИ, имеют больше преимуществ, чем недостатков». [8] /Ipsos , проведенный в 2023 году, Опрос Reuters показал, что 61% американцев согласны и 22% не согласны с тем, что ИИ представляет угрозу для человечества. [15] В опросе Fox News 2023 года 35% американцев сочли «очень важным», а еще 41% сочли «несколько важным» регулирование ИИ со стороны федерального правительства, по сравнению с 13%, ответившими «не очень важно» и 8% отвечая «совсем не важно». [16] [17]

Перспективы

[ редактировать ]

Регулирование искусственного интеллекта — это разработка политики и законов государственного сектора для продвижения и регулирования ИИ. [18] В настоящее время регулирование считается необходимым как для поощрения искусственного интеллекта, так и для управления связанными с ним рисками. [19] [20] [21] Соображения государственного управления и политики обычно сосредоточены на технических и экономических последствиях, а также на надежных и ориентированных на человека системах искусственного интеллекта. [22] регулирование искусственного сверхинтеллекта . хотя рассматривается также [23] Базовый подход к регулированию фокусируется на рисках и предвзятости алгоритмов машинного обучения на уровне входных данных, тестирования алгоритмов и модели принятия решений. Также основное внимание уделяется объяснимости результатов. [20]

Были предложения как по жесткому, так и по мягкому законодательству по регулированию ИИ. [24] Некоторые ученые-юристы отмечают, что жесткие правовые подходы к регулированию ИИ сопряжены с серьезными проблемами. [25] [26] Среди проблем — быстрое развитие технологии искусственного интеллекта, что приводит к «проблеме темпа», когда традиционные законы и правила часто не успевают за новыми приложениями и связанными с ними рисками и преимуществами. [25] [26] Аналогичным образом, разнообразие приложений ИИ бросает вызов существующим регулирующим органам, юрисдикция которых зачастую ограничена. [25] В качестве альтернативы некоторые ученые-юристы утверждают, что подходы «мягкого права» к регулированию ИИ являются многообещающими, поскольку «мягкие законы» можно адаптировать более гибко для удовлетворения потребностей новых и развивающихся технологий ИИ и новых приложений. [25] [26] Однако подходы «мягкого права» часто не имеют существенного потенциала правоприменения. [25] [27]

Кейсон Шмит, Меган Доерр и Дженнифер Вагнер предложили создать квазиправительственный регулятор, используя права интеллектуальной собственности (т. е. лицензирование с авторским левом ) на определенные объекты ИИ (т. е. модели ИИ и наборы обучающих данных) и делегируя права принудительного исполнения назначенному правоохранительному органу. сущность. [28] Они утверждают, что ИИ может лицензироваться на условиях, требующих соблюдения определенных этических норм и кодексов поведения. (например, принципы мягкого права). [28]

Известные молодежные организации, занимающиеся вопросами ИИ, а именно Encode Justice, также опубликовали всеобъемлющие программы, призывающие к более строгим правилам ИИ и государственно-частному партнерству . [29] [30]

Регулирование ИИ может основываться на базовых принципах. Мета-обзор существующих наборов принципов, таких как Принципы Асиломара и Пекинские принципы, проведенный Центром Беркмана Кляйна в 2020 году, выявил восемь таких основных принципов: конфиденциальность, подотчетность, безопасность и защищенность, прозрачность и объяснимость, справедливость и неприкосновенность частной жизни. дискриминация, человеческий контроль над технологиями, профессиональная ответственность и уважение человеческих ценностей. [31] Законодательство и нормативные акты в области ИИ разделены на три основные темы, а именно: управление автономными интеллектуальными системами, ответственность и подотчетность за системы, а также вопросы конфиденциальности и безопасности. [19] Подход государственного управления рассматривает взаимосвязь между законодательством и регулированием ИИ, этикой ИИ и «обществом ИИ», определяемым как замена и трансформация рабочей силы, социальное признание и доверие к ИИ, а также трансформация взаимодействия человека с машиной. [32] Разработка стратегий государственного сектора по управлению и регулированию ИИ считается необходимой на местном, национальном, [33] и международный уровни [34] и в различных областях, от управления государственными службами [35] и подотчетность [36] правоохранительным органам, [34] [37] здравоохранение (особенно концепция человеческой гарантии), [38] [39] [40] [41] [42] финансовый сектор, [33] робототехника, [43] [44] автономные транспортные средства, [43] военные [45] и национальной безопасности, [46] и международное право. [47] [48]

Генри Киссинджер , Эрик Шмидт и Дэниел Хуттенлохер опубликовали в ноябре 2021 года совместное заявление под названием «Быть ​​человеком в эпоху ИИ», в котором призвали создать правительственную комиссию по регулированию ИИ. [49]

Как ответ на проблему управления ИИ

[ редактировать ]

Регулирование ИИ можно рассматривать как позитивное социальное средство решения проблемы контроля над ИИ (необходимость обеспечить долгосрочную пользу ИИ), при этом другие социальные реакции, такие как бездействие или запрет, считаются непрактичными, а такие подходы, как расширение человеческих возможностей. через трансгуманизма методы , такие как интерфейсы мозг-компьютер, которые рассматриваются как потенциально дополняющие друг друга. [7] [50] Регулирование исследований в области общего искусственного интеллекта (AGI) фокусируется на роли наблюдательных советов, от университетов или корпораций до международного уровня, а также на поощрении исследований в области безопасности ИИ . [50] вместе с возможностью дифференциального интеллектуального прогресса (приоритет защитных стратегий над рискованными стратегиями в разработке ИИ) или проведения международного массового наблюдения для осуществления контроля над вооружениями AGI. [7] Например, «AGI-няня» — это предлагаемая стратегия, потенциально находящаяся под контролем человечества, для предотвращения создания опасного сверхинтеллекта , а также для устранения других серьезных угроз благополучию человечества, таких как подрыв глобальной финансовой системы. , пока не будет безопасно создан настоящий сверхразум. Он предполагает создание более умной, чем человек, но не сверхразумной системы ИИИ, подключенной к большой сети наблюдения, с целью наблюдения за человечеством и защиты его от опасности. [7] Регулирование сознательных, этически сознательных ОИИ сосредоточено на том, как интегрировать их в существующее человеческое общество, и может быть разделено на рассмотрение их юридического статуса и их моральных прав. [7] Регулирование ИИ рассматривается как ограничительное с риском предотвращения развития ИИ. [43]

Глобальное руководство

[ редактировать ]
Опрошенные организации в основном согласны с тем, что компании, разрабатывающие базовые модели, будут нести ответственность за связанные с этим риски (а не те, кто их использует), и что глобальное управление , необходимо для устранения рисков, связанных с генеративным ИИ . [51]

Создание глобального совета управления для регулирования развития ИИ было предложено как минимум еще в 2017 году. [52] В декабре 2018 года Канада и Франция объявили о планах создания при поддержке G7 Международной группы по искусственному интеллекту, созданной по образцу Международной группы по изменению климата , для изучения глобального воздействия ИИ на людей и экономику, а также для управления развитием ИИ. [53] В 2019 году Группа была переименована в Глобальное партнерство по искусственному интеллекту. [54] [55]

Глобальное партнерство по искусственному интеллекту (GPAI) было запущено в июне 2020 года, заявив о необходимости разработки ИИ в соответствии с правами человека и демократическими ценностями, чтобы обеспечить общественное доверие и доверие к технологии, как указано в Принципах ОЭСР по искусственному интеллекту. Интеллект (2019). [56] 15 членами-основателями Глобального партнерства по искусственному интеллекту являются Австралия, Канада, Европейский Союз, Франция, Германия, Индия, Италия, Япония, Республика Корея, Мексика, Новая Зеландия, Сингапур, Словения, США и Великобритания. . В 2023 году в состав ГПАИ входят 29 членов. [57] Секретариат GPAI находится в ОЭСР в Париже, Франция. Мандат GPAI охватывает четыре темы, две из которых поддерживаются Международным центром экспертизы в Монреале по развитию искусственного интеллекта, а именно: ответственный искусственный интеллект и управление данными. Соответствующий центр передового опыта в Париже будет поддерживать две другие темы, касающиеся будущего сферы труда, а также инноваций и коммерциализации. GPAI также исследовала, как можно использовать ИИ для реагирования на пандемию COVID-19. [56]

Принципы ИИ ОЭСР [58] были приняты в мае 2019 года, а Принципы ИИ «Группы двадцати» — в июне 2019 года. [55] [59] [60] В сентябре 2019 года Всемирный экономический форум опубликовал десять «Руководящих принципов государственных закупок в области искусственного интеллекта». [61] В феврале 2020 года Европейский Союз опубликовал проект стратегического документа по продвижению и регулированию ИИ. [34]

В Организации Объединенных Наций (ООН) несколько организаций начали продвигать и обсуждать аспекты регулирования и политики в области ИИ, в том числе Центр ЮНИКРИ по ИИ и робототехнике . [46] В партнерстве с Интерполом Центр ЮНИКРИ опубликовал отчет «ИИ и робототехника для правоохранительных органов». в апреле 2019 года [62] и последующий отчет « На пути к ответственным инновациям в области искусственного интеллекта» в мае 2020 года. [37] На 40-й научной сессии ЮНЕСКО в ноябре 2019 года организация начала двухлетний процесс создания «глобального документа по установлению стандартов этики искусственного интеллекта». Для достижения этой цели были проведены форумы и конференции ЮНЕСКО по ИИ для сбора мнений заинтересованных сторон. Проект текста Рекомендации по этике ИИ Специальной группы экспертов ЮНЕСКО был опубликован в сентябре 2020 года и содержал призыв к устранению законодательных пробелов. [63] ЮНЕСКО представила международный документ по этике ИИ для принятия на своей Генеральной конференции в ноябре 2021 года; [56] впоследствии это было принято. [64] Хотя ООН добивается прогресса в глобальном управлении ИИ, ее институциональные и правовые возможности управлять экзистенциальным риском ИИ более ограничены. [65]

инициатива Международного союза электросвязи (МСЭ) в партнерстве с 40 родственными агентствами ООН, «ИИ во благо», представляет собой глобальную платформу, целью которой является определение практических применений ИИ для достижения целей ООН в области устойчивого развития и масштабирования этих решений для глобального воздействия. Это ориентированная на действия, глобальная и инклюзивная платформа Организации Объединенных Наций, способствующая развитию искусственного интеллекта для положительного воздействия на здоровье, климат, гендерные вопросы, инклюзивное процветание, устойчивую инфраструктуру и другие глобальные приоритеты развития. [66]

Недавние исследования показали, что страны также начнут использовать искусственный интеллект в качестве инструмента национальной киберзащиты. ИИ — новый фактор в индустрии кибероружия, поскольку его можно использовать в оборонных целях. Поэтому ученые призывают, чтобы страны установили правила использования ИИ, аналогичные тем, которые существуют для других военных отраслей. [67]

Региональное и национальное регулирование

[ редактировать ]
График разработки стратегий, планов действий и политических документов, определяющих национальные, региональные и международные подходы к ИИ [68]

Нормативно-правовая база в области ИИ является новой проблемой в региональных и национальных юрисдикциях по всему миру, например в Европейском Союзе. [69] и Россия. [70] С начала 2016 года многие национальные, региональные и международные органы власти начали принимать стратегии, планы действий и политические документы в области ИИ. [71] [72] Эти документы охватывают широкий спектр тем, таких как регулирование и управление, а также промышленная стратегия, исследования, таланты и инфраструктура. [22] [73]

Разные страны подошли к этой проблеме по-разному. Что касается трех крупнейших экономик, было сказано, что «Соединенные Штаты следуют рыночному подходу, Китай продвигает государственный подход, а ЕС придерживается подхода, основанного на правах человека». [74]

Австралия

[ редактировать ]

В октябре 2023 года Австралийское компьютерное общество , Деловой совет Австралии , Австралийская торгово-промышленная палата , Ai Group (также известная как Австралийская промышленная группа) , Совет организаций малого бизнеса Австралии и Технический совет Австралии совместно опубликовали открытое письмо с призывом к национальный подход к стратегии ИИ. [75] В письме поддерживается федеральное правительство, создающее общеправительственную рабочую группу по искусственному интеллекту. [75]

Бразилия

[ редактировать ]

30 сентября 2021 года Палата депутатов Бразилии утвердила Бразильскую правовую базу в области искусственного интеллекта, Marco Legal da Inteligência Artificial, в целях регулирования разработки и использования технологий искусственного интеллекта и дальнейшего стимулирования исследований и инноваций в области решений искусственного интеллекта, направленных на этику. , культура, справедливость, справедливость и подотчетность. В этом законопроекте, состоящем из 10 статей, изложены цели, в том числе задачи по содействию разработке этических принципов, содействию устойчивым инвестициям в исследования и устранению барьеров на пути инноваций. В частности, в статье 4 законопроекта подчеркивается необходимость избегать дискриминационных решений ИИ, плюрализм и уважение прав человека. Более того, этот закон подчеркивает важность принципа равенства в алгоритмах осознанного принятия решений, особенно для очень разнообразных и многоэтнических обществ, таких как Бразилия.

Когда законопроект впервые был обнародован, он подвергся серьезной критике, что вызвало тревогу у правительства из-за критических положений. Основная проблема заключается в том, что в этом законопроекте не удается тщательно и внимательно рассмотреть принципы подотчетности, прозрачности и инклюзивности. Статья VI устанавливает субъективную ответственность: любое лицо, которому нанесен ущерб системой искусственного интеллекта и желает получить компенсацию, должно указать заинтересованную сторону и доказать, что в жизненном цикле машины произошла ошибка. Ученые подчеркивают, что назначение лица, ответственного за доказывание алгоритмических ошибок, противоречит закону, учитывая высокую степень автономности, непредсказуемости и сложности систем ИИ. Это также привлекло внимание к возникающим в настоящее время проблемам с системами распознавания лиц в Бразилии, приводящим к несправедливым арестам полицией, а это будет означать, что, когда этот законопроект будет принят, людям придется доказывать и оправдывать эти ошибки машин.

Основные разногласия по этому законопроекту были направлены вокруг трех предложенных принципов. Во-первых, принцип недискриминации предполагает, что ИИ должен разрабатываться и использоваться таким образом, чтобы лишь смягчать возможность злоупотреблений и дискриминационной практики. Во-вторых, соблюдение принципа нейтралитета содержит рекомендации для заинтересованных сторон по смягчению предубеждений; однако без каких-либо обязательств по достижению этой цели. Наконец, принцип прозрачности гласит, что прозрачность системы необходима только тогда, когда существует высокий риск нарушения основных прав. Как легко заметить, в бразильской законодательной базе искусственного интеллекта отсутствуют обязательные положения и она скорее наполнена мягкими рекомендациями. Фактически, эксперты подчеркивают, что этот законопроект может даже еще больше затруднить достижение ответственности за дискриминационные предубеждения ИИ. По сравнению с предложением ЕС о расширенных правилах, основанных на рисках, бразильский законопроект содержит 10 статей, предлагающих расплывчатые и общие рекомендации.

По сравнению с подходом с участием многих заинтересованных сторон, применявшимся ранее в 2000-х годах при разработке бразильского Билля о правах в Интернете (Marco Civil da Internet), бразильский законопроект оценивается как существенно лишенный перспективы. Мультистейкхолдеризм, чаще называемый многосторонним управлением, определяется как практика привлечения множества заинтересованных сторон к участию в диалоге, принятии решений и реализации мер реагирования на совместно воспринимаемые проблемы. В контексте регуляторного ИИ такая перспектива с участием многих заинтересованных сторон отражает компромиссы и различные точки зрения различных заинтересованных сторон с конкретными интересами, что помогает поддерживать прозрачность и более широкую эффективность. Напротив, законодательное предложение по регулированию ИИ не придерживалось аналогичного подхода с участием многих заинтересованных сторон.

Будущие шаги могут включать в себя расширение перспективы с участием многих заинтересованных сторон. Растет обеспокоенность по поводу неприменимости законопроекта, который подчеркивает, что универсальное решение может не подходить для регулирования ИИ, и требует принятия субъективных и адаптивных положений.

Панканадская стратегия искусственного интеллекта (2017 г.) поддерживается федеральным финансированием в размере 125 миллионов канадских долларов с целью увеличения числа выдающихся исследователей ИИ и квалифицированных выпускников в Канаде, создания центров научного мастерства в трех основных центрах ИИ, развития глобальное интеллектуальное лидерство» по экономическим, этическим, политическим и правовым последствиям достижений ИИ и поддержке национального исследовательского сообщества, работающего над ИИ. [56] Канадская программа CIFAR AI Chairs является краеугольным камнем стратегии. Он получит финансирование в размере 86,5 миллионов канадских долларов в течение пяти лет для привлечения и удержания всемирно известных исследователей ИИ. [56] В мае 2019 года федеральное правительство назначило Консультативный совет по искусственному интеллекту с упором на изучение того, как использовать сильные стороны Канады, чтобы гарантировать, что достижения в области искусственного интеллекта отражают канадские ценности, такие как права человека, прозрачность и открытость. Консультативный совет по искусственному интеллекту создал рабочую группу по извлечению коммерческой выгоды из канадского искусственного интеллекта и анализа данных. [56] В 2020 году федеральное правительство и правительство Квебека объявили об открытии в Монреале Международного экспертного центра по развитию искусственного интеллекта, который будет способствовать ответственному развитию ИИ. [56] В июне 2022 года правительство Канады приступило ко второму этапу Панканадской стратегии искусственного интеллекта. [76] В ноябре 2022 года Канада представила Закон о реализации цифровой хартии (законопроект C-27), который предлагает три закона, которые были описаны как целостный пакет законов о доверии и конфиденциальности: Закон о защите конфиденциальности потребителей, Закон о защите личной информации и данных. Закон о трибуналах и Закон об искусственном интеллекте и данных (AIDA). [77] [78]

В Марокко коалиция политических партий в парламенте выдвинула новое законодательное предложение о создании Национального агентства по искусственному интеллекту (ИИ). Целью этого агентства является регулирование технологий искусственного интеллекта, расширение сотрудничества с международными организациями в этой области и повышение осведомленности общественности как о возможностях, так и о рисках, связанных с искусственным интеллектом. [79]

Регулирование искусственного интеллекта в Китае в основном регулируется Государственным советом Китайской Народной Республики от 8 июля 2017 года «План развития искусственного интеллекта следующего поколения» (Документ Госсовета № 35), в котором Центральный комитет Коммунистическая партия Китая и Госсовет КНР призвали руководящие органы Китая содействовать развитию ИИ до 2030 года. Ускоряется регулирование вопросов этического и правового обеспечения развития ИИ, а политика обеспечивает государственный контроль над китайцами. компаний и сверхценных данных, включая хранение данных о китайских пользователях внутри страны и обязательное использование национальных стандартов Китайской Народной Республики для искусственного интеллекта, в том числе в отношении больших данных, облачных вычислений и промышленного программного обеспечения. [80] [81] [82] В 2021 году Китай опубликовал этические рекомендации по использованию ИИ в Китае, в которых говорится, что исследователи должны гарантировать, что ИИ соответствует общим человеческим ценностям, всегда находится под контролем человека и не ставит под угрозу общественную безопасность. [83] В 2023 году Китай ввел временные меры по управлению услугами генеративного искусственного интеллекта . [84]

Совет Европы

[ редактировать ]

Совет Европы (СЕ) – международная организация, которая продвигает права человека, демократию и верховенство закона. В его состав входят 47 государств-членов, в том числе все 29 стран, подписавших Декларацию Европейского Союза о сотрудничестве в области искусственного интеллекта 2018 года. Совет Европы создал общее правовое пространство, в котором члены имеют юридическое обязательство гарантировать права, изложенные в Европейской конвенции по правам человека . В частности, в отношении ИИ: «Цель Совета Европы состоит в том, чтобы определить области пересечения между ИИ и нашими стандартами в области прав человека, демократии и верховенства закона, а также разработать соответствующие решения по установлению стандартов или наращиванию потенциала». Большое количество соответствующих документов, определенных Советом Европы, включает руководящие принципы, уставы, документы, отчеты и стратегии. [85] Органы-создатели этих документов по регулированию ИИ не ограничиваются одним сектором общества и включают в себя организации, компании, органы и национальные государства. [63]

Евросоюз

[ редактировать ]

ЕС является одной из крупнейших юрисдикций в мире и играет активную роль в глобальном регулировании цифровых технологий посредством GDPR . [86] Закон о цифровых услугах , Закон о цифровых рынках . [87] [88] В частности, в отношении ИИ Закон об искусственном интеллекте считается в 2023 году наиболее далеко идущим нормативным актом в области ИИ во всем мире. [89] [90]

Большинство стран Европейского Союза (ЕС) имеют свои собственные национальные стратегии регулирования ИИ, но они во многом совпадают. [63] Европейский Союз руководствуется Европейской стратегией по искусственному интеллекту. [91] при поддержке Экспертной группы высокого уровня по искусственному интеллекту. [92] [93] В апреле 2019 года Европейская комиссия опубликовала « Руководство по этике для заслуживающего доверия искусственного интеллекта» (ИИ) . [94] после этого в июне 2019 года были представлены рекомендации по политике и инвестициям в отношении заслуживающего доверия искусственного интеллекта . [95] Экспертная группа высокого уровня Комиссии ЕС по искусственному интеллекту проводит работу над надежным ИИ, а Комиссия выпустила отчеты по аспектам безопасности и ответственности ИИ, а также по этике автоматизированных транспортных средств. В 2020 году Комиссия ЕС запросила мнения по предложению по конкретному законодательству в области ИИ, и этот процесс продолжается. [63]

2 февраля 2020 года Европейская комиссия опубликовала Белую книгу «Искусственный интеллект – европейский подход к совершенству и доверию» . [96] [97] Белая книга состоит из двух основных блоков: «экосистемы совершенства» и «экосистемы доверия». «Экосистема доверия» описывает подход ЕС к нормативной базе ИИ. В предлагаемом подходе Комиссия различает приложения ИИ в зависимости от того, относятся ли они к «высокому риску» или нет. В сферу будущей нормативной базы ЕС должны входить только приложения искусственного интеллекта с высоким уровнем риска. Приложение ИИ считается высокорискованным, если оно работает в рискованном секторе (например, в здравоохранении, транспорте или энергетике) и «используется таким образом, что могут возникнуть значительные риски». Для приложений ИИ с высоким уровнем риска требования в основном касаются: «данных для обучения», «данных и учета», «информации, которая должна быть предоставлена», «надежности и точности» и «человеческого контроля». Существуют также требования, специфичные для определенных видов использования, таких как удаленная биометрическая идентификация. Приложения ИИ, которые не относятся к категории «высокого риска», могут регулироваться схемой добровольной маркировки. Что касается соблюдения и обеспечения соблюдения, Комиссия рассматривает предварительные оценки соответствия, которые могут включать «процедуры тестирования, проверки или сертификации» и/или «проверки алгоритмов и наборов данных, используемых на этапе разработки». Европейская структура управления ИИ в форме структуры сотрудничества национальных компетентных органов могла бы способствовать внедрению нормативной базы. [98] [99]

Черновик от января 2021 года появился в сети 14 апреля 2021 года. [100] прежде чем Комиссия неделю спустя представила свое официальное «Предложение о Постановлении, устанавливающем гармонизированные правила в области искусственного интеллекта». [101] Вскоре на этой основе был официально предложен Закон об искусственном интеллекте (также известный как Закон об искусственном интеллекте). [102] Это предложение включает в себя уточнение подхода, основанного на рисках 2020 года, на этот раз с четырьмя категориями риска: «минимальный», «ограниченный», «высокий» и «неприемлемый». [103] Это предложение подверглось резкой критике в ходе общественных дебатов. Ученые выразили обеспокоенность по поводу различных неясных элементов предложения, таких как широкое определение того, что представляет собой ИИ, и опасаются непредвиденных юридических последствий, особенно для уязвимых групп, таких как пациенты и мигранты. [104] [105] Категория риска «ИИ общего назначения» была добавлена ​​в Закон об ИИ для учета универсальных моделей, таких как ChatGPT , которые не соответствуют системе регулирования на основе приложений. [106] В отличие от других категорий рисков, модели ИИ общего назначения можно регулировать на основе их возможностей, а не только их использования. К более слабым моделям ИИ общего назначения предъявляются требования прозрачности, в то время как те, которые считаются представляющими «системный риск» (особенно те, которые обучены с использованием вычислительных мощностей, превышающих 10 25 FLOPS ) также должны пройти тщательную оценку. [107] Последующая версия Закона об искусственном интеллекте была окончательно принята в мае 2024 года. [108] Закон об искусственном интеллекте будет постепенно применяться. [109] Распознавание эмоций идентификация в режиме реального времени и дистанционная биометрическая будут запрещены, за некоторыми исключениями, например, для правоохранительных органов. [110]

Наблюдатели выразили обеспокоенность по поводу увеличения числа законодательных предложений в рамках Комиссии фон дер Ляйен . Скорость законодательных инициатив частично обусловлена ​​политическими амбициями ЕС и может поставить под угрозу цифровые права европейских граждан, включая права на неприкосновенность частной жизни. [111] особенно в условиях неопределенных гарантий защиты данных посредством кибербезопасности. [93] Среди заявленных руководящих принципов в различных законодательных предложениях в области ИИ, выдвинутых Комиссией фон дер Ляйен, есть цели стратегической автономии. [112] и концепция цифрового суверенитета. [113] 29 мая 2024 года Европейская счетная палата опубликовала отчет, в котором говорится, что меры ЕС не были хорошо скоординированы с мерами стран ЕС; что мониторинг инвестиций не был систематическим; и что необходимо более сильное управление. [114]

Германия

[ редактировать ]

В ноябре 2020 года [115] DIN , DKE и Федеральное министерство экономики и энергетики Германии опубликовали первое издание «Немецкой дорожной карты по стандартизации искусственного интеллекта» (NRM KI) и представили его общественности на цифровом саммите федерального правительства Германии. [116] НРМ КИ описывает требования к будущим нормам и стандартам в контексте ИИ. Реализация рекомендаций к действию призвана помочь укрепить немецкую экономику и науку в международной конкуренции в области искусственного интеллекта и создать благоприятные для инноваций условия для этой новой технологии . Первое издание представляет собой 200-страничный документ, написанный 300 экспертами. Второе издание NRM KI было опубликовано приурочено к цифровому саммиту правительства Германии 9 декабря 2022 года. [117] DIN координировал работу более 570 участвующих экспертов из самых разных областей науки, промышленности, гражданского общества и государственного сектора. Второе издание представляет собой документ объемом 450 страниц.

С одной стороны, NRM KI охватывает основные темы с точки зрения приложений (например, медицина, мобильность, энергетика и окружающая среда, финансовые услуги, промышленная автоматизация) и фундаментальных вопросов (например, классификация ИИ, безопасность, сертификация, социотехнические системы, этика). . [117] С другой стороны, он предоставляет обзор основных терминов в области ИИ и его среды для широкого круга групп интересов и источников информации. В общей сложности документ охватывает 116 потребностей в стандартизации и содержит шесть основных рекомендаций к действию. [118]

30 октября 2023 года члены « Большой семерки» подписали одиннадцать руководящих принципов проектирования, производства и внедрения передовых систем искусственного интеллекта, а также добровольный Кодекс поведения разработчиков искусственного интеллекта в контексте Хиросимского процесса. [119]

Соглашение вызывает аплодисменты Урсулы фон дер Ляйен , которая находит в нем принципы Директивы по искусственному интеллекту, работа над которой в настоящее время завершается.

В октябре 2023 года итальянский орган по защите конфиденциальности утвердил постановление, которое предусматривает три принципа терапевтических решений, принимаемых автоматизированными системами: прозрачность процессов принятия решений, человеческий надзор за автоматизированными решениями и алгоритмическая недискриминация. [120]

Филиппины

[ редактировать ]

Филиппин был подан законопроект В 2023 году в Палату представителей , в котором предлагалось создать Управление по развитию искусственного интеллекта (AIDA), которое будет курировать разработку и исследование искусственного интеллекта. AIDA также предлагалось стать наблюдателем за преступлениями с использованием ИИ. [121]

Комиссия по выборам также рассмотрела в 2024 году запрет на использование искусственного интеллекта и дипфейков для агитации. Они надеются ввести в действие правила, которые будут применяться уже к всеобщим выборам 2025 года. [122]

В 2018 году Министерство науки, инноваций и университетов Испании утвердило Стратегию исследований и разработок в области искусственного интеллекта. [123]

С формированием второго правительства Педро Санчеса в январе 2020 года были усилены направления, связанные с новыми технологиями , которые с 2018 года находились в ведении Министерства экономики . Так, в 2020 году был создан Государственный секретариат по цифровизации и искусственному интеллекту (SEDIA). [124] Этот вышестоящий орган, следуя рекомендациям Стратегии исследований и разработок в области искусственного интеллекта 2018 года, [125] была разработана Национальная стратегия искусственного интеллекта (2020 г.), которая уже предусматривала действия, касающиеся управления искусственным интеллектом, и этические стандарты, которые должны регулировать его использование. Этот проект также был включен в План восстановления, трансформации и устойчивости (2021 г.).

В течение 2021 года [124] Правительство сообщило, что эти идеи будут разрабатываться через новое правительственное агентство, а общий государственный бюджет на 2022 год санкционировал его создание и выделил пять миллионов евро на его развитие. [126]

Совет министров на своем заседании 13 сентября 2022 года начал процесс выборов штаб-квартиры AESIA. [127] [128] 16 испанских провинций представили кандидатуры, при этом правительство выбрало Ла-Корунья , которая предложила здание Ла-Терраса. [129]

22 августа 2023 года Правительство утвердило внутренний регламент Агентства. [130] Таким образом, Испания стала первой европейской страной, в которой существует агентство по надзору за искусственным интеллектом, ожидая вступления в силу будущего европейского регламента по искусственному интеллекту. [131] который устанавливает необходимость для государств-членов иметь надзорный орган в этом вопросе.

Великобритания

[ редактировать ]

Великобритания поддержала применение и развитие искусственного интеллекта в бизнесе посредством Стратегии цифровой экономики на 2015–2018 годы. [132] представлен в начале 2015 года компанией Innovate UK в рамках цифровой стратегии Великобритании. [132] В государственном секторе Департамент цифровых технологий, культуры, СМИ и спорта консультировал по этике данных, а Институт Алана Тьюринга давал рекомендации по ответственному проектированию и внедрению систем искусственного интеллекта. [133] [134] Что касается кибербезопасности, в 2020 году Национальный центр кибербезопасности выпустил руководство по «интеллектуальным инструментам безопасности». [46] [135] В следующем году Великобритания опубликовала свою 10-летнюю Национальную стратегию в области искусственного интеллекта. [136] в котором описаны действия по оценке долгосрочных рисков ИИ, включая катастрофические риски, связанные с ИИ. [137]

В марте 2023 года Великобритания опубликовала официальный документ «Инновационный подход к регулированию ИИ» . [138] В этом официальном документе представлены общие принципы искусственного интеллекта, но он оставляет существующим регулирующим органам значительную гибкость в том, как они адаптируют эти принципы к конкретным областям, таким как транспорт или финансовые рынки. [139] В ноябре 2023 года в Великобритании состоялся первый саммит по безопасности ИИ , на котором премьер-министр Риши Сунак стремился позиционировать Великобританию как лидера в регулировании безопасности ИИ . [140] [141] В ходе саммита Великобритания создала Институт безопасности искусственного интеллекта как развитие Frontier AI Taskforce под руководством Яна Хогарта . В частности, на институт была возложена ответственность за продвижение оценок безопасности самых передовых в мире моделей ИИ, также называемых передовыми моделями ИИ . [142]

Правительство Великобритании заявило о своем нежелании принимать законы на раннем этапе, утверждая, что это может замедлить рост сектора и что законы могут стать устаревшими в результате дальнейшего технологического прогресса. [143]

Соединенные Штаты

[ редактировать ]

Дискуссии о регулировании ИИ в Соединенных Штатах включали такие темы, как своевременность регулирования ИИ, характер федеральной нормативной базы для управления и продвижения ИИ, в том числе то, какое агентство должно возглавлять, регулирующие и управляющие полномочия этого агентства и как обновлять правила в условиях быстро меняющихся технологий, а также роли правительств штатов и судов. [144]

Еще в 2016 году администрация Обамы начала уделять внимание рискам и правилам, связанным с искусственным интеллектом. В докладе под названием « Подготовка к будущему искусственного интеллекта» [145] Национальный совет по науке и технологиям создал прецедент, позволяющий исследователям продолжать разработку новых технологий искусственного интеллекта с небольшими ограничениями. В отчете говорится, что «подход к регулированию продуктов с поддержкой ИИ для защиты общественной безопасности должен основываться на оценке аспектов риска…». [146] Эти риски станут основной причиной создания любой формы регулирования, при условии, что любое существующее регулирование не будет применяться к технологии искусственного интеллекта.

Первым основным отчетом стал Национальный стратегический план исследований и разработок в области искусственного интеллекта. [147] 13 августа 2018 года раздел 1051 Закона о полномочиях национальной обороны Джона С. Маккейна на 2019 финансовый год (PL 115-232) учредил Комиссию национальной безопасности по искусственному интеллекту, «чтобы рассматривать методы и средства, необходимые для продвижения развития искусственного интеллекта». , машинное обучение и связанные с ними технологии для комплексного решения потребностей национальной безопасности и обороны Соединенных Штатов». [148] Руководство регулированием искусственного интеллекта, связанного с безопасностью, осуществляет Комиссия национальной безопасности по искусственному интеллекту. [149] Закон об инициативе в области искусственного интеллекта (S.1558) представляет собой предлагаемый законопроект, который создаст федеральную инициативу, призванную ускорить исследования и разработки в области искусственного интеллекта, в частности , для экономической и национальной безопасности Соединенных Штатов. [150] [151]

7 января 2019 г. в соответствии с Указом о сохранении американского лидерства в области искусственного интеллекта, [152] Белого дома Управление по науке и технологической политике опубликовало проект Руководства по регулированию приложений искусственного интеллекта . [153] который включает десять принципов для агентств США при принятии решения о том, следует ли и как регулировать ИИ. [154] В ответ Национальный институт стандартов и технологий опубликовал документ с изложением позиции: [155] а Совет по оборонным инновациям выпустил рекомендации по этичному использованию ИИ. [45] Год спустя администрация призвала дать комментарии по регулированию в другом проекте своего Руководства по регулированию приложений искусственного интеллекта. [156]

Другие специальные агентства, занимающиеся регулированием искусственного интеллекта, включают Управление по контролю за продуктами и лекарствами, [39] который создал пути регулирования использования искусственного интеллекта в медицинской визуализации. [38] Национальный совет по науке и технологиям также опубликовал Национальный стратегический план исследований и разработок в области искусственного интеллекта. [157] который получил общественное внимание и рекомендации по его дальнейшему совершенствованию для обеспечения надежного ИИ. [158]

В марте 2021 года Комиссия национальной безопасности по искусственному интеллекту опубликовала свой окончательный отчет. [159] В отчете они заявили, что «достижения в области ИИ, включая освоение более общих возможностей ИИ в одном или нескольких измерениях, вероятно, предоставят новые возможности и приложения. Некоторые из этих достижений могут привести к переломным моментам или скачкам в возможностях. Такие достижения». может также вызвать новые проблемы и риски, а также необходимость в новой политике, рекомендациях и технических достижениях, чтобы гарантировать, что системы соответствуют целям и ценностям, включая безопасность, надежность и надежность. США должны отслеживать достижения в области искусственного интеллекта и делать необходимые инвестиции в технологии. и уделять внимание политике, чтобы гарантировать, что системы искусственного интеллекта и их использование соответствуют нашим целям и ценностям».

В июне 2022 года сенаторы Роб Портман и Гэри Питерс представили Закон о глобальном смягчении катастрофических рисков. Двухпартийный законопроект «также поможет противостоять риску использования искусственного интеллекта... от злоупотреблений, которые могут представлять катастрофический риск». [160] [161] 4 октября 2022 года президент Джо Байден представил новый Билль о правах ИИ. [162] В нем изложены пять мер защиты, которые американцы должны иметь в эпоху искусственного интеллекта: 1. Безопасные и эффективные системы, 2. Алгоритмическая защита от дискриминации, 3. Конфиденциальность данных, 4. Уведомление и объяснение и 5. Человеческие альтернативы, рассмотрение и запасной вариант. Законопроект был внесен в октябре 2021 года Управлением научно-технической политики (OSTP), правительственным департаментом США, который консультирует президента по вопросам науки и технологий. [163]

В январе 2023 года вступил в силу Закон города Нью-Йорка об аудите предвзятости (Местный закон 144). [164] ) был принят Советом Нью-Йорка в ноябре 2021 года. Первоначально он должен был вступить в силу 1 января 2023 года, но дата вступления в силу местного закона 144 была перенесена из-за большого количества комментариев, полученных во время публичных слушаний по делу Департамента по защите прав потребителей. и Правила по охране труда (DCWP), разъясняющие требования законодательства. В конечном итоге он вступил в силу 5 июля 2023 года. [165] С этой даты компаниям, которые работают и нанимают сотрудников в Нью-Йорке, запрещено использовать автоматизированные инструменты для найма кандидатов или продвижения сотрудников, если только эти инструменты не прошли независимую проверку на предмет предвзятости.

В июле 2023 года администрация Байдена-Харриса добилась добровольных обязательств от семи компаний — Amazon , Anthropic , Google , Inflection , Meta , Microsoft и OpenAI — по управлению рисками, связанными с ИИ. Компании обязались обеспечить, чтобы продукты искусственного интеллекта проходили как внутреннее, так и внешнее тестирование безопасности перед их публичным выпуском; обмениваться информацией об управлении рисками ИИ с промышленностью, правительствами, гражданским обществом и научными кругами; уделять приоритетное внимание кибербезопасности и защищать собственные компоненты систем искусственного интеллекта; разработать механизмы информирования пользователей о том, что контент создается с помощью ИИ, например водяные знаки; публично сообщать о возможностях, ограничениях и областях использования своих систем ИИ; уделить приоритетное внимание исследованиям социальных рисков, связанных с ИИ, включая предвзятость, дискриминацию и проблемы конфиденциальности; и разработать системы искусственного интеллекта для решения социальных проблем, начиная от профилактики рака и заканчивая смягчением последствий изменения климата . В сентябре 2023 года появятся еще восемь компаний — Adobe , Cohere , IBM , Nvidia , Palantir. , Salesforce , Scale AI и Stability AI – подписались на эти добровольные обязательства. [166] [167]

В октябре 2023 года администрация Байдена дала понять, что выпустит указ, позволяющий использовать покупательную способность федерального правительства для формирования правил в области ИИ, намекая на активную позицию правительства в регулировании технологий ИИ. [168] 30 октября 2023 года президент Байден издал указ о безопасном, защищенном и заслуживающем доверия искусственном интеллекте . Исполнительный указ затрагивает множество вопросов, таких как сосредоточение внимания на стандартах критической инфраструктуры, кибербезопасности, усиленной искусственным интеллектом, и проектах биологического синтеза, финансируемых из федерального бюджета. [169]

Исполнительный указ предоставляет полномочия различным агентствам и департаментам правительства США, включая министерства энергетики и обороны, применять существующие законы о защите потребителей к разработке ИИ. [170]

Исполнительный указ основывается на предыдущих соглашениях администрации с компаниями, занимающимися искусственным интеллектом, о внедрении новых инициатив по «красной команде» или стресс-тестированию базовых моделей искусственного интеллекта двойного назначения, особенно тех, которые потенциально могут представлять угрозу безопасности, с передачей данных и результатов федеральное правительство.

Исполнительный указ также признает социальные проблемы ИИ и призывает компании, создающие базовые модели ИИ двойного назначения, с осторожностью относиться к этим социальным проблемам. Например, в указе говорится, что ИИ не должен «ухудшать качество рабочих мест» и не должен «вызывать перебои в работе рабочей силы». Кроме того, исполнительный указ Байдена требует, чтобы ИИ «продвигал равенство и гражданские права» и не мог ставить в невыгодное положение маргинализированные группы. [171] Он также призвал к тому, чтобы базовые модели включали «водяные знаки», чтобы помочь общественности различать контент, созданный человеком, и контент, созданный искусственным интеллектом, что вызвало споры и критику со стороны исследователей по обнаружению дипфейков. [172]

В феврале 2024 года сенатор Скотт Винер представил Закон о безопасных и надежных инновациях для пограничных моделей искусственного интеллекта законодательному собранию Калифорнии . Законопроект во многом основан на указе Байдена . [173] Его цель – снизить катастрофические риски путем проведения обязательных испытаний на безопасность самых мощных моделей искусственного интеллекта. В случае принятия законопроекта также будет создан финансируемый государством кластер облачных вычислений в Калифорнии. [174]

21 марта 2024 года в штате Теннесси был принят закон под названием « Закон ЭЛВИС» , направленный конкретно на аудиодипфейки и клонирование голоса. [175] Этот закон стал первым принятым законом в стране, направленным на регулирование моделирования изображения, голоса и изображения с помощью ИИ. [176] Законопроект был принят единогласно в Палате представителей и Сенате Теннесси . [177] Его сторонники надеялись, что успех этого закона вдохновит аналогичные действия в других штатах, внеся вклад в единый подход к авторскому праву и конфиденциальности в эпоху цифровых технологий, а также усилит важность защиты прав художников от несанкционированного использования их голосов и изображений. [178] [179]

13 марта 2024 года штата Юта губернатор Спенсер Кокс подписал Закон SB 149 «Закон о политике в области искусственного интеллекта». Этот закон вступает в силу 1 мая 2024 года. Он устанавливает ответственность, в частности, для компаний, которые не раскрывают информацию об использовании генеративного ИИ , когда этого требуют государственные законы о защите прав потребителей, или когда пользователи совершают уголовные преступления с использованием генеративного ИИ. Он также создает Управление политики в области искусственного интеллекта и Лабораторную программу обучения искусственному интеллекту . [180] [181]

Регулирование полностью автономного оружия

[ редактировать ]

Юридические вопросы, связанные со смертоносными автономными системами вооружения (LAWS), в частности соблюдение законов вооруженных конфликтов , обсуждаются в Организации Объединенных Наций с 2013 года в контексте Конвенции о конкретных видах обычного оружия . [182] Примечательно, что неофициальные встречи экспертов состоялись в 2014, 2015 и 2016 годах, а в 2016 году была назначена Группа правительственных экспертов (ГПЭ) для дальнейшего обсуждения этого вопроса. 2018. [183]

В 2016 году Китай опубликовал позиционный документ, ставящий под сомнение адекватность существующего международного права для рассмотрения возможности создания полностью автономного оружия, став первым постоянным членом Совета Безопасности ООН , затронувшим этот вопрос. [47] и ведущие к предложениям по глобальному регулированию. [184] Возможность моратория или упреждающего запрета на разработку и использование АСОЛД также неоднократно поднималась другими национальными делегациями в рамках Конвенции о конкретных видах обычного оружия и активно поддерживается Кампанией по прекращению роботов-убийц – коалицией не -правительственные организации. [185] Правительство США утверждает, что действующее международное гуманитарное право способно регулировать разработку или использование ЗАКОНОВ. [186] указала В 2023 году Исследовательская служба Конгресса , что США не имеют в своем арсенале ЗАКОНЫ, но их политика не запрещает их разработку и применение. [187]

См. также

[ редактировать ]
  1. ^ Кэт, Коринн (2018). «Управление искусственным интеллектом: этические, юридические и технические возможности и проблемы» . Философские труды Королевского общества A: Математические, физические и технические науки . 376 (2133): 20180080. Бибкод : 2018RSPTA.37680080C . дои : 10.1098/rsta.2018.0080 . ПМК   6191666 . ПМИД   30322996 .
  2. ^ Эрдели, Оливия Дж.; Голдсмит, Джуди (2020). «Регулирование искусственного интеллекта: предложение глобального решения». arXiv : 2005.11072 [ cs.CY ].
  3. ^ Таллберг, Йонас; Эрман, Ева; Фюрендаль, Маркус; Гейт, Йоханнес; Кламберг, Марк; Лундгрен, Магнус (2023). «Глобальное управление искусственным интеллектом: следующие шаги эмпирических и нормативных исследований» . Обзор международных исследований . 25 (3). arXiv : 2305.11528 . дои : 10.1093/isr/viad040 .
  4. ^ Хедер, М (2020). «Критика этических принципов ИИ» . Информационное общество . 20 (4): 57–73. дои : 10.22503/inftars.XX.2020.4.5 . S2CID   233252939 .
  5. ^ Кертис, Кейтлин; Гиллеспи, Николь; Локки, Стивен (24 мая 2022 г.). «Организации, внедряющие ИИ, играют ключевую роль в устранении «идеального шторма» рисков ИИ» . ИИ и этика . 3 (1): 145–153. дои : 10.1007/s43681-022-00163-7 . ISSN   2730-5961 . ПМЦ   9127285 . ПМИД   35634256 .
  6. ^ «Этический подход к ИИ является абсолютным императивом, Андреас Каплан» . Проверено 26 апреля 2021 г.
  7. ^ Jump up to: а б с д и Сотала, Кай; Ямпольский, Роман В. (19 декабря 2014 г.). «Реакция на катастрофический риск ОГИ: опрос» . Физика Скрипта . 90 (1): 018001. Бибкод : 2015PhyS...90a8001S . дои : 10.1088/0031-8949/90/1/018001 . ISSN   0031-8949 .
  8. ^ Jump up to: а б Винсент, Джеймс (3 апреля 2023 г.). «ИИ вступает в эпоху корпоративного контроля» . Грань . Проверено 19 июня 2023 г.
  9. ^ «Отчет об индексе искусственного интеллекта за 2023 год / Глава 6: Политика и управление» (PDF) . Индекс ИИ . 2023 . Проверено 19 июня 2023 г.
  10. ^ Jump up to: а б «Илон Маск предупреждает губернаторов: искусственный интеллект представляет «экзистенциальный риск» » . NPR.org . Проверено 27 ноября 2017 г.
  11. ^ Гиббс, Сэмюэл (17 июля 2017 г.). «Илон Маск: регулируйте ИИ для борьбы с «экзистенциальной угрозой», пока не стало слишком поздно» . Хранитель . Проверено 27 ноября 2017 г.
  12. ^ Харпал, Арджун (7 ноября 2017 г.). «ИИ находится в «зачаточном состоянии», и регулировать его еще слишком рано, — говорит генеральный директор Intel Брайан Кржанич» . CNBC . Проверено 27 ноября 2017 г.
  13. ^ Чемберлен, Джоанна (март 2023 г.). «Риск-ориентированный подход к предлагаемому Европейскому Союзу постановлению об искусственном интеллекте: некоторые комментарии с точки зрения деликтного права» . Европейский журнал регулирования рисков . 14 (1): 1–13. дои : 10.1017/ошибка.2022.38 . ISSN   1867-299Х .
  14. ^ Каплан, Андреас; Хэнляйн, Майкл (2019). «Сири, Сири, в моей руке: кто самый справедливый на земле? Об интерпретациях, иллюстрациях и значении искусственного интеллекта». Горизонты бизнеса . 62 : 15–25. дои : 10.1016/j.bushor.2018.08.004 . S2CID   158433736 .
  15. ^ Эдвардс, Бендж (17 мая 2023 г.). «Опрос: ИИ представляет опасность для человечества, по мнению большинства американцев» . Арс Техника . Проверено 19 июня 2023 г.
  16. ^ Касперович, Питер (1 мая 2023 г.). «Регулировать ИИ? Республиканская партия гораздо более скептически, чем демократы, считает, что правительство может сделать это правильно: опрос» . Фокс Ньюс . Проверено 19 июня 2023 г.
  17. ^ «Опрос Fox News» (PDF) . Фокс Ньюс. 2023 . Проверено 19 июня 2023 г.
  18. ^ Барфилд, Вудро; Пагалло, Уго (2018). Научно-исследовательский справочник по закону искусственного интеллекта . Челтнем, Великобритания: Издательство Эдварда Элгара. ISBN  978-1-78643-904-8 . OCLC   1039480085 .
  19. ^ Jump up to: а б Вирц, Бернд В.; Вейерер, Ян К.; Гейер, Кэролин (24 июля 2018 г.). «Искусственный интеллект и государственный сектор — приложения и проблемы» . Международный журнал государственного управления . 42 (7): 596–615. дои : 10.1080/01900692.2018.1498103 . ISSN   0190-0692 . S2CID   158829602 .
  20. ^ Jump up to: а б Бьютен, Мириам К. (2019). «На пути к интеллектуальному регулированию искусственного интеллекта» . Европейский журнал регулирования рисков . 10 (1): 41–59. дои : 10.1017/ошибка.2019.8 .
  21. ^ Мантелеро, Алессандро; Эспозито, Мария Саманта (2021). «Обоснованная методология оценки воздействия на права человека (HRIA) при разработке систем искусственного интеллекта с интенсивным использованием данных» . Обзор компьютерного права и безопасности . 41 : 105561. doi : 10.1016/j.clsr.2021.105561 . ISSN   0267-3649 . S2CID   237588123 .
  22. ^ Jump up to: а б Искусственный интеллект в обществе . Париж: Организация экономического сотрудничества и развития. 11 июня 2019 г. ISBN  978-92-64-54519-9 . OCLC   1105926611 .
  23. ^ Камышанский Владимир П.; Руденко Евгения Юрьевна; Коломиец Евгений А.; Крипакова, Дина Р. (2020), «Возвращаясь к месту искусственного интеллекта в обществе и государстве», Искусственный интеллект: антропогенная природа против социального происхождения , Достижения в области интеллектуальных систем и вычислений, том. 1100, Чам: Springer International Publishing, стр. 359–364, номер документа : 10.1007/978-3-030-39319-9_41 , ISBN.  978-3-030-39318-2 , S2CID   213070224
  24. ^ «Специальный выпуск об управлении искусственным интеллектом по мягкому праву: информация о публикации журнала IEEE Technology and Society Magazine» . Журнал IEEE Technology and Society . 40 (4): С2. Декабрь 2021. doi : 10.1109/МТС.2021.3126194 .
  25. ^ Jump up to: а б с д и Марчант, Гэри. « Мягкое право «Управление ИИ» (PDF) . ИИ Пульс . Статьи AI PULSE . Проверено 28 февраля 2023 г.
  26. ^ Jump up to: а б с Джонсон, Уолтер Г.; Боуман, Диана М. (декабрь 2021 г.). «Обзор инструментов и институтов, доступных для глобального управления искусственным интеллектом». Журнал IEEE Technology and Society . 40 (4): 68–76. дои : 10.1109/МТС.2021.3123745 . S2CID   245053179 .
  27. ^ Сатклифф, Хиллари Р.; Браун, Саманта (декабрь 2021 г.). «Доверие и мягкое право для ИИ». Журнал IEEE Technology and Society . 40 (4): 14–24. дои : 10.1109/МТС.2021.3123741 . S2CID   244955938 .
  28. ^ Jump up to: а б Шмит, CD; Дорр, MJ; Вагнер, Дж. К. (17 февраля 2023 г.). «Использование интеллектуальной собственности для управления ИИ». Наука . 379 (6633): 646–648. Бибкод : 2023Sci...379..646S . дои : 10.1126/science.add2202 . ПМИД   36795826 . S2CID   256901479 .
  29. ^ Лима-Стронг, Криштиану (16 мая 2024 г.). «Молодежные активисты призывают мировых лидеров установить меры защиты ИИ к 2030 году» . Вашингтон Пост . Проверено 24 июня 2024 г.
  30. ^ Холдейн, Мэтт (21 мая 2024 г.). «Студенческие активисты в области искусственного интеллекта из Encode Justice обнародовали 22 цели на 2030 год в преддверии глобального саммита в Сеуле» . Проверено 24 июня 2024 г.
  31. ^ Фьелд, Джессика; Ахтен, Неле; Хиллигосс, Ханна; Надь, Адам; Шрикумар, Мадху (15 января 2020 г.). Принципиальный искусственный интеллект: сопоставление консенсуса в этических и правозащитных подходах к принципам искусственного интеллекта (отчет). Центр Беркмана Кляйна Интернета и общества.
  32. ^ Вирц, Бернд В.; Вейерер, Ян К.; Штурм, Бенджамин Дж. (15 апреля 2020 г.). «Темные стороны искусственного интеллекта: интегрированная система управления искусственным интеллектом для государственного управления». Международный журнал государственного управления . 43 (9): 818–829. дои : 10.1080/01900692.2020.1749851 . ISSN   0190-0692 . S2CID   218807452 .
  33. ^ Jump up to: а б Бредт, Стефан (04 октября 2019 г.). «Искусственный интеллект (ИИ) в финансовом секторе — потенциал и государственные стратегии» . Границы искусственного интеллекта . 2:16 . дои : 10.3389/фр.2019.00016 . ISSN   2624-8212 . ПМЦ   7861258 . ПМИД   33733105 .
  34. ^ Jump up to: а б с Технический документ: Искусственный интеллект: европейский подход к совершенству и доверию (PDF) . Брюссель: Европейская комиссия. 2020. с. 1.
  35. ^ Вирц, Бернд В.; Мюллер, Вильгельм М. (03 декабря 2018 г.). «Интегрированная система искусственного интеллекта для государственного управления». Обзор государственного управления . 21 (7): 1076–1100. дои : 10.1080/14719037.2018.1549268 . ISSN   1471-9037 . S2CID   158267709 .
  36. ^ Райсман, Диллон; Шульц, Джейсон; Кроуфорд, Кейт; Уиттакер, Мередит (2018). Алгоритмические оценки воздействия: практическая основа подотчетности государственных учреждений (PDF) . Нью-Йорк: Институт AI Now. Архивировано из оригинала (PDF) 14 июня 2020 г. Проверено 28 апреля 2020 г.
  37. ^ Jump up to: а б «На пути к ответственным инновациям в области искусственного интеллекта» . ЮНИКРИ . июль 2020 года . Проверено 18 июля 2022 г.
  38. ^ Jump up to: а б Кохли, Аджай; Махаджан, Видур; Силс, Кевин; Кохли, Аджит; Джа, Саураб (2019). «Концепции регулирования использования искусственного интеллекта для медицинских изображений Управлением по санитарному надзору за качеством пищевых продуктов и медикаментов США» . Американский журнал рентгенологии . 213 (4): 886–888. дои : 10.2214/18.04.20410 . ISSN   0361-803X . PMID   31166758 . S2CID   174813195 .
  39. ^ Jump up to: а б Хван, Томас Дж.; Кессельхайм, Аарон С.; Вокингер, Керстин Н. (17 декабря 2019 г.). «Регулирование жизненного цикла программных устройств на основе искусственного интеллекта и машинного обучения в медицине» . ДЖАМА . 322 (23): 2285–2286. дои : 10.1001/jama.2019.16842 . ISSN   0098-7484 . ПМИД   31755907 . S2CID   208230202 .
  40. ^ Шарма, Кавита; Манчиканти, Падмавати (01 октября 2020 г.). «Регулирование использования искусственного интеллекта в разработке лекарств и здравоохранении» . Отчет о законе о биотехнологиях . 39 (5): 371–380. дои : 10.1089/blr.2020.29183.ks . ISSN   0730-031X . S2CID   225540889 .
  41. ^ Петкус, Гарольдас; Хугеверф, Ян; Вятт, Джереми С. (2020). «Что думают старшие врачи об искусственном интеллекте и системах поддержки клинических решений: количественный и качественный анализ данных специализированных обществ» . Клиническая медицина . 20 (3): 324–328. дои : 10.7861/clinmed.2019-0317 . ISSN   1470-2118 . ПМК   7354034 . ПМИД   32414724 .
  42. ^ Ченг, Джером Ю.; Абель, Джейкоб Т.; Балис, Улисс Г.Дж.; МакКлинток, Дэвид С.; Пантановиц, Лирон (2021). «Проблемы разработки, внедрения и регулирования искусственного интеллекта в анатомической патологии» . Американский журнал патологии . 191 (10): 1684–1692. дои : 10.1016/j.ajpath.2020.10.018 . ISSN   0002-9440 . ПМИД   33245914 . S2CID   227191875 .
  43. ^ Jump up to: а б с Гуркайнак, Гоненц; Йылмаз, Илай; Хаксевер, Гюнес (2016). «Удушение искусственного интеллекта: опасности для человека». Обзор компьютерного права и безопасности . 32 (5): 749–758. дои : 10.1016/j.clsr.2016.05.003 . ISSN   0267-3649 .
  44. ^ Ипхофен, Рон; Критикос, Михалис (3 января 2019 г.). «Регулирование искусственного интеллекта и робототехники: задуманная этика в цифровом обществе». Современная общественная наука . 16 (2): 170–184. дои : 10.1080/21582041.2018.1563803 . ISSN   2158-2041 . S2CID   59298502 .
  45. ^ Jump up to: а б Принципы искусственного интеллекта: Рекомендации по этическому использованию искусственного интеллекта Министерством обороны (PDF) . Вашингтон, округ Колумбия: Совет по оборонным инновациям США. 2019. OCLC   1126650738 .
  46. ^ Jump up to: а б с Бабута, Александр; Освальд, Мэрион; Янжева, Арди (2020). Искусственный интеллект и национальная безопасность Великобритании: политические соображения (PDF) . Лондон: Королевский институт объединенных служб. Архивировано из оригинала (PDF) 02 мая 2020 г. Проверено 28 апреля 2020 г.
  47. ^ Jump up to: а б «Роботы с оружием: развитие автономных систем вооружения» . Snopes.com . 21 апреля 2017 года . Проверено 24 декабря 2017 г.
  48. ^ Бенто, Лукас (2017). «Не просто деоданды: ответственность человека при использовании жестоких интеллектуальных систем в соответствии с международным публичным правом» . Хранилище стипендий Гарварда . Проверено 14 сентября 2019 г.
  49. ^ Киссинджер, Генри (1 ноября 2021 г.). «Проблема быть человеком в эпоху искусственного интеллекта» . Уолл Стрит Джорнал .
  50. ^ Jump up to: а б Барретт, Энтони М.; Баум, Сет Д. (23 мая 2016 г.). «Модель путей к катастрофе искусственного сверхразума для анализа рисков и решений». Журнал экспериментального и теоретического искусственного интеллекта . 29 (2): 397–414. arXiv : 1607.07730 . дои : 10.1080/0952813x.2016.1186228 . ISSN   0952-813X . S2CID   928824 .
  51. ^ «Отчет об индексе искусственного интеллекта за 2024 год — глава 3: Ответственный искусственный интеллект» (PDF) . aiindex.stanford.edu . Апрель 2024 г.
  52. ^ Бойд, Мэтью; Уилсон, Ник (01 ноября 2017 г.). «Быстрое развитие искусственного интеллекта: как может отреагировать правительство Новой Зеландии?» . Политика Ежеквартально . 13 (4). дои : 10.26686/pq.v13i4.4619 . ISSN   2324-1101 .
  53. ^ Инновации, наука и экономическое развитие Канады (16 мая 2019 г.). «Декларация Международной группы экспертов по искусственному интеллекту» . gcnws . Проверено 29 марта 2020 г.
  54. ^ Симонит, Том (08 января 2020 г.). «У мира есть план по обузданию искусственного интеллекта, но США он не нравится» . Проводной . Проверено 29 марта 2020 г.
  55. ^ Jump up to: а б «Регулирование ИИ: время пришло?» . Информационная неделя . 24 февраля 2020 г. Проверено 29 марта 2020 г.
  56. ^ Jump up to: а б с д и ж г Доклад ЮНЕСКО по науке: гонка со временем ради более разумного развития . Париж: ЮНЕСКО. 11 июня 2021 г. ISBN  978-92-3-100450-6 .
  57. ^ "Сообщество" . ГПАИ . Архивировано из оригинала 30 марта 2023 года.
  58. ^ «Обзор принципов искусственного интеллекта» . ОЭСР.AI. ​Проверено 20 октября 2023 г.
  59. ^ Заявление министров G20 по торговле и цифровой экономике (PDF) . Цукуба, Япония: G20. 2019.
  60. ^ «Международная комиссия по этике ИИ должна быть независимой» . Природа . 572 (7770): 415. 21.08.2019. Бибкод : 2019Natur.572R.415. . дои : 10.1038/d41586-019-02491-x . ПМИД   31435065 .
  61. ^ Руководство по закупкам ИИ (PDF) . Колоньи/Женева: Всемирный экономический форум. 2019.
  62. ^ «Мероприятие высокого уровня: искусственный интеллект и робототехника – меняя будущее преступности, терроризма и безопасности» . ЮНИКРИ . Проверено 18 июля 2022 г.
  63. ^ Jump up to: а б с д Нифаолайн, Лабхаойз; Хайнс, Эндрю; Наллур, Вивек (2020). Оценка склонности к надежности и регулирование искусственного интеллекта в Европе (PDF) . Дублин: Технологический университет Дублина, Школа компьютерных наук, Дублин. стр. 1–12. В эту статью включен текст, доступный по лицензии CC BY 4.0 . (Лицензия CC BY 4.0 означает, что каждый имеет право повторно использовать текст, который здесь цитируется, или другие части самой оригинальной статьи, если они указывают авторов. Дополнительная информация: лицензия Creative Commons ) Изменения были внесены следующим образом: цитаты удалены и незначительные грамматические поправки.
  64. ^ «Рекомендации по этике искусственного интеллекта» . ЮНЕСКО . 27 февраля 2020 г. Проверено 18 июля 2022 г.
  65. ^ Ниндлер, Рейнмар (11 марта 2019 г.). «Способность Организации Объединенных Наций управлять экзистенциальными рисками с акцентом на искусственный интеллект» . Обзор права международного сообщества . 21 (1): 5–34. дои : 10.1163/18719732-12341388 . ISSN   1871-9740 . S2CID   150911357 .
  66. ^ "О" . ИИ во благо . Проверено 06 апреля 2023 г.
  67. ^ Таддео, Мариаросария; Флориди, Лучано (апрель 2018 г.). «Регулировать искусственный интеллект, чтобы предотвратить гонку кибервооружений» . Природа . 556 (7701): 296–298. Бибкод : 2018Natur.556..296T . дои : 10.1038/d41586-018-04602-6 . ПМИД   29662138 .
  68. ^ «Искусственный интеллект и робототехника» . ЮНИКРИ . Проверено 8 августа 2020 г.
  69. ^ Юридическая библиотека Конгресса (США). Управление глобальных юридических исследований, орган, выдающий документы. Регулирование искусственного интеллекта в отдельных юрисдикциях . LCCN   2019668143 . OCLC   1110727808 .
  70. ^ Попова Анна Владимировна; Горохова Светлана С.; Абрамова Марианна Г.; Балашкина, Ирина В. (2021), Система права и искусственный интеллект в современной России: цели и инструменты цифровой модернизации , Исследования в области систем, принятия решений и управления, том. 314, Чам: Springer International Publishing, стр. 89–96, номер документа : 10.1007/978-3-030-56433-9_11 , ISBN.  978-3-030-56432-2 , S2CID   234309883 , получено 27 марта 2021 г.
  71. ^ «Обсерватория инноваций государственного сектора ОЭСР – стратегии искусственного интеллекта и компоненты государственного сектора» . Проверено 4 мая 2020 г.
  72. ^ Беррихилл, Джейми; Хеанг, Кевин Кок; Клогер, Роб; Макбрайд, Киган (2019). Привет, мир: искусственный интеллект и его использование в государственном секторе (PDF) . Париж: Обсерватория инноваций государственного сектора ОЭСР.
  73. ^ Кэмпбелл, Томас А. (2019). Искусственный интеллект: обзор государственных инициатив (PDF) . Эвергрин, Колорадо: FutureGrasp, LLC. Архивировано из оригинала (PDF) 31 марта 2020 г.
  74. ^ Брэдфорд, Ану (27 июня 2023 г.). «Гонка за регулирование искусственного интеллекта» . Иностранные дела . ISSN   0015-7120 . Проверено 11 августа 2023 г.
  75. ^ Jump up to: а б «Австралии нужен национальный подход к стратегии ИИ» . Информационный век . Проверено 8 ноября 2023 г.
  76. ^ Инновации, наука и экономическое развитие Канады (22 июня 2022 г.). «Правительство Канады запускает второй этап Панканадской стратегии искусственного интеллекта» . www.canada.ca . Проверено 24 октября 2023 г.
  77. ^ Канада, правительство (18 августа 2022 г.). «Краткое содержание законопроекта C-27: Закон о реализации цифровой хартии, 2022 г.» . ised-isde.canada.ca . Проверено 24 октября 2023 г.
  78. ^ «Правительственный законопроект (Палата общин) C-27 (44–1) – Первое чтение – Закон о реализации цифровой хартии, 2022 г. – Парламент Канады» . www.parl.ca. ​Проверено 12 июля 2022 г.
  79. ^ Мароккан Таймс (24 апреля 2024 г.). «Марокко предлагает законопроект для Национального агентства по искусственному интеллекту» . «Мароккан Таймс» . Проверено 25 апреля 2024 г.
  80. ^ Государственный совет Китая. «План развития нового поколения искусственного интеллекта» . www.unodc.org . Архивировано из оригинала 7 июня 2023 года . Проверено 18 июля 2022 г.
  81. ^ Департамент международного сотрудничества Министерства науки и технологий (сентябрь 2017 г.). «План развития искусственного интеллекта следующего поколения, опубликованный Государственным советом» (PDF) . Информационный бюллетень китайской науки и технологий (17): 2–12. Архивировано из оригинала (PDF) 21 января 2022 г. – через Министерство иностранных дел Китая .
  82. ^ У, Фэй; Чжу, Минцзе; Чжу, Цзюнь; Ю, Ли, Мин; Ли, Цао, Сюдун (2020) . новое поколение искусственного интеллекта в Китае» . Nature Machine Intelligence . 2 (6): 312–316. doi : 10.1038/s42256-020-0183-4 . ISSN   2522-5839 . S2CID   220507829 .
  83. ^ «Обнародованы этические нормы для искусственного интеллекта нового поколения» . Центр безопасности и новых технологий . Проверено 18 июля 2022 г.
  84. ^ «Китай только что дал миру план господства генеративного искусственного интеллекта» Fortune . Проверено 24 июля 2023 г.
  85. ^ «Совет Европы и искусственный интеллект» . Искусственный интеллект . Проверено 29 июля 2021 г.
  86. ^ Пойкерт, Кристиан; Бехтольд, Стефан; Кречмер, Тобиас; Батикас, Михаил (30 сентября 2020 г.). «Регуляторный экспорт и побочные эффекты: как GDPR влияет на глобальные рынки данных» . ЦЭПР . Проверено 26 октября 2023 г.
  87. ^ Коултер, Мартин (24 августа 2023 г.). «Крупные технологические компании готовятся к соблюдению правил Закона ЕС о цифровых услугах» . Рейтер . Проверено 26 октября 2023 г.
  88. ^ «Новая роль Европы в цифровом регулировании» . Le Monde.fr . 28 августа 2023 г. Проверено 26 октября 2023 г.
  89. ^ Сатариано, Адам (14 июня 2023 г.). «Европейцы делают важный шаг к регулированию искусственного интеллекта», The New York Times . ISSN   0362-4331 . Проверено 25 октября 2023 г.
  90. ^ Браун, Райан (14 июня 2023 г.). «Законодатели ЕС приняли эпохальное постановление об искусственном интеллекте» . CNBC . Проверено 25 октября 2023 г.
  91. ^ Аноним (25 апреля 2018 г.). «Коммуникационный искусственный интеллект для Европы» . Формирование цифрового будущего Европы – Европейская комиссия . Проверено 5 мая 2020 г.
  92. ^ смухана (14 июня 2018 г.). «Экспертная группа высокого уровня по искусственному интеллекту» . Формирование цифрового будущего Европы – Европейская комиссия . Проверено 5 мая 2020 г.
  93. ^ Jump up to: а б Андрашко, Юзеф; Месарчик, Матуш; Хамуляк, Ондрей (2 января 2021 г.). «Регуляторное пересечение искусственного интеллекта, защиты данных и кибербезопасности: проблемы и возможности для правовой базы ЕС» . ИИ и общество . 36 (2): 623–636. дои : 10.1007/s00146-020-01125-5 . ISSN   0951-5666 . S2CID   230109912 .
  94. ^ «Этические рекомендации для заслуживающего доверия ИИ» . Европейская комиссия . 2019.
  95. ^ «Политические и инвестиционные рекомендации для надежного искусственного интеллекта» . Формирование цифрового будущего Европы – Европейская комиссия . 26 июня 2019 г. Проверено 5 мая 2020 г.
  96. ^ «Белая книга по искусственному интеллекту – европейский подход к совершенству и доверию» . Европейская комиссия . 19 февраля 2020 г. Проверено 7 июня 2021 г.
  97. ^ Бродбент, Мередит (17 марта 2021 г.). «Что ждет совместную программу регулирования искусственного интеллекта?» . www.csis.org . Архивировано из оригинала 7 июня 2021 года . Проверено 7 июня 2021 г.
  98. ^ Европейская комиссия. (2020). Белая книга по искусственному интеллекту: европейский подход к совершенству и доверию . OCLC   1141850140 .
  99. ^ «Регулирование ИИ в ЕС» . Мейсон Хейс и Карран . Проверено 30 марта 2023 г.
  100. ^ Хейккиля, Мелисса (14 апреля 2021 г.). «POLITICO AI: Расшифровано: правила искусственного интеллекта ЕС — Финляндия разговаривает с машинами — проект справедливости Facebook» (информационный бюллетень). ПОЛИТИКА . Проверено 14 мая 2021 г.
  101. ^ Европейская комиссия (21 апреля 2021 г.). Европа готова к эпохе цифровых технологий: Комиссия предлагает новые правила и действия для достижения совершенства и доверия к искусственному интеллекту (пресс-релиз). Проверено 14 мая 2021 г.
  102. ^ Пери, Эндрю (06 октября 2021 г.). «Надежный искусственный интеллект и технологический майнинг: проблемы и возможности» . ДипАИ . Проверено 27 февраля 2022 г.
  103. ^ Браун, Райан (15 мая 2023 г.). «Европа нацелилась на ChatGPT, приняв, возможно, вскоре первый на Западе закон об искусственном интеллекте. Вот что это значит» . CNBC . Проверено 25 октября 2023 г.
  104. ^ Вил, Майкл; Боргезиус, Фредерик Зейдервен (1 августа 2021 г.). «Демистификация проекта закона ЕС об искусственном интеллекте — анализ хороших, плохих и неясных элементов предлагаемого подхода» . Обзор компьютерного права International . 22 (4): 97–112. arXiv : 2107.03721 . дои : 10.9785/cri-2021-220402 . ISSN   2194-4164 . S2CID   235765823 .
  105. ^ ван Кольфшутен, Ханна (январь 2022 г.). «Регулирование ЕС в области искусственного интеллекта: проблемы прав пациентов» . Обзор права общего рынка . 59 (1): 81–112. дои : 10.54648/COLA2022005 . S2CID   248591427 .
  106. ^ Коултер, Мартин (7 декабря 2023 г.). «Что такое Закон ЕС об искусственном интеллекте и когда он вступит в силу?» . Рейтер .
  107. ^ Бертуцци, Лука (7 декабря 2023 г.). «Закон об искусственном интеллекте: политики ЕС устанавливают правила для моделей искусственного интеллекта, бодаются с правоохранительными органами» . евроактив .
  108. ^ Браун, Райан (21 мая 2024 г.). «Первый в мире крупный закон об искусственном интеллекте получил окончательный зеленый свет ЕС» . CNBC . Проверено 1 июня 2024 г.
  109. ^ «Закон об искусственном интеллекте: депутаты Европарламента принимают знаковый закон» . Европейский парламент . 13 марта 2024 г. Проверено 1 июня 2024 г.
  110. ^ «Реакция экспертов: ЕС заключил соглашение по правилам искусственного интеллекта. Но могут ли регуляторы действовать со скоростью технологий?» . Атлантический совет . 11 декабря 2023 г.
  111. ^ Натале, Лара (февраль 2022 г.). «Цифровые амбиции ЕС страдают от стратегического диссонанса» . Охватить . Проверено 25 февраля 2022 г.
  112. ^ Бертуцци, Лука; Киллин, Молли (17 сентября 2021 г.). «Цифровой обзор на базе Google: сделай это или сломай, Закон о чипах, показывающий путь» . Еврактив . Проверено 25 февраля 2022 г.
  113. ^ Пропп, Кеннет (7 февраля 2022 г.). «Новая мантра Франции: свобода, равенство, цифровой суверенитет» . Атлантический совет . Проверено 25 февраля 2022 г.
  114. ^ «Искусственный интеллект: ЕС должен ускорить темп» . Европейская счетная палата . 29 мая 2024 г. Проверено 29 мая 2024 г.
  115. ^ Защита климата, БМВК-Федеральное Минэкономики и. « Создать «ИИ – Сделано в Германии»» . www.bmwk.de (на немецком языке) . Проверено 12 июня 2023 г.
  116. ^ «DIN, DKE и BMWi публикуют дорожную карту стандартизации искусственного интеллекта» . вся электроника (на немецком языке) . Проверено 12 июня 2023 г.
  117. ^ Jump up to: а б Рунзе, Герхард; Хаймерл, Мартин; Хауэр, Марк; Голояд, Тарас; Оберт, Отто; Поулс, Генрих; Тагиев, Рустам; Зин, Йенс (2023). «Инструмент для общей терминологии ИИ — Глоссарий ИИ как выход из Вавилона» . Java Spektrum (на немецком языке) (3): 42–46.
  118. ^ «Дорожная карта стандартизации искусственного интеллекта» . www.dke.de (на немецком языке) . Проверено 12 июня 2023 г.
  119. ^ «Международные руководящие принципы Хиросимского процесса для передовых систем искусственного интеллекта | Формирование цифрового будущего Европы» . digital-strategy.ec.europa.eu . 2023-10-30 . Проверено 1 ноября 2023 г.
  120. ^ Марцио Бартолони (11 октября 2023 г.). «Лекарства и искусственный интеллект: конфиденциальность и риск дискриминирующего алгоритма» .
  121. ^ Араса, Дейл (13 марта 2023 г.). «Филиппинский законопроект об искусственном интеллекте предлагает создание агентства по искусственному интеллекту» . Филиппинский ежедневный опросник . Проверено 29 мая 2024 г.
  122. ^ Абарка, Чари (29 мая 2024 г.). «Comelec хочет запретить использование ИИ в агитационных материалах перед выборами 2025 года» . Филиппинский ежедневный опросник . Проверено 29 мая 2024 г.
  123. ^ Министерство науки Испании (2018). «Испанская стратегия исследований и разработок в области искусственного интеллекта» (PDF) . www.knowledge4policy.ec.europa.eu . Проверено 9 декабря 2023 г.
  124. ^ Jump up to: а б «Объединение чат-ботов: Испания приближается к Закону об искусственном интеллекте» . ПОЛИТИКА . 22 июня 2023 г. Проверено 03 сентября 2023 г.
  125. ^ Министерство науки Испании (2018). «Испанская стратегия исследований и разработок в области искусственного интеллекта» (PDF) . www.knowledge4policy.ec.europa.eu . Проверено 9 декабря 2023 г.
  126. ^ Кастильо, Карлос дель (28 декабря 2021 г.). «Испания будет следить за искусственным интеллектом, как за наркотиками или едой » . elDiario.es (на испанском языке) . Проверено 03 сентября 2023 г.
  127. ^ «Испания начинает процесс выбора штаб-квартиры будущего Испанского агентства по надзору за искусственным интеллектом» . Испанский (на испанском языке). 13 сентября 2022 г. Проверено 03 сентября 2023 г.
  128. ^ Маркос, Хосе (12 сентября 2022 г.). «Правительство начинает с переноса штаб-квартиры Агентства искусственного интеллекта за пределы Мадрида» . Эль Паис (на испанском языке) . Проверено 03 сентября 2023 г.
  129. ^ «В Ла-Корунье ​​разместится Испанское агентство искусственного интеллекта» . Европа Пресс. 05.12.2022 . Проверено 03 сентября 2023 г.
  130. ^ «Правительство утверждает статут Испанского агентства по надзору за искусственным интеллектом» . Европа Пресс. 22 августа 2023 г. Проверено 03 сентября 2023 г.
  131. ^ Геррини, Федерико. «Европейские страны стремятся установить темп регулирования ИИ» . Форбс . Проверено 4 сентября 2023 г.
  132. ^ Jump up to: а б «Стратегия цифровой экономики на 2015–2018 годы» . www.ukri.org . 16 февраля 2015 года . Проверено 18 июля 2022 г.
  133. ^ «Этика данных и руководство по искусственному интеллекту» . GOV.UK. ​Проверено 26 октября 2023 г.
  134. ^ Лесли, Дэвид (11 июня 2019 г.). «Понимание этики и безопасности искусственного интеллекта: руководство по ответственному проектированию и внедрению систем искусственного интеллекта в государственном секторе» . Зенодо . arXiv : 1906.05684 . дои : 10.5281/zenodo.3240529 . S2CID   189762499 .
  135. ^ «Интеллектуальные средства безопасности» . www.ncsc.gov.uk. ​Проверено 28 апреля 2020 г.
  136. ^ Ричардсон, Тим. «Великобритания публикует Национальную стратегию искусственного интеллекта» . www.theregister.com .
  137. ^ Национальная стратегия Великобритании в области искусственного интеллекта , 2021 г. (действия 9 и 10 раздела «Направление 3 – Эффективное управление искусственным интеллектом»)
  138. ^ «Проинновационный подход к регулированию ИИ» . GOV.UK. ​Проверено 27 октября 2023 г.
  139. ^ Гикай, Асресс Адими (8 июня 2023 г.). «Как Великобритания обеспечивает правильное регулирование ИИ» . Разговор . Проверено 27 октября 2023 г.
  140. ^ Браун, Райан (12 июня 2023 г.). «Премьер-министр Великобритании Риши Сунак называет Великобританию страной, где регулируется безопасность искусственного интеллекта, поскольку Лондон претендует на роль следующей Кремниевой долины» . CNBC . Проверено 27 октября 2023 г.
  141. ^ «Саммит по безопасности искусственного интеллекта: введение (HTML)» . GOV.UK. ​Проверено 27 октября 2023 г.
  142. ^ «Представляем Институт безопасности ИИ» . GOV.UK. ​Проверено 8 июля 2024 г.
  143. ^ Хеншолл, Уилл (01 апреля 2024 г.). «США и Великобритания станут партнерами в разработке искусственного интеллекта для испытаний на безопасность» . ВРЕМЯ . Проверено 8 июля 2024 г.
  144. ^ Уивер, Джон Франк (28 декабря 2018 г.). «Регулирование искусственного интеллекта в США» . Научно-исследовательский справочник по закону искусственного интеллекта : 155–212. дои : 10.4337/9781786439055.00018 . ISBN  9781786439055 .
  145. ^ «Отчет администрации о будущем искусственного интеллекта» . Белый дом . 12.10.2016 . Проверено 1 ноября 2023 г.
  146. ^ Комитет по технологиям Национального совета по науке и технологиям (октябрь 2016 г.). «Подготовка к будущему искусственного интеллекта» . whitehouse.gov – через Национальный архив .
  147. ^ «Национальный стратегический план исследований и разработок искусственного интеллекта» (PDF) . Национальный совет по науке и технологиям . Октябрь 2016.
  148. ^ "О" . Комиссия национальной безопасности по искусственному интеллекту . Проверено 29 июня 2020 г.
  149. ^ Стефаник, Элиза М. (22 мая 2018 г.). «HR5356 – 115-й Конгресс (2017–2018 гг.): Закон об искусственном интеллекте Комиссии национальной безопасности 2018 г.» . www.congress.gov . Проверено 13 марта 2020 г.
  150. ^ Генрих, Мартин (21 мая 2019 г.). «Текст – S.1558 – 116-й Конгресс (2019–2020 гг.): Закон об инициативе в области искусственного интеллекта» . www.congress.gov . Проверено 29 марта 2020 г.
  151. ^ Шерер, Мэтью У. (2015). «Регулирование систем искусственного интеллекта: риски, проблемы, компетенции и стратегии». Серия рабочих документов SSRN . дои : 10.2139/ssrn.2609777 . ISSN   1556-5068 .
  152. ^ «Указ о сохранении американского лидерства в области искусственного интеллекта – Белый дом» . trumpwhitehouse.archives.gov . Проверено 1 ноября 2023 г.
  153. ^ Воут, Рассел Т. «МЕМОРАНДУМ ДЛЯ РУКОВОДИТЕЛЕЙ ИСПОЛНИТЕЛЬНЫХ УПРАВЛЕНИЙ И АГЕНТСТВ – Руководство по регулированию приложений искусственного интеллекта» (PDF) . Белый дом .
  154. ^ «Обновление искусственного интеллекта: Белый дом опубликовал 10 принципов регулирования искусственного интеллекта» . Внутри Тех Медиа . 14 января 2020 г. Проверено 25 марта 2020 г.
  155. ^ Лидерство США в области искусственного интеллекта: план участия федерального правительства в разработке технических стандартов и связанных с ними инструментов (PDF) . Национальный институт науки и технологий. 2019.
  156. ^ «Запрос комментариев по проекту Меморандума руководителям исполнительных ведомств и ведомств «Руководство по регулированию применения искусственного интеллекта» » . Федеральный реестр . 13 января 2020 г. Проверено 28 ноября 2020 г.
  157. ^ Национальный совет по науке и технологиям (21 июня 2019 г.). «Национальный стратегический план исследований и разработок искусственного интеллекта: обновление на 2019 год» (PDF) .
  158. ^ Гурсой, Фуркан; Какадиарис, Иоаннис А. (2023). «Стратегия исследований искусственного интеллекта США: критическая оценка и политические рекомендации» . Границы больших данных . 6 . дои : 10.3389/fdata.2023.1206139 . ISSN   2624-909X . ПМЦ   10440374 . ПМИД   37609602 .
  159. ^ Итоговый отчет NSCAI (PDF) . Вашингтон, округ Колумбия: Комиссия национальной безопасности по искусственному интеллекту. 2021.
  160. ^ Лента новостей Родины (25 июня 2022 г.). «Портман и Питерс вносят двухпартийный законопроект, призванный гарантировать готовность федерального правительства к катастрофическим рискам для национальной безопасности» . Лента новостей Родина. Архивировано из оригинала 25 июня 2022 года . Проверено 4 июля 2022 г.
  161. ^ «Текст – S.4488 – 117-й Конгресс (2021–2022 гг.): Законопроект о создании межведомственного комитета по глобальному катастрофическому риску и для других целей» . Конгресс.gov . Библиотека Конгресса. 23 июня 2022 г. Проверено 4 июля 2022 г.
  162. ^ «План Билля о правах ИИ | OSTP» . Белый дом . Проверено 1 ноября 2023 г.
  163. ^ «Белый дом только что представил новый Билль о правах ИИ» . Обзор технологий Массачусетского технологического института . Проверено 24 октября 2023 г.
  164. ^ «Местный закон о внесении поправок в административный кодекс города Нью-Йорка в отношении автоматизированных инструментов принятия решений о приеме на работу» . Городской совет Нью-Йорка . Проверено 1 ноября 2023 г.
  165. ^ Кестенбаум, Джонатан (5 июля 2023 г.). «Новый закон Нью-Йорка о предвзятости в области искусственного интеллекта серьезно влияет на прием на работу и требует проведения проверок» . Закон Блумберга . Проверено 24 октября 2023 г.
  166. ^ Дом, Белый (21 июля 2023 г.). «ФАКТИЧЕСКИЙ БЮЛЛЕТЕНЬ: Администрация Байдена-Харриса добивается от ведущих компаний, занимающихся искусственным интеллектом, добровольных обязательств по управлению рисками, создаваемыми ИИ» . Белый дом . Проверено 25 сентября 2023 г.
  167. ^ Дом, Белый (12 сентября 2023 г.). «ФАКТИЧЕСКИЙ БЮЛЛЕТЕНЬ: Администрация Байдена-Харриса получает добровольные обязательства от восьми дополнительных компаний, занимающихся искусственным интеллектом, для управления рисками, создаваемыми ИИ» . Белый дом . Проверено 25 сентября 2023 г.
  168. ^ Чаттерджи, Мохар (12 октября 2023 г.). «Приказ Белого дома искусственному интеллекту повысить покупательную способность федерального правительства» . ПОЛИТИКА . Проверено 27 октября 2023 г.
  169. ^ Дом, Белый (30 октября 2023 г.). «ФАКТИЧЕСКИЙ ЛИСТ: Президент Байден издает указ о безопасном, защищенном и заслуживающем доверия искусственном интеллекте» . Белый дом . Проверено 5 декабря 2023 г.
  170. ^ Льюис, Джеймс Эндрю; Бенсон, Эмили; Фрэнк, Майкл (31 октября 2023 г.). «Указ администрации Байдена об искусственном интеллекте» .
  171. ^ Дом, Белый (30 октября 2023 г.). «Указ о безопасной, надежной и надежной разработке и использовании искусственного интеллекта» . Белый дом . Проверено 5 декабря 2023 г.
  172. ^ Ланум, Николас (07.11.2023). «Указ президента Байдена об искусственном интеллекте имеет «опасные ограничения», — говорит генеральный директор компании по обнаружению дипфейков» . ФоксБизнес . Проверено 5 декабря 2023 г.
  173. ^ Майроу, Рэйчел (16 февраля 2024 г.). «Законодатели Калифорнии принимают меры по регулированию искусственного интеллекта с помощью множества законопроектов» . ККЭД .
  174. ^ Де Винк, Геррит (8 февраля 2024 г.). «На заднем дворе крупных технологических компаний депутат Калифорнии представляет знаковый законопроект об искусственном интеллекте» . Вашингтон Пост .
  175. ^ Кристин Робинсон (2024). «Теннесси принимает Закон ЭЛВИСа, защищающий голоса артистов от подделки ИИ» . Нью-Йорк Таймс . Проверено 26 марта 2024 г.
  176. ^ Эшли Кинг (2024). «Закон об ЭЛВИСе официально подписан и стал законом — это первое законодательство в области искусственного интеллекта на государственном уровне в США» . Новости цифровой музыки . Проверено 26 марта 2024 г.
  177. ^ Теннесси Хаус (2024 г.). «Сессия Палаты представителей – 44-й законодательный день» (видео) . Теннесси Хаус . Проверено 26 марта 2024 г.
  178. ^ Одри Гиббс (2024). «Губернатор штата Теннесси Ли подписывает Закон об Элвисе в Хонки-Тонке, защищающий музыкантов от злоупотреблений ИИ» . Теннессиец . Проверено 26 марта 2024 г.
  179. ^ Алекс Грин (2024). «Закон ЭЛВИСА» . Мемфис Флайер . Проверено 26 марта 2024 г.
  180. ^ Водецки, Бен (27 марта 2024 г.). «Юта принимает закон, регулирующий использование искусственного интеллекта» . ИИ-бизнес .
  181. ^ «SB0149» . le.utah.gov . Проверено 25 апреля 2024 г.
  182. ^ «История смертоносных автономных систем вооружения в КОО» . ООН, Женева.
  183. ^ «Руководящие принципы, подтвержденные Группой правительственных экспертов по новым технологиям в области летальных автономных систем вооружения» (PDF) . ООН, Женева. Архивировано из оригинала (PDF) 1 декабря 2020 г. Проверено 5 мая 2020 г.
  184. ^ Баум, Сет (30 сентября 2018 г.). «Противодействие дезинформации суперинтеллекта» . Информация . 9 (10): 244. дои : 10.3390/info9100244 . ISSN   2078-2489 .
  185. ^ «Взгляд страны на роботов-убийц» (PDF) . Кампания по прекращению роботов-убийц.
  186. ^ Сэйлер, Келли (2020). Искусственный интеллект и национальная безопасность: обновление от 10 ноября 2020 г. (PDF) . Вашингтон, округ Колумбия: Исследовательская служба Конгресса.
  187. ^ «Оборонный учебник: политика США в отношении летальных автономных систем вооружения» . Исследовательская служба Конгресса . 15 мая 2023 г.
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 3b58e7917cb9be7375521928668a0f25__1720387080
URL1:https://arc.ask3.ru/arc/aa/3b/25/3b58e7917cb9be7375521928668a0f25.html
Заголовок, (Title) документа по адресу, URL1:
Regulation of artificial intelligence - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)