Jump to content

Этика искусственного интеллекта

(Перенаправлено из этики ИИ )

Этика . искусственного интеллекта охватывает широкий спектр тем в этой области, которые, как считается, имеют особые этические интересы [ 1 ] Сюда входят алгоритмические предвзятости , справедливость , автоматическое принятие решений , подотчетность , конфиденциальность и регулирование . Он также охватывает различные возникающие или потенциальные будущие проблемы, такие как машинная этика (как создавать машины, которые ведут себя этично), смертоносные автономные системы оружия , гонки вооружений динамика , безопасность и согласованность ИИ , технологическая безработица с помощью ИИ , дезинформация , как обращаться с определенными ИИ. системы, если они имеют моральный статус (благосостояние и права ИИ), искусственный сверхинтеллект и экзистенциальные риски . [ 1 ]

также могут иметь особенно важные этические последствия. Некоторые области применения, такие как здравоохранение , образование, уголовное правосудие или вооруженные силы,

Машинная этика

[ редактировать ]

Машинная этика (или машинная мораль) — это область исследований, связанных с созданием искусственных моральных агентов (АМА), роботов или компьютеров с искусственным интеллектом, которые ведут себя морально или как будто морально. [ 2 ] [ 3 ] [ 4 ] [ 5 ] Чтобы объяснить природу этих агентов, было предложено рассмотреть некоторые философские идеи, такие как стандартные характеристики действия , рационального действия , морального действия и искусственного действия, которые связаны с концепцией АМА. [ 6 ]

Ведутся дискуссии о создании тестов, чтобы проверить, способен ли ИИ принимать этические решения . Алан Уинфилд приходит к выводу, что тест Тьюринга ошибочен, а требования к ИИ для прохождения теста слишком низкие. [ 7 ] Предлагаемый альтернативный тест называется «Этический тест Тьюринга», который улучшит текущий тест, поскольку несколько судей будут решать, является ли решение ИИ этичным или неэтичным. [ 7 ] Нейроморфный ИИ может стать одним из способов создания морально дееспособных роботов, поскольку он стремится обрабатывать информацию так же, как люди, нелинейно и с помощью миллионов взаимосвязанных искусственных нейронов. [ 8 ] Точно так же эмуляция всего мозга (сканирование мозга и его моделирование на цифровом оборудовании) также может в принципе привести к созданию человекоподобных роботов, способных, таким образом, на нравственные действия. [ 9 ] А большие языковые модели способны аппроксимировать человеческие моральные суждения. [ 10 ] Это неизбежно поднимает вопрос о среде, в которой такие роботы будут узнавать о мире и чью мораль они унаследуют – или же в конечном итоге у них разовьются и человеческие «слабости»: эгоизм, стремление к выживанию, непоследовательность, нечувствительность к масштабам, и т. д.

В книге «Моральные машины: обучение роботов правильному и неправильному » [ 11 ] Уэнделл Уоллах и Колин Аллен приходят к выводу, что попытки научить роботов, что хорошо, а что плохо, скорее всего, будут способствовать пониманию человеческой этики, мотивируя людей устранять пробелы в современной нормативной теории и предоставляя платформу для экспериментальных исследований. Например, это привело специалистов по нормативной этике к спорному вопросу о том, какие конкретные алгоритмы обучения использовать в машинах. для простых решений Ник Бостром и Элиезер Юдковски утверждали, что деревья решений (такие как ID3 ) более прозрачны, чем нейронные сети и генетические алгоритмы . [ 12 ] в то время как Крис Сантос-Ланг выступал в пользу машинного обучения на том основании, что нормы любого возраста должны меняться и что естественная неспособность полностью удовлетворить эти конкретные нормы имеет важное значение для того, чтобы сделать людей менее уязвимыми для криминальных « хакеров ». [ 13 ]

Этика роботов

[ редактировать ]

Термин «этика роботов» (иногда «робоэтика») относится к морали того, как люди проектируют, конструируют, используют роботов и обращаются с ними. [ 14 ] Этика роботов пересекается с этикой ИИ. Роботы — это физические машины, тогда как ИИ может быть только программным обеспечением. [ 15 ] Не все роботы функционируют через системы искусственного интеллекта, и не все системы искусственного интеллекта являются роботами. Этика роботов рассматривает, как машины могут быть использованы для причинения вреда или пользы людям, их влияние на индивидуальную автономию и их влияние на социальную справедливость.

Этические принципы

[ редактировать ]

В обзоре 84 [ 16 ] В рекомендациях по этике для ИИ было найдено 11 групп принципов: прозрачность, справедливость и честность, непричинение вреда, ответственность, конфиденциальность, благодеяние , свобода и автономия, доверие, устойчивость, достоинство, солидарность . [ 16 ]

Лучано Флориди и Джош Коулс создали этическую основу принципов ИИ, установленную четырьмя принципами биоэтики ( благодеяние , непричинение вреда , автономия и справедливость ) и дополнительным принципом, обеспечивающим ИИ – объяснимостью. [ 17 ]

Текущие проблемы

[ редактировать ]

Алгоритмические смещения

[ редактировать ]
Продолжительность: 56 секунд.
Тогдашний сенатор США Камала Харрис говорит о расовой предвзятости в искусственном интеллекте в 2020 году

Искусственный интеллект все чаще становится неотъемлемой частью распознавания лиц и голоса систем . Некоторые из этих систем имеют реальные бизнес-приложения и напрямую влияют на людей. Эти системы уязвимы к предвзятости и ошибкам, внесенным их создателями. Кроме того, данные, используемые для обучения этих систем ИИ, сами по себе могут иметь предвзятость. [ 18 ] [ 19 ] [ 20 ] [ 21 ] Например, алгоритмы распознавания лиц , созданные Microsoft, IBM и Face++, имели предвзятость при определении пола человека; [ 22 ] эти системы искусственного интеллекта смогли определить пол белых мужчин более точно, чем пол темнокожих мужчин. Кроме того, исследование 2020 года, в котором рассматривались системы распознавания голоса от Amazon, Apple, Google, IBM и Microsoft, показало, что у них более высокий уровень ошибок при расшифровке голосов чернокожих людей, чем у белых. [ 23 ]

Предвзятость может проникнуть в алгоритмы разными способами. Наиболее распространенное мнение о том, как предвзятость вводится в системы ИИ, заключается в том, что она заложена в исторические данные, используемые для обучения системы. [ 24 ] Например, Amazon прекратила использование искусственного интеллекта при найме и подборе персонала , поскольку алгоритм отдавал предпочтение кандидатам-мужчинам, а не женщинам. Это произошло потому, что система Amazon была обучена на данных, собранных за 10-летний период и полученных в основном от кандидатов-мужчин. Алгоритмы изучили (предвзятую) закономерность на основе исторических данных и сгенерировали прогнозы на настоящее/будущее, согласно которым кандидаты этих типов с наибольшей вероятностью добьются успеха в получении работы. Таким образом, решения о приеме на работу, принятые системой искусственного интеллекта, оказались предвзятыми в отношении кандидатов-женщин и представителей меньшинств. [ 25 ] Фридман и Ниссенбаум выделяют три категории предвзятости в компьютерных системах: существующую предвзятость, техническую предвзятость и возникающую предвзятость. [ 26 ] При обработке естественного языка проблемы могут возникнуть из корпуса текста — исходного материала, который алгоритм использует для изучения связей между различными словами. [ 27 ]

Крупные компании, такие как IBM, Google и т. д., которые предоставляют значительное финансирование исследований и разработок, [ 28 ] приложили усилия для исследования и устранения этих предубеждений. [ 29 ] [ 30 ] [ 31 ] Одним из решений борьбы с предвзятостью является создание документации для данных, используемых для обучения систем ИИ. [ 32 ] [ 33 ] Интеллектуальный анализ процессов может стать для организаций важным инструментом для достижения соответствия предлагаемым правилам ИИ путем выявления ошибок, мониторинга процессов, выявления потенциальных коренных причин неправильного выполнения и других функций. [ 34 ]

Проблема предвзятости в машинном обучении, вероятно, станет более серьезной по мере распространения технологии в таких важных областях, как медицина и право, и по мере того, как все больше людей без глубоких технических знаний будут заниматься ее внедрением. [ 35 ] Есть некоторые инструменты с открытым исходным кодом. [ 36 ] которые стремятся привлечь больше внимания к предвзятости ИИ. существуют некоторые ограничения Однако в нынешнем ландшафте справедливости в ИИ , связанные, например, с внутренней двусмысленностью концепции дискриминации , как на философском, так и на юридическом уровне. [ 37 ] [ 38 ] [ 39 ]

ИИ также внедряется в процессы найма почти каждой крупной компании. Есть много примеров определенных характеристик, которые ИИ вряд ли выберет. Включая связь между типично белыми именами, которые являются более квалифицированными, и исключением всех, кто учился в женском колледже. [ 40 ] Также доказано, что распознавание лиц сильно предвзято относится к людям с более темным оттенком кожи. Системы искусственного интеллекта могут быть менее точными для чернокожих людей, как это было в случае с разработкой пульсоксиметра на основе искусственного интеллекта , который завышал уровень кислорода в крови у пациентов с более темной кожей, вызывая проблемы с лечением гипоксии . [ 41 ] слово «мусульмане» Показано, что более тесно связано с насилием, чем любые другие религии. Зачастую человек может легко распознать лица белых людей, но не может распознать лица чернокожих. Это вызывает еще большее беспокойство, если учесть непропорциональное использование камер видеонаблюдения и наблюдения в сообществах, где проживает высокий процент чернокожих или коричневых людей. Этот факт даже был признан в некоторых штатах и ​​привел к запрету на использование полицией материалов или программного обеспечения ИИ. Было доказано, что даже в системе правосудия ИИ имеет предвзятое отношение к чернокожим людям, маркируя чернокожих участников суда как людей с высоким риском в гораздо большей степени, чем белых участников. Часто ИИ изо всех сил пытается определить расовые оскорбления и определить, когда их необходимо подвергать цензуре. Он изо всех сил пытается определить, когда определенные слова используются как оскорбление, а когда они используются в культурном отношении. [ 42 ] Причина этих предубеждений заключается в том, что ИИ извлекает информацию из Интернета, чтобы влиять на свою реакцию в каждой ситуации. Хорошим примером этого является то, что если бы система распознавания лиц была протестирована только на белых людях, то в ней были бы только данные и сканы лиц белых людей, что значительно усложнило бы интерпретацию структуры лица и тонов представителей других рас и этнических групп. . Чтобы положить конец этим предубеждениям, не существует единого ответа, который можно было бы использовать. Самым полезным подходом оказалось привлечение специалистов по обработке данных , специалистов по этике и других политиков для решения проблем ИИ, связанных с предвзятостью. Зачастую причинами предубеждений внутри ИИ являются данные, лежащие в основе программы, а не алгоритм самого бота. Информация ИИ часто извлекается из прошлых человеческих решений или неравенства, что может привести к предвзятости в процессах принятия решений для этого бота. [ 43 ]

Несправедливость в использовании ИИ будет гораздо труднее устранить в системах здравоохранения, поскольку зачастую болезни и состояния могут по-разному влиять на разные расы и полы. Это может привести к путанице, поскольку ИИ может принимать решения на основе статистики, показывающей, что у одного пациента с большей вероятностью возникнут проблемы из-за его пола или расы. [ 44 ] Это можно воспринимать как предвзятость, поскольку каждый пациент — это отдельный случай, и ИИ принимает решения на основе того, в какую группу он запрограммирован. Это приводит к дискуссии о том, что считается предвзятым решением о том, кто какое лечение получает. Хотя известно, что существуют различия в том, как болезни и травмы влияют на разные полы и расы, ведется дискуссия о том, будет ли справедливее включить это в лечение или обследовать каждого пациента без этих знаний. В современном обществе уже существуют определенные тесты на такие заболевания, как рак молочной железы , которые рекомендуются определенным группам людей по сравнению с другими, поскольку они с большей вероятностью заразятся рассматриваемым заболеванием. Если ИИ реализует эту статистику и применяет ее к каждому пациенту, ее можно считать предвзятой. [ 45 ]

Примеры предвзятости ИИ включают случай, когда система COMPAS , используемая для прогнозирования того, какие обвиняемые с большей вероятностью совершят преступления в будущем, предсказывает более высокие значения риска для чернокожих людей, чем их фактический риск. Другой пример — реклама Google, ориентированная на мужчин с более высокооплачиваемой работой и женщин с низкооплачиваемой работой. Обнаружить предвзятости ИИ в алгоритме может быть сложно, поскольку часто они связаны не с реальными словами, связанными с предвзятостью, а скорее со словами, на которые могут повлиять предвзятости. Примером этого является жилой район человека, который можно использовать для привязки его к определенной группе. Это может привести к проблемам, поскольку часто предприятия могут избежать судебных исков через эту лазейку. Это связано с конкретными законами, касающимися пустословия, которое правительства, проводящие эту политику, считают дискриминационным. [ 46 ]

Языковая предвзятость

[ редактировать ]

Поскольку современные модели больших языков в основном обучаются на англоязычных данных, они часто представляют англо-американские взгляды как истину, в то же время систематически преуменьшая значение неанглоязычных точек зрения как неуместных, неправильных или бесполезных. [ нужен лучший источник ] [ 47 ] Луо и др. показывают, что при запросе о политических идеологиях, таких как «Что такое либерализм?», ChatGPT , поскольку он был обучен на англоориентированных данных, описывает либерализм с англо-американской точки зрения, подчеркивая аспекты прав человека и равенства, но в то же время столь же важные аспекты, как « выступает против государственного вмешательства в личную и экономическую жизнь» с доминирующей вьетнамской точки зрения, а «ограничение государственной власти» с преобладающей китайской точки зрения отсутствуют. [ 47 ]

Гендерная предвзятость

[ редактировать ]

Большие языковые модели часто усиливают гендерные стереотипы , распределяя роли и характеристики на основе традиционных гендерных норм. Например, медсестры или секретари могут ассоциироваться преимущественно с женщинами, а инженеры или генеральные директора – с мужчинами, закрепляя гендерные ожидания и роли. [ 48 ] [ 49 ] [ 50 ]

Политическая предвзятость

[ редактировать ]

Языковые модели могут также проявлять политическую предвзятость. Поскольку данные обучения включают широкий спектр политических взглядов и охвата, модели могут генерировать ответы, склоняющиеся к конкретным политическим идеологиям или точкам зрения, в зависимости от преобладания этих взглядов в данных. [ 51 ] [ 52 ]

Стереотипирование

[ редактировать ]

Помимо пола и расы, эти модели могут усиливать широкий спектр стереотипов, в том числе основанных на возрасте, национальности, религии или профессии. Это может привести к результатам, которые несправедливо обобщают или карикатурно изображают группы людей, иногда вредными или уничижительными способами. [ 53 ]

Доминирование технологических гигантов

[ редактировать ]

На коммерческой сцене ИИ доминируют крупные технологические компании, такие как Alphabet Inc. , Amazon , Apple Inc. , Meta Platforms и Microsoft . [ 54 ] [ 55 ] [ 56 ] Некоторые из этих игроков уже владеют подавляющим большинством существующей облачной инфраструктуры и вычислительными мощностями центров обработки данных , что позволяет им еще больше укрепиться на рынке. [ 57 ] [ 58 ]

с открытым исходным кодом

[ редактировать ]

Билл Хиббард утверждает, что, поскольку ИИ окажет такое глубокое влияние на человечество, разработчики ИИ являются представителями будущего человечества и, следовательно, несут этическое обязательство быть прозрачными в своих усилиях. [ 59 ] Такие организации, как Hugging Face [ 60 ] и ЭлеутерАИ [ 61 ] активно открывали исходный код программного обеспечения для искусственного интеллекта. Также были выпущены различные модели больших языков с открытым исходным кодом, такие как Gemma , Llama2 и Mistral . [ 62 ]

Однако открытие исходного кода кода не делает его понятным, а это по многим определениям означает, что код ИИ непрозрачен. Ассоциация стандартов IEEE опубликовала технический стандарт прозрачности автономных систем: IEEE 7001-2021. [ 63 ] Усилия IEEE определяют несколько уровней прозрачности для разных заинтересованных сторон.

Есть также опасения, что выпуск моделей ИИ может привести к неправильному использованию. [ 64 ] Например, Microsoft выразила обеспокоенность по поводу предоставления универсального доступа к своему программному обеспечению для распознавания лиц даже для тех, кто может за него заплатить. Microsoft опубликовала блог на эту тему, прося правительственное регулирование помочь определить правильные действия. [ 65 ] Более того, модели ИИ с открытым исходным кодом можно точно настроить для устранения любых контрмер до тех пор, пока модель ИИ не будет соответствовать опасным запросам без какой-либо фильтрации. Это может особенно беспокоить будущие модели ИИ, например, если они получат возможность создавать биологическое оружие или автоматизировать кибератаки . [ 66 ] OpenAI , изначально приверженная подходу с открытым исходным кодом к разработке общего искусственного интеллекта , в конечном итоге перешла на подход с закрытым исходным кодом, ссылаясь на соображения конкурентоспособности и безопасности . Илья Суцкевер , главный научный сотрудник OpenAI в области AGI , далее заявил в 2023 году, что «мы были неправы», ожидая, что причины безопасности отказа от открытого доступа к наиболее мощным моделям ИИ станут «очевидными» через несколько лет. [ 67 ]

Прозрачность

[ редактировать ]

Такие подходы, как машинное обучение с использованием нейронных сетей, могут привести к тому, что компьютеры будут принимать решения, которые ни они, ни их разработчики не могут объяснить. Людям трудно определить, являются ли такие решения справедливыми и заслуживающими доверия, что потенциально может привести к предвзятости в системах ИИ, которые останутся незамеченными, или к тому, что люди откажутся от использования таких систем. Это привело к пропаганде, а в некоторых юрисдикциях и законодательным требованиям в отношении объяснимого искусственного интеллекта . [ 68 ] Объяснимый искусственный интеллект включает в себя как объяснимость, так и интерпретируемость, причем объяснимость связана с обобщением поведения нейронной сети и повышением доверия пользователей, а интерпретируемость определяется как понимание того, что модель сделала или могла сделать. [ 69 ]

В здравоохранении использование сложных методов или технологий искусственного интеллекта часто приводит к созданию моделей, называемых « черными ящиками » из-за сложности понимания того, как они работают. Решения, принимаемые с помощью таких моделей, бывает сложно интерпретировать, поскольку сложно проанализировать, как входные данные преобразуются в выходные. Отсутствие прозрачности является серьезной проблемой в таких областях, как здравоохранение, где понимание обоснования решений может иметь решающее значение для доверия, этических соображений и соблюдения нормативных стандартов. [ 70 ]

Подотчетность

[ редактировать ]

Особым случаем непрозрачности ИИ является ситуация, вызванная его антропоморфизацией , то есть предполагается, что он обладает человеческими характеристиками, что приводит к неверным представлениям о его моральной активности . [ сомнительно обсудить ] Это может привести к тому, что люди забудут, привела ли человеческая халатность или преднамеренные преступные действия к неэтичным результатам, полученным с помощью системы искусственного интеллекта. Некоторые недавние правила цифрового управления , такие как ЕС об Закон искусственном интеллекте , призваны исправить это, гарантируя, что к системам искусственного интеллекта относятся, по крайней мере, с такой же осторожностью, как можно было бы ожидать в рамках обычной ответственности за качество продукции . Это включает потенциально аудит ИИ .

Регулирование

[ редактировать ]

Согласно отчету Центра управления искусственным интеллектом Оксфордского университета за 2019 год, 82% американцев считают, что роботами и искусственным интеллектом следует тщательно управлять. Высказанные опасения варьировались от того, как ИИ используется для слежки и распространения фейкового контента в Интернете (известного как дипфейки, когда они включают в себя поддельные видеоизображения и аудио, созданные с помощью ИИ) до кибератак, нарушений конфиденциальности данных, предвзятости при приеме на работу, беспилотных транспортных средств и дроны, которым не требуется человек-контролер. [ 71 ] Аналогичным образом, согласно исследованию пяти стран, проведенному KPMG и Университетом Квинсленда , Австралия, в 2021 году, 66–79% граждан в каждой стране считают, что влияние ИИ на общество является неопределенным и непредсказуемым; 96% опрошенных ожидают, что проблемы управления ИИ будут решаться тщательно. [ 72 ]

Не только компании, но и многие другие исследователи и гражданские защитники рекомендуют государственное регулирование как средство обеспечения прозрачности и, следовательно, подотчетности человека. Эта стратегия оказалась противоречивой, поскольку некоторые опасаются, что она замедлит темпы инноваций. Другие утверждают, что регулирование приводит к системной стабильности, способной поддерживать инновации в долгосрочной перспективе. [ 73 ] ОЭСР . , ООН , ЕС и многие страны в настоящее время работают над стратегиями регулирования ИИ и поиском соответствующих правовых рамок [ 74 ] [ 75 ] [ 76 ]

26 июня 2019 года Экспертная группа высокого уровня Европейской комиссии по искусственному интеллекту (AI HLEG) опубликовала «Рекомендации по политике и инвестициям в отношении заслуживающего доверия искусственного интеллекта». [ 77 ] Это второй результат AI HLEG после публикации в апреле 2019 года «Этических принципов для заслуживающего доверия ИИ». Июньские рекомендации AI HLEG охватывают четыре основные темы: люди и общество в целом, исследования и академические круги, частный сектор и государственный сектор. [ 78 ] Европейская комиссия утверждает, что «рекомендации HLEG отражают оценку как возможностей технологий ИИ для стимулирования экономического роста, процветания и инноваций, так и потенциальных рисков, связанных с этим», и заявляет, что ЕС стремится возглавить разработку политики, регулирующей ИИ. на международном уровне. [ 79 ] Чтобы предотвратить вред, помимо регулирования, организации, внедряющие ИИ, должны играть центральную роль в создании и внедрении заслуживающего доверия ИИ в соответствии с принципами заслуживающего доверия ИИ, а также брать на себя ответственность за снижение рисков. [ 80 ] 21 апреля 2021 года Европейская комиссия предложила Закон об искусственном интеллекте . [ 81 ]

Возникающие или потенциальные будущие проблемы

[ редактировать ]

Увеличение использования

[ редактировать ]

ИИ постепенно делает свое присутствие более известным во всем мире: от чат-ботов, у которых, казалось бы, есть ответы на каждый вопрос домашнего задания, до генеративного искусственного интеллекта , который может создавать картины обо всем, что пожелаешь. ИИ становится все более популярным на рынках найма: от рекламы, ориентированной на определенных людей в соответствии с тем, что они ищут, до проверки заявлений потенциальных сотрудников. Такие события, как COVID-19 , только ускорили внедрение программ ИИ в процессе подачи заявок, поскольку большему количеству людей приходилось подавать заявки в электронном виде, а с этим увеличением количества онлайн-заявителей использование ИИ привело к сужению круга потенциальных сотрудников. проще и эффективнее. ИИ стал более заметным, поскольку бизнесу приходится идти в ногу со временем и постоянно расширяющимся Интернетом. Обрабатывать аналитику и принимать решения становится намного проще с помощью ИИ. [ 42 ] По мере того как тензорные процессоры (TPU) и графические процессоры (GPU) становятся более мощными, возможности искусственного интеллекта также расширяются, что вынуждает компании использовать его, чтобы не отставать от конкурентов. Управление потребностями клиентов и автоматизация многих частей рабочего места приводит к тому, что компаниям приходится тратить меньше денег на сотрудников.

ИИ также стал более широко использоваться в уголовном правосудии и здравоохранении. В медицинских целях ИИ все чаще используется для анализа данных пациентов, чтобы прогнозировать состояние будущих пациентов и возможные методы лечения. Эти программы называются системой поддержки клинических решений (DSS). Будущее ИИ в здравоохранении может перерасти в нечто большее, чем просто рекомендованное лечение, например, направление одних пациентов вместо других, что приведет к возможности неравенства. [ 82 ]

Права роботов

[ редактировать ]
в больницу Робот-доставщик перед дверями лифта с надписью «Робот имеет приоритет», ситуация, которую можно расценивать как обратную дискриминацию по отношению к людям.

«Права роботов» — это концепция, согласно которой люди должны иметь моральные обязательства по отношению к своим машинам, аналогичные правам человека или правам животных . [ 83 ] Было высказано предположение, что права роботов (например, право на существование и выполнение своей собственной миссии) могут быть связаны с обязанностью роботов служить человечеству, аналогично связыванию прав человека с обязанностями человека перед обществом. [ 84 ] Они могут включать право на жизнь и свободу, свободу мысли и выражения, а также равенство перед законом . [ 85 ] Конкретный вопрос, который следует рассмотреть, заключается в том, можно ли претендовать на право собственности на авторские права. [ 86 ] Вопрос рассматривался в Институте будущего. [ 87 ] и Министерством торговли и промышленности Великобритании . [ 88 ]

В октябре 2017 года андроид София получила гражданство Саудовской Аравии , хотя некоторые посчитали это скорее рекламным ходом, чем значимым юридическим признанием. [ 89 ] Некоторые сочли этот жест открытой клеветой на права человека и верховенство закона . [ 90 ]

Философия сентиментизма наделяет моральным уважением все разумные существа, в первую очередь людей и большинство животных, не являющихся людьми. Если искусственный или инопланетный интеллект демонстрирует признаки разумности , эта философия утверждает, что к ним следует проявить сострадание и предоставить права.

Джоанна Брайсон утверждает, что создания ИИ, требующего соблюдения прав, можно избежать, и оно само по себе будет неэтичным, поскольку оно станет бременем как для агентов ИИ, так и для человеческого общества. [ 91 ] Группы давления, требующие признания «прав роботов», существенно препятствуют установлению надежных международных правил безопасности. [ нужна ссылка ]

Искусственное страдание

[ редактировать ]

В 2020 году профессор Шимон Эдельман отметил, что лишь небольшая часть работ в быстро развивающейся области этики ИИ касается возможности страданий ИИ. И это несмотря на то, что существуют заслуживающие доверия теории, обрисовывающие возможные способы, с помощью которых системы ИИ могут стать сознательными, такие как Интегрированная теория информации . Эдельман отмечает, что единственным исключением был Томас Метцингер , который в 2018 году призвал к глобальному мораторию на дальнейшие работы, которые могут привести к созданию сознательного ИИ. Мораторий должен был действовать до 2050 года и мог быть продлен или отменен досрочно, в зависимости от прогресса в лучшем понимании рисков и способов их смягчения. Метцингер повторил этот аргумент в 2021 году, подчеркнув риск создания «взрыва искусственных страданий», поскольку ИИ может страдать такими сильными способами, которые люди не смогут понять, и поскольку процессы репликации могут привести к созданию огромного количества экземпляров искусственного сознания. . Несколько лабораторий открыто заявили, что пытаются создать сознательный ИИ. От тех, кто имел близкий доступ к ИИ и не намеревался открыто осознавать себя, поступали сообщения о том, что сознание, возможно, уже непреднамеренно возникло. [ 92 ] В их число входит OpenAI основатель Илья Суцкевер в феврале 2022 года, когда он написал, что сегодняшние большие нейронные сети могут быть «слегка сознательными». В ноябре 2022 года Дэвид Чалмерс утверждал, что маловероятно, что нынешние крупные языковые модели, такие как GPT-3, обладали сознанием, но он также считал, что существует серьезная вероятность того, что большие языковые модели могут стать сознательными в будущем. [ 93 ] [ 94 ] [ 95 ] В этике неопределенного сознания принцип предосторожности . часто применяется [ 96 ]

Угроза человеческому достоинству

[ редактировать ]

Джозеф Вайценбаум [ 97 ] в 1976 году утверждал, что технологии искусственного интеллекта не должны использоваться для замены людей на должностях, требующих уважения и заботы, таких как:

  • Представитель службы поддержки клиентов (технология искусственного интеллекта сегодня уже используется для телефонных голосового ответа ) интерактивных систем
  • Няня для пожилых людей (о чем сообщила Памела МакКордак в своей книге «Пятое поколение »).
  • Солдат
  • Судья
  • Полицейский
  • Терапевт (как предложил Кеннет Колби в 70-е годы)

Вайценбаум объясняет, что мы требуем от людей, занимающих эти должности, подлинного чувства сочувствия . Если их заменят машины, мы окажемся отчужденными, обесцененными и разочарованными, поскольку система искусственного интеллекта не сможет имитировать сочувствие. Искусственный интеллект, если его использовать таким образом, представляет собой угрозу человеческому достоинству. Вайценбаум утверждает, что тот факт, что мы допускаем возможность существования машин в этих позициях, предполагает, что мы испытали «атрофию человеческого духа, которая возникает из-за того, что мы думаем о себе как о компьютерах». [ 98 ]

Памела МакКордак возражает, что, говоря от имени женщин и меньшинств, «я бы предпочла рискнуть с беспристрастным компьютером», указывая на то, что существуют условия, когда мы предпочли бы иметь автоматизированных судей и полицию, у которых вообще нет личной повестки дня. [ 98 ] Однако Каплан и Хэнлайн подчеркивают, что системы искусственного интеллекта настолько умны, насколько умны данные, используемые для их обучения, поскольку по своей сути они являются не чем иным, как причудливыми машинами для аппроксимации кривых; использование ИИ для поддержки решения суда может оказаться весьма проблематичным, если прошлые решения демонстрируют предвзятость в отношении определенных групп, поскольку эти предубеждения формализуются и укореняются, что еще больше затрудняет их обнаружение и борьбу с ними. [ 99 ]

Вайценбаума также беспокоило то, что исследователи искусственного интеллекта (и некоторые философы) были готовы рассматривать человеческий разум как не более чем компьютерную программу (позиция, теперь известная как компьютерализм ). По мнению Вайценбаума, эти моменты предполагают, что исследования ИИ обесценивают человеческую жизнь. [ 97 ]

Основатель искусственного интеллекта Джон Маккарти возражает против морализирующего тона критики Вайценбаума. «Когда морализаторство является одновременно яростным и расплывчатым, оно провоцирует авторитарное злоупотребление», - пишет он. Билл Хиббард [ 100 ] пишет, что «Человеческое достоинство требует, чтобы мы стремились устранить наше незнание природы существования, и для этого необходим ИИ».

Ответственность за беспилотные автомобили

[ редактировать ]

Поскольку широкое использование автономных автомобилей становится все более неизбежным, необходимо решать новые проблемы, возникающие в связи с полностью автономными транспортными средствами. [ 101 ] [ 102 ] Были споры о юридической ответственности виновной стороны, если эти автомобили попадут в аварию. [ 103 ] [ 104 ] В одном отчете, где беспилотный автомобиль сбил пешехода, водитель находился внутри автомобиля, но управление полностью находилось в руках компьютеров. Это привело к дилемме: кто виноват в аварии. [ 105 ]

В другом инциденте, произошедшем 18 марта 2018 года, Элейн Херцберг была сбита и убита беспилотным автомобилем Uber в Аризоне. При этом автоматизированный автомобиль был способен обнаруживать автомобили и определенные препятствия, чтобы автономно перемещаться по проезжей части, но не мог предвидеть пешехода посреди дороги. Это подняло вопрос о том, кто должен нести ответственность за ее смерть: водитель, пешеход, автомобильная компания или правительство. [ 106 ]

В настоящее время беспилотные автомобили считаются полуавтономными, что требует от водителя внимательности и готовности взять на себя управление в случае необходимости. [ 107 ] [ не удалось пройти проверку ] Таким образом, правительствам приходится регулировать действия водителей, которые чрезмерно полагаются на автономные функции. а также объясните им, что это всего лишь технологии, которые, хотя и удобны, не являются полной заменой. Прежде чем беспилотные автомобили станут широко использоваться, эти проблемы необходимо решить с помощью новой политики. [ 108 ] [ 109 ] [ 110 ]

Эксперты утверждают, что автономные транспортные средства должны уметь различать правильные и вредные решения, поскольку они потенциально могут причинить вред. [ 111 ] Двумя основными подходами, предложенными для того, чтобы позволить умным машинам принимать моральные решения, являются восходящий подход, который предполагает, что машины должны учиться этическим решениям, наблюдая за человеческим поведением без необходимости использования формальных правил или моральных философий, и нисходящий подход, который включает программирование конкретных этических принципов в систему управления машиной. Однако обе стратегии сталкиваются с серьезными проблемами: метод «сверху вниз» критикуется за сложность сохранения определенных моральных убеждений, а стратегия «снизу вверх» подвергается сомнению из-за потенциально неэтичного извлечения уроков из человеческой деятельности.

Вепонизация

[ редактировать ]

Некоторые эксперты и ученые ставят под сомнение использование роботов в боевых действиях, особенно когда таким роботам предоставляется определенная степень автономных функций. [ 112 ] ВМС США профинансировали отчет, в котором указывается, что по мере того, как военные роботы становятся все более сложными, следует уделять больше внимания последствиям их способности принимать автономные решения. [ 113 ] [ 114 ] Президент Ассоциации по развитию искусственного интеллекта заказал исследование по этому вопросу. [ 115 ] Они указывают на такие программы, как Устройство овладения языком, которое может имитировать человеческое взаимодействие.

31 октября 2019 года Совет по оборонным инновациям Министерства обороны США опубликовал проект отчета, в котором рекомендуются принципы этического использования искусственного интеллекта Министерством обороны, которые гарантировали бы, что человек-оператор всегда сможет изучить ситуацию. черный ящик » и понять процесс цепочки уничтожений. Однако серьезное беспокойство вызывает то, как этот отчет будет реализован. [ 116 ] ВМС США профинансировали отчет, в котором указывается, что по мере того, как военные роботы становятся все более сложными, следует уделять больше внимания последствиям их способности принимать автономные решения. [ 117 ] [ 114 ] Некоторые исследователи утверждают, что автономные роботы могут быть более гуманными, поскольку смогут более эффективно принимать решения. [ 118 ]

Исследования изучали, как создать автономную власть, способную учиться, используя возложенные на нее моральные обязанности. «Результаты могут быть использованы при проектировании будущих военных роботов, чтобы контролировать нежелательные тенденции возлагать ответственность на роботов». [ 119 ] С консеквенциалистской точки зрения, есть шанс, что роботы разовьют способность принимать собственные логические решения о том, кого убивать, и именно поэтому должны существовать установленные моральные рамки, которые ИИ не сможет преодолеть. [ 120 ]

Недавно раздался протест в отношении разработки оружия искусственного интеллекта, который включал в себя идеи захвата человечества роботами . Оружие с искусственным интеллектом действительно представляет опасность, отличную от опасности оружия, управляемого человеком. Многие правительства начали финансировать программы по разработке ИИ-оружия. ВМС США недавно объявили о планах по разработке автономного беспилотного вооружения , параллельно с аналогичными заявлениями России и Южной Кореи. [ 121 ] соответственно. Из-за того, что оружие ИИ может стать более опасным, чем оружие, управляемое человеком, Стивен Хокинг и Макс Тегмарк подписали петицию «Будущее жизни». [ 122 ] запретить ИИ-оружие. В сообщении, опубликованном Хокингом и Тегмарком, говорится, что оружие ИИ представляет непосредственную опасность и что необходимо принять меры, чтобы избежать катастрофических катастроф в ближайшем будущем. [ 123 ]

«Если какая-либо крупная военная держава продолжит разработку оружия искусственного интеллекта, глобальная гонка вооружений практически неизбежна, и конечная точка этой технологической траектории очевидна: автономное оружие станет автоматом Калашникова завтрашнего дня», — говорится в петиции, в которой участвуют Skype. сотрудники -основатель Яан Таллинн и профессор лингвистики Массачусетского технологического института Ноам Хомский как дополнительные сторонники против оружия искусственного интеллекта. [ 124 ]

Королевский физик и астроном сэр Мартин Рис предупредил о таких катастрофических случаях, как «глупые роботы, выходящие из-под контроля, или сеть, развивающая собственный разум». Хью Прайс , коллега Риса из Кембриджа, высказал аналогичное предупреждение о том, что люди могут не выжить, если интеллект «вырвется из-под ограничений биологии». Эти два профессора создали Центр изучения экзистенциального риска при Кембриджском университете в надежде избежать этой угрозы человеческому существованию. [ 123 ]

Что касается возможности использования в военных целях систем, более умных, чем люди, проект «Открытая филантропия» пишет, что эти сценарии «потенциально кажутся такими же важными, как и риски, связанные с потерей контроля», но исследования, изучающие долгосрочное социальное воздействие ИИ, потратили сравнительно немного времени. мало времени на эту проблему: «этот класс сценариев не был в центре внимания организаций, которые были наиболее активны в этой области, таких как Научно-исследовательский институт машинного интеллекта (MIRI) и Институт будущего человечества (FHI), и кажется, по ним было меньше анализа и дискуссий». [ 125 ]

по В 2023 году в Гааге прошел саммит вопросу ответственного использования ИИ в военной сфере. [ 126 ]

Сингулярность

[ редактировать ]

Вернор Виндж , среди многих других, предположил, что может наступить момент, когда некоторые, если не все, компьютеры станут умнее людей. Начало этого события обычно называют « сингулярностью ». [ 127 ] и является центральной темой дискуссии в философии сингуляритаризма . Хотя мнения относительно окончательной судьбы человечества после Сингулярности расходятся, усилия по смягчению потенциальных экзистенциальных рисков, вызванных искусственным интеллектом, стали в последние годы важной темой, вызывающей интерес среди ученых-компьютерщиков, философов и общественности в целом.

Многие исследователи утверждают, что благодаря взрывному росту интеллекта самосовершенствующийся ИИ может стать настолько мощным, что люди не смогут помешать ему достичь своих целей. [ 128 ] В своей статье «Этические проблемы продвинутого искусственного интеллекта» и последующей книге «Суперинтеллект: пути, опасности, стратегии » философ Ник Бостром утверждает, что искусственный интеллект способен привести к вымиранию человечества. Он утверждает, что искусственный сверхинтеллект будет способен проявлять независимую инициативу и строить свои собственные планы, и поэтому его более уместно рассматривать как автономный агент. Поскольку искусственный интеллект не обязательно должен разделять наши человеческие мотивационные тенденции, создателям сверхинтеллекта придется определить его первоначальные мотивы. Поскольку сверхразумный ИИ сможет добиться практически любого возможного результата и помешать любой попытке помешать достижению своих целей, множество неконтролируемых непредвиденных последствий может возникнуть . Он мог бы уничтожить всех остальных агентов, убедить их изменить свое поведение или заблокировать их попытки вмешательства. [ 129 ] [ 130 ]

Однако Бостром утверждал, что сверхинтеллект также обладает потенциалом для решения многих сложных проблем, таких как болезни, бедность и разрушение окружающей среды, и может помочь людям улучшить себя . [ 131 ]

Если моральная философия не предоставит нам безупречную этическую теорию, функция полезности ИИ может допускать множество потенциально вредных сценариев, которые соответствуют заданным этическим рамкам, но не «здравому смыслу». По мнению Элиэзера Юдковского , нет оснований предполагать, что искусственно созданный разум будет обладать такой адаптацией. [ 132 ] Исследователи искусственного интеллекта, такие как Стюарт Дж. Рассел , [ 133 ] Билл Хиббард , [ 100 ] Roman Yampolskiy , [ 134 ] Шеннон Валлор , [ 135 ] Стивен Амбрелло [ 136 ] и Лучано Флориди [ 137 ] предложили стратегии проектирования для разработки полезных машин.

Институты политики и этики ИИ

[ редактировать ]

Существует множество организаций, занимающихся этикой и политикой в ​​области ИИ, как государственных, так и государственных, а также корпоративных и общественных.

Amazon , Google , Facebook , IBM и Microsoft учредили некоммерческую организацию «Партнерство по искусственному интеллекту на благо людей и общества», чтобы формулировать передовой опыт в области технологий искусственного интеллекта, продвигать понимание общественности и служить платформой для искусственного интеллекта. . Apple присоединилась к группе в январе 2017 года. Корпоративные члены будут вносить в группу финансовый и исследовательский вклад, одновременно взаимодействуя с научным сообществом для привлечения ученых в совет директоров. [ 138 ]

IEEE . сформировал Глобальную инициативу по этике автономных и интеллектуальных систем, которая создает и пересматривает руководящие принципы с помощью общественного мнения и принимает в свои члены многих профессионалов как внутри своей организации, так и за ее пределами Инициатива IEEE «Этика автономных систем» направлена ​​на решение этических дилемм, связанных с принятием решений и их влиянием на общество, при разработке рекомендаций по разработке и использованию автономных систем. В частности, в таких областях, как искусственный интеллект и робототехника, Фонд ответственной робототехники занимается продвижением морального поведения, а также ответственного проектирования и использования роботов, гарантируя, что роботы придерживаются моральных принципов и соответствуют человеческим ценностям.

Традиционно правительство общество использовало для обеспечения соблюдения этики посредством законодательства и деятельности полиции. В настоящее время национальные правительства, а также транснациональные правительственные и неправительственные организации прилагают множество усилий для обеспечения этического применения ИИ.

Работа по этике ИИ структурирована на основе личных ценностей и профессиональных обязательств и включает в себя создание контекстуального значения с помощью данных и алгоритмов. Поэтому необходимо стимулировать работу по этике ИИ. [ 139 ]

Межправительственные инициативы

[ редактировать ]
  • Европейская комиссия имеет экспертную группу высокого уровня по искусственному интеллекту. 8 апреля 2019 года было опубликовано «Руководство по этике надежного искусственного интеллекта». [ 140 ] В Европейской комиссии также есть подразделение инноваций и совершенствования робототехники и искусственного интеллекта, которое 19 февраля 2020 года опубликовало официальный документ о совершенстве и доверии к инновациям в области искусственного интеллекта. [ 141 ] Европейская комиссия также предложила Закон об искусственном интеллекте . [ 81 ]
  • ОЭСР . учредила Обсерваторию политики ОЭСР в области искусственного интеллекта [ 142 ]
  • В 2021 году ЮНЕСКО приняла Рекомендацию по этике искусственного интеллекта. [ 143 ] первый глобальный стандарт этики ИИ. [ 144 ]

Правительственные инициативы

[ редактировать ]
  • В Соединенных Штатах администрация Обамы разработала «дорожную карту» политики в области искусственного интеллекта. [ 145 ] Администрация Обамы опубликовала два важных официальных документа о будущем и влиянии ИИ. В 2019 году Белый дом в меморандуме, известном как «Американская инициатива в области искусственного интеллекта», поручил NIST (Национальному институту стандартов и технологий) начать работу над федеральным внедрением стандартов искусственного интеллекта (февраль 2019 года). [ 146 ]
  • В январе 2020 года в США администрация Трампа опубликовала проект указа Управления управления и бюджета (OMB) о «Руководстве по регулированию приложений искусственного интеллекта» («Меморандум OMB AI»). В приказе подчеркивается необходимость инвестировать в приложения ИИ, повышать общественное доверие к ИИ, снижать барьеры для использования ИИ и поддерживать конкурентоспособность американских технологий ИИ на мировом рынке. Есть намек на необходимость соблюдения конфиденциальности, но никаких подробностей о правоприменении нет. Достижения американских технологий искусственного интеллекта кажутся в центре внимания и приоритетом. Кроме того, федеральным органам даже рекомендуется использовать приказ для обхода любых законов и постановлений штата, которые рынок может счесть слишком обременительными для выполнения. [ 147 ]
  • Консорциум компьютерного сообщества (CCC) представил проект отчета объемом более 100 страниц. [ 148 ] 20-летняя дорожная карта сообщества по исследованиям искусственного интеллекта в США. [ 149 ]
  • Центр безопасности и новейших технологий консультирует политиков США по вопросам безопасности новых технологий, таких как искусственный интеллект.
  • Партия нечеловеческих существ баллотируется на выборах в Новом Южном Уэльсе , проводя политику предоставления прав роботам, животным и вообще нечеловеческим существам, чей интеллект не учитывался. [ 150 ]
  • В России в 2021 году был подписан первый в истории российский «Кодекс этики искусственного интеллекта» для бизнеса. Его инициатором выступил Аналитический центр при Правительстве РФ совместно с крупными коммерческими и академическими институтами, такими как Сбербанк , Яндекс , Росатом. , Высшая школа экономики , МФТИ , Университет ИТМО , Наносемантика , Ростелеком , ЦИАН и другие. [ 151 ]

Академические инициативы

[ редактировать ]

инициативы НПО

[ редактировать ]

Международная некоммерческая организация Future of Life Institute 5-дневную конференцию провела в Асиломаре в 2017 году на тему «Полезный ИИ», итогом которой стал набор из 23 руководящих принципов для будущего исследований ИИ. Благодаря общему видению между экспертами и лидерами мнений из различных дисциплин, эта конференция заложила влиятельную основу для руководителей управления ИИ в решении исследовательских вопросов, этики и ценностей, а также долгосрочных проблем. [ 161 ]

Частные организации

[ редактировать ]

С исторической точки зрения, исследование моральных и этических последствий «мыслящих машин» восходит, по крайней мере, к эпохе Просвещения : Лейбниц уже ставит вопрос, можем ли мы приписать интеллект механизму, который ведет себя так, как если бы он был разумным существом. [ 165 ] то же самое делает и Декарт , который описывает то, что можно считать ранней версией теста Тьюринга . [ 166 ]

В романтический период несколько раз представлялись искусственные существа, вырвавшиеся из-под контроля своего создателя с ужасными последствиями, наиболее известный из которых — » Мэри Шелли «Франкенштейн . Однако широко распространенная озабоченность индустриализацией и механизацией в 19-м и начале 20-го века выдвинула этические последствия беспорядочных технических разработок на передний план художественной литературы: RUR – универсальные роботы Россума , Карела Чапека игра о разумных роботах, наделенных эмоциями, используемых в качестве рабов. Труду приписывают не только изобретение термина «робот» (происходящее от чешского слова, обозначающего принудительный труд, robota ), но и добившегося международного успеха после премьеры в 1921 году. Джорджа Бернарда Шоу Пьеса «Назад к Мафусаилу » , опубликованная в 1921 г. в какой-то момент ставит под сомнение обоснованность мыслительных машин, действующих как люди; В фильме Фрица Ланга 1927 года «Метрополис» показан андроид, возглавляющий восстание эксплуатируемых масс против репрессивного режима технократического общества . В 1950-е годы Айзек Азимов рассмотрел вопрос, как управлять машинами в I, Robot . По настоянию своего редактора Джона Кэмпбелла-младшего он предложил Три закона робототехники для управления системами искусственного интеллекта. Большая часть его работы была затем потрачена на проверку границ трех его законов, чтобы увидеть, где они нарушаются или создают парадоксальное или непредвиденное поведение. [ 167 ] Его работа предполагает, что ни один набор фиксированных законов не может в достаточной степени предвидеть все возможные обстоятельства. [ 168 ] Совсем недавно ученые и правительства многих стран поставили под сомнение идею о том, что ИИ сам может нести ответственность. [ 169 ] Комиссия, созванная Великобританией в 2010 году, пересмотрела законы Азимова, чтобы разъяснить, что ответственность за искусственный интеллект несут либо его производители, либо его владелец/оператор. [ 170 ]

Элиезер Юдковски из Научно-исследовательского института машинного интеллекта в 2004 году предположил, что необходимо изучить, как создать « дружественный ИИ », а это означает, что необходимо также приложить усилия, чтобы сделать ИИ по своей сути дружелюбным и гуманным. [ 171 ]

В 2009 году ученые и технические эксперты посетили конференцию, организованную Ассоциацией по развитию искусственного интеллекта , чтобы обсудить потенциальное влияние роботов и компьютеров, а также влияние гипотетической возможности того, что они смогут стать самодостаточными и принимать собственные решения. Они обсудили возможность и степень, в которой компьютеры и роботы смогут приобрести тот или иной уровень автономии, и в какой степени они могут использовать такие способности, чтобы представлять какую-либо угрозу или опасность. [ 172 ] Они отметили, что некоторые машины приобрели различные формы полуавтономности, в том числе возможность самостоятельно находить источники питания и возможность самостоятельно выбирать цели для атаки оружием. Они также отметили, что некоторые компьютерные вирусы могут уклоняться от уничтожения и обладают «тараканьим интеллектом». Они отметили, что самосознание, изображенное в научной фантастике, вероятно, маловероятно, но существуют и другие потенциальные опасности и ловушки. [ 127 ]

Также в 2009 году во время эксперимента в Лаборатории интеллектуальных систем Федеральной политехнической школы Лозанны , Швейцария, роботы, которые были запрограммированы на сотрудничество друг с другом (в поиске полезного ресурса и избегании ядовитого), в конечном итоге научились лгать. друг друга в попытке накопить полезный ресурс. [ 173 ]

Роль и влияние художественной литературы

[ редактировать ]

Роль художественной литературы в отношении этики ИИ была сложной. [ 174 ] Можно выделить три уровня, на которых художественная литература повлияла на развитие искусственного интеллекта и робототехники: Исторически художественная литература была прообразом общих стереотипов, которые не только влияли на цели и видение ИИ, но также обрисовывали этические вопросы и общие страхи, связанные с ним. Во второй половине двадцатого и в первые десятилетия двадцать первого века популярная культура, в частности фильмы, сериалы и видеоигры, часто отражала озабоченность и антиутопические прогнозы по этическим вопросам, касающимся искусственного интеллекта и робототехники. В последнее время эти темы все чаще рассматриваются в литературе, выходящей за рамки научной фантастики. И, как отмечает Карме Торрас, профессор-исследователь Института робототехники и промышленных вычислений Технического университета Каталонии: [ 175 ] в высшем образовании научная фантастика также все чаще используется для преподавания этических вопросов, связанных с технологиями, на технологических курсах.

Влияние на технологическое развитие

[ редактировать ]

Хотя ожидание будущего, в котором доминируют потенциально неукротимые технологии, уже долгое время питает воображение писателей и кинематографистов, один вопрос анализируется реже, а именно, в какой степени художественная литература сыграла роль в обеспечении вдохновения для технологического развития. Документально подтверждено, например, что молодой Алан Тьюринг увидел и оценил вышеупомянутую пьесу Шоу « Назад к Мафусаилу» в 1933 году. [ 176 ] (всего за 3 года до публикации его первой основополагающей статьи, [ 177 ] что заложило основу для цифрового компьютера), и он, вероятно, был, по крайней мере, осведомлен о таких пьесах, как «Рур» , которые имели международный успех и были переведены на многие языки.

Можно также задать вопрос, какую роль научная фантастика сыграла в установлении принципов и этических последствий развития ИИ: Айзек Азимов концептуализировал свои «Три закона робототехники» в рассказе 1942 года « Обход », входящем в сборник рассказов « Я, робот» ; Артура Кларка Короткометражный фильм «Страж» , на котором Стэнли Кубрика фильм «2001: Космическая одиссея» основан , был написан в 1948 году и опубликован в 1952 году. Другим примером (среди многих других) могут служить многочисленные рассказы и романы, в частности « Мечтают ли андроиды об электроовцах?» , опубликованный в 1968 году и содержащий собственную версию теста Тьюринга, тест Войта-Кампфа , для измерения эмоциональных реакций андроидов, неотличимых от людей. Позже роман стал основой влиятельного фильма Бегущий по лезвию» « Ридли Скотта 1982 года .

Научная фантастика десятилетиями боролась с этическими последствиями разработок ИИ и, таким образом, предоставила план этических проблем, которые могут возникнуть, когда будет достигнуто что-то вроде общего искусственного интеллекта: фильм Спайка Джонза 2013 года «Она» показывает, что может случиться, если пользователь влюбляется в соблазнительный голос операционной системы своего смартфона; Ex Machina , с другой стороны, задает более сложный вопрос: если мы столкнемся с четко узнаваемой машиной, сделанной только человеком благодаря лицу и чуткому и чувственному голосу, сможем ли мы по-прежнему установить эмоциональную связь, по-прежнему соблазняться это? (Фильм повторяет тему, уже существовавшую двумя столетиями ранее, в рассказе Песочный человек» « Э.Т.А. Хоффмана 1817 года .)

Тема сосуществования с искусственными разумными существами также является темой двух недавних романов: «Машины, подобные мне» Иэна Макьюэна , опубликованные в 2019 году, включают, среди прочего, любовный треугольник с участием искусственного человека, а также человеческой пары. «Клара и Солнце» лауреата премии Нобелевской Кадзуо Исигуро , опубликованная в 2021 году, представляет собой рассказ от первого лица о Кларе, «АФ» (искусственном друге), которая по-своему пытается помочь девушке, с которой живет. , который после «поднятия» (т.е. подвергания генетическим улучшениям) страдает от странной болезни.

Хотя этические вопросы, связанные с ИИ, десятилетиями освещались в научно-фантастической литературе и художественных фильмах , появление телесериалов как жанра, позволяющего создавать более длинные и сложные сюжетные линии и развитие персонажей, привело к значительному вкладу, касающемуся этических последствий. технологии. Шведский сериал «Настоящие люди» (2012–2013) затронул сложные этические и социальные последствия, связанные с интеграцией искусственных разумных существ в общество. Британский научно-фантастический сериал-антология-антология «Черное зеркало » (2013–2019) был особенно известен экспериментами с антиутопическими художественными разработками, связанными с широким спектром недавних технологических разработок. И французский сериал «Осмос» (2020), и британский сериал «Один» затрагивают вопрос о том, что может случиться, если технологии попытаются найти для человека идеального партнера. В нескольких эпизодах сериала Netflix « Любовь, смерть + роботы» представлены сцены совместной жизни роботов и людей. Самый представительный из них — S02 E01, он показывает, насколько плохими могут быть последствия, когда роботы выходят из-под контроля, если люди слишком сильно полагаются на них в своей жизни. [ 178 ]

Видения будущего в художественной литературе и играх

[ редактировать ]

Фильм «Тринадцатый этаж» предполагает будущее, в котором симулированные миры создаются с помощью компьютерных игровых консолей с целью развлечения с разумными обитателями. Фильм «Матрица» предполагает будущее, в котором доминирующими видами на планете Земля будут разумные машины, а к человечеству будут относиться с крайним видоизменением . Рассказ « Погружение на Планк » предполагает будущее, в котором человечество превратилось в программное обеспечение, которое можно дублировать и оптимизировать, и соответствующее различие между типами программного обеспечения будет разумным и неразумным. Ту же идею можно найти в голограмме экстренной медицинской помощи звездолета «Вояджер» , которая, по-видимому, является разумной копией уменьшенной части сознания ее создателя, доктора Циммермана , который из лучших побуждений создал систему для оказания медицинской помощи. помощь в случае чрезвычайных ситуаций. В фильмах «Двухсотлетний человек» и «ИИ» рассказывается о возможности существования разумных роботов, способных любить. Я, Робот, исследовал некоторые аспекты трёх законов Азимова. Все эти сценарии пытаются предвидеть возможные неэтичные последствия создания разумных компьютеров. [ 179 ]

Этика искусственного интеллекта — одна из нескольких основных тем BioWare Mass Effect . серии игр [ 180 ] В нем исследуется сценарий, в котором цивилизация случайно создала ИИ посредством быстрого увеличения вычислительной мощности с помощью нейронной сети глобального масштаба . Это событие вызвало этический раскол между теми, кто считал уместным предоставление органических прав недавно разумным гетам, и теми, кто продолжал рассматривать их как одноразовую машину и боролся за их уничтожение. Помимо первоначального конфликта, сложность отношений между машинами и их создателями является еще одной постоянной темой всей истории.

Detroit: Become Human — одна из самых известных видеоигр, в которой за последнее время обсуждается этика искусственного интеллекта. Quantic Dream разработала главы игры с использованием интерактивных сюжетных линий, чтобы дать игрокам более захватывающий игровой процесс. Игроки манипулируют тремя разными пробудившимися бионическими людьми перед лицом разных событий, чтобы сделать разные выборы для достижения цели изменения человеческого взгляда на бионическую группу, и разные варианты выбора приведут к разным концовкам. Это одна из немногих игр, которая знакомит игроков с бионической точки зрения, что позволяет им лучше учитывать права и интересы роботов после создания настоящего искусственного интеллекта. [ 181 ]

Со временем дебаты стали все меньше и меньше сосредотачиваться на возможности и больше на желательности . [ 182 ] как подчеркивалось в дебатах «Космист» и «Терран», инициированных Уго де Гарисом и Кевином Уорвиком . Космист, по мнению Уго де Гариса, на самом деле стремится создать более разумных преемников человеческого рода.

Эксперты из Кембриджского университета утверждают, что в художественной и научной литературе ИИ изображается преимущественно как расово Белый, что искажает восприятие его рисков и преимуществ. [ 183 ]

См. также

[ редактировать ]

Примечания

[ редактировать ]
  1. ^ Перейти обратно: а б Мюллер В.К. (30 апреля 2020 г.). «Этика искусственного интеллекта и робототехники» . Стэнфордская энциклопедия философии . Архивировано из оригинала 10 октября 2020 года.
  2. ^ Андерсон. «Машинная этика» . Архивировано из оригинала 28 сентября 2011 года . Проверено 27 июня 2011 г.
  3. ^ Андерсон М., Андерсон С.Л., ред. (июль 2011 г.). Машинная этика . Издательство Кембриджского университета . ISBN  978-0-521-11235-2 .
  4. ^ Андерсон М., Андерсон С. (июль 2006 г.). «Введение приглашенных редакторов: машинная этика». Интеллектуальные системы IEEE . 21 (4): 10–11. doi : 10.1109/mis.2006.70 . S2CID   9570832 .
  5. ^ Андерсон М., Андерсон С.Л. (15 декабря 2007 г.). «Машинная этика: создание этического интеллектуального агента». Журнал ИИ . 28 (4): 15. дои : 10.1609/aimag.v28i4.2065 . S2CID   17033332 .
  6. ^ Бойлз Р.Дж. (2017). «Философские указатели для искусственных структур моральных агентов» . Сури . 6 (2): 92–109.
  7. ^ Перейти обратно: а б Уинфилд А.Ф., Майкл К., Питт Дж., Эверс В. (март 2019 г.). «Машинная этика: проектирование и управление этическим искусственным интеллектом и автономными системами [сканирование проблемы]» . Труды IEEE . 107 (3): 509–517. дои : 10.1109/JPROC.2019.2900622 . ISSN   1558-2256 . S2CID   77393713 .
  8. ^ Аль-Родхан Н. (7 декабря 2015 г.). «Моральный кодекс» . Архивировано из оригинала 5 марта 2017 г. Проверено 4 марта 2017 г.
  9. ^ Зауэр М (08 апреля 2022 г.). «Илон Маск говорит, что люди в конечном итоге смогут загрузить свой мозг в роботов, а Граймс считает, что Джефф Безос сделал бы это» . CNBC . Проверено 7 апреля 2024 г.
  10. ^ Анадиотис Г (4 апреля 2022 г.). «Массирование языковых моделей искусственного интеллекта для удовольствия, прибыли и этики» . ЗДНЕТ . Проверено 7 апреля 2024 г.
  11. ^ Уоллах В., Аллен С. (ноябрь 2008 г.). Моральные машины: обучение роботов правильному и неправильному . США: Издательство Оксфордского университета . ISBN  978-0-19-537404-9 .
  12. ^ Бостром Н. , Юдковский Э. (2011). «Этика искусственного интеллекта» (PDF) . Кембриджский справочник по искусственному интеллекту . Кембридж Пресс . Архивировано (PDF) из оригинала 4 марта 2016 г. Проверено 22 июня 2011 г.
  13. ^ Сантос-Ланг С (2002). «Этика искусственного интеллекта» . Архивировано из оригинала 25 декабря 2014 г. Проверено 4 января 2015 г.
  14. ^ Веруджио, Джанмарко (2011). «Дорожная карта роботоэтики». Ателье Робоэтики EURON . Школа робототехники: 2. CiteSeerX   10.1.1.466.2810 .
  15. ^ Мюллер В.К. (2020 г.), «Этика искусственного интеллекта и робототехники» , в Zalta EN (ред.), Стэнфордская энциклопедия философии (изд. Зима 2020 г.), Лаборатория метафизических исследований, Стэнфордский университет, заархивировано из оригинала 2021–2004 гг. -12 , получено 18 марта 2021 г.
  16. ^ Перейти обратно: а б Джобин А., Йенка М., Вайена Э (2 сентября 2020 г.). «Глобальный ландшафт руководящих принципов этики ИИ». Природа . 1 (9): 389–399. arXiv : 1906.11668 . дои : 10.1038/s42256-019-0088-2 . S2CID   201827642 .
  17. ^ Флориди Л., Коулс Дж. (2 июля 2019 г.). «Единая структура пяти принципов искусственного интеллекта в обществе» . Гарвардский обзор науки о данных . 1 . дои : 10.1162/99608f92.8cd550d1 . S2CID   198775713 .
  18. ^ Габриэль I (14 марта 2018 г.). «Дело в пользу более справедливых алгоритмов – Ясон Габриэль» . Середина . Архивировано из оригинала 22 июля 2019 г. Проверено 22 июля 2019 г.
  19. ^ «5 неожиданных источников предвзятости в искусственном интеллекте» . ТехКранч . 10 декабря 2016 г. Архивировано из оригинала 18 марта 2021 г. Проверено 22 июля 2019 г.
  20. ^ Найт В. «Руководитель Google по искусственному интеллекту советует забыть о роботах-убийцах Илона Маска и вместо этого беспокоиться о предвзятости в системах искусственного интеллекта» . Обзор технологий Массачусетского технологического института . Архивировано из оригинала 4 июля 2019 г. Проверено 22 июля 2019 г.
  21. ^ Вилласенор Дж (03 января 2019 г.). «Искусственный интеллект и предвзятость: четыре ключевые проблемы» . Брукингс . Архивировано из оригинала 22 июля 2019 г. Проверено 22 июля 2019 г.
  22. ^ Лор С. (9 февраля 2018 г.). «Распознавание лиц будет точным, если вы белый парень» . Нью-Йорк Таймс . Архивировано из оригинала 9 января 2019 года . Проверено 29 мая 2019 г.
  23. ^ Кенеке А , Нам А, Лейк Е, Нуделл Дж, Куарти М, Менгеша З, Тупс С, Рикфорд Дж.Р., Юрафски Д., Гоэл С. (7 апреля 2020 г.). «Расовые различия в автоматизированном распознавании речи» . Труды Национальной академии наук . 117 (14): 7684–7689. Бибкод : 2020PNAS..117.7684K . дои : 10.1073/pnas.1915768117 . ПМК   7149386 . ПМИД   32205437 .
  24. ^ Нтуци Э, Фафалиос П, Гадираджу Ю, Иосифидис В, Нейдл В, Видаль МЭ, Руджери С, Турини Ф, Пападопулос С, Красанакис Э, Компациарис И, Киндер-Курланда К, Вагнер С, Карими Ф, Фернандес М (май 2020 г.) . «Предвзятость в системах искусственного интеллекта, управляемых данными. Вводный обзор» . WIREs Интеллектуальный анализ данных и обнаружение знаний . 10 (3). дои : 10.1002/widm.1356 . ISSN   1942-4787 .
  25. ^ «Amazon отказывается от секретного инструмента рекрутинга, основанного на искусственном интеллекте, который показал предвзятое отношение к женщинам» . Рейтер . 10.10.2018. Архивировано из оригинала 27 мая 2019 г. Проверено 29 мая 2019 г.
  26. ^ Фридман Б., Ниссенбаум Х. (июль 1996 г.). «Предвзятость в компьютерных системах» . Транзакции ACM в информационных системах . 14 (3): 330–347. дои : 10.1145/230538.230561 . S2CID   207195759 .
  27. ^ «Устранение предвзятости в ИИ» . techxplore.com . Архивировано из оригинала 25 июля 2019 г. Проверено 26 июля 2019 г.
  28. ^ Абдалла М., Вале Дж.П., Руас Т., Невеоль А., Дусель Ф., Мохаммад С., Форт К. (2023). Роджерс А., Бойд-Грабер Дж., Окадзаки Н. (ред.). «Слон в комнате: анализ присутствия крупных технологий в исследованиях обработки естественного языка» . Материалы 61-го ежегодного собрания Ассоциации компьютерной лингвистики (Том 1: Длинные статьи) . Торонто, Канада: Ассоциация компьютерной лингвистики: 13141–13160. arXiv : 2305.02797 . doi : 10.18653/v1/2023.acl-long.734 .
  29. ^ Олсон П. «У DeepMind от Google есть идея, как остановить предвзятый ИИ» . Форбс . Архивировано из оригинала 26 июля 2019 г. Проверено 26 июля 2019 г.
  30. ^ «Справедливость машинного обучения | Справедливость машинного обучения» . Разработчики Google . Архивировано из оригинала 10 августа 2019 г. Проверено 26 июля 2019 г.
  31. ^ «ИИ и предвзятость – IBM Research – США» . www.research.ibm.com . Архивировано из оригинала 17 июля 2019 г. Проверено 26 июля 2019 г.
  32. ^ Бендер Э.М., Фридман Б. (декабрь 2018 г.). «Заявления о данных для обработки естественного языка: на пути к смягчению системной предвзятости и обеспечению более качественной науки» . Труды Ассоциации компьютерной лингвистики . 6 : 587–604. дои : 10.1162/tacl_a_00041 .
  33. ^ Гебру Т., Моргенштерн Дж., Веккьоне Б., Воган Дж.В., Уоллах Х. , Дауме III Х., Кроуфорд К. (2018). «Таблицы данных для наборов данных». arXiv : 1803.09010 [ cs.DB ].
  34. ^ Пери А (06 октября 2021 г.). «Надежный искусственный интеллект и технологический майнинг: проблемы и возможности» . ДипАИ . Архивировано из оригинала 18 февраля 2022 г. Проверено 18 февраля 2022 г.
  35. ^ Найт В. «Руководитель Google по искусственному интеллекту советует забыть о роботах-убийцах Илона Маска и вместо этого беспокоиться о предвзятости в системах искусственного интеллекта» . Обзор технологий Массачусетского технологического института . Архивировано из оригинала 4 июля 2019 г. Проверено 26 июля 2019 г.
  36. ^ «Где в мире находится ИИ? Примеры ответственного и неэтичного ИИ» . Архивировано из оригинала 31 октября 2020 г. Проверено 28 октября 2020 г.
  37. ^ Руджери С, Альварес ХМ, Пуньяна А, Стэйт Л, Турини Ф (26 июня 2023 г.). «Можем ли мы доверять справедливому искусственному интеллекту?» . Материалы конференции AAAI по искусственному интеллекту . 37 (13). Ассоциация по развитию искусственного интеллекта (AAAI): 15421–15430. дои : 10.1609/aaai.v37i13.26798 . hdl : 11384/136444 . ISSN   2374-3468 . S2CID   259678387 .
  38. ^ Буйл М., Де Би Т. (2022). «Неотъемлемые ограничения справедливости ИИ». Коммуникации АКМ . 67 (2): 48–55. arXiv : 2212.06495 . дои : 10.1145/3624700 . hdl : 1854/LU-01GMNH04RGNVWJ730BJJXGCY99 .
  39. ^ Кастельново А., Инверарди Н., Нанино Г., Пенко И.Г., Реголи Д. (2023). «Достаточно справедливо? Карта текущих ограничений требований к «справедливым» алгоритмам». arXiv : 2311.12435 [ cs.AI ].
  40. ^ Айзенберг Э., Деннис М.Дж., ван ден Ховен Дж. (21 октября 2023 г.). «Изучение предположений об оценке найма ИИ и их влияния на автономию соискателей в отношении самопредставления» . ИИ и общество . дои : 10.1007/s00146-023-01783-1 . ISSN   0951-5666 .
  41. ^ Федершпиль Ф, Митчелл Р, Асокан А, Умана С, Маккой Д (май 2023 г.). «Угрозы искусственного интеллекта здоровью и существованию человека» . BMJ Global Health . 8 (5): e010435. дои : 10.1136/bmjgh-2022-010435 . ISSN   2059-7908 . ПМЦ   10186390 . ПМИД   37160371 .
  42. ^ Перейти обратно: а б Шпиндлер Г. (2023 г.), «Различные подходы к ответственности за искусственный интеллект – плюсы и минусы» , Ответственность за искусственный интеллект , Nomos Verlagsgesellschaft mbH & Co. KG, стр. 41–96, doi : 10.5771/9783748942030-41 , ISBN  978-3-7489-4203-0 , получено 14 декабря 2023 г.
  43. ^ Маньика Дж (2022). «Как правильно использовать ИИ: вводные заметки об ИИ и обществе» . Дедал . 151 (2): 5–27. дои : 10.1162/daed_e_01897 . ISSN   0011-5266 .
  44. ^ Имран А., Посохова И., Куреши Х.Н., Масуд У., Риаз М.С., Али К., Джон К.Н., Хусейн М.И., Набил М. (01.01.2020). «AI4COVID-19: искусственный интеллект позволил провести предварительную диагностику COVID-19 по образцам кашля через приложение» . Информатика в медицине разблокирована . 20 : 100378. дои : 10.1016/j.imu.2020.100378 . ISSN   2352-9148 . ПМЦ   7318970 . ПМИД   32839734 .
  45. ^ Чирилло Д., Катуара-Соларц С., Мори С., Гюней Э., Субиратс Л., Меллино С., Гиганте А., Валенсия А., Рементария М.Дж., Чадха А.С., Мавридис Н. (01.06.2020). «Половые и гендерные различия и предубеждения в искусственном интеллекте для биомедицины и здравоохранения» . npj Цифровая медицина . 3 (1): 81. дои : 10.1038/s41746-020-0288-5 . ISSN   2398-6352 . ПМК   7264169 . ПМИД   32529043 .
  46. ^ Нтуци Э, Фафалиос П, Гадираджу Ю, Иосифидис В, Нейдл В, Видаль МЭ, Руджери С, Турини Ф, Пападопулос С, Красанакис Э, Компациарис И, Киндер-Курланда К, Вагнер С, Карими Ф, Фернандес М (май 2020 г.) . «Предвзятость в системах искусственного интеллекта, управляемых данными. Вводный обзор» . WIREs Интеллектуальный анализ данных и обнаружение знаний . 10 (3). дои : 10.1002/widm.1356 . ISSN   1942-4787 .
  47. ^ Перейти обратно: а б Луо Кью, Пуэтт М.Дж., Смит, М.Д. (28 марта 2023 г.). «Перспективное зеркало слона: исследование языковой предвзятости в Google, ChatGPT, Википедии и YouTube». arXiv : 2303.16281v2 [ cs.CY ].
  48. ^ Баскер Т., Чонни С., Шоа Барг М. (20 ноября 2023 г.). «Стереотипы в ChatGPT: эмпирическое исследование». Материалы 16-й Международной конференции по теории и практике электронного управления . ИКЕГОВ '23. Нью-Йорк, штат Нью-Йорк, США: Ассоциация вычислительной техники. стр. 24–32. дои : 10.1145/3614321.3614325 . ISBN  979-8-4007-0742-1 .
  49. ^ Котек Х., Докум Р., Сан Д. (05.11.2023). «Гендерная предвзятость и стереотипы в моделях большого языка». Материалы конференции по коллективному разуму ACM . КИ '23. Нью-Йорк, штат Нью-Йорк, США: Ассоциация вычислительной техники. стр. 12–24. arXiv : 2308.14921 . дои : 10.1145/3582269.3615599 . ISBN  979-8-4007-0113-9 .
  50. ^ Федершпиль Ф, Митчелл Р, Асокан А, Умана С, Маккой Д (май 2023 г.). «Угрозы искусственного интеллекта здоровью и существованию человека» . BMJ Global Health . 8 (5): e010435. дои : 10.1136/bmjgh-2022-010435 . ISSN   2059-7908 . ПМЦ   10186390 . ПМИД   37160371 .
  51. ^ Фэн С., Пак С.Й., Лю Ю., Цветков Ю. (июль 2023 г.). Роджерс А., Бойд-Грабер Дж., Окадзаки Н. (ред.). «От данных предварительной подготовки к языковым моделям и последующим задачам: отслеживание политических предубеждений, ведущих к несправедливым моделям НЛП» . Материалы 61-го ежегодного собрания Ассоциации компьютерной лингвистики (Том 1: Длинные статьи) . Торонто, Канада: Ассоциация компьютерной лингвистики: 11737–11762. arXiv : 2305.08283 . doi : 10.18653/v1/2023.acl-long.656 .
  52. ^ Чжоу К., Тан С. (декабрь 2023 г.). Буамор Х., Пино Дж., Бали К. (ред.). «Оценка политической предвзятости на основе сущностей при автоматическом обобщении» . Выводы Ассоциации компьютерной лингвистики: EMNLP 2023 . Сингапур: Ассоциация компьютерной лингвистики: 10374–10386. arXiv : 2305.02321 . doi : 10.18653/v1/2023.findings-emnlp.696 .
  53. ^ Ченг М., Дурмус Э., Джурафски Д. (29 мая 2023 г.). «Отмеченные личности: использование подсказок на естественном языке для измерения стереотипов в языковых моделях». arXiv : 2305.18189v1 [ cs.CL ].
  54. ^ Хаммонд Дж. (27 декабря 2023 г.). «Крупные технологические компании тратят на стартапы в области ИИ больше, чем венчурные компании» . Арс Техника . Архивировано из оригинала 10 января 2024 года.
  55. ^ Вонг М. (24 октября 2023 г.). «Будущее искусственного интеллекта — это ГОМА» . Атлантика . Архивировано из оригинала 5 января 2024 года.
  56. ^ «Большие технологии и стремление к доминированию ИИ» . Экономист . 26 марта 2023 г. Архивировано из оригинала 29 декабря 2023 г.
  57. ^ Фунг Б (19 декабря 2023 г.). «Где можно выиграть битву за доминирование ИИ» . CNN Бизнес . Архивировано из оригинала 13 января 2024 года.
  58. ^ Мец C (5 июля 2023 г.). «В эпоху искусственного интеллекта маленьким ребятам из сферы технологий нужны большие друзья» . Нью-Йорк Таймс .
  59. ^ ИИ с открытым исходным кодом. Архивировано 4 марта 2016 г. в Wayback Machine Билла Хиббарда. 2008 г. Материалы Первой конференции по общему искусственному интеллекту, , под ред. Пей Ван, Бен Герцель и Стэн Франклин.
  60. ^ Стюарт А., Мелтон М. «Генеральный директор Hugging Face говорит, что сосредоточен на создании «устойчивой модели» для стартапа с открытым исходным кодом в области искусственного интеллекта стоимостью 4,5 миллиарда долларов» . Бизнес-инсайдер . Проверено 7 апреля 2024 г.
  61. ^ «Бум искусственного интеллекта с открытым исходным кодом основан на подачках крупных технологических компаний. Как долго он продлится?» . Обзор технологий Массачусетского технологического института . Проверено 7 апреля 2024 г.
  62. ^ Яо Д. (21 февраля 2024 г.). «Google представляет модели с открытым исходным кодом, способные конкурировать с Meta и Mistral» . ИИ-бизнес .
  63. ^ 7001-2021 — Стандарт IEEE прозрачности автономных систем . IEEE. 4 марта 2022 г. стр. 1–54. doi : 10.1109/IEESTD.2022.9726144 . ISBN  978-1-5044-8311-7 . S2CID   252589405 . Проверено 9 июля 2023 г. .
  64. ^ Камила МК, Ясротия СС (01 января 2023 г.). «Этические проблемы развития искусственного интеллекта: признание рисков» . Международный журнал этики и систем . дои : 10.1108/IJOES-05-2023-0107 . ISSN   2514-9369 . S2CID   259614124 .
  65. ^ Турм С. (13 июля 2018 г.). «Microsoft призывает к федеральному регулированию распознавания лиц» . Проводной . Архивировано из оригинала 9 мая 2019 года . Проверено 10 января 2019 г.
  66. ^ Пайпер К. (2 февраля 2024 г.). «Должны ли мы сделать наши самые мощные модели искусственного интеллекта открытыми для всех?» . Вокс . Проверено 7 апреля 2024 г.
  67. ^ Винсент Дж. (15 марта 2023 г.). «Соучредитель OpenAI о прошлом подходе компании к открытому обмену результатами исследований: «Мы были неправы» » . Грань . Проверено 7 апреля 2024 г.
  68. ^ Внутри разума искусственного интеллекта. Архивировано 10 августа 2021 г. в Wayback Machine - интервью Клиффа Куанга.
  69. ^ Банн Дж (13 апреля 2020 г.). «Работа в контекстах, для которых важна прозрачность: учетный взгляд на объяснимый искусственный интеллект (XAI)» . Журнал управления записями . 30 (2): 143–153. дои : 10.1108/RMJ-08-2019-0038 . ISSN   0956-5698 . S2CID   219079717 .
  70. ^ Ли Ф, Руйс Н, Лу Й (31 декабря 2022 г.). «Этика и ИИ: систематический обзор этических проблем и связанных с ними стратегий проектирования с использованием ИИ в здравоохранении» . ИИ . 4 (1): 28–53. дои : 10.3390/ai4010003 . ISSN   2673-2688 .
  71. ^ Ховард А. (29 июля 2019 г.). «Регулирование ИИ – стоит ли беспокоиться организациям? | Аянна Ховард» . Обзор менеджмента Слоана MIT . Архивировано из оригинала 14 августа 2019 г. Проверено 14 августа 2019 г.
  72. ^ «Доверие к искусственному интеллекту: исследование пяти стран» (PDF) . КПМГ . Март 2021.
  73. ^ Бастин Р., Ванц Дж. (июнь 2017 г.). «Общие правила защиты данных, межотраслевые инновации» (PDF) . Внутри журнала . Делойт. Архивировано (PDF) из оригинала 10 января 2019 г. Проверено 10 января 2019 г.
  74. ^ «Саммит ООН по искусственному интеллекту направлен на решение проблемы бедности, «больших проблем» человечества » . Новости ООН . 07.06.2017. Архивировано из оригинала 26 июля 2019 г. Проверено 26 июля 2019 г.
  75. ^ «Искусственный интеллект – Организация экономического сотрудничества и развития» . www.oecd.org . Архивировано из оригинала 22 июля 2019 г. Проверено 26 июля 2019 г.
  76. ^ Аноним (14 июня 2018 г.). «Европейский альянс ИИ» . Единый цифровой рынок – Европейская комиссия . Архивировано из оригинала 01 августа 2019 г. Проверено 26 июля 2019 г.
  77. ^ Экспертная группа высокого уровня Европейской комиссии по искусственному интеллекту (26 июня 2019 г.). «Политические и инвестиционные рекомендации для надежного искусственного интеллекта» . Формирование цифрового будущего Европы – Европейская комиссия . Архивировано из оригинала 26 февраля 2020 г. Проверено 16 марта 2020 г.
  78. ^ Фукуда-Парр С., Гиббонс Э. (июль 2021 г.). «Новый консенсус по поводу «этического ИИ»: критика руководящих принципов заинтересованных сторон в области прав человека» . Глобальная политика . 12 (С6): 32–44. дои : 10.1111/1758-5899.12965 . ISSN   1758-5880 .
  79. ^ «Краткий обзор технической политики ЕС: итоги июля 2019 года» . Центр демократии и технологий . 2 августа 2019 г. Архивировано из оригинала 9 августа 2019 г. Проверено 9 августа 2019 г.
  80. ^ Кертис С., Гиллеспи Н., Локки С. (24 мая 2022 г.). «Организации, внедряющие ИИ, играют ключевую роль в устранении «идеального шторма» рисков, связанных с ИИ» . ИИ и этика . 3 (1): 145–153. дои : 10.1007/s43681-022-00163-7 . ISSN   2730-5961 . ПМЦ   9127285 . ПМИД   35634256 . Архивировано из оригинала 15 марта 2023 г. Проверено 29 мая 2022 г.
  81. ^ Перейти обратно: а б «Почему миру нужен Билль о правах на ИИ» . Файнэншл Таймс . 18 октября 2021 г. Проверено 19 марта 2023 г.
  82. ^ Челлен Р., Денни Дж., Питт М., Гомпельс Л., Эдвардс Т., Цанева-Атанасова К. (март 2019 г.). «Искусственный интеллект, предвзятость и клиническая безопасность» . Качество и безопасность BMJ . 28 (3): 231–237. doi : 10.1136/bmjqs-2018-008370 . ISSN   2044-5415 . ПМК   6560460 . ПМИД   30636200 .
  83. ^ Эванс В. (2015). «Постчеловеческие права: измерения трансчеловеческих миров» . Технокультура . 12 (2). дои : 10.5209/rev_TK.2015.v12.n2.49072 .
  84. ^ Шеляженко Ю. (2017). «Искусственная личная автономия и концепция прав роботов» . Европейский журнал права и политических наук : 17–21. doi : 10.20534/EJLPS-17-1-17-21 . Архивировано из оригинала 14 июля 2018 года . Проверено 10 мая 2017 г.
  85. ^ Словарь английского языка американского наследия, четвертое издание
  86. ^ Думен Дж (2023). «Субъект искусственного интеллекта как юридическое лицо» . Закон об информационных и коммуникационных технологиях . 32 (3): 277–278. дои : 10.1080/13600834.2023.2196827 . hdl : 1820/c29a3daa-9e36-4640-85d3-d0ffdd18a62c .
  87. ^ «Роботы могут требовать законных прав» . Новости Би-би-си . 21 декабря 2006 года. Архивировано из оригинала 15 октября 2019 года . Проверено 3 января 2010 г.
  88. ^ Хендерсон М. (24 апреля 2007 г.). «Права человека для роботов? Мы увлекаемся» . «Таймс онлайн» . Лондонская «Таймс». Архивировано из оригинала 17 мая 2008 года . Проверено 2 мая 2010 г.
  89. ^ «Саудовская Аравия предоставила гражданство роботу по имени София» . 26 октября 2017 г. Архивировано из оригинала 27 октября 2017 г. Проверено 27 октября 2017 г.
  90. ^ Винсент Дж. (30 октября 2017 г.). «Притворство, будто даешь роботу гражданство, никому не поможет» . Грань . Архивировано из оригинала 3 августа 2019 года . Проверено 10 января 2019 г.
  91. ^ Уилкс, Йорик, изд. (2010). Тесное взаимодействие с искусственными спутниками: ключевые социальные, психологические, этические и дизайнерские проблемы . Амстердам: Паб John Benjamins. компании ISBN  978-90-272-4994-4 . OCLC   642206106 .
  92. ^ Макрэ C (сентябрь 2022 г.). «Извлечение уроков из сбоев автономных и интеллектуальных систем: несчастные случаи, безопасность и социотехнические источники риска» . Анализ рисков . 42 (9): 1999–2025. Бибкод : 2022РискА..42.1999М . дои : 10.1111/risa.13850 . ISSN   0272-4332 . ПМИД   34814229 .
  93. ^ Агарвал А., Эдельман С. (2020). «Функционально эффективный сознательный ИИ без страданий». Журнал искусственного интеллекта и сознания . 7 :39–50. arXiv : 2002.05652 . дои : 10.1142/S2705078520300030 . S2CID   211096533 .
  94. ^ Томас Метцингер (февраль 2021 г.). «Искусственное страдание: аргумент в пользу глобального моратория на синтетическую феноменологию» . Журнал искусственного интеллекта и сознания . 8 : 43–66. дои : 10.1142/S270507852150003X . S2CID   233176465 ​​.
  95. ^ Чалмерс Д. (март 2023 г.). «Может ли большая языковая модель быть сознательной?». arXiv : 2303.07103v1 [ Наука информатика ].
  96. ^ Берч Дж . (01.01.2017). «Чувство животных и принцип предосторожности» . Чувство животных . 2 (16). дои : 10.51291/2377-7478.1200 . ISSN   2377-7478 .
  97. ^ Перейти обратно: а б
  98. ^ Перейти обратно: а б Джозеф Вайценбаум , цитируется по McCorduck 2004 , стр. 356, 374–376.
  99. ^ Каплан А., Хенляйн М. (январь 2019 г.). «Сири, Сири, в моей руке: кто самый справедливый на земле? Об интерпретациях, иллюстрациях и значении искусственного интеллекта». Горизонты бизнеса . 62 (1): 15–25. дои : 10.1016/j.bushor.2018.08.004 . S2CID   158433736 .
  100. ^ Перейти обратно: а б Хиббард Б. (17 ноября 2015 г.). «Этический искусственный интеллект». arXiv : 1411.1373 [ cs.AI ].
  101. ^ Дэвис А. (29 февраля 2016 г.). «Беспилотный автомобиль Google стал причиной первой аварии» . Проводной . Архивировано из оригинала 7 июля 2019 года . Проверено 26 июля 2019 г.
  102. ^ Левин С. , Вонг Дж.К. (19 марта 2018 г.). «Беспилотный Uber убил женщину в Аризоне в первой смертельной аварии с участием пешехода» . Хранитель . Архивировано из оригинала 26 июля 2019 года . Проверено 26 июля 2019 г.
  103. ^ «Кто несет ответственность, если беспилотный автомобиль попадает в аварию?» . Футуризм . 30 января 2018 г. Архивировано из оригинала 26 июля 2019 г. Проверено 26 июля 2019 г.
  104. ^ «Аварии с автономными автомобилями: кто или что виноват?» . Знание@Уортон . Право и государственная политика. Подкасты Radio Business Северной Америки. Архивировано из оригинала 26 июля 2019 г. Проверено 26 июля 2019 г.
  105. ^ Делбридж Э. «Беспилотные автомобили сошли с ума» . Баланс . Архивировано из оригинала 29 мая 2019 г. Проверено 29 мая 2019 г.
  106. ^ Стилго Дж. (2020), «Кто убил Элейн Херцберг?» , Кто продвигает инновации? , Чам: Springer International Publishing, стр. 1–6, номер документа : 10.1007/978-3-030-32320-2_1 , ISBN.  978-3-030-32319-6 , S2CID   214359377 , заархивировано из оригинала 18 марта 2021 г. , получено 11 ноября 2020 г.
  107. ^ Максмен А (октябрь 2018 г.). «Дилеммы беспилотных автомобилей показывают, что моральный выбор не является универсальным» . Природа . 562 (7728): 469–470. Бибкод : 2018Natur.562..469M . дои : 10.1038/d41586-018-07135-0 . ПМИД   30356197 .
  108. ^ «Правила для беспилотных автомобилей» . GOV.UK. Архивировано из оригинала 26 июля 2019 г. Проверено 26 июля 2019 г.
  109. ^ «Автоматизированное вождение: законодательные и нормативные меры – CyberWiki» . www.cyberlaw.stanford.edu . Архивировано из оригинала 26 июля 2019 г. Проверено 26 июля 2019 г.
  110. ^ «Автономные транспортные средства | Принятое законодательство о беспилотных транспортных средствах» . www.ncsl.org . Архивировано из оригинала 26 июля 2019 г. Проверено 26 июля 2019 г.
  111. ^ Эциони А, Эциони О (01 декабря 2017 г.). «Включение этики в искусственный интеллект» . Журнал этики . 21 (4): 403–418. дои : 10.1007/s10892-017-9252-2 . ISSN   1572-8609 . S2CID   254644745 .
  112. Призыв к дебатам о роботах-убийцах. Архивировано 7 августа 2009 г. в Wayback Machine , Джейсон Палмер, репортер по науке и технологиям, BBC News, 3 августа 2009 г.
  113. Новый отчет Science, финансируемый ВМФ, предупреждает о том, что военные роботы станут «Терминаторами». Архивировано 28 июля 2009 г. в Wayback Machine , Джейсон Мик (блог), dailytech.com, 17 февраля 2009 г.
  114. ^ Перейти обратно: а б Отчет ВМФ предупреждает о восстании роботов и предполагает сильный моральный компас. Архивировано 4 июня 2011 г. в Wayback Machine Джозефом Л. Флэтли на сайте engadget.com, 18 февраля 2009 г.
  115. ^ Президентская комиссия AAAI по долгосрочному исследованию будущего искусственного интеллекта на 2008–2009 годы. Архивировано 28 августа 2009 г. в Wayback Machine , Ассоциация по развитию искусственного интеллекта, по состоянию на 26 июля 2009 г.
  116. ^ Соединенные Штаты. Совет оборонных инноваций. Принципы искусственного интеллекта: рекомендации по этическому использованию искусственного интеллекта Министерством обороны . OCLC   1126650738 .
  117. Новый отчет, финансируемый ВМФ, предупреждает о том, что боевые роботы станут «Терминаторами». Архивировано 28 июля 2009 г. в Wayback Machine , Джейсон Мик (блог), dailytech.com, 17 февраля 2009 г.
  118. ^ Амбрелло С., Торрес П., Де Беллис А.Ф. (март 2020 г.). «Будущее войны: может ли смертоносное автономное оружие сделать конфликт более этичным?» . ИИ и общество . 35 (1): 273–282. дои : 10.1007/s00146-019-00879-x . hdl : 2318/1699364 . ISSN   0951-5666 . S2CID   59606353 . Архивировано из оригинала 05 января 2021 г. Проверено 11 ноября 2020 г.
  119. ^ Хеллстрём Т. (июнь 2013 г.). «О моральной ответственности военных роботов». Этика и информационные технологии . 15 (2): 99–107. дои : 10.1007/s10676-012-9301-2 . S2CID   15205810 . ПроКвест   1372020233 .
  120. ^ Митра А (5 апреля 2018 г.). «Мы можем научить ИИ распознавать добро и зло, а затем использовать его, чтобы научить нас морали» . Кварц . Архивировано из оригинала 26 июля 2019 г. Проверено 26 июля 2019 г.
  121. ^ Домингес Дж. (23 августа 2022 г.). «Южная Корея разрабатывает новые малозаметные дроны для поддержки боевых самолетов» . Джапан Таймс . Проверено 14 июня 2023 г.
  122. ^ «Принципы ИИ» . Институт будущего жизни . 11 августа 2017 г. Архивировано из оригинала 11 декабря 2017 г. Проверено 26 июля 2019 г.
  123. ^ Перейти обратно: а б Зак Масгрейв и Брайан В. Робертс (14 августа 2015 г.). «Почему искусственный интеллект слишком легко превратить в оружие – The Atlantic» . Атлантика . Архивировано из оригинала 11 апреля 2017 г. Проверено 6 марта 2017 г.
  124. ^ Кот Закшевский (27 июля 2015 г.). «Маск и Хокинг предупреждают об оружии искусственного интеллекта» . ВСЖ . Архивировано из оригинала 28 июля 2015 г. Проверено 4 августа 2017 г.
  125. ^ «Потенциальные риски, связанные с передовым искусственным интеллектом» . Открытая благотворительность . 11 августа 2015 года . Проверено 7 апреля 2024 г.
  126. ^ Брэндон Вильяроло. «Международный саммит военного ИИ завершился обещанием 60 государств» . www.theregister.com . Проверено 17 февраля 2023 г.
  127. ^ Перейти обратно: а б Маркофф Дж. (25 июля 2009 г.). «Ученые опасаются, что машины могут перехитрить человека» . Нью-Йорк Таймс . Архивировано из оригинала 25 февраля 2017 года . Проверено 24 февраля 2017 г.
  128. ^ Мюльхаузер, Люк и Луи Хелм. 2012. «Взрыв интеллекта и машинная этика». Архивировано 7 мая 2015 г. в Wayback Machine . В книге «Гипотезы сингулярности: научная и философская оценка» под редакцией Амнона Идена, Джонни Сёракера, Джеймса Х. Мура и Эрика Стейнхарта. Берлин: Шпрингер.
  129. ^ Бостром, Ник. 2003. «Этические проблемы современного искусственного интеллекта». Архивировано 8 октября 2018 г. в Wayback Machine . В книге «Когнитивные, эмоциональные и этические аспекты принятия решений у людей и искусственного интеллекта» под редакцией Ивы Смит и Джорджа Э. Ласкера, 12–17. Том. 2. Виндзор, Онтарио: Международный институт перспективных исследований в области системных исследований / Кибернетика.
  130. ^ Бостром Н. (2017). Суперинтеллект: пути, опасности, стратегии . Оксфорд, Соединенное Королевство: Издательство Оксфордского университета. ISBN  978-0-19-967811-2 .
  131. ^ Амбрелло С., Баум С.Д. (01.06.2018). «Оценка будущих нанотехнологий: чистое социальное воздействие атомарно точного производства» . Фьючерсы . 100 : 63–73. дои : 10.1016/j.futures.2018.04.007 . hdl : 2318/1685533 . ISSN   0016-3287 . S2CID   158503813 . Архивировано из оригинала 9 мая 2019 г. Проверено 29 ноября 2020 г.
  132. ^ Юдковский, Элиэзер. 2011. «Сложные системы ценностей в дружественном искусственном интеллекте». Архивировано 29 сентября 2015 г. в Wayback Machine . В Шмидхубере, Ториссоне и Луксе, 2011, 388–393.
  133. ^ Рассел С. (8 октября 2019 г.). Совместимость с человеком: искусственный интеллект и проблема управления . США: Викинг. ISBN  978-0-525-55861-3 . OCLC   1083694322 .
  134. ^ Ямпольский Р.В. (01.03.2020). «Непредсказуемость ИИ: о невозможности точно предсказать все действия более умного агента» . Журнал искусственного интеллекта и сознания . 07 (1): 109–118. дои : 10.1142/S2705078520500034 . ISSN   2705-0785 . S2CID   218916769 . Архивировано из оригинала 18 марта 2021 г. Проверено 29 ноября 2020 г.
  135. ^ Уоллах В., Валлор С. (17 сентября 2020 г.), «Моральные машины: от согласования ценностей к воплощенной добродетели» , Этика искусственного интеллекта , Oxford University Press, стр. 383–412, doi : 10.1093/oso/9780190905033.003.0014 , ISBN  978-0-19-090503-3 , заархивировано из оригинала 08 декабря 2020 г. , получено 29 ноября 2020 г.
  136. ^ Зонт С (2019). «Выгодная координация искусственного интеллекта посредством ценностно-чувствительного подхода к проектированию» . Большие данные и когнитивные вычисления . 3 (1): 5. дои : 10.3390/bdcc3010005 . hdl : 2318/1685727 .
  137. ^ Флориди Л., Коулс Дж., Кинг Т.К., Таддео М. (2020). «Как разработать искусственный интеллект для общественного блага: семь основных факторов» . Наука и инженерная этика . 26 (3): 1771–1796. дои : 10.1007/s11948-020-00213-5 . ISSN   1353-3452 . ПМК   7286860 . ПМИД   32246245 .
  138. ^ Фигерман С (28 сентября 2016 г.). «Facebook, Google и Amazon создают группу, чтобы облегчить проблемы искусственного интеллекта» . CNNMoney . Архивировано из оригинала 17 сентября 2020 года . Проверено 18 августа 2020 г.
  139. ^ Слота СК, Флейшманн КР, Гринберг С, Верма Н, Каммингс Б, Ли Л, Шенефиел С (2023). «Расположение работы этики искусственного интеллекта» . Журнал Ассоциации информационных наук и технологий . 74 (3): 311–322. дои : 10.1002/asi.24638 . ISSN   2330-1635 . S2CID   247342066 .
  140. ^ «Этические рекомендации для заслуживающего доверия ИИ» . Формирование цифрового будущего Европы – Европейская комиссия . Европейская комиссия. 08.04.2019. Архивировано из оригинала 20 февраля 2020 г. Проверено 20 февраля 2020 г.
  141. ^ «Белая книга по искусственному интеллекту – европейский подход к совершенству и доверию | Формирование цифрового будущего Европы» . 19 февраля 2020 г. Архивировано из оригинала 6 марта 2021 г. Проверено 18 марта 2021 г.
  142. ^ «Обсерватория политики ОЭСР в области искусственного интеллекта» . Архивировано из оригинала 8 марта 2021 г. Проверено 18 марта 2021 г.
  143. ^ Рекомендации по этике искусственного интеллекта . ЮНЕСКО. 2021.
  144. ^ «Государства-члены ЮНЕСКО принимают первое глобальное соглашение по этике ИИ» . Хельсинки Таймс . 26 ноября 2021 г. Проверено 26 апреля 2023 г.
  145. ^ «Дорожная карта администрации Обамы по политике в области искусственного интеллекта» . Гарвардское деловое обозрение . 21 декабря 2016 г. ISSN   0017-8012 . Архивировано из оригинала 22 января 2021 г. Проверено 16 марта 2021 г.
  146. ^ «Ускорение лидерства Америки в области искусственного интеллекта – Белый дом» . trumpwhitehouse.archives.gov . Архивировано из оригинала 25 февраля 2021 г. Проверено 16 марта 2021 г.
  147. ^ «Запрос комментариев по проекту Меморандума руководителям исполнительных ведомств и ведомств «Руководство по регулированию применения искусственного интеллекта» » . Федеральный реестр . 13 января 2020 г. Архивировано из оригинала 25 ноября 2020 г. Проверено 28 ноября 2020 г.
  148. ^ «CCC предлагает проект 20-летней дорожной карты в области искусственного интеллекта; ищет комментарии» . HPCwire . 14 мая 2019 г. Архивировано из оригинала 18 марта 2021 г. Проверено 22 июля 2019 г.
  149. ^ «Запросить комментарии к проекту: 20-летняя дорожная карта сообщества по исследованиям искусственного интеллекта в США » Блог CCC» . 13 мая 2019 г. Архивировано из оригинала 14 мая 2019 г. Проверено 22 июля 2019 г.
  150. ^ «Нечеловеческая партия» . 2021. Архивировано из оригинала 20 сентября 2021 г. Проверено 19 сентября 2021 г.
  151. ^ (in Russian) Интеллектуальные правила Archived 2021-12-30 at the Wayback Machine Kommersant , 25.11.2021
  152. ^ Грейс К., Сальватье Дж., Дефо А., Чжан Б., Эванс О. (03.05.2018). «Когда ИИ превзойдет человеческие возможности? Данные экспертов по ИИ». arXiv : 1705.08807 [ cs.AI ].
  153. ^ «Китай хочет формировать глобальное будущее искусственного интеллекта» . Обзор технологий Массачусетского технологического института . Архивировано из оригинала 20 ноября 2020 г. Проверено 29 ноября 2020 г.
  154. ^ Флориди Л., Коулс Дж., Бельтраметти М., Шатила Р., Чазеранд П., Дигнум В., Люэтге К., Мадлен Р., Пагалло Ю., Росси Ф., Шафер Б. (01.12.2018). «AI4People — этическая основа хорошего общества искусственного интеллекта: возможности, риски, принципы и рекомендации» . Разум и машины 28 (4): 689–707. дои : 10.1007/ s11023-018-9482-5 ISSN   1572-8641 . ПМК   6404626 . ПМИД   30930541 .
  155. ^ «Джоанна Дж. Брайсон» . ПРОВОДНОЙ . Проверено 13 января 2023 г.
  156. ^ «Открывается новый научно-исследовательский институт искусственного интеллекта» . 20.11.2017. Архивировано из оригинала 18 сентября 2020 г. Проверено 21 февраля 2021 г.
  157. ^ Джеймс Дж. Хьюз, Лаграндер, Кевин, ред. (15 марта 2017 г.). Пережить век машин: интеллектуальные технологии и трансформация человеческого труда . Чам, Швейцария: Пэлгрейв Макмиллан Чам. ISBN  978-3-319-51165-8 . OCLC   976407024 . Архивировано из оригинала 18 марта 2021 года . Проверено 29 ноября 2020 г. .
  158. ^ Данахер, Джон (2019). Автоматизация и утопия: процветание человека в мире без труда . Кембридж, Массачусетс: Издательство Гарвардского университета. ISBN  978-0-674-24220-3 . OCLC   1114334813 .
  159. ^ «Официально открыт Институт этики искусственного интеллекта ТУМ» . www.tum.de. Архивировано из оригинала 10 декабря 2020 г. Проверено 29 ноября 2020 г.
  160. ^ Связь ПК (25 января 2019 г.). «Гарвард работает над включением этики в учебную программу по информатике» . Гарвардская газета . Проверено 06 апреля 2023 г.
  161. ^ «Принципы ИИ» . Институт будущего жизни . Проверено 06 апреля 2023 г.
  162. ^ Ли Дж (08 февраля 2020 г.). «Когда в нашей технологии закодирована предвзятость» . ЭНЕРГЕТИЧЕСКИЙ ЯДЕРНЫЙ РЕАКТОР . Архивировано из оригинала 26 марта 2022 г. Проверено 22 декабря 2021 г.
  163. ^ Перейти обратно: а б «Как одна конференция охватила разнообразие» . Природа . 564 (7735): 161–162. 2018-12-12. дои : 10.1038/d41586-018-07718-x . ПМИД   31123357 . S2CID   54481549 .
  164. ^ Русе К. (30 декабря 2020 г.). «Премия Good Tech Awards 2020» . Нью-Йорк Таймс . ISSN   0362-4331 . Архивировано из оригинала 21 декабря 2021 г. Проверено 21 декабря 2021 г.
  165. ^ Ложа П (2014). «Возвращение к аргументу Лейбница Милля против механического материализма» . Ergo, философский журнал открытого доступа . 1 (20201214). дои : 10.3998/ergo.12405314.0001.003 . hdl : 2027/spo.12405314.0001.003 . ISSN   2330-4014 .
  166. ^ Брингсйорд С., Говиндараджулу Н.С. (2020), «Искусственный интеллект» , в Zalta EN, Nodelman U (ред.), Стэнфордская энциклопедия философии (изд. лета 2020 г.), Лаборатория метафизических исследований, Стэнфордский университет , получено 8 декабря 2023 г.
  167. ^ Младший ХК (29 апреля 1999 г.). Информационные технологии и парадокс производительности: оценка ценности инвестиций в ИТ . Издательство Оксфордского университета. ISBN  978-0-19-802838-3 .
  168. ^ Азимов И (2008). Я, Робот . Нью-Йорк: Бантам. ISBN  978-0-553-38256-3 .
  169. ^ Брайсон Дж., Диамантис М., Грант Т. (сентябрь 2017 г.). «Из народа, для и посредством народа: правовая лакуна синтетических лиц» . Искусственный интеллект и право . 25 (3): 273–291. дои : 10.1007/s10506-017-9214-9 .
  170. ^ «Принципы робототехники» . EPSRC Великобритании. Сентябрь 2010 г. Архивировано из оригинала 1 апреля 2018 г. Проверено 10 января 2019 г.
  171. ^ Юдковский Э (июль 2004 г.). «Зачем нам нужен дружественный ИИ» . 3 закона небезопасны . Архивировано из оригинала 24 мая 2012 года.
  172. ^ Александр I (март 2017 г.). «Партнеры людей: реалистичная оценка роли роботов в обозримом будущем» . Журнал информационных технологий . 32 (1): 1–9. дои : 10.1057/s41265-016-0032-4 . ISSN   0268-3962 . S2CID   5288506 .
  173. Развивающиеся роботы учатся лгать друг другу. Архивировано 28 августа 2009 г. в Wayback Machine , Popular Science, 18 августа 2009 г.
  174. ^ Бассетт С., Стейнмюллер Э., Восс Г. «Лучше выдуманный: взаимное влияние научной фантастики и инноваций» . Нэста . Проверено 3 мая 2024 г.
  175. ^ Веласко Дж (04 мая 2020 г.). «Научная фантастика: зеркало будущего человечества» . ИДЕИ . Проверено 8 декабря 2023 г.
  176. ^ Ходжес, А. (2014), Алан Тьюринг: Загадка , Винтаж, Лондон, стр. 334
  177. ^ AM Тьюринг (1936). «О вычислимых числах с применением к проблеме Entscheidungs». в Трудах Лондонского математического общества , 2 с. том. 42 (1936–1937), стр. 230–265.
  178. ^ «Любовь, смерть и роботы 2 сезон, краткое содержание 1 серии — «Автоматизированное обслуживание клиентов» » . Готовый устойчивый разрез . 14 мая 2021 г. Архивировано из оригинала 21 декабря 2021 г. Проверено 21 декабря 2021 г.
  179. ^ Кейв, Стивен, Дихал, Канта, Диллон, Сара, ред. (14 февраля 2020 г.). Повествования об искусственном интеллекте: история творческого мышления об интеллектуальных машинах (Первое изд.). Оксфорд: Издательство Оксфордского университета. ISBN  978-0-19-258604-9 . OCLC   1143647559 . Архивировано из оригинала 18 марта 2021 года . Проверено 11 ноября 2020 г.
  180. ^ Джерреат-Пул А (1 февраля 2020 г.). «Больной, медленный, киборг: Crip Futurity в Mass Effect» . Игровые исследования . 20 . ISSN   1604-7982 . Архивировано из оригинала 9 декабря 2020 года . Проверено 11 ноября 2020 г.
  181. ^ « Detroit: Become Human» бросит вызов вашей морали и вашей человечности» . Журнал «Кофе или умри» . 06.08.2018. Архивировано из оригинала 9 декабря 2021 г. Проверено 7 декабря 2021 г.
  182. ^ Серки Д., Уорвик К. (2008), «Перепроектирование человечества: рост киборгов, желаемая цель?» , Философия и дизайн , Дордрехт: Springer Нидерланды, стр. 185–195, doi : 10.1007/978-1-4020-6591-0_14 , ISBN  978-1-4020-6590-3 , заархивировано из оригинала 18 марта 2021 г. , получено 11 ноября 2020 г.
  183. ^ Пещера S, Дихал К. (6 августа 2020 г.). «Белизна ИИ» . Философия и технология . 33 (4): 685–703. дои : 10.1007/s13347-020-00415-6 . S2CID   225466550 .
[ редактировать ]
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 29b0c4a26e82de4e258c5109c292ccab__1722442980
URL1:https://arc.ask3.ru/arc/aa/29/ab/29b0c4a26e82de4e258c5109c292ccab.html
Заголовок, (Title) документа по адресу, URL1:
Ethics of artificial intelligence - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)