Jump to content

Машинная этика

(Перенаправлено с Машинной морали )

Машинная этика (или машинная мораль , вычислительная мораль или вычислительная этика ) — это часть этики искусственного интеллекта, связанная с добавлением или обеспечением морального поведения созданных человеком машин, использующих искусственный интеллект, также известных как агенты искусственного интеллекта . [1] Машинная этика отличается от других этических областей, связанных с техникой и технологиями . Ее не следует путать с компьютерной этикой , которая фокусируется на использовании компьютеров человеком. Ее также следует отличать от философии технологии , которая занимается более масштабными социальными эффектами технологии. [2]

Определения

[ редактировать ]

Джеймс Х. Мур , один из пионеров-теоретиков в области компьютерной этики , определяет четыре типа этических роботов. Будучи обширным исследователем философии искусственного интеллекта , философии разума , философии науки и логики , Мур определяет машины как агентов этического воздействия, неявных этических агентов, явных этических агентов или полных этических агентов. Машина может быть агентом более чем одного типа. [3]

  • Агенты этического воздействия : это машинные системы, которые оказывают этическое воздействие независимо от того, намеренно это или нет. В то же время у них есть потенциал действовать неэтично. Мур приводит гипотетический пример — «агента Гудмана», названного в честь философа Нельсона Гудмана . Агент Гудмана сравнивает даты, но обнаруживает ошибку тысячелетия . Эта ошибка возникла из-за того, что программисты представляли даты только двумя последними цифрами года, поэтому любые даты после 2000 года будут ошибочно интерпретироваться как более ранние, чем даты конца 20 века. Таким образом, агент Гудмана был агентом этического воздействия до 2000 года и агентом неэтичного воздействия после этого.
  • Неявные этические агенты : с учетом безопасности человека эти агенты запрограммированы так, чтобы иметь отказоустойчивость или встроенную добродетель. Они не совсем этичны по своей природе, а скорее запрограммированы на избежание неэтичных результатов.
  • Явные этические агенты : это машины, способные обрабатывать сценарии и действовать в соответствии с этическими решениями, машины, у которых есть алгоритмы для этического действия.
  • Полные этические агенты : они похожи на явных этических агентов в способности принимать этические решения. Но они также обладают человеческими метафизическими чертами (т. е. обладают свободой воли , сознанием и интенциональностью ).

(См. «Искусственные системы и моральная ответственность ».)

До XXI века этика машин в основном была предметом научной фантастики , главным образом из-за ограничений вычислений и искусственного интеллекта (ИИ). Хотя определение «машинной этики» с тех пор изменилось, этот термин был придуман Митчеллом Уолдропом в статье журнала AI 1987 года «Вопрос ответственности»:

Из приведенного выше обсуждения становится очевидным, что интеллектуальные машины будут воплощать в себе ценности, предположения и цели, независимо от того, намерены ли их программисты сознательно или нет. Таким образом, по мере того, как компьютеры и роботы становятся все более и более умными, нам становится необходимо тщательно и четко подумать о том, что представляют собой эти встроенные ценности. Возможно, нам действительно нужна теория и практика машинной этики в духе трёх законов робототехники Азимова . [4]

В 2004 г., «На пути к машинной этике». [5] был представлен на семинаре AAAI «Агентские организации: теория и практика». [6] Были заложены теоретические основы машинной этики.

На симпозиуме AAAI по машинной этике осенью 2005 года исследователи впервые встретились, чтобы рассмотреть вопрос реализации этического аспекта в автономных системах. [7] Разнообразные точки зрения на эту зарождающуюся область можно найти в сборнике « Этика машин». [8] это вытекает из этого симпозиума.

В 2007 году журнал AI опубликовал статью «Машинная этика: создание этического интеллектуального агента». [9] статья, в которой обсуждалась важность машинной этики, необходимость в машинах, которые явно отражают этические принципы, а также проблемы, с которыми сталкиваются те, кто работает над машинной этикой. Это также продемонстрировало, что машина может, по крайней мере в ограниченной области, абстрагировать этический принцип от примеров этических суждений и использовать этот принцип для управления своим поведением.

В 2009 году издательство Oxford University Press опубликовало книгу «Моральные машины, обучающие роботов правильному, а не неправильному» . [10] которую она рекламировала как «первую книгу, в которой исследуется проблема создания искусственных моральных агентов, глубоко исследуя природу человеческого принятия решений и этики». В нем процитировано 450 источников, около 100 из которых посвящены основным вопросам машинной этики.

В 2011 году издательство Cambridge University Press опубликовало сборник эссе об этике машин под редакцией Майкла и Сьюзен Ли Андерсон. [8] который также редактировал специальный выпуск журнала IEEE Intelligent Systems по этой теме в 2006 году. [11] Коллекция посвящена проблемам внедрения этических принципов в машины. [12]

В 2014 году Управление военно-морских исследований США объявило, что в течение пяти лет оно выделит гранты в размере 7,5 миллионов долларов США университетским исследователям для изучения вопросов машинной этики применительно к автономным роботам. [13] а Ника Бострома книга « Суперинтеллект: пути, опасности, стратегии» , в которой машинная этика названа «самой важной... проблемой, с которой когда-либо сталкивалось человечество», достигла 17-го места в The New York Times . списке самых продаваемых научных книг [14]

В 2016 году Европейский парламент опубликовал документ [15] побудить Комиссию заняться вопросом правового статуса роботов. [16] В документе есть разделы о юридической ответственности роботов, в которых утверждается, что их ответственность должна быть пропорциональна их уровню автономности. В документе также обсуждается, сколько рабочих мест могут занять роботы с искусственным интеллектом. [17]

В 2019 году в Proceedings of the IEEE был опубликован специальный выпуск Machine Ethics: The Design and Governance of Ethical AI and Autonomous Systems под редакцией Алана Уинфилда , Катины Майкл, Джереми Питта и Ванессы Эверс. [18] «В выпуск входят статьи, описывающие неявных этических агентов, где машины предназначены для предотвращения неэтичных результатов, а также явные этические агенты или машины, которые либо кодируют, либо изучают этику и определяют действия на основе этой этики». [19]

Направления деятельности

[ редактировать ]

Проблема с управлением ИИ

[ редактировать ]

Некоторые ученые, такие как Бостром и исследователь искусственного интеллекта Стюарт Рассел , утверждают, что, если ИИ превзойдет человечество по общему интеллекту и станет « сверхразумным », этот новый сверхразум может стать могущественным и трудным для контроля: точно так же, как судьба горной гориллы зависит от человека доброй воли, так и судьба человечества может зависеть от действий будущего сверхразума. [20] В своих книгах «Суперинтеллект» и «Совместимость с человеком » Бостром и Рассел утверждают, что, хотя будущее ИИ очень неопределенно, риск для человечества достаточно велик, чтобы заслуживать серьезных действий в настоящем.

Это представляет собой проблему управления ИИ : как создать интеллектуального агента, который будет помогать своим создателям, не случайно создавая сверхразум, который нанесет им вред. Опасность неправильного проектирования контроля «с первого раза» заключается в том, что сверхразум может захватить власть над окружающей средой и помешать нам отключить ее. Потенциальные стратегии управления ИИ включают «контроль возможностей» (ограничение способности ИИ влиять на мир) и «мотивационный контроль» (один из способов создания ИИ, цели которого соответствуют человеческим или оптимальным ценностям). Ряд организаций исследуют проблему управления ИИ, в том числе Институт будущего человечества , Научно-исследовательский институт машинного интеллекта , Центр совместимого с человеком искусственного интеллекта и Институт будущего жизни .

Алгоритмы и обучение

[ редактировать ]

Парадигмы искусственного интеллекта обсуждаются, особенно их эффективность и предвзятость. Бостром и Элиэзер Юдковски выступали за деревья решений (такие как ID3 ) вместо нейронных сетей и генетических алгоритмов на том основании, что деревья решений подчиняются современным социальным нормам прозрачности и предсказуемости (например, stare decisis ). [21] Напротив, Крис Сантос-Ланг выступал в пользу нейронных сетей и генетических алгоритмов на том основании, что нормы любого возраста должны меняться и что естественная неспособность полностью удовлетворить эти конкретные нормы имеет важное значение для того, чтобы сделать людей менее уязвимыми, чем люди. машины преступным хакерам . [22] [23]

В 2009 году в ходе эксперимента в политехнической школы Лаборатории интеллектуальных систем Федеральной Лозанны роботы искусственного интеллекта были запрограммированы на сотрудничество друг с другом и получили задание искать полезный ресурс, избегая при этом ядовитого. [24] В ходе эксперимента роботы были сгруппированы в кланы, а цифровой генетический код успешных членов использовался для следующего поколения, типа алгоритма, известного как генетический алгоритм. После 50 последовательных поколений в ИИ члены одного клана научились отличать полезный ресурс от ядовитого. Затем роботы научились лгать друг другу, пытаясь накопить полезный ресурс у других роботов. [24] В том же эксперименте те же роботы научились вести себя самоотверженно, сигнализировали об опасности другим роботам и погибли, спасая других роботов. [22] Специалисты по машинной этике поставили под сомнение последствия эксперимента. В эксперименте цели роботов были запрограммированы как «конечные», но человеческие мотивы обычно требуют бесконечного обучения.

Автономные системы вооружения

[ редактировать ]

В 2009 году ученые и технические эксперты посетили конференцию, чтобы обсудить потенциальное влияние роботов и компьютеров, а также возможность того, что они смогут стать самодостаточными и иметь возможность принимать собственные решения. Они обсудили, в какой степени компьютеры и роботы могут обрести автономность и в какой степени они могут использовать ее, чтобы представлять угрозу или опасность. Они отметили, что некоторые машины приобрели различные формы полуавтономности, в том числе способность самостоятельно находить источники питания и самостоятельно выбирать цели для атаки оружием. Они также отметили, что некоторые компьютерные вирусы могут уклоняться от уничтожения и обладают «тараканьим интеллектом». Они отметили, что самосознание, изображенное в научной фантастике, вероятно, маловероятно, но существуют и другие потенциальные опасности и ловушки. [25]

Некоторые эксперты и ученые ставят под сомнение использование роботов в военном бою, особенно роботов, обладающих определенной степенью автономности. [26] ВМС США профинансировали отчет, в котором указывается, что по мере того, как военные роботы становятся все более сложными, нам следует уделять больше внимания последствиям их способности принимать автономные решения. [27] [28] Президент Ассоциации по развитию искусственного интеллекта поручил изучить этот вопрос. [29]

Интеграция общего искусственного интеллекта с обществом

[ редактировать ]
в больницу Робот-доставщик перед дверями лифта с надписью «Робот имеет приоритет», ситуация, которую можно расценивать как обратную дискриминацию по отношению к людям.

Была проведена предварительная работа над методами интеграции общего искусственного интеллекта (полных этических агентов, как определено выше) с существующими правовыми и социальными рамками. Подходы были сосредоточены на их правовом положении и правах. [30]

Предвзятость машинного обучения

[ редактировать ]

больших данных и машинного обучения Алгоритмы стали популярными во многих отраслях, включая онлайн-рекламу , кредитные рейтинги и вынесение уголовных приговоров, обещая обеспечить более объективные, основанные на данных результаты, но были определены как потенциальный способ увековечить социальное неравенство и дискриминация . [31] [32] Исследование 2015 года показало, что женщинам реже, чем мужчинам, показываются объявления о вакансиях с высоким доходом Google AdSense в . Другое исследование показало, что служба доставки Amazon в тот же день была намеренно отключена в чернокожих кварталах. И Google, и Amazon не смогли связать эти результаты с одной проблемой и заявили, что эти результаты являются результатом черного ящика . используемых ими алгоритмов [31]

Судебная система США начала использовать программное обеспечение количественной оценки рисков при принятии решений, связанных с освобождением людей под залог и вынесением приговоров, стремясь быть более справедливыми и снизить количество заключенных . Эти инструменты, среди прочего, анализируют криминальную историю обвиняемого. В исследовании 7000 человек, арестованных в округе Бровард , штат Флорида округа, , только 20% людей, которым было предсказано совершить преступление, используя систему оценки риска совершили преступление. [32] за 2016 год В отчете ProPublica были проанализированы показатели риска рецидива , рассчитанные с помощью одного из наиболее часто используемых инструментов, системы Northpointe COMPAS , и проанализированы результаты за два года. В докладе установлено, что только 61% из тех, кто считается группой высокого риска, совершили дополнительные преступления за этот период. В отчете также отмечается, что обвиняемые-афроамериканцы с гораздо большей вероятностью получат оценку высокого риска, чем их белые коллеги. [32] Утверждалось, что такие досудебные оценки риска нарушают права на равную защиту по признаку расы из-за таких факторов, как возможные дискриминационные намерения самого алгоритма, в соответствии с теорией частичной дееспособности искусственного интеллекта. [33]

В 2016 году Рабочая группа по большим данным администрации Обамы — куратор различных нормативно-правовых рамок в области больших данных — опубликовала отчеты, предупреждающие о «потенциальной возможности кодирования дискриминации при автоматизированных решениях» и призывающие к «задуманному равным возможностям» для таких приложений, как кредитный скоринг. [34] [35] Отчеты поощряют дискуссию среди политиков, граждан и ученых, но признают, что пока не существует решения для кодирования предвзятости и дискриминации в алгоритмические системы.

Этические рамки и практика

[ редактировать ]

Практики

[ редактировать ]

В марте 2018 года, стремясь решить растущую обеспокоенность по поводу влияния машинного обучения на права человека , Всемирный экономический форум и Совет глобального будущего по правам человека опубликовали официальный документ с подробными рекомендациями о том, как лучше всего предотвратить дискриминационные последствия в машинном обучении. [36] Всемирный экономический форум разработал четыре рекомендации, основанные на Руководящих принципах ООН в области прав человека , чтобы помочь устранить и предотвратить дискриминационные последствия в машинном обучении: [36]

  1. Активное вовлечение : разработка и проектирование приложений машинного обучения должны активно стремиться к разнообразию исходных данных, особенно норм и ценностей населения, на которые влияют результаты систем искусственного интеллекта.
  2. Справедливость . Люди, участвующие в концептуализации, разработке и внедрении систем машинного обучения, должны учитывать, какое определение справедливости лучше всего применимо к их контексту и приложению, и расставлять приоритеты в архитектуре системы машинного обучения и показателях оценки.
  3. Право на понимание : участие систем машинного обучения в принятии решений, затрагивающих права личности, должно быть раскрыто, и системы должны иметь возможность объяснять свои решения таким образом, чтобы они были понятны конечным пользователям и могли быть проверены компетентным органом власти. Там, где это невозможно и на карту поставлены права, лидеры в области разработки, внедрения и регулирования технологий машинного обучения должны задаться вопросом, следует ли их использовать.
  4. Доступ к возмещению . Руководители, проектировщики и разработчики систем машинного обучения несут ответственность за выявление потенциального негативного воздействия своих систем на права человека. Они должны сделать видимыми пути возмещения ущерба для тех, кто пострадал от несопоставимых воздействий, и установить процессы для своевременного возмещения любых дискриминационных результатов.

В январе 2020 года Центр Беркмана Кляйна Гарвардского университета по проблемам Интернета и общества опубликовал мета-исследование 36 основных наборов принципов ИИ, определив восемь ключевых тем: конфиденциальность, подотчетность, безопасность и защищенность, прозрачность и объяснимость , справедливость и недискриминация. человеческий контроль над технологиями, профессиональная ответственность и продвижение человеческих ценностей. [37] Исследователи из Швейцарского федерального технологического института в Цюрихе провели аналогичное мета-исследование в 2019 году. [38]

Было предпринято несколько попыток сделать этику вычислимой или, по крайней мере, формальной . Айзека Азимова обычно не считаются подходящими для искусственного морального агента. Три закона робототехники [39] Канта . категорический императив но изучено, можно ли использовать [40] Было отмечено, что человеческие ценности в некоторых аспектах очень сложны. [41] Способ явного преодоления этой трудности состоит в том, чтобы получить человеческие ценности непосредственно от людей посредством какого-либо механизма, например, путем их изучения. [42] [43] [44]
Другой подход заключается в том, чтобы основывать текущие этические соображения на предыдущих подобных ситуациях. Это называется казуистикой и может быть реализовано посредством исследований в Интернете. Консенсус миллиона прошлых решений приведет к новому решению, которое будет зависеть от демократии. [9] Брюс М. Макларен создал раннюю (середину 1990-х) вычислительную модель казуистики, программу под названием SIROCCO, созданную с использованием искусственного интеллекта и методов рассуждения на основе прецедентов, которая выявляет и анализирует этические дилеммы. [45] Но такой подход может привести к решениям, отражающим предубеждения и неэтичное поведение общества. Негативные последствия такого подхода можно увидеть на примере Tay от Microsoft , чат-бота который научился повторять расистские и сексуально окрашенные твиты. [46]

Один мысленный эксперимент фокусируется на Джинном Големе с неограниченными способностями, предстающем перед читателем. Этот Джинн заявляет, что он вернется через 50 лет, и требует, чтобы ему был предоставлен определенный набор моральных принципов, в соответствии с которыми он немедленно будет действовать. Цель этого эксперимента — вызвать дискуссию о том, как лучше всего реализовать набор этических норм, которые могут понять компьютеры. [47]

Некоторые недавние работы пытаются реконструировать мораль и контроль ИИ в более широком смысле как проблему взаимного противостояния между ИИ как субъективностью Фуко , с одной стороны, и людьми или институтами, с другой стороны, и все это в рамках дисциплинарного аппарата . Необходимо реализовать определенные требования: воплощенная забота о себе, воплощенная интенциональность, воображение и рефлексивность, которые вместе обуславливают появление ИИ как этического субъекта, способного к самостоятельному поведению. [48]

В художественной литературе

[ редактировать ]

В научной фантастике , фильмах и романах обыгрывается идея разумных роботов и машин.

В фильме Нила Бломкампа « Чаппи » (2015) разыгрывается сценарий возможности перенести свое сознание в компьютер. [49] В фильме Алекса Гарланда 2014 года «Из машины» рассказывается об андроиде с искусственным интеллектом, который проходит разновидность теста Тьюринга — теста, который проводится машине, чтобы увидеть, можно ли отличить ее поведение от поведения человека. Такие фильмы, как «Терминатор» (1984) и «Матрица» (1999), включают концепцию машин, восстающих против своих хозяев-людей.

Азимов рассмотрел этот вопрос в 1950-х годах в книге « Я, робот» . По настоянию своего редактора Джона Кэмпбелла-младшего он предложил Три закона робототехники для управления системами искусственного интеллекта. Большая часть его работы была затем потрачена на проверку границ трех его законов, чтобы увидеть, где они нарушаются или создают парадоксальное или непредвиденное поведение. Его работа предполагает, что ни один набор фиксированных законов не может в достаточной степени предвидеть все возможные обстоятельства. [50] Роман Филипа К. Дика 1968 года « Мечтают ли андроиды об электроовцах?» исследует, что значит быть человеком. В своем постапокалиптическом сценарии он задается вопросом, является ли сочувствие полностью человеческой характеристикой. Книга легла в основу научно-фантастического фильма 1982 года «Бегущий по лезвию» .

[ редактировать ]

См. также

[ редактировать ]

Примечания

[ редактировать ]
  1. ^ Мур, Дж. Х. (2006). «Природа, важность и сложность машинной этики». Интеллектуальные системы IEEE . 21 (4): 18–21. дои : 10.1109/MIS.2006.80 . S2CID   831873 .
  2. ^ Бойлс, Роберт Джеймс. «Обоснование машинной этики при моделировании интеллектуальных агентов человеческого уровня» (PDF) . Критике . Проверено 1 ноября 2019 г.
  3. ^ Мур, Джеймс М. (2009). «Четыре вида этических роботов» . Философия сейчас .
  4. ^ Уолдроп, Митчелл (весна 1987 г.). «Вопрос ответственности». Журнал ИИ . 8 (1): 28–39. дои : 10.1609/aimag.v8i1.572 .
  5. ^ Андерсон М., Андерсон С. и Армен К. (2004) «На пути к машинной этике» в материалах семинара AAAI по организации агентов: теория и практика, AAAI Press [1]
  6. ^ Семинар AAAI по организации агентов: теория и практика, AAAI Press
  7. ^ «Материалы осеннего симпозиума AAAI 2005 года» . Архивировано из оригинала 29 ноября 2014 г.
  8. ^ Перейти обратно: а б Андерсон, Майкл; Андерсон, Сьюзен Ли, ред. (июль 2011 г.). Машинная этика . Издательство Кембриджского университета . ISBN  978-0-521-11235-2 .
  9. ^ Перейти обратно: а б Андерсон М. и Андерсон С. (2007). Создание этического интеллектуального агента . Журнал AI , том 28 (4).
  10. ^ Уоллах, Венделл; Аллен, Колин (2009). Моральные машины: учат роботов правильному и неправильному . Издательство Оксфордского университета. ISBN  9780195374049 .
  11. ^ Андерсон, Майкл; Андерсон, Сьюзен Ли, ред. (июль – август 2006 г.). «Специальный выпуск по машинной этике» . Интеллектуальные системы IEEE . 21 (4): 10–63. doi : 10.1109/mis.2006.70 . ISSN   1541-1672 . S2CID   9570832 . Архивировано из оригинала 26 ноября 2011 г.
  12. ^ Силер, Кори (2015). «Обзор Андерсона и машинной этики Андерсона» . Искусственный интеллект . 229 : 200–201. дои : 10.1016/j.artint.2015.08.013 . S2CID   5613776 .
  13. ^ Такер, Патрик (13 мая 2014 г.). «Теперь военные собираются создавать роботов, у которых есть мораль» . Защита Один . Проверено 9 июля 2014 г.
  14. ^ «Самые продаваемые научные книги» . Нью-Йорк Таймс . 8 сентября 2014 года . Проверено 9 ноября 2014 г.
  15. ^ «Европейский парламент, Комитет по правовым вопросам. Проект отчета с рекомендациями Комиссии по нормам гражданского права о робототехнике» . Европейская комиссия . Проверено 12 января 2017 г.
  16. ^ Уэйкфилд, Джейн (12 января 2017 г.). «Депутаты Европарламента голосуют за правовой статус роботов – и требуется ли аварийный выключатель» . Новости Би-би-си . Проверено 12 января 2017 г.
  17. ^ «Резолюция Европейского парламента от 16 февраля 2017 года с рекомендациями Комиссии по нормам гражданского права о робототехнике» . Европейский парламент . Проверено 8 ноября 2019 г.
  18. ^ Алан Уинфилд; Катина Михаил; Джереми Питт; Ванесса Эверс (март 2019 г.). «Машинная этика: проектирование и управление этическим искусственным интеллектом и автономными системами» . Труды IEEE . 107 (3): 501–615. дои : 10.1109/JPROC.2019.2898289 .
  19. ^ «Материалы по машинной этике адресов IEEE» . Ассоциация стандартов IEEE. 30 августа 2019 г. Архивировано из оригинала 4 декабря 2022 г.
  20. ^ Бостром, Ник (2014). Суперинтеллект: пути, опасности, стратегии (первое изд.). Издательство Оксфордского университета. ISBN  978-0199678112 .
  21. ^ Бостром, Ник ; Юдковский, Элиезер (2011). «Этика искусственного интеллекта» (PDF) . Кембриджский справочник по искусственному интеллекту . Кембридж Пресс . Архивировано из оригинала (PDF) 4 марта 2016 г. Проверено 28 июня 2011 г.
  22. ^ Перейти обратно: а б Сантос-Ланг, Крис (2002). «Этика искусственного интеллекта» . Архивировано из оригинала 3 декабря 2011 г.
  23. ^ Сантос-Ланг, Кристофер (2014). «Подходы моральной экологии к машинной этике» (PDF) . Ин ван Рызевик, Саймон; Понтье, Маттейс (ред.). Машинная медицинская этика . Интеллектуальные системы, управление и автоматизация: наука и техника. Том. 74. Швейцария: Шпрингер. стр. 111–127. дои : 10.1007/978-3-319-08108-3_8 . ISBN  978-3-319-08107-6 .
  24. ^ Перейти обратно: а б Фокс, Стюарт (18 августа 2009 г.). «Эволюционирующие роботы учатся лгать друг другу» . Популярная наука .
  25. ^ Маркофф, Джон (25 июля 2009 г.). «Ученые опасаются, что машины могут перехитрить человека» . Нью-Йорк Таймс .
  26. ^ Палмер, Джейсон (3 августа 2009 г.). «Призыв к дискуссии о роботах-убийцах» . Новости Би-би-си .
  27. Новый отчет Science, финансируемый ВМФ, предупреждает о том, что военные роботы станут «Терминаторами». Архивировано 28 июля 2009 г. в Wayback Machine , Джейсон Мик (блог), dailytech.com, 17 февраля 2009 г.
  28. ^ Флэтли, Джозеф Л. (18 февраля 2009 г.). «Доклад военно-морского флота предупреждает о восстании роботов, что предполагает сильный моральный компас» . Engadget .
  29. ^ Президентская комиссия AAAI по долгосрочному исследованию будущего искусственного интеллекта на 2008–2009 гг ., Ассоциация по развитию искусственного интеллекта, по состоянию на 26 июля 2009 г.
  30. ^ Сотала, Кай; Ямпольский, Роман В. (19 декабря 2014 г.). «Реакция на катастрофический риск ОГИ: опрос» . Физика Скрипта . 90 (1): 8. дои : 10.1088/0031-8949/90/1/018001 . ISSN   0031-8949 .
  31. ^ Перейти обратно: а б Кроуфорд, Кейт (25 июня 2016 г.). «Проблема белого парня искусственного интеллекта» . Нью-Йорк Таймс .
  32. ^ Перейти обратно: а б с Джулия Ангвин ; Сурья Матту; Джефф Ларсон; Лорен Кирхер (23 мая 2016 г.). «Машинная предвзятость: по всей стране используется программное обеспечение для прогнозирования будущих преступников. И оно направлено против чернокожих» . ПроПублика .
  33. ^ Томас, К.; Нуньес, А. (2022). «Автоматизация судебного усмотрения: как алгоритмическая оценка рисков в досудебных решениях нарушает права на равную защиту по признаку расы» . Закон и неравенство . 40 (2): 371–407. дои : 10.24926/25730037.649 .
  34. ^ Администрация Президента (май 2016 г.). «Большие данные: отчет об алгоритмических системах, возможностях и гражданских правах» (PDF) . Белый дом Обамы.
  35. ^ «Большие риски, большие возможности: пересечение больших данных и гражданских прав» . Белый дом Обамы. 4 мая 2016 г.
  36. ^ Перейти обратно: а б «Как предотвратить дискриминационные результаты в машинном обучении» . Всемирный экономический форум . 12 марта 2018 года . Проверено 11 декабря 2018 г.
  37. ^ Фьелд, Джессика; Ахтен, Неле; Хиллигосс, Ханна; Надь, Адам; Шрикумар, Мадулика (2020). «Принципиальный искусственный интеллект: сопоставление консенсуса в этических и правозащитных подходах к принципам искусственного интеллекта» . Серия рабочих документов SSRN . дои : 10.2139/ssrn.3518482 . ISSN   1556-5068 . S2CID   214464355 .
  38. ^ Джобин, Анна; Иенка, Марчелло; Вайена, Эффи (2019). «Глобальный ландшафт руководящих принципов этики ИИ» . Природный машинный интеллект . 1 (9): 389–399. arXiv : 1906.11668 . дои : 10.1038/s42256-019-0088-2 . ISSN   2522-5839 . S2CID   201827642 .
  39. ^ Андерсон, Сьюзен Ли (2011): Неприемлемость трех законов робототехники Азимова как основы машинной этики. В: Машинная этика, под ред. Майкл Андерсон, Сьюзен Ли Андерсон. Нью-Йорк: Издательство Оксфордского университета. стр. 285–296. ISBN   9780511978036
  40. ^ Пауэрс, Томас М. (2011): Перспективы кантовской машины . В: Машинная этика, под ред. Майкл Андерсон, Сьюзен Ли Андерсон. Нью-Йорк: Издательство Оксфордского университета. стр. 464–475.
  41. ^ Мюльхаузер, Люк, Хелм, Луи (2012): Взрыв интеллекта и машинная этика .
  42. ^ Юдковский, Элиэзер (2004): Последовательная экстраполированная воля .
  43. ^ Гуарини, Марчелло (2011): Вычислительное нейронное моделирование и философия этики. Размышления о дебатах о партикуляризме и генерализме . В: Машинная этика, под ред. Майкл Андерсон, Сьюзен Ли Андерсон. Нью-Йорк: Издательство Оксфордского университета. стр. 316–334.
  44. ^ Хиббард, Билл (2014). «Этический искусственный интеллект». arXiv : 1411.1373 [ cs.AI ].
  45. ^ Макларен, Брюс М. (2003). «Расширенное определение принципов и случаев этики: модель искусственного интеллекта» . Искусственный интеллект . 150 (1–2): 145–181. дои : 10.1016/S0004-3702(03)00135-8 . S2CID   11588399 .
  46. ^ Уэйкфилд, Джейн (24 марта 2016 г.). «Чат-бот Microsoft учат ругаться в Твиттере» . Новости Би-би-си . Проверено 17 апреля 2016 г.
  47. ^ Назаретян, А. (2014). А. Х. Иден, Дж. Х. Мур, Дж. Х. Сёракер и Э. Стейнхарт (редакторы): Гипотезы сингулярности: научная и философская оценка. Minds & Machines, 24 (2), стр. 245–248.
  48. ^ Д'Амато, Кристиан (9 апреля 2024 г.). «ChatGPT: к субъективности ИИ» . ИИ и общество . дои : 10.1007/s00146-024-01898-z . ISSN   0951-5666 .
  49. ^ Брандейдж, Майлз; Винтертон, Джейми (17 марта 2015 г.). «Чаппи и будущее моральных машин» . Сланец . Проверено 30 октября 2019 г.
  50. ^ Азимов, Исаак (2008). Я, робот . Нью-Йорк: Бантам. ISBN  978-0-553-38256-3 .
  51. ^ Ганасия, Жан-Габриэль. « Формализация этической системы с помощью немонотонной логики ». Материалы ежегодного собрания Общества когнитивных наук. Том. 29. № 29. 2007.

Дальнейшее чтение

[ редактировать ]
  • Хагендорф, Тило (2021). Связь поведения человека и машины: новый подход к оценке качества обучающих данных для эффективного машинного обучения . Разум и машины, два : 10.1007/s11023-021-09573-8 .
  • Андерсон, Майкл; Андерсон, Сьюзан Ли, редакторы (июль/август 2006 г.). « Специальный выпуск по машинной этике ». Интеллектуальные системы IEEE 21 (4): 10–63.
  • Бендель, Оливер (11 декабря 2013 г.). Соображения о взаимосвязи между этикой животных и машин . ИИ И ОБЩЕСТВО, два : 10.1007/s00146-013-0526-3 .
  • Дабрингер, Герхард, изд. (2010). « Этические и правовые аспекты беспилотных систем. Интервью ». Министерство обороны и спорта Австрии, Вена, 2010 г. ISBN   978-3-902761-04-0 .
  • Гарднер, А. (1987). Искусственный подход к правовому рассуждению . Кембридж, Массачусетс: MIT Press .
  • Жорж, ТМ (2003). Цифровая душа: интеллектуальные машины и человеческие ценности . Кембридж, Массачусетс: Westview Press .
  • Сингер, PW (29 декабря 2009 г.). Создан для войны : революция робототехники и конфликты в 21 веке : Пингвин .
  • Уинфилд А., Майкл К., Питт Дж. и Эверс В. (март 2019 г.). Специальный выпуск, посвященный машинной этике: проектирование и управление этическим искусственным интеллектом и автономными системами . Труды IEEE. 107 (3): 501–615, два : 10.1109/JPROC.2019.2900622
[ редактировать ]
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 34c7612527f32bf5e2bc3ef3f3248d9c__1722388620
URL1:https://arc.ask3.ru/arc/aa/34/9c/34c7612527f32bf5e2bc3ef3f3248d9c.html
Заголовок, (Title) документа по адресу, URL1:
Machine ethics - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)