Этика роботов
В этой статье есть несколько проблем. Пожалуйста, помогите улучшить его или обсудите эти проблемы на странице обсуждения . ( Узнайте, как и когда удалять эти шаблонные сообщения )
|
Этика роботов , иногда известная как « робоэтика », касается этических проблем, возникающих с роботами, например, представляют ли роботы угрозу для людей в долгосрочной или краткосрочной перспективе, являются ли некоторые виды использования роботов проблематичными (например, в здравоохранении или в качестве « убийц »). роботы «на войне») и то, как роботы должны быть спроектированы так, чтобы они действовали «этично» (последняя проблема также называется машинной этикой ). Альтернативно, роботоэтика относится конкретно к этике поведения человека по отношению к роботам, поскольку роботы становятся все более продвинутыми. [1] Этика роботов — это подобласть этики технологий, в частности информационных технологий, и она тесно связана с правовыми, а также социально-экономическими проблемами. Исследователи из разных областей начинают решать этические вопросы создания роботизированных технологий и их внедрения в обществе таким образом, чтобы обеспечить безопасность человечества. [2]
Хотя эти проблемы так же стары, как слово «робот» , серьезные академические дискуссии начались примерно в 2000 году. Этика роботов требует совместной работы экспертов нескольких дисциплин, которые должны адаптировать законы и правила к проблемам, возникающим в результате научных и технологических достижений в мире. Робототехника и искусственный интеллект. Основными областями, вовлеченными в этику роботов, являются: робототехника , информатика , искусственный интеллект , философия , этика , теология , биология , физиология , когнитивная наука , нейронауки , право , социология , психология и промышленный дизайн . [3]
История и события
[ редактировать ]Этот раздел , возможно, придется переписать, Википедии чтобы он соответствовал стандартам качества , поскольку следует удалить лишний или анекдотический контент, внешние ссылки следует заменить отсылками, а длинный список событий может быть не лучшим способом помочь зрителям понять суть происходящего. история этики роботов. ( февраль 2024 г. ) |
Законы робототехники |
---|
Айзек Азимов |
Связанные темы |
Некоторые из центральных обсуждений этики в отношении обращения с нечеловеческими или небиологическими вещами и их потенциальной «духовностью». Другая центральная тема связана с разработкой машин и, в конечном итоге, роботов. Эта философия также применялась к робототехнике. Одной из первых публикаций, непосредственно затрагивающих и закладывающих основы этики роботов, был «Обход» (рассказ) , научно-фантастический рассказ, написанный Айзеком Азимовым в 1942 году, в котором были представлены его хорошо известные «Три закона робототехники» . Эти три закона постоянно изменялись Азимовым, и в конечном итоге в контексте его научно-фантастических произведений перед первыми тремя был добавлен четвертый, или нулевой закон. Кратковременный термин «робоэтика», скорее всего, был придуман Джанмарко Веруджио. [4]
Важным событием, которое вызвало интерес к роботоэтике, стал Первый международный симпозиум по роботоэтике в 2004 году, организованный совместными усилиями Scuola di Robotica, Лаборатории искусств Scuola Superiore Sant'Anna, Пиза, и Теологического института Папской академии Санта-Кроче. Рим. [5] Этот симпозиум по робототехнике был проведен благодаря деятельности школы робототехники, которая является некоммерческой организацией и призвана способствовать распространению знаний о робототехнике среди студентов и широкой общественности. В беседах со студентами и неспециалистами Джанмарко Веруджио и Фиорелла Оперто считали, что необходимо распространять среди широкой общественности правильные представления о предполагаемых опасностях робототехники. Они считали, что продуктивные дебаты, основанные на точных взглядах и реальных знаниях, могут подтолкнуть людей к активному участию в формировании общественного мнения, заставить их осознать позитивное использование новой технологии и предотвратить злоупотребление ею. После двух дней интенсивных дебатов антрополог Даниэла Серки выделила три основные этические позиции, возникшие в результате двухдневных интенсивных дебатов:
- Те, кого не интересует этика. Они считают, что их действия носят исключительно технический характер, и не считают, что несут социальную или моральную ответственность за свою работу.
- Те, кого интересуют краткосрочные этические вопросы. Согласно этому профилю, вопросы выражаются в терминах «хорошо» или «плохо» и относятся к некоторым культурным ценностям. Например, они считают, что роботы должны придерживаться социальных условностей. Это будет включать в себя «уважение» и помощь людям в различных областях, таких как исполнение законов или помощь пожилым людям. (Такие соображения важны, но мы должны помнить, что ценности, используемые для определения «плохого» и «хорошего», относительны. Это современные ценности промышленно развитых стран).
- Те, кто думает с точки зрения долгосрочных этических вопросов, например, о «цифровом разрыве» между Югом и Севером или молодежью и пожилыми людьми. Они осознают разрыв между промышленно развитыми и бедными странами и задаются вопросом, не следует ли первым изменить свой подход к развитию робототехники, чтобы принести больше пользы Югу. Они не формулируют явно вопрос «зачем», но можно считать, что он неявный». [6]
Это некоторые важные события и проекты в области этики роботов. О дальнейших мероприятиях в этой области объявляет тематическая группа euRobotics ELS и RoboHub :
- 1942: Азимова В рассказе « Обход » впервые прямо излагаются его Три закона. Эти «Законы» будут повторно использованы в более поздних научно-фантастических произведениях Азимова, связанных с роботами.
- 2004: Первый международный симпозиум по роботоэтике , организованный Школой робототехники , где слово «Робоэтика» официально используется впервые (30–31 января 2004 г., Вилла Нобель, Сан-Ремо , Италия ).
- 2004: IEEE-RAS учреждает Технический комитет по роботоэтике. Архивировано 2 сентября 2006 г. в Wayback Machine .
- 2004 г.: Всемирная декларация роботов в Фукуоке (25 февраля 2004 г., Фукуока , Япония ). [7]
- 2005: ТК IEEE РАН по роботоэтике организует ICRA05 (Международную конференцию по робототехнике и автоматизации), семинар по роботоэтике (18 апреля 2005 г., Барселона , Испания ).
- 2005–2006: Ателье роботоэтики EC Euron . В проекте Euron , координируемом Школой робототехники , участвовало большое количество робототехников и ученых-гуманитариев, которые подготовили первую дорожную карту по роботоэтике (февраль/март 2006 г., Генуя , Италия ).
- 2006: BioRob2006 , первая Международная конференция IEEE/RAS-EMBS по биомедицинской робототехнике и биомехатронике; Мини-симпозиум по Робоэтике (20 февраля 2006 г., Пиза , Италия ).
- 2006: Международный семинар «Этика взаимодействия человека с роботизированными, бионическими и искусственными системами: концепции и политика» ; при поддержке Европейского проекта ETHICBOTS (17–18 октября 2006 г., Неаполь , Италия ).
- 2007: ТК IEEE РАН по роботоэтике организует очередной семинар по роботоэтике ICRA07 ( Международная конференция по робототехнике и автоматизации) (14 апреля 2007 г., Рим , Италия ).
- 2007: ICAIL'07. Архивировано 3 июня 2008 г. на Wayback Machine , Международной конференции по искусственному интеллекту и праву (4–8 июня 2007 г., Стэнфордский университет , Пало-Альто , Калифорния , США ).
- 2007: Международная европейская конференция по вычислительной технике и философии E-CAP '07. Архивировано 1 июля 2010 г. в Wayback Machine , трек: «робоэтика» (21–23 июня 2007 г., Университет Твенте , Нидерланды ).
- 2007: Философское исследование компьютерной этики CEPE '07 , тема: «Робоэтика» (12–14 июля 2007 г., Университет Сан-Диего , Калифорния , США ).
- 2008: МЕЖДУНАРОДНЫЙ СИМПОЗИУМ РОБОТОТЕХНИКА: НОВАЯ НАУКА (20 февраля 2008 г., Via della Lungara 10, Рим , Италия ).
- 2009: ТК IEEE РАН по роботоэтике организует очередной семинар по роботоэтике , ICRA09 (Международная конференция по робототехнике и автоматизации), (17 мая 2009 г., Кобе , Япония ).
- 2012: We Robot 2012 ( Университет Майами , Флорида , США ).
- 2013: Семинар по этике роботов (февраль 2013, Университет Шеффилда , Южный Йоркшир , Англия ).
- 2013: We Robot 2013 — Приступаем к делу ( Стэнфордский университет , Пало-Альто , Калифорния , США ).
- 2014: We Robot 2014 — Риски и возможности ( Университет Майами , Флорида , США ).
- 2016: Этические и моральные соображения в отношении нечеловеческих агентов, Стэнфордский весенний симпозиум, Ассоциация AAAI по развитию искусственного интеллекта [1] . Архивировано 27 марта 2016 г. в Wayback Machine ( Стэнфордский университет , Пало-Альто , Калифорния , США ).
- 2017: Саммит будущих инвестиций в Эр-Рияде ; робот (по имени София и упоминаемый женскими местоимениями) получает гражданство Саудовской Аравии , став первым роботом, когда-либо имевшим гражданство. [8] [9] Это вызывает разногласия из-за неясности некоторых вопросов, например, может ли София голосовать или выходить замуж, или следует ли считать преднамеренное отключение системы убийством. Кроме того, сопоставление прав, предоставленных саудовским женщинам, с тем, что Саудовская Аравия считает робота гражданином, вскоре вызовет критику со стороны нескольких поставщиков новостей. [10] [11] (25 октября 2017 г., Эр-Рияд , Саудовская Аравия).
- 2017: Европейский парламент принял адресованную Европейской комиссии резолюцию о нормах гражданского права в отношении робототехники. [12]
- 2017: Институт AI Now (AI Now) при Нью-Йоркском университете Создан , исследовательский институт, изучающий социальные последствия искусственного интеллекта (15 ноября 2017 г., Нью-Йорк , штат Нью-Йорк , США ).
- 2020: Создание Нечеловеческой партии за права роботов, животных и более широкой нечеловеческой среды. [13]
- 2021: We Robot 2021 (23 сентября 2021 г., Университет Майами , Флорида , США )
- 2021: Семинар IROS 2021 – Создание и оценка этических роботизированных систем
Ученый-компьютерщик Вирджиния Дигнум в мартовском выпуске журнала «Этика и информационные технологии» за 2018 год отметила , что общее отношение общества к искусственному интеллекту (ИИ) в современную эпоху сместилось от рассмотрения ИИ как инструмента к рассмотрению его как интеллектуальной «команды». -приятель". В той же статье она оценила, что в отношении ИИ у этических мыслителей есть три цели, каждая из которых, по ее мнению, может быть достигнута в современную эпоху при тщательном обдумывании и реализации. [14] [15] [16] [17] [18] Три этические цели заключаются в следующем:
- Этика замысла (техническая/алгоритмическая интеграция возможностей этического рассуждения как часть поведения искусственной автономной системы — см. «Этика машин »);
- Этика в дизайне (нормативные и инженерные методы, которые поддерживают анализ и оценку этических последствий систем ИИ, поскольку они интегрируют или заменяют традиционные социальные структуры); и
- Этика проектирования (кодексы поведения, стандарты и процессы сертификации, которые обеспечивают добросовестность разработчиков и пользователей в процессе исследования, проектирования, конструирования, использования и управления системами искусственного интеллекта — см. раздел «Этика и право роботов» ниже). [19]
В популярной культуре
[ редактировать ]Робоэтика как научная или философская тема стала распространенной темой в научно-фантастической литературе и фильмах. Одним из фильмов, который, как можно утверждать, укоренился в поп-культуре и изображает антиутопическое будущее использования роботизированного ИИ, является «Матрица» , изображающая будущее, в котором люди и сознательный разумный ИИ борются за контроль над планетой Земля, что приводит к уничтожению большей части человечества. . Анимационный фильм, основанный на «Матрице» , « Аниматрикс» , в значительной степени сосредоточен на потенциальных этических проблемах и неуверенности в отношениях между людьми и роботами. Фильм разбит на короткие рассказы. Анимационные короткометражки Animatrix также названы в честь вымышленных рассказов Айзека Азимова.
Другой аспект роботоэтики касается обращения людей с роботами и рассматривается в многочисленных фильмах и телешоу. Одним из таких примеров является Star Trek: The Next Generation является человекоподобный андроид по имени Дейта , в котором одним из главных героев . По большей части ему доверяют ответственную работу, но его способность приспособиться к другим живым существам часто подвергается сомнению. [20] Совсем недавно в фильме «Из машины» и телешоу «Мир Дикого Запада» эти этические вопросы были рассмотрены совершенно напрямую, изображая гиперреалистичных роботов, к которым люди относятся как к несущественному товару. [21] [22] Вопросы, связанные с обращением с искусственными существами, также были ключевым компонентом франшизы «Бегущий по лезвию» на протяжении более 50 лет. [23] Такие фильмы, как «Она», еще больше усовершенствовали человеческие отношения с роботами, убрав физический аспект и сосредоточив внимание на эмоциях.
Хотя этическое поведение самих роботов и не является частью роботоэтики как таковой , оно также является объединяющим вопросом роботоэтики в массовой культуре. Серия «Терминатор» посвящена роботам, управляемым сознательной программой искусственного интеллекта, которая не имеет ограничений в уничтожении своих врагов. Этот сериал также имеет тот же архетип, что и сериал «Матрица» , где управление взяли на себя роботы. Еще один известный пример поп-культуры роботов или искусственного интеллекта без запрограммированной этики и морали — это HAL 9000 из серии «Космическая одиссея» , где HAL (компьютер с расширенными возможностями искусственного интеллекта, который контролирует и помогает людям на космической станции) убивает всех людей на борту, чтобы гарантировать успех порученной миссии после того, как его собственная жизнь окажется под угрозой. [24]
Роботы-убийцы
[ редактировать ]Летальные автономные системы вооружения (LAWS), которые часто называют «роботами-убийцами», теоретически способны целиться и стрелять без надзора и вмешательства человека. В 2014 году Конвенция по обычному оружию (КОО) провела два заседания. Первым было Совещание экспертов по смертоносным автономным системам вооружения (LAWS). Эта встреча была посвящена специальному мандату по ЗАКОНАМ и вызвала бурную дискуссию. [25] Национальные делегации и многие неправительственные организации (НПО) высказали свое мнение по этому поводу.
Многочисленные НПО и некоторые государства, такие как Пакистан и Куба, призывают к превентивному запрету ЗАКОНОВ. Они предложили свои мнения, основанные на деонтологических и консеквенциалистских рассуждениях. С деонтологической точки зрения некоторые философы, такие как Питер Асаро и Роберт Воробей, большинство неправительственных организаций и Ватикан утверждают, что предоставление слишком больших прав машинам нарушает человеческое достоинство и что люди имеют «право не быть убитыми машиной». В поддержку своей точки зрения они неоднократно цитируют оговорку Мартенса .
В конце этой встречи самым важным консеквенциалистским возражением было то, что ЗАКОНЫ никогда не смогут уважать международное гуманитарное право (МГП), как считали НПО, многие исследователи и несколько государств ( Пакистан , Австрия , Египет , Мексика ).
По мнению Международного комитета Красного Креста (МККК), «нет сомнений в том, что разработка и использование автономных систем вооружения в вооруженном конфликте регулируются международным гуманитарным правом». [26] Государства признают это: те, кто участвовал в первом совещании экспертов ООН в мае 2014 года, признали уважение МГП важнейшим условием реализации ЗАКОНОВ. Имея различные прогнозы, некоторые государства полагают, что LAWS не смогут соответствовать этому критерию, в то время как другие подчеркивают сложность вынесения решения на данном этапе, не зная будущих возможностей оружия ( Япония , Австралия ). Все в равной степени настаивают на предварительной проверке соответствия систем МГП до их ввода в эксплуатацию в соответствии со статьей первого дополнительного протокола к Женевским конвенциям.
Степень человеческого контроля
[ редактировать ]Три классификации степени контроля человека над автономными системами вооружения были изложены Бонни Дочерти в отчете Хьюман Райтс Вотч за 2012 год . [27]
- «человек в цикле» : человек должен инициировать действие оружия (другими словами, не полностью автономно)
- «человек в цикле»: человек может прервать действие
- человек вне цикла: никакие человеческие действия не участвуют
Секс-роботы
[ редактировать ]В 2015 году была запущена Кампания против секс-роботов (CASR), призванная привлечь внимание к сексуальным отношениям людей с машинами. Кампания утверждает, что секс-роботы потенциально вредны и будут способствовать неравенству в обществе, и что необходимы организованный подход и этический ответ против разработки секс-роботов. [28]
В статье « Должны ли мы проводить кампанию против секс-роботов?» В опубликованном MIT Press исследователи указали на некоторые недостатки этой кампании и не поддержали полный запрет секс-роботов. Во-первых, они утверждали, что конкретные утверждения, выдвинутые CASR, были «неубедительными», отчасти из-за отсутствия ясности относительно целей кампании, а отчасти из-за существенных недостатков в основных этических возражениях, выдвинутых основателями кампании. Во-вторых, они утверждали, что будет очень сложно поддержать общую кампанию против секс-роботов, если не придерживаться крайне консервативного подхода к этике секса. Опираясь на пример кампании по остановке роботов-убийц, они пришли к выводу, что у секс-роботов нет никаких изначально плохих свойств, которые вызывали бы столь же серьезную обеспокоенность, а вред, причиняемый секс-роботами, является спекулятивным и косвенным. Тем не менее, в статье признается, что существуют обоснованные опасения по поводу разработки секс-роботов. [29]
Закон
[ редактировать ]Учитывая, что современные технологические проблемы возникают по мере развития общества, одной из тем, требующих тщательного размышления, является этика роботов в отношении закона. Ученые обсуждают, как правительство могло бы создать законодательство с учетом этики и права роботов. Этими вопросами задаются двое ученых: профессор права Нил М. Ричардс на юридическом факультете Вашингтонского университета , а также доцент кафедры компьютерных наук Уильям Д. Смарт в инженерной школе Маккелви . В своей статье «Как роботы должны думать о законе» они выдвигают четыре основных утверждения, касающихся этики и права роботов. [30] В основе их аргументов лежит определение робота как «небиологических автономных агентов, которые, по нашему мнению, отражают суть регуляторных и технологических проблем, с которыми сталкиваются роботы, и которые могли бы с пользой стать основой регулирования». Во-вторых, пара исследует будущие расширенные возможности роботов примерно через десятилетия. Их третье утверждение утверждает связь между правовыми вопросами, этикой роботов и юридическим опытом, с юридическим опытом киберправа. Это означает, что законы об этике роботов могут ориентироваться на киберзаконы. «Урок», извлеченный из киберправа, заключается в важности метафор, под которыми мы понимаем возникающие проблемы в сфере технологий. Это основано на том, что если мы, например, неправильно воспользуемся метафорой, то законодательство, касающееся возникающей технологической проблемы, скорее всего, будет неправильным. Четвертое утверждение, против которого они выступают, — это метафора, которую пара определяет как «Заблуждение Android». Они выступают против заблуждения андроидов, утверждающего, что люди и небиологические существа «точно такие же, как люди».
Эмпирические исследования
[ редактировать ]Существуют неоднозначные данные относительно того, оценивают ли люди поведение роботов так же, как люди, или нет. Некоторые данные указывают на то, что люди относятся к плохому поведению отрицательно, а к хорошему – положительно, независимо от того, является ли виновником такого поведения человек или робот; однако роботам меньше приписывают хорошее поведение и больше порицают за плохое поведение. [31] Другие данные свидетельствуют о том, что злонамеренное поведение роботов считается более морально неправильным, чем доброжелательное поведение считается морально правильным; злонамеренное поведение робота рассматривается как более преднамеренное, чем доброжелательное поведение. [32] В целом, моральные суждения людей как о роботах, так и о людях основаны на одних и тех же обоснованиях и концепциях, но люди имеют разные моральные ожидания при оценке людей и роботов. [33] Исследования также показали, что когда люди пытаются интерпретировать и понять, как роботы решают вести себя определенным образом, они могут видеть, что роботы используют эмпирические правила (продвигать себя, делать то, что правильно, продвигать других, делать то, что логично и делайте то, что нормально), которые соответствуют устоявшимся этическим доктринам (эгоизм, деонтология, альтруизм, утилитаризм и нормативность). [34]
См. также
[ редактировать ]Примечания
[ редактировать ]- ^ Веруджио, Джанмарко; Оперто, Фиорелла (2008), Сицилиано, Бруно; Хатиб, Усама (ред.), «Робоэтика: социальные и этические последствия робототехники», Справочник Springer по робототехнике , Springer Berlin Heidelberg, стр. 1499–1524, doi : 10.1007/978-3-540-30301-5_65 , ISBN 9783540303015
- ^ «Этика роботов» . Общество робототехники и автоматизации IEEE . Проверено 26 июня 2017 г.
- ^ «Этика роботов — Общество робототехники и автоматизации IEEE — Общество робототехники и автоматизации IEEE» . www.ieee-ras.org . Проверено 10 апреля 2022 г.
- ^ Цафестас, Спирос Г. (2016). Робоэтика. Навигационный обзор . Чам: Спрингер. п. 1. ISBN 978-3-319-21713-0 .
- ^ «РОБОЭТИКА Обложка» . www.roboethics.org . Проверено 29 сентября 2020 г.
- ^ Веруджио, Джанмарко. «Рождение роботоэтики» (PDF) . www.roboethics.org .
- ^ «Всемирная декларация роботов» . Новости Киодо .
- ^ «Саудовская Аравия дает гражданство немусульманскому, англоговорящему роботу» . Newsweek . 26 октября 2017 г.
- ^ «Саудовская Аравия дарует гражданство роботу по имени София» . ТехКранч . 26 октября 2017 г. Проверено 27 октября 2016 г.
- ^ «Саудовская Аравия делает ужасающий шаг в будущее, предоставляя роботу гражданство» . АВ клуб . 26 октября 2017 г. Проверено 28 октября 2017 г.
- ^ «Саудовскую Аравию критикуют за предоставление гражданства женщинам-роботам, одновременно ограничивая права женщин — ABC News» . Abcnews.go.com . Проверено 28 октября 2017 г.
- ^ Ипхофен, Рон; Критикос, Михалис (15 марта 2021 г.). «Регулирование искусственного интеллекта и робототехники: задуманная этика в цифровом обществе» . Современная общественная наука . 16 (2): 170–184. дои : 10.1080/21582041.2018.1563803 . ISSN 2158-2041 . S2CID 59298502 .
- ^ «Нечеловеческая партия» . 2021.
- ^ Рахван, Ияд (2018). «Общество в цикле: программирование алгоритмического общественного контракта». Этика и информационные технологии . 20 :5–14. arXiv : 1707.07232 . дои : 10.1007/s10676-017-9430-8 . S2CID 3674879 .
- ^ Брайсон, Джоанна (2018). «Терпение — не добродетель: создание интеллектуальных систем и систем этики» . Этика и информационные технологии . 20 :15–26. дои : 10.1007/s10676-018-9448-6 .
- ^ Вамплью, Питер; Дэйзли, Ричард; Фоул, Кэмерон; Фирмин, Салли (2018). «Искусственный интеллект, ориентированный на человека, — многокритериальная проблема» . Этика и информационные технологии . 20 :27–40. дои : 10.1007/s10676-017-9440-6 . hdl : 1959.17/164225 . S2CID 3696067 .
- ^ Боннемейн, Винсент; Сорел, Клэр; Тессье, Катрин (2018). «Встроенная этика: некоторые технические и этические проблемы» (PDF) . Этика и информационные технологии . 20 : 41–58. дои : 10.1007/s10676-018-9444-x . S2CID 3697093 .
- ^ Арнольд, Томас; Шойц, Матиас (2018). «Большая красная кнопка» уже слишком поздно: альтернативная модель этической оценки систем искусственного интеллекта». Этика и информационные технологии . 20 : 59–69. дои : 10.1007/s10676-018-9447-7 . S2CID 3582967 .
- ^ Дигнум, Вирджиния (2018). «Этика искусственного интеллекта: введение в специальный выпуск» . Этика и информационные технологии . 20 : 1–3. дои : 10.1007/s10676-018-9450-z .
- ^ Коротко, Сью (1 января 2003 г.). «Мера человека?: Двухсотлетний человек Азимова, данные «Звездного пути» и «быть человеком». Экстраполяция . 44 (2): 209–223. дои : 10.3828/extr.2003.44.2.6 . ISSN 0014-5483 .
- ^ Персонал, Пасифик Стандарт. «Может ли «Мир Дикого Запада» дать нам новые способы говорить о рабстве?» . Тихоокеанский стандарт . Проверено 16 сентября 2019 г.
- ^ Паркер, Лаура (15 апреля 2015 г.). «Чем «Ex Machina» выделяется тем, что не боится искусственного интеллекта» . Атлантика . Проверено 16 сентября 2019 г.
- ^ Килкенни, Кэти. «Смысл жизни в «Бегущем по лезвию 2049» » . Тихоокеанский стандарт . Проверено 16 сентября 2019 г.
- ^ Кришнан, Армин (2016). Роботы-убийцы: законность и этичность автономного оружия . Рутледж. дои : 10.4324/9781315591070 . ISBN 9781315591070 . Проверено 16 сентября 2019 г.
- ^ «2014» . Достигнув сайта Criticalwill.org . Проверено 3 апреля 2022 г.
- ^ «Позиция Международного комитета Красного Креста (МККК) по автономным системам вооружения: позиция МККК и справочный документ» . Международное обозрение Красного Креста . 102 (915): 1335–1349. Декабрь 2020 г. doi : 10.1017/s1816383121000564 . ISSN 1816-3831 . S2CID 244396800 .
- ^ Амитай Эциони; Орен Эциони (июнь 2017 г.). «Плюсы и минусы автономных систем вооружения» . армия.мил .
- ^ Темпертон, Джеймс (15 сентября 2015 г.). «Кампания призывает запретить секс-роботов» . Проводная Великобритания . ISSN 1357-0978 . Проверено 7 августа 2022 г.
- ^ Данахер, Джон; Эрп, Брайан Д.; Сандберг, Андерс (2017), Данахер, Джон; МакАртур, Нил (ред.), «Должны ли мы проводить кампанию против секс-роботов?» , Секс с роботами: социальные и этические последствия , Кембридж, Массачусетс: MIT Press , получено 16 апреля 2022 г.
- ^ Ричардс, Нил М.; Смарт, Уильям Д. (2013). «Как закон должен относиться к роботам?». ССНН 2263363 .
- ^ Бэнкс, Джейме (10 сентября 2020 г.). «Хорошие роботы, плохие роботы: влияние морально валентного поведения на воспринимаемый разум, мораль и доверие» . Международный журнал социальной робототехники . 13 (8): 2021–2038. дои : 10.1007/s12369-020-00692-3 . hdl : 2346/89911 .
- ^ Свидерска, Александра; Кюстер, Деннис (2020). «Роботы как злонамеренные моральные агенты: вредное поведение приводит к дегуманизации, а не антропоморфизму» . Когнитивная наука . 44 (7): e12872. дои : 10.1111/cogs.12872 . ПМИД 33020966 . S2CID 220429245 .
- ^ Войклис, Джон; Ким, Бойён; Кузимано, Кори; Малле, Бертрам Ф. (август 2016 г.). «Моральные суждения агентов-человеков и роботов». 2016 25-й Международный симпозиум IEEE по интерактивному общению роботов и людей (RO-MAN) . стр. 775–780. дои : 10.1109/ROMAN.2016.7745207 . ISBN 978-1-5090-3929-6 . S2CID 25295130 .
- ^ Бэнкс, Хайме; Кобан, Кевин (2021). «Влияние фрейминга на суждения о (им)моральном поведении социальных роботов» . Границы робототехники и искусственного интеллекта . 8 : 627233. дои : 10.3389/frobt.2021.627233 . ПМК 8141842 . ПМИД 34041272 .
Ссылки
[ редактировать ]- Леви, Дэвид (ноябрь 2008 г.). Любовь и секс с роботами: эволюция отношений человека и робота . Многолетник Харпер .
- Ричардс, Нил М.; Смарт, Уильям Д. (2013). Как закон должен относиться к роботам?: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2263363
- Жан-Батист Жанжен Вильмер (23 марта 2015 г.)Этика Терминатора: стоит ли нам запретить «роботов-убийц»?: https://www.ethicsandinternationalaffairs.org/2015/terminator-ethics-ban-killer-robots/
- Джон Данахер, Брайан Д. Эрп и Андерс Сандберг. (2017) Должны ли мы проводить кампанию против секс-роботов?
Дальнейшее чтение
[ редактировать ]- Лин, Патрик/Эбни, Кейт/Бекей, Джордж А. (декабрь 2011 г.). Этика роботов: этические и социальные последствия робототехники . МТИ Пресс .
- Цафестас, Спирос Г. (2016). Робоэтика. Навигационный обзор . Берлин: Шпрингер. ISBN 978-3-319-21713-0 .
Внешние ссылки
[ редактировать ]- PhilPapers — стандартная библиография по роботоэтике доступна.
- Группа этики + новых наук
- Центр прикладной этики Марккула при Университете Санта-Клары, США
- Список организаций и конференций из тематической группы euRobotics «Этические, правовые и социально-экономические вопросы» (ELS)
- Список конференций на сайте «Робоэтика» (до 2009 г.)
- Технический комитет IEEE по роботоэтике
- Тематическая группа euRobotics «Этические, правовые и социальные вопросы» (ELS)
- Международное общество этики и информационных технологий. Архивировано 22 декабря 2021 г. в Wayback Machine.
- Компьютерные специалисты за социальную ответственность
- Ответственная робототехника
- Международный институт гуманитарного права
- Союз обеспокоенных ученых
- Информационная база данных по робототехнике
- Международный центр информационной этики
- Безопасная жизнь с роботами, за пределами законов Азимова , PhysOrg.com , 22 июня 2009 г.
- Plug & Pray, документальный фильм об этике робототехники и искусственного интеллекта (с Джозефом Вайценбаумом и Рэем Курцвейлом)
- Профессор Бруно Сицилиано, соредактор Springer Handbook of Robotics, обсуждает роботоэтику в рамках своего выступления на TEDx.
- [2]
- Этика Терминатора: стоит ли запретить «роботов-убийц»?