Jump to content

Этика роботов

(Перенаправлено с Робоэтики )

Этика роботов , иногда известная как « робоэтика », касается этических проблем, возникающих с роботами, например, представляют ли роботы угрозу для людей в долгосрочной или краткосрочной перспективе, являются ли некоторые виды использования роботов проблематичными (например, в здравоохранении или в качестве « убийц »). роботы «на войне») и то, как роботы должны быть спроектированы так, чтобы они действовали «этично» (последняя проблема также называется машинной этикой ). Альтернативно, роботоэтика относится конкретно к этике поведения человека по отношению к роботам, поскольку роботы становятся все более продвинутыми. [1] Этика роботов — это подобласть этики технологий, в частности информационных технологий, и она тесно связана с правовыми, а также социально-экономическими проблемами. Исследователи из разных областей начинают решать этические вопросы создания роботизированных технологий и их внедрения в обществе таким образом, чтобы обеспечить безопасность человечества. [2]

Хотя эти проблемы так же стары, как слово «робот» , серьезные академические дискуссии начались примерно в 2000 году. Этика роботов требует совместной работы экспертов нескольких дисциплин, которые должны адаптировать законы и правила к проблемам, возникающим в результате научных и технологических достижений в мире. Робототехника и искусственный интеллект. Основными областями, вовлеченными в этику роботов, являются: робототехника , информатика , искусственный интеллект , философия , этика , теология , биология , физиология , когнитивная наука , нейронауки , право , социология , психология и промышленный дизайн . [3]

История и события

[ редактировать ]

Некоторые из центральных обсуждений этики в отношении обращения с нечеловеческими или небиологическими вещами и их потенциальной «духовностью». Другая центральная тема связана с разработкой машин и, в конечном итоге, роботов. Эта философия также применялась к робототехнике. Одной из первых публикаций, непосредственно затрагивающих и закладывающих основы этики роботов, был «Обход» (рассказ) , научно-фантастический рассказ, написанный Айзеком Азимовым в 1942 году, в котором были представлены его хорошо известные «Три закона робототехники» . Эти три закона постоянно изменялись Азимовым, и в конечном итоге в контексте его научно-фантастических произведений перед первыми тремя был добавлен четвертый, или нулевой закон. Кратковременный термин «робоэтика», скорее всего, был придуман Джанмарко Веруджио. [4]

Важным событием, которое вызвало интерес к роботоэтике, стал Первый международный симпозиум по роботоэтике в 2004 году, организованный совместными усилиями Scuola di Robotica, Лаборатории искусств Scuola Superiore Sant'Anna, Пиза, и Теологического института Папской академии Санта-Кроче. Рим. [5] Этот симпозиум по робототехнике был проведен благодаря деятельности школы робототехники, которая является некоммерческой организацией и призвана способствовать распространению знаний о робототехнике среди студентов и широкой общественности. В беседах со студентами и неспециалистами Джанмарко Веруджио и Фиорелла Оперто считали, что необходимо распространять среди широкой общественности правильные представления о предполагаемых опасностях робототехники. Они считали, что продуктивные дебаты, основанные на точных взглядах и реальных знаниях, могут подтолкнуть людей к активному участию в формировании общественного мнения, заставить их осознать позитивное использование новой технологии и предотвратить злоупотребление ею. После двух дней интенсивных дебатов антрополог Даниэла Серки выделила три основные этические позиции, возникшие в результате двухдневных интенсивных дебатов:

  1. Те, кого не интересует этика. Они считают, что их действия носят исключительно технический характер, и не считают, что несут социальную или моральную ответственность за свою работу.
  2. Те, кого интересуют краткосрочные этические вопросы. Согласно этому профилю, вопросы выражаются в терминах «хорошо» или «плохо» и относятся к некоторым культурным ценностям. Например, они считают, что роботы должны придерживаться социальных условностей. Это будет включать в себя «уважение» и помощь людям в различных областях, таких как исполнение законов или помощь пожилым людям. (Такие соображения важны, но мы должны помнить, что ценности, используемые для определения «плохого» и «хорошего», относительны. Это современные ценности промышленно развитых стран).
  3. Те, кто думает с точки зрения долгосрочных этических вопросов, например, о «цифровом разрыве» между Югом и Севером или молодежью и пожилыми людьми. Они осознают разрыв между промышленно развитыми и бедными странами и задаются вопросом, не следует ли первым изменить свой подход к развитию робототехники, чтобы принести больше пользы Югу. Они не формулируют явно вопрос «зачем», но можно считать, что он неявный». [6]

Это некоторые важные события и проекты в области этики роботов. О дальнейших мероприятиях в этой области объявляет тематическая группа euRobotics ELS и RoboHub :

в больницу Робот-доставщик перед дверями лифта с надписью «Робот имеет приоритет», ситуация, которую можно расценивать как обратную дискриминацию по отношению к людям.

Ученый-компьютерщик Вирджиния Дигнум в мартовском выпуске журнала «Этика и информационные технологии» за 2018 год отметила , что общее отношение общества к искусственному интеллекту (ИИ) в современную эпоху сместилось от рассмотрения ИИ как инструмента к рассмотрению его как интеллектуальной «команды». -приятель". В той же статье она оценила, что в отношении ИИ у этических мыслителей есть три цели, каждая из которых, по ее мнению, может быть достигнута в современную эпоху при тщательном обдумывании и реализации. [14] [15] [16] [17] [18] Три этические цели заключаются в следующем:

  • Этика замысла (техническая/алгоритмическая интеграция возможностей этического рассуждения как часть поведения искусственной автономной системы — см. «Этика машин »);
  • Этика в дизайне (нормативные и инженерные методы, которые поддерживают анализ и оценку этических последствий систем ИИ, поскольку они интегрируют или заменяют традиционные социальные структуры); и
  • Этика проектирования (кодексы поведения, стандарты и процессы сертификации, которые обеспечивают добросовестность разработчиков и пользователей в процессе исследования, проектирования, конструирования, использования и управления системами искусственного интеллекта — см. раздел «Этика и право роботов» ниже). [19]
[ редактировать ]

Робоэтика как научная или философская тема стала распространенной темой в научно-фантастической литературе и фильмах. Одним из фильмов, который, как можно утверждать, укоренился в поп-культуре и изображает антиутопическое будущее использования роботизированного ИИ, является «Матрица» , изображающая будущее, в котором люди и сознательный разумный ИИ борются за контроль над планетой Земля, что приводит к уничтожению большей части человечества. . Анимационный фильм, основанный на «Матрице» , « Аниматрикс» , в значительной степени сосредоточен на потенциальных этических проблемах и неуверенности в отношениях между людьми и роботами. Фильм разбит на короткие рассказы. Анимационные короткометражки Animatrix также названы в честь вымышленных рассказов Айзека Азимова.

Другой аспект роботоэтики касается обращения людей с роботами и рассматривается в многочисленных фильмах и телешоу. Одним из таких примеров является Star Trek: The Next Generation является человекоподобный андроид по имени Дейта , в котором одним из главных героев . По большей части ему доверяют ответственную работу, но его способность приспособиться к другим живым существам часто подвергается сомнению. [20] Совсем недавно в фильме «Из машины» и телешоу «Мир Дикого Запада» эти этические вопросы были рассмотрены совершенно напрямую, изображая гиперреалистичных роботов, к которым люди относятся как к несущественному товару. [21] [22] Вопросы, связанные с обращением с искусственными существами, также были ключевым компонентом франшизы «Бегущий по лезвию» на протяжении более 50 лет. [23] Такие фильмы, как «Она», еще больше усовершенствовали человеческие отношения с роботами, убрав физический аспект и сосредоточив внимание на эмоциях.

Хотя этическое поведение самих роботов и не является частью роботоэтики как таковой , оно также является объединяющим вопросом роботоэтики в массовой культуре. Серия «Терминатор» посвящена роботам, управляемым сознательной программой искусственного интеллекта, которая не имеет ограничений в уничтожении своих врагов. Этот сериал также имеет тот же архетип, что и сериал «Матрица» , где управление взяли на себя роботы. Еще один известный пример поп-культуры роботов или искусственного интеллекта без запрограммированной этики и морали — это HAL 9000 из серии «Космическая одиссея» , где HAL (компьютер с расширенными возможностями искусственного интеллекта, который контролирует и помогает людям на космической станции) убивает всех людей на борту, чтобы гарантировать успех порученной миссии после того, как его собственная жизнь окажется под угрозой. [24]

Роботы-убийцы

[ редактировать ]

Летальные автономные системы вооружения (LAWS), которые часто называют «роботами-убийцами», теоретически способны целиться и стрелять без надзора и вмешательства человека. В 2014 году Конвенция по обычному оружию (КОО) провела два заседания. Первым было Совещание экспертов по смертоносным автономным системам вооружения (LAWS). Эта встреча была посвящена специальному мандату по ЗАКОНАМ и вызвала бурную дискуссию. [25] Национальные делегации и многие неправительственные организации (НПО) высказали свое мнение по этому поводу.

Многочисленные НПО и некоторые государства, такие как Пакистан и Куба, призывают к превентивному запрету ЗАКОНОВ. Они предложили свои мнения, основанные на деонтологических и консеквенциалистских рассуждениях. С деонтологической точки зрения некоторые философы, такие как Питер Асаро и Роберт Воробей, большинство неправительственных организаций и Ватикан утверждают, что предоставление слишком больших прав машинам нарушает человеческое достоинство и что люди имеют «право не быть убитыми машиной». В поддержку своей точки зрения они неоднократно цитируют оговорку Мартенса .

В конце этой встречи самым важным консеквенциалистским возражением было то, что ЗАКОНЫ никогда не смогут уважать международное гуманитарное право (МГП), как считали НПО, многие исследователи и несколько государств ( Пакистан , Австрия , Египет , Мексика ).

По мнению Международного комитета Красного Креста (МККК), «нет сомнений в том, что разработка и использование автономных систем вооружения в вооруженном конфликте регулируются международным гуманитарным правом». [26] Государства признают это: те, кто участвовал в первом совещании экспертов ООН в мае 2014 года, признали уважение МГП важнейшим условием реализации ЗАКОНОВ. Имея различные прогнозы, некоторые государства полагают, что LAWS не смогут соответствовать этому критерию, в то время как другие подчеркивают сложность вынесения решения на данном этапе, не зная будущих возможностей оружия ( Япония , Австралия ). Все в равной степени настаивают на предварительной проверке соответствия систем МГП до их ввода в эксплуатацию в соответствии со статьей первого дополнительного протокола к Женевским конвенциям.

Степень человеческого контроля

[ редактировать ]

Три классификации степени контроля человека над автономными системами вооружения были изложены Бонни Дочерти в отчете Хьюман Райтс Вотч за 2012 год . [27]

  • «человек в цикле» : человек должен инициировать действие оружия (другими словами, не полностью автономно)
  • «человек в цикле»: человек может прервать действие
  • человек вне цикла: никакие человеческие действия не участвуют

Секс-роботы

[ редактировать ]

В 2015 году была запущена Кампания против секс-роботов (CASR), призванная привлечь внимание к сексуальным отношениям людей с машинами. Кампания утверждает, что секс-роботы потенциально вредны и будут способствовать неравенству в обществе, и что необходимы организованный подход и этический ответ против разработки секс-роботов. [28]

В статье « Должны ли мы проводить кампанию против секс-роботов?» В опубликованном MIT Press исследователи указали на некоторые недостатки этой кампании и не поддержали полный запрет секс-роботов. Во-первых, они утверждали, что конкретные утверждения, выдвинутые CASR, были «неубедительными», отчасти из-за отсутствия ясности относительно целей кампании, а отчасти из-за существенных недостатков в основных этических возражениях, выдвинутых основателями кампании. Во-вторых, они утверждали, что будет очень сложно поддержать общую кампанию против секс-роботов, если не придерживаться крайне консервативного подхода к этике секса. Опираясь на пример кампании по остановке роботов-убийц, они пришли к выводу, что у секс-роботов нет никаких изначально плохих свойств, которые вызывали бы столь же серьезную обеспокоенность, а вред, причиняемый секс-роботами, является спекулятивным и косвенным. Тем не менее, в статье признается, что существуют обоснованные опасения по поводу разработки секс-роботов. [29]

Учитывая, что современные технологические проблемы возникают по мере развития общества, одной из тем, требующих тщательного размышления, является этика роботов в отношении закона. Ученые обсуждают, как правительство могло бы создать законодательство с учетом этики и права роботов. Этими вопросами задаются двое ученых: профессор права Нил М. Ричардс на юридическом факультете Вашингтонского университета , а также доцент кафедры компьютерных наук Уильям Д. Смарт в инженерной школе Маккелви . В своей статье «Как роботы должны думать о законе» они выдвигают четыре основных утверждения, касающихся этики и права роботов. [30] В основе их аргументов лежит определение робота как «небиологических автономных агентов, которые, по нашему мнению, отражают суть регуляторных и технологических проблем, с которыми сталкиваются роботы, и которые могли бы с пользой стать основой регулирования». Во-вторых, пара исследует будущие расширенные возможности роботов примерно через десятилетия. Их третье утверждение утверждает связь между правовыми вопросами, этикой роботов и юридическим опытом, с юридическим опытом киберправа. Это означает, что законы об этике роботов могут ориентироваться на киберзаконы. «Урок», извлеченный из киберправа, заключается в важности метафор, под которыми мы понимаем возникающие проблемы в сфере технологий. Это основано на том, что если мы, например, неправильно воспользуемся метафорой, то законодательство, касающееся возникающей технологической проблемы, скорее всего, будет неправильным. Четвертое утверждение, против которого они выступают, — это метафора, которую пара определяет как «Заблуждение Android». Они выступают против заблуждения андроидов, утверждающего, что люди и небиологические существа «точно такие же, как люди».

Эмпирические исследования

[ редактировать ]

Существуют неоднозначные данные относительно того, оценивают ли люди поведение роботов так же, как люди, или нет. Некоторые данные указывают на то, что люди относятся к плохому поведению отрицательно, а к хорошему – положительно, независимо от того, является ли виновником такого поведения человек или робот; однако роботам меньше приписывают хорошее поведение и больше порицают за плохое поведение. [31] Другие данные свидетельствуют о том, что злонамеренное поведение роботов считается более морально неправильным, чем доброжелательное поведение считается морально правильным; злонамеренное поведение робота рассматривается как более преднамеренное, чем доброжелательное поведение. [32] В целом, моральные суждения людей как о роботах, так и о людях основаны на одних и тех же обоснованиях и концепциях, но люди имеют разные моральные ожидания при оценке людей и роботов. [33] Исследования также показали, что когда люди пытаются интерпретировать и понять, как роботы решают вести себя определенным образом, они могут видеть, что роботы используют эмпирические правила (продвигать себя, делать то, что правильно, продвигать других, делать то, что логично и делайте то, что нормально), которые соответствуют устоявшимся этическим доктринам (эгоизм, деонтология, альтруизм, утилитаризм и нормативность). [34]

См. также

[ редактировать ]

Примечания

[ редактировать ]
  1. ^ Веруджио, Джанмарко; Оперто, Фиорелла (2008), Сицилиано, Бруно; Хатиб, Усама (ред.), «Робоэтика: социальные и этические последствия робототехники», Справочник Springer по робототехнике , Springer Berlin Heidelberg, стр. 1499–1524, doi : 10.1007/978-3-540-30301-5_65 , ISBN  9783540303015
  2. ^ «Этика роботов» . Общество робототехники и автоматизации IEEE . Проверено 26 июня 2017 г.
  3. ^ «Этика роботов — Общество робототехники и автоматизации IEEE — Общество робототехники и автоматизации IEEE» . www.ieee-ras.org . Проверено 10 апреля 2022 г.
  4. ^ Цафестас, Спирос Г. (2016). Робоэтика. Навигационный обзор . Чам: Спрингер. п. 1. ISBN  978-3-319-21713-0 .
  5. ^ «РОБОЭТИКА Обложка» . www.roboethics.org . Проверено 29 сентября 2020 г.
  6. ^ Веруджио, Джанмарко. «Рождение роботоэтики» (PDF) . www.roboethics.org .
  7. ^ «Всемирная декларация роботов» . Новости Киодо .
  8. ^ «Саудовская Аравия дает гражданство немусульманскому, англоговорящему роботу» . Newsweek . 26 октября 2017 г.
  9. ^ «Саудовская Аравия дарует гражданство роботу по имени София» . ТехКранч . 26 октября 2017 г. Проверено 27 октября 2016 г.
  10. ^ «Саудовская Аравия делает ужасающий шаг в будущее, предоставляя роботу гражданство» . АВ клуб . 26 октября 2017 г. Проверено 28 октября 2017 г.
  11. ^ «Саудовскую Аравию критикуют за предоставление гражданства женщинам-роботам, одновременно ограничивая права женщин — ABC News» . Abcnews.go.com . Проверено 28 октября 2017 г.
  12. ^ Ипхофен, Рон; Критикос, Михалис (15 марта 2021 г.). «Регулирование искусственного интеллекта и робототехники: задуманная этика в цифровом обществе» . Современная общественная наука . 16 (2): 170–184. дои : 10.1080/21582041.2018.1563803 . ISSN   2158-2041 . S2CID   59298502 .
  13. ^ «Нечеловеческая партия» . 2021.
  14. ^ Рахван, Ияд (2018). «Общество в цикле: программирование алгоритмического общественного контракта». Этика и информационные технологии . 20 :5–14. arXiv : 1707.07232 . дои : 10.1007/s10676-017-9430-8 . S2CID   3674879 .
  15. ^ Брайсон, Джоанна (2018). «Терпение — не добродетель: создание интеллектуальных систем и систем этики» . Этика и информационные технологии . 20 :15–26. дои : 10.1007/s10676-018-9448-6 .
  16. ^ Вамплью, Питер; Дэйзли, Ричард; Фоул, Кэмерон; Фирмин, Салли (2018). «Искусственный интеллект, ориентированный на человека, — многокритериальная проблема» . Этика и информационные технологии . 20 :27–40. дои : 10.1007/s10676-017-9440-6 . hdl : 1959.17/164225 . S2CID   3696067 .
  17. ^ Боннемейн, Винсент; Сорел, Клэр; Тессье, Катрин (2018). «Встроенная этика: некоторые технические и этические проблемы» (PDF) . Этика и информационные технологии . 20 : 41–58. дои : 10.1007/s10676-018-9444-x . S2CID   3697093 .
  18. ^ Арнольд, Томас; Шойц, Матиас (2018). «Большая красная кнопка» уже слишком поздно: альтернативная модель этической оценки систем искусственного интеллекта». Этика и информационные технологии . 20 : 59–69. дои : 10.1007/s10676-018-9447-7 . S2CID   3582967 .
  19. ^ Дигнум, Вирджиния (2018). «Этика искусственного интеллекта: введение в специальный выпуск» . Этика и информационные технологии . 20 : 1–3. дои : 10.1007/s10676-018-9450-z .
  20. ^ Коротко, Сью (1 января 2003 г.). «Мера человека?: Двухсотлетний человек Азимова, данные «Звездного пути» и «быть человеком». Экстраполяция . 44 (2): 209–223. дои : 10.3828/extr.2003.44.2.6 . ISSN   0014-5483 .
  21. ^ Персонал, Пасифик Стандарт. «Может ли «Мир Дикого Запада» дать нам новые способы говорить о рабстве?» . Тихоокеанский стандарт . Проверено 16 сентября 2019 г.
  22. ^ Паркер, Лаура (15 апреля 2015 г.). «Чем «Ex Machina» выделяется тем, что не боится искусственного интеллекта» . Атлантика . Проверено 16 сентября 2019 г.
  23. ^ Килкенни, Кэти. «Смысл жизни в «Бегущем по лезвию 2049» » . Тихоокеанский стандарт . Проверено 16 сентября 2019 г.
  24. ^ Кришнан, Армин (2016). Роботы-убийцы: законность и этичность автономного оружия . Рутледж. дои : 10.4324/9781315591070 . ISBN  9781315591070 . Проверено 16 сентября 2019 г.
  25. ^ «2014» . Достигнув сайта Criticalwill.org . Проверено 3 апреля 2022 г.
  26. ^ «Позиция Международного комитета Красного Креста (МККК) по автономным системам вооружения: позиция МККК и справочный документ» . Международное обозрение Красного Креста . 102 (915): 1335–1349. Декабрь 2020 г. doi : 10.1017/s1816383121000564 . ISSN   1816-3831 . S2CID   244396800 .
  27. ^ Амитай Эциони; Орен Эциони (июнь 2017 г.). «Плюсы и минусы автономных систем вооружения» . армия.мил .
  28. ^ Темпертон, Джеймс (15 сентября 2015 г.). «Кампания призывает запретить секс-роботов» . Проводная Великобритания . ISSN   1357-0978 . Проверено 7 августа 2022 г.
  29. ^ Данахер, Джон; Эрп, Брайан Д.; Сандберг, Андерс (2017), Данахер, Джон; МакАртур, Нил (ред.), «Должны ли мы проводить кампанию против секс-роботов?» , Секс с роботами: социальные и этические последствия , Кембридж, Массачусетс: MIT Press , получено 16 апреля 2022 г.
  30. ^ Ричардс, Нил М.; Смарт, Уильям Д. (2013). «Как закон должен относиться к роботам?». ССНН   2263363 .
  31. ^ Бэнкс, Джейме (10 сентября 2020 г.). «Хорошие роботы, плохие роботы: влияние морально валентного поведения на воспринимаемый разум, мораль и доверие» . Международный журнал социальной робототехники . 13 (8): 2021–2038. дои : 10.1007/s12369-020-00692-3 . hdl : 2346/89911 .
  32. ^ Свидерска, Александра; Кюстер, Деннис (2020). «Роботы как злонамеренные моральные агенты: вредное поведение приводит к дегуманизации, а не антропоморфизму» . Когнитивная наука . 44 (7): e12872. дои : 10.1111/cogs.12872 . ПМИД   33020966 . S2CID   220429245 .
  33. ^ Войклис, Джон; Ким, Бойён; Кузимано, Кори; Малле, Бертрам Ф. (август 2016 г.). «Моральные суждения агентов-человеков и роботов». 2016 25-й Международный симпозиум IEEE по интерактивному общению роботов и людей (RO-MAN) . стр. 775–780. дои : 10.1109/ROMAN.2016.7745207 . ISBN  978-1-5090-3929-6 . S2CID   25295130 .
  34. ^ Бэнкс, Хайме; Кобан, Кевин (2021). «Влияние фрейминга на суждения о (им)моральном поведении социальных роботов» . Границы робототехники и искусственного интеллекта . 8 : 627233. дои : 10.3389/frobt.2021.627233 . ПМК   8141842 . ПМИД   34041272 .

Дальнейшее чтение

[ редактировать ]
  • Лин, Патрик/Эбни, Кейт/Бекей, Джордж А. (декабрь 2011 г.). Этика роботов: этические и социальные последствия робототехники . МТИ Пресс .
  • Цафестас, Спирос Г. (2016). Робоэтика. Навигационный обзор . Берлин: Шпрингер. ISBN  978-3-319-21713-0 .
[ редактировать ]
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 4b9e2b886c3f777ac631006b8c353349__1721077620
URL1:https://arc.ask3.ru/arc/aa/4b/49/4b9e2b886c3f777ac631006b8c353349.html
Заголовок, (Title) документа по адресу, URL1:
Robot ethics - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)