Jump to content

Законы робототехники

(Перенаправлено из Законов о робототехнике )

Законы робототехники — это любой набор законов, правил или принципов, которые задуманы как фундаментальная основа, лежащая в основе поведения роботов, обладающих определенной степенью автономии . Роботов такой степени сложности пока не существует, но они широко ожидаемы в научной фантастике , фильмах и являются предметом активных исследований и разработок в области робототехники и искусственного интеллекта .

Самый известный свод законов — это те, которые были написаны Айзеком Азимовым в 1940-х годах или основаны на них, но в последующие десятилетия исследователями были предложены и другие своды законов.

«Три закона робототехники» Айзека Азимова.

[ редактировать ]

Самым известным сводом законов являются » Айзека Азимова « Три закона робототехники . Они были представлены в его рассказе 1942 года « Обход », хотя они были предвосхищены в нескольких более ранних рассказах. Три закона:

  1. Робот не может причинить вред человеку или своим бездействием допустить причинение вреда человеку.
  2. Робот должен подчиняться приказам, отдаваемым ему людьми, за исключением случаев, когда такие приказы противоречат Первому Закону.
  3. Робот должен защищать свое существование до тех пор, пока такая защита не противоречит Первому или Второму законам. [ 1 ]

В « Неизбежном конфликте » машины обобщают Первый Закон и означают:

  1. Ни одна машина не может причинить вред человечеству; или своим бездействием позволить человечеству пострадать.

В конце «Основания и Земли» это было уточнено , был введен нулевой закон, а исходные три соответственно переписаны как подчиненные ему:

  1. Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинен вред.

На основе этой структуры существуют адаптации и расширения. По состоянию на 2024 год они остаются « вымышленным устройством ». [ 2 ]

Дополнительные законы

[ редактировать ]

Другие авторы, помимо Азимова, часто создавали дополнительные законы.

1974 года Любена Дилова В романе «Путь Икара» (также известном как «Путешествие Икара ») был представлен Четвертый закон робототехники: «Робот во всех случаях должен идентифицировать себя как робот». Дилов так обосновывает четвертую защиту: «Последний Закон положил конец дорогостоящим заблуждениям конструкторов по приданию психороботам как можно более человеческой формы. И вытекающим из этого недоразумениям...» [ 3 ]

Пятый закон был введен Николой Кесаровски в его рассказе «Пятый закон робототехники». Этот пятый закон гласит: «Робот должен знать, что он робот». Сюжет вращается вокруг убийства, в ходе которого судебно-медицинская экспертиза обнаруживает, что жертва была убита объятиями человекообразного робота, который не установил для себя, что это был робот. [ 4 ] Эту историю рецензировал Валентин Д. Иванов в обзорном журнале SFF The Portal . [ 5 ]

Для трибьют-антологии « Друзья Фонда» 1986 года Гарри Харрисон написал рассказ под названием «Четвертый закон робототехники». Этот Четвертый Закон гласит: «Робот должен размножаться. Пока такое воспроизводство не противоречит Первому, Второму или Третьему закону».

В 2013 году Хутан Ашрафян предложил дополнительный закон, который рассматривал роль искусственного интеллекта в отношении искусственного интеллекта или взаимосвязь между самими роботами – так называемый закон AIonAI. [ 6 ] Этот шестой закон гласит: «Все роботы, наделенные сравнимым с человеческим разумом и совестью, должны действовать по отношению друг к другу в духе братства».

Принципы робототехники EPSRC/AHRC

[ редактировать ]

В 2011 году Совет по исследованиям в области инженерных и физических наук (EPSRC) и Совет по исследованиям в области искусств и гуманитарных наук (AHRC) Соединенного Королевства совместно опубликовали набор из пяти этических «принципов для проектировщиков, строителей и пользователей роботов» в реальном мире , а также с семью «посланиями высокого уровня», предназначенными для передачи, на основе исследовательского семинара в сентябре 2010 года: [ 2 ] [ 7 ] [ 8 ]

  1. Роботы не должны проектироваться исключительно или главным образом для того, чтобы убивать или причинять вред людям.
  2. Люди, а не роботы, являются ответственными агентами. Роботы — это инструменты, предназначенные для достижения человеческих целей.
  3. Роботы должны быть спроектированы таким образом, чтобы обеспечить их безопасность и защищенность.
  4. Роботы — это артефакты; они не должны быть предназначены для эксплуатации уязвимых пользователей, вызывая эмоциональную реакцию или зависимость. Всегда можно отличить робота от человека.
  5. Всегда должна быть возможность выяснить, кто несет юридическую ответственность за робота.

Сообщения, предназначенные для передачи, были следующими:

  1. Мы считаем, что роботы могут оказать огромное положительное влияние на общество. Мы хотим поощрять ответственные исследования роботов.
  2. Плохая практика вредит нам всем.
  3. Решение очевидных проблем общественности поможет нам всем добиться прогресса.
  4. Важно продемонстрировать, что мы, робототехники, стремимся соблюдать наилучшие стандарты практики.
  5. Чтобы понять контекст и последствия нашего исследования, нам следует работать с экспертами из других дисциплин, в том числе: социальных наук, права, философии и искусства.
  6. Нам следует задуматься об этике прозрачности: существуют ли ограничения на то, что должно быть открыто доступно?
  7. Когда мы видим в прессе ошибочные сообщения, мы обязуемся найти время, чтобы связаться с журналистами, сообщающими о них.

Принципы EPSRC широко признаны в качестве полезной отправной точки. В 2016 году Тони Прескотт организовал семинар по пересмотру этих принципов, например, чтобы отличить этические принципы от правовых. [ 9 ]

Судебное развитие

[ редактировать ]

Очередная комплексная терминологическая кодификация для правовой оценки технологических разработок в робототехнической отрасли уже началась преимущественно в странах Азии. [ 10 ] Этот прогресс представляет собой современную интерпретацию закона (и этики) в области робототехники, интерпретацию, которая предполагает переосмысление традиционных правовых констелляций. К ним относятся прежде всего вопросы юридической ответственности в гражданском и уголовном праве.

Законы Сатья Наделлы

[ редактировать ]

В июне 2016 года Сатья Наделла , генеральный директор корпорации Microsoft , дал интервью журналу Slate и поразмышлял о том, какие принципы и цели следует учитывать отрасли и обществу при обсуждении искусственного интеллекта: [ 11 ] [ 12 ]

  1. «ИИ должен быть создан для помощи человечеству», а это означает, что необходимо уважать человеческую автономию.
  2. «ИИ должен быть прозрачным», что означает, что люди должны знать и уметь понимать, как он работает.
  3. «ИИ должен максимизировать эффективность, не разрушая достоинства людей».
  4. «ИИ должен быть спроектирован с учетом интеллектуальной конфиденциальности», что означает, что он завоевывает доверие, защищая свою информацию.
  5. «ИИ должен иметь алгоритмическую ответственность, чтобы люди могли устранить непреднамеренный вред».
  6. «ИИ должен защищаться от предвзятости», чтобы не дискриминировать людей.

Законы Тилдена

[ редактировать ]

Марк В. Тилден — физик-робототехника, пионер в разработке простой робототехники. [ 13 ] Его три руководящих принципа/правила для роботов: [ 13 ] [ 14 ] [ 15 ]

  1. Робот должен защищать свое существование любой ценой.
  2. Робот должен получить и поддерживать доступ к собственному источнику питания.
  3. Робот должен постоянно искать лучшие источники энергии.

Что примечательно в этих трех правилах, так это то, что это, по сути, правила для «дикой» жизни, поэтому, по сути, Тилден заявил, что он хотел «привести кремниевый вид к разуму, но с полным контролем над характеристиками. Не животное. Что-то другое». [ 16 ]

См. также

[ редактировать ]
  1. ^ Азимов, Исаак (1950). Я, Робот .
  2. ^ Перейти обратно: а б Стюарт, Джон (3 октября 2011 г.). «Готовы к революции роботов?» . Новости Би-би-си . Проверено 3 октября 2011 г.
  3. ^ Dilov, Lyuben (aka Lyubin, Luben or Liuben) (2002). Пътят на Икар . Захари Стоянов. ISBN  978-954-739-338-7 . {{cite book}}: CS1 maint: несколько имен: список авторов ( ссылка )
  4. ^ Кесаровский, Никола (1983). Пятый закон . Отечество.
  5. ^ Законная маленькая страна: Болгарские законы робототехники | Портал
  6. ^ Ашрафян, Хутан (2014). «AIonAI: Гуманитарный закон искусственного интеллекта и робототехники». Наука и инженерная этика . 21 (1): 29–40. дои : 10.1007/s11948-013-9513-9 . ПМИД   24414678 . S2CID   2821971 .
  7. ^ «Принципы робототехники: регулирование роботов в реальном мире» . Научно-исследовательский совет по инженерным и физическим наукам . Проверено 3 октября 2011 г.
  8. ^ Уинфилд, Алан. «Пять принципов роботоэтики – для людей» . Новый учёный . Проверено 3 октября 2011 г.
  9. ^ Мюллер, Винсент К. (2017). «Правовые и этические обязательства – комментарий к принципам EPSRC в отношении робототехники» . Наука о связях . 29 (2): 137–141. дои : 10.1080/09540091.2016.1276516 . S2CID   19080722 .
  10. ^ bcc.co.uk: Возраст роботов ставит этическую дилемму. Связь
  11. ^ Наделла, Сатья (28 июня 2016 г.). «Партнерство будущего» . Сланец . ISSN   1091-2339 . Проверено 30 июня 2016 г.
  12. ^ Винсент, Джеймс (29 июня 2016 г.). «Правила Сатьи Наделлы для ИИ более скучны (и актуальны), чем Три закона Азимова» . Грань . Вокс Медиа . Проверено 30 июня 2016 г.
  13. ^ Перейти обратно: а б Хэпгуд, Фред (сентябрь 1994 г.). «Хаотическая робототехника» . Проводной . Том. 2, нет. 9.
  14. ^ Эшли Данн. « Машинный интеллект, часть II: от бамперных машинок к электронному разуму », The New York Times, 5 июня 1996 г. Проверено 26 июля 2009 г.
  15. ^ makezine.com: Руководство по BEAM для начинающих (большая часть статьи доступна только по подписке.)
  16. ^ Хэпгуд, Фред (сентябрь 1994 г.). «Хаотическая робототехника (продолжение)» . Проводной . Том. 2, нет. 9.

[ 1 ]

  1. ^ 17. Диктор (2011). Портал 2
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 7175d5949661abbffd366a4d8a43bcf2__1720681440
URL1:https://arc.ask3.ru/arc/aa/71/f2/7175d5949661abbffd366a4d8a43bcf2.html
Заголовок, (Title) документа по адресу, URL1:
Laws of robotics - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)