Законы робототехники
Законы робототехники |
---|
Айзек Азимов |
Связанные темы |
Законы робототехники — это любой набор законов, правил или принципов, которые задуманы как фундаментальная основа, лежащая в основе поведения роботов, обладающих определенной степенью автономии . Роботов такой степени сложности пока не существует, но они широко ожидаемы в научной фантастике , фильмах и являются предметом активных исследований и разработок в области робототехники и искусственного интеллекта .
Самый известный свод законов — это те, которые были написаны Айзеком Азимовым в 1940-х годах или основаны на них, но в последующие десятилетия исследователями были предложены и другие своды законов.
«Три закона робототехники» Айзека Азимова.
[ редактировать ]Самым известным сводом законов являются » Айзека Азимова « Три закона робототехники . Они были представлены в его рассказе 1942 года « Обход », хотя они были предвосхищены в нескольких более ранних рассказах. Три закона:
- Робот не может причинить вред человеку или своим бездействием допустить причинение вреда человеку.
- Робот должен подчиняться приказам, отдаваемым ему людьми, за исключением случаев, когда такие приказы противоречат Первому Закону.
- Робот должен защищать свое существование до тех пор, пока такая защита не противоречит Первому или Второму законам. [ 1 ]
В « Неизбежном конфликте » машины обобщают Первый Закон и означают:
- Ни одна машина не может причинить вред человечеству; или своим бездействием позволить человечеству пострадать.
В конце «Основания и Земли» это было уточнено , был введен нулевой закон, а исходные три соответственно переписаны как подчиненные ему:
- Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинен вред.
На основе этой структуры существуют адаптации и расширения. По состоянию на 2024 год [update] они остаются « вымышленным устройством ». [ 2 ]
Дополнительные законы
[ редактировать ]Другие авторы, помимо Азимова, часто создавали дополнительные законы.
1974 года Любена Дилова В романе «Путь Икара» (также известном как «Путешествие Икара ») был представлен Четвертый закон робототехники: «Робот во всех случаях должен идентифицировать себя как робот». Дилов так обосновывает четвертую защиту: «Последний Закон положил конец дорогостоящим заблуждениям конструкторов по приданию психороботам как можно более человеческой формы. И вытекающим из этого недоразумениям...» [ 3 ]
Пятый закон был введен Николой Кесаровски в его рассказе «Пятый закон робототехники». Этот пятый закон гласит: «Робот должен знать, что он робот». Сюжет вращается вокруг убийства, в ходе которого судебно-медицинская экспертиза обнаруживает, что жертва была убита объятиями человекообразного робота, который не установил для себя, что это был робот. [ 4 ] Эту историю рецензировал Валентин Д. Иванов в обзорном журнале SFF The Portal . [ 5 ]
Для трибьют-антологии « Друзья Фонда» 1986 года Гарри Харрисон написал рассказ под названием «Четвертый закон робототехники». Этот Четвертый Закон гласит: «Робот должен размножаться. Пока такое воспроизводство не противоречит Первому, Второму или Третьему закону».
В 2013 году Хутан Ашрафян предложил дополнительный закон, который рассматривал роль искусственного интеллекта в отношении искусственного интеллекта или взаимосвязь между самими роботами – так называемый закон AIonAI. [ 6 ] Этот шестой закон гласит: «Все роботы, наделенные сравнимым с человеческим разумом и совестью, должны действовать по отношению друг к другу в духе братства».
Принципы робототехники EPSRC/AHRC
[ редактировать ]В 2011 году Совет по исследованиям в области инженерных и физических наук (EPSRC) и Совет по исследованиям в области искусств и гуманитарных наук (AHRC) Соединенного Королевства совместно опубликовали набор из пяти этических «принципов для проектировщиков, строителей и пользователей роботов» в реальном мире , а также с семью «посланиями высокого уровня», предназначенными для передачи, на основе исследовательского семинара в сентябре 2010 года: [ 2 ] [ 7 ] [ 8 ]
- Роботы не должны проектироваться исключительно или главным образом для того, чтобы убивать или причинять вред людям.
- Люди, а не роботы, являются ответственными агентами. Роботы — это инструменты, предназначенные для достижения человеческих целей.
- Роботы должны быть спроектированы таким образом, чтобы обеспечить их безопасность и защищенность.
- Роботы — это артефакты; они не должны быть предназначены для эксплуатации уязвимых пользователей, вызывая эмоциональную реакцию или зависимость. Всегда можно отличить робота от человека.
- Всегда должна быть возможность выяснить, кто несет юридическую ответственность за робота.
Сообщения, предназначенные для передачи, были следующими:
- Мы считаем, что роботы могут оказать огромное положительное влияние на общество. Мы хотим поощрять ответственные исследования роботов.
- Плохая практика вредит нам всем.
- Решение очевидных проблем общественности поможет нам всем добиться прогресса.
- Важно продемонстрировать, что мы, робототехники, стремимся соблюдать наилучшие стандарты практики.
- Чтобы понять контекст и последствия нашего исследования, нам следует работать с экспертами из других дисциплин, в том числе: социальных наук, права, философии и искусства.
- Нам следует задуматься об этике прозрачности: существуют ли ограничения на то, что должно быть открыто доступно?
- Когда мы видим в прессе ошибочные сообщения, мы обязуемся найти время, чтобы связаться с журналистами, сообщающими о них.
Принципы EPSRC широко признаны в качестве полезной отправной точки. В 2016 году Тони Прескотт организовал семинар по пересмотру этих принципов, например, чтобы отличить этические принципы от правовых. [ 9 ]
Судебное развитие
[ редактировать ]Очередная комплексная терминологическая кодификация для правовой оценки технологических разработок в робототехнической отрасли уже началась преимущественно в странах Азии. [ 10 ] Этот прогресс представляет собой современную интерпретацию закона (и этики) в области робототехники, интерпретацию, которая предполагает переосмысление традиционных правовых констелляций. К ним относятся прежде всего вопросы юридической ответственности в гражданском и уголовном праве.
Законы Сатья Наделлы
[ редактировать ]В июне 2016 года Сатья Наделла , генеральный директор корпорации Microsoft , дал интервью журналу Slate и поразмышлял о том, какие принципы и цели следует учитывать отрасли и обществу при обсуждении искусственного интеллекта: [ 11 ] [ 12 ]
- «ИИ должен быть создан для помощи человечеству», а это означает, что необходимо уважать человеческую автономию.
- «ИИ должен быть прозрачным», что означает, что люди должны знать и уметь понимать, как он работает.
- «ИИ должен максимизировать эффективность, не разрушая достоинства людей».
- «ИИ должен быть спроектирован с учетом интеллектуальной конфиденциальности», что означает, что он завоевывает доверие, защищая свою информацию.
- «ИИ должен иметь алгоритмическую ответственность, чтобы люди могли устранить непреднамеренный вред».
- «ИИ должен защищаться от предвзятости», чтобы не дискриминировать людей.
Законы Тилдена
[ редактировать ]Марк В. Тилден — физик-робототехника, пионер в разработке простой робототехники. [ 13 ] Его три руководящих принципа/правила для роботов: [ 13 ] [ 14 ] [ 15 ]
- Робот должен защищать свое существование любой ценой.
- Робот должен получить и поддерживать доступ к собственному источнику питания.
- Робот должен постоянно искать лучшие источники энергии.
Что примечательно в этих трех правилах, так это то, что это, по сути, правила для «дикой» жизни, поэтому, по сути, Тилден заявил, что он хотел «привести кремниевый вид к разуму, но с полным контролем над характеристиками. Не животное. Что-то другое». [ 16 ]
См. также
[ редактировать ]- Дружественный ИИ
- Робоэтика
- Этика искусственного интеллекта
- Военные роботы , конструкция которых может нарушать Первый закон Азимова.
- Три закона трансгуманизма
- Три закона Кларка
- Законы Нивена
Ссылки
[ редактировать ]- ^ Азимов, Исаак (1950). Я, Робот .
- ^ Перейти обратно: а б Стюарт, Джон (3 октября 2011 г.). «Готовы к революции роботов?» . Новости Би-би-си . Проверено 3 октября 2011 г.
- ^ Dilov, Lyuben (aka Lyubin, Luben or Liuben) (2002). Пътят на Икар . Захари Стоянов. ISBN 978-954-739-338-7 .
{{cite book}}
: CS1 maint: несколько имен: список авторов ( ссылка ) - ^ Кесаровский, Никола (1983). Пятый закон . Отечество.
- ^ Законная маленькая страна: Болгарские законы робототехники | Портал
- ^ Ашрафян, Хутан (2014). «AIonAI: Гуманитарный закон искусственного интеллекта и робототехники». Наука и инженерная этика . 21 (1): 29–40. дои : 10.1007/s11948-013-9513-9 . ПМИД 24414678 . S2CID 2821971 .
- ^ «Принципы робототехники: регулирование роботов в реальном мире» . Научно-исследовательский совет по инженерным и физическим наукам . Проверено 3 октября 2011 г.
- ^ Уинфилд, Алан. «Пять принципов роботоэтики – для людей» . Новый учёный . Проверено 3 октября 2011 г.
- ^ Мюллер, Винсент К. (2017). «Правовые и этические обязательства – комментарий к принципам EPSRC в отношении робототехники» . Наука о связях . 29 (2): 137–141. дои : 10.1080/09540091.2016.1276516 . S2CID 19080722 .
- ^ bcc.co.uk: Возраст роботов ставит этическую дилемму. Связь
- ^ Наделла, Сатья (28 июня 2016 г.). «Партнерство будущего» . Сланец . ISSN 1091-2339 . Проверено 30 июня 2016 г.
- ^ Винсент, Джеймс (29 июня 2016 г.). «Правила Сатьи Наделлы для ИИ более скучны (и актуальны), чем Три закона Азимова» . Грань . Вокс Медиа . Проверено 30 июня 2016 г.
- ^ Перейти обратно: а б Хэпгуд, Фред (сентябрь 1994 г.). «Хаотическая робототехника» . Проводной . Том. 2, нет. 9.
- ^ Эшли Данн. « Машинный интеллект, часть II: от бамперных машинок к электронному разуму », The New York Times, 5 июня 1996 г. Проверено 26 июля 2009 г.
- ^ makezine.com: Руководство по BEAM для начинающих (большая часть статьи доступна только по подписке.)
- ^ Хэпгуд, Фред (сентябрь 1994 г.). «Хаотическая робототехника (продолжение)» . Проводной . Том. 2, нет. 9.