Законы робототехники
Законы робототехники |
---|
Айзек Азимов |
Связанные темы |
Законы робототехники — это любой набор законов, правил или принципов, которые задуманы как фундаментальная основа, лежащая в основе поведения роботов, обладающих определенной степенью автономии . Роботов такой степени сложности пока не существует, но они широко ожидаемы в научной фантастике , фильмах и являются предметом активных исследований и разработок в области робототехники и искусственного интеллекта .
Самый известный свод законов — это законы, написанные Айзеком Азимовым в 1940-х годах или основанные на них, но в последующие десятилетия исследователями были предложены и другие своды законов.
Три закона робототехники» Азимова « Айзека
Самым известным сводом законов являются » Айзека Азимова « Три закона робототехники . Они были представлены в его рассказе 1942 года « Обход », хотя они были предвосхищены в нескольких более ранних рассказах. Три закона:
- Робот не может причинить вред человеку или своим бездействием допустить причинение вреда человеку.
- Робот должен подчиняться приказам, отдаваемым ему людьми, за исключением случаев, когда такие приказы противоречат Первому Закону.
- Робот должен защищать свое существование до тех пор, пока такая защита не противоречит Первому или Второму законам. [1]
В « Неизбежном конфликте » машины обобщают Первый Закон и означают:
- Ни одна машина не может причинить вред человечеству; или своим бездействием позволить человечеству пострадать.
В конце «Основания и Земли» это было уточнено , был введен нулевой закон, а исходные три соответственно переписаны как подчиненные ему:
- Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинен вред.
На основе этой структуры существуют адаптации и расширения. По состоянию на 2024 год [update] они остаются « вымышленным устройством ». [2]
Дополнительные законы [ править ]
Другие авторы, помимо Азимова, часто создавали дополнительные законы.
1974 года Любена Дилова В романе «Путь Икара» (также известном как «Путешествие Икара ») был представлен Четвертый закон робототехники: «Робот во всех случаях должен идентифицировать себя как робот». Дилов так обосновывает четвертую защиту: «Последний Закон положил конец дорогостоящим заблуждениям конструкторов по приданию психороботам как можно более человеческой формы. И вытекающим из этого недоразумениям...» [3]
Пятый закон был введен Николой Кесаровски в его рассказе «Пятый закон робототехники». Этот пятый закон гласит: «Робот должен знать, что он робот». Сюжет вращается вокруг убийства, в ходе которого судебно-медицинская экспертиза обнаруживает, что жертва была убита объятиями человекообразного робота, который не установил для себя, что это был робот. [4] Эту историю рецензировал Валентин Иванов в обзорном журнале SFF The Portal . [5]
Для трибьют-антологии « Друзья Фонда» 1986 года Гарри Харрисон написал рассказ под названием «Четвертый закон робототехники». Этот Четвертый Закон гласит: «Робот должен размножаться. Пока такое воспроизводство не противоречит Первому, Второму или Третьему закону».
В 2013 году Хутан Ашрафян предложил дополнительный закон, который рассматривал роль искусственного интеллекта в отношении искусственного интеллекта или взаимосвязь между самими роботами – так называемый закон AIonAI. [6] Этот шестой закон гласит: «Все роботы, наделенные сравнимым с человеческим разумом и совестью, должны действовать по отношению друг к другу в духе братства».
робототехники EPSRC Принципы AHRC /
В 2011 году Совет по исследованиям в области инженерных и физических наук (EPSRC) и Совет по исследованиям в области искусств и гуманитарных наук (AHRC) Соединенного Королевства совместно опубликовали набор из пяти этических «принципов для проектировщиков, строителей и пользователей роботов» в реальном мире , а также с семью «посланиями высокого уровня», предназначенными для передачи, на основе исследовательского семинара в сентябре 2010 года: [2] [7] [8]
- Роботы не должны проектироваться исключительно или главным образом для того, чтобы убивать или причинять вред людям.
- Люди, а не роботы, являются ответственными агентами. Роботы — это инструменты, предназначенные для достижения человеческих целей.
- Роботы должны быть спроектированы таким образом, чтобы обеспечить их безопасность и защищенность.
- Роботы — это артефакты; они не должны быть предназначены для эксплуатации уязвимых пользователей, вызывая эмоциональную реакцию или зависимость. Всегда можно отличить робота от человека.
- Всегда должна быть возможность выяснить, кто несет юридическую ответственность за робота.
Сообщения, предназначенные для передачи, были следующими:
- Мы считаем, что роботы могут оказать огромное положительное влияние на общество. Мы хотим поощрять ответственные исследования роботов.
- Плохая практика вредит нам всем.
- Решение очевидных проблем общественности поможет нам всем добиться прогресса.
- Важно продемонстрировать, что мы, робототехники, стремимся соблюдать наилучшие стандарты практики.
- Чтобы понять контекст и последствия нашего исследования, нам следует работать с экспертами из других дисциплин, в том числе: социальных наук, права, философии и искусства.
- Нам следует задуматься об этике прозрачности: существуют ли ограничения на то, что должно быть открыто доступно?
- Когда мы видим в прессе ошибочные сообщения, мы обязуемся найти время, чтобы связаться с журналистами, сообщающими о них.
Принципы EPSRC широко признаны в качестве полезной отправной точки. В 2016 году Тони Прескотт организовал семинар по пересмотру этих принципов, например, чтобы отличить этические принципы от правовых. [9]
Судебное развитие
Очередная комплексная терминологическая кодификация для правовой оценки технологических разработок в робототехнической отрасли уже началась преимущественно в странах Азии. [10] Этот прогресс представляет собой современную интерпретацию закона (и этики) в области робототехники, интерпретацию, которая предполагает переосмысление традиционных правовых констелляций. К ним относятся прежде всего вопросы юридической ответственности в гражданском и уголовном праве.
Законы Сатьи Наделлы [ править ]
В июне 2016 года Сатья Наделла , генеральный директор корпорации Microsoft , дал интервью журналу Slate и поразмышлял о том, какие принципы и цели следует учитывать отрасли и обществу при обсуждении искусственного интеллекта: [11] [12]
- «ИИ должен быть создан для помощи человечеству», а это означает, что необходимо уважать человеческую автономию.
- «ИИ должен быть прозрачным», что означает, что люди должны знать и уметь понимать, как он работает.
- «ИИ должен максимизировать эффективность, не разрушая достоинства людей».
- «ИИ должен быть спроектирован с учетом интеллектуальной конфиденциальности», что означает, что он завоевывает доверие, защищая свою информацию.
- «ИИ должен иметь алгоритмическую ответственность, чтобы люди могли устранить непреднамеренный вред».
- «ИИ должен защищаться от предвзятости», чтобы не дискриминировать людей.
Законы Тилдена [ править ]
Марк В. Тилден — физик-робототехника, пионер в разработке простой робототехники. [13] Его три руководящих принципа/правила для роботов: [13] [14] [15]
- Робот должен защищать свое существование любой ценой.
- Робот должен получить и поддерживать доступ к собственному источнику питания.
- Робот должен постоянно искать лучшие источники энергии.
Что примечательно в этих трех правилах, так это то, что это, по сути, правила для «дикой» жизни, поэтому, по сути, Тилден заявил, что он хотел «привести кремниевый вид к разуму, но с полным контролем над характеристиками. Не животное. Что-то другое». [16]
См. также [ править ]
- Дружественный ИИ
- Робоэтика
- Этика искусственного интеллекта
- Военные роботы , конструкция которых может нарушать Первый закон Азимова.
- Три закона трансгуманизма
- Три закона Кларка
- Законы Нивена
Ссылки [ править ]
- ^ Азимов, Исаак (1950). Я, Робот .
- ↑ Перейти обратно: Перейти обратно: а б Стюарт, Джон (3 октября 2011 г.). «Готовы к революции роботов?» . Новости Би-би-си . Проверено 3 октября 2011 г.
- ^ Дилов, Любен (как Любен, Лубен или Либен) (2002). Пьят на Икар . Захары Стоянов. ISBN 978-954-739-338-7 .
{{cite book}}
: CS1 maint: несколько имен: список авторов ( ссылка ) - ^ Кесаровский, Никола (1983). Пятый закон . Отечество.
- ^ Законная маленькая страна: Болгарские законы робототехники | Портал
- ^ Ашрафян, Хутан (2014). «AIonAI: Гуманитарный закон искусственного интеллекта и робототехники». Наука и инженерная этика . 21 (1): 29–40. дои : 10.1007/s11948-013-9513-9 . ПМИД 24414678 . S2CID 2821971 .
- ^ «Принципы робототехники: регулирование роботов в реальном мире» . Научно-исследовательский совет по инженерным и физическим наукам . Проверено 3 октября 2011 г.
- ^ Уинфилд, Алан. «Пять принципов роботоэтики – для людей» . Новый учёный . Проверено 3 октября 2011 г.
- ^ Мюллер, Винсент К. (2017). «Правовые и этические обязательства – комментарий к принципам EPSRC в отношении робототехники» . Наука о связях . 29 (2): 137–141. дои : 10.1080/09540091.2016.1276516 . S2CID 19080722 .
- ^ bcc.co.uk: Возраст роботов ставит этическую дилемму. Связь
- ^ Наделла, Сатья (28 июня 2016 г.). «Партнерство будущего» . Сланец . ISSN 1091-2339 . Проверено 30 июня 2016 г.
- ^ Винсент, Джеймс (29 июня 2016 г.). «Правила Сатьи Наделлы для ИИ более скучны (и актуальны), чем Три закона Азимова» . Грань . Вокс Медиа . Проверено 30 июня 2016 г.
- ↑ Перейти обратно: Перейти обратно: а б Хэпгуд, Фред (сентябрь 1994 г.). «Хаотическая робототехника» . Проводной . Том. 2, нет. 9.
- ^ Эшли Данн. « Машинный интеллект, часть II: от бамперных машинок к электронному разуму », The New York Times, 5 июня 1996 г. Проверено 26 июля 2009 г.
- ^ makezine.com: Руководство по BEAM для начинающих (большая часть статьи доступна только по подписке.)
- ^ Хэпгуд, Фред (сентябрь 1994 г.). «Хаотическая робототехника (продолжение)» . Проводной . Том. 2, нет. 9.