Jump to content

Совместимость с человеком

Совместимость с человеком
Издание в твердом переплете
Автор Стюарт Дж. Рассел
Язык Английский
Предмет Проблема с управлением ИИ
Жанр Научная литература
Издатель Викинг
Дата публикации
8 октября 2019 г.
Место публикации Соединенные Штаты
Страницы 352
ISBN 978-0-525-55861-3
ОКЛК 1083694322

«Совместимость с человеком: искусственный интеллект и проблема контроля» — научно-популярная книга ученого-компьютерщика Стюарта Дж. Рассела , вышедшая в 2019 году . В нем утверждается, что риск для человечества, связанный с передовым искусственным интеллектом (ИИ), вызывает серьезную обеспокоенность, несмотря на неопределенность, связанную с будущим прогрессом в области ИИ. Также предлагается подход к проблеме управления ИИ .

Резюме [ править ]

Рассел начинает с утверждения, что стандартная модель исследований ИИ, в которой основным определением успеха является все лучшее и лучшее достижение жестких целей, поставленных человеком, опасно ошибочна. Такие цели могут не отражать того, что задумали создатели людей, например, из-за неспособности принять во внимание какие-либо человеческие ценности, не включенные в цели. Если бы ИИ, разработанный в соответствии со стандартной моделью, стал сверхразумным , он, скорее всего, не полностью отражал бы человеческие ценности и мог бы иметь катастрофические последствия для человечества. Рассел утверждает, что именно потому, что сроки разработки искусственного интеллекта человеческого уровня или сверхразума крайне неопределенны, исследования безопасности следует начинать как можно скорее, поскольку также крайне неопределенно, сколько времени потребуется для завершения таких исследований.

Рассел утверждает, что продолжающийся прогресс в области искусственного интеллекта неизбежен из-за экономического давления. Такое давление уже можно увидеть в разработке существующих технологий искусственного интеллекта, таких как беспилотные автомобили и программное обеспечение для персональных помощников . Более того, ИИ человеческого уровня может стоить многие триллионы долларов. Затем Рассел исследует текущие дебаты вокруг рисков ИИ. Он предлагает опровержение ряда распространенных аргументов, отвергающих риск ИИ, и объясняет большую часть их настойчивости трайбализмом: исследователи ИИ могут рассматривать проблемы риска ИИ как «нападку» на свою область. Рассел повторяет, что существуют законные причины серьезно относиться к проблемам рисков ИИ и что экономическое давление делает неизбежным продолжение инноваций в области ИИ.

Затем Рассел предлагает подход к разработке доказуемо полезных машин, ориентированный на уважение к людям. В отличие от стандартной модели ИИ, где цель является жесткой и определенной, при этом подходе истинная цель ИИ остается неопределенной, при этом ИИ приближается к уверенности только по мере того, как он получает больше информации о людях и мире. Эта неопределенность в идеале предотвратила бы катастрофическое непонимание человеческих предпочтений и способствовала бы сотрудничеству и общению с людьми. В заключение Рассел призывает к более жесткому управлению исследованиями и разработками в области ИИ, а также к культурному самоанализу относительно необходимого уровня автономии, который следует сохранить в мире, где доминирует ИИ.

Три принципа Рассела [ править ]

Рассел перечисляет три принципа, которыми следует руководствоваться при разработке полезных машин. Он подчеркивает, что эти принципы не предназначены для явного закодирования в машинах; скорее, они предназначены для разработчиков-людей. Принципы заключаются в следующем: [1] : 173 

1. Единственная цель машины — максимизировать реализацию человеческих предпочтений.

2. Машина изначально не уверена в том, каковы эти предпочтения.

3. Основным источником информации о предпочтениях человека является поведение человека.

«Предпочтения», о которых говорит Рассел, «носят всеобъемлющий характер; они охватывают все, что может вас интересовать, в сколь угодно отдаленном будущем». [1] : 173  Точно так же «поведение» включает в себя любой выбор между вариантами, [1] : 177  и неопределенность такова, что каждому логически возможному человеческому предпочтению должна быть приписана некоторая вероятность, которая может быть весьма малой. [1] : 201 

Рассел исследует обучение с обратным подкреплением , при котором машина выводит функцию вознаграждения из наблюдаемого поведения, как возможную основу механизма изучения человеческих предпочтений. [1] : 191–193 

Прием [ править ]

Некоторые рецензенты согласились с аргументами книги. Ян Сэмпл в The Guardian назвал ее «убедительной» и «самой важной книгой об ИИ в этом году». [2] Ричард Уотерс из Financial Times похвалил книгу за «бодрящую интеллектуальную строгость». [3] Kirkus Reviews назвал это «веским аргументом в пользу планирования того дня, когда машины смогут перехитрить нас». [4]

Те же рецензенты охарактеризовали книгу как «ироническую и остроумную». [2] или «доступный» [4] благодаря «лаконичному стилю и сухому юмору». [3] Мэтью Хатсон из Wall Street Journal сказал: «Захватывающая книга г-на Рассела глубока, но в то же время сверкает сухими остротами». [5] Рецензент Library Journal назвал его «Правильным руководством в нужное время». [6]

Джеймс МакКонначи из The Times написал: «Это не совсем популярная книга, в которой срочно нуждается ИИ. Ее технические части слишком сложны, а философские слишком просты. Но она увлекательна и значительна». [7]

Напротив, «Совместимость с человеком» подверглась критике в обзоре «Природа» со стороны Дэвида Лесли, научного сотрудника по этике в Институте Алана Тьюринга ; и то же самое в в New York Times эссе Мелани Митчелл . Одним из спорных вопросов был вопрос о том, сверхинтеллект возможен ли . Лесли заявляет, что Расселу «не удается убедить, что мы когда-нибудь увидим появление «второго разумного вида » ». [8] и Митчелл сомневается, что машина когда-либо сможет «превзойти универсальность и гибкость человеческого интеллекта», не теряя при этом «скорости, точности и программируемости компьютера». [9] Второе разногласие заключалось в том, будут ли интеллектуальные машины естественным образом склонны принимать так называемые моральные ценности «здравого смысла». В мысленном эксперименте Рассела о геоинженерном роботе, который «удушает человечество, чтобы раскислить океаны», Лесли «изо всех сил пытается выявить какой-либо разум». Точно так же Митчелл считает, что интеллектуальный робот, естественно, будет «сдержан здравым смыслом, ценностями и социальными суждениями, без которых не может существовать общий интеллект». [10] [11]

Книга вошла в лонг-лист премии Financial Times /McKinsey 2019 года . [12]

См. также [ править ]

Ссылки [ править ]

  1. Перейти обратно: Перейти обратно: а б с д и Рассел, Стюарт (8 октября 2019 г.). Совместимость с человеком: искусственный интеллект и проблема управления . США: Викинг. ISBN  978-0-525-55861-3 . OCLC   1083694322 .
  2. Перейти обратно: Перейти обратно: а б Сэмпл, Ян (24 октября 2019 г.). «Обзор Стюарта Рассела «Совместимость с человеком: искусственный интеллект и наше будущее»» . Хранитель .
  3. Перейти обратно: Перейти обратно: а б Уотерс, Ричард (18 октября 2019 г.). «Совместимость с человеком — можем ли мы сохранить контроль над сверхразумом?» . www.ft.com . Проверено 23 февраля 2020 г.
  4. Перейти обратно: Перейти обратно: а б «СОВМЕСТИМО С ЧЕЛОВЕКОМ | Обзоры Киркуса» . Обзоры Киркуса . 2019 . Проверено 23 февраля 2020 г.
  5. ^ Хатсон, Мэтью (19 ноября 2019 г.). « Обзор «совместимости с человеком» и «искусственного интеллекта»: учитесь как машина» . Уолл Стрит Джорнал .
  6. ^ Хан, Джим (2019). «Совместимость с человеком: искусственный интеллект и проблема управления» . Библиотечный журнал . Проверено 23 февраля 2020 г.
  7. ^ МакКонначи, Джеймс (6 октября 2019 г.). «Обзор Стюарта Рассела «Совместимость с человеком» — пугающее предупреждение эксперта по искусственному интеллекту» . Таймс .
  8. ^ Лесли, Дэвид (2 октября 2019 г.). «Бешеные роботы, несчастные люди: антиутопия искусственного интеллекта» . Природа . 574 (7776): 32–33. Бибкод : 2019Natur.574...32L . дои : 10.1038/d41586-019-02939-0 .
  9. ^ Митчелл, Мелани (31 октября 2019 г.). «Мнение | Нас не должен пугать «сверхразумный ИИ» » . Нью-Йорк Таймс . ISSN   0362-4331 . Проверено 18 июля 2023 г.
  10. ^ Лесли, Дэвид (2 октября 2019 г.). «Бешеные роботы, несчастные люди: антиутопия искусственного интеллекта». Природа . 574 (7776): 32–33. Бибкод : 2019Natur.574...32L . дои : 10.1038/d41586-019-02939-0 .
  11. ^ Митчелл, Мелани (31 октября 2019 г.). «Нас не должен пугать «сверхразумный ИИ» » . Нью-Йорк Таймс .
  12. ^ Хилл, Эндрю (11 августа 2019 г.). «Деловая книга года 2019 — лонг-лист» . www.ft.com . Проверено 23 февраля 2020 г.

Внешние ссылки [ править ]

Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 919ede2f5b07666536450fd0ae4d9d95__1715646480
URL1:https://arc.ask3.ru/arc/aa/91/95/919ede2f5b07666536450fd0ae4d9d95.html
Заголовок, (Title) документа по адресу, URL1:
Human Compatible - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)