Суперинтеллект: пути, опасности, стратегии
Автор | Ник Бостром |
---|---|
Язык | Английский |
Предмет | Искусственный интеллект |
Жанр | Философия , научно-популярная наука |
Издатель | Издательство Оксфордского университета [ 1 ] |
Дата публикации | 3 июля 2014 г. (Великобритания) 1 сентября 2014 г. (США) |
Место публикации | Великобритания |
Тип носителя | Распечатка, электронная книга, аудиокнига |
Страницы | 352 стр. |
ISBN | 978-0199678112 |
Предшественник | Глобальные катастрофические риски |
«Суперинтеллект: пути, опасности, стратегии» — книга философа Ника Бострома, вышедшая в 2014 году . В нем исследуется, как сверхинтеллект , каковы могут быть его особенности и мотивы. можно создать [ 2 ] Он утверждает, что сверхразум, если он будет создан, будет трудно контролировать и что он сможет захватить мир для достижения своих целей. В книге также представлены стратегии, которые помогут создать сверхразумы, чьи цели принесут пользу человечеству. [ 3 ] Это особенно повлияло на то, что подняло обеспокоенность по поводу экзистенциального риска, исходящего от искусственного интеллекта . [ 4 ]
Краткое содержание
[ редактировать ]Неизвестно, появится ли искусственный интеллект человеческого уровня через несколько лет, позднее в этом столетии, или только в будущих столетиях. Независимо от первоначальных временных рамок, как только будет разработан машинный интеллект человеческого уровня, «сверхразумная» система, которая «значительно превосходит когнитивные способности человека практически во всех областях интересов», скорее всего, появится на удивление быстро. Таким сверхразумом будет очень трудно управлять.
Хотя конечные цели сверхинтеллектов могут сильно различаться, функциональный сверхинтеллект спонтанно генерирует в качестве естественных подцелей « инструментальные цели », такие как самосохранение и целостность содержания целей, когнитивное развитие и приобретение ресурсов. Например, агент, единственной конечной целью которого является решение гипотезы Римана (известной нерешенной математической гипотезы ), может создать и действовать в соответствии с подцелью преобразования всей Земли в некую форму компьютрония (гипотетического материала, оптимизированного для вычислений), чтобы помочь в расчет. Сверхразум будет активно сопротивляться любым внешним попыткам отключить сверхинтеллект или иным образом помешать достижению его подцели. Чтобы предотвратить такую экзистенциальную катастрофу , необходимо успешно решить « проблему управления ИИ » для первого сверхразума. Решение может включать в себя внедрение сверхразума с целями, совместимыми с выживанием и благополучием человечества. Решить проблему управления на удивление сложно, поскольку большинство целей при переводе в машинно-реализуемый код приводит к непредвиденным и нежелательным последствиям.
Сова на обложке книги отсылает к аналогии, которую Бостром называет «Неоконченной басней о воробьях». [ 5 ] Группа воробьев решает найти птенца совы и вырастить его как своего слугу. [ 6 ] Они с нетерпением представляют, «какой легкой была бы жизнь», если бы у них была сова, которая помогала бы им строить гнезда, защищать воробьев и освобождать их для досуговой жизни. Воробьи начинают трудные поиски совиного яйца; только «Скронкфинкль», «одноглазый воробей с капризным темпераментом», предлагает задуматься над сложным вопросом, как приручить сову, прежде чем привести ее «к нам». Остальные воробьи возражают; поиск яйца совы сам по себе уже будет достаточно трудным: «Почему бы сначала не найти сову, а потом проработать мелкие детали?» Бостром заявляет, что «неизвестно, чем закончится история», но свою книгу он посвящает Скронкфинклу. [ 5 ] [ 4 ]
Прием
[ редактировать ]Книга заняла 17-е место в The New York Times за август 2014 года. списке самых продаваемых научных книг [ 7 ] В том же месяце бизнес-магнат Илон Маск попал в заголовки газет, согласившись с книгой, что искусственный интеллект потенциально более опасен, чем ядерное оружие . [ 8 ] [ 9 ] [ 10 ] Работа Бострома по сверхразуму также повлияла на обеспокоенность Билла Гейтса экзистенциальными рисками, с которыми столкнется человечество в предстоящем столетии. [ 11 ] [ 12 ] В марте 2015 года в интервью Baidu генеральному директору Робину Ли Гейтс сказал, что «настоятельно рекомендует» Superintelligence . [ 13 ] По словам жителя Нью-Йорка , философы Питер Сингер и Дерек Парфит «восприняли эту работу как важную». [ 4 ] Сэм Альтман написал в 2015 году, что эта книга — лучшее, что он когда-либо читал о рисках ИИ. [ 14 ]
Научный редактор Financial Times обнаружил, что сочинение Бострома «иногда переходит в непрозрачный язык, выдающий его опыт профессора философии», но убедительно демонстрирует, что риск, связанный со сверхинтеллектом, достаточно велик, чтобы общество уже сейчас начало думать о способах наделения будущего машинным интеллектом. с положительными значениями. [ 15 ] В обзоре The Guardian отмечается, что «даже самые сложные машины, созданные на данный момент, интеллектуальны лишь в ограниченном смысле» и что «ожидания того, что ИИ вскоре превзойдет человеческий интеллект, впервые были обмануты в 1960-х годах», но обзор находит точки соприкосновения. и Бостром сообщил, что «было бы опрометчиво полностью отвергать такую возможность». [ 3 ]
Некоторые коллеги Бострома предполагают, что ядерная война представляет собой большую угрозу человечеству, чем сверхинтеллект, равно как и будущая перспектива использования нанотехнологий и биотехнологий в качестве оружия . [ 3 ] The Economist заявил, что «Бостром вынужден потратить большую часть книги на обсуждение предположений, основанных на правдоподобных предположениях ... но книга, тем не менее, ценна. Последствия появления на Земле второго разумного вида достаточно далеко идущие, чтобы заслуживать серьезного размышления. даже если перспектива сделать это кажется отдаленной». [ 2 ] Рональд Бэйли написал в либертарианском журнале Reason , что Бостром убедительно доказывает, что решение проблемы управления ИИ является «важнейшей задачей нашего времени». [ 16 ] По словам Тома Чиверса из Daily Telegraph , книгу трудно читать, но, тем не менее, она полезна. [ 6 ] Рецензент журнала « Экспериментальный и теоретический искусственный интеллект» порвал с другими, заявив, что «стиль письма книги ясен», и похвалил книгу за то, что она избегает «чрезмерно технического жаргона». [ 17 ] Рецензент журнала «Философия» счел «Сверхинтеллект» «более реалистичным», чем книга Рэя Курцвейла «Сингулярность близка » . [ 18 ]
См. также
[ редактировать ]- Выравнивание ИИ
- Безопасность ИИ
- Институт будущего человечества
- Совместимость с человеком
- Жизнь 3.0
- Философия искусственного интеллекта
- Пропасть: экзистенциальный риск и будущее человечества
Ссылки
[ редактировать ]- ^ «Сверхумный швед раскуплен ОУП» . Книготорговец . 21 ноября 2013 г.
- ^ Jump up to: а б «Умные винтики» . Экономист . 9 августа 2014 года . Проверено 9 августа 2014 г.
- ^ Jump up to: а б с Хендерсон, Каспар (17 июля 2014 г.). «Суперинтеллект Ника Бострома и «Трудная поездка в будущее» Джеймса Лавлока – обзор» . Хранитель . Проверено 30 июля 2014 г.
- ^ Jump up to: а б с Хачадурян, Раффи (2015). «Изобретение Судного дня» . Житель Нью-Йорка . Проверено 29 марта 2020 г.
- ^ Jump up to: а б Адамс, Тим (12 июня 2016 г.). «Ник Бостром: «Мы как маленькие дети, играющие с бомбой» » . Наблюдатель . Проверено 29 марта 2020 г.
- ^ Jump up to: а б Чиверс, Том (10 августа 2014 г.). «Суперинтеллект» Ника Бострома, обзор: «тяжелое чтение » . Телеграф . Проверено 16 августа 2014 г.
- ^ «Самые продаваемые научные книги» . Нью-Йорк Таймс . 8 сентября 2014 года . Проверено 9 ноября 2014 г.
- ^ Дин, Джеймс (5 августа 2014 г.). «Искусственный интеллект «может уничтожить человечество» » . Таймс . Проверено 5 августа 2014 г.
- ^ Аугенбраун, Элиена (4 августа 2014 г.). «Илон Маск написал в Твиттере, что искусственный интеллект может быть «более опасным, чем ядерное оружие » . Новости ЦБК . Проверено 5 августа 2014 г.
- ^ Браттон, Бенджамин Х. (23 февраля 2015 г.). «Выездной ИИ: за пределами теста Тьюринга» . Нью-Йорк Таймс . Проверено 4 марта 2015 г.
- ^ Мак, Эрик (28 января 2015 г.). «Билл Гейтс говорит, что вам следует беспокоиться об искусственном интеллекте» . Форбс . Проверено 19 февраля 2015 г.
- ^ Ламби, Эндрю (28 января 2015 г.). «Билл Гейтс обеспокоен появлением машин» . Фискальный Таймс . Проверено 19 февраля 2015 г.
- ^ Кайзер Куо (31 марта 2015 г.). «Генеральный директор Baidu Робин Ли берет интервью у Билла Гейтса и Илона Маска на форуме в Боао, 29 марта 2015 г.» . Ютуб . Проверено 8 апреля 2015 г.
- ^ Блэк, Мелия Рассел, Джулия. «Он играл в шахматы с Питером Тилем, спарринговал с Илоном Маском и однажды, предположительно, остановил авиакатастрофу: в мире Сэма Альтмана, где правда страннее вымысла» . Бизнес-инсайдер . Проверено 15 августа 2023 г.
{{cite web}}
: CS1 maint: несколько имен: список авторов ( ссылка ) - ^ Куксон, Клайв (13 июля 2014 г.). «Суперинтеллект: пути, опасности, стратегии, Ник Бостром» . Файнэншл Таймс. Архивировано из оригинала 6 августа 2014 года . Проверено 30 июля 2014 г.
- ^ Бейли, Рональд (12 сентября 2014 г.). «Уничтожат ли сверхразумные машины человечество?» . Причина . Проверено 16 сентября 2014 г.
- ^ Томас, Джоэл (июль 2015 г.). «В защиту философии: обзор Ника Бострома» . Журнал экспериментального и теоретического искусственного интеллекта . 28 (6): 1089–1094. дои : 10.1080/0952813X.2015.1055829 .
- ^ Ричмонд, Шелдон (8 июля 2015 г.). «Суперинтеллект: пути, опасности, стратегии». Философия . 91 (1): 125–130. дои : 10.1017/S0031819115000340 . S2CID 171005535 .