Сингуляритаризм
Трансгуманизм |
---|
Проблемы |
Люди (включая предшественников) |
|
|
Сингуляритаризм — это движение , определяемое верой в то, что технологическая сингулярность — создание сверхразума — вероятно, произойдет в среднесрочном будущем, и что необходимо предпринять целенаправленные действия, чтобы гарантировать, что сингулярность принесет пользу людям . [1]
Сторонники сингулярности отличаются от других футуристов , спекулирующих на технологической сингулярности, своей верой в то, что сингулярность не только возможна, но и желательна, если ею руководствоваться разумно. Соответственно, иногда они могут посвятить свою жизнь действиям, которые, по их мнению, будут способствовать ее быстрой, но безопасной реализации. [2]
Журнал Time описывает мировоззрение сингулярианцев, говоря: «Хотя это звучит как научная фантастика, это не так, не более чем прогноз погоды является научной фантастикой. Это не маргинальная идея; это серьезная гипотеза о будущем жизни на Земле». Каждый раз, когда вы пытаетесь проглотить идею, связанную с сверхразумными бессмертными киборгами, срабатывает интеллектуальный рвотный рефлекс, но... хотя Сингулярность на первый взгляд кажется нелепой, эта идея вознаграждает трезвость, тщательная оценка». [1]
Определение
[ редактировать ]Термин «сингуляриант» был первоначально определен экстропианским мыслителем Марком Плюсом (Марк Поттс) в 1991 году как означающий «тот, кто верит в концепцию сингулярности». [ нужна ссылка ] С тех пор этот термин был изменен и стал означать «активист сингулярности» или «друг сингулярности»; то есть тот, кто действует так, чтобы вызвать сингулярность. [3]
Сингуляритаризм также можно рассматривать как ориентацию или мировоззрение, которое предпочитает развитие человеческого интеллекта в качестве конкретной трансгуманистической цели вместо сосредоточения внимания на конкретных технологиях, таких как искусственный интеллект. [4] Существуют также определения, которые идентифицируют сингуляриста как активиста или друга концепции сингулярности, то есть того, кто действует так, чтобы вызвать сингулярность. [5] Некоторые источники описывают ее как моральную философию , которая защищает целенаправленные действия, направленные на создание и управление развитием сверхразума, который приведет к теоретической точке будущего, которая возникнет во время ускоренных изменений. [6]
Изобретатель и футурист Рэй Курцвейл , автор книги 2005 года « Сингулярность близка: когда люди превосходят биологию» , определяет сингулярианца как человека, «который понимает сингулярность и размышляет о ее последствиях для своей собственной жизни». [2] и предполагает, что сингулярность произойдет примерно в 2045 году . [2]
История
[ редактировать ]Раннее сингулярное утверждение о том, что история движется к точке сверхчеловеческого разума, можно найти в Феноменология работе Гегеля « духа» . [7] В 1993 году математик , ученый-компьютерщик и -фантаст писатель Вернор Виндж выдвинул гипотезу, что может наступить момент, когда технологии позволят «создавать существ с интеллектом, превосходящим человеческий». [8] и использовал термин «Сингулярность», чтобы описать этот момент. [9] Он предположил, что сингулярность может представлять экзистенциальный риск для человечества и что это может произойти одним из четырех способов:
- Разработка «бодрствующих» компьютеров со сверхчеловеческим интеллектом.
- Крупные компьютерные сети (и связанные с ними пользователи) могут «проснуться» как сверхчеловечески разумные существа.
- Интерфейсы между компьютером и человеком могут стать настолько интимными, что пользователей можно будет обоснованно считать сверхчеловечески умными.
- Биологическая наука может найти способы улучшить естественный человеческий интеллект. [10]
Сингуляритаризм объединился в последовательную идеологию в 2000 году, когда исследователь искусственного интеллекта (ИИ) Элиезер Юдковски написал «Принципы сингуляритарности» : [2] [11] в котором он заявил, что сингулярианцы верят, что сингулярность - это светское, немистическое событие, которое возможно и полезно для мира, и к которому стремятся его приверженцы. [11] Концептуализация сингулярности Юдковским предложила широкое определение, включающее различные интерпретации. [4] Есть такие теоретики, как Михаил Анисимов, которые выступали за строгое определение, которое относится только к защите развития постчеловеческого (большего, чем человеческий) интеллекта. [4]
В июне 2000 года Юдковски при поддержке интернет-предпринимателей Брайана Аткинса и Сабины Аткинс основал Исследовательский институт машинного интеллекта для работы над созданием самосовершенствующегося Дружественного ИИ . В трудах MIRI доказывается идея о том, что ИИ, способный улучшать свою собственную конструкцию ( Seed AI ), быстро приведет к сверхразуму . Эти сторонники сингулярности полагают, что быстрое и безопасное достижение сингулярности – лучший способ минимизировать чистый экзистенциальный риск .
Многие люди верят, что технологическая сингулярность возможна без принятия сингуляритаризма в качестве моральной философии. Хотя точные цифры трудно подсчитать, сингуляритаризм — это небольшое движение, в которое входит -трансгуманист философ Ник Бостром . Изобретатель и футурист Рэй Курцвейл , который предсказывает, что сингулярность произойдет примерно в 2045 году , внес большой вклад в популяризацию сингуляритаризма своей книгой 2005 года «Сингулярность близка: когда люди превосходят биологию» . [2]
Что же тогда такое Сингулярность? Это будущий период, в течение которого темпы технологических изменений будут такими быстрыми, а их влияние настолько глубоким, что человеческая жизнь необратимо изменится. Хотя эта эпоха не является ни утопической, ни антиутопической, она изменит концепции, на которые мы полагаемся, чтобы придать смысл нашей жизни, от наших бизнес-моделей до цикла человеческой жизни, включая саму смерть. Понимание сингулярности изменит наш взгляд на значение нашего прошлого и последствия для нашего будущего. По-настоящему понять это по своей сути меняет взгляд на жизнь в целом и на жизнь в частности. Я считаю «сингуляристом» человека, который понимает сингулярность и размышляет о ее последствиях для своей жизни. [2]
При поддержке НАСА , Google и широкого круга технологических прогнозистов и технокапиталистов с открылся Университет Сингулярности в июне 2009 года в Исследовательском парке НАСА в Силиконовой долине целью подготовки нового поколения лидеров для решения проблем ускорения перемен. .
В июле 2009 года многие видные сторонники сингулярности приняли участие в конференции, организованной Ассоциацией по развитию искусственного интеллекта (AAAI), чтобы обсудить потенциальное влияние роботов и компьютеров, а также влияние гипотетической возможности того, что они смогут стать самодостаточными и способными принимать собственные решения. Они обсудили возможность и степень, в которой компьютеры и роботы смогут приобрести тот или иной уровень автономии, и в какой степени они могут использовать такие способности, чтобы создать какую-либо угрозу или опасность (например, кибернетический бунт ). Они отметили, что некоторые машины приобрели различные формы полуавтономности, в том числе способность самостоятельно находить источники питания и возможность самостоятельно выбирать цели для атаки оружием. Они предупредили, что некоторые компьютерные вирусы могут избежать уничтожения и достигли «тарачьего интеллекта». Они утверждали, что самосознание, изображенное в научной фантастике, вероятно, маловероятно, но существуют и другие потенциальные опасности и ловушки. [9] Некоторые эксперты и ученые ставят под сомнение использование роботов в боевых действиях , особенно когда таким роботам наделяют некоторую степень автономных функций. [12] Президент AAAI заказал исследование для изучения этого вопроса. [13]
Прием
[ редактировать ]Есть несколько возражений против сингуляритаризма Курцвейла, включая критику со стороны оптимистов в области ИИ. Например, Пулитцеровской премии лауреат Дуглас Хофштадтер утверждал, что предсказанное Курцвейлом достижение ИИ человеческого уровня к 2045 году нежизнеспособно. [14] Даже Гордон Мур , тезка закона Мура, утверждавшего [15] понятие сингулярности, утверждающее, что она никогда не произойдет. [16] По мнению некоторых наблюдателей, эта критика не умаляет энтузиазма по поводу сингулярности, поскольку она приняла квазирелигиозный ответ на страх смерти, позволяя своим приверженцам пользоваться благами религии без ее онтологического бремени. [14] Научный журналист Джон Хорган дал больше информации об этом понятии, сравнив сингуляритаризм с религией:
Давайте посмотрим правде в глаза. Сингулярность — это скорее религиозное, чем научное видение. Писатель-фантаст Кен МакЛауд назвал это «восторгом для ботаников», намекая на последнее время, когда Иисус унесет верующих на небеса и оставит нас, грешников, позади. Такое стремление к трансцендентности, духовной или технологической, вполне понятно. И как отдельные личности, и как вид мы сталкиваемся со смертельно серьезными проблемами, включая терроризм, распространение ядерного оружия, перенаселение, бедность, голод, деградацию окружающей среды , изменение климата , истощение ресурсов и СПИД . Инженеры и ученые должны помогать нам решать мировые проблемы и находить их решения, а не предаваться эскапистским псевдонаучным фантазиям, таким как сингулярность. [17]
Курцвейл отверг эту категоризацию, заявив, что его предсказания относительно сингулярности основаны на данных о том, что рост вычислительных технологий в прошлом был экспоненциальным. [18] Он утверждал, что критики, оспаривающие его точку зрения, ошибочно придерживаются интуитивного линейного взгляда на технологический прогресс, а не учитывают этот экспоненциальный рост. [19]
См. также
[ редактировать ]- Общий искусственный интеллект
- Эсхатология
- Экзистенциальный риск от общего искусственного интеллекта
- Глобальный мозг
- Интеллектуальный взрыв
- Очерк трансгуманизма
- Экономика после дефицита
- Технологический утопизм
Ссылки
[ редактировать ]- ^ Перейти обратно: а б Гроссман, Лев (10 февраля 2011 г.). «2045: Год, когда человек становится бессмертным» . Время . ISSN 0040-781X . Проверено 3 декабря 2023 г.
- ^ Перейти обратно: а б с д и ж Курцвейл, Раймонд (2005). Сингулярность близка: когда люди превзойдут биологию . Викинг взрослый. ISBN 0-670-03384-7 . OCLC 224517172 .
- ^ Институт Экстропии. «Неологизмы экстропии» . Extropy.org . Проверено 30 марта 2011 г.
- ^ Перейти обратно: а б с Твитт-Бейтс, Джанин (2016). Киборгские личности: теологическая антропология постчеловека . Оксон: Рутледж. п. 52. ИСБН 978-1-4094-2141-2 .
- ^ Курцвейл, Рэй (2010). Сингулярность уже близко . Лондон: ISBN Джеральда Дакворта и компании 978-0-7156-4015-9 .
- ^ «Сингуляризм | Технопрогрессивная вики» . ieet.org . Проверено 26 октября 2018 г.
- ^ Иден, АХ; Мур, Дж. Х.; Соракер, Дж. Х.; Стейнхарт, Э. (2013). Гипотезы сингулярности: научная и философская оценка . Коллекция «Границы». Шпрингер Берлин Гейдельберг. п. 6. ISBN 978-3-642-32560-1 . Проверено 5 мая 2023 г.
- ^ Грядущая технологическая сингулярность: как выжить в постчеловеческую эпоху , Вернор Виндж, факультет математических наук, Государственный университет Сан-Диего, (c) 1993, Вернор Виндж.
- ^ Перейти обратно: а б Маркофф, Джон (26 июля 2009 г.). «Ученые опасаются, что машины могут перехитрить человека» . Нью-Йорк Таймс .
- ^ Грядущая технологическая сингулярность: как выжить в постчеловеческую эпоху , Вернор Виндж, факультет математических наук, Государственный университет Сан-Диего, (c) 1993, Вернор Виндж.
- ^ Перейти обратно: а б Сингуляритарные принципы »
- ^ Палмер, Джейсон (3 августа 2009 г.). «Призыв к дискуссии о роботах-убийцах» . Новости Би-би-си .
- ^ Президентская комиссия AAAI по долгосрочному исследованию будущего искусственного интеллекта на 2008-2009 гг ., Ассоциация по развитию искусственного интеллекта, по состоянию на 26 июля 2009 г.
- ^ Перейти обратно: а б Марголис, Эрик; Сэмюэлс, Ричард; Стич, Стивен (2012). Оксфордский справочник по философии когнитивной науки . Оксфорд: Издательство Оксфордского университета. п. 169. ИСБН 978-0-19-530979-9 .
- ^ Лазарь, Зоар (7 апреля 2016 г.). «Когда наступит сингулярность? Вероятно, не при вашей жизни» . Нью-Йорк Таймс . Проверено 26 октября 2018 г.
- ^ «Технические светила обращаются к сингулярности» . IEEE-спектр . 1 июня 2008 года . Проверено 26 октября 2018 г.
- ^ Хорган, Джон (2008). «Загадка сознания» . IEEE-спектр .
- ^ У. Дженкинс-младший, Холман (12 апреля 2013 г.). «Будет ли Рэй Курцвейл из Google жить вечно?» . Уолл Стрит Джорнал .
- ^ Барфилд, Вудро (2015). Киберлюди: наше будущее с машинами . Чам, Швейцария: Springer. п. 40. ИСБН 978-3-319-25048-9 .
Внешние ссылки
[ редактировать ]- Этические проблемы современного искусственного интеллекта , Ник Бостром , 2003 г.
- «Загадка сознания» , критика сингуляристов Джона Хоргана.