~~~~~~~~~~~~~~~~~~~~ Arc.Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~ 
Номер скриншота №:
✰ 5362CE40D1A5DE03D464AA0F81E1C8CD__1711999500 ✰
Заголовок документа оригинал.:
✰ Singularitarianism - Wikipedia ✰
Заголовок документа перевод.:
✰ Сингуляритаризм — Википедия ✰
Снимок документа находящегося по адресу (URL):
✰ https://en.wikipedia.org/wiki/Singularitarianism ✰
Адрес хранения снимка оригинал (URL):
✰ https://arc.ask3.ru/arc/aa/53/cd/5362ce40d1a5de03d464aa0f81e1c8cd.html ✰
Адрес хранения снимка перевод (URL):
✰ https://arc.ask3.ru/arc/aa/53/cd/5362ce40d1a5de03d464aa0f81e1c8cd__translat.html ✰
Дата и время сохранения документа:
✰ 22.06.2024 23:22:38 (GMT+3, MSK) ✰
Дата и время изменения документа (по данным источника):
✰ 1 April 2024, at 22:25 (UTC). ✰ 

~~~~~~~~~~~~~~~~~~~~~~ Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~~ 
Сервисы Ask3.ru: 
 Архив документов (Снимки документов, в формате HTML, PDF, PNG - подписанные ЭЦП, доказывающие существование документа в момент подписи. Перевод сохраненных документов на русский язык.)https://arc.ask3.ruОтветы на вопросы (Сервис ответов на вопросы, в основном, научной направленности)https://ask3.ru/answer2questionТоварный сопоставитель (Сервис сравнения и выбора товаров) ✰✰
✰ https://ask3.ru/product2collationПартнерыhttps://comrades.ask3.ru


Совет. Чтобы искать на странице, нажмите Ctrl+F или ⌘-F (для MacOS) и введите запрос в поле поиска.
Arc.Ask3.ru: далее начало оригинального документа

Сингуляритаризм — Википедия Jump to content

Сингуляритаризм

Из Википедии, бесплатной энциклопедии

Сингуляритаризм — это движение , определяемое верой в то, что технологическая сингулярность — создание сверхразума — вероятно, произойдет в среднесрочном будущем, и что необходимо предпринять целенаправленные действия, чтобы гарантировать, что сингулярность принесет пользу людям . [1]

Сторонники сингулярности отличаются от других футуристов , спекулирующих на технологической сингулярности, своей верой в то, что сингулярность не только возможна, но и желательна, если ею руководствоваться разумно. Соответственно, иногда они могут посвятить свою жизнь действиям, которые, по их мнению, будут способствовать ее быстрой, но безопасной реализации. [2]

Журнал Time описывает мировоззрение сингулярианцев, говоря: «Хотя это звучит как научная фантастика, это не так, не более чем прогноз погоды является научной фантастикой. Это не маргинальная идея; это серьезная гипотеза о будущем жизни на Земле». Каждый раз, когда вы пытаетесь проглотить идею, связанную с сверхразумными бессмертными киборгами, срабатывает интеллектуальный рвотный рефлекс, но... хотя Сингулярность на первый взгляд кажется нелепой, эта идея вознаграждает трезвость, тщательная оценка». [1]

Определение [ править ]

Термин «сингуляриант» первоначально был определен экстропианским мыслителем Марком Плюсом (Марк Поттс) в 1991 году как означающий «тот, кто верит в концепцию сингулярности». [ нужна цитата ] С тех пор этот термин был изменен и стал означать «активист сингулярности» или «друг сингулярности»; то есть тот, кто действует так, чтобы вызвать сингулярность. [3]

Сингуляритаризм также можно рассматривать как ориентацию или мировоззрение, которое предпочитает развитие человеческого интеллекта в качестве конкретной трансгуманистической цели вместо сосредоточения внимания на конкретных технологиях, таких как искусственный интеллект. [4] Существуют также определения, которые идентифицируют сингуляриста как активиста или друга концепции сингулярности, то есть того, кто действует так, чтобы вызвать сингулярность. [5] Некоторые источники описывают это как моральную философию , которая защищает целенаправленные действия, направленные на создание и управление развитием сверхразума, который приведет к теоретической точке будущего, которая возникнет во время ускоренных изменений. [6]

Изобретатель и футурист Рэй Курцвейл , автор книги 2005 года « Сингулярность близка: когда люди превосходят биологию» , определяет сингулярианца как человека, «который понимает сингулярность и размышляет о ее последствиях для своей собственной жизни». [2] и предполагает, что сингулярность произойдет примерно в 2045 году . [2]

История [ править ]

Раннее сингулярное утверждение о том, что история движется к точке сверхчеловеческого разума, можно найти в « работе Гегеля Феноменология духа» . [7] В 1993 году математик , ученый-компьютерщик и -фантаст писатель Вернор Виндж выдвинул гипотезу, что может наступить момент, когда технологии позволят «создавать существ с интеллектом, превышающим человеческий». [8] и использовал термин «Сингулярность», чтобы описать этот момент. [9] Он предположил, что сингулярность может представлять экзистенциальный риск для человечества и что это может произойти одним из четырех способов:

  1. Разработка «бодрствующих» компьютеров со сверхчеловеческим интеллектом.
  2. Крупные компьютерные сети (и связанные с ними пользователи) могут «проснуться» как сверхчеловечески разумные существа.
  3. Интерфейсы между компьютером и человеком могут стать настолько интимными, что пользователей можно будет обоснованно считать сверхчеловечески умными.
  4. Биологическая наука может найти способы улучшить естественный человеческий интеллект. [10]

Сингуляритаризм объединился в последовательную идеологию в 2000 году, когда исследователь искусственного интеллекта (ИИ) Элиэзер Юдковский написал «Принципы сингуляритарности» : [2] [11] в котором он заявил, что сингулярианцы верят, что сингулярность - это светское, немистическое событие, которое возможно и полезно для мира и к которому стремятся его приверженцы. [11] Концептуализация сингулярности Юдковским предложила широкое определение, включающее различные интерпретации. [4] Есть такие теоретики, как Михаил Анисимов, которые выступали за строгое определение, которое относится только к защите развития постчеловеческого (большего, чем человеческий) интеллекта. [4]

В июне 2000 года Юдковски при поддержке интернет-предпринимателей Брайана Аткинса и Сабины Аткинс основал Исследовательский институт машинного интеллекта для работы над созданием самосовершенствующегося Дружественного ИИ . В трудах MIRI утверждается, что ИИ, способный улучшать свою собственную конструкцию ( Seed AI ), быстро приведет к сверхразуму . Эти сторонники сингулярности полагают, что быстрое и безопасное достижение сингулярности – лучший способ минимизировать чистый экзистенциальный риск .

Многие люди верят, что технологическая сингулярность возможна без принятия сингуляритаризма в качестве моральной философии. Хотя точные цифры сложно подсчитать, сингуляритаризм — это небольшое движение, в которое входит -трансгуманист философ Ник Бостром . Изобретатель и футурист Рэй Курцвейл , который предсказывает, что сингулярность произойдет примерно в 2045 году , внес большой вклад в популяризацию сингуляритаризма своей книгой 2005 года « Сингулярность близка: когда люди превосходят биологию» . [2]

Что же тогда такое Сингулярность? Это будущий период, в течение которого темпы технологических изменений будут такими быстрыми, а их влияние настолько глубоким, что человеческая жизнь необратимо изменится. Хотя эта эпоха не является ни утопической, ни антиутопической, она изменит концепции, на которые мы полагаемся, чтобы придать смысл нашей жизни, от наших бизнес-моделей до цикла человеческой жизни, включая саму смерть. Понимание сингулярности изменит наш взгляд на значение нашего прошлого и последствия для нашего будущего. По-настоящему понять это по своей сути меняет взгляд на жизнь в целом и на жизнь в частности. Я считаю человека, который понимает сингулярность и размышлял о ее последствиях для своей жизни, «сингуляристом». [2]

При поддержке НАСА , Google и широкого круга технологических прогнозистов и технокапиталистов с открылся Университет Сингулярности в июне 2009 года в Исследовательском парке НАСА в Силиконовой долине целью подготовки нового поколения лидеров для решения проблем ускорения перемен. .

В июле 2009 года многие видные сторонники сингулярности приняли участие в конференции, организованной Ассоциацией по развитию искусственного интеллекта (AAAI), чтобы обсудить потенциальное влияние роботов и компьютеров, а также влияние гипотетической возможности того, что они смогут стать самодостаточными и способными принимать собственные решения. Они обсудили возможность и степень, в которой компьютеры и роботы смогут приобрести какой-либо уровень автономии, и в какой степени они могут использовать такие способности, чтобы создать какую-либо угрозу или опасность (например, кибернетический бунт ). Они отметили, что некоторые машины приобрели различные формы полуавтономности, в том числе возможность самостоятельно находить источники питания и возможность самостоятельно выбирать цели для атаки оружием. Они предупредили, что некоторые компьютерные вирусы могут избежать уничтожения и достигли «тарачьего интеллекта». Они утверждали, что самосознание, изображенное в научной фантастике , вероятно, маловероятно, но существуют и другие потенциальные опасности и ловушки. [9] Некоторые эксперты и ученые ставят под сомнение использование роботов в боевых действиях , особенно когда таким роботам наделяют некоторую степень автономных функций. [12] Президент AAAI заказал исследование для изучения этого вопроса. [13]

Прием [ править ]

Есть несколько возражений против сингуляритаризма Курцвейла, включая критику со стороны оптимистов в области ИИ. Например, Пулитцеровской премии лауреат Дуглас Хофштадтер утверждал, что предсказанное Курцвейлом достижение ИИ человеческого уровня к 2045 году нежизнеспособно. [14] Даже Гордон Мур , которому приписывают введение закона Мура , утверждавшего [15] понятие сингулярности, утверждающее, что она никогда не произойдет. [16] По мнению некоторых наблюдателей, эта критика не уменьшает энтузиазма по поводу сингулярности, поскольку она приняла квазирелигиозный ответ на страх смерти, позволяя своим приверженцам пользоваться благами религии без ее онтологического бремени. [14] Научный журналист Джон Хорган дал больше информации об этом понятии, сравнив сингуляритаризм с религией:

Давайте посмотрим правде в глаза. Сингулярность — это скорее религиозное, чем научное видение. Писатель-фантаст Кен МакЛауд назвал это «восторгом для ботаников», намекая на последнее время, когда Иисус унесет верующих на небеса и оставит нас, грешников, позади. Такое стремление к трансцендентности, духовной или технологической, вполне понятно. И как отдельные личности, и как вид, мы сталкиваемся со смертельно серьезными проблемами, включая терроризм, распространение ядерного оружия, перенаселение, бедность, голод, деградацию окружающей среды , изменение климата , истощение ресурсов и СПИД . Инженеры и ученые должны помогать нам решать мировые проблемы и находить их решения, а не предаваться эскапистским псевдонаучным фантазиям, таким как сингулярность. [17]

Курцвейл отвергает эту категоризацию, заявляя, что его предсказания относительно сингулярности основаны на данных о том, что рост вычислительных технологий в прошлом был экспоненциальным. [18] Он также утверждал, что критики, оспаривающие его точку зрения, ошибочно придерживаются интуитивного линейного взгляда на технологический прогресс. [19]

См. также [ править ]

Ссылки [ править ]

  1. ^ Перейти обратно: а б Гроссман, Лев (10 февраля 2011 г.). «2045: Год, когда человек становится бессмертным» . Время . ISSN   0040-781X . Проверено 3 декабря 2023 г.
  2. ^ Перейти обратно: а б с д Это ж Курцвейл, Раймонд (2005). Сингулярность близка: когда люди превзойдут биологию . Викинг взрослый. ISBN  0-670-03384-7 . OCLC   224517172 .
  3. ^ Институт Экстропии. «Неологизмы экстропии» . Extropy.org . Проверено 30 марта 2011 г.
  4. ^ Перейти обратно: а б с Твитт-Бейтс, Джанин (2016). Киборгские личности: теологическая антропология постчеловека . Оксон: Рутледж. п. 52. ИСБН  978-1-4094-2141-2 .
  5. ^ Курцвейл, Рэй (2010). Сингулярность уже близко . Джеральда Дакворта и компании Лондон: ISBN  978-0-7156-4015-9 .
  6. ^ «Сингуляризм | Технопрогрессивная вики» . ieet.org . Проверено 26 октября 2018 г.
  7. ^ Иден, АХ; Мур, Дж. Х.; Соракер, Дж. Х.; Стейнхарт, Э. (2013). Гипотезы сингулярности: научная и философская оценка . Коллекция «Границы». Шпрингер Берлин Гейдельберг. п. 6. ISBN  978-3-642-32560-1 . Проверено 5 мая 2023 г.
  8. ^ Грядущая технологическая сингулярность: как выжить в постчеловеческую эпоху , Вернор Виндж, факультет математических наук, Государственный университет Сан-Диего, (c) 1993, Вернор Виндж.
  9. ^ Перейти обратно: а б Маркофф, Джон (26 июля 2009 г.). «Ученые опасаются, что машины могут перехитрить человека» . Газета "Нью-Йорк Таймс .
  10. ^ Грядущая технологическая сингулярность: как выжить в постчеловеческую эпоху , Вернор Виндж, факультет математических наук, Государственный университет Сан-Диего, (c) 1993, Вернор Виндж.
  11. ^ Перейти обратно: а б Сингуляритарные принципы »
  12. ^ Палмер, Джейсон (3 августа 2009 г.). «Призыв к дискуссии о роботах-убийцах» . Новости BBC .
  13. ^ Президентская комиссия AAAI по долгосрочному исследованию будущего искусственного интеллекта на 2008-2009 гг. , Ассоциация по развитию искусственного интеллекта, по состоянию на 26 июля 2009 г.
  14. ^ Перейти обратно: а б Марголис, Эрик; Сэмюэлс, Ричард; Стич, Стивен (2012). Оксфордский справочник по философии когнитивной науки . Оксфорд: Издательство Оксфордского университета. п. 169. ИСБН  978-0-19-530979-9 .
  15. ^ Лазарь, Зоар (7 апреля 2016 г.). «Когда наступит сингулярность? Вероятно, не при вашей жизни» . Нью-Йорк Таймс . Проверено 26 октября 2018 г.
  16. ^ «Технические светила обращаются к сингулярности» . IEEE-спектр . 1 июня 2008 года . Проверено 26 октября 2018 г.
  17. ^ Хорган, Джон (2008). «Загадка сознания» . IEEE-спектр .
  18. ^ У. Дженкинс-младший, Холман (12 апреля 2013 г.). «Будет ли Рэй Курцвейл из Google жить вечно?» . Уолл Стрит Джорнал .
  19. ^ Барфилд, Вудро (2015). Киберлюди: наше будущее с машинами . Чам, Швейцария: Springer. п. 40. ИСБН  978-3-319-25048-9 .

Внешние ссылки [ править ]

Arc.Ask3.Ru: конец оригинального документа.
Arc.Ask3.Ru
Номер скриншота №: 5362CE40D1A5DE03D464AA0F81E1C8CD__1711999500
URL1:https://en.wikipedia.org/wiki/Singularitarianism
Заголовок, (Title) документа по адресу, URL1:
Singularitarianism - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть, любые претензии не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, денежную единицу можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)