Jump to content

Институт будущего человечества

Институт будущего человечества
Формирование 2005 г .; 19 лет назад ( 2005 )
Растворенный 16 апреля 2024 г .; 2 месяца назад ( 16.04.2024 )
Цель Исследуйте общие вопросы о человечестве и его перспективах.
Штаб-квартира Оксфорд , Англия
Директор
Ник Бостром
Головная организация
философии Факультет Оксфордского университета
Веб-сайт futureofhumanityinstitute.org

Институт будущего человечества ( FHI ) был междисциплинарным исследовательским центром Оксфордского университета, исследующим общие вопросы о человечестве и его перспективах. Он был основан в 2005 году как часть философского факультета и Оксфордской школы Мартина . [1] Ее директором был философ Ник Бостром , а в исследовательский коллектив входили футурист Андерс Сандберг и Giving What We Can основатель Тоби Орд . [2]

Разделяя офис и тесно сотрудничая с Центром эффективного альтруизма , заявленная цель института заключалась в том, чтобы сосредоточить исследования там, где он может принести наибольшие положительные изменения для человечества в долгосрочной перспективе. [3] [4] Он занимался сочетанием академической и просветительской деятельности, стремясь способствовать информированному обсуждению и участию общественности в правительстве, бизнесе, университетах и ​​других организациях. Крупнейшими спонсорами исследований центра были Амлин , Илон Маск , Европейский исследовательский совет , Институт будущего жизни и Leverhulme Trust . [5]

Институт был закрыт 16 апреля 2024 года, «столкнувшись с растущими административными препятствиями на философском факультете ». [6] [7]

История [ править ]

Ник Бостром основал институт в ноябре 2005 года как часть Оксфордской школы Мартина, а затем Школы Джеймса Мартина 21 века. [1] В период с 2008 по 2010 год FHI провел конференцию по глобальным катастрофическим рискам, написал 22 статьи в научных журналах и опубликовал 34 главы в научных томах. Исследователи FHI были упомянуты в СМИ более 5000 раз. [8] и давали политические рекомендации на Всемирном экономическом форуме частному и некоммерческому сектору (например, Фонду Макартура и Всемирной организации здравоохранения ), а также правительственным органам в Швеции, Сингапуре, Бельгии, Великобритании, и США.

Бостром и специалист по биоэтике Джулиан Савулеску также опубликовали книгу «Улучшение человека» в марте 2009 года. [9] Совсем недавно FHI сосредоточила внимание на опасностях передового искусственного интеллекта (ИИ). Стюарта Армстронга В 2014 году ее исследователи опубликовали несколько книг о рисках, связанных с ИИ, в том числе «Умнее, чем мы» Бострома и «Суперинтеллект: пути, опасности, стратегии» . [10] [11]

В 2018 году Open Philanthropy рекомендовала FHI предоставить грант в размере примерно до 13,4 миллиона фунтов стерлингов в течение трех лет, при этом большая часть будет зависеть от успешного найма. [12]

Экзистенциальный риск [ править ]

Самая большая тема, на изучение которой FHI потратила время, — это риск глобальных катастроф и, в частности, экзистенциальный риск. В статье 2002 года Бостром определил «экзистенциальный риск» как риск, «когда неблагоприятный исход либо уничтожит разумную жизнь, зародившуюся на Земле, либо навсегда и резко ограничит ее потенциал». [13] Сюда входят сценарии, в которых человечеству не причиняется прямой вред, но оно не может колонизировать космос и использовать доступные ресурсы наблюдаемой Вселенной в проектах, ценных для человечества, как обсуждалось в статье Бострома 2003 года «Астрономические отходы: альтернативная стоимость отложенного технологического развития». [14]

В книге Бострома и Милана Чирковичей 2008 года «Глобальные катастрофические риски» собраны эссе о различных таких рисках, как природных, так и антропогенных. Возможные катастрофические риски природы включают супервулканизм , ударные события и энергичные астрономические события, такие как гамма-всплески , космические лучи , солнечные вспышки и сверхновые . Эти опасности характеризуются как относительно небольшие и относительно хорошо изученные, хотя пандемии могут быть исключениями из-за того, что они более распространены и соответствуют технологическим тенденциям. [15] [4]

синтетическим пандемиям с использованием биологических агентов, FHI уделяет больше внимания используемых в качестве оружия. Технологические результаты, в которых институт особенно заинтересован, включают антропогенное изменение климата , ядерную войну и ядерный терроризм , молекулярные нанотехнологии и общий искусственный интеллект . Ожидая, что наибольшие риски будут исходить от будущих технологий и, в частности, от передового искусственного интеллекта, FHI соглашается с другими организациями по снижению экзистенциальных рисков, такими как Центр изучения экзистенциальных рисков и Исследовательский институт машинного интеллекта . [16] [17] Исследователи FHI также изучили влияние технического прогресса на социальные и институциональные риски, такие как тоталитаризм , безработица, вызванная автоматизацией , и информационные опасности. [18]

В 2020 году старший научный сотрудник FHI Тоби Орд опубликовал свою книгу «Пропасть: экзистенциальный риск и будущее человечества» , в которой утверждает, что защита будущего человечества является одной из самых важных моральных проблем нашего времени. [19] [20]

Антропное мышление [ править ]

FHI уделяет большую часть своего внимания экзотическим угрозам, которые мало изучены другими организациями, а также методологическим соображениям, которые определяют снижение экзистенциальных рисков и прогнозирование. В своих исследованиях институт особое внимание уделяет антропному рассуждению как недостаточно изученной области с общими эпистемологическими последствиями.

Антропные аргументы, которые изучил FHI, включают аргумент конца света , который утверждает, что человечество, скорее всего, скоро вымрет, потому что маловероятно, что кто-то наблюдает какой-либо момент в истории человечества, который является чрезвычайно ранним. Вместо этого современные люди, вероятно, будут находиться где-то в середине распределения людей, которые когда-либо будут жить. [15] Бостром также популяризировал аргумент о моделировании .

Постоянной темой в исследованиях FHI является парадокс Ферми — удивительное отсутствие наблюдаемых инопланетных цивилизаций. Робин Хэнсон утверждал, что должен существовать « Великий фильтр », предотвращающий колонизацию космоса, чтобы объяснить этот парадокс. Этот фильтр может лежать в прошлом, если интеллект встречается гораздо реже, чем предсказывает современная биология; или это может произойти в будущем, если экзистенциальные риски будут даже больше, чем признается в настоящее время.

и рациональность Улучшение человека

Тесно связана с работой FHI по оценке рисков, астрономическим отходам и опасностям будущих технологий ее работа над перспективами и рисками улучшения человеческого потенциала . Модификации, о которых идет речь, могут быть биологическими, цифровыми или социологическими, при этом акцент делается на наиболее радикальных предполагаемых изменениях, а не на наиболее вероятных краткосрочных инновациях. Исследования FHI в области биоэтики сосредоточены на потенциальных последствиях генной терапии , продления жизни , мозговых имплантатов и интерфейсов мозг-компьютер , а также загрузки разума . [21]

Основное внимание FHI уделялось методам оценки и повышения человеческого интеллекта и рациональности как способу определения скорости и направления технологического и социального прогресса. Работа FHI над человеческой иррациональностью, примером которой являются когнитивные эвристики и предубеждения , включает постоянное сотрудничество с Амлином для изучения системного риска , возникающего из-за предвзятостей в моделировании. [22] [23]

Избранные публикации [ править ]

См. также [ править ]

Ссылки [ править ]

  1. Перейти обратно: Перейти обратно: а б «Будущее человечества: Институт будущего человечества» . Оксфордская школа Мартина . Архивировано из оригинала 17 марта 2014 года . Проверено 28 марта 2014 г.
  2. ^ "Персонал" . Институт будущего человечества . Проверено 28 марта 2014 г.
  3. ^ «О ФХИ» . Институт будущего человечества . Архивировано из оригинала 1 декабря 2015 года . Проверено 28 марта 2014 г.
  4. Перейти обратно: Перейти обратно: а б Росс Андерсен (25 февраля 2013 г.). «Омены» . Журнал Эон . Архивировано из оригинала 9 февраля 2014 года . Проверено 28 марта 2014 г.
  5. ^ «Поддержка ФХИ» . Институт будущего человечества . 2021. Архивировано из оригинала 20 октября 2021 года . Проверено 23 июля 2022 г.
  6. ^ «Институт будущего человечества» . веб.архив.орг . 17 апреля 2024 года. Архивировано из оригинала 17 апреля 2024 года . Проверено 17 апреля 2024 г. {{cite web}}: CS1 maint: bot: исходный статус URL неизвестен ( ссылка )
  7. ^ Майберг, Эмануэль (17 апреля 2024 г.). «Институт, который стал пионером исследований «экзистенциального риска» искусственного интеллекта, закрывается» . 404 Медиа . Проверено 17 апреля 2024 г.
  8. ^ «Новости Google» . Новости Google . Проверено 30 марта 2015 г.
  9. ^ Ник Бостром (18 июля 2007 г.). Отчет о достижениях: 2008-2010 гг. (PDF) (Отчет). Институт будущего человечества. Архивировано из оригинала (PDF) 21 декабря 2012 года . Проверено 31 марта 2014 г.
  10. ^ Марк Писинг (17 мая 2012 г.). «Восстание искусственного интеллекта: люди будут отданы на аутсорсинг, а не уничтожены» . Проводной . Проверено 31 марта 2014 г.
  11. ^ Кофлан, Шон (24 апреля 2013 г.). «Как люди вымрут?» . Новости Би-би-си . Проверено 29 марта 2014 г.
  12. ^ Открытый проект благотворительности (июль 2018 г.). «Институт будущего человечества — работа над глобальными катастрофическими рисками» .
  13. ^ Ник Бостром (март 2002 г.). «Экзистенциальные риски: анализ сценариев вымирания человечества и связанных с ними опасностей» . Журнал эволюции и технологий . 15 (3): 308–314 . Проверено 31 марта 2014 г.
  14. ^ Ник Бостром (ноябрь 2003 г.). «Астрономические отходы: альтернативная стоимость задержки технологического развития» . Утилитас . 15 (3): 308–314. CiteSeerX   10.1.1.429.2849 . дои : 10.1017/s0953820800004076 . S2CID   15860897 . Проверено 31 марта 2014 г.
  15. Перейти обратно: Перейти обратно: а б Росс Андерсен (6 марта 2012 г.). «Мы недооцениваем риск вымирания человечества» . Атлантика . Проверено 29 марта 2014 г.
  16. ^ Кейт Уайтхед (16 марта 2014 г.). «Исследовательский центр Кембриджского университета фокусируется на рисках, которые могут уничтожить человечество» . Южно-Китайская Морнинг Пост . Проверено 29 марта 2014 г.
  17. ^ Дженни Холландер (сентябрь 2012 г.). «Оксфордский институт будущего человечества знает, что приведет к нашему вымиранию» . Суета . Проверено 31 марта 2014 г.
  18. ^ Ник Бостром. «Информационные опасности: типология потенциального вреда от знаний» (PDF) . Институт будущего человечества . Проверено 31 марта 2014 г.
  19. ^ Орд, Тоби. «Пропасть: экзистенциальный риск и будущее человечества» . Сайт Пропасти . Проверено 18 октября 2020 г.
  20. ^ Чиверс, Том (7 марта 2020 г.). «Насколько человечество близко к уничтожению самого себя?» . Зритель . Проверено 18 октября 2020 г.
  21. ^ Андерс Сандберг и Ник Бостром. «Эмуляция всего мозга: дорожная карта» (PDF) . Институт будущего человечества . Проверено 31 марта 2014 г.
  22. ^ «Амлин и Оксфордский университет запускают крупный исследовательский проект по системному риску моделирования» (пресс-релиз). Амлин. 11 февраля 2014 года. Архивировано из оригинала 13 апреля 2014 года . Проверено 31 марта 2014 г.
  23. ^ «Амлин и Оксфордский университет будут сотрудничать в моделировании исследования рисков» . Журнал «Непрерывность, страхование и риск» . 11 февраля 2014 года . Проверено 31 марта 2014 г.

Внешние ссылки [ править ]

Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: c241fee02103f20e97237fe8c2e0fcb0__1718961780
URL1:https://arc.ask3.ru/arc/aa/c2/b0/c241fee02103f20e97237fe8c2e0fcb0.html
Заголовок, (Title) документа по адресу, URL1:
Future of Humanity Institute - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)