Институт будущего человечества
![]() | |
Формирование | 2005 г |
---|---|
Растворенный | 16 апреля 2024 г |
Цель | Исследуйте общие вопросы о человечестве и его перспективах. |
Штаб-квартира | Оксфорд , Англия |
Директор | Ник Бостром |
Головная организация | философии Факультет Оксфордского университета |
Веб-сайт | futureofhumanityinstitute.org |
Институт будущего человечества ( FHI ) был междисциплинарным исследовательским центром Оксфордского университета, исследующим общие вопросы о человечестве и его перспективах. Он был основан в 2005 году как часть философского факультета и Оксфордской школы Мартина . [1] Ее директором был философ Ник Бостром , а в исследовательский коллектив входили футурист Андерс Сандберг и Giving What We Can основатель Тоби Орд . [2]
Разделяя офис и тесно сотрудничая с Центром эффективного альтруизма , заявленная цель института заключалась в том, чтобы сосредоточить исследования там, где он может принести наибольшие положительные изменения для человечества в долгосрочной перспективе. [3] [4] Он занимался сочетанием академической и просветительской деятельности, стремясь способствовать информированному обсуждению и участию общественности в правительстве, бизнесе, университетах и других организациях. Крупнейшими спонсорами исследований центра были Амлин , Илон Маск , Европейский исследовательский совет , Институт будущего жизни и Leverhulme Trust . [5]
Институт был закрыт 16 апреля 2024 года, «столкнувшись с растущими административными препятствиями на философском факультете ». [6] [7]
История [ править ]
Ник Бостром основал институт в ноябре 2005 года как часть Оксфордской школы Мартина, а затем Школы Джеймса Мартина 21 века. [1] В период с 2008 по 2010 год FHI провел конференцию по глобальным катастрофическим рискам, написал 22 статьи в научных журналах и опубликовал 34 главы в научных томах. Исследователи FHI были упомянуты в СМИ более 5000 раз. [8] и давали политические рекомендации на Всемирном экономическом форуме частному и некоммерческому сектору (например, Фонду Макартура и Всемирной организации здравоохранения ), а также правительственным органам в Швеции, Сингапуре, Бельгии, Великобритании, и США.
Бостром и специалист по биоэтике Джулиан Савулеску также опубликовали книгу «Улучшение человека» в марте 2009 года. [9] Совсем недавно FHI сосредоточила внимание на опасностях передового искусственного интеллекта (ИИ). Стюарта Армстронга В 2014 году ее исследователи опубликовали несколько книг о рисках, связанных с ИИ, в том числе «Умнее, чем мы» Бострома и «Суперинтеллект: пути, опасности, стратегии» . [10] [11]
В 2018 году Open Philanthropy рекомендовала FHI предоставить грант в размере примерно до 13,4 миллиона фунтов стерлингов в течение трех лет, при этом большая часть будет зависеть от успешного найма. [12]
Экзистенциальный риск [ править ]
Самая большая тема, на изучение которой FHI потратила время, — это риск глобальных катастроф и, в частности, экзистенциальный риск. В статье 2002 года Бостром определил «экзистенциальный риск» как риск, «когда неблагоприятный исход либо уничтожит разумную жизнь, зародившуюся на Земле, либо навсегда и резко ограничит ее потенциал». [13] Сюда входят сценарии, в которых человечеству не причиняется прямой вред, но оно не может колонизировать космос и использовать доступные ресурсы наблюдаемой Вселенной в проектах, ценных для человечества, как обсуждалось в статье Бострома 2003 года «Астрономические отходы: альтернативная стоимость отложенного технологического развития». [14]
В книге Бострома и Милана Чирковичей 2008 года «Глобальные катастрофические риски» собраны эссе о различных таких рисках, как природных, так и антропогенных. Возможные катастрофические риски природы включают супервулканизм , ударные события и энергичные астрономические события, такие как гамма-всплески , космические лучи , солнечные вспышки и сверхновые . Эти опасности характеризуются как относительно небольшие и относительно хорошо изученные, хотя пандемии могут быть исключениями из-за того, что они более распространены и соответствуют технологическим тенденциям. [15] [4]
синтетическим пандемиям с использованием биологических агентов, FHI уделяет больше внимания используемых в качестве оружия. Технологические результаты, в которых институт особенно заинтересован, включают антропогенное изменение климата , ядерную войну и ядерный терроризм , молекулярные нанотехнологии и общий искусственный интеллект . Ожидая, что наибольшие риски будут исходить от будущих технологий и, в частности, от передового искусственного интеллекта, FHI соглашается с другими организациями по снижению экзистенциальных рисков, такими как Центр изучения экзистенциальных рисков и Исследовательский институт машинного интеллекта . [16] [17] Исследователи FHI также изучили влияние технического прогресса на социальные и институциональные риски, такие как тоталитаризм , безработица, вызванная автоматизацией , и информационные опасности. [18]
В 2020 году старший научный сотрудник FHI Тоби Орд опубликовал свою книгу «Пропасть: экзистенциальный риск и будущее человечества» , в которой утверждает, что защита будущего человечества является одной из самых важных моральных проблем нашего времени. [19] [20]
Антропное мышление [ править ]
FHI уделяет большую часть своего внимания экзотическим угрозам, которые мало изучены другими организациями, а также методологическим соображениям, которые определяют снижение экзистенциальных рисков и прогнозирование. В своих исследованиях институт особое внимание уделяет антропному рассуждению как недостаточно изученной области с общими эпистемологическими последствиями.
Антропные аргументы, которые изучил FHI, включают аргумент конца света , который утверждает, что человечество, скорее всего, скоро вымрет, потому что маловероятно, что кто-то наблюдает какой-либо момент в истории человечества, который является чрезвычайно ранним. Вместо этого современные люди, вероятно, будут находиться где-то в середине распределения людей, которые когда-либо будут жить. [15] Бостром также популяризировал аргумент о моделировании .
Постоянной темой в исследованиях FHI является парадокс Ферми — удивительное отсутствие наблюдаемых инопланетных цивилизаций. Робин Хэнсон утверждал, что должен существовать « Великий фильтр », предотвращающий колонизацию космоса, чтобы объяснить этот парадокс. Этот фильтр может лежать в прошлом, если интеллект встречается гораздо реже, чем предсказывает современная биология; или это может произойти в будущем, если экзистенциальные риски будут даже больше, чем признается в настоящее время.
и рациональность Улучшение человека
Тесно связана с работой FHI по оценке рисков, астрономическим отходам и опасностям будущих технологий ее работа над перспективами и рисками улучшения человеческого потенциала . Модификации, о которых идет речь, могут быть биологическими, цифровыми или социологическими, при этом акцент делается на наиболее радикальных предполагаемых изменениях, а не на наиболее вероятных краткосрочных инновациях. Исследования FHI в области биоэтики сосредоточены на потенциальных последствиях генной терапии , продления жизни , мозговых имплантатов и интерфейсов мозг-компьютер , а также загрузки разума . [21]
Основное внимание FHI уделялось методам оценки и повышения человеческого интеллекта и рациональности как способу определения скорости и направления технологического и социального прогресса. Работа FHI над человеческой иррациональностью, примером которой являются когнитивные эвристики и предубеждения , включает постоянное сотрудничество с Амлином для изучения системного риска , возникающего из-за предвзятостей в моделировании. [22] [23]
Избранные публикации [ править ]
- Тоби Орд : Пропасть: экзистенциальный риск и будущее человечества , 2020. ISBN 1526600218
- Ник Бостром: Суперинтеллект: пути, опасности, стратегии , 2014. ISBN 0-415-93858-9
- Ник Бостром и Милан Чиркович: Глобальные катастрофические риски , 2011. ISBN 978-0-19-857050-9
- Ник Бостром и Джулиан Савулеску: Улучшение человека , 2011. ISBN 0-19-929972-2
- Ник Бостром: Антропическая предвзятость: эффекты отбора наблюдений в науке и философии , 2010. ISBN 0-415-93858-9
- Ник Бостром и Андерс Сандберг: Дорожная карта эмуляции мозга , 2008.
См. также [ править ]
Ссылки [ править ]
- ↑ Перейти обратно: Перейти обратно: а б «Будущее человечества: Институт будущего человечества» . Оксфордская школа Мартина . Архивировано из оригинала 17 марта 2014 года . Проверено 28 марта 2014 г.
- ^ "Персонал" . Институт будущего человечества . Проверено 28 марта 2014 г.
- ^ «О ФХИ» . Институт будущего человечества . Архивировано из оригинала 1 декабря 2015 года . Проверено 28 марта 2014 г.
- ↑ Перейти обратно: Перейти обратно: а б Росс Андерсен (25 февраля 2013 г.). «Омены» . Журнал Эон . Архивировано из оригинала 9 февраля 2014 года . Проверено 28 марта 2014 г.
- ^ «Поддержка ФХИ» . Институт будущего человечества . 2021. Архивировано из оригинала 20 октября 2021 года . Проверено 23 июля 2022 г.
- ^ «Институт будущего человечества» . веб.архив.орг . 17 апреля 2024 года. Архивировано из оригинала 17 апреля 2024 года . Проверено 17 апреля 2024 г.
{{cite web}}
: CS1 maint: bot: исходный статус URL неизвестен ( ссылка ) - ^ Майберг, Эмануэль (17 апреля 2024 г.). «Институт, который стал пионером исследований «экзистенциального риска» искусственного интеллекта, закрывается» . 404 Медиа . Проверено 17 апреля 2024 г.
- ^ «Новости Google» . Новости Google . Проверено 30 марта 2015 г.
- ^ Ник Бостром (18 июля 2007 г.). Отчет о достижениях: 2008-2010 гг. (PDF) (Отчет). Институт будущего человечества. Архивировано из оригинала (PDF) 21 декабря 2012 года . Проверено 31 марта 2014 г.
- ^ Марк Писинг (17 мая 2012 г.). «Восстание искусственного интеллекта: люди будут отданы на аутсорсинг, а не уничтожены» . Проводной . Проверено 31 марта 2014 г.
- ^ Кофлан, Шон (24 апреля 2013 г.). «Как люди вымрут?» . Новости Би-би-си . Проверено 29 марта 2014 г.
- ^ Открытый проект благотворительности (июль 2018 г.). «Институт будущего человечества — работа над глобальными катастрофическими рисками» .
- ^ Ник Бостром (март 2002 г.). «Экзистенциальные риски: анализ сценариев вымирания человечества и связанных с ними опасностей» . Журнал эволюции и технологий . 15 (3): 308–314 . Проверено 31 марта 2014 г.
- ^ Ник Бостром (ноябрь 2003 г.). «Астрономические отходы: альтернативная стоимость задержки технологического развития» . Утилитас . 15 (3): 308–314. CiteSeerX 10.1.1.429.2849 . дои : 10.1017/s0953820800004076 . S2CID 15860897 . Проверено 31 марта 2014 г.
- ↑ Перейти обратно: Перейти обратно: а б Росс Андерсен (6 марта 2012 г.). «Мы недооцениваем риск вымирания человечества» . Атлантика . Проверено 29 марта 2014 г.
- ^ Кейт Уайтхед (16 марта 2014 г.). «Исследовательский центр Кембриджского университета фокусируется на рисках, которые могут уничтожить человечество» . Южно-Китайская Морнинг Пост . Проверено 29 марта 2014 г.
- ^ Дженни Холландер (сентябрь 2012 г.). «Оксфордский институт будущего человечества знает, что приведет к нашему вымиранию» . Суета . Проверено 31 марта 2014 г.
- ^ Ник Бостром. «Информационные опасности: типология потенциального вреда от знаний» (PDF) . Институт будущего человечества . Проверено 31 марта 2014 г.
- ^ Орд, Тоби. «Пропасть: экзистенциальный риск и будущее человечества» . Сайт Пропасти . Проверено 18 октября 2020 г.
- ^ Чиверс, Том (7 марта 2020 г.). «Насколько человечество близко к уничтожению самого себя?» . Зритель . Проверено 18 октября 2020 г.
- ^ Андерс Сандберг и Ник Бостром. «Эмуляция всего мозга: дорожная карта» (PDF) . Институт будущего человечества . Проверено 31 марта 2014 г.
- ^ «Амлин и Оксфордский университет запускают крупный исследовательский проект по системному риску моделирования» (пресс-релиз). Амлин. 11 февраля 2014 года. Архивировано из оригинала 13 апреля 2014 года . Проверено 31 марта 2014 г.
- ^ «Амлин и Оксфордский университет будут сотрудничать в моделировании исследования рисков» . Журнал «Непрерывность, страхование и риск» . 11 февраля 2014 года . Проверено 31 марта 2014 г.
Внешние ссылки [ править ]
- Кафедры Оксфордского университета
- Организации, изучающие будущее
- Исследовательские институты в Оксфорде
- Научно-исследовательские институты, созданные в 2005 году
- 2005 г. заведения в Англии
- Трансгуманистические организации
- Организации экзистенциального риска
- Организации, связанные с эффективным альтруизмом