Jump to content

Глобальный катастрофический риск

(Перенаправлено из «Конец цивилизации »)

Впечатление художника от падения крупного астероида . Астероид стал причиной вымирания нептичьих динозавров . [1]

Глобальный катастрофический риск или сценарий конца света — это гипотетическое событие, которое может нанести ущерб благополучию человека в глобальном масштабе. [2] даже подвергая опасности или уничтожая современную цивилизацию . [3] Событие, которое может привести к исчезновению человечества или навсегда и резко ограничить существование или потенциал человечества, известно как « экзистенциальный риск ». [4]

За последние два десятилетия, [ когда? ] Был создан ряд академических и некоммерческих организаций для исследования глобальных катастрофических и экзистенциальных рисков, разработки потенциальных мер по смягчению последствий и либо пропаганды, либо реализации этих мер. [5] [6] [7] [8]

Определение и классификация

[ редактировать ]
Таблица масштабов и серьезности из статьи Бострома «Предотвращение экзистенциальных рисков как глобальный приоритет». [9]

Определение глобальных катастрофических рисков

[ редактировать ]

Термину «глобальный катастрофический риск» «не хватает четкого определения» и обычно относится (в общих чертах) к риску, который может нанести «серьезный ущерб благополучию человека в глобальном масштабе». [10]

Человечество и раньше переживало крупные катастрофы. Некоторые из них нанесли серьезный ущерб, но носили лишь локальный характер — например, Черная смерть могла привести к гибели трети населения Европы, [11] 10% мирового населения того времени. [12] Некоторые из них были глобальными, но не такими серьезными: например, пандемия гриппа 1918 года унесла жизни примерно 3–6% населения мира. [13] Большинство глобальных катастрофических рисков не будут настолько интенсивными, чтобы уничтожить большую часть жизни на Земле, но даже если бы они это сделали, экосистема и человечество в конечном итоге восстановились бы (в отличие от экзистенциальных рисков ).

Точно так же в книге «Катастрофа: риск и ответ » Ричард Познер выделяет и группирует события, которые приводят к «полному свержению или разорению» в глобальном, а не «локальном или региональном» масштабе. Познер подчеркивает, что такие события заслуживают особого внимания с точки зрения затрат и выгод, поскольку они могут прямо или косвенно поставить под угрозу выживание человечества в целом. [14]

Определение экзистенциальных рисков

[ редактировать ]

Экзистенциальные риски определяются как «риски, которые угрожают разрушением долгосрочного потенциала человечества». [15] Реализация экзистенциального риска ( экзистенциальной катастрофы) [16] ) либо приведет к полному исчезновению человечества, либо необратимо зафиксирует радикально худшее положение дел. [9] [17] Экзистенциальные риски представляют собой подкласс глобальных катастрофических рисков, где ущерб является не только глобальным, но также неизлечимым и постоянным, препятствуя восстановлению и тем самым затрагивая как нынешнее, так и все будущие поколения. [9]

Риски невымирания

[ редактировать ]

Хотя вымирание является наиболее очевидным способом уничтожения долгосрочного потенциала человечества, существуют и другие, в том числе невосстановимый коллапс и невосстановимая антиутопия . [18] Катастрофа, достаточно серьезная, чтобы вызвать перманентный и необратимый крах человеческой цивилизации, будет представлять собой экзистенциальную катастрофу, даже если она не достигнет исчезновения. [18] Точно так же, если бы человечество попало под тоталитарный режим и не было бы шансов на выздоровление, то такая антиутопия также была бы экзистенциальной катастрофой. [19] Брайан Каплан пишет, что «возможно, вечность тоталитаризма была бы хуже, чем вымирание». [19] ( Джорджа Оруэлла Роман «Девятнадцать восемьдесят четыре» предполагает [20] пример. [21] ) Антиутопический сценарий объединяет ключевые черты вымирания и невосстановимого краха цивилизации: перед катастрофой человечество столкнулось с огромным выбором светлых вариантов будущего; после катастрофы человечество навсегда оказывается в ужасном состоянии. [18]

Потенциальные источники риска

[ редактировать ]

Потенциальные глобальные катастрофические риски условно классифицируются как антропогенные и неантропогенные опасности. Примерами неантропогенных рисков являются событие столкновения с астероидом или кометой , супервулкана извержение , природная пандемия , смертельный гамма-всплеск , геомагнитная буря из-за коронального выброса массы , разрушающего электронное оборудование, естественное долгосрочное изменение климата , враждебные инопланетяне. жизнь или Солнце , превратившееся в красную гигантскую звезду и поглотившее Землю через миллиарды лет в будущем . [22]

Разделение глобальных катастрофических рисков на три группы в зависимости от того, являются ли они в основном антропогенными, антропогенными воздействиями на природу или чисто естественными.

Антропогенные риски – это риски, вызванные деятельностью человека, включая риски, связанные с технологиями, управлением и изменением климата. Технологические риски включают создание искусственного интеллекта, несовместимого с человеческими целями, биотехнологии и нанотехнологии . Недостаточное или вредоносное глобальное управление создает риски в социальной и политической сфере, такие как глобальная война и ядерный холокост . [23] биологическая война и биотерроризм с использованием генетически модифицированных организмов , кибервойна и кибертерроризм, разрушающий критически важную инфраструктуру , такую ​​как электросеть , или радиологическая война с использованием такого оружия, как большие кобальтовые бомбы . Другие глобальные катастрофические риски включают изменение климата, деградацию окружающей среды , исчезновение видов , голод в результате несправедливого распределения ресурсов, человеческое перенаселение или недостаточное население , неурожаи и неустойчивое сельское хозяйство .

Методологические проблемы

[ редактировать ]

Исследования природы и смягчения глобальных катастрофических рисков и экзистенциальных рисков сталкиваются с уникальным набором проблем и, как следствие, нелегко подчиняются обычным стандартам научной строгости. [18] Например, экспериментальное изучение этих рисков нецелесообразно и неэтично. Карл Саган выразил это по поводу ядерной войны: «Понимание долгосрочных последствий ядерной войны не является проблемой, поддающейся экспериментальной проверке». [24] Более того, многие катастрофические риски быстро меняются по мере развития технологий и изменения фоновых условий, таких как геополитические условия. Еще одной проблемой является общая сложность точного прогнозирования будущего в длительных временных масштабах, особенно в отношении антропогенных рисков, которые зависят от сложных политических, экономических и социальных систем человека. [18] Помимо известных и ощутимых рисков, могут произойти непредвиденные события исчезновения черного лебедя , что представляет собой дополнительную методологическую проблему. [18] [25]

Отсутствие исторического прецедента

[ редактировать ]

Человечество никогда не переживало экзистенциальную катастрофу, и если бы она произошла, она обязательно была бы беспрецедентной. [18] Таким образом, экзистенциальные риски создают уникальные проблемы для прогнозирования, даже более серьезные, чем другие долгосрочные события, из-за эффектов отбора наблюдений . [26] В отличие от большинства событий, неспособность полного вымирания произойти в прошлом не является свидетельством против их вероятности в будущем, поскольку в каждом мире, пережившем такое событие вымирания, нет наблюдателей, поэтому, независимо от их частоты, ни одна цивилизация не наблюдает. экзистенциальные риски в своей истории. [26] Этих антропных проблем можно частично избежать, рассматривая доказательства, которые не имеют таких эффектов отбора, такие как кратеры от ударов астероидов на Луне, или непосредственно оценивая вероятное воздействие новых технологий. [9]

Чтобы понять динамику беспрецедентного, необратимого глобального цивилизационного коллапса (разновидность экзистенциального риска), может быть полезно изучить различные локальные цивилизационные коллапсы , которые происходили на протяжении всей истории человечества. [27] Например, такие цивилизации, как Римская империя, закончились утратой централизованного управления и крупной общецивилизационной потерей инфраструктуры и передовых технологий. Однако эти примеры показывают, что общества кажутся достаточно устойчивыми к катастрофам; например, средневековая Европа пережила Черную смерть , не пережив ничего, напоминающего коллапс цивилизации, несмотря на потерю от 25 до 50 процентов своего населения. [28]

Стимулы и координация

[ редактировать ]

Существуют экономические причины, которые могут объяснить, почему так мало усилий уделяется снижению экзистенциального риска. Это глобальное общественное благо , поэтому нам следует ожидать, что рынки будут его недостаточно обеспечивать. [9] Даже если большая страна инвестирует в меры по снижению рисков, эта страна получит лишь небольшую часть выгод от этого. Более того, снижение экзистенциального риска является глобальным общественным благом, передаваемым из поколения в поколение , поскольку большинством выгод от снижения экзистенциального риска будут пользоваться будущие поколения, и хотя эти будущие люди теоретически, возможно, будут готовы платить значительные суммы за снижение экзистенциального риска, никакого механизма не существует. для такой транзакции существует. [9]

Когнитивные предубеждения

[ редактировать ]

Многочисленные когнитивные искажения могут влиять на суждения людей о важности экзистенциальных рисков, включая нечувствительность к масштабу , гиперболическое дисконтирование , эвристику доступности , ошибку конъюнкции , эвристику аффекта и эффект чрезмерной уверенности . [29]

Нечувствительность к масштабу влияет на то, насколько плохими люди считают вымирание человеческой расы. Например, когда люди мотивированы жертвовать деньги на альтруистические цели, сумма, которую они готовы пожертвовать, не увеличивается линейно с масштабом проблемы: люди примерно одинаково готовы предотвратить гибель 200 000 или 2000 птиц. [30] Аналогичным образом, люди часто больше обеспокоены угрозами для отдельных лиц, чем для более крупных групп. [29]

Элиэзер Юдковский предполагает, что пренебрежение масштабами играет роль в восприятии общественностью экзистенциальных рисков: [31] [32]

Существенно большие цифры, такие как 500 миллионов смертей, и особенно качественно иные сценарии, такие как вымирание всего человеческого вида, похоже, вызывают другой образ мышления... Люди, которые никогда не мечтали бы причинить вред ребенку, слышат о экзистенциальном риске. и сказать: «Ну, возможно, человеческий вид на самом деле не заслуживает выживания».

Все прошлые предсказания о вымирании человечества оказались ложными. Некоторым это делает будущие предупреждения менее достоверными. Ник Бостром утверждает, что отсутствие вымирания человечества в прошлом является слабым доказательством того, что в будущем не будет вымирания человечества из-за предвзятости выживших и других антропогенных эффектов . [33]

Социобиолог Э. О. Уилсон утверждал, что: «Причина этого близорукого тумана, как утверждают биологи-эволюционисты, заключается в том, что на самом деле он был выгоден на протяжении всех, кроме последних нескольких тысячелетий из двух миллионов лет существования рода Homo ... Премия была сделана за пристальное внимание к ближайшему будущему и раннему воспроизводству, и мало что еще. Катастрофы такого масштаба, которые случаются только раз в несколько столетий, были забыты или превращены в миф». [34]

Предлагаемое смягчение последствий

[ редактировать ]

Многоуровневая защита

[ редактировать ]

Глубокоэшелонированная защита — это полезная основа для разделения мер по снижению риска на три уровня защиты: [35]

  1. Предотвращение : в первую очередь снижение вероятности возникновения катастрофы. Пример: Меры по предотвращению вспышек новых высокоинфекционных заболеваний.
  2. Ответ : Предотвращение масштабирования катастрофы на глобальный уровень. Пример: Меры по предотвращению эскалации мелкомасштабного обмена ядерными ударами в полномасштабную ядерную войну.
  3. Устойчивость : повышение устойчивости человечества (против вымирания) перед лицом глобальных катастроф. Пример: Меры по повышению продовольственной безопасности во время ядерной зимы.

Вымирание человечества наиболее вероятно, когда все три защиты слабы, то есть «из-за рисков, которые мы вряд ли сможем предотвратить, вряд ли сможем успешно отреагировать и вряд ли будем устойчивы к ним». [35]

Беспрецедентный характер экзистенциальных рисков представляет собой особую проблему при разработке мер по снижению рисков, поскольку человечество не сможет извлечь уроки из истории предыдущих событий. [18]

Финансирование

[ редактировать ]

Некоторые исследователи утверждают, что как исследования, так и другие инициативы, связанные с экзистенциальным риском, недостаточно финансируются. Ник Бостром утверждает, что больше исследований было проведено по «Звездному пути» , сноуборду или навозным жукам , чем по экзистенциальным рискам. Сравнения Бострома подверглись критике как «свободные». [36] [37] По состоянию на 2020 год Конвенции по биологическому оружию составлял 1,4 миллиона долларов США. годовой бюджет организации [38]

Планирование выживания

[ редактировать ]

Некоторые ученые предлагают создать на Земле одно или несколько самодостаточных, отдаленных, постоянно заселенных поселений, специально созданных с целью выживания при глобальной катастрофе. [39] [40] [41] Экономист Робин Хэнсон утверждает, что убежище, в котором постоянно могут разместиться всего лишь 100 человек, значительно повысит шансы человечества на выживание во время ряда глобальных катастроф. [39] [42]

Хранение продуктов питания предлагается во всем мире, но денежная стоимость будет высокой. Более того, это, вероятно, будет способствовать нынешним миллионам смертей в год из-за недоедания . [43] В 2022 году группа под руководством Дэвида Денкенбергера смоделировала экономическую эффективность устойчивых продуктов питания с учетом безопасности искусственного общего интеллекта (AGI) и обнаружила «верность ~ 98–99%» в более высоком предельном влиянии работы над устойчивыми продуктами питания. [44] Некоторые специалисты по выживанию снабжают места выживания запасами еды на несколько лет.

находится Глобальное семенное хранилище Шпицбергена на глубине 400 футов (120 м) внутри горы на острове в Арктике . Он предназначен для хранения 2,5 миллиардов семян из более чем 100 стран в качестве меры предосторожности для сохранения мирового урожая. Температура окружающей породы -6 °C (21 °F) (по состоянию на 2015 год), но в хранилище поддерживается температура -18 °C (0 °F) благодаря холодильникам, работающим на угле местного производства. [45] [46]

Более умозрительно, если общество продолжит функционировать и если биосфера останется пригодной для жизни, потребности нынешнего населения в калориях теоретически могут быть удовлетворены во время длительного отсутствия солнечного света при условии достаточного предварительного планирования. Предполагаемые решения включают выращивание грибов на биомассе мертвых растений, оставшихся после катастрофы, преобразование целлюлозы в сахар или подачу природного газа бактериям, переваривающим метан. [47] [48]

Глобальные катастрофические риски и глобальное управление

[ редактировать ]

Недостаточное глобальное управление создает риски в социальной и политической сфере, но механизмы управления развиваются медленнее, чем технологические и социальные изменения. Правительства, частный сектор, а также широкая общественность обеспокоены отсутствием механизмов управления, позволяющих эффективно справляться с рисками, вести переговоры и выносить решения между различными и конфликтующими интересами. Это дополнительно подчеркивается пониманием взаимосвязи глобальных системных рисков. [49] В отсутствие или в ожидании глобального управления национальные правительства могут действовать индивидуально, чтобы лучше понять, смягчить последствия и подготовиться к глобальным катастрофам. [50]

Планы действий в чрезвычайных климатических ситуациях

[ редактировать ]

В 2018 году Римский клуб призвал к более активным действиям по изменению климата и опубликовал свой Чрезвычайный климатический план, в котором предлагаются десять пунктов действий по ограничению повышения глобальной средней температуры до 1,5 градусов по Цельсию. [51] Кроме того, в 2019 году Клуб опубликовал более подробный Планетарный план действий в чрезвычайной ситуации. [52]

Есть данные, позволяющие предположить, что коллективное участие в эмоциональных переживаниях, возникающих во время размышлений об уязвимости человеческого вида в контексте изменения климата, позволяет этому опыту быть адаптивным. Когда коллективное взаимодействие и обработка эмоциональных переживаний оказывают поддержку, это может привести к росту устойчивости, психологической гибкости, терпимости к эмоциональным переживаниям и участию в сообществе. [53]

Космическая колонизация

[ редактировать ]

Колонизация космоса — предлагаемая альтернатива, позволяющая повысить шансы на выживание в случае сценария вымирания. [54] Решения такого масштаба могут потребовать крупномасштабных инженерных разработок .

Астрофизик Стивен Хокинг выступал за колонизацию других планет Солнечной системы, как только технологии достигнут достаточного прогресса, чтобы повысить шансы человечества на выживание в случае общепланетных событий, таких как глобальная термоядерная война. [55] [56]

Миллиардер Илон Маск пишет, что человечество должно стать многопланетным видом, чтобы избежать вымирания. [57] Маск использует свою компанию SpaceX для разработки технологий, которые, как он надеется, будут использованы при колонизации Марса .

Перемещение Земли

[ редактировать ]

Через несколько миллиардов лет Солнце превратится в красного гиганта , поглотив Землю. Этого можно избежать, переместив Землю дальше от Солнца, поддерживая температуру примерно постоянной. Этого можно достичь, изменив орбиты комет и астероидов так, чтобы они проходили близко к Земле и добавляли энергии на орбиту Земли. [58] Поскольку расширение Солнца происходит медленно, было бы достаточно примерно одного такого столкновения каждые 6000 лет. [ нужна ссылка ]

Скептики и оппоненты

[ редактировать ]

Психолог Стивен Пинкер назвал экзистенциальный риск «бесполезной категорией», которая может отвлечь от реальных угроз, таких как изменение климата и ядерная война. [36]

Организации

[ редактировать ]

«Бюллетень ученых-атомщиков» (основан в 1945 году) — одна из старейших глобальных организаций по управлению рисками, основанная после того, как общественность была встревожена потенциалом атомной войны после Второй мировой войны. Он изучает риски, связанные с ядерной войной и энергетикой, и, как известно, поддерживает Часы Судного дня , установленные в 1947 году. Институт Форсайта (основан в 1986 году) исследует риски нанотехнологий и их преимущества. Это была одна из первых организаций, изучавших непредвиденные последствия выхода безобидных технологий из строя в глобальном масштабе. Ее основал К. Эрик Дрекслер, постулировавший « серую слизь ». [59] [60]

Начиная с 2000 года, все большее число ученых, философов и технологических миллиардеров создавали организации, занимающиеся изучением глобальных рисков как внутри, так и за пределами академических кругов. [61]

К независимым неправительственным организациям (НПО) относятся Научно-исследовательский институт машинного интеллекта (основан в 2000 г.), целью которого является снижение риска катастрофы, вызванной искусственным интеллектом. [62] с донорами, включая Питера Тиля и Джеда Маккалеба . [63] Инициатива по борьбе с ядерной угрозой (основана в 2001 г.) направлена ​​​​на снижение глобальных угроз, связанных с ядерными, биологическими и химическими угрозами, а также на сдерживание ущерба после события. [8] Он поддерживает индекс безопасности ядерных материалов. [64] Фонд Lifeboat Foundation (основан в 2009 г.) финансирует исследования по предотвращению технологической катастрофы. [65] Большая часть исследовательских денег направляется на проекты в университетах. [66] Глобальный институт катастрофических рисков (основан в 2011 г.) — это некоммерческий, беспартийный аналитический центр, базирующийся в США, основанный Сетом Баумом и Тони Барреттом. GCRI проводит исследования и разрабатывает политику в отношении различных рисков, включая искусственный интеллект, ядерную войну, изменение климата и воздействие астероидов. [67] Фонд Global Challenges (основан в 2012 г.), базирующийся в Стокгольме и основанный Ласло Сомбатфалви , публикует ежегодный отчет о состоянии глобальных рисков. [68] [69] Институт будущего жизни (основан в 2014 г.) работает над снижением экстремальных и крупномасштабных рисков, связанных с преобразовательными технологиями, а также направляет развитие и использование этих технологий на благо всего живого посредством предоставления грантов, пропаганды политики в Соединенных Штатах, Европе Союз и Организация Объединенных Наций, а также образовательная деятельность. [7] Илон Маск , Виталик Бутерин и Яан Таллинн являются одними из крупнейших спонсоров. [70] Центр долгосрочных рисков (основан в 2016 г.), ранее известный как Институт фундаментальных исследований, — это британская организация, занимающаяся снижением рисков астрономических страданий ( s-рисков ) от новых технологий. [71]

Университетские организации включали Институт будущего человечества (основан в 2005 г.), который исследовал вопросы долгосрочного будущего человечества, особенно экзистенциального риска. [5] Он был основан Ником Бостромом и базировался в Оксфордском университете. [5] Центр изучения экзистенциального риска (основан в 2012 г.) — это организация на базе Кембриджского университета, которая изучает четыре основных технологических риска: искусственный интеллект, биотехнологии, глобальное потепление и военные действия. [6] Все это антропогенные риски, как объяснил Хью Прайс информационному агентству AFP: «Кажется разумным прогноз, что когда-нибудь в этом или следующем столетии интеллект вырвется из-под ограничений биологии». Он добавил, что когда это произойдет, «мы перестанем быть самыми умными существами» и рискуем оказаться во власти «не вредоносных машин, а машин, чьи интересы не включают нас». [72] Стивен Хокинг был исполняющим обязанности советника. Альянс тысячелетия для человечества и биосферы — это организация, базирующаяся в Стэнфордском университете, которая занимается многими вопросами, связанными с глобальной катастрофой, объединяя представителей академических кругов в области гуманитарных наук. [73] [74] Он был основан Паулем Эрлихом . , среди прочего, [75] В Стэнфордском университете также есть Центр международной безопасности и сотрудничества, который занимается политическим сотрудничеством в целях снижения риска глобальных катастроф. [76] Центр безопасности и новейших технологий был создан в январе 2019 года в Джорджтаунской школе дипломатической службы Уолша и будет заниматься политическими исследованиями новых технологий с первоначальным упором на искусственный интеллект. [77] Они получили грант в размере 55 миллионов долларов США от Good Ventures по предложению Open Philanthropy . [77]

Другие группы оценки риска базируются на правительственных организациях или являются их частью. Всемирная организация здравоохранения (ВОЗ) включает в себя подразделение под названием «Глобальное оповещение и реагирование» (GAR), которое отслеживает глобальный эпидемический кризис и реагирует на него. [78] GAR помогает государствам-членам в обучении и координации мер реагирования на эпидемии. [79] Агентство США по международному развитию (USAID) реализует Программу по борьбе с возникающими пандемическими угрозами, целью которой является предотвращение и сдерживание естественно возникающих пандемий в их источнике. [80] В Ливерморской национальной лаборатории Лоуренса есть подразделение, называемое Главным управлением глобальной безопасности, которое от имени правительства исследует такие вопросы, как биологическая безопасность и борьба с терроризмом. [81]

См. также

[ редактировать ]
  1. ^ Шульте, П.; и др. (5 марта 2010 г.). «Удар астероида Чиксулуб и массовое вымирание на границе мела и палеогена» (PDF) . Наука . 327 (5970): 1214–1218. Бибкод : 2010Sci...327.1214S . дои : 10.1126/science.1177265 . ПМИД   20203042 . S2CID   2659741 .
  2. ^ Бостром, Ник (2008). Глобальные катастрофические риски (PDF) . Издательство Оксфордского университета. п. 1.
  3. ^ Риппл У.Дж., Вольф С., Ньюсом ТМ, Галетти М., Аламгир М., Крист Э., Махмуд М.И., Лоранс В.Ф. (13 ноября 2017 г.). «Предупреждение мировых ученых человечеству: второе уведомление» . Бионаука . 67 (12): 1026–1028. дои : 10.1093/biosci/bix125 . hdl : 11336/71342 .
  4. ^ Бостром, Ник (март 2002 г.). «Экзистенциальные риски: анализ сценариев вымирания человечества и связанных с ними опасностей» . Журнал эволюции и технологий . 9 .
  5. ^ Jump up to: а б с «О ФХИ» . Институт будущего человечества . Проверено 12 августа 2021 г.
  6. ^ Jump up to: а б "О нас" . Центр изучения экзистенциального риска . Проверено 12 августа 2021 г.
  7. ^ Jump up to: а б «Институт будущего жизни» . Институт будущего жизни . Проверено 5 мая 2014 г.
  8. ^ Jump up to: а б «Инициатива по ядерной угрозе» . Инициатива по ядерной угрозе . Проверено 5 июня 2015 г.
  9. ^ Jump up to: а б с д и ж Бостром, Ник (2013). «Предотвращение экзистенциального риска как глобальный приоритет» (PDF) . Глобальная политика . 4 (1): 15–3. doi : 10.1111/1758-5899.12002 – через Экзистенциальный риск.
  10. ^ Бостром, Ник; Чиркович, Милан (2008). Глобальные катастрофические риски . Оксфорд: Издательство Оксфордского университета. п. 1. ISBN  978-0-19-857050-9 .
  11. ^ Зиглер, Филип (2012). Черная смерть . Фабер и Фабер. п. 397. ИСБН  9780571287116 .
  12. ^ Мюльхаузер, Люк (15 марта 2017 г.). «Насколько значимой была промышленная революция?» . lukemuelhauser.com . Проверено 3 августа 2020 г.
  13. ^ Таубенбергер, Джеффри; Моренс, Дэвид (2006). «Грипп 1918 года: мать всех пандемий» . Новые инфекционные заболевания . 12 (1): 15–22. дои : 10.3201/eid1201.050979 . ПМЦ   3291398 . ПМИД   16494711 .
  14. ^ Познер, Ричард А. (2006). Катастрофа: риск и реагирование . Оксфорд: Издательство Оксфордского университета. ISBN  978-0195306477 . Введение: «Что такое катастрофа?»
  15. ^ Орд, Тоби (2020). Пропасть: экзистенциальный риск и будущее человечества . Нью-Йорк: Хачетт. ISBN  9780316484916 . Это эквивалент, хотя и более четкий, определения Ника Бострома : «Экзистенциальный риск — это риск, который угрожает преждевременному исчезновению разумной жизни, зародившейся на Земле, или постоянным и радикальным разрушением ее потенциала для желаемого будущего развития». Источник: Бостром, Ник (2013). «Предотвращение экзистенциального риска как глобальный приоритет». Глобальная политика. 4:15-31.
  16. ^ Коттон-Барратт, Оуэн; Орд, Тоби (2015), Экзистенциальный риск и экзистенциальная надежда: определения (PDF) , Институт будущего человечества – Технический отчет № 2015-1, стр. 1–4.
  17. ^ Бостром, Ник (2009). «Астрономические отходы: альтернативные издержки задержки технологического развития» . Утилитас . 15 (3): 308–314. CiteSeerX   10.1.1.429.2849 . дои : 10.1017/s0953820800004076 . S2CID   15860897 .
  18. ^ Jump up to: а б с д и ж г час Орд, Тоби (2020). Пропасть: экзистенциальный риск и будущее человечества . Нью-Йорк: Хачетт. ISBN  9780316484916 .
  19. ^ Jump up to: а б Брайан Каплан (2008). « Тоталитарная угроза ». Глобальные катастрофические риски , ред. Бостром и Чиркович (Издательство Оксфордского университета): 504–519. ISBN   9780198570509
  20. ^ Гловер, Деннис (1 июня 2017 г.). «Джордж Оруэлл, умирая, тайно переписал конец «Девятнадцать восемьдесят четвертого»?» . Сидней Морнинг Геральд . Проверено 21 ноября 2021 г. Создатель Уинстона, Джордж Оруэлл, верил, что свобода в конечном итоге победит искажающий правду тоталитаризм, изображенный в «Девятнадцать восемьдесят четыре».
  21. ^ Оруэлл, Джордж (1949). Девятнадцать восемьдесят четвертый. Роман . Лондон: Секер и Варбург. Архивировано из оригинала 4 мая 2012 года . Проверено 12 августа 2021 г.
  22. ^ Баум, Сет Д. (2023). «Оценка природных глобальных катастрофических рисков» . Природные опасности . 115 (3): 2699–2719. Бибкод : 2023NatHa.115.2699B . дои : 10.1007/s11069-022-05660-w . ПМЦ   9553633 . ПМИД   36245947 .
  23. ^ Скурас, Джеймс (2019). «Ядерная война как глобальный катастрофический риск» . Журнал анализа выгод и затрат . 10 (2): 274–295. дои : 10.1017/bca.2019.16 .
  24. ^ Саган, Карл (зима 1983 г.). «Ядерная война и климатическая катастрофа: некоторые политические последствия» . Иностранные дела . Совет по международным отношениям. дои : 10.2307/20041818 . JSTOR   20041818 . Проверено 4 августа 2020 г.
  25. ^ Джебари, Карим (2014). «Экзистенциальные риски: изучение надежной стратегии снижения рисков» (PDF) . Наука и инженерная этика . 21 (3): 541–54. дои : 10.1007/s11948-014-9559-3 . ПМИД   24891130 . S2CID   30387504 . Проверено 26 августа 2018 г.
  26. ^ Jump up to: а б Чиркович, Милан М .; Бостром, Ник ; Сандберг, Андерс (2010). «Антропная тень: эффекты отбора наблюдений и риски исчезновения человечества» (PDF) . Анализ рисков . 30 (10): 1495–1506. Бибкод : 2010РискА..30.1495C . дои : 10.1111/j.1539-6924.2010.01460.x . ПМИД   20626690 . S2CID   6485564 .
  27. ^ Кемп, Люк (февраль 2019 г.). «Мы на пути к коллапсу цивилизации?» . Би-би-си . Проверено 12 августа 2021 г.
  28. ^ Орд, Тоби (2020). Пропасть: экзистенциальный риск и будущее человечества . Книги Хачетта. ISBN  9780316484893 . Европа выжила, потеряв от 25 до 50 процентов своего населения во время Черной смерти, сохранив при этом цивилизацию в неприкосновенности.
  29. ^ Jump up to: а б Юдковский, Элиэзер (2008). «Когнитивные искажения, потенциально влияющие на оценку глобальных рисков» (PDF) . Глобальные катастрофические риски : 91–119. Бибкод : 2008гкр..книга...86Y .
  30. ^ Десвуж, У.Х., Джонсон, Ф.Р., Данфорд, Р.В., Бойл, К.Дж., Хадсон, С.П. и Уилсон, Н. 1993, Измерение ущерба природным ресурсам с помощью условной оценки: тесты на достоверность и надежность. Хаусман, Дж. А. (редактор), Условная оценка: критическая оценка , стр. 91–159 (Амстердам: Северная Голландия).
  31. ^ Бостром 2013 .
  32. ^ Юдковский, Элиэзер. « Когнитивные искажения, потенциально влияющие на суждения о глобальных рисках ». Глобальные катастрофические риски 1 (2008): 86. с.114.
  33. ^ «Мы недооцениваем риск вымирания человечества» . Атлантика. 6 марта 2012 года . Проверено 1 июля 2016 г.
  34. ^ Человечество склонно к самоубийству? Журнал New York Times , 30 мая 1993 г.)
  35. ^ Jump up to: а б Коттон-Барратт, Оуэн; Дэниел, Макс; Сандберг, Андерс (2020). «Углубленная защита от вымирания человечества: предотвращение, реагирование, устойчивость и почему все это важно» . Глобальная политика . 11 (3): 271–282. дои : 10.1111/1758-5899.12786 . ISSN   1758-5899 . ПМЦ   7228299 . ПМИД   32427180 .
  36. ^ Jump up to: а б Купфершмидт, Кай (11 января 2018 г.). «Может ли наука уничтожить мир? Эти учёные хотят спасти нас от современного Франкенштейна» . Наука . АААС . Проверено 20 апреля 2020 г.
  37. ^ «Оксфордский институт прогнозирует возможную гибель человечества» . Популярная наука . 2013 . Проверено 20 апреля 2020 г.
  38. ^ Тоби Орд (2020). Пропасть: Экзистенциальный риск и будущее человечества . Книги Хачетта. ISBN  9780316484893 . Международный орган, ответственный за постоянный запрет биологического оружия (Конвенция о биологическом оружии), имеет годовой бюджет в 1,4 миллиона долларов – меньше, чем средний ресторан McDonald's.
  39. ^ Jump up to: а б Матени, Джейсон Гаверик (2007). «Снижение риска вымирания человечества» (PDF) . Анализ рисков . 27 (5): 1335–1344. Бибкод : 2007РискА..27.1335М . дои : 10.1111/j.1539-6924.2007.00960.x . ПМИД   18076500 . S2CID   14265396 . Архивировано из оригинала (PDF) 27 августа 2014 года . Проверено 16 мая 2015 г.
  40. ^ Уэллс, Уиллард. (2009). Апокалипсис когда? . Практика. ISBN  978-0387098364 .
  41. ^ Уэллс, Уиллард. (2017). Перспективы выживания человечества . Фонд спасательных шлюпок. ISBN  978-0998413105 .
  42. ^ Хэнсон, Робин. « Катастрофа, социальный коллапс и вымирание человечества ». Глобальные катастрофические риски 1 (2008): 357.
  43. ^ Смиль, Вацлав (2003). Биосфера Земли: эволюция, динамика и изменения . МТИ Пресс . п. 25. ISBN  978-0-262-69298-4 .
  44. ^ Денкенбергер, Дэвид К.; Сандберг, Андерс; Тиман, Росс Джон; Пирс, Джошуа М. (2022). «Долгосрочная экономическая эффективность устойчивых продуктов питания на случай глобальных катастроф по сравнению с общей безопасностью искусственного интеллекта» . Международный журнал по снижению риска стихийных бедствий . 73 : 102798. Бибкод : 2022IJDRR..7302798D . дои : 10.1016/j.ijdrr.2022.102798 .
  45. ^ Льюис Смит (27 февраля 2008 г.). «Под арктической горой открыто хранилище судного дня для мировых семян» . «Таймс онлайн» . Лондон. Архивировано из оригинала 12 мая 2008 года.
  46. ^ Сюзанна Гольденберг (20 мая 2015 г.). «Хранилище Судного дня: семена, которые могут спасти постапокалиптический мир» . Хранитель . Проверено 30 июня 2017 г.
  47. ^ «Вот как может наступить конец света и что мы можем с этим поделать» . Наука . АААС. 8 июля 2016 г. Проверено 23 марта 2018 г.
  48. ^ Денкенбергер, Дэвид К.; Пирс, Джошуа М. (сентябрь 2015 г.). «Накормить всех: решение продовольственного кризиса в случае глобальных катастроф, которые уничтожат урожай или затмят солнце» (PDF) . Фьючерсы . 72 : 57–68. дои : 10.1016/j.futures.2014.11.008 . S2CID   153917693 .
  49. ^ «Фонд глобальных проблем | Понимание глобального системного риска» . globalchallenges.org . Архивировано из оригинала 16 августа 2017 года . Проверено 15 августа 2017 г.
  50. ^ «Глобальная политика катастрофических рисков» . gcrpolicy.com . Архивировано из оригинала 11 августа 2019 года . Проверено 11 августа 2019 г.
  51. ^ Римский клуб (2018). «Чрезвычайный климатический план» . Проверено 17 августа 2020 г.
  52. ^ Римский клуб (2019). «Планетарный план действий в чрезвычайной ситуации» . Проверено 17 августа 2020 г.
  53. ^ Кифт, Дж.; Бенделл, Дж (2021). «Ответственность за сообщение трудной правды о климате повлияла на социальные потрясения и коллапс: введение в психологические исследования» . Периодические статьи Института лидерства и устойчивого развития (ИФЛАС) . 7 :1–39.
  54. ^ «Человечество должно покинуть Землю, иначе ему грозит вымирание: Хокинг» , physorg.com , 9 августа 2010 г. , получено 23 января 2012 г.
  55. ^ Малик, Тарик (13 апреля 2013 г.). «Стивен Хокинг: Человечество должно колонизировать космос, чтобы выжить» . Space.com . Проверено 1 июля 2016 г.
  56. ^ Шукман, Дэвид (19 января 2016 г.). «Хокинг: Люди рискуют получить смертельный «автогол» » . Новости Би-би-си . Проверено 1 июля 2016 г.
  57. ^ Гинзберг, Лия (16 июня 2017 г.). «Илон Маск считает, что жизнь на Земле вымрет, и вкладывает большую часть своего состояния в колонизацию Марса» . CNBC .
  58. ^ Коричански, Дональд Г.; Лафлин, Грегори; Адамс, Фред К. (2001). «Астрономическая инженерия: стратегия изменения орбит планет». Астрофизика и космическая наука . 275 (4): 349–366. arXiv : astro-ph/0102126 . Бибкод : 2001Ap&SS.275..349K . дои : 10.1023/А:1002790227314 . hdl : 2027.42/41972 . S2CID   5550304 .
  59. ^ Фред Хэпгуд (ноябрь 1986 г.). «Нанотехнологии: молекулярные машины, имитирующие жизнь» (PDF) . Омни . Архивировано из оригинала (PDF) 27 июля 2013 года . Проверено 5 июня 2015 г.
  60. ^ Джайлз, Джим (2004). «Нанотехнологии делают небольшой шаг к захоронению «серой слизи» » . Природа . 429 (6992): 591. Бибкод : 2004Natur.429..591G . дои : 10.1038/429591b . ПМИД   15190320 .
  61. ^ Софи МакБейн (25 сентября 2014 г.). «Скоро апокалипсис: ученые готовятся к концу времен» . Новый государственный деятель . Проверено 5 июня 2015 г.
  62. ^ «Снижение долгосрочных катастрофических рисков с помощью искусственного интеллекта» . Научно-исследовательский институт машинного интеллекта . Проверено 5 июня 2015 г. Научно-исследовательский институт машинного интеллекта стремится снизить риск катастрофы, если такое событие в конечном итоге произойдет.
  63. ^ Анджела Чен (11 сентября 2014 г.). «Является ли искусственный интеллект угрозой?» . Хроника высшего образования . Проверено 5 июня 2015 г.
  64. ^ Александр Сехмар (31 мая 2015 г.). «ИГИЛ может получить ядерное оружие из Пакистана, - предупреждает Индия» . Независимый . Архивировано из оригинала 2 июня 2015 года . Проверено 5 июня 2015 г.
  65. ^ «О фонде «Спасательная шлюпка»» . Фонд спасательной шлюпки . Проверено 26 апреля 2013 г.
  66. ^ Эшли, Вэнс (20 июля 2010 г.). «Фонд спасательной шлюпки: борьба с астероидами, наноботами и искусственным интеллектом», New York Times . Проверено 5 июня 2015 г.
  67. ^ «Глобальный институт катастрофических рисков» . gcrinstitute.org . Проверено 22 марта 2022 г.
  68. ^ Мейер, Робинсон (29 апреля 2016 г.). «Вымирание человечества не так уж и маловероятно» . Атлантика . Бостон, Массачусетс: Emerson Collective . Проверено 30 апреля 2016 г.
  69. ^ «Сайт Фонда «Глобальные вызовы»» . globalchallenges.org . Проверено 30 апреля 2016 г.
  70. ^ Ник Билтон (28 мая 2015 г.). «Ава из «Ex Machina» — это просто научная фантастика (на данный момент)» . Нью-Йорк Таймс . Проверено 5 июня 2015 г.
  71. ^ "О нас" . Центр долгосрочных рисков . Проверено 17 мая 2020 г. В настоящее время мы сосредоточены на усилиях по снижению наихудших рисков астрономических страданий (s-рисков) от новых технологий, уделяя особое внимание преобразующему искусственному интеллекту.
  72. ^ Хуэй, Сильвия (25 ноября 2012 г.). «Кембридж будет изучать риски, связанные с технологиями для человека» . Ассошиэйтед Пресс. Архивировано из оригинала 1 декабря 2012 года . Проверено 30 января 2012 г.
  73. ^ Скотт Барретт (2014). Экономика окружающей среды и развития: очерки в честь сэра Парты Дасгупты . Издательство Оксфордского университета. п. 112. ИСБН  9780199677856 . Проверено 5 июня 2015 г.
  74. ^ «Альянс тысячелетия за человечество и биосферу» . Альянс тысячелетия за человечество и биосферу . Проверено 5 июня 2015 г.
  75. ^ Гурупрасад Мадхаван (2012). Практика устойчивого развития . Springer Science & Business Media. п. 43. ИСБН  9781461443483 . Проверено 5 июня 2015 г.
  76. ^ «Центр международной безопасности и сотрудничества» . Центр международной безопасности и сотрудничества . Проверено 5 июня 2015 г.
  77. ^ Jump up to: а б Андерсон, Ник (28 февраля 2019 г.). «В Джорджтауне создается аналитический центр по безопасности и новым технологиям» . Вашингтон Пост . Проверено 12 марта 2019 г.
  78. ^ «Глобальное оповещение и реагирование (GAR)» . Всемирная организация здравоохранения . Архивировано из оригинала 16 февраля 2003 года . Проверено 5 июня 2015 г.
  79. ^ Келли Ли (2013). Исторический словарь Всемирной организации здравоохранения . Роуман и Литтлфилд. п. 92. ИСБН  9780810878587 . Проверено 5 июня 2015 г.
  80. ^ «Программа USAID по устранению новых пандемических угроз» . ЮСАИД . Архивировано из оригинала 22 октября 2014 года . Проверено 5 июня 2015 г.
  81. ^ «Глобальная безопасность» . Ливерморская национальная лаборатория Лоуренса . Архивировано из оригинала 27 декабря 2007 года . Проверено 5 июня 2015 г.

Дальнейшее чтение

[ редактировать ]
[ редактировать ]
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: ca6598ac008102ab73726fcdec27f6f3__1722851220
URL1:https://arc.ask3.ru/arc/aa/ca/f3/ca6598ac008102ab73726fcdec27f6f3.html
Заголовок, (Title) документа по адресу, URL1:
Global catastrophic risk - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)