Дифференциальное технологическое развитие
![]() | В этой статье есть несколько проблем. Пожалуйста, помогите улучшить его или обсудите эти проблемы на странице обсуждения . ( Узнайте, как и когда удалять эти шаблонные сообщения )
|
Дифференциальное технологическое развитие — это стратегия управления технологиями, направленная на снижение рисков, связанных с новыми технологиями, путем влияния на последовательность их разработки. Согласно этой стратегии, общества будут стремиться задерживать развитие вредных технологий и их применений, одновременно ускоряя разработку полезных технологий, особенно тех, которые обеспечивают защиту от вредных. [1] [2]
История идеи [ править ]
Дифференциальное технологическое развитие было первоначально предложено философом Ником Бостромом в 2002 году. [1] и он применил эту идею к управлению искусственным интеллектом в своей книге 2014 года «Суперинтеллект: пути, опасности, стратегии» . [3] Эта стратегия была также одобрена философом Тоби Ордом в его книге 2020 года «Пропасть: экзистенциальный риск и будущее человечества », который пишет: «Хотя предотвратить развитие рискованной технологии может быть слишком сложно, мы, возможно, сможем уменьшить экзистенциальный риск и будущее человечества». риск за счет ускорения разработки защитных технологий по сравнению с опасными». [2] [4]
Неформальное обсуждение [ править ]
Пол Кристиано считает, что, хотя ускорение технического прогресса кажется одним из лучших способов улучшить благосостояние человечества в ближайшие несколько десятилетий, [5] более высокие темпы роста не могут быть столь же важными в отдаленном будущем, поскольку рост в конечном итоге должен достичь насыщения из-за физических ограничений. Следовательно, с точки зрения далекого будущего, дифференцированное технологическое развитие представляется более важным. [6] [ ненадежный источник? ]
Вдохновленные предложением Бострома, Люк Мюльхаузер и Анна Саламон предложили более общий проект «дифференцированного интеллектуального прогресса», в котором общество развивает свою мудрость, философскую утонченность и понимание рисков быстрее, чем его технологическая мощь. [7] [ ненадежный источник? ] [8] [ ненадежный источник? ] Брайан Томасик расширил это понятие. [9] [ ненадежный источник? ]
См. также [ править ]
Ссылки [ править ]
- ^ Jump up to: Перейти обратно: а б Бостром, Ник (2002). «Экзистенциальные риски: анализ сценариев вымирания человечества» .
{{cite journal}}
: Для цитирования журнала требуется|journal=
( помощь ) 9 Журнал эволюции и технологий Jetpress Oxford Research Archive - ^ Jump up to: Перейти обратно: а б Орд, Тоби (2020). Пропасть: экзистенциальный риск и будущее человечества . Соединенное Королевство: Издательство Bloomsbury Publishing . п. 200. ИСБН 978-1526600219 .
- ^ Бостром, Ник (2014). Суперинтеллект: пути, опасности, стратегии . Оксфорд: Издательство Оксфордского университета. стр. 229–237. ISBN 978-0199678112 .
- ^ Пуртилл, Коринн (21 ноября 2020 г.). «Насколько близко человечество к краю?» . Житель Нью-Йорка . Проверено 27 ноября 2020 г.
- ^ Мюльхаузер, Анна Саламон. «RFID-решения» .
- ^ Кристиано, Пол (15 октября 2014 г.). «О прогрессе и процветании» . Форум эффективного альтруизма . Проверено 21 октября 2014 г.
- ^ Мюльхаузер, Люк; Анна Саламон (2012). «Интеллектуальный взрыв: доказательства и импорт» (PDF) : 18–19. Архивировано из оригинала (PDF) 26 октября 2014 года . Проверено 29 ноября 2013 г.
{{cite journal}}
: Для цитирования журнала требуется|journal=
( помощь ) - ^ Мюльхаузер, Люк (2013). Перед лицом интеллектуального взрыва . Научно-исследовательский институт машинного интеллекта . Проверено 29 ноября 2013 г.
- ^ Томасик, Брайан (23 октября 2013 г.). «Дифференциальный интеллектуальный прогресс как проект с положительной суммой» . Фундаментальный научно-исследовательский институт . Проверено 18 февраля 2016 г.