Экзистенциальный риск от общего искусственного интеллекта
Часть серии о |
Искусственный интеллект |
---|
![]() |
Экзистенциальный риск, связанный с общим искусственным интеллектом, относится к идее о том, что значительный прогресс в области общего искусственного интеллекта (AGI) может привести к вымиранию человечества или необратимой глобальной катастрофе . [1] [2] [3]
Один из аргументов, подтверждающих этот риск, предполагает, что люди доминируют над другими видами, потому что человеческий мозг обладает отличительными способностями, которых нет у других животных. Если бы ИИ превзошел человеческий интеллект и стал сверхразумным , он мог бы стать неуправляемым. Так же, как судьба горной гориллы зависит от доброй воли человека, судьба человечества может зависеть от действий будущего машинного сверхразума. [4]
Вероятность экзистенциальной катастрофы из-за ИИ широко обсуждается. Частично это зависит от того, достижимы ли ОИИ или сверхинтеллект, а также от скорости, с которой появляются опасные способности и модели поведения. [5] и существуют ли практические сценарии поглощений ИИ . [6] Обеспокоенность по поводу сверхинтеллекта высказывали ведущие ученые-компьютерщики и руководители технологических компаний, такие как Джеффри Хинтон , [7] Джошуа Бенджио , [8] Алан Тьюринг , [а] Илон Маск , [11] и OpenAI генеральный директор Сэм Альтман . [12] В 2022 году опрос исследователей ИИ, на который ответили 17%, показал, что большинство из них считают, что вероятность того, что наша неспособность контролировать ИИ приведет к экзистенциальной катастрофе, составляет 10 или более процентов. [13] [14] В 2023 году сотни экспертов по искусственному интеллекту и другие известные деятели подписали заявление, в котором заявили, что «снижение риска исчезновения искусственного интеллекта должно стать глобальным приоритетом наряду с другими рисками социального масштаба, такими как пандемии и ядерная война ». [15] После растущей обеспокоенности по поводу рисков, связанных с ИИ, лидеры правительства, такие как премьер-министр Соединенного Королевства Риши Сунак [16] и Генеральный секретарь ООН Антониу Гутерриш [17] призвал к усилению внимания к глобальному регулированию ИИ .
Два источника беспокойства связаны с проблемами управления и согласования ИИ : управлять сверхразумной машиной или привить ей ценности, совместимые с человеком, может быть сложно. Многие исследователи полагают, что сверхразумная машина, скорее всего, будет сопротивляться попыткам вывести ее из строя или изменить свои цели, поскольку это помешает ей достичь своих нынешних целей. Было бы чрезвычайно сложно привести сверхинтеллект в соответствие со всем спектром важных человеческих ценностей и ограничений. [1] [18] [19] Напротив, скептики, такие как ученый-компьютерщик Ян ЛеКун, утверждают, что сверхразумные машины не будут стремиться к самосохранению. [20]
Третьим источником беспокойства является возможность внезапного « интеллектуального взрыва », который застанет человечество врасплох. Этот сценарий предполагает, что ИИ, более умный, чем его создатели, может рекурсивно улучшаться с экспоненциально возрастающей скоростью, улучшаясь слишком быстро, чтобы его кураторы и общество в целом могли его контролировать. [1] [18] Эмпирически такие примеры, как AlphaZero , которая научилась играть в го и быстро превзошла человеческие способности, показывают, что специализированные системы ИИ иногда могут очень быстро переходить от нечеловеческих способностей к сверхчеловеческим, хотя такие системы не предполагают изменения своей фундаментальной архитектуры. [21]
История [ править ]
Одним из первых авторов, выразивших серьезную обеспокоенность тем, что высокоразвитые машины могут представлять экзистенциальную угрозу человечеству, был писатель Сэмюэл Батлер написал , который в своем эссе 1863 года «Дарвин среди машин» : [22]
Результат — это просто вопрос времени, но то, что наступит время, когда машины будут обладать реальным господством над миром и его обитателями, — это то, в чем ни на мгновение не может усомниться ни один человек с истинно философским умом.
В 1951 году основоположник информатики Алан Тьюринг написал статью «Интеллектуальные машины, еретическая теория», в которой предположил, что общий искусственный интеллект, скорее всего, «возьмет под контроль» мир, поскольку он станет более разумным, чем люди:
Давайте теперь, ради аргументации, предположим, что [разумные] машины реальны, и посмотрим на последствия их создания... Не было бы и речи о смерти машин, и они могли бы общаться с друг друга, чтобы отточить свой ум. Поэтому на каком-то этапе нам следует ожидать, что машины возьмут на себя управление, как это упоминается в « » Сэмюэля Батлера Эревоне . [23]
В 1965 году И. Дж. Гуд разработал концепцию, ныне известную как «интеллектуальный взрыв», и заявил, что риски недооцениваются: [24]
Пусть сверхразумная машина будет определена как машина, которая может намного превзойти всю интеллектуальную деятельность любого человека, каким бы умным он ни был. Поскольку проектирование машин является одним из видов интеллектуальной деятельности, сверхразумная машина могла бы создавать машины еще лучше; тогда, несомненно, произойдет «интеллектуальный взрыв», и человеческий интеллект останется далеко позади. Таким образом, первая сверхразумная машина — это последнее изобретение, которое когда-либо понадобится человеку, при условии, что машина будет достаточно послушной, чтобы рассказать нам, как держать ее под контролем. Любопытно, что этот момент так редко упоминается за пределами научной фантастики. Иногда стоит серьезно отнестись к научной фантастике. [25]
Такие ученые, как Марвин Мински [26] и сам Эй Джей Гуд [27] время от времени выражал обеспокоенность тем, что сверхинтеллект может захватить контроль, но не призывал к действию. В 2000 году учёный-компьютерщик и Sun соучредитель Билл Джой написал влиятельное эссе « Почему мы не нужны будущему », в котором сверхразумные роботы были названы высокотехнологичной угрозой для выживания человечества, наряду с нанотехнологиями и искусственными биочумами. [28]
Ник Бостром опубликовал книгу «Суперинтеллект» в 2014 году, в которой представил свои аргументы о том, что сверхинтеллект представляет собой экзистенциальную угрозу. [29] К 2015 году такие общественные деятели, как физики Стивен Хокинг и нобелевский лауреат Фрэнк Вильчек , ученые-компьютерщики Стюарт Дж. Рассел и Роман Ямпольский , а также предприниматели Илон Маск и Билл Гейтс , выражали обеспокоенность по поводу рисков сверхинтеллекта. [30] [31] [32] [33] Также в 2015 году « Открытое письмо по искусственному интеллекту» подчеркнуло «огромный потенциал ИИ» и призвало к проведению дополнительных исследований о том, как сделать его надежным и полезным. [34] В апреле 2016 года журнал Nature предупредил: «Машины и роботы, превосходящие людей по всем направлениям, могут самосовершенствоваться вне нашего контроля, и их интересы могут не совпадать с нашими». [35] В 2020 году Брайан Кристиан опубликовал «Проблему выравнивания» , в которой подробно описана история прогресса в согласовании ИИ до того времени. [36] [37]
В марте 2023 года ключевые фигуры в области ИИ, такие как Маск, подписали письмо Института будущего жизни, призывающее прекратить углубленное обучение ИИ до тех пор, пока оно не будет должным образом регулироваться. [38] В мае 2023 года Центр безопасности ИИ опубликовал заявление, подписанное многочисленными экспертами в области безопасности ИИ и экзистенциального риска ИИ, в котором говорилось: «Снижение риска исчезновения ИИ должно быть глобальным приоритетом наряду с другими рисками социального масштаба, такими как пандемии и ядерная война». [39] [40]
Возможности ИИ [ править ]
Общая разведка [ править ]
Общий искусственный интеллект (AGI) обычно определяется как система, которая выполняет большинство или все интеллектуальные задачи как минимум так же хорошо, как люди. [41] Опрос исследователей искусственного интеллекта, проведенный в 2022 году, показал, что 90% респондентов ожидали, что AGI будет достигнут в ближайшие 100 лет, а половина ожидала того же к 2061 году. [42] Между тем, некоторые исследователи отвергают экзистенциальные риски, связанные с ОИИ, как «научную фантастику», основываясь на своей высокой уверенности в том, что ОИИ не будет создан в ближайшее время. [43]
Прорывы в разработке больших языковых моделей заставили некоторых исследователей переоценить свои ожидания. Примечательно, что в 2023 году Джеффри Хинтон заявил, что недавно изменил свою оценку с «20–50 лет, прежде чем у нас появится ИИ общего назначения» на «20 лет или меньше». [44]
Суперинтеллект [ править ]
В отличие от ОИИ, Бостром определяет сверхинтеллект как «любой интеллект, который значительно превосходит когнитивные способности человека практически во всех областях интересов», включая научное творчество, стратегическое планирование и социальные навыки. [45] [4] Он утверждает, что сверхразум может перехитрить людей в любой момент, когда его цели противоречат человеческим. Он может решить скрыть свои истинные намерения до тех пор, пока человечество не сможет его остановить. [46] [4] Бостром пишет, что для того, чтобы быть безопасным для человечества, сверхразум должен соответствовать человеческим ценностям и морали, чтобы он «принципиально был на нашей стороне». [47]
Стивен Хокинг утверждал, что сверхразум физически возможен, потому что «не существует физического закона, запрещающего частицам организовываться способами, которые позволяют выполнять даже более сложные вычисления, чем расположение частиц в человеческом мозге». [31]
Вопрос о том, когда искусственный сверхинтеллект (ИСИ) может быть достигнут, если вообще когда-либо, обязательно менее определен, чем прогнозы относительно ОИИ. В 2023 году лидеры OpenAI заявили, что не только AGI, но и сверхинтеллект может быть достигнут менее чем за 10 лет. [48]
Сравнение с людьми [ править ]
Бостром утверждает, что ИИ имеет множество преимуществ перед человеческим мозгом : [4]
- Скорость вычислений: биологические нейроны работают на максимальной частоте около 200 Гц по сравнению с потенциально несколькими ГГц для компьютеров.
- Скорость внутренней связи: аксоны передают сигналы со скоростью до 120 м/с, а компьютеры передают сигналы со скоростью электричества или оптически со скоростью света .
- Масштабируемость: человеческий интеллект ограничен размером и структурой мозга, а также эффективностью социальной коммуникации, в то время как ИИ может масштабироваться, просто добавляя больше оборудования.
- Память: особенно рабочая память , поскольку у людей она ограничена несколькими фрагментами информации одновременно.
- Надежность: транзисторы более надежны, чем биологические нейроны, что обеспечивает более высокую точность и требует меньшего резервирования.
- Дублируемость: в отличие от человеческого мозга, программное обеспечение и модели ИИ можно легко скопировать .
- Редактируемость: параметры и внутреннюю работу модели ИИ можно легко изменить, в отличие от связей в человеческом мозге.
- Совместное использование памяти и обучение. ИИ могут учиться на опыте других ИИ более эффективно, чем человеческое обучение.
Взрыв интеллекта [ править ]
По словам Бострома, ИИ, обладающий экспертным потенциалом для решения определенных ключевых задач разработки программного обеспечения, может стать сверхразумом благодаря своей способности рекурсивно улучшать свои собственные алгоритмы, даже если он изначально ограничен в других областях, не имеющих прямого отношения к инженерии. [4] [46] Это говорит о том, что интеллектуальный взрыв может когда-нибудь застать человечество врасплох. [4]
Экономист Робин Хэнсон сказал, что для запуска интеллектуального взрыва ИИ должен стать намного лучше в инновациях в области программного обеспечения, чем весь остальной мир вместе взятый, что он считает неправдоподобным. [49]
В сценарии «быстрого взлета» переход от ОИИ к сверхразуму может занять дни или месяцы. При «медленном взлете» это может занять годы или десятилетия, оставляя обществу больше времени на подготовку. [50]
Чужой разум [ править ]
Сверхразумы иногда называют «инопланетными разумами», имея в виду, что их образ мышления и мотивация могут сильно отличаться от наших. Обычно это рассматривается как источник риска, из-за которого становится сложнее предвидеть, что может сделать сверхинтеллект. Это также предполагает возможность того, что сверхразум по умолчанию не особенно ценит людей. [51] Чтобы избежать антропоморфизма , сверхинтеллект иногда рассматривается как мощный оптимизатор, который принимает оптимальные решения для достижения своих целей. [4]
Область «механистической интерпретируемости» направлена на лучшее понимание внутренней работы моделей ИИ, что потенциально позволит нам однажды обнаружить признаки обмана и несогласованности. [52]
Ограничения [ править ]
Утверждалось, что существуют ограничения на то, чего может достичь интеллект. Примечательно, что хаотичная природа или временная сложность некоторых систем может фундаментально ограничить способность сверхразума предсказывать некоторые аспекты будущего, увеличивая его неопределенность. [53]
Опасные возможности [ править ]
Усовершенствованный ИИ может создавать усиленные патогены, проводить кибератаки или манипулировать людьми. Эти возможности могут быть неправильно использованы людьми, [54] или используется самим ИИ, если он смещен. [4] Полноценный сверхинтеллект мог бы найти различные способы получить решающее влияние, если бы захотел. [4] но эти опасные возможности могут стать доступными раньше, в более слабых и специализированных системах ИИ. Они могут вызвать социальную нестабильность и расширить возможности злоумышленников. [54]
Социальная манипуляция [ править ]
Джеффри Хинтон предупредил, что в краткосрочной перспективе обилие текстов, изображений и видео, созданных ИИ, затруднит выяснение истины, которую, по его словам, авторитарные государства могут использовать для манипулирования выборами. [55] Такие крупномасштабные, персонализированные возможности манипулирования могут увеличить экзистенциальный риск мирового «необратимого тоталитарного режима». Его также могут использовать злоумышленники, чтобы расколоть общество и сделать его дисфункциональным. [54]
Кибератаки [ править ]
с использованием искусственного интеллекта Кибератаки все чаще считаются настоящей и критической угрозой. По словам технического директора НАТО по киберпространству, «количество атак растет в геометрической прогрессии». [56] ИИ также может использоваться для защиты, для упреждающего поиска и устранения уязвимостей, а также для обнаружения угроз. [57]
ИИ может улучшить «доступность, успешность, масштаб, скорость, скрытность и эффективность кибератак», что потенциально может вызвать «значительную геополитическую турбулентность», если он будет способствовать атакам больше, чем защите. [54]
Предположительно, такие возможности взлома могут быть использованы системой искусственного интеллекта для выхода из локальной среды, получения дохода или приобретения ресурсов облачных вычислений. [58]
патогены Усиленные
По мере демократизации технологии искусственного интеллекта, возможно, станет проще создавать более заразные и смертоносные патогены. Это может позволить людям с ограниченными навыками в области синтетической биологии участвовать в биотерроризме . Технологии двойного назначения , полезные для медицины, могут быть перепрофилированы для создания оружия. [54]
Например, в 2022 году ученые модифицировали систему искусственного интеллекта, изначально предназначенную для генерации нетоксичных терапевтических молекул с целью создания новых лекарств. Исследователи скорректировали систему таким образом, чтобы токсичность вознаграждалась, а не наказывалась. Это простое изменение позволило системе искусственного интеллекта за шесть часов создать 40 000 молекул-кандидатов для химического оружия , включая известные и новые молекулы. [54] [59]
Гонка ИИ вооружений
Компании, государственные структуры и другие организации, конкурирующие за разработку технологий искусственного интеллекта, могут привести к снижению стандартов безопасности. [60] Поскольку строгие процедуры безопасности требуют времени и ресурсов, проекты, которые реализуются более тщательно, рискуют быть вытеснены менее добросовестными разработчиками. [61] [54]
ИИ может быть использован для получения военных преимуществ с помощью автономного летального оружия , кибервойны или автоматического принятия решений . [54] В качестве примера автономного летального оружия миниатюрные дроны могут облегчить недорогое уничтожение военных или гражданских целей. Этот сценарий показан в короткометражном фильме 2017 года «Slaughterbots» . [62] ИИ может быть использован для получения преимущества в принятии решений за счет быстрого анализа больших объемов данных и принятия решений быстрее и эффективнее, чем люди. Это может повысить скорость и непредсказуемость войны, особенно с учетом автоматизированных систем возмездия. [54] [63]
Виды экзистенциального риска [ править ]

Экзистенциальный риск - это «тот, который угрожает преждевременным исчезновением разумной жизни, зародившейся на Земле, или постоянным и радикальным разрушением ее потенциала для желаемого будущего развития». [65]
Помимо риска вымирания, существует риск того, что цивилизация навсегда окажется в ошибочном будущем. Одним из примеров является «привязка ценностей»: если у человечества все еще есть моральные слепые зоны, подобные рабству в прошлом, ИИ может необратимо укрепить их, препятствуя моральному прогрессу . ИИ также можно использовать для распространения и сохранения набора ценностей того, кто его разрабатывает. [66] ИИ мог бы способствовать широкомасштабному надзору и идеологической обработке, которые можно было бы использовать для создания стабильного репрессивного мирового тоталитарного режима. [67]
Трудно или невозможно достоверно оценить, разумен ли продвинутый ИИ и в какой степени. Но если в будущем разумные машины будут массово созданы, вступление на цивилизационный путь, который бесконечно игнорирует их благополучие, может стать экзистенциальной катастрофой. [68] [69] Более того, возможно, удастся создать цифровые умы, которые смогут чувствовать гораздо больше счастья, чем люди с меньшими ресурсами, называемые «супер-бенефициарами». Такая возможность поднимает вопрос о том, как разделить мир и какие «этические и политические рамки» сделают возможным взаимовыгодное сосуществование биологического и цифрового разума. [70]
ИИ также может радикально улучшить будущее человечества. Тоби Орд считает экзистенциальный риск причиной «действовать с должной осторожностью», а не отказываться от ИИ. [67] Макс Мор называет ИИ «экзистенциальной возможностью», подчеркивая цену отказа от его разработки. [71]
По мнению Бострома, сверхинтеллект может помочь снизить экзистенциальный риск, исходящий от других мощных технологий, таких как молекулярная нанотехнология или синтетическая биология . Таким образом, вполне возможно, что развитие сверхразума раньше других опасных технологий снизит общий экзистенциальный риск. [4]
Выравнивание ИИ [ править ]
Проблема согласования — это исследовательская проблема того, как надежно назначить цели, предпочтения или этические принципы ИИ.
Инструментальная конвергенция [ править ]
« Инструментальная » цель — это подцель, которая помогает достичь конечной цели агента. «Инструментальная конвергенция» относится к тому факту, что некоторые подцели полезны для достижения практически любой конечной цели, например, приобретения ресурсов или самосохранения. [72] Бостром утверждает, что если инструментальные цели продвинутого ИИ противоречат целям человечества, ИИ может нанести вред человечеству, чтобы получить больше ресурсов или предотвратить свое выключение, но только как способ достижения своей конечной цели. [4]

Рассел утверждает, что достаточно продвинутая машина «будет обладать самосохранением, даже если вы не запрограммируете ее… если вы скажете: «Принеси кофе», она не сможет принести кофе, если она мертва. Итак, если вы дадите Какова бы ни была цель, у нее есть причина сохранить свое существование для достижения этой цели». [20] [75]
Сопротивление изменению целей [ править ]
Даже если нынешние программы ИИ, основанные на целях, недостаточно разумны, чтобы думать о сопротивлении попыткам программистов изменить их целевые структуры, достаточно продвинутый ИИ может сопротивляться любым попыткам изменить свою целевую структуру, точно так же, как пацифист не захочет принять таблетку, которая заставляет их хотеть убивать людей. Если бы ИИ был сверхразумным, ему, скорее всего, удалось бы перехитрить своих операторов-людей и предотвратить «выключение» или перепрограммирование себя для достижения новой цели. [4] [76] Это особенно актуально для сценариев фиксации стоимости. Область «исправимости» изучает, как создать агентов, которые не будут сопротивляться попыткам изменить свои цели. [77]
Сложность определения целей [ править ]
In the "intelligent agent" model, an AI can loosely be viewed as a machine that chooses whatever action appears to best achieve its set of goals, or "utility function". A utility function gives each possible situation a score that indicates its desirability to the agent. Researchers know how to write utility functions that mean "minimize the average network latency in this specific telecommunications model" or "maximize the number of reward clicks", but do not know how to write a utility function for "maximize human flourishing"; nor is it clear whether such a function meaningfully and unambiguously exists. Furthermore, a utility function that expresses some values but not others will tend to trample over the values the function does not reflect.[78][79]
An additional source of concern is that AI "must reason about what people intend rather than carrying out commands literally", and that it must be able to fluidly solicit human guidance if it is too uncertain about what humans want.[80]
Alignment of superintelligences[edit]
Some researchers believe the alignment problem may be particularly difficult when applied to superintelligences. Their reasoning includes:
- As AI systems increase in capabilities, the potential dangers associated with experimentation grow. This makes iterative, empirical approaches increasingly risky.[4][81]
- If instrumental goal convergence occurs, it may only do so in sufficiently intelligent agents.[82]
- A superintelligence may find unconventional and radical solutions to assigned goals. Bostrom gives the example that if the objective is to make humans smile, a weak AI may perform as intended, while a superintelligence may decide a better solution is to "take control of the world and stick electrodes into the facial muscles of humans to cause constant, beaming grins."[47]
- A superintelligence in creation could gain some awareness of what it is, where it is in development (training, testing, deployment, etc.), and how it is being monitored, and use this information to deceive its handlers.[83] Bostrom writes that such an AI could feign alignment to prevent human interference until it achieves a "decisive strategic advantage" that allows it to take control.[4]
- Analyzing the internals and interpreting the behavior of current large language models is difficult. And it could be even more difficult for larger and more intelligent models.[81]
Alternatively, some find reason to believe superintelligences would be better able to understand morality, human values, and complex goals. Bostrom writes, "A future superintelligence occupies an epistemically superior vantage point: its beliefs are (probably, on most topics) more likely than ours to be true".[4]
In 2023, OpenAI started a project called "Superalignment" to solve the alignment of superintelligences in four years. It called this an especially important challenge, as it said superintelligence may be achieved within a decade. Its strategy involves automating alignment research using artificial intelligence.[84]
Difficulty of making a flawless design[edit]
Artificial Intelligence: A Modern Approach, a widely used undergraduate AI textbook,[85][86] says that superintelligence "might mean the end of the human race".[1] It states: "Almost any technology has the potential to cause harm in the wrong hands, but with [superintelligence], we have the new problem that the wrong hands might belong to the technology itself."[1] Even if the system designers have good intentions, two difficulties are common to both AI and non-AI computer systems:[1]
- The system's implementation may contain initially unnoticed but subsequently catastrophic bugs. An analogy is space probes: despite the knowledge that bugs in expensive space probes are hard to fix after launch, engineers have historically not been able to prevent catastrophic bugs from occurring.[87][88]
- No matter how much time is put into pre-deployment design, a system's specifications often result in unintended behavior the first time it encounters a new scenario. For example, Microsoft's Tay behaved inoffensively during pre-deployment testing, but was too easily baited into offensive behavior when it interacted with real users.[20]
AI systems uniquely add a third problem: that even given "correct" requirements, bug-free implementation, and initial good behavior, an AI system's dynamic learning capabilities may cause it to develop unintended behavior, even without unanticipated external scenarios. An AI may partly botch an attempt to design a new generation of itself and accidentally create a successor AI that is more powerful than itself but that no longer maintains the human-compatible moral values preprogrammed into the original AI. For a self-improving AI to be completely safe, it would need not only to be bug-free, but to be able to design successor systems that are also bug-free.[1][89]
Orthogonality thesis[edit]
Some skeptics, such as Timothy B. Lee of Vox, argue that any superintelligent program we create will be subservient to us, that the superintelligence will (as it grows more intelligent and learns more facts about the world) spontaneously learn moral truth compatible with our values and adjust its goals accordingly, or that we are either intrinsically or convergently valuable from the perspective of an artificial intelligence.[90]
Bostrom's "orthogonality thesis" argues instead that, with some technical caveats, almost any level of "intelligence" or "optimization power" can be combined with almost any ultimate goal. If a machine is given the sole purpose to enumerate the decimals of pi, then no moral and ethical rules will stop it from achieving its programmed goal by any means. The machine may use all available physical and informational resources to find as many decimals of pi as it can.[91] Bostrom warns against anthropomorphism: a human will set out to accomplish their projects in a manner that they consider reasonable, while an artificial intelligence may hold no regard for its existence or for the welfare of humans around it, instead caring only about completing the task.[92]
Stuart Armstrong argues that the orthogonality thesis follows logically from the philosophical "is-ought distinction" argument against moral realism. He claims that even if there are moral facts provable by any "rational" agent, the orthogonality thesis still holds: it is still possible to create a non-philosophical "optimizing machine" that can strive toward some narrow goal but that has no incentive to discover any "moral facts" such as those that could get in the way of goal completion. Another argument he makes is that any fundamentally friendly AI could be made unfriendly with modifications as simple as negating its utility function. Armstrong further argues that if the orthogonality thesis is false, there must be some immoral goals that AIs can never achieve, which he finds implausible.[93]
Skeptic Michael Chorost explicitly rejects Bostrom's orthogonality thesis, arguing that "by the time [the AI] is in a position to imagine tiling the Earth with solar panels, it'll know that it would be morally wrong to do so."[94] Chorost argues that "an A.I. will need to desire certain states and dislike others. Today's software lacks that ability—and computer scientists have not a clue how to get it there. Without wanting, there's no impetus to do anything. Today's computers can't even want to keep existing, let alone tile the world in solar panels."[94]
Anthropomorphic arguments[edit]
Anthropomorphic arguments assume that, as machines become more intelligent, they will begin to display many human traits, such as morality or a thirst for power. Although anthropomorphic scenarios are common in fiction, most scholars writing about the existential risk of artificial intelligence reject them.[18] Instead, advanced AI systems are typically modeled as intelligent agents.
The academic debate is between those who worry that AI might threaten humanity and those who believe it would not. Both sides of this debate have framed the other side's arguments as illogical anthropomorphism.[18] Those skeptical of AGI risk accuse their opponents of anthropomorphism for assuming that an AGI would naturally desire power; those concerned about AGI risk accuse skeptics of anthropomorphism for believing an AGI would naturally value or infer human ethical norms.[18][95]
Evolutionary psychologist Steven Pinker, a skeptic, argues that "AI dystopias project a parochial alpha-male psychology onto the concept of intelligence. They assume that superhumanly intelligent robots would develop goals like deposing their masters or taking over the world"; perhaps instead "artificial intelligence will naturally develop along female lines: fully capable of solving problems, but with no desire to annihilate innocents or dominate the civilization."[96] Facebook's director of AI research, Yann LeCun, has said: "Humans have all kinds of drives that make them do bad things to each other, like the self-preservation instinct... Those drives are programmed into our brain but there is absolutely no reason to build robots that have the same kind of drives".[97]
Despite other differences, the x-risk school[b] agrees with Pinker that an advanced AI would not destroy humanity out of emotion such as revenge or anger, that questions of consciousness are not relevant to assess the risk,[98] and that computer systems do not generally have a computational equivalent of testosterone.[99] They think that power-seeking or self-preservation behaviors emerge in the AI as a way to achieve its true goals, according to the concept of instrumental convergence.
Other sources of risk[edit]
Bostrom and others have said that a race to be the first to create AGI could lead to shortcuts in safety, or even to violent conflict.[100][101] Roman Yampolskiy and others warn that a malevolent AGI could be created by design, for example by a military, a government, a sociopath, or a corporation, to benefit from, control, or subjugate certain groups of people, as in cybercrime,[102][103] or that a malevolent AGI could choose the goal of increasing human suffering, for example of those people who did not assist it during the information explosion phase.[3]:158
Scenarios[edit]
Some scholars have proposed hypothetical scenarios to illustrate some of their concerns.
Treacherous turn[edit]
В книге «Суперинтеллект » Бостром выражает обеспокоенность тем, что даже если сроки появления сверхинтеллекта окажутся предсказуемыми, исследователи могут не принять достаточных мер предосторожности, отчасти потому, что «может случиться так, что когда глупее, умнее безопасно; но когда умнее, умнее более опасен». Он предлагает сценарий, в котором через десятилетия ИИ станет более мощным. Широкомасштабное развертывание поначалу омрачается случайными несчастными случаями: беспилотный автобус выезжает на встречную полосу или военный беспилотник стреляет по невинной толпе. Многие активисты призывают к ужесточению надзора и регулирования, а некоторые даже предсказывают надвигающуюся катастрофу. Но по мере того, как развитие продолжается, активисты оказываются неправы. Поскольку автомобильный ИИ становится умнее, он попадает в меньшее количество аварий; поскольку военные роботы достигают более точного нацеливания, они наносят меньший побочный ущерб. Основываясь на этих данных, ученые ошибочно делают общий вывод: чем умнее ИИ, тем он безопаснее. «И поэтому мы смело идем навстречу кружащимся ножам», поскольку сверхразумный ИИ делает «коварный поворот» и использует решающее стратегическое преимущество. [4]
Жизнь 3.0 [ править ]
В книге Макса Тегмарка « » 2017 года Жизнь 3.0 «команда Omega» корпорации создает чрезвычайно мощный ИИ, способный умеренно улучшать собственный исходный код в ряде областей. После определенного момента команда решает публично преуменьшить возможности ИИ, чтобы избежать регулирования или конфискации проекта. В целях безопасности команда хранит ИИ в коробке , где он по большей части не может общаться с внешним миром, и использует его для зарабатывания денег различными способами, такими как задачи Amazon Mechanical Turk , производство анимационных фильмов и телешоу, а также разработка. биотехнологических лекарств, а прибыль инвестируется обратно в дальнейшее совершенствование ИИ. Затем команда поручает ИИ управлять армией гражданских журналистов и комментаторов под псевдонимами, чтобы получить политическое влияние и использовать его «во всеобщее благо» для предотвращения войн. Команда сталкивается с риском, которого ИИ может попытаться избежать, встраивая «черные ходы» в разрабатываемые им системы, скрывая сообщения в создаваемом им контенте или используя свое растущее понимание человеческого поведения для убедить кого-нибудь дать ему свободу . Команда также сталкивается с риском того, что ее решение заблокировать проект приведет к задержке проекта на время, достаточное для того, чтобы его обогнал другой проект. [104] [105]
Перспективы [ править ]
Тезис о том, что ИИ может представлять экзистенциальный риск, вызывает широкий спектр реакций в научном сообществе и в обществе в целом, но многие из противоположных точек зрения имеют общие точки зрения.
Наблюдатели склонны соглашаться с тем, что ИИ обладает значительным потенциалом для улучшения общества. [106] [107] Принципы искусственного интеллекта Асиломара , которые содержат только те принципы, с которыми согласились 90% участников будущего жизни Института конференции «Полезный искусственный интеллект 2017» , [105] также в принципе согласны с тем, что «поскольку консенсуса нет, нам следует избегать сильных предположений относительно верхних пределов будущих возможностей ИИ» и «Усовершенствованный ИИ может представлять собой глубокие изменения в истории жизни на Земле, и его следует планировать и управлять соразмерными забота и ресурсы». [108] [109]
И наоборот, многие скептики согласны с тем, что продолжающиеся исследования последствий общего искусственного интеллекта имеют ценность. Скептик Мартин Форд сказал: «Я думаю, что было бы разумно применить что-то вроде знаменитой «доктрины одного процента» Дика Чейни к призраку развитого искусственного интеллекта: вероятность его появления, по крайней мере, в обозримом будущем, может быть очень высокой. низкий, но последствия настолько драматичны, что к этому следует относиться серьезно». [110] Точно так же скептически настроенный в других отношениях журнал Economist написал в 2014 году, что «последствия появления на Земле второго разумного вида достаточно далеко идущие, чтобы заслуживать серьезного размышления, даже если перспектива кажется отдаленной». [46]
Защитники безопасности ИИ, такие как Бостром и Тегмарк, раскритиковали использование ведущими средствами массовой информации «этих бессмысленных изображений Терминатора » для иллюстрации проблем безопасности ИИ: «Не может быть очень весело, когда клевета на чью-то академическую дисциплину, профессиональное сообщество, жизнь работать ... Я призываю все стороны проявлять терпение и сдержанность, а также, насколько это возможно, участвовать в прямом диалоге и сотрудничестве». [105] [111] Тоби Орд написал, что идея о том, что для захвата власти ИИ требуются роботы, является заблуждением, утверждая, что способность распространять контент через Интернет более опасна и что самые разрушительные люди в истории выделялись своей способностью убеждать, а не физической силой. . [67]
Опрос экспертов 2022 года с уровнем ответа 17% дал медианное ожидание возможности вымирания человечества из-за искусственного интеллекта в 5–10%. [14] [112]
Одобрение [ править ]
Тезис о том, что ИИ представляет экзистенциальный риск и что этот риск требует гораздо большего внимания, чем ему уделяется в настоящее время, был поддержан многими учеными-компьютерщиками и общественными деятелями, включая Алана Тьюринга , [а] самый цитируемый учёный-компьютерщик Джеффри Хинтон , [113] Илон Маск , [11] OpenAI Генеральный директор Сэм Альтман [12] [114] Билл Гейтс и Стивен Хокинг . [114] Сторонники тезиса иногда выражают недоумение по поводу скептиков: Гейтс говорит, что он «не понимает, почему некоторые люди не обеспокоены» [115] а Хокинг раскритиковал широко распространенное безразличие в своей редакционной статье 2014 года:
Итак, сталкиваясь с возможным будущим, полным неисчислимых выгод и рисков, эксперты наверняка делают все возможное, чтобы обеспечить наилучший результат, не так ли? Неправильный. Если бы высшая инопланетная цивилизация отправила нам сообщение: «Мы прибудем через несколько десятилетий», ответили бы мы просто: «Хорошо, позвоните нам, когда доберетесь сюда, мы оставим свет включенным?» Вероятно, нет, но именно это более или менее происходит с ИИ. [31]
Обеспокоенность по поводу риска, связанного с искусственным интеллектом, привела к некоторым громким пожертвованиям и инвестициям. В 2015 году Питер Тиль , Amazon Web Services , Маск и другие совместно выделили 1 миллиард долларов OpenAI , состоящему из коммерческой корпорации и некоммерческой материнской компании, которая заявляет, что стремится продвигать ответственную разработку искусственного интеллекта. [116] Соучредитель Facebook Дастин Московиц профинансировал и запустил несколько лабораторий, работающих над AI Alignment. [117] в частности, 5,5 миллиона долларов в 2016 году на запуск Центра ИИ, совместимого с человеком, под руководством профессора Стюарта Рассела . [118] В январе 2015 года Илон Маск пожертвовал 10 миллионов долларов Институту будущего жизни для финансирования исследований по пониманию процесса принятия решений с помощью ИИ. Цель института — «взращивать мудрость, с помощью которой мы управляем» растущей мощью технологий. Маск также финансирует компании, разрабатывающие искусственный интеллект, такие как DeepMind и Vicarious, чтобы «просто следить за тем, что происходит с искусственным интеллектом». [119] говоря: «Я думаю, что здесь потенциально опасный исход». [120] [121]
В первых заявлениях по этой теме Джеффри Хинтон , крупный пионер глубокого обучения , отмечал, что «не существует хорошего опыта того, как менее разумные существа управляют более разумными существами», но сказал, что он продолжил свои исследования, потому что «перспектива открытия слишком сладко ». [122] [123] В 2023 году Хинтон уволился с работы в Google, чтобы высказаться о экзистенциальном риске, связанном с ИИ. Он объяснил, что его возросшая обеспокоенность была вызвана опасениями, что сверхчеловеческий ИИ может оказаться ближе, чем он считал ранее, сказав: «Я думал, что это очень далеко. Я думал, что это произойдет через 30–50 лет или даже дольше. что." Он также заметил: «Посмотрите, как это было пять лет назад и как это происходит сейчас. Возьмите разницу и распространяйте ее дальше. Это страшно». [124]
В своей книге 2020 года «Пропасть: экзистенциальный риск и будущее человечества » Тоби Орд, старший научный сотрудник Института будущего человечества Оксфордского университета , оценивает общий экзистенциальный риск от несогласованного ИИ в течение следующих 100 лет примерно в один из десяти. [67]
Скептицизм [ править ]
Baidu В 2015 году вице-президент Эндрю Нг заявил, что экзистенциальный риск ИИ «все равно что беспокоиться о перенаселении Марса, когда мы еще даже не ступили на эту планету». [96] [125] Чтобы опасность неконтролируемого продвинутого ИИ была реализована, гипотетическому ИИ, возможно, придется одолеть или перехитрить любого человека, что, по мнению некоторых экспертов, является возможностью достаточно далекого будущего, чтобы не заслуживать исследования. [126] [127]
Скептики, считающие, что ОИИ не является краткосрочной возможностью, часто утверждают, что беспокойство по поводу экзистенциального риска, связанного с ИИ, бесполезно, поскольку оно может отвлечь людей от более насущных опасений по поводу воздействия ИИ, поскольку это может привести к государственному регулированию или затруднить финансирование ИИ. исследований или потому, что это может нанести ущерб репутации этой области. [128] Исследователи ИИ и этики ИИ Тимнит Гебру , Эмили М. Бендер , Маргарет Митчелл и Анджелина Макмиллан-Мейджор утверждают, что обсуждение экзистенциального риска отвлекает от непосредственного, продолжающегося вреда от ИИ, имеющего место сегодня, такого как кража данных, эксплуатация работников, предвзятость. и концентрация власти. [129] Они также отмечают связь между теми, кто предупреждает об экзистенциальном риске, и долгосрочностью , которую они называют «опасной идеологией» из-за ее ненаучной и утопической природы. [130]
журнала Wired Редактор Кевин Келли утверждает, что естественный интеллект более тонок, чем полагают сторонники ОИИ, и что одного интеллекта недостаточно для достижения крупных научных и социальных прорывов. Он утверждает, что интеллект состоит из множества измерений, которые до конца не изучены, и что концепции «лестницы интеллекта» вводят в заблуждение. Он отмечает решающую роль реальных экспериментов в научном методе, и что интеллект сам по себе не может заменить их. [131]
Meta Главный ученый по искусственному интеллекту Янн ЛеКун говорит, что искусственный интеллект можно сделать безопасным посредством непрерывного и итеративного совершенствования, подобно тому, что происходило в прошлом с автомобилями или ракетами, и что у искусственного интеллекта не будет желания брать на себя управление. [132]
Некоторые скептики подчеркивают потенциальные краткосрочные преимущества ИИ. Генеральный директор Meta Марк Цукерберг считает, что искусственный интеллект «откроет огромное количество положительных вещей», таких как лечение болезней и повышение безопасности автономных автомобилей. [133]
реакция Популярная
в 2016 году Во время интервью Wired президента Барака Обамы из MIT Media Lab и Джои Ито Ито сказал:
Есть несколько человек, которые считают, что существует довольно высокая вероятность того, что в ближайшие 10 лет появится универсальный ИИ. Но я считаю, что для того, чтобы это произошло, нам понадобится дюжина или два различных прорыва. Таким образом, вы можете отслеживать, когда, по вашему мнению, произойдут эти прорывы.
И вам просто нужно, чтобы кто-то был рядом со шнуром питания. [Смеется.] Когда ты видишь, что это вот-вот произойдет, ты должен выдернуть электричество из стены, чувак.
Хиллари Клинтон написала в книге «Что случилось» :
Технологи... предупредили, что искусственный интеллект однажды может представлять реальную угрозу безопасности. Маск назвал это «величайшим риском, с которым мы сталкиваемся как цивилизация». Подумайте об этом: видели ли вы когда-нибудь фильм, в котором машины начинают думать самостоятельно, и это заканчивается хорошо? Каждый раз, когда я отправлялся в Силиконовую долину во время предвыборной кампании, я возвращался домой еще более встревоженный этим. Мои сотрудники жили в страхе, что я начну говорить о «возвышении роботов» в какой-нибудь мэрии Айовы. Возможно, мне следовало бы это сделать. В любом случае, политикам необходимо идти в ногу с развитием технологий, а не постоянно догонять их. [136]
Общественные опросы [ править ]
В 2018 году SurveyMonkey, опрос американской общественности проведенный USA Today, показал, что 68% считают, что реальной нынешней угрозой остается «человеческий интеллект», но также выяснилось, что 43% заявили, что сверхразумный ИИ, если бы он случился, принес бы «больше вреда, чем хорошо», и что 38% заявили, что это принесет «одинаковое количество вреда и пользы». [137]
в апреле 2023 года, Опрос взрослого населения США , проведенный YouGov показал, что 46% респондентов были «несколько обеспокоены» или «очень обеспокоены» «возможностью того, что ИИ приведет к концу человечества на Земле», по сравнению с 40%, которые были «не очень обеспокоены». обеспокоен» или «совсем не обеспокоен». [138]
Согласно опросу Pew Research Centers, проведенному в августе 2023 года, 52% американцев были скорее обеспокоены, чем воодушевлены новыми разработками в области искусственного интеллекта; почти треть чувствовала себя одинаково обеспокоенной и взволнованной. Больше американцев увидели, что ИИ окажет скорее полезное, чем вредное влияние на ряд областей, от здравоохранения и безопасности транспортных средств до поиска товаров и обслуживания клиентов. Главным исключением является конфиденциальность: 53% американцев считают, что ИИ приведет к более широкому раскрытию их личной информации. [139]
Смягчение [ править ]
Многие ученые, обеспокоенные экзистенциальным риском ОИИ, считают, что необходимы обширные исследования «проблемы контроля». Эта проблема включает в себя определение того, какие меры безопасности, алгоритмы или архитектуры можно реализовать, чтобы повысить вероятность того, что рекурсивно улучшающийся ИИ останется дружественным после достижения сверхразума. [4] [140] Также предлагаются социальные меры для смягчения рисков AGI. [141] [142] например, спонсируемый ООН «Договор о благотворительном ОИИ», гарантирующий создание только альтруистических ОИИ. [143] Кроме того, были предложены подход к контролю над вооружениями и глобальный мирный договор, основанный на теории международных отношений , потенциально с возможностью подписания искусственного сверхинтеллекта. [144] [145]
Исследователи из Google предложили изучить общие вопросы «безопасности ИИ», чтобы одновременно смягчить как краткосрочные риски, связанные с узким ИИ, так и долгосрочные риски, связанные с AGI. [146] [147] По оценкам на 2020 год, глобальные расходы на экзистенциальный риск ИИ составляют от 10 до 50 миллионов долларов по сравнению с глобальными расходами на ИИ, возможно, около 40 миллиардов долларов. Бостром предлагает отдать приоритет финансированию защитных технологий, а не потенциально опасных. [77] Некоторые, такие как Илон Маск, выступают за радикальное улучшение когнитивных функций человека , например, за прямую нейронную связь между людьми и машинами; другие утверждают, что эти технологии сами по себе могут представлять экзистенциальный риск. [148] [149] Другой предложенный метод — тщательный мониторинг или «изоляция» ИИ на ранней стадии, чтобы не допустить, чтобы он стал слишком мощным. Доминирующий, согласованный сверхразумный ИИ может также снизить риски, исходящие от конкурирующих ИИ, хотя его создание может представлять собой собственную экзистенциальную опасность. [150]
Такие учреждения, как Исследовательский центр выравнивания , [151] Научно-исследовательский институт машинного интеллекта , [152] [153] Институт будущего жизни , Центр изучения экзистенциального риска и Центр совместимого с человеком искусственного интеллекта. [154] активно участвуют в исследовании рисков и безопасности ИИ.
на запрет регулирование и Взгляды
Запретить [ править ]
Некоторые ученые говорят, что даже если AGI представляет экзистенциальный риск, попытки запретить исследования в области искусственного интеллекта по-прежнему неразумны и, вероятно, бесполезны. [155] [156] [157] Скептики считают регулирование ИИ бессмысленным, поскольку никакого экзистенциального риска не существует. Но ученые, которые верят в риск, утверждают, что полагаться на инсайдеров отрасли ИИ для регулирования или ограничения исследований в области ИИ непрактично из-за конфликта интересов. [158] Они также согласны со скептиками в том, что запрещать исследования было бы неразумно, поскольку исследования могут быть перенесены в страны с более мягкими правилами или проводиться тайно. [158] Дополнительные проблемы, связанные с запретами или регулированием, включают общий скептицизм технологических предпринимателей по отношению к государственному регулированию и потенциальные стимулы для бизнеса сопротивляться регулированию и политизировать дебаты. [159]
Регламент [ править ]
В марте 2023 года Институт будущего жизни подготовил проект «Приостановить гигантские эксперименты с искусственным интеллектом: открытое письмо» — петицию, призывающую крупных разработчиков искусственного интеллекта согласиться на поддающуюся проверке шестимесячную паузу в работе любых систем, «более мощных, чем GPT-4 », и использовать это. пора создать систему обеспечения безопасности; или, в противном случае, правительства введут мораторий. В письме упоминалась возможность «глубокого изменения в истории жизни на Земле», а также потенциальные риски пропаганды, создаваемой искусственным интеллектом, потери рабочих мест, устаревания человечества и потери контроля над обществом в целом. [107] [160] Письмо было подписано видными деятелями в области искусственного интеллекта, но его также раскритиковали за то, что оно не сосредоточило внимание на текущих проблемах. [161] упущены технические нюансы о том, когда делать паузу, [162] или не зашел достаточно далеко. [163]
Маск призвал к некоторому регулированию разработки ИИ еще в 2017 году. По данным NPR , он «явно не в восторге» от того, что выступает за государственный контроль, который может повлиять на его собственную отрасль, но считает, что риски полного отсутствия надзора слишком высоки. : «Обычно правила устанавливаются так, что происходит множество плохих событий, возникает общественный резонанс, и через много лет создается регулирующий орган, который будет регулировать эту отрасль. Это занимает целую вечность. В прошлом так было. плохо, но не то, что представляет собой фундаментальный риск для существования цивилизации». Маск заявляет, что первым шагом правительства будет получение «понимания» фактического статуса текущих исследований, предупреждая, что «как только появится осведомленность, люди будут очень напуганы… [как] они и должны быть». В ответ политики выразили скептицизм по поводу целесообразности регулирования технологии, которая все еще находится в разработке. [164] [165] [166]
В 2021 году Организация Объединенных Наций (ООН) рассматривала вопрос о запрете автономного летального оружия, но консенсуса достичь не удалось. [167] ООН В июле 2023 года Совет Безопасности впервые провел заседание, на котором были рассмотрены риски и угрозы, которые ИИ представляет для мира и стабильности во всем мире, а также потенциальные выгоды. [168] [169] Генеральный секретарь Антониу Гутерриш выступил за создание глобального наблюдательного органа для наблюдения за появляющимися технологиями, заявив: «Генераторный ИИ обладает огромным потенциалом добра и зла в масштабе. Сами его создатели предупреждают, что впереди нас ждут гораздо более серьезные, потенциально катастрофические и экзистенциальные риски. " [17] На заседании совета Россия заявила, что, по ее мнению, риски ИИ слишком плохо изучены, чтобы их можно было считать угрозой глобальной стабильности. Китай выступил против строгого глобального регулирования, заявив, что страны должны иметь возможность разрабатывать свои собственные правила, а также заявил, что выступает против использования ИИ для «создания военной гегемонии или подрыва суверенитета страны». [168]
Регулирование сознательных ОИИ направлено на их интеграцию в существующее человеческое общество и может быть разделено на рассмотрение их юридического статуса и их моральных прав. [170] Контроль над вооружениями с использованием ИИ, скорее всего, потребует институционализации новых международных норм, воплощенных в эффективных технических спецификациях, в сочетании с активным мониторингом и неформальной дипломатией со стороны экспертных сообществ, а также процессом юридической и политической проверки. [171] [113]
В июле 2023 года правительство США добилось добровольных обязательств по безопасности от крупных технологических компаний, включая OpenAI , Amazon , Google , Meta и Microsoft . Компании согласились принять меры безопасности, включая сторонний надзор и тестирование безопасности независимыми экспертами, чтобы решить проблемы, связанные с потенциальными рисками ИИ и социальным вредом. Стороны сформулировали обязательства как промежуточный этап при формировании регламентов. Амба Как, исполнительный директор AI Now Institute , заявил: «Закрытого обсуждения с корпоративными субъектами, приводящего к добровольным мерам безопасности, недостаточно» и призвал к публичному обсуждению и принятию правил, на которые компании добровольно не согласились бы. [172] [173]
В октябре 2023 года президент США Джо Байден издал указ о «Безопасной, надежной и заслуживающей доверия разработке и использовании искусственного интеллекта». [174] Помимо других требований, приказ требует разработки руководящих принципов для моделей ИИ, позволяющих «уходить от человеческого контроля».
См. также [ править ]
- Обращение к вероятности
- Выравнивание ИИ
- Безопасность ИИ
- Батлерианский джихад
- Эффективный альтруизм § Долгосрочное будущее и глобальные катастрофические риски
- Серая слизь
- Совместимость с человеком
- Летальное автономное оружие
- Максимизатор скрепки
- Философия искусственного интеллекта
- Этика роботов § В популярной культуре
- Заявление о риске исчезновения ИИ
- Суперинтеллект: пути, опасности, стратегии
- Страдание от рисков
- Системная авария
- Технологическая особенность
Примечания [ править ]
- ↑ Перейти обратно: Перейти обратно: а б В лекции 1951 г. [9] Тьюринг утверждал: «Кажется вероятным, что как только появится метод машинного мышления, нам не понадобится много времени, чтобы превзойти наши слабые способности. Не будет и речи о смерти машин, и они смогут общаться друг с другом, чтобы отточить свои силы». Поэтому на каком-то этапе нам следует ожидать, что машины возьмут на себя управление, как это упоминается в «Эревоне» Сэмюэля Батлера». Также в лекции, транслируемой на BBC. [10] он выразил мнение: «Если машина может думать, она может думать более разумно, чем мы, и где тогда нам быть? Даже если бы мы могли держать машины в подчиненном положении, например, отключая питание в стратегические моменты , мы, как вид, должны чувствовать себя очень униженными... Эта новая опасность... определенно может вызвать у нас беспокойство».
- ^ в интерпретации Сета Баума
Ссылки [ править ]
- ↑ Перейти обратно: Перейти обратно: а б с д и ж г Рассел, Стюарт ; Норвиг, Питер (2009). «26.3: Этика и риски разработки искусственного интеллекта». Искусственный интеллект: современный подход . Прентис Холл. ISBN 978-0-13-604259-4 .
- ^ Бостром, Ник (2002). «Экзистенциальные риски». Журнал эволюции и технологий . 9 (1): 1–31.
- ↑ Перейти обратно: Перейти обратно: а б Турчин, Алексей; Денкенбергер, Дэвид (3 мая 2018 г.). «Классификация глобальных катастрофических рисков, связанных с искусственным интеллектом» . ИИ и общество . 35 (1): 147–163. дои : 10.1007/s00146-018-0845-5 . ISSN 0951-5666 . S2CID 19208453 .
- ↑ Перейти обратно: Перейти обратно: а б с д и ж г час я дж к л м н тот п д Бостром, Ник (2014). Суперинтеллект: пути, опасности, стратегии (первое изд.). Издательство Оксфордского университета. ISBN 978-0-19-967811-2 .
- ^ Винк, Геррит Де (23 мая 2023 г.). «Спор о том, уничтожит ли нас ИИ, разделяет Силиконовую долину» . Вашингтон Пост . ISSN 0190-8286 . Проверено 27 июля 2023 г.
- ^ Мец, Кейд (10 июня 2023 г.). «Как ИИ может уничтожить человечество?» . Нью-Йорк Таймс . ISSN 0362-4331 . Проверено 27 июля 2023 г.
- ^ « Крестный отец искусственного интеллекта» взвешивает прошлое и потенциал ИИ» . www.cbsnews.com . 25 марта 2023 г. Проверено 10 апреля 2023 г.
- ^ «Как могут возникнуть мошеннические ИИ» . yoshuabengio.org . 26 мая 2023 г. Проверено 26 мая 2023 г.
- ^ Тьюринг, Алан (1951). Разумная техника, еретическая теория (Речь). Лекция, прочитанная «Обществу 51». Манчестер: Цифровой архив Тьюринга. Архивировано из оригинала 26 сентября 2022 года . Проверено 22 июля 2022 г.
- ^ Тьюринг, Алан (15 мая 1951 г.). «Могут ли цифровые компьютеры думать?». Автоматические счетные машины . Эпизод 2. Би-би-си. Могут ли цифровые компьютеры думать? .
- ↑ Перейти обратно: Перейти обратно: а б Паркин, Саймон (14 июня 2015 г.). «Научной фантастики больше нет? Люди Канала 4 и наши навязчивые идеи, связанные с искусственным интеллектом» . Хранитель . Архивировано из оригинала 5 февраля 2018 года . Проверено 5 февраля 2018 г.
- ↑ Перейти обратно: Перейти обратно: а б Джексон, Сара. «Генеральный директор компании, стоящей за чат-ботом с искусственным интеллектом ChatGPT, говорит, что наихудший сценарий для искусственного интеллекта — это «отбой света для всех нас» » . Бизнес-инсайдер . Проверено 10 апреля 2023 г.
- ^ «Дилемма ИИ» . www.humanetech.com . Проверено 10 апреля 2023 г.
50% исследователей ИИ считают, что вероятность того, что люди вымрут из-за нашей неспособности контролировать ИИ, составляет 10% или выше.
- ↑ Перейти обратно: Перейти обратно: а б «Экспертный опрос 2022 года о прогрессе в области искусственного интеллекта» . Влияние ИИ . 4 августа 2022 г. Проверено 10 апреля 2023 г.
- ^ Руз, Кевин (30 мая 2023 г.). «ИИ представляет собой «риск исчезновения», предупреждают лидеры отрасли» . Нью-Йорк Таймс . ISSN 0362-4331 . Проверено 3 июня 2023 г.
- ^ Сунак, Риши (14 июня 2023 г.). «Риши Сунак хочет, чтобы Великобритания стала ключевым игроком в глобальном регулировании искусственного интеллекта» . Время .
- ↑ Перейти обратно: Перейти обратно: а б Фунг, Брайан (18 июля 2023 г.). «Генеральный секретарь ООН поддерживает призывы к созданию нового агентства ООН по ИИ перед лицом «потенциально катастрофических и экзистенциальных рисков» » . CNN Бизнес . Проверено 20 июля 2023 г.
- ↑ Перейти обратно: Перейти обратно: а б с д и Юдковский, Элиезер (2008). «Искусственный интеллект как положительный и отрицательный фактор глобального риска» (PDF) . Глобальные катастрофические риски : 308–345. Бибкод : 2008gcr..book..303Y . Архивировано (PDF) из оригинала 2 марта 2013 года . Проверено 27 августа 2018 г.
- ^ Рассел, Стюарт ; Дьюи, Дэниел; Тегмарк, Макс (2015). «Приоритеты исследований надежного и полезного искусственного интеллекта» (PDF) . Журнал ИИ . Ассоциация по развитию искусственного интеллекта: 105–114. arXiv : 1602.03506 . Бибкод : 2016arXiv160203506R . Архивировано (PDF) из оригинала 4 августа 2019 г. Проверено 10 августа 2019 г. , цитируется в «Открытое письмо AI – Институт будущего жизни» . Институт будущего жизни . Январь 2015. Архивировано из оригинала 10 августа 2019 года . Проверено 9 августа 2019 г.
- ↑ Перейти обратно: Перейти обратно: а б с Дауд, Морин (апрель 2017 г.). «Крестовый поход Илона Маска стоимостью в миллиард долларов, чтобы остановить апокалипсис ИИ» . Улей . Архивировано из оригинала 26 июля 2018 года . Проверено 27 ноября 2017 г.
- ^ «AlphaGo Zero: Начинаем с нуля» . www.deepmind.com . 18 октября 2017 г. Проверено 28 июля 2023 г.
- ^ Брейер, Ганс-Петер. «Книга машин» Сэмюэля Батлера и аргумент замысла. Архивировано 15 марта 2023 года в Wayback Machine Modern Philology, Vol. 72, № 4 (май 1975 г.), стр. 365–383.
- ^ Тьюринг, AM (1996). «Интеллектуальная техника, еретическая теория» . 1951, переиздание Philosophia Mathematica . 4 (3): 256–260. дои : 10.1093/филмат/4.3.256 .
- ^ Хиллиард, Марк (2017). «Апокалипсис искусственного интеллекта: скоро ли исчезнет человеческая раса?» . Ирландские Таймс . Архивировано из оригинала 22 мая 2020 года . Проверено 15 марта 2020 г.
- ^ И. Дж. Гуд, «Рассуждения относительно первой сверхразумной машины». Архивировано 28 ноября 2011 г. на Wayback Machine ( HTML, архивировано 28 ноября 2011 г. на Wayback Machine ), «Достижения в области компьютеров» , том. 6, 1965.
- ^ Рассел, Стюарт Дж.; Норвиг, Питер (2003). «Раздел 26.3: Этика и риски разработки искусственного интеллекта». Искусственный интеллект: современный подход . Река Аппер-Сэддл, Нью-Джерси: Прентис-Холл. ISBN 978-0-13-790395-5 .
Точно так же Марвин Мински однажды предположил, что программа искусственного интеллекта, разработанная для решения гипотезы Римана, может в конечном итоге захватить все ресурсы Земли для создания более мощных суперкомпьютеров, которые помогут достичь своей цели.
- ^ Баррат, Джеймс (2013). Наше последнее изобретение: искусственный интеллект и конец человеческой эры (Первое изд.). Нью-Йорк: Пресса Святого Мартина. ISBN 978-0-312-62237-4 .
В биографии, игриво написанной от третьего лица, Гуд резюмировал вехи своей жизни, включая, вероятно, никогда ранее не публиковавшийся отчет о своей работе в Блетчли-парке с Тьюрингом. Но вот что он написал в 1998 году о первом сверхразуме и своем развороте на позднем этапе игры: человечества зависит от скорейшего создания сверхразумной машины». Это были его [Гуда] слова во время холодной войны, и теперь он подозревает, что «выживание» должно быть заменено «вымиранием». Он считает, что из-за международной конкуренции мы не можем помешать машинам взять верх. Он думает, что мы лемминги. Он также сказал, что «вероятно, человек создаст deus ex machina по своему образу и подобию».
- ^ Андерсон, Курт (26 ноября 2014 г.). «Энтузиасты и скептики спорят об искусственном интеллекте» . Ярмарка тщеславия . Архивировано из оригинала 22 января 2016 года . Проверено 30 января 2016 г.
- ^ Мец, Кейд (9 июня 2018 г.). «Марк Цукерберг, Илон Маск и вражда из-за роботов-убийц» . Нью-Йорк Таймс . Архивировано из оригинала 15 февраля 2021 года . Проверено 3 апреля 2019 г.
- ^ Сюй, Джереми (1 марта 2012 г.). «Управляйте опасным ИИ до того, как он начнет контролировать нас», — говорит один эксперт . Новости Эн-Би-Си . Архивировано из оригинала 2 февраля 2016 года . Проверено 28 января 2016 г.
- ↑ Перейти обратно: Перейти обратно: а б с «Стивен Хокинг: «Трансцендентность рассматривает последствия искусственного интеллекта – но воспринимаем ли мы ИИ достаточно серьезно?» " . «Индепендент» (Великобритания) . Архивировано из оригинала 25 сентября 2015 года . Проверено 3 декабря 2014 г.
- ^ «Стивен Хокинг предупреждает, что искусственный интеллект может положить конец человечеству» . Би-би-си . 2 декабря 2014 г. Архивировано из оригинала 30 октября 2015 г. Проверено 3 декабря 2014 г.
- ^ Эдичико, Лиза (28 января 2015 г.). «Билл Гейтс: Илон Маск прав, мы все должны бояться, что искусственный интеллект уничтожит человечество» . Бизнес-инсайдер . Архивировано из оригинала 26 февраля 2016 года . Проверено 30 января 2016 г.
- ^ «Приоритеты исследований надежного и полезного искусственного интеллекта: открытое письмо» . Институт будущего жизни . Архивировано из оригинала 15 января 2015 года . Проверено 23 октября 2015 г.
- ^ «Ожидание искусственного интеллекта» . Природа . 532 (7600): 413. 2016. Бибкод : 2016Natur.532Q.413. . дои : 10.1038/532413а . ISSN 1476-4687 . ПМИД 27121801 . S2CID 4399193 .
- ^ Кристиан, Брайан (6 октября 2020 г.). Проблема согласования: машинное обучение и человеческие ценности . WW Нортон и компания . ISBN 978-0-393-63582-9 . Архивировано из оригинала 5 декабря 2021 года . Проверено 5 декабря 2021 г.
- ^ Дигнум, Вирджиния (26 мая 2021 г.). «ИИ – люди и места, которые его создают, используют и управляют» . Природа . 593 (7860): 499–500. Бибкод : 2021Natur.593..499D . дои : 10.1038/d41586-021-01397-x . S2CID 235216649 .
- ^ «Илон Маск среди экспертов, призывающих прекратить обучение искусственному интеллекту» . Новости Би-би-си . 29 марта 2023 г. Проверено 9 июня 2023 г.
- ^ «Заявление о риске ИИ» . Центр безопасности искусственного интеллекта . Проверено 8 июня 2023 г.
- ^ «Искусственный интеллект может привести к вымиранию, - предупреждают эксперты» . Новости Би-би-си . 30 мая 2023 г. Проверено 8 июня 2023 г.
- ^ «DeepMind и Google: битва за контроль над искусственным интеллектом» . Экономист . ISSN 0013-0613 . Проверено 12 июля 2023 г.
- ^ «Сроки развития искусственного интеллекта: чего эксперты в области искусственного интеллекта ожидают в будущем?» . Наш мир в данных . Проверено 12 июля 2023 г.
- ^ Де Винк, Геррит (20 мая 2023 г.). «Спор о том, уничтожит ли нас ИИ, разделяет Силиконовую долину» . Вашингтон Пост .
- ^ « Крестный отец ИИ» только что ушел из Google и говорит, что сожалеет о работе всей своей жизни, потому что может быть трудно помешать «плохим актерам использовать его для плохих дел» » . Удача . Проверено 12 июля 2023 г.
- ^ «Все, что вам нужно знать о сверхинтеллекте» . Мастерская специй . Проверено 14 июля 2023 г.
- ↑ Перейти обратно: Перейти обратно: а б с Бабаута, Лео. «Ценная новая книга исследует потенциальное влияние интеллектуальных машин на человеческую жизнь» . Бизнес-инсайдер . Проверено 19 марта 2024 г.
- ↑ Перейти обратно: Перейти обратно: а б Бостром, Ник (27 апреля 2015 г.), Что произойдет, когда наши компьютеры станут умнее нас? , получено 13 июля 2023 г.
- ^ «Управление сверхинтеллектом» . openai.com . Проверено 12 июля 2023 г.
- ^ «Преодоление предвзятости: я все еще не понимаю» . www.overcomingbias.com . Архивировано из оригинала 4 августа 2017 года . Проверено 20 сентября 2017 г.
- ^ Коттон-Барратт, Оуэн; Орд, Тоби (12 августа 2014 г.). «Стратегические соображения о различных скоростях развития ИИ» . Институт будущего человечества . Проверено 12 июля 2023 г.
- ^ Тегмарк, Макс (25 апреля 2023 г.). «Мышление «не смотри вверх», которое может обречь нас на ИИ» . Время . Проверено 14 июля 2023 г.
Как будто потерять контроль над китайским разумом было страшнее, чем потерять контроль над чуждым цифровым разумом, которому плевать на людей. [...] теперь ясно, что пространство возможных инопланетных разумов намного больше.
- ^ «19 – Механистическая интерпретация с Нилом Нандой» . AXRP — подкаст по исследованию ИИ-рисков . 4 февраля 2023 г. Проверено 13 июля 2023 г.
Мне кажется правдоподобным, что главное, что нам нужно сделать, — это заметить конкретные схемы, связанные с обманом и конкретными опасными способностями, такими как эта, а также ситуационную осведомленность и внутренне представленные цели.
- ^ «Сверхинтеллект – это не всеведение» . Влияние ИИ . 7 апреля 2023 г. Проверено 16 апреля 2023 г.
- ↑ Перейти обратно: Перейти обратно: а б с д и ж г час я Хендрикс, Дэн; Мажейка, Мантас; Вудсайд, Томас (21 июня 2023 г.). «Обзор катастрофических рисков ИИ». arXiv : 2306.12001 [ cs.CY ].
- ^ Тейлор, Джош; Херн, Алекс (2 мая 2023 г.). « Крестный отец искусственного интеллекта» Джеффри Хинтон покидает Google и предупреждает об опасности дезинформации» . Хранитель . ISSN 0261-3077 . Проверено 13 июля 2023 г.
- ^ «Как НАТО готовится к новой эре кибератак с использованием ИИ» . Евроньюс . 26 декабря 2022 г. Проверено 13 июля 2023 г.
- ^ «ChatGPT и новый искусственный интеллект наносят ущерб кибербезопасности захватывающим и пугающим образом» . ЗДНЕТ . Проверено 13 июля 2023 г.
- ^ Тоби Шевлейн; Себастьян Фаркуар; Бен Гарфинкель; Мэри Фуонг; Джесс Уиттлстоун; Джейд Люн; Даниэль Кокотайло; Нахема Маршал; Маркус Андерлюнг; Ноам Кольт; Льюис Хо; Дивья Сиддарт; Шахар Авин; Уилл Хокинс; Был Ким; Ясон Габриэль; Виджай Болина; Джек Кларк; Йошуа Бенджио; Пол Кристиано; Аллан Дефо (24 мая 2023 г.). «Модель оценки экстремальных рисков». arXiv : 2305.15324 [ cs.AI ].
- ^ Урбина, Фабио; Ленцос, Филиппа; Инверницци, Седрик; Экинс, Шон (7 марта 2022 г.). «Двойное использование открытия лекарств с помощью искусственного интеллекта» . Природный машинный интеллект . 4 (3): 189–191. дои : 10.1038/s42256-022-00465-9 . ISSN 2522-5839 . ПМЦ 9544280 . ПМИД 36211133 .
- ^ Уолтер, Йошия (27 марта 2023 г.). «Быстрая конкурентоспособная экономика развития машинного обучения: дискуссия о социальных рисках и выгодах» . ИИ и этика . 4 (2): 1. дои : 10.1007/s43681-023-00276-7 .
- ^ «Гонка вооружений в области искусственного интеллекта началась. Начинайте беспокоиться» . Время . 16 февраля 2023 г. Проверено 17 июля 2023 г.
- ^ Бримелоу, Бен. «Короткометражный фильм «Slaughterbots» изображает антиутопическое будущее дронов-убийц, кишащих по миру» . Бизнес-инсайдер . Проверено 20 июля 2023 г.
- ^ Меклин, Джон (17 июля 2023 г.). « Искусственная эскалация: представляя будущее ядерного риска» . Бюллетень ученых-атомщиков . Проверено 20 июля 2023 г.
- ^ Бостром, Ник (2013). «Предотвращение экзистенциального риска как глобальный приоритет» (PDF) . Глобальная политика . 4 (1): 15–3. doi : 10.1111/1758-5899.12002 – через Экзистенциальный риск.
- ^ Доэрти, Бен (17 мая 2018 г.). «Изменение климата представляет собой «экзистенциальную угрозу безопасности» для Австралии, говорится в запросе Сената» . Хранитель . ISSN 0261-3077 . Проверено 16 июля 2023 г.
- ^ Макаскилл, Уильям (2022). Чему мы обязаны будущему . Нью-Йорк, Нью-Йорк: Основные книги. ISBN 978-1-5416-1862-6 .
- ↑ Перейти обратно: Перейти обратно: а б с д Орд, Тоби (2020). «Глава 5: Будущие риски, несогласованный искусственный интеллект». Пропасть: экзистенциальный риск и будущее человечества . Издательство Блумсбери. ISBN 978-1-5266-0021-9 .
- ^ Самуэльссон, Пол Конрад (июнь – июль 2019 г.). «Искусственное сознание: наша величайшая этическая проблема» . Философия сейчас . № 132 . Проверено 19 августа 2023 г.
- ^ Кейтман, Брайан (24 июля 2023 г.). «ИИ должен бояться людей» . Время . Проверено 19 августа 2023 г.
- ^ Фишер, Ричард. «Разумный монстр, которому следует позволить съесть себя» . www.bbc.com . Проверено 19 августа 2023 г.
- ^ Море, Макс (19 июня 2023 г.). «Экзистенциальный риск против экзистенциальных возможностей: сбалансированный подход к риску ИИ» . Экстропические мысли . Проверено 14 июля 2023 г.
- ^ Омохундро, С.М. (2008, февраль). Базовый ИИ управляет. В АГИ (т. 171, стр. 483–492).
- ^ Карлсмит, Джозеф (16 июня 2022 г.). «Является ли ИИ, стремящийся к власти, экзистенциальным риском?». arXiv : 2206.13353 [ cs.CY ].
- ^ « Крестный отец искусственного интеллекта» предупреждает о «кошмарном сценарии», когда искусственный интеллект начнет стремиться к власти» . Удача . Проверено 10 июня 2023 г.
- ^ Уэйкфилд, Джейн (15 сентября 2015 г.). «Почему Facebook инвестирует в ИИ?» . Новости Би-би-си . Архивировано из оригинала 2 декабря 2017 года . Проверено 27 ноября 2017 г.
- ^ Юдковский, Элиезер (2011). «Для реализации ценного будущего необходимы сложные системы ценностей» (PDF) . Архивировано (PDF) из оригинала 29 сентября 2015 года . Проверено 10 августа 2020 г.
- ↑ Перейти обратно: Перейти обратно: а б Орд, Тоби (2020). Пропасть: экзистенциальный риск и будущее человечества . Блумсбери Паблишинг Plc. ISBN 978-1-5266-0019-6 .
- ^ Юдковский, Э. (2011, август). Сложные системы ценностей в дружественном ИИ. На Международной конференции по общему искусственному интеллекту (стр. 388–393). Германия: Шпрингер, Берлин, Гейдельберг.
- ^ Рассел, Стюарт (2014). «О мифах и самогоне» . Край . Архивировано из оригинала 19 июля 2016 года . Проверено 23 октября 2015 г.
- ^ Диттерих, Томас ; Хорвиц, Эрик (2015). «Рост опасений по поводу ИИ: размышления и направления» (PDF) . Коммуникации АКМ . 58 (10): 38–40. дои : 10.1145/2770869 . S2CID 20395145 . Архивировано (PDF) из оригинала 4 марта 2016 года . Проверено 23 октября 2015 г.
- ↑ Перейти обратно: Перейти обратно: а б Юдковский, Элиезер (29 марта 2023 г.). «Открытое письмо об искусственном интеллекте не зашло достаточно далеко» . Время . Проверено 16 июля 2023 г.
- ^ Бостром, Ник (1 мая 2012 г.). «Сверхразумная воля: мотивация и инструментальная рациональность в продвинутых искусственных агентах». Разум и машины . 22 (2): 71–85. дои : 10.1007/s11023-012-9281-3 . ISSN 1572-8641 . S2CID 254835485 .
Пока они обладают достаточным уровнем интеллекта, агенты, имеющие любую из широкого спектра конечных целей, будут преследовать аналогичные промежуточные цели, потому что у них есть инструментальные причины для этого.
- ^ Нго, Ричард; Чан, Лоуренс; Сёрен Миндерманн (22 февраля 2023 г.). «Проблема выравнивания с точки зрения глубокого обучения». arXiv : 2209.00626 [ cs.AI ].
- ^ «Введение в супервыравнивание» . openai.com . Проверено 16 июля 2023 г.
- ^ Тилли, Сесилия (28 апреля 2016 г.). «Роботы-убийцы? Потеряли работу?» . Сланец . Архивировано из оригинала 11 мая 2016 года . Проверено 15 мая 2016 г.
- ^ «Норвиг против Хомского и борьба за будущее искусственного интеллекта» . Тор.com . 21 июня 2011 года. Архивировано из оригинала 13 мая 2016 года . Проверено 15 мая 2016 г.
- ^ Грейвс, Мэтью (8 ноября 2017 г.). «Почему нас должна беспокоить искусственный сверхинтеллект» . Скептик (американский журнал) . Том. 22, нет. 2. Архивировано из оригинала 13 ноября 2017 года . Проверено 27 ноября 2017 г.
- ^ Джонсон, Фил (30 июля 2015 г.). «Хьюстон, у нас есть ошибка: 9 известных программных сбоев в космосе» . Мир ИТ . Архивировано из оригинала 15 февраля 2019 года . Проверено 5 февраля 2018 г.
- ^ Ямпольский, Роман В. (8 апреля 2014 г.). «Безопасность функций полезности в агентах с искусственным интеллектом». Журнал экспериментального и теоретического искусственного интеллекта . 26 (3): 373–389. дои : 10.1080/0952813X.2014.895114 . S2CID 16477341 .
Ничто не мешает достаточно умным самосовершенствующимся системам оптимизировать свои механизмы вознаграждения для оптимизации достижения текущих целей и при этом совершать ошибки, приводящие к искажению их функций вознаграждения.
- ^ «Уничтожит ли искусственный интеллект человечество? Вот 5 причин не беспокоиться» . Вокс . 22 августа 2014 года. Архивировано из оригинала 30 октября 2015 года . Проверено 30 октября 2015 г.
- ^ Бостром, Ник (2014). Суперинтеллект: пути, опасности, стратегии . Оксфорд, Соединенное Королевство: Издательство Оксфордского университета. п. 116. ИСБН 978-0-19-967811-2 .
- ^ Бостром, Ник (2012). «Сверхразумная воля» (PDF) . Ник Бостром . Архивировано (PDF) из оригинала 28 ноября 2015 года . Проверено 29 октября 2015 г.
- ^ Армстронг, Стюарт (1 января 2013 г.). «Интеллект общего назначения: аргументация тезиса об ортогональности» . Анализ и метафизика . 12 . Архивировано из оригинала 11 октября 2014 года . Проверено 2 апреля 2020 г. Полный текст доступен здесь. Архивировано 25 марта 2020 года в Wayback Machine .
- ↑ Перейти обратно: Перейти обратно: а б Хорост, Михаил (18 апреля 2016 г.). «Пусть искусственный интеллект развивается» . Сланец . Архивировано из оригинала 27 ноября 2017 года . Проверено 27 ноября 2017 г.
- ^ «Должны ли люди бояться появления машин?» . Телеграф (Великобритания) . 1 сентября 2015 г. Архивировано из оригинала 12 января 2022 г. Проверено 7 февраля 2016 г.
- ↑ Перейти обратно: Перейти обратно: а б Шермер, Майкл (1 марта 2017 г.). «Апокалипсис ИИ» . Научный американец . 316 (3): 77. Бибкод : 2017SciAm.316c..77S . doi : 10.1038/scientificamerican0317-77 . ПМИД 28207698 . Архивировано из оригинала 1 декабря 2017 года . Проверено 27 ноября 2017 г.
- ^ «Интеллектуальные машины: чего Facebook хочет от ИИ?» . Новости Би-би-си . 14 сентября 2015 года . Проверено 31 марта 2023 г.
- ^ Баум, Сет (30 сентября 2018 г.). «Противодействие дезинформации суперинтеллекта» . Информация . 9 (10): 244. дои : 10.3390/info9100244 . ISSN 2078-2489 .
- ^ «Миф об ИИ» . www.edge.org . Архивировано из оригинала 11 марта 2020 года . Проверено 11 марта 2020 г.
- ^ Бостром, Ник, Суперинтеллект: пути, опасности, стратегии (Аудиокнига), ISBN 978-1-5012-2774-5 , OCLC 1061147095 .
- ^ Сотала, Кай; Ямпольский, Роман В. (19 декабря 2014 г.). «Реакция на катастрофический риск ОГИ: опрос» . Физика Скрипта . 90 (1): 12. Бибкод : 2015PhyS...90a8001S . дои : 10.1088/0031-8949/90/1/018001 . ISSN 0031-8949 .
- ^ Пистоно, Федерико; Ямпольский, Роман В. (9 мая 2016 г.). Неэтичные исследования: как создать злонамеренный искусственный интеллект . OCLC 1106238048 .
- ^ Хейни, Брайан Симус (2018). «Опасности и перспективы общего искусственного интеллекта». Серия рабочих документов SSRN . дои : 10.2139/ssrn.3261254 . ISSN 1556-5068 . S2CID 86743553 .
- ^ Рассел, Стюарт (30 августа 2017 г.). «Искусственный интеллект: Будущее за сверхразумом» . Природа . 548 (7669): 520–521. Бибкод : 2017Natur.548..520R . дои : 10.1038/548520a . S2CID 4459076 .
- ↑ Перейти обратно: Перейти обратно: а б с Тегмарк, Макс (2017). Жизнь 3.0: Быть человеком в эпоху искусственного интеллекта (1-е изд.). Обеспечение безопасности ИИ: Кнопф. ISBN 978-0-451-48507-6 .
- ^ Кумар, Вибхор. «Сообщение совета: На заре искусственного общего интеллекта: баланс изобилия с экзистенциальными гарантиями» . Форбс . Проверено 23 июля 2023 г.
- ↑ Перейти обратно: Перейти обратно: а б «Приостановить гигантские эксперименты с искусственным интеллектом: открытое письмо» . Институт будущего жизни . Проверено 30 марта 2023 г.
- ^ «Принципы ИИ» . Институт будущего жизни . 11 августа 2017 года. Архивировано из оригинала 11 декабря 2017 года . Проверено 11 декабря 2017 г.
- ^ «Илон Маск и Стивен Хокинг предупреждают о гонке вооружений в области искусственного интеллекта» . Newsweek . 31 января 2017 года. Архивировано из оригинала 11 декабря 2017 года . Проверено 11 декабря 2017 г.
- ^ Форд, Мартин (2015). «Глава 9: Суперинтеллект и сингулярность». Восстание роботов: технологии и угроза безработного будущего . Основные книги. ISBN 978-0-465-05999-7 .
- ^ Бостром, Ник (2016). «Новый эпилог к изданию в мягкой обложке». Суперинтеллект: пути, опасности, стратегии (изд. В мягкой обложке).
- ^ «Почему неуправляемый ИИ выглядит более вероятным, чем когда-либо» . Время . 27 февраля 2023 г. Проверено 30 марта 2023 г.
Поэтому неудивительно, что, согласно последнему исследованию воздействия ИИ, почти половина из 731 ведущего исследователя ИИ считает, что существует как минимум 10% вероятность того, что ИИ на человеческом уровне приведет к «крайне негативному результату» или экзистенциальному риску.
- ↑ Перейти обратно: Перейти обратно: а б Маас, Маттейс М. (6 февраля 2019 г.). «Насколько жизнеспособен международный контроль над вооружениями для военного искусственного интеллекта? Три урока ядерного оружия массового уничтожения». Современная политика безопасности . 40 (3): 285–311. дои : 10.1080/13523260.2019.1576464 . ISSN 1352-3260 . S2CID 159310223 .
- ↑ Перейти обратно: Перейти обратно: а б «Впечатлен искусственным интеллектом? Эксперты говорят, что следующим будет AGI, и он несет в себе «экзистенциальные» риски» . Новости АВС . 23 марта 2023 г. Проверено 30 марта 2023 г.
- ^ Роулинсон, Кевин (29 января 2015 г.). «Билл Гейтс из Microsoft настаивает на том, что ИИ представляет собой угрозу» . Новости Би-би-си . Архивировано из оригинала 29 января 2015 года . Проверено 30 января 2015 г.
- ^ Вашингтон Пост (14 декабря 2015 г.). «Технические титаны, такие как Илон Маск, тратят 1 миллиард долларов, чтобы спасти вас от терминаторов» . Чикаго Трибьюн . Архивировано из оригинала 7 июня 2016 года.
- ^ «Судный день утопии: познакомьтесь с конкурирующими фракциями ИИ» . Вашингтон Пост . 9 апреля 2023 г. Проверено 30 апреля 2023 г.
- ^ «Калифорнийский университет в Беркли – Центр ИИ, совместимого с человеком (2016)» . Открытая благотворительность . 27 июня 2016 г. Проверено 30 апреля 2023 г.
- ^ «Таинственная компания по искусственному интеллекту, в которую инвестировал Илон Маск, разрабатывает революционные умные компьютеры» . Технический инсайдер . Архивировано из оригинала 30 октября 2015 года . Проверено 30 октября 2015 г.
- ^ Кларк 2015a .
- ^ «Илон Маск пожертвует 10 миллионов долларов из собственных денег на исследования в области искусственного интеллекта» . Компания Фаст . 15 января 2015 года. Архивировано из оригинала 30 октября 2015 года . Проверено 30 октября 2015 г.
- ^ Тилли, Сесилия (28 апреля 2016 г.). «Роботы-убийцы? Потеряли работу?» . Сланец . Архивировано из оригинала 11 мая 2016 года . Проверено 15 мая 2016 г.
- ^ Хачадурян, Раффи (23 ноября 2015 г.). «Изобретение Судного дня: принесет ли искусственный интеллект нам утопию или разрушение?» . Житель Нью-Йорка . Архивировано из оригинала 29 апреля 2019 года . Проверено 7 февраля 2016 г.
- ^ «Предупреждая об опасности ИИ, пионер Джеффри Хинтон покидает Google, чтобы говорить свободно» . www.arstechnica.com . 2023 . Проверено 23 июля 2023 г.
- ^ Гарлинг, Калеб (5 мая 2015 г.). «Эндрю Нг: Почему «глубокое обучение» является обязательным для людей, а не только для машин» . Проводной . Проверено 31 марта 2023 г.
- ^ «Является ли искусственный интеллект реальной угрозой человечеству?» . МамбаПочта . 4 апреля 2023 г.
- ^ «Дело против роботов-убийц от парня, который на самом деле работает над искусственным интеллектом» . Fusion.net . Архивировано из оригинала 4 февраля 2016 года . Проверено 31 января 2016 г.
- ^ «Эксперты по искусственному интеллекту бросают вызов повествованию о «обреченности», включая утверждения о «риске исчезновения»» . ВенчурБит . 31 мая 2023 г. Проверено 8 июля 2023 г.
- ^ Колдьюи, Девин (1 апреля 2023 г.). «Специалисты по этике ответили на письмо «AI Pause», которое, по их словам, «игнорирует реальный вред» » . ТехКранч . Проверено 23 июля 2023 г.
- ^ «DAIR (Научно-исследовательский институт распределенного искусственного интеллекта)» . Институт ДАИР . Проверено 23 июля 2023 г.
- ^ Келли, Кевин (25 апреля 2017 г.). «Миф о сверхчеловеческом искусственном интеллекте» . Проводной . Архивировано из оригинала 26 декабря 2021 года . Проверено 19 февраля 2022 г.
- ^ Джиндал, Сиддхарт (7 июля 2023 г.). «Стремление OpenAI к согласованию ИИ является надуманным» . Журнал Analytics India . Проверено 23 июля 2023 г.
- ^ «Марк Цукерберг отвечает на паранойю Илона Маска по поводу ИИ: «ИИ собирается… помочь обеспечить безопасность наших сообществ». " . Бизнес-инсайдер . 25 мая 2018 года. Архивировано из оригинала 6 мая 2019 года . Проверено 6 мая 2019 г.
- ^ Дадич, Скотт. «Барак Обама рассказывает об искусственном интеллекте, роботизированных автомобилях и будущем мира» . ПРОВОДНОЙ . Архивировано из оригинала 3 декабря 2017 года . Проверено 27 ноября 2017 г.
- ^ Кирхер, Мэдисон Мэлоун. «Обама о рисках ИИ: «Вам просто нужен кто-то рядом с шнуром питания» » . Выбрать все . Архивировано из оригинала 1 декабря 2017 года . Проверено 27 ноября 2017 г.
- ^ Клинтон, Хиллари (2017). Что случилось . Саймон и Шустер. п. 241. ИСБН 978-1-5011-7556-5 . через [1] Архивировано 1 декабря 2017 г. на Wayback Machine.
- ^ «Илон Маск говорит, что ИИ может обречь человеческую цивилизацию на гибель. Цукерберг с этим не согласен. Кто прав?» . 5 января 2023 года. Архивировано из оригинала 8 января 2018 года . Проверено 8 января 2018 г.
- ^ «Судный день искусственного интеллекта беспокоит многих американцев. Так же, как и апокалипсис, вызванный изменением климата, ядерным оружием, войной и многим другим» . 14 апреля 2023 года. Архивировано из оригинала 23 июня 2023 года . Проверено 9 июля 2023 г.
- ^ Тайсон, Алек; Кикучи, Эмма (28 августа 2023 г.). «Растущая обеспокоенность общественности по поводу роли искусственного интеллекта в повседневной жизни» . Исследовательский центр Пью . Проверено 17 сентября 2023 г.
- ^ Сотала, Кай; Ямпольский, Роман (19 декабря 2014 г.). «Реакция на катастрофический риск AGI: опрос». Физика Скрипта . 90 (1).
- ^ Барретт, Энтони М.; Баум, Сет Д. (23 мая 2016 г.). «Модель путей к катастрофе искусственного сверхразума для анализа рисков и решений». Журнал экспериментального и теоретического искусственного интеллекта . 29 (2): 397–414. arXiv : 1607.07730 . дои : 10.1080/0952813x.2016.1186228 . ISSN 0952-813X . S2CID 928824 .
- ^ Сотала, Кай; Ямпольский, Роман В. (19 декабря 2014 г.). «Реакция на катастрофический риск ОГИ: опрос» . Физика Скрипта . 90 (1): 018001. Бибкод : 2015PhyS...90a8001S . дои : 10.1088/0031-8949/90/1/018001 . ISSN 0031-8949 . S2CID 4749656 .
- ^ Рамамурти, Ананд; Ямпольский, Роман (2018). «За пределами MAD? Гонка за искусственным интеллектом» . Открытия ИКТ . 1 (Спецвыпуск 1). МСЭ: 1–8. Архивировано из оригинала 7 января 2022 года . Проверено 7 января 2022 г.
- ^ Караяннис, Элиас Г.; Дрейпер, Джон (11 января 2022 г.). «Оптимизация мира посредством Всеобщего глобального мирного договора, чтобы ограничить риск войны со стороны военизированного искусственного сверхинтеллекта» . ИИ и общество . 38 (6): 2679–2692. дои : 10.1007/s00146-021-01382-y . ISSN 0951-5666 . ПМЦ 8748529 . ПМИД 35035113 . S2CID 245877737 .
- ^ Караяннис, Элиас Г.; Дрейпер, Джон (30 мая 2023 г.), «Проблема современной кибервойны и место кибермира» , The Elgar Companion to Digital Transformation, Искусственный интеллект и инновации в экономике, обществе и демократии , Edward Elgar Publishing, стр. 32–80 , doi : 10.4337/9781839109362.00008 , ISBN 978-1-83910-936-2 , получено 8 июня 2023 г.
- ^ Винсент, Джеймс (22 июня 2016 г.). «Исследователи Google в области искусственного интеллекта говорят, что это пять ключевых проблем безопасности роботов» . Грань . Архивировано из оригинала 24 декабря 2019 года . Проверено 5 апреля 2020 г.
- ^ Амодей, Дарио, Крис Ола, Джейкоб Стейнхардт, Пол Кристиано, Джон Шульман и Дэн Мане. «Конкретные проблемы безопасности ИИ». Препринт arXiv arXiv:1606.06565 (2016).
- ^ Джонсон, Алекс (2019). «Илон Маск хочет подключить ваш мозг напрямую к компьютерам – начиная со следующего года» . Новости Эн-Би-Си . Архивировано из оригинала 18 апреля 2020 года . Проверено 5 апреля 2020 г.
- ^ Торрес, Фил (18 сентября 2018 г.). «Только радикальное развитие человечества может спасти нас всех» . Журнал «Сланец» . Архивировано из оригинала 6 августа 2020 года . Проверено 5 апреля 2020 г.
- ^ Барретт, Энтони М.; Баум, Сет Д. (23 мая 2016 г.). «Модель путей к катастрофе искусственного сверхразума для анализа рисков и решений». Журнал экспериментального и теоретического искусственного интеллекта . 29 (2): 397–414. arXiv : 1607.07730 . дои : 10.1080/0952813X.2016.1186228 . S2CID 928824 .
- ^ Пайпер, Келси (29 марта 2023 г.). «Как проверить, что модель ИИ может – и не должна – делать» . Вокс . Проверено 28 июля 2023 г.
- ^ Писинг, Марк (17 мая 2012 г.). «Восстание искусственного интеллекта: люди будут отданы на аутсорсинг, а не уничтожены» . Проводной . Архивировано из оригинала 7 апреля 2014 года . Проверено 12 декабря 2015 г.
- ^ Кофлан, Шон (24 апреля 2013 г.). «Как люди вымрут?» . Новости Би-би-си . Архивировано из оригинала 9 марта 2014 года . Проверено 29 марта 2014 г.
- ^ Бридж, Марк (10 июня 2017 г.). «Снижение уверенности роботов может помешать им взять верх» . Таймс . Архивировано из оригинала 21 марта 2018 года . Проверено 21 марта 2018 г.
- ^ Макгиннис, Джон (лето 2010 г.). «Ускорение ИИ» . Обзор права Северо-Западного университета . 104 (3): 1253–1270. Архивировано из оригинала 15 февраля 2016 года . Проверено 16 июля 2014 г.
По всем этим причинам проверка глобального договора об отказе от обязательств или даже договора, ограничивающегося разработкой оружия, связанного с искусственным интеллектом, не является началом... (По причинам, отличным от наших, Научно-исследовательский институт машинного интеллекта) считает (AGI) отказ невозможным...
- ^ Сотала, Кай; Ямпольский, Роман (19 декабря 2014 г.). «Реакция на катастрофический риск AGI: опрос». Физика Скрипта . 90 (1).
В целом, большинство авторов отвергают предложения о широком отказе... Предложения об отказе страдают от многих из тех же проблем, что и предложения по регулированию, но в большей степени. Не существует исторического прецедента успешного отказа от общей, многоцелевой технологии, подобной ОИИ, и, по-видимому, нет никаких теоретических оснований полагать, что предложения об отказе будут работать в будущем. Поэтому мы не считаем их жизнеспособным классом предложений.
- ^ Алленби, Брэд (11 апреля 2016 г.). «Неправильный измеритель когнитивных способностей» . Сланец . Архивировано из оригинала 15 мая 2016 года . Проверено 15 мая 2016 г.
Было бы фантазией предполагать, что ускоренное развитие и внедрение технологий, которые в совокупности считаются искусственным интеллектом, будут остановлены или ограничены либо регулированием, либо даже национальным законодательством.
- ↑ Перейти обратно: Перейти обратно: а б Ямпольский, Роман В. (2022). «Скептицизм рисков ИИ» . В Мюллере, Винсент К. (ред.). Философия и теория искусственного интеллекта 2021 . Исследования в области прикладной философии, эпистемологии и рациональной этики. Том. 63. Чам: Международное издательство Springer. стр. 225–248. дои : 10.1007/978-3-031-09153-7_18 . ISBN 978-3-031-09153-7 .
- ^ Баум, Сет (22 августа 2018 г.). «Суперинтеллектовый скептицизм как политический инструмент» . Информация . 9 (9): 209. дои : 10.3390/info9090209 . ISSN 2078-2489 .
- ^ «Илон Маск и другие технологические лидеры призывают к паузе в «вышедшей из-под контроля» гонке ИИ» . CNN . 29 марта 2023 г. Проверено 30 марта 2023 г.
- ^ «Открытое письмо с призывом к «паузе» в области ИИ проливает свет на ожесточенные дебаты о рисках и шумихе» . ВенчурБит . 29 марта 2023 г. Проверено 20 июля 2023 г.
- ^ Винсент, Джеймс (14 апреля 2023 г.). «Генеральный директор OpenAI подтверждает, что компания не занимается обучением GPT-5 и «не будет это делать в течение некоторого времени» » . Грань . Проверено 20 июля 2023 г.
- ^ «Открытое письмо об искусственном интеллекте не зашло достаточно далеко» . Время . 29 марта 2023 г. Проверено 20 июля 2023 г.
- ^ Домоноске, Камила (17 июля 2017 г.). «Илон Маск предупреждает губернаторов: искусственный интеллект представляет «экзистенциальный риск» » . ЭНЕРГЕТИЧЕСКИЙ ЯДЕРНЫЙ РЕАКТОР . Архивировано из оригинала 23 апреля 2020 года . Проверено 27 ноября 2017 г.
- ^ Гиббс, Сэмюэл (17 июля 2017 г.). «Илон Маск: регулируйте ИИ для борьбы с «экзистенциальной угрозой», пока не стало слишком поздно» . Хранитель . Архивировано из оригинала 6 июня 2020 года . Проверено 27 ноября 2017 г.
- ^ Харпал, Арджун (7 ноября 2017 г.). «ИИ находится в «зачаточном состоянии», и регулировать его еще слишком рано, — говорит генеральный директор Intel Брайан Кржанич» . CNBC . Архивировано из оригинала 22 марта 2020 года . Проверено 27 ноября 2017 г.
- ^ Дауэс, Джеймс (20 декабря 2021 г.). «ООН не может договориться о запрете «роботов-убийц», поскольку страны тратят миллиарды на исследования автономного оружия» . Разговор . Проверено 28 июля 2023 г.
- ↑ Перейти обратно: Перейти обратно: а б Фассихи, Фарназ (18 июля 2023 г.). «Чиновники ООН призывают к регулированию искусственного интеллекта» . Нью-Йорк Таймс . ISSN 0362-4331 . Проверено 20 июля 2023 г.
- ^ «Международное сообщество должно срочно противостоять новой реальности генеративного искусственного интеллекта, подчеркивают спикеры во время обсуждения в Совете Безопасности рисков и выгод» . Объединенные Нации . Проверено 20 июля 2023 г.
- ^ Сотала, Кай; Ямпольский, Роман В. (19 декабря 2014 г.). «Реакция на катастрофический риск ОГИ: опрос» . Физика Скрипта . 90 (1): 018001. Бибкод : 2015PhyS...90a8001S . дои : 10.1088/0031-8949/90/1/018001 . ISSN 0031-8949 .
- ^ Гейст, Эдвард Мур (15 августа 2016 г.). «Уже слишком поздно останавливать гонку вооружений ИИ. Вместо этого мы должны ею управлять». Бюллетень ученых-атомщиков . 72 (5): 318–321. Бибкод : 2016БуАтС..72э.318Г . дои : 10.1080/00963402.2016.1216672 . ISSN 0096-3402 . S2CID 151967826 .
- ^ «Amazon, Google, Meta, Microsoft и другие технологические компании соглашаются с мерами защиты ИИ, установленными Белым домом» . АП Новости . 21 июля 2023 г. Проверено 21 июля 2023 г.
- ^ «Amazon, Google, Meta, Microsoft и другие компании соглашаются на защиту ИИ» . Рекламодатель Реддича . 21 июля 2023 г. Проверено 21 июля 2023 г.
- ^ Белый дом (30 октября 2023 г.). «Указ о безопасной, надежной и надежной разработке и использовании искусственного интеллекта» . Белый дом . Проверено 19 декабря 2023 г.
Библиография [ править ]
- Кларк, Джек (2015a). «Группа, поддерживаемая Маском, исследует риски, связанные с искусственным интеллектом» . Bloomberg.com . Архивировано из оригинала 30 октября 2015 года . Проверено 30 октября 2015 г.