Jump to content

Суперинтеллект

(Перенаправлено с Супер интеллекта )

Сверхинтеллект , — это гипотетический агент обладающий интеллектом , намного превосходящим интеллект самых ярких и одаренных человеческих умов. «Суперинтеллект» может также относиться к свойству систем решения проблем (например, сверхразумных языковых переводчиков или помощников инженеров), независимо от того, воплощены ли эти интеллектуальные компетенции высокого уровня в агентах, действующих в мире. Сверхразум может быть создан, а может и не быть создан в результате интеллектуального взрыва и связан с технологической сингулярностью .

Оксфордского университета Философ Ник Бостром определяет сверхинтеллект как «любой интеллект, который значительно превосходит когнитивные способности человека практически во всех областях интересов». [ 1 ] Программа Фриц не соответствует этой концепции сверхразума (хотя она намного лучше людей играет в шахматы), потому что Фриц не может превзойти людей в других задачах. [ 2 ] Вслед за Хаттером и Леггом Бостром трактует сверхинтеллект как общее доминирование в целенаправленном поведении, оставляя открытым вопрос о том, будет ли искусственный или человеческий сверхинтеллект обладать такими способностями, как интенциональность (ср. аргумент о китайской комнате ) или сознание от первого лица (ср. трудную проблему). сознания ).

Исследователи-технологи расходятся во мнениях относительно того, насколько вероятно, что современный человеческий интеллект будет превзойден. Некоторые утверждают, что достижения в области искусственного интеллекта (ИИ), вероятно, приведут к появлению общих систем мышления, лишенных человеческих когнитивных ограничений. Другие полагают, что люди будут эволюционировать или напрямую модифицировать свою биологию, чтобы достичь радикально большего интеллекта. [ 3 ] [ 4 ] Несколько сценариев будущих исследований сочетают в себе элементы обеих этих возможностей, предполагая, что люди, скорее всего, будут взаимодействовать с компьютерами или загружать свои мысли в компьютеры таким образом, чтобы обеспечить существенное усиление интеллекта.

Некоторые исследователи полагают, что сверхинтеллект, скорее всего, появится вскоре после развития общего искусственного интеллекта . Первые в целом разумные машины, вероятно, сразу же получат огромное преимущество, по крайней мере, в некоторых формах умственных способностей, включая способность к идеальному запоминанию , значительно превосходящую базу знаний и способность выполнять несколько задач способами, недоступными биологическим существам. Это может позволить им — как отдельному существу или как новому виду — стать намного более могущественными, чем люди, и вытеснить их. [ 1 ]

Некоторые ученые и прогнозисты выступают за приоритетность ранних исследований возможных преимуществ и рисков улучшения когнитивных функций человека и машины из-за потенциального социального воздействия таких технологий. [ 5 ]

Возможность создания искусственного сверхинтеллекта

[ редактировать ]
Искусственный интеллект, особенно модели фундаментов , добился быстрого прогресса, превосходя человеческие возможности в различных показателях .

Философ Дэвид Чалмерс утверждает, что общий искусственный интеллект — это весьма вероятный путь к искусственному сверхинтеллекту (ИСИ). Чалмерс разбивает это утверждение на аргумент, что ИИ может достичь эквивалентности человеческому интеллекту, что его можно расширить , чтобы превзойти человеческий интеллект, и что его можно дополнительно усилить, чтобы полностью доминировать над людьми в произвольных задачах. [ 6 ]

Что касается эквивалентности на человеческом уровне, Чалмерс утверждает, что человеческий мозг — это механическая система, и поэтому его следует подражать с помощью синтетических материалов. [ 7 ] Он также отмечает, что человеческий интеллект смог биологически развиваться, что повышает вероятность того, что инженеры-люди смогут воспроизвести это изобретение. Эволюционные алгоритмы , в частности, должны быть способны создавать ИИ человеческого уровня. [ 8 ] Что касается расширения и усиления интеллекта, Чалмерс утверждает, что новые технологии искусственного интеллекта, как правило, можно улучшить, и что это особенно вероятно, когда изобретение может помочь в разработке новых технологий. [ 9 ]

Система искусственного интеллекта, способная к самосовершенствованию, может улучшить свой собственный интеллект, тем самым становясь более эффективной в самосовершенствовании. Этот цикл «рекурсивного самосовершенствования» может вызвать интеллектуальный взрыв , приводящий к созданию сверхразума. [ 10 ]

Компьютерные компоненты уже значительно превосходят по скорости человеческие возможности. Бостром пишет: «Биологические нейроны работают с максимальной частотой около 200 Гц, что на целых семь порядков медленнее, чем современный микропроцессор (~2 ГГц)». [ 11 ] Более того, нейроны передают импульсные сигналы по аксонам со скоростью не более 120 м/с, «в то время как существующие ядра электронной обработки могут обмениваться оптическими данными со скоростью света». Таким образом, простейшим примером сверхразума может быть эмулируемый человеческий разум, работающий на гораздо более быстром оборудовании, чем мозг. Человекоподобный мыслитель, который мог бы думать в миллионы раз быстрее, чем современные люди, имел бы доминирующее преимущество в большинстве задач рассуждения, особенно тех, которые требуют спешки или длинных последовательностей действий.

Еще одним преимуществом компьютеров является модульность, то есть их размер или вычислительная мощность могут быть увеличены. Нечеловеческий (или модифицированный человеческий) мозг может стать намного больше, чем современный человеческий мозг, как и многие суперкомпьютеры . Бостром также поднимает вопрос о возможности коллективного сверхразума : достаточно большое количество отдельных систем мышления, если они достаточно хорошо взаимодействуют и координируются, могли бы действовать вместе с гораздо большими возможностями, чем любой субагент.

Люди превосходят животных, не являющихся людьми, во многом благодаря новым или улучшенным способностям к рассуждению, таким как долгосрочное планирование и использование языка . (См. «Эволюция человеческого интеллекта и познания приматов ».) Если существуют другие возможные улучшения в рассуждениях, которые будут иметь столь же большое влияние, это повышает вероятность создания агента, который превосходит людей в том же смысле, в каком люди превосходят шимпанзе. [ 12 ]

Вышеупомянутые преимущества справедливы для искусственного сверхинтеллекта, но неясно, насколько они справедливы для биологического сверхинтеллекта. Физиологические ограничения ограничивают скорость и размер биологического мозга во многих отношениях, которые неприменимы к машинному интеллекту. Таким образом, авторы статей о сверхразуме уделяют гораздо больше внимания сценариям сверхразумного ИИ. [ 13 ]

Возможность биологического сверхинтеллекта

[ редактировать ]

Карл Саган предположил, что появление кесарева сечения и экстракорпорального оплодотворения может позволить людям развить более крупные головы, что приведет к улучшениям посредством естественного отбора в наследственном компоненте человеческого интеллекта . [ 14 ] , напротив, Джеральд Крэбтри утверждает, что снижение давления отбора приводит к медленному, многовековому снижению человеческого интеллекта и что этот процесс, скорее всего, продолжится. В отношении любой из этих возможностей нет научного консенсуса, и в обоих случаях биологические изменения будут медленными, особенно по сравнению со скоростью культурных изменений.

Селекция , ноотропы , эпигенетическая модуляция и генная инженерия могут улучшить человеческий интеллект быстрее. Бостром пишет, что если мы придем к пониманию генетического компонента интеллекта, преимплантационную генетическую диагностику можно будет использовать для отбора эмбрионов с приростом IQ до 4 баллов (если один эмбрион выбран из двух) или с более крупными приростами. (например, до 24,3 баллов IQ, если выбрать один эмбрион из 1000). Если этот процесс будет повторяться на протяжении многих поколений, выигрыш может быть на порядок лучше. Бостром предполагает, что получение новых гамет из эмбриональных стволовых клеток можно использовать для быстрого повторения процесса отбора. [ 15 ] Хорошо организованное общество людей с высоким интеллектом такого типа потенциально могло бы достичь коллективного сверхразума. [ 16 ]

С другой стороны, коллективный разум может быть конструктивным за счет лучшей организации людей на нынешнем уровне индивидуального интеллекта. Некоторые авторы предположили, что человеческая цивилизация или какой-то ее аспект (например, Интернет или экономика) начинает функционировать как глобальный мозг , возможности которого намного превосходят составляющие его агенты. Однако если этот системный сверхинтеллект в значительной степени опирается на искусственные компоненты, его можно квалифицировать как ИИ, а не как суперорганизм , основанный на биологии . [ 17 ] Рынок прогнозов иногда рассматривается как пример работающей системы коллективного разума, состоящей только из людей (при условии, что алгоритмы не используются для принятия решений). [ 18 ]

Последним методом усиления интеллекта могло бы стать непосредственное улучшение отдельных людей, а не улучшение их социальной или репродуктивной динамики. Этого можно достичь с помощью ноотропов , соматической генной терапии или интерфейсов мозг-компьютер . Однако Бостром выражает скептицизм по поводу масштабируемости первых двух подходов и утверждает, что разработка сверхразумного киборга интерфейса — это задача , полная для ИИ . [ 19 ]

Прогнозы

[ редактировать ]

Большинство опрошенных исследователей ИИ ожидают, что машины в конечном итоге смогут конкурировать с людьми в интеллекте, хотя нет единого мнения о том, когда это, скорее всего, произойдет. На конференции AI@50 2006 года 18% участников сообщили, что ожидают, что к 2056 году машины смогут «имитировать обучение и все другие аспекты человеческого интеллекта»; 41% участников ожидали, что это произойдет где-то после 2056 года; и 41% ожидали, что машины никогда не достигнут этого рубежа. [ 20 ]

В опросе 100 наиболее цитируемых авторов в области искусственного интеллекта (по состоянию на май 2013 года, согласно академическому поиску Microsoft) средний год, к которому респонденты ожидали, что машины «могут выполнять большинство человеческих профессий, по крайней мере, так же, как обычный человек» ( не при условии, что глобальной катастрофы произойдет) с достоверностью 10 % — это 2024 год (в среднем 2034 год, стандартное отклонение 33 года), с достоверностью 50 % — 2050 год (среднее значение 2072 года, стандартное отклонение 110 лет) и с достоверностью 90 % — 2070 год ( средний 2168 год, ст. 342 года). Эти оценки исключают 1,2% респондентов, которые сказали, что ни один год никогда не достигнет 10%-ной уверенности, 4,1%, которые сказали «никогда» с 50%-ной уверенностью, и 16,5%, которые сказали «никогда» с 90%-ной уверенностью. Респонденты присвоили медианную 50% вероятность того, что машинный сверхинтеллект будет изобретен в течение 30 лет после изобретения машинного интеллекта примерно человеческого уровня. [ 21 ]

В опросе 2022 года средний год, к которому респонденты ожидали «машинного интеллекта высокого уровня» с уверенностью 50%, - это 2061 год. В опросе было определено достижение высокого уровня машинного интеллекта, когда машины без посторонней помощи могут выполнять любую задачу лучше и дешевле, чем человеческие работники. [ 22 ]

В 2023 году OpenAI лидеры Сэм Альтман , Грег Брокман и Илья Суцкевер опубликовали рекомендации по управлению сверхинтеллектом, что, по их мнению, может произойти менее чем через 10 лет. [ 23 ] В 2024 году Илья Суцкевер покинул OpenAI и стал соучредителем стартапа Safe Superintelligence , который фокусируется исключительно на создании сверхразума, безопасного по своей конструкции, избегая при этом «отвлечения на управленческие накладные расходы или циклы разработки продукта». [ 24 ]

Рекомендации по проектированию

[ редактировать ]

Бостром выразил обеспокоенность по поводу того, какие ценности должен иметь сверхинтеллект. Он сравнил несколько предложений: [ 25 ]

  • Предложение последовательной экстраполированной воли (CEV) состоит в том, что она должна иметь ценности, к которым люди будут сходиться.
  • Предложение о моральной правоте (MR) заключается в том, что оно должно ценить моральную правоту.
  • Предложение моральной допустимости (МП) заключается в том, что оно должно оставаться в пределах моральной допустимости (и в остальном иметь ценности CEV).

Бостром разъясняет эти термины:

вместо того, чтобы реализовывать последовательную экстраполированную волю человечества, можно попытаться создать ИИ, который будет делать то, что морально правильно, полагаясь на превосходные когнитивные способности ИИ, чтобы выяснить, какие действия соответствуют этому описанию. Мы можем назвать это предложение «моральной правильностью» (МР)   … MR также имеет некоторые недостатки. Он опирается на понятие «морального права», общеизвестно сложную концепцию, над которой философы боролись с древности, но еще не достигли консенсуса относительно ее анализа. Выбор ошибочного объяснения «моральной правильности» может привести к результатам, которые были бы очень неправильными с моральной точки зрения   ... Путь к наделению ИИ любой из этих [моральных] концепций может включать в себя придание ему общих языковых способностей (по крайней мере, сравнимых с как у нормального взрослого человека). Такая общая способность понимать естественный язык может быть использована для понимания того, что подразумевается под «моральным правом». Если бы ИИ мог уловить смысл, он мог бы искать подходящие действия   ... [ 25 ]

Можно попытаться сохранить основную идею модели MR, одновременно снизив ее требовательность, сосредоточив внимание на моральной допустимости : идея состоит в том, что мы можем позволить ИИ преследовать CEV человечества до тех пор, пока он не будет действовать морально недопустимыми способами. [ 25 ]

Потенциальная угроза человечеству

[ редактировать ]

Было высказано предположение, что если системы ИИ быстро станут сверхразумными, они могут предпринять непредвиденные действия или превзойти человечество. [ 26 ] Исследователи утверждают, что в результате «взрыва интеллекта» самосовершенствующийся ИИ может стать настолько мощным, что люди его не смогут остановить. [ 27 ]

Что касается сценариев вымирания человечества, Бостром в 2002 году называет возможной причиной сверхинтеллект:

Когда мы создаем первое сверхразумное существо, мы можем совершить ошибку и поставить перед ним цели, которые приведут его к уничтожению человечества, предполагая, что его огромное интеллектуальное преимущество дает ему возможность сделать это. Например, мы могли ошибочно повысить статус подцели до статуса сверхцели. Мы приказываем ему решить математическую задачу, и он подчиняется, превращая всю материю Солнечной системы в гигантское вычислительное устройство, убивая при этом человека, задавшего вопрос. [ 28 ]

Теоретически, поскольку сверхразумный ИИ сможет добиться практически любого возможного результата и помешать любой попытке помешать достижению своих целей, множество неконтролируемых, непредвиденных последствий может возникнуть . Он мог бы уничтожить всех остальных агентов, убедить их изменить свое поведение или заблокировать их попытки вмешательства. [ 29 ]

Это представляет собой проблему управления ИИ: как создать интеллектуального агента, который будет помогать своим создателям, избегая при этом непреднамеренного создания сверхразума, который нанесет вред своим создателям. Опасность неправильного проектирования контроля «с первого раза» заключается в том, что сверхразум может захватить власть над окружающей средой и помешать людям отключить ее для достижения своих целей. [ 30 ] Потенциальные стратегии управления ИИ включают « контроль возможностей » (ограничение способности ИИ влиять на мир) и «мотивационный контроль» (создание ИИ, цели которого соответствуют человеческим ценностям). [ 31 ]

См. также

[ редактировать ]
  1. ^ Jump up to: а б Бостром 2014 , Глава 2.
  2. ^ Бостром 2014 , с. 22.
  3. ^ Пирс, Дэвид (2012), Иден, Амнон Х.; Мур, Джеймс Х.; Сёракер, Джонни Х.; Стейнхарт, Эрик (ред.), «Взрыв биоинтеллекта: как рекурсивно самоусовершенствующиеся органические роботы изменят свой собственный исходный код и загрузят наш путь к сверхинтеллекту полного спектра» , «Гипотезы сингулярности» , The Frontiers Collection, Берлин, Гейдельберг: Springer Berlin Гейдельберг, стр. 199–238, номер документа : 10.1007/978-3-642-32560-1_11 , ISBN.  978-3-642-32559-5 , получено 16 января 2022 г.
  4. ^ Гувейя, Стивен С., изд. (2020). «гл. 4, «Люди и интеллектуальные машины: коэволюция, слияние или замена?», Дэвид Пирс» . Эпоха искусственного интеллекта: исследование . Вернон Пресс. ISBN  978-1-62273-872-4 .
  5. ^ Легг 2008 , стр. 135–137.
  6. ^ Чалмерс 2010 , с. 7.
  7. ^ Чалмерс 2010 , с. 7-9.
  8. ^ Чалмерс 2010 , с. 10-11.
  9. ^ Чалмерс 2010 , с. 11-13.
  10. ^ «Умные винтики» . Экономист . ISSN   0013-0613 . Проверено 10 августа 2023 г.
  11. ^ Бостром 2014 , с. 59.
  12. ^ Бостром 2014 , стр. 56–57.
  13. ^ Бостром 2014 , стр. 52, 59–61.
  14. ^ Саган, Карл (1977). Драконы Эдема . Случайный дом.
  15. ^ Бостром 2014 , стр. 37–39.
  16. ^ Бостром 2014 , с. 39.
  17. ^ Бостром 2014 , стр. 48–49.
  18. ^ Уоткинс, Дженнифер Х. (2007), Рынки прогнозов как механизм агрегирования коллективного разума
  19. ^ Бостром 2014 , стр. 36–37, 42, 47.
  20. ^ Создатель, Мэг Хьюстон (13 июля 2006 г.). «AI@50: Первый опрос» . Архивировано из оригинала 13 мая 2014 г.
  21. ^ Мюллер и Бостром, 2016 , стр. 3–4, 6, 9–12.
  22. ^ «Сроки развития искусственного интеллекта: чего эксперты в области искусственного интеллекта ожидают в будущем?» . Наш мир в данных . Проверено 9 августа 2023 г.
  23. ^ «Управление сверхинтеллектом» . openai.com . Проверено 30 мая 2023 г.
  24. ^ Вэнс, Эшли (19 июня 2024 г.). «У Ильи Суцкевера новый план безопасного суперинтеллекта» . Блумберг . Проверено 19 июня 2024 г.
  25. ^ Jump up to: а б с Бостром 2014 , стр. 209–221.
  26. ^ Джой, Билл (1 апреля 2000 г.). «Почему будущее не нуждается в нас» . Проводной . См. также технологическую сингулярность . Ник Бостром , 2002 г. «Этические проблемы современного искусственного интеллекта».
  27. ^ Мюльхаузер, Люк и Луи Хелм. 2012. «Интеллектуальный взрыв и машинная этика». В книге «Гипотезы сингулярности: научная и философская оценка» под редакцией Амнона Идена, Джонни Сёракера, Джеймса Х. Мура и Эрика Стейнхарта. Берлин, Германия: Шпрингер.
  28. ^ Бостром 2002 .
  29. ^ Бостром, Ник. 2003. «Этические проблемы современного искусственного интеллекта». В книге «Когнитивные, эмоциональные и этические аспекты принятия решений людьми и искусственным интеллектом» под редакцией Ивы Смит и Джорджа Э. Ласкера, стр. 12–17. Том. 2. Виндзор, Онтарио, Канада: Международный институт перспективных исследований в области системных исследований/кибернетики.
  30. ^ Рассел, Стюарт (17 мая 2016 г.). «Следует ли нам бояться сверхумных роботов?» . Научный американец . 314 (6): 58–59. Бибкод : 2016SciAm.314f..58R . doi : 10.1038/scientificamerican0616-58 . ISSN   0036-8733 . ПМИД   27196844 .
  31. ^ Бостром 2014 , стр. 129–143.
[ редактировать ]
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 16efed30e32c9f23f40498dca63d4e7c__1720448280
URL1:https://arc.ask3.ru/arc/aa/16/7c/16efed30e32c9f23f40498dca63d4e7c.html
Заголовок, (Title) документа по адресу, URL1:
Superintelligence - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)