Общий искусственный интеллект
Часть серии о |
Искусственный интеллект |
---|
Общий искусственный интеллект ( AGI ) — это тип искусственного интеллекта (ИИ), который соответствует человеческим возможностям или превосходит их в широком спектре когнитивных задач. [1] В отличие от узкого ИИ , который предназначен для конкретных задач. [2] AGI считается одним из различных определений сильного ИИ .
Создание AGI — основная цель исследований ИИ и таких компаний, как OpenAI. [3] и Мета . [4] Исследование 2020 года выявило 72 активных проекта исследований и разработок AGI в 37 странах. [5]
Сроки достижения AGI остаются предметом постоянных дискуссий среди исследователей и экспертов. По состоянию на 2023 год [update], некоторые утверждают, что это может быть возможно через годы или десятилетия; другие утверждают, что это может занять столетие или больше; и меньшинство полагает, что этого никогда не удастся достичь. [6] Ведутся споры о точном определении AGI и о том, являются ли современные модели больших языков (LLM), такие как GPT-4, ранними, неполными формами AGI. [7] ОИИ — распространенная тема в научной фантастике и исследованиях будущего .
Существуют разногласия по поводу того, что ИИИ может представлять угрозу человечеству; [8] например, OpenAI утверждает, что рассматривает это как экзистенциальный риск , в то время как другие считают, что развитие AGI слишком отдаленно, чтобы представлять риск. [9] [6] [10]
Терминология
AGI также известен как сильный ИИ. [11] [12] полный ИИ, [13] ИИ человеческого уровня [6] или общее разумное действие. [14] Однако в некоторых академических источниках термин «сильный ИИ» используется для компьютерных программ, обладающих разумом или сознанием . [а] Напротив, слабый ИИ (или узкий ИИ) способен решить одну конкретную задачу, но ему не хватает общих когнитивных способностей. [15] [12] Некоторые академические источники используют термин «слабый ИИ» для более широкого обозначения любых программ, которые не обладают ни сознанием, ни разумом в том же смысле, что и люди. [а]
Связанные концепции включают искусственный сверхинтеллект и преобразующий ИИ. Искусственный сверхинтеллект (ИСИ) — это гипотетический тип ОИИ, который в целом гораздо более разумен, чем люди. [16] в то время как понятие преобразующего ИИ относится к ИИ, оказывающему большое влияние на общество, например, подобно сельскохозяйственной или промышленной революции. [17]
Схема классификации AGI по уровням была предложена в 2023 году исследователями Google DeepMind . Они определяют пять уровней ОИИ: развивающийся, компетентный, экспертный, виртуозный и сверхчеловеческий. Например, компетентный AGI определяется как ИИ, который превосходит 50% квалифицированных взрослых в широком диапазоне нефизических задач, а сверхчеловеческий AGI определяется аналогичным образом, но с порогом 100%. Они считают, что большие языковые модели, такие как ChatGPT или LLaMA 2, были экземплярами нового AGI. [18]
Характеристики
различные критерии интеллекта Были предложены (наиболее известный из них — тест Тьюринга ), но ни одно определение не получило широкого признания. [б]
Черты интеллекта
Однако исследователи обычно считают, что интеллект необходим для выполнения всего следующего: [20]
- рассуждать , использовать стратегию, решать головоломки и выносить суждения в условиях неопределенности
- представляют знания , включая знания здравого смысла
- план
- учиться
- общаться на естественном языке
- при необходимости интегрировать эти навыки для достижения любой поставленной цели.
Многие междисциплинарные подходы (например, когнитивная наука , вычислительный интеллект и принятие решений ) учитывают дополнительные черты, такие как воображение (способность формировать новые мысленные образы и концепции). [21] и автономность . [22]
Существуют компьютерные системы, которые демонстрируют многие из этих возможностей (например, см. вычислительное творчество , автоматизированное рассуждение , систему поддержки принятия решений , робот , эволюционные вычисления , интеллектуальный агент ). Однако нет единого мнения о том, что современные системы ИИ обладают ими в достаточной степени.
Физические характеристики
Другие возможности считаются желательными в интеллектуальных системах, поскольку они могут повлиять на интеллект или помочь в его выражении. К ним относятся: [23]
- способность чувствовать (например , видеть , слышать и т. д.) и
- способность действовать (например, перемещать объекты и манипулировать ими , менять местоположение для исследования и т. д.)
Это включает в себя способность обнаруживать опасность и реагировать на нее . [24]
Тесты на AGI человеческого уровня
Было рассмотрено несколько тестов, предназначенных для подтверждения AGI на человеческом уровне, в том числе: [25] [26]
- Тест Тьюринга ( Тьюринг )
- Машина и человек невидимо общаются со вторым человеком, который должен оценить, кто из двух является машиной, которая проходит тест, если она может обмануть оценщика значительную часть времени. Примечание. Тьюринг не предписывает, что следует квалифицировать как интеллект, а только то, что знание того, что это машина, должно дисквалифицировать его. Искусственный интеллект Юджина Густмана , имитирующий 13-летнего мальчика, в 2014 году, по оценкам Тьюринга, убедил 33% судей в том, что он был человеком. [27]
- Тест для студентов колледжа роботов ( Гёрцель )
- Машина поступает в университет, посещает и проходит те же курсы, что и люди, и получает степень. Магистр права теперь могут сдавать экзамены на получение университетской степени, даже не посещая занятия. [28]
- Тест на трудоустройство ( Нильссон )
- Машина выполняет экономически важную работу по крайней мере так же хорошо, как люди, выполняющие ту же работу. Сегодня ИИ заменяют людей во многих сферах, таких как фаст-фуд и маркетинг. [29]
- Тест Ikea ( Маркус )
- Также известен как «Тест плоской мебели». ИИ просматривает детали и инструкции плоской упаковки Ikea, а затем управляет роботом, который правильно собирает мебель. [30]
- Кофейный тест ( Возняк )
- Чтобы войти в среднестатистический американский дом и понять, как приготовить кофе, необходима машина: найдите кофемашину, найдите кофе, добавьте воды, найдите кружку и заварите кофе, нажимая соответствующие кнопки. [31] Это еще не завершено.
- Современный тест Тьюринга ( Сулейман )
- Модель искусственного интеллекта получает 100 000 долларов и должна получить 1 миллион долларов. [32] [33]
AI-полные проблемы
Проблема неофициально называется «ИИ-полной» или «ИИ-сложной», если считается, что для ее решения необходимо реализовать AGI, поскольку решение выходит за рамки возможностей специального алгоритма. [34]
Было высказано предположение, что существует множество проблем, для решения которых требуется не только человеческий интеллект, но и общий интеллект. Примеры включают компьютерное зрение , понимание естественного языка и умение справляться с непредвиденными обстоятельствами при решении любой реальной проблемы. [35] Даже такая конкретная задача, как перевод, требует, чтобы машина могла читать и писать на обоих языках, следовать аргументам автора (разум), понимать контекст (знания) и точно воспроизводить исходные намерения автора ( социальный интеллект ). Все эти проблемы необходимо решить одновременно, чтобы достичь производительности машины на уровне человека.
Однако многие из этих задач теперь могут быть выполнены с помощью современных больших языковых моделей. Согласно индексу искусственного интеллекта Стэнфордского университета за 2024 год, ИИ достиг человеческого уровня по многим показателям понимания прочитанного и визуального мышления. [36]
История
Классический ИИ
Современные исследования искусственного интеллекта начались в середине 1950-х годов. [37] Первое поколение исследователей ИИ было убеждено, что общий искусственный интеллект возможен и что он появится всего через несколько десятилетий. [38] Пионер искусственного интеллекта Герберт А. Саймон писал в 1965 году: «Через двадцать лет машины будут способны выполнять любую работу, которую может выполнить человек». [39]
Их предсказания послужили вдохновением для Стэнли Кубрика и Артура Кларка персонажа HAL 9000 , который воплотил в себе то, что, по мнению исследователей ИИ, они могли создать к 2001 году. Пионер ИИ Марвин Мински был консультантом. [40] о проекте сделать HAL 9000 максимально реалистичным в соответствии с общепринятыми прогнозами того времени. В 1967 году он сказал: «Через одно поколение... проблема создания «искусственного интеллекта» будет существенно решена». [41]
Несколько классических проектов искусственного интеллекта , такие как Дуга Лената ( проект Cyc который начался в 1984 году) и Аллена Ньюэлла , проект Soar были направлены на AGI.
Однако в начале 1970-х годов стало очевидно, что исследователи сильно недооценили сложность проекта. Финансирующие агентства стали скептически относиться к ОИИ и заставили исследователей создавать полезный «прикладной ИИ». [с] В начале 1980-х годов японский проект «Компьютер пятого поколения» возродил интерес к AGI, установив десятилетний график, включающий такие цели AGI, как «поддерживать непринужденный разговор». [45] В ответ на это, а также на успех экспертных систем , как промышленность, так и правительство вложили деньги в эту область. [43] [46] Однако в конце 1980-х годов доверие к ИИ резко рухнуло, и цели проекта «Компьютер пятого поколения» так и не были достигнуты. [47] Во второй раз за 20 лет исследователи ИИ, предсказавшие скорое достижение ОИИ, ошиблись. К 1990-м годам исследователи искусственного интеллекта имели репутацию людей, дающих тщетные обещания. Они вообще перестали делать прогнозы [д] и избегал упоминания об искусственном интеллекте «человеческого уровня», опасаясь, что его назовут «мечтателями с дикими глазами». [49]
Узкие исследования ИИ
В 1990-х и начале 21-го века основной ИИ достиг коммерческого успеха и академической респектабельности, сосредоточившись на конкретных подзадачах, где ИИ может давать проверяемые результаты и коммерческие приложения, такие как распознавание речи и алгоритмы рекомендаций . [50] Эти «прикладные системы искусственного интеллекта» сейчас широко используются в технологической отрасли, и исследования в этом направлении широко финансируются как в научных кругах, так и в промышленности. По состоянию на 2018 год [update]Развитие в этой области считалось новой тенденцией, и ожидалось, что зрелая стадия будет достигнута более чем через 10 лет. [51]
На рубеже веков многие ведущие исследователи ИИ [52] надеялся, что сильный ИИ можно будет создать, объединив программы, решающие различные подзадачи. Ганс Моравец писал в 1988 году:
Я уверен, что этот восходящий путь к искусственному интеллекту однажды встретит традиционный нисходящий путь более чем наполовину, готовый обеспечить реальную компетентность и знания здравого смысла, которые были так удручающе неуловимы в программах рассуждения. Полностью интеллектуальные машины появятся, когда метафорический золотой шип будет приведен в движение, объединяя эти два усилия. [52]
Однако даже в то время это оспаривалось. Например, Стеван Харнад из Принстонского университета завершил свою статью 1990 года о гипотезе обоснования символов , заявив:
Часто высказывалось ожидание, что «нисходящий» (символический) подход к моделированию познания каким-то образом встретится с «восходящим» (сенсорным) подходом где-то посередине. Если основные соображения, изложенные в этой статье, верны, то это ожидание безнадежно модульно, и на самом деле существует только один реальный путь от смысла к символам: с нуля. Свободно плавающий символический уровень, такой как уровень программного обеспечения компьютера, никогда не будет достигнут этим путем (или наоборот). равносильно вырыванию наших символов из их внутреннего значения (тем самым мы просто сводимся к функциональному эквиваленту программируемого компьютера). [53]
Современные исследования общего искусственного интеллекта
Термин «искусственный общий интеллект» использовал еще в 1997 году Марк Губруд. [54] в обсуждении последствий полностью автоматизированного военного производства и операций. Математический формализм AGI был предложен Маркусом Хаттером в 2000 году. Предлагаемый агент AIXI, названный AIXI , максимизирует «способность достигать целей в широком диапазоне сред». [55] Этот тип ОИИ, характеризующийся способностью максимизировать математическое определение интеллекта, а не демонстрировать поведение, подобное человеческому, [56] еще называли универсальным искусственным интеллектом. [57]
Термин AGI был вновь введен и популяризирован Шейном Леггом и Беном Герцелем примерно в 2002 году. [58] Исследовательскую деятельность AGI в 2006 году описали Пей Ван и Бен Герцель. [59] как «подготовка публикаций и предварительных результатов». Первая летняя школа AGI была организована в Сямыне, Китай, в 2009 году. [60] Лабораторией искусственного мозга Сямэньского университета и OpenCog. Первый университетский курс был прочитан в 2010 году. [61] и 2011 год [62] в Пловдивском университете, Болгария, Тодор Арнаудов. В 2018 году MIT представил курс по AGI, организованный Лексом Фридманом и с участием ряда приглашенных лекторов.
По состоянию на 2023 год [update], небольшое количество ученых-компьютерщиков активно занимаются исследованиями AGI, и многие из них участвуют в серии конференций по AGI . Однако все больше исследователей интересуются открытым обучением. [63] [64] Идея заключается в том, чтобы позволить ИИ постоянно учиться и внедрять инновации, как это делают люди. Хотя большинство открытых учебных работ по-прежнему выполняются в Minecraft , [20] [23] [55] его применение может быть распространено на робототехнику и естественные науки.
Технико-экономическое обоснование
По состоянию на 2023 год [update], полные формы ОИИ остаются спекулятивными. [65] [66] Ни одна система, отвечающая общепринятым критериям AGI, еще не была продемонстрирована. Мнения о том, появится ли общий искусственный интеллект и когда он появится, расходятся. Пионер искусственного интеллекта Герберт А. Саймон в 1965 году предположил, что «через двадцать лет машины будут способны выполнять любую работу, которую может выполнить человек». Это предсказание не сбылось. Соучредитель Microsoft Пол Аллен считал, что такой интеллект маловероятен в 21 веке, поскольку он потребует «непредвиденных и принципиально непредсказуемых прорывов» и «научно глубокого понимания познания». [67] В статье для The Guardian робототехник Алан Уинфилд заявил, что пропасть между современными компьютерами и искусственным интеллектом человеческого уровня так же широка, как пропасть между нынешними космическими полетами и практическими космическими полетами со скоростью, превышающей скорость света. [68]
Еще одной проблемой является отсутствие ясности в определении того, что влечет за собой интеллект . Требуется ли для этого сознание? Должен ли он демонстрировать способность ставить цели и достигать их? Является ли это просто вопросом масштаба, так что если размеры модели достаточно увеличатся, появится интеллект? Требуются ли такие возможности, как планирование, рассуждение и причинно-следственная связь? Требует ли интеллект явного копирования мозга и его конкретных способностей? Требуются ли эмоции? [69]
Большинство исследователей ИИ верят, что сильный ИИ может быть создан в будущем, но некоторые мыслители, такие как Хьюберт Дрейфус и Роджер Пенроуз , отрицают возможность создания сильного ИИ. [70] [71] Джон Маккарти принадлежит к числу тех, кто верит, что ИИ человеческого уровня будет создан, но нынешний уровень прогресса таков, что дату невозможно точно предсказать. [72] Мнения экспертов по искусственному интеллекту о возможности создания искусственного интеллекта то растут, то угасают. Четыре опроса, проведенные в 2012 и 2013 годах, показали, что средняя оценка экспертов того времени, когда они будут на 50% уверены в появлении AGI, составляет от 2040 до 2050 года, в зависимости от опроса, со средним значением 2081. Из экспертов 16,5% ответили: « никогда», когда ему задали тот же вопрос, но с уверенностью 90%. [73] [74] Дальнейшие текущие соображения по поводу прогресса AGI можно найти выше . Тесты для подтверждения AGI на человеческом уровне .
В докладе Стюарта Армстронга и Кая Соталы из Научно-исследовательского института машинного интеллекта обнаружено, что «в течение 60-летнего периода существует сильная предвзятость в отношении прогнозирования появления искусственного интеллекта человеческого уровня через 15–25 лет с момента появления искусственного интеллекта». предсказание было сделано». Они проанализировали 95 прогнозов, сделанных в период с 1950 по 2012 год, о том, когда появится ИИ человеческого уровня. [75]
В 2023 году исследователи Microsoft опубликовали подробную оценку GPT-4 . Они пришли к выводу: «Учитывая широту и глубину возможностей GPT-4, мы считаем, что его можно разумно рассматривать как раннюю (но все еще неполную) версию системы общего искусственного интеллекта (AGI)». [76] Другое исследование, проведенное в 2023 году, показало, что GPT-4 превосходит 99% людей по тестам Торранса на творческое мышление . [77] [78]
2023 год также ознаменовал появление крупных мультимодальных моделей (больших языковых моделей, способных обрабатывать или генерировать несколько модальностей, таких как текст, аудио и изображения). [79]
Сроки
Прогресс в области искусственного интеллекта исторически переживал периоды быстрого прогресса, сменяющиеся периодами, когда прогресс, казалось, останавливался. [70] Окончанием каждого перерыва стали фундаментальные достижения в области оборудования, программного обеспечения или того и другого, создавшие пространство для дальнейшего прогресса. [70] [82] [83] Например, компьютерного оборудования, доступного в двадцатом веке, было недостаточно для реализации глубокого обучения, для которого требуется большое количество графического процессора с поддержкой процессоров . [84]
Во введении к своей книге 2006 года [85] Герцель говорит, что оценки времени, необходимого для создания действительно гибкого AGI, варьируются от 10 лет до более чем столетия. По состоянию на 2007 год [update], в исследовательском сообществе AGI, похоже, пришли к единому мнению, что временная шкала, обсуждавшаяся Рэем Курцвейлом в 2005 году в книге «Сингулярность близка» [86] (т.е. между 2015 и 2045 годами) было правдоподобным. [87] Ведущие исследователи ИИ высказали самые разные мнения о том, будет ли прогресс таким быстрым. Метаанализ 95 таких мнений, проведенный в 2012 году, выявил предвзятость в предсказании того, что начало ОГИ произойдет в течение 16–26 лет как для современных, так и для исторических прогнозов. Эту статью критиковали за то, как в ней мнения классифицируются на экспертные и неэкспертные. [88]
В 2012 году Алекс Крижевский , Илья Суцкевер и Джеффри Хинтон разработали нейронную сеть под названием AlexNet , которая выиграла конкурс ImageNet с коэффициентом ошибок теста в пятерке лучших, равным 15,3%, что значительно лучше, чем показатель второго лучшего входа в 26,3% ( традиционный подход использовал взвешенную сумму баллов из разных заранее определенных классификаторов). [89] AlexNet считался первооткрывателем нынешней волны глубокого обучения . [89]
В 2017 году исследователи Фэн Лю, Юн Ши и Ин Лю провели тесты на интеллект общедоступных и свободно доступных слабых ИИ, таких как Google AI, Siri от Apple и других. В максимуме эти ИИ достигли значения IQ около 47, что примерно соответствует шестилетнему ребенку в первом классе. У взрослого человека в среднем их около 100. Подобные тесты были проведены в 2014 году, при этом показатель IQ достиг максимального значения 27. [90] [91]
В 2020 году OpenAI разработала GPT-3 — языковую модель, способную выполнять множество разнообразных задач без специального обучения. По словам Гэри Гроссмана в статье VentureBeat , хотя существует консенсус в отношении того, что GPT-3 не является примером AGI, некоторые считают его слишком продвинутым, чтобы его можно было классифицировать как узкую систему искусственного интеллекта. [92]
В том же году Джейсон Рорер использовал свою учетную запись GPT-3 для разработки чат-бота и предоставил платформу для разработки чат-ботов под названием «Проект Декабрь». OpenAI попросила внести изменения в чат-бот, чтобы он соответствовал их правилам безопасности; Рорер отключил проект «Декабрь» от API GPT-3. [93]
В 2022 году DeepMind разработала Gato — систему «общего назначения», способную выполнять более 600 различных задач. [94]
В 2023 году компания Microsoft Research опубликовала исследование ранней версии GPT-4 OpenAI , утверждая, что она демонстрирует более общий интеллект, чем предыдущие модели ИИ, и демонстрирует производительность на человеческом уровне в задачах, охватывающих несколько областей, таких как математика, программирование и право. Это исследование вызвало дискуссию о том, можно ли считать GPT-4 ранней, неполной версией общего искусственного интеллекта, подчеркнув необходимость дальнейшего изучения и оценки таких систем. [95]
В 2023 году исследователь искусственного интеллекта Джеффри Хинтон заявил, что: [96]
Идея о том, что эта штука действительно может стать умнее людей – некоторые в это верили, [...]. Но большинство людей думали, что это далеко. И я думал, что это далеко. Я думал, что это произойдет через 30–50 лет или даже дольше. Очевидно, я больше так не думаю.
В марте 2024 года Дженсен генеральный директор Nvidia Хуанг заявил, что ожидает, что через пять лет ИИ сможет пройти любые испытания, по крайней мере, так же хорошо, как люди. [97]
Эмуляция всего мозга
Хотя разработка больших языковых моделей считается наиболее многообещающим путем к AGI, [98] эмуляция всего мозга Альтернативным подходом может служить . При моделировании всего мозга модель мозга строится путем сканирования и картирования детального биологического мозга, а затем копирования и моделирования его в компьютерной системе или другом вычислительном устройстве. Имитационная . модель должна быть достаточно точной оригиналу, чтобы вести себя практически так же, как исходный мозг [99] Эмуляция всего мозга — это тип моделирования мозга , который обсуждается в вычислительной нейробиологии и нейроинформатике , а также в целях медицинских исследований. Это обсуждалось в искусственного интеллекта. исследованиях [87] как подход к сильному ИИ. Технологии нейровизуализации , которые могли бы обеспечить необходимое детальное понимание, быстро совершенствуются, и футурист Рэй Курцвейл в книге «Сингулярность близка» [86] прогнозирует, что карта достаточного качества станет доступной в сроки, аналогичные вычислительной мощности, необходимой для ее имитации.
Ранние оценки
Для низкоуровневого моделирования мозга потребуется очень мощный кластер компьютеров или графических процессоров, учитывая огромное количество синапсов в человеческом мозге . Каждый из 10 11 (сто миллиардов) нейронов имеет в среднем 7000 синаптических связей (синапсов) с другими нейронами. Мозг трехлетнего ребенка имеет около 10 15 синапсы (1 квадриллион). Это число снижается с возрастом и стабилизируется к взрослому возрасту. Оценки для взрослого варьируются от 10 14 до 5×10 14 синапсы (от 100 до 500 триллионов). [101] Оценка вычислительной мощности мозга, основанная на простой модели переключения активности нейронов, составляет около 10 14 (100 триллионов) синаптических обновлений в секунду ( SUPS ). [102]
В 1997 году Курцвейл рассмотрел различные оценки аппаратного обеспечения, необходимого для того, чтобы соответствовать человеческому мозгу, и принял цифру 10. 16 вычислений в секунду (cps). [и] (Для сравнения: если «вычисление» было эквивалентно одной « операции с плавающей запятой » – мерой, используемой для оценки современных суперкомпьютеров – тогда 10 16 «вычисления» были бы эквивалентны 10 петафлопс , достигнутым в 2011 году , тогда как 10 18 было достигнуто в 2022 году .) Он использовал эту цифру, чтобы предсказать, что необходимое оборудование будет доступно где-то между 2015 и 2025 годами, если экспоненциальный рост мощности компьютеров на момент написания статьи продолжится.
Текущие исследования
Проект «Человеческий мозг» , финансируемый ЕС , действовавший с 2013 по 2023 год, разработал особенно подробный и общедоступный атлас человеческого мозга. [105] В 2023 году исследователи из Университета Дьюка провели сканирование мозга мыши в высоком разрешении. [106] Суперкомпьютер с вычислительными возможностями, аналогичными человеческому мозгу, ожидается в апреле 2024 года. Названный «DeepSouth», он сможет выполнять 228 триллионов синаптических операций в секунду. [107]
Критика подходов, основанных на моделировании
Модель искусственного нейрона , предложенная Курцвейлом и используемая во многих современных реализациях искусственных нейронных сетей, проста по сравнению с биологическими нейронами . Моделирование мозга, вероятно, должно будет отразить детальное клеточное поведение биологических нейронов , которое в настоящее время понимается лишь в общих чертах. Накладные расходы, связанные с полным моделированием биологических, химических и физических деталей поведения нейронов (особенно в молекулярном масштабе), потребуют вычислительных мощностей, на несколько порядков превышающих оценку Курцвейла. Кроме того, оценки не учитывают глиальные клетки , которые, как известно, играют роль в когнитивных процессах. [108]
Фундаментальная критика подхода с использованием моделирования мозга исходит из теории воплощенного познания , которая утверждает, что человеческое воплощение является важным аспектом человеческого интеллекта и необходимо для обоснования смысла. [109] [106] Если эта теория верна, любая полнофункциональная модель мозга должна включать в себя не только нейроны (например, роботизированное тело). Герцель [87] предлагает виртуальное воплощение (как в метавселенных вроде Second Life ) в качестве варианта, но неизвестно, будет ли этого достаточно.
Философская перспектива
«Сильный ИИ» по определению в философии
В 1980 году философ Джон Сирл ввел термин «сильный ИИ» в рамках своего аргумента о китайской комнате . [110] Он хотел провести различие между двумя разными гипотезами об искусственном интеллекте: [ф]
- Сильная гипотеза искусственного интеллекта : система искусственного интеллекта может иметь «разум» и «сознание».
- Слабая гипотеза искусственного интеллекта : система искусственного интеллекта может (только) действовать так, как она думает, и обладает разумом и сознанием.
Первый он назвал «сильным», потому что он содержит более сильное утверждение: он предполагает, что с машиной произошло что-то особенное, выходящее за рамки тех способностей, которые мы можем проверить. Поведение машины «слабого ИИ» было бы точно идентично поведению машины «сильного ИИ», но последняя также имела бы субъективный сознательный опыт. Такое использование также распространено в академических исследованиях и учебниках по искусственному интеллекту. [111]
В отличие от Сирла и основного ИИ, некоторые футуристы, такие как Рэй Курцвейл, используют термин «сильный ИИ» для обозначения «общего искусственного интеллекта человеческого уровня». [86] Сирла Это не то же самое, что сильный ИИ , если только не предположить, что сознание необходимо для AGI человеческого уровня. Академические философы, такие как Сирл, не верят в это, и для большинства исследователей искусственного интеллекта этот вопрос выходит за рамки рассмотрения. [112]
программа Обычный ИИ больше всего интересуется тем, как ведет себя . [113] По словам Рассела и Норвига , «пока программа работает, им все равно, называете ли вы ее реальной или симуляцией». [112] Если программа может вести себя так, как будто у нее есть разум, то нет необходимости знать, есть ли у нее разум на самом деле – на самом деле, не было бы никакого способа узнать это. Для исследований ИИ «гипотеза слабого ИИ» Сирла эквивалентна утверждению «искусственный общий интеллект возможен». Таким образом, по словам Рассела и Норвига, «большинство исследователей ИИ принимают слабую гипотезу ИИ как нечто само собой разумеющееся и не заботятся о сильной гипотезе ИИ». [112] Таким образом, для академических исследований ИИ «Сильный ИИ» и «ИИО» — это две разные вещи.
Сознание, самосознание, чувствительность
Другие аспекты человеческого разума, помимо интеллекта, имеют отношение к концепции AGI или «сильного ИИ», и они играют важную роль в научной фантастике и этике искусственного интеллекта :
- Сознание : Иметь субъективный опыт . Томас Нагель объясняет, что это «чувство» — быть в сознании. Если мы не сознательны, то это ни на что не похоже. Нагель приводит пример летучей мыши: мы можем разумно спросить: «Каково это быть летучей мышью?» Однако мы вряд ли зададимся вопросом «каково быть тостером?» Нагель заключает, что летучая мышь кажется сознательной (т. е. имеет сознание), а тостер — нет. [114]
- самосознание : сознательно осознавать себя как отдельного человека, особенно осознавать свои собственные мысли. Это противоположно тому, чтобы просто быть «предметом мысли» — операционная система или отладчик способны «осознавать себя» (то есть представлять себя так же, как они представляют все остальное), но это не то, что люди обычно имеют в виду, когда используют термин «самосознание». [г]
- Чувствительность : способность субъективно «чувствовать» восприятия или эмоции, в отличие от способности рассуждать о восприятиях или, что касается эмоций, осознавать, что ситуация требует срочности, доброты или агрессии. Например, мы можем построить машину, которая будет знать, какие объекты в ее поле зрения красные, но эта машина не обязательно будет знать, как выглядит красный цвет .
Эти черты имеют моральное измерение, поскольку машина с такой формой «сильного ИИ» может иметь права, аналогичные правам животных, не являющихся людьми . Была проведена предварительная работа по интеграции сильного ИИ в существующие правовые и социальные рамки с упором на правовое положение и права «сильного» ИИ. [116]
Еще предстоит показать, ли « искусственное сознание » необходимо для ОИИ. Однако многие исследователи AGI считают исследования, изучающие возможности реализации сознания, жизненно важными. [117]
Билл Джой , среди прочих, утверждает, что машина с такими характеристиками может представлять угрозу человеческой жизни или достоинству. [118]
Преимущества
AGI может иметь множество применений. Если AGI ориентирован на такие цели, он может помочь смягчить различные проблемы в мире, такие как голод, бедность и проблемы со здоровьем. [119]
AGI может повысить производительность и эффективность большинства рабочих мест. Например, в сфере общественного здравоохранения ОИИ может ускорить медицинские исследования, особенно в области борьбы с раком. [120] Он мог бы позаботиться о пожилых людях, [121] и демократизировать доступ к быстрой и высококачественной медицинской диагностике. Оно могло бы предложить веселое, дешевое и персонализированное образование. [121] Практически любую работу, приносящую пользу обществу, если она выполняется хорошо, вероятно, рано или поздно будет предпочтительнее оставить ее ОИИ. Необходимость работать, чтобы выжить, может устареть, если произведенное богатство будет правильно перераспределено . [121] [122] Это также поднимает вопрос о месте человека в радикально автоматизированном обществе.
ОИИ также может помочь принимать рациональные решения, а также предвидеть и предотвращать катастрофы. Это также могло бы помочь воспользоваться преимуществами потенциально катастрофических технологий, таких как нанотехнологии или климатическая инженерия , избегая при этом связанных с ними рисков. [123] Если основной целью ОИИ является предотвращение экзистенциальных катастроф, таких как вымирание человечества (что может оказаться трудным, если гипотеза уязвимого мира окажется верной), [124] оно могло бы принять меры для радикального снижения рисков [123] при этом сводя к минимуму влияние этих мер на качество нашей жизни.
Риски
Экзистенциальные риски
ОИИ может представлять собой несколько типов экзистенциального риска , которые представляют собой риски, которые угрожают «преждевременному исчезновению разумной жизни, зародившейся на Земле, или постоянным и радикальным разрушением ее потенциала для желаемого будущего развития». [125] Риск вымирания человечества из-за ОИИ был темой многих дебатов, но существует также вероятность того, что развитие ОИИ приведет к постоянно испорченному будущему. Примечательно, что его можно использовать для распространения и сохранения набора ценностей того, кто его разрабатывает. Если у человечества все еще есть моральные слепые пятна, подобные рабству в прошлом, ОИИ может необратимо укрепить его, препятствуя моральному прогрессу . [126] Кроме того, AGI может способствовать массовой слежке и идеологической обработке, которые могут быть использованы для создания стабильного репрессивного мирового тоталитарного режима. [127] [128] Существует также риск для самих машин. Если в будущем будут массово созданы машины, которые разумны или иным образом достойны морального внимания, вступление на цивилизационный путь, который на неопределенный срок игнорирует их благополучие и интересы, может стать экзистенциальной катастрофой. [129] [130] Учитывая, насколько ОИИ может улучшить будущее человечества и помочь снизить другие экзистенциальные риски, Тоби Орд называет эти экзистенциальные риски «аргументом в пользу того, чтобы действовать с должной осторожностью», а не в пользу «отказа от ИИ». [127]
Риск потери контроля и исчезновения человечества
Тезис о том, что ИИ представляет экзистенциальный риск для людей и что этот риск требует большего внимания, является спорным, но был поддержан в 2023 году многими общественными деятелями, исследователями ИИ и руководителями компаний, занимающихся ИИ, такими как Илон Маск , Билл Гейтс , Джеффри Хинтон , Йошуа Бенджио , Демис Хассабис и Сэм Альтман . [131] [132]
В 2014 году Стивен Хокинг раскритиковал повсеместное безразличие:
Итак, сталкиваясь с возможным будущим, полным неисчислимых выгод и рисков, эксперты наверняка делают все возможное, чтобы обеспечить наилучший результат, не так ли? Неправильный. Если бы высшая инопланетная цивилизация отправила нам сообщение: «Мы прибудем через несколько десятилетий», ответили бы мы просто: «Хорошо, позвоните нам, когда доберетесь сюда, мы оставим свет включенным?» Вероятно, нет, но именно это более или менее происходит с ИИ. [133]
Потенциальную судьбу человечества иногда сравнивают с судьбой горилл, которой угрожает деятельность человека. В сравнении говорится, что более высокий интеллект позволил человечеству доминировать над гориллами, которые теперь уязвимы так, как они не могли ожидать. В результате горилла стала вымирающим видом не по злому умыслу, а просто в результате побочного ущерба от деятельности человека. [134]
Скептик Ян ЛеКун считает, что у ИИИ не будет желания доминировать над человечеством, и что мы должны быть осторожны, чтобы не антропоморфизировать их и не интерпретировать их намерения так, как мы это сделали бы в отношении людей. Он сказал, что люди не будут «достаточно умны, чтобы создавать сверхразумные машины, но при этом будут настолько глупы, что будут ставить перед ними идиотские цели без каких-либо гарантий». [135] С другой стороны, концепция инструментальной конвергенции предполагает, что почти каковы бы ни были цели, у интеллектуальных агентов будут причины попытаться выжить и приобрести больше власти в качестве промежуточных шагов к достижению этих целей. И что для этого не нужно иметь эмоции. [136]
Многие учёные, обеспокоенные экзистенциальным риском, выступают за проведение дополнительных исследований по решению « проблемы контроля », чтобы ответить на вопрос: какие типы защитных мер, алгоритмов или архитектур могут реализовать программисты, чтобы максимизировать вероятность того, что их рекурсивно улучшающийся ИИ продолжит вести себя хорошо? дружественным ? , а не разрушительным образом после того, как он достигнет сверхразума [137] [138] Решение проблемы контроля осложняется гонкой вооружений ИИ (которая может привести к гонке за соблюдением техники безопасности с целью выпуска продукции раньше конкурентов), [139] и использование ИИ в системах вооружения. [140]
У тезиса о том, что ИИ может представлять экзистенциальный риск, есть и противники. Скептики обычно говорят, что создание искусственного интеллекта маловероятно в краткосрочной перспективе или что опасения по поводу искусственного интеллекта отвлекают от других проблем, связанных с текущим искусственным интеллектом. [141] Бывший Google глава по борьбе с мошенничеством Шуман Госемаджумдер считает, что для многих людей за пределами технологической индустрии существующие чат-боты и LLM уже воспринимаются как AGI, что приводит к дальнейшему непониманию и страху. [142]
Скептики иногда обвиняют этот тезис в крипторелигиозности, поскольку иррациональная вера в возможность сверхразума заменяет иррациональную веру во всемогущего Бога. [143] Некоторые исследователи полагают, что коммуникационные кампании по экзистенциальному риску ИИ, проводимые некоторыми группами ИИ (такими как OpenAI, Anthropic, DeepMind и Conjecture), могут быть попыткой захвата регулирующих органов и повышения интереса к их продуктам. [144] [145]
В 2023 году генеральные директора Google DeepMind, OpenAI и Anthropic, а также другие лидеры отрасли и исследователи опубликовали совместное заявление, в котором утверждалось, что «снижение риска исчезновения ИИ должно быть глобальным приоритетом наряду с другими рисками социального масштаба, такими как пандемии и ядерная война». [132]
Массовая безработица
Исследователи из OpenAI подсчитали, что «введение LLM может повлиять на 80% рабочей силы США, по крайней мере, на 10% их рабочих задач, в то время как около 19% работников могут увидеть, что это повлияет как минимум на 50% их задач». [146] [147] Они считают, что наиболее уязвимыми являются офисные работники, например, математики, бухгалтеры или веб-дизайнеры. [147] У AGI могла бы быть лучшая автономность, способность принимать решения, взаимодействовать с другими компьютерными инструментами, а также управлять роботизированными телами.
По мнению Стивена Хокинга, влияние автоматизации на качество жизни будет зависеть от того, как будет перераспределяться богатство: [122]
Каждый может наслаждаться жизнью, наполненной роскошным досугом, если богатство, созданное машинами, будет разделено, или большинство людей могут оказаться в ужасной бедности, если владельцы машин успешно лоббируют перераспределение богатства. Пока что наблюдается тенденция ко второму варианту, поскольку технологии ведут к постоянно растущему неравенству.
Илон Маск считает, что автоматизация общества потребует от правительств принятия универсального базового дохода . [148]
См. также
- Искусственный мозг - программное и аппаратное обеспечение с когнитивными способностями, аналогичными мозгу животного или человека.
- AI-эффект
- Безопасность ИИ . Область исследований, посвященная обеспечению безопасности и пользы ИИ.
- Согласование ИИ – соответствие ИИ поставленной цели
- AI Rising - фильм 2018 года, режиссер Лазарь Бодрожа
- Автоматизированное машинное обучение - процесс автоматизации применения машинного обучения.
- BRAIN Initiative – совместная государственно-частная исследовательская инициатива, объявленная администрацией Обамы.
- Китайский мозговой проект
- Институт будущего человечества - несуществующий Оксфордский междисциплинарный исследовательский центр.
- Общая игра – научиться успешно играть в несколько игр.
- Генеративный искусственный интеллект - система искусственного интеллекта, способная генерировать контент в ответ на подсказки.
- Проект человеческого мозга - Научно-исследовательский проект
- Усиление разведки - использование информационных технологий для усиления человеческого интеллекта (IA).
- Машинная этика - Моральное поведение рукотворных машин.
- Многозадачное обучение – одновременное решение нескольких задач машинного обучения.
- Закон нейронного масштабирования - Закон в машинном обучении
- Краткое описание искусственного интеллекта - Обзор и актуальное руководство по искусственному интеллекту.
- Трансгуманизм - Философское движение
- Синтетический интеллект - альтернативный термин или форма искусственного интеллекта.
- Трансферное обучение – техника машинного обучения
- Премия Лебнера – Ежегодный конкурс искусственного интеллекта
- Аппаратное обеспечение для искусственного интеллекта — оборудование, специально разработанное и оптимизированное для искусственного интеллекта.
- Слабый искусственный интеллект - форма искусственного интеллекта.
Примечания
- ^ Jump up to: а б Ниже вы узнаете о происхождении термина «сильный ИИ», а академическое определение « сильного ИИ » и слабого ИИ можно найти в статье « Китайская комната» .
- ^ Основатель искусственного интеллекта Джон Маккарти пишет: «Мы пока не можем в общих чертах охарактеризовать, какие виды вычислительных процедур мы хотим назвать интеллектуальными». [19] (Обсуждение некоторых определений интеллекта, используемых исследователями искусственного интеллекта , см. в разделе «Философия искусственного интеллекта ».)
- ↑ В отчете Лайтхилла особо критиковались «грандиозные цели» ИИ и возглавлялся свертывание исследований ИИ в Англии. [42] В США DARPA решило финансировать только «целевые прямые исследования, а не фундаментальные ненаправленные исследования». [43] [44]
- ↑ Как пишет основатель ИИ Джон Маккарти , «для остальных работников ИИ было бы большим облегчением, если бы изобретатели новых общих формализмов выразили свои надежды в более осторожной форме, чем это иногда имело место». [48]
- ^ В «Детях разума» [103] 10 15 используется cps. Совсем недавно, в 1997 г. [104] Моравец настаивал на 10 8 MIPS, что примерно соответствует 10 14 спс. Моравец говорит с точки зрения MIPS, а не «cps», который является нестандартным термином, введенным Курцвейлом.
- ^ Как определено в стандартном учебнике по искусственному интеллекту: «Утверждение о том, что машины могут действовать разумно (или, возможно, лучше, действовать так, как если бы они были разумными), философы называют гипотезой «слабого искусственного интеллекта», а утверждение, что машины, которые делают это, на самом деле думают (в отличие от симуляции мышления), называется гипотезой «сильного ИИ». [102]
- ↑ Алан Тьюринг высказал это мнение в 1950 году. [115]
Ссылки
- ^ Небеса, Уилл Дуглас (16 ноября 2023 г.). «Google DeepMind хочет определить, что считать общим искусственным интеллектом» . Обзор технологий Массачусетского технологического института . Проверено 1 марта 2024 г.
- ^ Кришна, Шри (9 февраля 2023 г.). «Что такое искусственный узкий интеллект (ANI)?» . ВенчурБит . Проверено 1 марта 2024 г.
- ^ «Устав OpenAI» . openai.com . Проверено 6 апреля 2023 г.
- ^ Хит, Алекс (18 января 2024 г.). «Новая цель Марка Цукерберга — создание общего искусственного интеллекта» . Грань . Проверено 13 июня 2024 г.
- ^ Баум, Сет, Обзор проектов общего искусственного интеллекта для этики, рисков и политики (PDF) , Рабочий документ 20 Глобального института катастрофических рисков, заархивировано (PDF) из оригинала 14 ноября 2021 г. , получено 13 января 2022 г.
- ^ Jump up to: а б с «Сроки развития искусственного интеллекта: чего эксперты в области искусственного интеллекта ожидают в будущем?» . Наш мир в данных . Проверено 6 апреля 2023 г.
- ^ «Исследователи Microsoft утверждают, что GPT-4 демонстрирует «искры» AGI» . Футуризм . Проверено 13 декабря 2023 г.
- ^ Морозов, Евгений (30 июня 2023 г.). «Истинная угроза искусственного интеллекта» . Нью-Йорк Таймс . Архивировано из оригинала 30 июня 2023 года . Проверено 30 июня 2023 г.
- ^ «Впечатлен искусственным интеллектом? Эксперты говорят, что следующим будет AGI, и он несет в себе «экзистенциальные» риски» . Новости АВС . 23 марта 2023 г. Проверено 6 апреля 2023 г.
- ^ «Общий искусственный интеллект: мы близки и есть ли смысл вообще пытаться?» . Обзор технологий Массачусетского технологического института . Проверено 6 апреля 2023 г.
- ^ Курцвейл 2005 , с. 260.
- ^ Jump up to: а б Курцвейл, Рэй (5 августа 2005 г.), «Да здравствует искусственный интеллект» , Forbes , архивировано из оригинала 14 августа 2005 г .: Курцвейл описывает сильный ИИ как «машинный интеллект с полным спектром человеческого интеллекта».
- ^ «Эпоха искусственного интеллекта: Джордж Джон на TEDxLondonBusinessSchool 2013» . Архивировано из оригинала 26 февраля 2014 года . Проверено 22 февраля 2014 г.
- ^ Ньюэлл и Саймон 1976. Это термин, который они используют для обозначения интеллекта «человеческого уровня» в гипотезе системы физических символов .
- ^ «Открытый университет сильного и слабого искусственного интеллекта» . Архивировано из оригинала 25 сентября 2009 года . Проверено 8 октября 2007 г.
- ^ «Что такое искусственный сверхинтеллект (ИСИ)? | Определение от TechTarget» . Корпоративный ИИ . Проверено 8 октября 2023 г.
- ^ «Искусственный интеллект меняет наш мир – мы все должны сделать так, чтобы все прошло хорошо» . Наш мир в данных . Проверено 8 октября 2023 г.
- ^ Диксон, Бен (16 ноября 2023 г.). «Вот как далеко мы находимся от достижения AGI, по мнению DeepMind» . ВенчурБит .
- ^ Маккарти, Джон (2007a). «Основные вопросы» . Стэнфордский университет . Архивировано из оригинала 26 октября 2007 года . Проверено 6 декабря 2007 г.
- ^ Jump up to: а б Этот список интеллектуальных качеств основан на темах, охватываемых основными учебниками по искусственному интеллекту, в том числе: Russell & Norvig 2003 , Luger & Stubblefield 2004 , Poole, Mackworth & Goebel 1998 и Nilsson 1998 .
- ^ Джонсон 1987
- ^ де Чармс, Р. (1968). Личная причинно-следственная связь. Нью-Йорк: Академическая пресса.
- ^ Jump up to: а б Пфайфер Р. и Бонгард Дж. К. «Как тело формирует наше мышление: новый взгляд на интеллект» (MIT Press, 2007). ISBN 0-262-16239-3
- ^ Уайт, RW (1959). «Переосмысленная мотивация: концепция компетентности». Психологический обзор . 66 (5): 297–333. дои : 10.1037/h0040934 . ПМИД 13844397 . S2CID 37385966 .
- ^ Мюльхаузер, Люк (11 августа 2013 г.). «Что такое АГИ?» . Научно-исследовательский институт машинного интеллекта. Архивировано из оригинала 25 апреля 2014 года . Проверено 1 мая 2014 г.
- ^ «Что такое общий искусственный интеллект (AGI)? | 4 теста для подтверждения общего искусственного интеллекта» . Разговорный блог . 13 июля 2019 года. Архивировано из оригинала 17 июля 2019 года . Проверено 17 июля 2019 г.
- ^ «Юджин Густман настоящий мальчик – так говорит тест Тьюринга» . Хранитель . 9 июня 2014 г. ISSN 0261-3077 . Проверено 3 марта 2024 г.
- ^ Варанаси, Лакшми (21 марта 2023 г.). «Модели ИИ, такие как ChatGPT и GPT-4, сдают все, от экзамена на адвоката до биологии AP. Вот список сложных экзаменов, которые сдали обе версии ИИ» . Бизнес-инсайдер . Проверено 30 мая 2023 г.
- ^ Нейсмит, Калеб (7 февраля 2023 г.). «6 рабочих мест, которые искусственный интеллект уже заменяет, и как инвесторы могут на этом заработать» . Проверено 30 мая 2023 г.
- ^ Терк, Виктория (28 января 2015 г.). «План замены теста Тьюринга на «Олимпиаду Тьюринга» » . Порок . Проверено 3 марта 2024 г.
- ^ Гопани, Ави (25 мая 2022 г.). «Тест Тьюринга ненадежен. Схема Винограда устарела. Ответ — кофе» . Журнал Analytics India . Проверено 3 марта 2024 г.
- ^ Бхаймия, Сауда (20 июня 2023 г.). «Соучредитель DeepMind предложил протестировать способность чат-бота с искусственным интеллектом превращать 100 000 долларов в 1 миллион долларов для измерения интеллекта, подобного человеческому» . Бизнес-инсайдер . Проверено 3 марта 2024 г.
- ^ Сулейман, Мустафа (14 июля 2023 г.). «Мустафа Сулейман: Мой новый тест Тьюринга покажет, сможет ли ИИ заработать 1 миллион долларов» . Обзор технологий Массачусетского технологического института . Проверено 3 марта 2024 г.
- ^ Шапиро, Стюарт К. (1992). «Искусственный интеллект» (PDF) . В Стюарте К. Шапиро (ред.). Энциклопедия искусственного интеллекта (второе изд.). Нью-Йорк: Джон Уайли. стр. 54–57. Архивировано (PDF) из оригинала 1 февраля 2016 г. (Раздел 4 посвящен «Выполненным AI задачам»).
- ^ Ямпольский, Роман В. (2012). Синь-Ше Ян (ред.). «Тест Тьюринга как определяющая черта полноты ИИ» (PDF) . Искусственный интеллект, эволюционные вычисления и метаэвристика (AIECM) : 3–17. Архивировано (PDF) из оригинала 22 мая 2013 г.
- ^ «Индекс ИИ: состояние ИИ в 13 диаграммах» . Человеко-ориентированный искусственный интеллект Стэнфордского университета . 15 апреля 2024 г. Проверено 27 мая 2024 г.
- ^ Кревье 1993 , стр. 48–50.
- ^ Каплан, Андреас (2022). «Искусственный интеллект, бизнес и цивилизация – наша судьба, созданная машинами» . Архивировано из оригинала 6 мая 2022 года . Проверено 12 марта 2022 г.
- ^ Саймон 1965 , с. 96, цитируется по Crevier 1993 , с. 109
- ^ «Ученый на съемочной площадке: Интервью с Марвином Мински» . Архивировано из оригинала 16 июля 2012 года . Проверено 5 апреля 2008 г.
- ^ Марвин Мински — Дарраху (1970) , цитируется по Crevier (1993 , стр. 109).
- ^ Лайтхилл 1973 ; Хау, 1994 г.
- ^ Jump up to: а б NRC 1999 , «Переход к прикладным исследованиям увеличивает инвестиции».
- ^ Кревье 1993 , стр. 115–117; Рассел и Норвиг 2003 , стр. 21–22.
- ^ Кревье 1993 , с. 211, Рассел и Норвиг 2003 , с. 24, а также см. Feigenbaum & McCorduck 1983.
- ^ Crevier 1993 , стр. 161–162, 197–203, 240; Рассел и Норвиг 2003 , с. 25.
- ^ Кревье 1993 , стр. 209–212.
- ^ Маккарти, Джон (2000). «Ответ Лайтхиллу» . Стэнфордский университет. Архивировано из оригинала 30 сентября 2008 года . Проверено 29 сентября 2007 г.
- ^ Маркофф, Джон (14 октября 2005 г.). «За искусственным интеллектом стоит отряд ярких реальных людей» . Нью-Йорк Таймс . Архивировано из оригинала 2 февраля 2023 года . Проверено 18 февраля 2017 г.
В период его низкого развития некоторые ученые-компьютерщики и инженеры-программисты избегали термина «искусственный интеллект», опасаясь, что их сочтут мечтателями с безумными глазами.
- ^ Рассел и Норвиг 2003 , стр. 25–26.
- ^ «Тенденции в цикле хайпа новых технологий» . Отчеты Гартнер. Архивировано из оригинала 22 мая 2019 года . Проверено 7 мая 2019 г.
- ^ Jump up to: а б Моравец 1988 , с. 20
- ^ Харнад, С. (1990). «Проблема заземления символов». Физика Д. 42 (1–3): 335–346. arXiv : cs/9906002 . Бибкод : 1990PhyD...42..335H . дои : 10.1016/0167-2789(90)90087-6 . S2CID 3204300 .
- ^ Губруд 1997 г.
- ^ Jump up to: а б Хаттер, Маркус (2005). Универсальный искусственный интеллект: последовательные решения на основе алгоритмической вероятности . Тексты по теоретической информатике, серия EATCS. Спрингер. дои : 10.1007/b138233 . ISBN 978-3-540-26877-2 . S2CID 33352850 . Архивировано из оригинала 19 июля 2022 года . Проверено 19 июля 2022 г.
- ^ Легг, Шейн (2008). Машинный сверхразум (PDF) (Диссертация). Университет Лугано. Архивировано (PDF) из оригинала 15 июня 2022 года . Проверено 19 июля 2022 г.
- ^ Герцель, Бен (2014). Общий искусственный интеллект . Конспекты лекций по информатике. Том 8598. Журнал общего искусственного интеллекта. дои : 10.1007/978-3-319-09274-4 . ISBN 978-3-319-09273-7 . S2CID 8387410 .
- ^ «Кто придумал термин «AGI»?» . goertzel.org . Архивировано из оригинала 28 декабря 2018 года . Проверено 28 декабря 2018 г. , через Life 3.0 : «Термин «AGI» популяризировали… Шейн Легг, Марк Губруд и Бен Герцель»
- ^ Ван и Герцель, 2007 г.
- ^ «Первая международная летняя школа по искусственному общему интеллекту, Основная летняя школа: 22 июня – 3 июля 2009 г., OpenCog Lab: 6-9 июля 2009 г.» . Архивировано из оригинала 28 сентября 2020 года . Проверено 11 мая 2020 г.
- ^ «Курсы по выбору 2009/2010 – весенний триместр» [Курсы по выбору 2009/2010 – весенний триместр]. Факультет математики и информатики [Факультет математики и информатики] (на болгарском языке). Архивировано из оригинала 26 июля 2020 года . Проверено 11 мая 2020 г.
- ^ «Курсы по выбору 2010/2011 – зимний триместр» [Курсы по выбору 2010/2011 – зимний триместр]. Факультет математики и информатики [Факультет математики и информатики] (на болгарском языке). Архивировано из оригинала 26 июля 2020 года . Проверено 11 мая 2020 г.
- ^ Шевлин, Генри; Вольд, Карина; Кросби, Мэтью; Галина, Марта (4 октября 2019 г.). «Ограничения машинного интеллекта: несмотря на прогресс в области машинного интеллекта, общий искусственный интеллект по-прежнему остается серьезной проблемой» . Отчеты ЭМБО . 20 (10): e49177. дои : 10.15252/эмбр.201949177 . ISSN 1469-221X . ПМК 6776890 . ПМИД 31531926 .
- ^ Бубек, Себастьян; Чандрасекаран, Варун; Эльдан, Ронен; Герке, Джон; Хорвиц, Эрик; Камар, Эдже; Ли, Питер; Ли, Инь Тат; Ли, Юаньчжи; Лундберг, Скотт; Нори, Харша; Плита, Хамид; Рибейро, Марк Туллий; Чжан, И (27 марта 2023 г.). «Искры общего искусственного интеллекта: ранние эксперименты с GPT-4» arXiv : 2303.12712 [ cs.CL ].
- ^ Буше, Филип (март 2019 г.). «Заключительные замечания». Как работает искусственный интеллект (PDF) (Отчет). Европейская парламентская исследовательская служба. Архивировано (PDF) из оригинала 3 марта 2020 года . Проверено 3 марта 2020 г.
Сегодняшний ИИ мощный и полезный, но он далек от предполагаемых AGI или ASI.
- ^ itu.int: За гранью безумия?: Гонка за общим искусственным интеллектом. Архивировано 9 ноября 2020 года в Wayback Machine : «AGI представляет собой уровень силы, который на сегодняшний день прочно остается в сфере спекулятивной фантастики». 2 февраля 2018 г., получено 3 марта 2020 г.
- ^ Аллен, Пол; Гривз, Марк (12 октября 2011 г.). «Сингулярность не рядом» . Обзор технологий Массачусетского технологического института . Проверено 17 сентября 2014 г.
- ^ Уинфилд, Алан. «Искусственный интеллект не превратится в монстра Франкенштейна» . Хранитель . Архивировано из оригинала 17 сентября 2014 года . Проверено 17 сентября 2014 г.
- ^ Дин, Джордж (2022). «Машины, которые чувствуют и думают: роль аффективных чувств и умственных действий в (искусственном) общем интеллекте» . Искусственная жизнь . 28 (3): 289–309. дои : 10.1162/artl_a_00368 . ISSN 1064-5462 . ПМИД 35881678 . S2CID 251069071 .
- ^ Jump up to: а б с Часы в 2003 году .
- ^ Фьелланд, Рагнар (17 июня 2020 г.). «Почему не будет реализован общий искусственный интеллект» . Гуманитарные и социальные науки. Коммуникации . 7 (1): 1–9. дои : 10.1057/s41599-020-0494-4 . hdl : 11250/2726984 . ISSN 2662-9992 . S2CID 219710554 .
- ^ Маккарти 2007 .
- ^ Хачадурян, Раффи (23 ноября 2015 г.). «Изобретение Судного дня: принесет ли искусственный интеллект нам утопию или разрушение?» . Житель Нью-Йорка . Архивировано из оригинала 28 января 2016 года . Проверено 7 февраля 2016 г.
- ^ Мюллер, В.К., и Бостром, Н. (2016). Будущий прогресс в области искусственного интеллекта: обзор мнений экспертов. В книге «Фундаментальные вопросы искусственного интеллекта» (с. 555–572). Спрингер, Чам.
- ^ Армстронг, Стюарт и Кай Сотала. 2012. «Как мы предсказываем появление ИИ — или не можем». В книге Beyond AI: Artificial Dreams под редакцией Яна Ромпортла, Павла Ирсинга, Евы Зачковой, Михала Полака и Радека Шустера, 52–75. Пльзень: Западночешский университет
- ^ «Microsoft теперь утверждает, что GPT-4 демонстрирует «искры» общего интеллекта» . 24 марта 2023 г.
- ^ Шимек, Кэри (6 июля 2023 г.). «ИИ превосходит людей в тесте на креативность» . Новости неврологии . Проверено 20 октября 2023 г.
- ^ Гузик, Эрик Э.; Бирдж, Кристиан; Гильде, Кристиан (1 декабря 2023 г.). «Оригинальность машин: ИИ проходит тест Торранса» . Журнал творчества . 33 (3): 100065. doi : 10.1016/j.yjoc.2023.100065 . ISSN 2713-3745 . S2CID 261087185 .
- ^ Зия, Техсин (8 января 2024 г.). «Представление крупных мультимодальных моделей: формирование ландшафта языковых моделей в 2024 году» . Unite.ai . Проверено 26 мая 2024 г.
- ^ «Индекс ИИ: состояние ИИ в 13 диаграммах» . hai.stanford.edu . 15 апреля 2024 г. Проверено 7 июня 2024 г.
- ^ «ИИ следующего поколения: скачок OpenAI и Meta к логическим машинам» . Unite.ai . 19 апреля 2024 г. Проверено 7 июня 2024 г.
- ^ Джеймс, Алекс П. (2022). «Почему, что и как разрабатывается чип общего искусственного интеллекта» . Транзакции IEEE в когнитивных системах и системах развития . 14 (2): 333–347. arXiv : 2012.06338 . дои : 10.1109/TCDS.2021.3069871 . ISSN 2379-8920 . S2CID 228376556 . Архивировано из оригинала 28 августа 2022 года . Проверено 28 августа 2022 г.
- ^ Пэй, Цзин, Лэй; Сун, Чжан, Юхуэй; Ван, Чжэ; Чжэньчжи; Чэнь, Фэн, Нин; Ву, Юцзе (2019). искусственному интеллекту с гибридной . На » Си архитектурой Tianjic « чипа общему ; пути к -019-1424-8 . ISSN 1476-4687 . PMID 31367028 . S2CID 199056116. . Архивировано оригинала 29 августа 2022 г. из
- ^ Панди, Мохит; Фернандес, Майкл; Джентиле, Франческо; Исаев Александр; Тропша, Александр; Стерн, Авраам К.; Черкасов, Артем (март 2022 г.). «Преобразующая роль вычислений на графических процессорах и глубокого обучения в открытии лекарств» . Природный машинный интеллект . 4 (3): 211–221. дои : 10.1038/s42256-022-00463-x . ISSN 2522-5839 . S2CID 252081559 .
- ^ Герцель и Пенначин 2006 .
- ^ Jump up to: а б с ( Курсвейл 2005 , стр. 260)
- ^ Jump up to: а б с Герцель 2007 .
- ^ Грейс, Катя (2016). «Ошибка Армстронга и Соталы 2012» . Влияние ИИ (блог). Архивировано из оригинала 4 декабря 2020 года . Проверено 24 августа 2020 г.
- ^ Jump up to: а б Бутц, Мартин В. (1 марта 2021 г.). «На пути к сильному ИИ» . ИИ – Искусственный интеллект . 35 (1): 91–101. дои : 10.1007/s13218-021-00705-x . ISSN 1610-1987 . S2CID 256065190 .
- ^ Лю, Фэн; Ши, Юн; Лю, Ин (2017). «Коэффициент интеллекта и уровень интеллекта искусственного интеллекта». Анналы науки о данных . 4 (2): 179–191. arXiv : 1709.10242 . дои : 10.1007/s40745-017-0109-0 . S2CID 37900130 .
- ^ Бриен, Йорн (5 октября 2017 г.). «Google-KI doppelt so schlau wie Siri» [ИИ Google в два раза умнее Siri, но шестилетний ребенок превосходит обоих] (на немецком языке). Архивировано из оригинала 3 января 2019 года . Проверено 2 января 2019 г.
- ^ Гроссман, Гэри (3 сентября 2020 г.). «Мы вступаем в сумеречную зону ИИ между узким и общим ИИ» . ВенчурБит . Архивировано из оригинала 4 сентября 2020 года . Проверено 5 сентября 2020 г.
Конечно, есть и те, кто утверждает, что мы уже видим ранний пример системы AGI в недавно анонсированной нейронной сети обработки естественного языка (NLP) GPT-3. ... Так является ли GPT-3 первым примером системы AGI? Это спорный вопрос, но все сходятся во мнении, что это не ОИИ. ... По крайней мере, GPT-3 говорит нам, что существует золотая середина между узким и общим ИИ.
- ^ Квач, Катянна. «Разработчик создал чат-бота с искусственным интеллектом, используя GPT-3, который помог мужчине снова поговорить со своей покойной невестой. OpenAI закрыл его» . Регистр. Архивировано из оригинала 16 октября 2021 года . Проверено 16 октября 2021 г.
- ^ Виггерс, Кайл (13 мая 2022 г.), «Новый ИИ DeepMind может выполнять более 600 задач, от игр до управления роботами» , TechCrunch , заархивировано из оригинала 16 июня 2022 г. , получено 12 июня 2022 г.
- ^ Бубек, Себастьян; Чандрасекаран, Варун; Эльдан, Ронен; Герке, Джон; Хорвиц, Эрик; Камар, Эдже; Ли, Питер; Ли, Инь Тат; Ли, Юаньчжи; Лундберг, Скотт; Нори, Харша; Плита, Хамид; Рибейро, Марк Туллий; Чжан, И (22 марта 2023 г.). «Искры общего искусственного интеллекта: ранние эксперименты с GPT-4» arXiv : 2303.12712 [ cs.CL ].
- ^ Мец, Кейд (1 мая 2023 г.). « Крестный отец искусственного интеллекта покидает Google и предупреждает о грядущей опасности» . Нью-Йорк Таймс . ISSN 0362-4331 . Проверено 7 июня 2023 г.
- ^ Неллис, Стивен (2 марта 2024 г.). «Генеральный директор NVIDIA говорит, что искусственный интеллект сможет пройти испытания на людях через пять лет» . Рейтер .
- ^ Носта, Джон (5 января 2024 г.). «Ускоряющийся путь к общему искусственному интеллекту» . Психология сегодня . Проверено 30 марта 2024 г.
- ^ Хикки, Алекс. «Эмуляция всего мозга: гигантский шаг для нейронауки» . Техническое пиво . Проверено 8 ноября 2023 г.
- ^ Сандберг и Бострем 2008 .
- ^ Драхман 2005 .
- ^ Jump up to: а б Рассел и Норвиг 2003 .
- ^ Моравец 1988 , с. 61.
- ^ Моравец 1998 .
- ^ Холмгаард Мерш, Амалия (15 сентября 2023 г.). «Европейский исследовательский проект, длившийся десять лет, составил карту человеческого мозга» . евроактив .
- ^ Jump up to: а б Торнтон, Анджела (26 июня 2023 г.). «Как может стать возможной загрузка нашего разума в компьютер» . Разговор . Проверено 8 ноября 2023 г.
- ^ Вичинанца, Доменико (18 декабря 2023 г.). «Новый суперкомпьютер призван точно имитировать человеческий мозг — он может помочь раскрыть секреты разума и развить искусственный интеллект» . Разговор . Проверено 29 марта 2024 г.
- ^ Сваминатан, Нихил (январь – февраль 2011 г.). «Глия — другие клетки мозга» . Обнаружить . Архивировано из оригинала 8 февраля 2014 года . Проверено 24 января 2014 г.
- ^ де Вега, Гленберг и Грассер 2008 . Широкий спектр точек зрения в текущих исследованиях, каждая из которых требует определенного обоснования.
- ^ Сирл 1980
- ^ Например:
- Рассел и Норвиг 2003 ,
- Психологический словарь издательства Оксфордского университета. Архивировано 3 декабря 2007 г. в Wayback Machine (цитируется по «Encyclepedia.com»),
- Энциклопедия когнитивных наук Массачусетского технологического института. Архивировано 19 июля 2008 г. в Wayback Machine (цитата по "AITopics").
- Помогут ли биологические компьютеры машинам с искусственным интеллектом стать людьми? Архивировано 13 мая 2008 года в Wayback Machine Энтони Тонгена.
- ^ Jump up to: а б с Рассел и Норвиг 2003 , с. 947.
- ^ хотя см. «Объяснимый искусственный интеллект» для любопытства в этой области, почему программа ведет себя именно так.
- ^ Нагель 1974 .
- ^ Тьюринг 1950 .
- ^ Сотала, Кай; Ямпольский, Роман В. (19 декабря 2014 г.). «Реакция на катастрофический риск ОГИ: опрос» . Физика Скрипта . 90 (1): 018001. doi : 10.1088/0031-8949/90/1/018001 . ISSN 0031-8949 .
- ^ Юдковский 2006 .
- ^ Джой, Билл (апрель 2000 г.). «Почему будущее не нуждается в нас». Проводной .
- ^ «Общий искусственный интеллект – перевешивают ли затраты выгоды?» . 23 августа 2021 г. Проверено 7 июня 2023 г.
- ^ «Как мы можем извлечь выгоду из развития общего искусственного интеллекта (AGI) – Unite.AI» . www.unite.ai . Проверено 7 июня 2023 г.
- ^ Jump up to: а б с Талти, Жюль; Жюльен, Стефан. «Как будет выглядеть наше общество, когда искусственный интеллект будет повсюду?» . Смитсоновский журнал . Проверено 7 июня 2023 г.
- ^ Jump up to: а б Стивенсон, Мэтт (8 октября 2015 г.). «Ответы на АМА Стивена Хокинга здесь!» . Проводной . ISSN 1059-1028 . Проверено 8 июня 2023 г.
- ^ Jump up to: а б Бостром, Ник (2017). «§ Предпочтительный порядок прибытия». Суперинтеллект: пути, опасности, стратегии (перепечатано с исправлениями в 2017 г.). Оксфорд, Великобритания; Нью-Йорк, Нью-Йорк, США: Издательство Оксфордского университета. ISBN 978-0-19-967811-2 .
- ^ Пайпер, Келси (19 ноября 2018 г.). «Как технологический прогресс делает вероятность того, что люди уничтожат самих себя, более чем когда-либо» . Вокс . Проверено 8 июня 2023 г.
- ^ Доэрти, Бен (17 мая 2018 г.). «Изменение климата представляет собой «экзистенциальную угрозу безопасности» для Австралии, говорится в запросе Сената» . Хранитель . ISSN 0261-3077 . Проверено 16 июля 2023 г.
- ^ Макаскилл, Уильям (2022). Чему мы обязаны будущему . Нью-Йорк, штат Нью-Йорк: Основные книги. ISBN 978-1-5416-1862-6 .
- ^ Jump up to: а б Орд, Тоби (2020). «Глава 5: Будущие риски, несогласованный искусственный интеллект». Пропасть: экзистенциальный риск и будущее человечества . Издательство Блумсбери. ISBN 978-1-5266-0021-9 .
- ^ Аль-Сибай, Нур (13 февраля 2022 г.). «Главный научный сотрудник OpenAI говорит, что продвинутый ИИ, возможно, уже обладает сознанием» . Футуризм . Проверено 24 декабря 2023 г.
- ^ Самуэльссон, Пол Конрад (2019). «Искусственное сознание: наша величайшая этическая проблема» . Философия сейчас . Проверено 23 декабря 2023 г.
- ^ Кейтман, Брайан (24 июля 2023 г.). «ИИ должен бояться людей» . ВРЕМЯ . Проверено 23 декабря 2023 г.
- ^ Руз, Кевин (30 мая 2023 г.). «ИИ представляет собой «риск исчезновения», предупреждают лидеры отрасли» . Нью-Йорк Таймс . ISSN 0362-4331 . Проверено 24 декабря 2023 г.
- ^ Jump up to: а б «Заявление о риске ИИ» . Центр безопасности искусственного интеллекта . 30 мая 2023 г. Проверено 8 июня 2023 г.
- ^ «Стивен Хокинг: «Трансцендентность рассматривает последствия искусственного интеллекта – но воспринимаем ли мы ИИ достаточно серьезно?» " . «Индепендент» (Великобритания) . Архивировано из оригинала 25 сентября 2015 года . Проверено 3 декабря 2014 г.
- ^ Хергер, Марио. «Проблема горилл – гараж предприятия» . Проверено 7 июня 2023 г.
- ^ «Увлекательные дебаты в Facebook между Яном ЛеКуном, Стюартом Расселом и Йошуа Бенджио о рисках сильного ИИ» . Увлекательные дебаты в Facebook между Яном ЛеКуном, Стюартом Расселом и Йошуа Бенджио о рисках, связанных с сильным ИИ (на французском языке) . Проверено 8 июня 2023 г.
- ^ «Обречет ли искусственный интеллект человечество в ближайшие 100 лет?» . ХаффПост . 22 августа 2014 года . Проверено 8 июня 2023 г.
- ^ Сотала, Кай; Ямпольский, Роман В. (19 декабря 2014 г.). «Реакция на катастрофический риск ОГИ: опрос» . Физика Скрипта . 90 (1): 018001. doi : 10.1088/0031-8949/90/1/018001 . ISSN 0031-8949 .
- ^ Бостром, Ник (2014). Суперинтеллект: пути, опасности, стратегии (первое изд.). Издательство Оксфордского университета. ISBN 978-0199678112 .
- ^ Чоу, Эндрю Р.; Перриго, Билли (16 февраля 2023 г.). «Гонка вооружений в области искусственного интеллекта началась. Начинайте беспокоиться» . ВРЕМЯ . Проверено 24 декабря 2023 г.
- ^ Тетлоу, Джемма (12 января 2017 г.). «Гонка вооружений в области искусственного интеллекта рискует выйти из-под контроля, предупреждается в докладе» . www.ft.com . Проверено 24 декабря 2023 г.
- ^ Милмо, Дэн; Стейси, Киран (25 сентября 2023 г.). «Эксперты расходятся во мнениях по поводу исходящей угрозы, но искусственный интеллект нельзя игнорировать» . Хранитель . ISSN 0261-3077 . Проверено 24 декабря 2023 г.
- ^ «Человечество, безопасность и искусственный интеллект, о боже! (с Яном Бреммером и Шуманом Госемаджумдером)» . КАФЕ . 20 июля 2023 г. Проверено 15 сентября 2023 г.
- ^ Хэмблин, Джеймс (9 мая 2014 г.). «Но что будет означать для меня конец человечества?» . Атлантика . Архивировано из оригинала 4 июня 2014 года . Проверено 12 декабря 2015 г.
- ^ Титкомб, Джеймс (30 октября 2023 г.). «Большие технологии разжигают страхи по поводу ИИ, предупреждают учёные» . Телеграф . Проверено 7 декабря 2023 г.
- ^ «Основатель Google Brain говорит, что крупные технологические компании лгут об опасности исчезновения ИИ» . Австралийский финансовый обзор . 30 октября 2023 г. Проверено 7 декабря 2023 г.
- ^ «GPT — это GPT: ранний взгляд на потенциал влияния больших языковых моделей на рынок труда» . openai.com . Проверено 7 июня 2023 г.
- ^ Jump up to: а б «80% работников будут подвержены воздействию ИИ. Эти рабочие места пострадают больше всего» . Евроньюс . 23 марта 2023 г. Проверено 8 июня 2023 г.
- ^ Шеффи, Айелет. «Илон Маск говорит, что нам нужен всеобщий базовый доход, потому что «в будущем физический труд станет выбором» » . Бизнес-инсайдер . Проверено 8 июня 2023 г.
Источники
- Доклад ЮНЕСКО по науке: гонка со временем ради более разумного развития . Париж: ЮНЕСКО. 11 июня 2021 г. ISBN 978-92-3-100450-6 . Архивировано из оригинала 18 июня 2022 года . Проверено 22 сентября 2021 г.
- Александр, Игорь (1996), Impossible Minds , World Scientific Publishing Company, ISBN 978-1-86094-036-1
- Азеведо Ф.А., Карвальо Л.Р., Гринберг Л.Т., Фарфель Дж. и др. (Апрель 2009 г.), «Равное количество нейрональных и ненейрональных клеток делает человеческий мозг мозгом примата, увеличенным в изометрическом масштабе» , Журнал сравнительной неврологии , 513 (5): 532–541, doi : 10.1002/cne.21974 , PMID 19226510 , S2CID 5200449 , заархивировано из оригинала 18 февраля 2021 года , получено 4 сентября 2013 года.
- Берглас, Энтони (2008), Искусственный интеллект убьет наших внуков , заархивировано из оригинала 23 июля 2014 г. , получено 31 августа 2012 г.
- Чалмерс, Дэвид (1996), Сознательный разум , Издательство Оксфордского университета.
- Clocksin, William (август 2003 г.), «Искусственный интеллект и будущее», Философские транзакции Королевского общества A , 361 (1809): 1721–1748, Bibcode : 2003rspta.361.1721c , doi : 10.1098/rsta.2003.1232 , PMID 129522633333/rsta.2003.1232 , PMID 12952183333333333333333333333333333333333333333333333333333333333333333333333333333333333333333333333333333333333333333333333333 /rsta.2003. , S2CID 31032007 .
- Кревье, Дэниел (1993). ИИ: бурные поиски искусственного интеллекта . Нью-Йорк, штат Нью-Йорк: BasicBooks. ISBN 0-465-02997-3 .
- Даррач, Брэд (20 ноября 1970 г.), «Знакомьтесь, Шейки, первый электронный человек», журнал Life Magazine , стр. 58–68 .
- Драхман, Д. (2005), «Есть ли у нас лишний мозг?», Neurology , 64 (12): 2004–2005, doi : 10.1212/01.WNL.0000166914.38327.BB , PMID 15985565 , S2CID 38482114 .
- Фейгенбаум, Эдвард А .; МакКордак, Памела (1983), Пятое поколение: искусственный интеллект и компьютерный вызов Японии миру , Майкл Джозеф, ISBN 978-0-7181-2401-4
- Гелернтер, Дэвид (2010), Логика снов, Интернет и искусственное мышление , заархивировано из оригинала 26 июля 2010 г. , получено 25 июля 2010 г.
- Герцель, Бен; Пенначин, Кассио, ред. (2006), Общий искусственный интеллект (PDF) , Springer, ISBN 978-3-540-23733-4 , заархивировано из оригинала (PDF) 20 марта 2013 г.
- Герцель, Бен (декабрь 2007 г.), «Общий искусственный интеллект человеческого уровня и возможность технологической сингулярности: реакция на книгу Рэя Курцвейла « Сингулярность близка» и критику Курцвейла Макдермоттом» , Искусственный интеллект , 171 (18, специальный выпуск обзора) ): 1161–1173, doi : 10.1016/j.artint.2007.10.011 , заархивировано из оригинала 7 января 2016 г. , получено 1 апреля 2009 г.
- Губруд, Марк (ноябрь 1997 г.), «Нанотехнологии и международная безопасность» , Пятая Форсайт-конференция по молекулярной нанотехнологии , заархивировано из оригинала 29 мая 2011 г. , получено 7 мая 2011 г.
- Халал, Уильям Э. «Серия статей TechCast: Автоматизация мышления» (PDF) . Архивировано из оригинала (PDF) 6 июня 2013 года.
- Холте, Колорадо; Шуейри, BY (2003), «Абстракция и переформулировка в искусственном интеллекте», Philosophical Transactions of the Royal Society B , 358 (1435): 1197–1204, doi : 10.1098/rstb.2003.1317 , PMC 1693218 , PMID 12903653 .
- Хоу, Дж. (ноябрь 1994 г.), Искусственный интеллект в Эдинбургском университете: перспектива , заархивировано из оригинала 17 августа 2007 г. , получено 30 августа 2007 г.
- Джонсон, Марк (1987), Тело в уме , Чикаго, ISBN 978-0-226-40317-5
- Курцвейл, Рэй (2005), Сингулярность близка , Viking Press
- Лайтхилл, профессор сэр Джеймс (1973), «Искусственный интеллект: общий обзор», Искусственный интеллект: бумажный симпозиум , Совет научных исследований.
- Люгер, Джордж; Стаблфилд, Уильям (2004), Искусственный интеллект: структуры и стратегии решения сложных проблем (5-е изд.), The Benjamin/Cummings Publishing Company, Inc., стр. 720 , ISBN 978-0-8053-4780-7
- Маккарти, Джон (октябрь 2007 г.), «Отсюда к ИИ человеческого уровня», Искусственный интеллект , 171 (18): 1174–1182, doi : 10.1016/j.artint.2007.10.009 .
- МакКордак, Памела (2004), Машины, которые думают (2-е изд.), Натик, Массачусетс: AK Peters, Ltd., ISBN 1-56881-205-1
- Моравец, Ганс (1976), Роль грубой силы в разведке , заархивировано из оригинала 3 марта 2016 г. , получено 29 сентября 2007 г.
- Моравец, Ганс (1988), Mind Children , издательство Гарвардского университета
- Моравец, Ганс (1998), «Когда компьютерное оборудование будет соответствовать человеческому мозгу?» , Journal of Evolution and Technology , 1 , заархивировано из оригинала 15 июня 2006 г. , получено 23 июня 2006 г.
- Нагель (1974), «Каково быть летучей мышью» (PDF) , Philosophical Review , 83 (4): 435–50, doi : 10.2307/2183914 , JSTOR 2183914 , заархивировано (PDF) из оригинала 16 октября. 2011 , дата обращения 7 ноября 2009 .
- Ньюэлл, Аллен ; Саймон, Х.А. (1963), «GPS: программа, имитирующая человеческое мышление», в Фейгенбауме, Е.А.; Фельдман Дж. (ред.), Компьютеры и мысль , Нью-Йорк: McGraw-Hill.
- Ньюэлл, Аллен ; Саймон, ХА (1976). «Информатика как эмпирическое исследование: символы и поиск» . Коммуникации АКМ . 19 (3): 113–126. дои : 10.1145/360018.360022 .
- Нильссон, Нильс (1998), Искусственный интеллект: новый синтез , Morgan Kaufmann Publishers, ISBN 978-1-55860-467-4
- NRC (1999), «Развития в области искусственного интеллекта» , «Финансирование революции: государственная поддержка компьютерных исследований» , National Academy Press, заархивировано из оригинала 12 января 2008 г. , получено 29 сентября 2007 г.
- Омохундро, Стив (2008), «Природа самосовершенствования искусственного интеллекта» , представленный и распространенный на саммите Singularity Summit 2007, Сан-Франциско, Калифорния.
- Пул, Дэвид ; Макворт, Алан; Гебель, Рэнди (1998), Вычислительный интеллект: логический подход , Нью-Йорк: Oxford University Press, заархивировано из оригинала 25 июля 2009 г. , получено 6 декабря 2007 г.
- Рассел, Стюарт Дж .; Норвиг, Питер (2003), Искусственный интеллект: современный подход (2-е изд.), Аппер-Сэдл-Ривер, Нью-Джерси: Прентис-Холл, ISBN 0-13-790395-2
- Сандберг, Андерс; Бострем, Ник (2008), Эмуляция всего мозга: дорожная карта (PDF) , Технический отчет № 2008-3, Институт будущего человечества, Оксфордский университет, заархивировано (PDF) из оригинала 25 марта 2020 г. , получено 5 апреля 2009 г.
- Сирл, Джон (1980), «Разум, мозг и программы» (PDF) , Behavioral and Brain Sciences , 3 (3): 417–457, doi : 10.1017/S0140525X00005756 , S2CID 55303721 , заархивировано (PDF) из оригинала 17. Март 2019 г. , дата обращения 3 сентября 2020 г.
- Саймон, Х.А. (1965), Форма автоматизации для мужчин и менеджмента , Нью-Йорк: Harper & Row.
- Сазерленд, Дж. Г. (1990), «Голографическая модель памяти, обучения и выражения», Международный журнал нейронных систем , 1–3 : 256–267 .
- Тьюринг, Алан (октябрь 1950 г.), «Вычислительная техника и интеллект», Mind , LIX (236): 433–460, doi : 10.1093/mind/LIX.236.433 , ISSN 0026-4423
- де Вега, Мануэль; Гленберг, Артур; Грассер, Артур, ред. (2008), Символы и воплощение: дебаты о значении и познании , Oxford University Press, ISBN 978-0-19-921727-4 .
- Ван, Пей; Герцель, Бен (2007). «Введение: аспекты общего искусственного интеллекта» . Достижения в области общего искусственного интеллекта: концепции, архитектуры и алгоритмы: материалы семинара AGI, 2006 г. ИОС Пресс. стр. 1–16. ISBN 978-1-58603-758-1 . Архивировано из оригинала 18 февраля 2021 года . Проверено 13 декабря 2020 г.
- Уильямс, RW; Херруп, К. (1988), «Контроль количества нейронов», Annual Review of Neuroscience , 11 : 423–453, doi : 10.1146/annurev.ne.11.030188.002231 , PMID 3284447 .
- Юдковский, Элиезер (2006), «Общий искусственный интеллект» (PDF) , Annual Review of Psychology , 49 , Springer: 585–612, doi : 10.1146/annurev.psych.49.1.585 , ISBN 978-3-540-23733-4 , PMID 9496632 , заархивировано из оригинала (PDF) 11 апреля 2009 г.
- Юдковский, Элиезер (2008), «Искусственный интеллект как положительный и отрицательный фактор глобального риска», Глобальные катастрофические риски , Bibcode : 2008gcr..book..303Y , doi : 10.1093/oso/9780198570509.003.0021 , ISBN 9780198570509 .
- Цукер, Жан-Даниэль (июль 2003 г.), «Обоснованная теория абстракции в искусственном интеллекте», Philosophical Transactions of the Royal Society B , 358 (1435): 1293–1309, doi : 10.1098/rstb.2003.1308 , PMC 1693211 , PMID 12903672 .
Дальнейшее чтение
- Кукиер, Кеннет , «Готовы к роботам? Как думать о будущем искусственного интеллекта», Foreign Relations , vol. 98, нет. 4 (июль/август 2019 г.), стр. 192–98. Джордж Дайсон , историк вычислительной техники, пишет (в так называемом «Законе Дайсона»), что «Любая система, достаточно простая, чтобы ее можно было понять, не будет достаточно сложной, чтобы вести себя разумно, в то время как любая система, достаточно сложная, чтобы вести себя разумно, будет слишком сложной для того, чтобы ее можно было понять». понимать." (стр. 197.) Ученый-компьютерщик Алекс Пентланд пишет: «Современные машинного обучения ИИ алгоритмы по своей сути совершенно глупы. Они работают, но работают с помощью грубой силы». (стр. 198.)
- Глейк, Джеймс , «Судьба свободы воли» (обзор книги Кевина Дж. Митчелла , «Свободные агенты: как эволюция дала нам свободу воли» , Princeton University Press, 2023, 333 стр.), The New York Review of Books , vol. LXXI, нет. 1 (18 января 2024 г.), стр. 27–28, 30. « Свобода действий – это то, что отличает нас от машин. Для биологических существ разум и цель возникают в результате действий в мире и переживания последствий. Искусственный интеллект – бестелесный, чужой крови , пот и слезы – не имеют для этого повода». (стр. 30.)
- Хьюз-Каслберри, Кенна , «Загадка тайны убийства: литературная загадка « Челюсть Каина» , которая десятилетиями ставила людей в тупик, раскрывает ограничения алгоритмов обработки естественного языка», Scientific American , vol. 329, нет. 4 (ноябрь 2023 г.), стр. 81–82. «Это соревнование по расследованию убийств показало, что, хотя модели НЛП ( обработки естественного языка ) способны на невероятные подвиги, их способности очень сильно ограничены объемом контекста , который они получают. Это [...] может вызвать [трудности] для исследователей». которые надеются использовать их для таких задач, как анализ древних языков . В некоторых случаях существует мало исторических записей о давно исчезнувших цивилизациях , которые могли бы служить учебными данными для этой цели». (стр. 82.)
- Иммервар, Дэниел , «Ваши лживые глаза: люди теперь используют ИИ для создания фальшивых видеороликов, неотличимых от настоящих. Насколько это важно?», The New Yorker , 20 ноября 2023 г., стр. 54–59. «Если под « дипфейками » мы подразумеваем реалистичные видеоролики, созданные с использованием искусственного интеллекта , которые на самом деле обманывают людей, то их почти не существует. Фейки не являются глубокими, а глубины не являются фальшивыми. [...] Видео, созданные ИИ, не являются , вообще, работающие в наших СМИ как фальшивые доказательства. Их роль больше напоминает карикатуры , особенно похабные». (стр. 59.)
- Маркус, Гэри , «Искусственная уверенность: даже новейшие и самые модные системы общего искусственного интеллекта зашли в тупик из-за одних и тех же старых проблем», Scientific American , vol. 327, нет. 4 (октябрь 2022 г.), стр. 42–45.
- Пресс, Эяль , «Перед их лицами: заставляет ли технология распознавания лиц полицию игнорировать противоречивые доказательства?», The New Yorker , 20 ноября 2023 г., стр. 20–26.
- Ройвайнен, Эка , «IQ ИИ: ChatGPT успешно прошел [стандартный тест интеллекта], но показал, что интеллект нельзя измерить только с помощью IQ », Scientific American , vol. 329, нет. 1 (июль/август 2023 г.), с. 7. «Несмотря на свой высокий IQ, ChatGPT не справляется с задачами, которые требуют реального человеческого мышления или понимания физического и социального мира... ChatGPT, похоже, неспособен рассуждать логически и пытается полагаться на свою обширную базу данных... полученных фактов. из онлайн-текстов».
- Шарр, Пол, «Убийственные приложения: настоящие опасности гонки вооружений ИИ», Foreignaffs , vol. 98, нет. 3 (май/июнь 2019 г.), стр. 135–44. «Сегодняшние технологии искусственного интеллекта мощны, но ненадежны. Системы, основанные на правилах, не могут справиться с обстоятельствами, которые их программисты не предусмотрели. Системы обучения ограничены данными, на которых они обучались. Сбои искусственного интеллекта уже привели к трагедиям. хотя в некоторых обстоятельствах они работают хорошо, без предупреждения врезаются в грузовики, бетонные барьеры и припаркованные автомобили. В неправильной ситуации системы ИИ мгновенно превращаются из сверхумных в сверхтупые, когда враг пытается манипулировать ИИ и взломать его. системы, риски еще больше». (стр. 140.)