Jump to content

Искусственное сознание

Искусственное сознание [1] ( AC ), также известное как машинное сознание ( MC ), [2] [3] синтетическое сознание [4] или цифровое сознание , [5] Возможно ли сознание в искусственном интеллекте ? [6] Это также соответствующая область исследований, которая черпает идеи из философии разума , философии искусственного интеллекта , когнитивной науки и нейробиологии . Ту же самую терминологию можно использовать с термином « ощущение » вместо « сознание » при конкретном обозначении феноменального сознания (способности чувствовать квалиа ). [7]

Некоторые ученые полагают, что сознание генерируется в результате взаимодействия различных частей мозга ; эти механизмы называются нейронными коррелятами сознания или NCC. Некоторые также полагают, что построение системы (например, компьютерной системы), которая может имитировать это взаимодействие NCC, приведет к созданию сознательной системы. [8]

Философские взгляды [ править ]

Поскольку существует множество гипотетических типов сознания , существует множество потенциальных реализаций искусственного сознания. В философской литературе, пожалуй, наиболее распространенной таксономией сознания являются варианты «доступа» и «феноменального». Сознание доступа касается тех аспектов опыта , которые можно постичь, тогда как феноменальное сознание касается тех аспектов опыта, которые, по-видимому, не могут быть постигнуты, вместо этого характеризуясь качественно с точки зрения «сырых ощущений», «на что это похоже» или квалиа. [9]

Дебаты о правдоподобии

Теоретики типовой идентичности и другие скептики придерживаются мнения, что сознание может быть реализовано только в определенных физических системах, поскольку сознание обладает свойствами, которые обязательно зависят от физической конституции. [10] [11] [12] [13]

В своей статье «Искусственное сознание: утопия или реальная возможность» Джорджио Бутаццо говорит, что распространенным возражением против искусственного сознания является то, что «работая в полностью автоматизированном режиме, они [компьютеры] не могут проявлять творчество, непрограммирование (что означает, что они больше не могут быть перепрограммированный, от переосмысления), эмоции или свободная воля . Компьютер, как и стиральная машина, является рабом, которым управляют его компоненты». [14]

По мнению других теоретиков (например, функционалистов ), которые определяют психические состояния в терминах причинных ролей, любая система, которая может реализовать один и тот же образец причинных ролей, независимо от физической конституции, будет создавать экземпляры тех же психических состояний, включая сознание. [15]

основы вычислительной Аргумент

Один из наиболее явных аргументов в пользу правдоподобия искусственного разума исходит от Дэвида Чалмерса . Его предложение примерно сводится к тому, что правильных видов вычислений достаточно для обладания сознательным разумом. Чалмерс предполагает, что система реализует вычисления, если «причинная структура системы отражает формальную структуру вычислений», и что любая система, реализующая определенные вычисления, является разумной. [16]

Самая противоречивая часть предложения Чалмерса заключается в том, что ментальные свойства «организационно инвариантны». Ментальные свойства бывают двух видов: психологические и феноменологические. Психологические свойства, такие как убеждения и восприятие, - это те, которые «характеризуются своей причинной ролью». Благодаря предыдущей работе, [17] [18] он говорит, что «системы с одинаковой причинной топологией … будут иметь общие психологические свойства».

Феноменологические свойства, в отличие от психологических свойств, не поддаются определению с точки зрения их причинной роли. Поэтому установление того, что феноменологические свойства являются следствием причинной топологии, требует аргументации. Для этой цели Чалмерс приводит свой аргумент «Танцующие квалиа». [19]

Чалмерс начинает с предположения, что его принцип организационной инвариантности ложен: агенты с идентичными каузальными организациями могут иметь разный опыт. Затем он предлагает нам представить себе превращение одного агента в другого путем замены частей (скажем, нейронных частей, замененных кремнием), сохраняя при этом его причинную организацию. Опыт трансформируемого агента изменится (поскольку части будут заменены), но не произойдет никаких изменений в причинной топологии и, следовательно, не будет никаких средств, с помощью которых агент мог бы «заметить» сдвиг в опыте; Чалмерс считает такое положение дел неправдоподобным доведением до абсурда, утверждая, что его принцип организационной инвариантности почти наверняка верен.

Критики [ ВОЗ? ] Сторонники искусственного разума возражают, что предложение Чалмерса ставит под сомнение предположение, что все ментальные свойства и внешние связи уже в достаточной степени охвачены абстрактной причинной организацией.

Споры [ править ]

В 2022 году инженер Google Блейк Лемуан сделал вирусное заявление о том, что чат-бот Google LaMDA разумен. Лемуан предоставил в качестве доказательства человеческие ответы чат-бота на многие из своих вопросов; однако научное сообщество расценило поведение чат-бота, скорее всего, как следствие мимикрии, а не машинного разума. Заявление Лемуана было широко высмеяно как нелепое. [20] Однако, хотя философ Ник Бостром утверждает, что LaMDA вряд ли будет в сознании, он дополнительно ставит вопрос: «Какие основания будут у человека быть в этом уверенными?» Нужно было бы иметь доступ к неопубликованной информации об архитектуре LaMDA, а также понять, как работает сознание, а затем выяснить, как отобразить философию на машине: «(В отсутствие этих шагов) кажется, что один должно быть, возможно, немного неопределенным... вполне могут существовать другие системы сейчас или в относительно ближайшем будущем, которые начнут удовлетворять этим критериям». [21]

Тестирование [ править ]

Самый известный метод тестирования машинного интеллекта тест Тьюринга . Но когда этот тест интерпретируется только как наблюдение, он противоречит принципам философии науки теории зависимости наблюдений . Также было предложено серьезно отнестись к рекомендации Алана Тьюринга имитировать сознание ребенка вместо сознания взрослого человека. [22]

Квалиа, или феноменологическое сознание, по своей сути является феноменом от первого лица. Хотя различные системы могут демонстрировать многочисленные признаки поведения, коррелирующие с функциональным сознанием, не существует мыслимого способа, с помощью которого тесты от третьего лица могли бы получить доступ к феноменологическим характеристикам от первого лица. По этой причине, помимо отсутствия эмпирического определения чувства, [23] тесты на наличие разума в АС могут оказаться невозможными.

В 2014 году Виктор Аргонов предложил не-Тьюринговский тест на разумность машин, основанный на способности машины выносить философские суждения. [24] Он утверждает, что детерминированную машину следует считать сознательной, если она способна выносить суждения обо всех проблемных свойствах сознания (таких как квалиа или связывание ), не имея врожденных (предварительно загруженных) философских знаний по этим вопросам, никаких философских дискуссий во время обучения и отсутствие в его памяти информационных моделей других существ (такие модели могут неявно или явно содержать знания о сознании этих существ). Однако этот тест можно использовать только для обнаружения, но не для опровержения существования сознания. Положительный результат доказывает, что машина сознательна, а отрицательный результат ничего не доказывает. Например, отсутствие философских суждений может быть вызвано отсутствием интеллекта машины, а не отсутствием сознания.

Этика [ править ]

Если бы возникло подозрение, что конкретная машина обладает сознанием, ее права стали бы этической проблемой, которую необходимо было бы оценить (например, какие права она будет иметь по закону). Например, сознательный компьютер, который принадлежал и использовался в качестве инструмента или центрального компьютера внутри более крупной машины, представляет собой особую двусмысленность. Должны ли быть приняты законы для такого случая? В этом конкретном случае сознание также потребует юридического определения. Поскольку искусственное сознание по-прежнему остается в значительной степени теоретическим предметом, такая этика не обсуждалась и не развивалась в значительной степени, хотя она часто была темой в художественной литературе (см. Ниже).

В 2021 году немецкий философ Томас Метцингер выступил за глобальный мораторий на синтетическую феноменологию до 2050 года. Метцингер утверждает, что люди обязаны заботиться о любых разумных ИИ, которые они создают, и что слишком быстрые действия могут привести к «взрыву искусственных страданий». [25]

Принудительная амнезия была предложена как способ снизить риск молчаливых страданий запертого в сознании ИИ и некоторых смежных с ИИ биологических систем, таких как органоиды мозга . [26]

сознания, необходимыми считающиеся Аспекты

Бернард Баарс и другие утверждают, что для того, чтобы машина имела искусственное сознание, необходимы различные аспекты сознания. [27] Функции сознания, предложенные Баарсом, следующие: определение и установка контекста, адаптация и обучение, редактирование, пометка и отладка, рекрутирование и контроль, расстановка приоритетов и контроль доступа, принятие решений или исполнительная функция, функция формирования аналогий, метакогнитивная и само- функция мониторинга, а также функция автопрограммирования и самообслуживания. Игорь Александр предложил 12 принципов искусственного сознания: [28] мозг — это конечный автомат, внутреннее разделение нейронов, сознательные и бессознательные состояния, перцептивное обучение и память, прогнозирование, осознание себя, представление смысла, обучение высказываниям, изучение языка, воля, инстинкты и эмоции. Цель AC — определить, можно ли и как эти и другие аспекты сознания синтезировать в инженерном артефакте, таком как цифровой компьютер. Этот список не является исчерпывающим; есть много других, не охваченных.

Осведомленность [ править ]

Осведомленность могла бы быть одним из необходимых аспектов, но существует множество проблем с точным определением осознанности . Результаты экспериментов нейросканирования на обезьянах позволяют предположить, что нейроны активирует процесс, а не только состояние или объект. Осведомленность включает в себя создание и тестирование альтернативных моделей каждого процесса на основе информации, полученной посредством органов чувств или воображаемой, [ нужны разъяснения ] а также полезен для прогнозирования. Такое моделирование требует большой гибкости. Создание такой модели включает в себя моделирование физического мира, моделирование собственных внутренних состояний и процессов, а также моделирование других сознательных сущностей.

Существует как минимум три типа осознанности: [29] осознание агента, осознание цели и сенсомоторное осознание, которое также может быть сознательным или нет. Например, при осознании действия вы можете осознавать, что вчера совершили определенное действие, но сейчас не осознаете этого. В осознании цели вы можете осознавать, что вам нужно найти потерянный объект, но сейчас не осознаете этого. В сенсомоторном осознании вы можете осознавать, что ваша рука лежит на объекте, но сейчас не осознаете этого.

Поскольку объекты осознания часто обладают сознанием, различие между осознанием и сознанием часто размывается или они используются как синонимы. [30]

Память [ править ]

Сознательные события взаимодействуют с системами памяти при обучении, повторении и воспроизведении информации. [31] Модель МАР [32] выясняет роль сознания в обновлении перцептивной памяти, [33] преходящая эпизодическая память и процедурная память . Преходящие эпизодические и декларативные воспоминания распределили репрезентации в IDA; есть данные, что то же самое происходит и с нервной системой. [34] В IDA эти две памяти реализованы вычислительно с использованием модифицированной версии Kanerva архитектуры разреженной распределенной памяти . [35]

Обучение [ править ]

Обучение также считается необходимым для искусственного сознания. По мнению Бернарда Баарса, сознательный опыт необходим для представления новых и значимых событий и адаптации к ним. [27] Согласно Акселю Клиремансу и Луису Хименесу, обучение определяется как «набор филогенетически [ sic ] продвинутых адаптационных процессов, которые критически зависят от развитой чувствительности к субъективному опыту, чтобы позволить агентам обеспечить гибкий контроль над своими действиями в сложных, непредсказуемых средах». . [36]

Ожидание [ править ]

Способность предсказывать (или предвидеть считает важной для искусственного интеллекта ) предсказуемые события Игорь Александр . [37] Эмерджентистский принцип множественных проектов, предложенный Дэниелом Деннетом в книге «Объяснение сознания», может быть полезен для прогнозирования: он включает в себя оценку и выбор наиболее подходящего «проекта», соответствующего текущей среде. Ожидание включает в себя предсказание последствий собственных предполагаемых действий и предсказание последствий вероятных действий других субъектов.

Отношения между состояниями реального мира отражаются в структуре состояний сознательного организма, что позволяет организму предсказывать события. [37] Машина с искусственным сознанием должна быть способна правильно предвидеть события, чтобы быть готовой реагировать на них, когда они происходят, или предпринимать упреждающие действия для предотвращения ожидаемых событий. Здесь подразумевается, что машине нужны гибкие компоненты реального времени, которые строят пространственные, динамические, статистические, функциональные и причинно-следственные модели реального мира и предсказанных миров, что позволяет продемонстрировать, что она обладает искусственным сознанием в настоящем. и будущее, а не только в прошлом. Чтобы сделать это, сознательная машина должна делать последовательные прогнозы и планы действий на случай непредвиденных обстоятельств не только в мирах с фиксированными правилами, таких как шахматная доска, но и в новых средах, которые могут меняться, которые должны выполняться только тогда, когда это необходимо для моделирования и контроля реальной жизни. мир.

Субъективный опыт [ править ]

Субъективные переживания или квалиа широко считаются трудной проблемой сознания . Действительно, считается, что это бросает вызов физикализму , не говоря уже о компьютерализме .

Предложения по реализации [ править ]

или гибридный Символический

агент Интеллектуальный распространения

Стэн Франклин (1995, 2003) определяет автономный агент как обладающий функциональным сознанием , когда он способен выполнять некоторые функции сознания, определенные Бернардом Баарсом в « Теории глобального рабочего пространства » . [27] [38] Его детище IDA (Intelligent Distribution Agent) представляет собой программную реализацию GWT, что делает его функционально осознанным по определению. Задача IDA состоит в том, чтобы договориться о новых назначениях для моряков ВМС США после окончания службы, сопоставляя навыки и предпочтения каждого человека с потребностями ВМФ. IDA взаимодействует с базами данных ВМФ и общается с моряками посредством диалога по электронной почте на естественном языке, соблюдая при этом большой набор политик ВМФ. Вычислительная модель IDA была разработана в 1996–2001 годах в «Сознательной» исследовательской группе программного обеспечения Стэна Франклина в Университете Мемфиса . Он «состоит примерно из четверти миллиона строк Java- кода и почти полностью потребляет ресурсы высокопроизводительной рабочей станции 2001 года выпуска». Он в значительной степени опирается на кодлеты , которые представляют собой «относительно независимые мини-агенты специального назначения, обычно реализуемые как небольшой фрагмент кода, работающий как отдельный поток». В нисходящей архитектуре IDA явно моделируются когнитивные функции высокого уровня. [39] [40]

Хотя ИДА по определению функционально сознательна, Франклин «не приписывает феноменальное сознание своему собственному «сознательному» программному агенту ИДА, несмотря на ее во многом человеческое поведение. И это несмотря на то, что несколько специалистов ВМС США неоднократно кивают головами, говоря: «Да, я так делаю», наблюдая за внутренними и внешними действиями ИДА, пока она выполняет свою задачу». IDA была расширена до LIDA (обучающегося интеллектуального агента распространения).

Когнитивная архитектура CLARION [ править ]

Когнитивная архитектура CLARION предполагает двухуровневое представление, которое объясняет различие между сознательными и бессознательными психическими процессами. CLARION успешно объяснил множество психологических данных. С помощью CLARION был смоделирован ряд хорошо известных задач по обучению навыкам, которые охватывают диапазон от простых реактивных навыков до сложных когнитивных навыков. Задачи включают в себя задачи последовательного времени реакции (SRT), задачи искусственного изучения грамматики (AGL), задачи управления процессами (PC), задачу категориального вывода (CI), задачу алфавитной арифметики (AA) и Ханойскую башню (TOH). задача. [41] Среди них SRT, AGL и PC являются типичными задачами неявного обучения, очень важными для проблемы сознания, поскольку они реализовали понятие сознания в контексте психологических экспериментов.

OpenCog [ править ]

Бен Герцель создал воплощенный искусственный интеллект с помощью проекта OpenCog с открытым исходным кодом . Код включает в себя воплощенных виртуальных питомцев, способных изучать простые англоязычные команды, а также интеграцию с реальной робототехникой, выполненную в Гонконгском политехническом университете .

Коннекционист [ править ]

Когнитивная архитектура Хайконена [ править ]

Пентти Хайконен считает, что классические вычисления, основанные на правилах, недостаточны для достижения AC: «Мозг определенно не компьютер. Мышление — это не выполнение запрограммированных строк команд. Мозг также не является числовым калькулятором. Мы не думаем числами». Вместо того, чтобы пытаться достичь разума и сознания путем выявления и реализации лежащих в их основе вычислительных правил, Хайконен предлагает «особую когнитивную архитектуру для воспроизведения процессов восприятия , внутреннего воображения , внутренней речи , боли , удовольствия , эмоций и стоящих за ними когнитивных функций. Восходящая архитектура будет создавать функции более высокого уровня с помощью элементарных процессоров, искусственных нейронов , без алгоритмов или программ ». Хайконен считает, что при достаточной сложности эта архитектура будет развивать сознание, которое он считает «стилем и способом работы, характеризующимся распределенным представлением сигналов, процессом восприятия, кросс-модальной отчетностью и доступностью для ретроспективы». [42] [43]

Хайконен не одинок в своем процессуальном взгляде на сознание или в том, что AC спонтанно возникает у автономных агентов , имеющих подходящую нейроинспирированную архитектуру сложности; их разделяют многие. [44] [45] Сообщается, что несложная реализация архитектуры, предложенная Хайконеном, не поддерживала переменный ток, но демонстрировала ожидаемые эмоции. Позже Хайконен обновил и обобщил свою архитектуру. [46] [47]

Шанахана Когнитивная архитектура

Мюррей Шанахан описывает когнитивную архитектуру, которая сочетает в себе идею Баарса о глобальном рабочем пространстве с механизмом внутреннего моделирования («воображения»). [48] [2] [3] [49]

самосознания Такено Исследование

Самосознание роботов исследует Дзюнъити Такено из Университета Мэйдзи в Японии. [50] Такено утверждает, что он разработал робота, способного отличать собственное изображение в зеркале от любого другого, имеющего идентичное ему изображение. [51] [52] [53] Такено утверждает, что сначала он изобрел вычислительный модуль под названием MoNAD, который имеет функцию самосознания, а затем сконструировал систему искусственного сознания, сформулировав отношения между эмоциями, чувствами и разумом, соединив модули в иерархию (Игараси, Такено 2007). Такено провел эксперимент по познанию зеркального изображения, используя робота, оснащенного системой MoNAD. Такено предложил теорию собственного тела, утверждающую, что «люди чувствуют, что их собственное зеркальное отражение ближе к ним самим, чем реальная часть их самих». Важнейшим моментом в развитии искусственного сознания или прояснении человеческого сознания является развитие функции самосознания, и он утверждает, что продемонстрировал физические и математические доказательства этого в своей диссертации. [54] Он также продемонстрировал, что роботы могут изучать в памяти эпизоды, в которых стимулировались эмоции, и использовать этот опыт для принятия прогнозирующих действий, чтобы предотвратить повторение неприятных эмоций (Торигоэ, Такено, 2009).

: мои нейроны, мое Невозможные сознание разумы

Игорь Александр , почетный профессор кафедры нейронных систем Имперского колледжа , тщательно исследовал искусственные нейронные сети и в своей книге 1996 года «Невозможные разумы: мои нейроны, мое сознание» написал , что принципы создания сознательной машины уже существуют, но на это потребуется сорок лет. научить такую ​​машину понимать язык . [55] Верно ли это, еще предстоит продемонстрировать, и основной принцип, изложенный в «Невозможных разумах» — что мозг является нейронной машиной — вызывает сомнения. [56]

Творческая машина [ править ]

Стивен Талер предложил возможную связь между сознанием и творчеством в своем патенте 1994 года под названием «Устройство для автономной генерации полезной информации» (DAGUI). [57] [58] [59] или так называемая «Творческая машина», в которой вычислительные критики управляют введением синаптического шума и деградацией в нейронные сети, чтобы вызвать ложные воспоминания или конфабуляции , которые могут квалифицироваться как потенциальные идеи или стратегии. [60] Он использует эту нейронную архитектуру и методологию для объяснения субъективного ощущения сознания, утверждая, что подобные управляемые шумом нейронные сборки внутри мозга имеют сомнительное значение для общей активности коры головного мозга. [61] [62] [63] Теория Талера и полученные патенты в области машинного сознания были вдохновлены экспериментами, в которых он внутренне разрушал обученные нейронные сети, чтобы управлять последовательностью паттернов нейронной активации, которые он сравнил с потоком сознания. [62] [64] [65] [66] [67]

внимания схемы Теория

В 2011 году Майкл Грациано и Сабина Кастлер опубликовали статью под названием «Человеческое сознание и его связь с социальной нейробиологией: новая гипотеза», предлагающую теорию сознания как схемы внимания. [68] Грациано опубликовал расширенное обсуждение этой теории в своей книге «Сознание и социальный мозг». [8] Эта теория сознания схемы внимания, как он ее назвал, предполагает, что мозг отслеживает внимание к различным сенсорным сигналам с помощью схемы внимания, аналогичной хорошо изученной схеме тела, которая отслеживает пространственное положение тела человека. [8] Это относится к искусственному сознанию, предлагая особый механизм обработки информации, который производит то, что мы предположительно ощущаем и описываем как сознание, и который должен иметь возможность дублировать машину с использованием современных технологий. Когда мозг обнаруживает, что человек X осознает предмет Y, он, по сути, моделирует состояние, в котором человек X усиливает внимание к Y. В теории схемы внимания тот же процесс можно применить к самому себе. Мозг отслеживает внимание к различным сенсорным сигналам, а собственное осознание представляет собой схематизированную модель внимания. Грациано предлагает определенные места в мозге для этого процесса и предполагает, что такое осознание — это вычисляемая функция, созданная экспертной системой в мозге.

«Самомоделирование» [ править ]

Ход Липсон определяет «самомоделирование» как необходимый компонент самосознания или сознания роботов. «Самомоделирование» заключается в том, что робот запускает внутреннюю модель или симуляцию самого себя . [69] [70]

В художественной литературе [ править ]

  • В романе Артура Кларка « Город и звезды » Ванамонд - искусственное существо, основанное на квантовой запутанности, которое должно было стать чрезвычайно могущественным, но начало практически ничего не знать, таким образом, будучи похожим на искусственное сознание.
  • В игре Punishing Grey Raven , созданной Kuro Games, HAICMA (Эвристическая машина для ухода за искусственным интеллектом-Альфа), обозначенная как MPA-01, представляет собой административный ИИ, которому поручено поддерживать, наблюдать, общаться и записывать работу механоидных субъектов Машины. Эксперимент по Сознанию, целью которого является Определить возможность настоящего «Сознания» среди машин-субъектов, помеченных в проекте как «аномалии». Среди многочисленных участников-машин было обнаружено, что MPL-00, также известный как NANAMI, обладает наибольшим потенциалом для то, что Эксперимент стремится подтвердить.

См. также [ править ]

Ссылки [ править ]

Цитаты [ править ]

  1. ^ Талер, С.Л. (1998). «Новый интеллект и его критический взгляд на нас». Журнал исследований клинической смерти . 17 (1): 21–29. дои : 10.1023/А:1022990118714 . S2CID   49573301 .
  2. Перейти обратно: Перейти обратно: а б Гамез 2008г .
  3. Перейти обратно: Перейти обратно: а б Дворец 2013г .
  4. ^ Смит, Дэвид Харрис; Скиллачи, Гвидо (2021). «Построить робота с искусственным сознанием? С чего начать? Междисциплинарный диалог о разработке и реализации синтетической модели сознания» . Границы в психологии . 12 : 530560. doi : 10.3389/fpsyg.2021.530560 . ISSN   1664-1078 . ПМК   8096926 . ПМИД   33967869 .
  5. ^ Элвидж, Джим (2018). Цифровое сознание: преобразующее видение . Джон Хант Паблишинг Лимитед. ISBN  978-1-78535-760-2 .
  6. ^ Крисли, Рон (октябрь 2008 г.). «Философские основы искусственного сознания» . Искусственный интеллект в медицине . 44 (2): 119–137. doi : 10.1016/j.artmed.2008.07.011 . ПМИД   18818062 .
  7. ^ Институт, Чувство. «Терминология искусственного разума» . Институт чувств . Проверено 19 августа 2023 г.
  8. Перейти обратно: Перейти обратно: а б с Грациано 2013 .
  9. ^ Блок, Нед (2010). «О путанице в функциях сознания» . Поведенческие и мозговые науки . 18 (2): 227–247. дои : 10.1017/S0140525X00038188 . ISSN   1469-1825 . S2CID   146168066 .
  10. ^ Блок, Нед (1978). «Проблемы функционализма». Миннесотские исследования философии науки : 261–325.
  11. ^ Бикл, Джон (2003). Философия и нейронаука . Дордрехт: Springer Нидерланды. дои : 10.1007/978-94-010-0237-0 . ISBN  978-1-4020-1302-7 .
  12. ^ Шлагель, Р.Х. (1999). «Почему не искусственное сознание или мысль?». Разум и машины . 9 (1): 3–28. дои : 10.1023/а:1008374714117 . S2CID   28845966 .
  13. ^ Сирл, младший (1980). «Умы, мозг и программы» (PDF) . Поведенческие и мозговые науки . 3 (3): 417–457. дои : 10.1017/s0140525x00005756 . S2CID   55303721 .
  14. ^ Искусственное сознание: утопия или реальная возможность? Бутаццо, Джорджио, июль 2001 г., Компьютер, ISSN 0018-9162.
  15. ^ Патнэм, Хилари (1967). Природа психических состояний в книге Капитана и Меррилла (ред.) Искусство, разум и религия . Издательство Питтсбургского университета.
  16. ^ Дэвид Дж. Чалмерс (2011). «Вычислительная основа для изучения познания» (PDF) . Журнал когнитивной науки . 12 (4): 325–359. дои : 10.17791/JCS.2011.12.4.325 . S2CID   248401010 .
  17. ^ Армстронг, DM (1968). Хондерих, Тед (ред.). Материалистическая теория разума . Нью-Йорк: Рутледж.
  18. ^ Льюис, Дэвид (1972). «Психофизические и теоретические идентификации» . Австралазийский философский журнал . 50 (3): 249–258. дои : 10.1080/00048407212341301 . ISSN   0004-8402 .
  19. ^ Чалмерс, Дэвид (1995). «Отсутствующие квалиа, исчезающие квалиа, танцующие квалиа» . Проверено 12 апреля 2016 г.
  20. ^ « На самом деле я человек»: может ли искусственный интеллект когда-либо быть разумным?» . Хранитель . 14 августа 2022 г. Проверено 5 января 2023 г.
  21. ^ Лейт, Сэм (7 июля 2022 г.). «Ник Бостром: Как мы можем быть уверены, что машина не находится в сознании?» . Зритель .
  22. ^ «Составление карты общего искусственного интеллекта человеческого уровня» (PDF) . Архивировано из оригинала (PDF) 6 июля 2017 г. Проверено 5 июля 2012 г.
  23. ^ «Сознание». В Хондерихе Т. Оксфордском спутнике философии. Издательство Оксфордского университета. ISBN   978-0-19-926479-7
  24. ^ Виктор Аргонов (2014). «Экспериментальные методы решения проблемы разума и тела: феноменальный подход к суждению» . Журнал разума и поведения . 35 : 51–70.
  25. ^ Метцингер, Томас (2021). «Искусственное страдание: аргумент в пользу глобального моратория на синтетическую феноменологию» . Журнал искусственного интеллекта и сознания . 08 : 43–66. дои : 10.1142/S270507852150003X . S2CID   233176465 ​​.
  26. ^ Ткаченко, Егор (2024). «Позиция: Принудительная амнезия как способ смягчить потенциальный риск молчаливых страданий сознательного ИИ» . Материалы 41-й Международной конференции по машинному обучению . ПМЛР . Проверено 11 июня 2024 г.
  27. Перейти обратно: Перейти обратно: а б с Баарс 1995 .
  28. ^ Александр, Игорь (1995). «Искусственное нейросознание: обновление» . В Мире, Хосе; Сандовал, Франциско (ред.). От естественных к искусственным нейронным вычислениям . Конспекты лекций по информатике. Том. 930. Берлин, Гейдельберг: Springer. стр. 566–583. дои : 10.1007/3-540-59497-3_224 . ISBN  978-3-540-49288-7 .
  29. ^ Жоэль Пруст в книге «Нейронные корреляты сознания» , Томас Метцингер, 2000, Массачусетский технологический институт, страницы 307–324.
  30. ^ Кристоф Кох, В поисках сознания , 2004, стр. 2, сноска 2.
  31. ^ Тулвинг, Э. 1985. Память и сознание. Канадская психология 26: 1–12
  32. ^ Франклин, Стэн и др. «Роль сознания в памяти». Мозг, разум и средства массовой информации 1.1 (2005): 38.
  33. ^ Франклин, Стэн. «Перцептивная память и обучение: распознавание, категоризация и связь». Учеб. Весенний симпозиум AAAI по развивающей робототехнике. 2005.
  34. ^ Шастри, Л. 2002. Эпизодическая память и кортико-гиппокампальные взаимодействия. Тенденции в когнитивных науках
  35. ^ Хизер, Пентти. Разреженная распределенная память. Массачусетский технологический институт, 1988.
  36. ^ «Неявное обучение и сознание: эмпирический, философский и вычислительный консенсус в процессе создания» . Рутледж и CRC Press . Проверено 22 июня 2023 г.
  37. Перейти обратно: Перейти обратно: а б Александр 1995 г.
  38. ^ Баарс, Бернард Дж. (2001). В театре сознания: рабочее пространство разума . Нью-Йорк Оксфорд: Издательство Оксфордского университета. ISBN  978-0-19-510265-9 .
  39. ^ Франклин, Стэн (1998). Искусственный разум . Книга Брэдфорда (3-е печатное изд.). Кембридж, Массачусетс: MIT Press. ISBN  978-0-262-06178-0 .
  40. ^ Франклин, Стэн (2003). «IDA: Сознательный артефакт». Машинное сознание .
  41. ^ ( Вс, 2002 г. )
  42. ^ Хайконен, Пентти О. (2003). Когнитивный подход к сознательным машинам . Эксетер: Выходные данные Академический. ISBN  978-0-907845-42-3 .
  43. ^ «Архитектура Пентти Хайконена для сознательных машин – Рауль Аррабалес Морено» . 08.09.2019 . Проверено 24 июня 2023 г.
  44. ^ Фриман, Уолтер Дж. (2000). Как мозг принимает решения . Карты разума. Нью-Йорк Чичестер, Западный Суссекс: Издательство Колумбийского университета. ISBN  978-0-231-12008-1 .
  45. ^ Коттерилл, Родни MJ (2003). «CyberChild — симуляционный стенд для исследования сознания» . Журнал исследований сознания . 10 (4–5): 31–45. ISSN   1355-8250 .
  46. ^ Хайконен, Пентти О.; Хайконен, Пентти Олави Антеро (2012). Сознание и разум робота . Серия о машинном сознании. Сингапур: World Scientific. ISBN  978-981-4407-15-1 .
  47. ^ Хайконен, Пентти О. (2019). Сознание и разум робота . Серия о машинном сознании (2-е изд.). Сингапур Хакенсак, Нью-Джерси Лондон: World Scientific. ISBN  978-981-12-0504-0 .
  48. ^ Шанахан, Мюррей (2006). «Когнитивная архитектура, сочетающая внутреннее моделирование с глобальным рабочим пространством» . Сознание и познание . 15 (2): 433–449. дои : 10.1016/j.concog.2005.11.005 . ISSN   1053-8100 . ПМИД   16384715 . S2CID   5437155 .
  49. ^ Хайконен, Пентти О.; Хайконен, Пентти Олави Антеро (2012). «глава 20». Сознание и разум робота . Серия о машинном сознании. Сингапур: World Scientific. ISBN  978-981-4407-15-1 .
  50. ^ «Робот» . Архивировано из оригинала 3 июля 2007 года . Проверено 3 июля 2007 г.
  51. ^ «Такено – Архив №...» Архивировано из оригинала 7 ноября 2018 года . Проверено 7 января 2010 г.
  52. ^ Первый в мире робот с самосознанием и успех познания в зеркальном отражении , Такено
  53. ^ Такено, Инаба и Судзуки 2005 .
  54. ^ Робот преуспел в 100% познании зеркального изображения. Архивировано 9 августа 2017 г. в Wayback Machine , Такено, 2008 г.
  55. ^ Александр I (1996) Невозможные умы: мои нейроны, мое сознание , Imperial College Press ISBN   1-86094-036-6
  56. ^ Уилсон, Р.Дж. (1998). «обзор « Невозможных умов ». Журнал исследований сознания . 5 (1): 115–6.
  57. ^ Талер, С.Л., « Устройство для автономного генерирования полезной информации ».
  58. ^ Марупака, Н.; Лайер, Л.; Минай, А. (2012). «Связность и мышление: влияние структуры семантической сети в нейродинамической модели мышления» (PDF) . Нейронные сети . 32 : 147–158. дои : 10.1016/j.neunet.2012.02.004 . ПМИД   22397950 . Архивировано из оригинала (PDF) 19 декабря 2016 г. Проверено 22 мая 2015 г.
  59. ^ Роке Р. и Баррейра А. (2011). «Парадигма «креативной машины» и генерация новинок в концептуальном пространстве», 3-й внутренний семинар по искусственному познанию – SICA 2011 – FEEC – UNICAMP.
  60. ^ Минати, Джанфранко; Витиелло, Джузеппе (2006). «Машины, совершающие ошибки». Системика возникновения: исследования и разработки . стр. 67–78 . дои : 10.1007/0-387-28898-8_4 . ISBN  978-0-387-28899-4 .
  61. ^ Талер, С.Л. (2013) Парадигма машины творчества, Энциклопедия творчества, изобретений, инноваций и предпринимательства , (ред.) Э.Г. Караяннис, Springer Science+Business Media
  62. Перейти обратно: Перейти обратно: а б Талер, С.Л. (2011). «Машина творчества: противодействие аргументам сознания», информационный бюллетень APA по философии и компьютерам.
  63. ^ Талер, С.Л. (2014). «Синаптические возмущения и сознание». Межд. Дж. Мах. Сознательный . 6 (2): 75–107. дои : 10.1142/S1793843014400137 .
  64. ^ Талер, С.Л. (1995). « Феномены виртуального ввода» в связи со смертью ассоциатора простого шаблона». Нейронные сети . 8 (1): 55–65. дои : 10.1016/0893-6080(94)00065-т .
  65. ^ Талер, С.Л. (1995). Смерть мысленного существа, Журнал исследований клинической смерти , 13 (3), весна 1995 г.
  66. ^ Талер, С.Л. (1996). Является ли нейрональный хаос источником потока сознания? В материалах Всемирного конгресса по нейронным сетям (WCNN'96), Лоуренс Эрлбаум, Мава, Нью-Джерси.
  67. ^ Майер, HA (2004). Модульный нейроконтроллер для творческих мобильных автономных роботов, обучающихся по разнице во времени , Системы, Человек и Кибернетика, Международная конференция IEEE 2004 г. (Том: 6)
  68. ^ Грациано, Майкл (1 января 2011 г.). «Человеческое сознание и его связь с социальной нейробиологией: новая гипотеза» . Когнитивная нейронаука . 2 (2): 98–113. дои : 10.1080/17588928.2011.565121 . ПМК   3223025 . ПМИД   22121395 .
  69. ^ Павлус, Джон (11 июля 2019 г.). «Интересно, что такое сознание? Спросите самосознающие машины» . Журнал Кванта . Проверено 6 января 2021 г.
  70. ^ Бонгард, Джош, Виктор Зыков и Ход Липсон. « Устойчивые машины благодаря непрерывному самомоделированию ». Science 314.5802 (2006): 1118–1121.

Библиография [ править ]

Дальнейшее чтение [ править ]

Внешние ссылки [ править ]

Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: b8f82e556fa2ee5c29d4fab28463ad29__1718317920
URL1:https://arc.ask3.ru/arc/aa/b8/29/b8f82e556fa2ee5c29d4fab28463ad29.html
Заголовок, (Title) документа по адресу, URL1:
Artificial consciousness - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)