Jump to content

Китайская комната

(Перенаправлено с «Разум, мозг и программы »)

Аргумент китайской комнаты утверждает, что компьютер, выполняющий программу, не может иметь разума , понимания или сознания . [а] независимо от того, насколько разумно или человекоподобно программа может заставить компьютер вести себя. Этот аргумент был представлен в 1980 году в статье философа Джона Сирла под названием «Сознание, мозг и программы» и опубликованной в журнале Behavioral and Brain Sciences . [1] До Сёрла аналогичные аргументы были представлены такими фигурами, как Готфрид Вильгельм Лейбниц (1714 г.), Анатолий Днепров (1961 г.), Лоуренс Дэвис (1974 г.) и Нед Блок (1978 г.). С тех пор версия Сирла широко обсуждалась. [2] Центральным элементом аргументации Сирла является мысленный эксперимент, известный как « Китайская комната» . [3]

Аргумент направлен против философских позиций функционализма и компьютерализма . [4] которые утверждают, что разум можно рассматривать как систему обработки информации, действующую на формальных символах, и что для его присутствия достаточно моделирования данного психического состояния. В частности, этот аргумент призван опровергнуть позицию, которую Серл называет сильной гипотезой ИИ : [б] «Правильно запрограммированный компьютер с правильными входами и выходами, таким образом, будет обладать разумом точно в том же смысле, в котором разум есть у людей». [с]

Хотя его сторонники первоначально представили этот аргумент в ответ на заявления исследователей искусственного интеллекта (ИИ), он не является аргументом против целей основных исследований ИИ, поскольку не показывает предела интеллектуального поведения, которое может проявлять машина. [5] Этот аргумент применим только к цифровым компьютерам, на которых выполняются программы, и не применим к машинам в целом. [6]

Мысленный эксперимент Сирла

[ редактировать ]

Джон Сирл начинает мысленный эксперимент «Китайская комната» с предпосылки о компьютере, оснащенном программой , которая позволяет ему вести себя так, как если бы он понимал китайский язык. Машина принимает китайские иероглифы в качестве входных данных, шаг за шагом выполняет каждую инструкцию программы, а затем выдает китайские иероглифы в качестве выходных данных. Предполагается, что машина способна справиться с этой задачей; его результаты последовательно проходят тест Тьюринга , вовлекая людей, говорящих на китайском языке, в разговор, в результате чего они убеждаются, что разговаривают с другим человеком. Учитывая эту предпосылку, Сирл ставит вопрос о том, действительно ли машина понимает китайский язык или просто создает видимость, легко связанную с пониманием китайского языка. Он называет эти позиции позицией «сильного ИИ» и позицией «слабого ИИ» соответственно. [7] [8] Сирл пишет: «С точки зрения сильного ИИ правильно запрограммированный компьютер не просто имитирует наличие разума; он буквально обладает разумом». [9]

Во второй части своей аргументации Сирл показывает, что реальные методы, используемые в работе машины, не имеют отношения к ответу на этот вопрос. Вместо машины Сирл помещается в комнату: он также получает ввод китайских иероглифов и приступает к выполнению вручную тех же инструкций, которые ранее были даны компьютеру. Ни в коем случае какое-либо понимание китайского языка, которое Сирл может иметь или не иметь, имеет отношение к его успешному поэтапному выполнению задачи; Кстати, он прямо заявляет, что у него его нет. Следовательно, Сирл так же способен пройти тест Тьюринга, как и компьютер; Точно так же неоправданно утверждать, что компьютер понимает разговор на основе успешного выполнения программы, как это было бы в случае с Сирлом. [10]

Сирл заключает, что если понимание или интенциональность машине нельзя приписать , то нельзя и описать то, что она делает, как мышление; как таковое, оно не обладает разумом в обычном смысле этого слова. Поэтому Сирл утверждает, что позиция «сильного ИИ» должна быть ложной.

Готфрид Лейбниц выдвинул аналогичный аргумент в 1714 году против механизма (идея о том, что все, что составляет человека, в принципе можно объяснить в механических терминах. Другими словами, человек, включая его разум, представляет собой просто очень сложную машину). . Лейбниц использовал мысленный эксперимент по расширению мозга до размеров мельницы. [11] Лейбницу было трудно представить, что «разум», способный к «восприятию», может быть построен с использованием только механических процессов. [д]

Питер Винч высказал то же самое в своей книге «Идея социальной науки и ее отношение к философии» (1958), где он приводит аргументы, показывающие, что «человек, понимающий китайский язык, не является человеком, который твердо разбирается в статистических данных». вероятности появления различных слов в китайском языке» (с.108).

Советский кибернетик Анатолий Днепров выдвинул по существу идентичный аргумент в 1961 году в форме рассказа « Игра ». В нем стадион людей действует как переключатели и ячейки памяти, реализующие программу перевода предложения на португальский язык, язык, которого никто из них не знает. [12] Игру организовал «Профессор Зарубин» для ответа на вопрос «Могут ли мыслить математические машины?» Выступая через Зарубина, Днепров пишет: «Единственный способ доказать, что машины могут думать, — это превратить себя в машину и изучить свой мыслительный процесс», и заключает, как и Серл: «Мы доказали, что даже самая совершенная имитация машины мышление — это не сам процесс мышления».

В 1974 году Лоуренс Х. Дэвис представил, как можно дублировать мозг с помощью телефонных линий и офисов, укомплектованных людьми, а в 1978 году Нед Блок представил, что все население Китая будет участвовать в таком моделировании мозга. Этот мысленный эксперимент называется « Китайский мозг» , также «Китайская нация» или «Китайский тренажерный зал». [13]

Джон Сирл в декабре 2005 года

Версия Сирла появилась в его статье 1980 года «Сознание, мозг и программы», опубликованной в журнале Behavioral and Brain Sciences . [1] В конечном итоге она стала «самой влиятельной целевой статьей журнала». [2] породив огромное количество комментариев и ответов в последующие десятилетия, и Сирл продолжал защищать и уточнять эту аргументацию во многих статьях, популярных статьях и книгах. Дэвид Коул пишет, что «аргумент китайской комнаты, вероятно, был наиболее широко обсуждаемым философским аргументом в когнитивной науке, появившимся за последние 25 лет». [14]

Большая часть дискуссии состоит из попыток его опровергнуть. «Подавляющее большинство», — отмечает «Поведенческие и мозговые науки» редактор журнала Стеван Харнад . [и] «Все еще думаю, что аргумент о китайской комнате совершенно неверен». [15] Огромный объем литературы, выросшей вокруг нее, вдохновил Пэта Хейса прокомментировать, что область когнитивной науки следует переопределить как «непрерывную исследовательскую программу, направленную на то, чтобы доказать ложность аргумента Сирла о китайской комнате». [16]

По словам Харнада, аргумент Сирла стал «чем-то вроде классики в когнитивной науке». [15] Варол Акман согласен и назвал оригинальную статью «образцом философской ясности и чистоты». [17]

Философия

[ редактировать ]

Хотя аргумент «Китайской комнаты» изначально был представлен как реакция на заявления исследователей искусственного интеллекта , философы стали рассматривать его как важную часть философии разума . Это вызов функционализму и вычислительной теории разума . [ф] и связано с такими вопросами, как проблема разума и тела , проблема других разумов , проблема обоснования символов и трудная проблема сознания . [а]

Сильный ИИ

[ редактировать ]

Сирл определил философскую позицию, которую он называет «сильным ИИ»:

Таким образом, правильно запрограммированный компьютер с правильными входами и выходами будет обладать разумом точно в том же смысле, в котором разум есть у людей. [с]

Определение зависит от различия между имитацией разума и его фактическим наличием. Сирл пишет, что «согласно «Сильному ИИ» правильная симуляция на самом деле является разумом. Согласно «Слабому ИИ» правильная симуляция — это модель разума». [24]

Это утверждение неявно содержится в некоторых заявлениях первых исследователей и аналитиков ИИ. Например, в 1955 году основатель искусственного интеллекта Герберт А. Саймон заявил, что «теперь в мире существуют машины, которые думают, учатся и создают». [25] Саймон вместе с Алленом Ньюэллом и Клиффом Шоу после завершения первой программы, которая могла выполнять формальные рассуждения Теоретик логики» ), заявили, что они «решили почтенную проблему разума и тела, объяснив, как система, состоящая из материи, может иметь свойства ума». [26] Джон Хаугеланд писал, что «ИИ хочет только настоящего предмета: машин с разумом в полном и буквальном смысле. Это не научная фантастика, а настоящая наука, основанная на теоретической концепции, столь же глубокой, сколь и смелой: а именно, мы есть, в корне сами компьютеры ». [27]

Сирл также приписывает сторонникам сильного ИИ следующие утверждения:

  • Системы искусственного интеллекта можно использовать для объяснения разума; [22]
  • Изучение мозга не имеет отношения к изучению ума; [г] и
  • Тест Тьюринга достаточен для установления существования психических состояний. [час]

Сильный ИИ как вычислительный подход или функционализм

[ редактировать ]

В более поздних презентациях аргумента о китайской комнате Сирл определил «сильный ИИ» как «компьютерный функционализм » (термин, который он приписывает Дэниелу Деннетту ). [4] [32] Функционализм — это позиция в современной философии сознания , которая утверждает, что мы можем определять психические явления (такие как убеждения, желания и восприятия), описывая их функции по отношению друг к другу и к внешнему миру. поскольку компьютерная программа может точно представлять Согласно функционализму, функциональные отношения как отношения между символами, компьютер может иметь ментальные явления, если он запускает правильную программу.

Стеван Харнад утверждает, что изображения сильного ИИ, предложенные Сирлом, можно переформулировать как «узнаваемые принципы вычислительной техники , позицию (в отличие от «сильного ИИ»), которой на самом деле придерживаются многие мыслители, и, следовательно, ее стоит опровергнуть». [33] Вычислительность [я] — это позиция в философии разума, которая утверждает, что разум можно точно описать как систему обработки информации .

По мнению Харнада, каждое из следующих утверждений является «принципом» компьютерализма: [36]

  • Ментальные состояния — это вычислительные состояния (именно поэтому компьютеры могут иметь ментальные состояния и помогать объяснять разум);
  • Вычислительные состояния не зависят от реализации — другими словами, именно программное обеспечение определяет вычислительное состояние, а не аппаратное обеспечение (именно поэтому мозг, будучи аппаратным обеспечением, не имеет значения); и это
  • Поскольку реализация не важна, единственные эмпирические данные, которые имеют значение, — это то, как функционирует система; следовательно, тест Тьюринга является окончательным.

Сильный ИИ против биологического натурализма

[ редактировать ]

Сирл придерживается философской позиции, которую он называет « биологическим натурализмом »: сознание [а] и понимание требует наличия особых биологических механизмов, находящихся в мозге. Он пишет: «Мозги порождают разум». [6] и что «реальные человеческие психические явления [зависят] от реальных физико-химических свойств реального человеческого мозга». [37] Сирл утверждает, что этот механизм (известный в нейробиологии как « нейронные корреляты сознания ») должен обладать некоторыми причинными силами, которые позволяют человеческому опыту сознания. [38] Вера Сирла в существование этих сил подверглась критике.

Сирл не согласен с представлением о том, что машины могут обладать сознанием и пониманием, поскольку, как он пишет, «мы именно такие машины». [6] Сирл считает, что мозг на самом деле является машиной, но мозг порождает сознание и понимание с помощью особых механизмов. Если нейробиология способна изолировать механический процесс, порождающий сознание, то Сирл допускает возможность создания машин, обладающих сознанием и пониманием. Однако Сирл не верит, что сознание может возникнуть без специального оборудования.

Биологический натурализм подразумевает, что невозможно определить, происходит ли переживание сознания, просто исследуя, как функционирует система, поскольку важен особый механизм мозга. Таким образом, биологический натурализм прямо противоположен как бихевиоризму , так и функционализму (включая «компьютерный функционализм» или «сильный ИИ»). [39] Биологический натурализм похож на теорию идентичности (позиция, согласно которой психические состояния «идентичны» неврологическим событиям или «состоят из них»); однако у Сирла есть конкретные технические возражения против теории идентичности. [40] [Дж] Биологический натурализм Сирла и сильный искусственный интеллект противостоят картезианскому дуализму . [39] классическая идея о том, что мозг и разум состоят из разных «веществ». Действительно, Сирл обвиняет сильный ИИ в дуализме, написав, что «сильный ИИ имеет смысл только с учетом дуалистического предположения о том, что когда дело касается разума, мозг не имеет значения». [28]

Сознание

[ редактировать ]

В первоначальной презентации Сирла особое внимание уделялось пониманию, то есть психическим состояниям с интенциональностью , и не затрагивалось напрямую другие тесно связанные идеи, такие как «сознание». Однако в более поздних презентациях Сирл включил сознание в качестве реальной цели аргумента. [4]

Вычислительные модели сознания сами по себе недостаточны для существования сознания. Вычислительная модель сознания связана с сознанием так же, как вычислительная модель чего-либо связана с моделируемой областью. Никто не предполагает, что вычислительная модель ливней в Лондоне оставит нас всех мокрыми. Но они допускают ошибку, полагая, что вычислительная модель сознания каким-то образом сознательна. В обоих случаях это одна и та же ошибка. [41]

- Джон Р. Сирл, Сознание и язык , с. 16

Дэвид Чалмерс пишет: «Совершенно очевидно, что в основе всего лежит сознание» китайской комнаты. [42]

Колин Макгинн утверждает, что «Китайская комната» убедительно доказывает, что трудная проблема сознания принципиально неразрешима. Чтобы внести ясность, спор идет не о том, может ли машина быть сознательной, а о том, можно ли показать, что она (или что-то еще) обладает сознанием. Понятно, что любой другой метод допроса обитателя китайской комнаты имеет в принципе те же трудности, что и обмен вопросами и ответами на китайском языке. Просто невозможно предугадать, обитает ли в комнате сознательная сила или какая-то хитрая симуляция. [43]

Сирл утверждает, что это верно только для наблюдателя за пределами комнаты. Весь смысл мысленного эксперимента состоит в том, чтобы поместить кого-нибудь в комнату, где он сможет непосредственно наблюдать за действиями сознания. Сирл утверждает, что со своей точки обзора в комнате он не видит ничего, что могло бы вообразить возникновение сознания, кроме него самого, и очевидно, что у него нет разума, способного говорить по-китайски. По словам Сирла, «у компьютера нет ничего больше, чем у меня в случае, когда я ничего не понимаю». [44]

Прикладная этика

[ редактировать ]
Сидение в боевом информационном центре на борту военного корабля — предложенный как реальный аналог китайской комнаты.

Патрик Хью использовал аргумент китайской комнаты, чтобы вывести требования к системам военного командования и контроля, командира если они хотят сохранить моральную свободу . Он провел аналогию между командиром в их командном центре и человеком в Китайской комнате и проанализировал ее, читая понятия Аристотеля о «принуждении» и «невежестве» . Информацию можно «преобразовать» из значения в символы и ею можно символически манипулировать, но моральная свобода действий может быть подорвана, если произойдет неадекватное «преобразование с повышением» в значение. Хью привел примеры с авианосцем «Винсеннес» инцидента . [45]

Информатика

[ редактировать ]

Аргумент о китайской комнате — это, прежде всего, аргумент в философии разума, и как крупные учёные-компьютерщики, так и исследователи искусственного интеллекта считают его нерелевантным для своих областей. [5] Однако для понимания этого аргумента необходимы несколько концепций, разработанных учеными-компьютерщиками, включая обработку символов , машины Тьюринга , полноту Тьюринга и тест Тьюринга.

Сильный ИИ против исследований ИИ

[ редактировать ]

Аргументы Сирла обычно не считаются проблемой для исследований ИИ. Основная задача исследований искусственного интеллекта состоит только в создании полезных систем, которые действуют разумно, и не имеет значения, является ли интеллект «просто» симуляцией. Исследователи искусственного интеллекта Стюарт Дж. Рассел и Питер Норвиг написали в 2021 году: «Нас интересуют программы, которые ведут себя разумно. Отдельные аспекты сознания — осознание, самосознание, внимание — могут быть запрограммированы и могут быть частью интеллектуальной машины. Проект по созданию машины, обладающей таким же сознанием, как и люди, — это не тот проект, на который мы готовы взяться». [5]

Сирл не согласен с тем, что исследования ИИ могут создать машины, способные к высокоинтеллектуальному поведению. Аргумент о китайской комнате оставляет открытой возможность создания цифровой машины, которая будет действовать более разумно, чем человек, но не будет обладать разумом или интенциональностью, как у мозга.

«Гипотезу сильного ИИ» Сирла не следует путать с «сильным ИИ», как его определил Рэй Курцвейл и другие футуристы. [46] [23] которые используют этот термин для описания машинного интеллекта, который конкурирует с человеческим интеллектом или превосходит его, то есть общий искусственный интеллект , ИИ человеческого уровня или сверхинтеллект . Курцвейл имеет в виду прежде всего объем интеллекта , демонстрируемый машиной, тогда как аргумент Сирла не устанавливает этому предела. Сирл утверждает, что сверхразумная машина не обязательно будет обладать разумом и сознанием.

Тест Тьюринга

[ редактировать ]
«Стандартная интерпретация» теста Тьюринга, в которой игроку C, допрашивающему, дается задача попытаться определить, какой игрок — A или B — является компьютером, а какой — человеком. Для вынесения решения следователь ограничивается использованием ответов на письменные вопросы. Изображение адаптировано из Saygin, et al. 2000. [47]

Китайская комната реализует версию теста Тьюринга. [48] Алан Тьюринг представил этот тест в 1950 году, чтобы помочь ответить на вопрос «могут ли машины думать?» В стандартной версии судья-человек разговаривает на естественном языке с человеком и машиной, предназначенной для достижения результатов, неотличимых от действий человека. Все участники отделены друг от друга. Если судья не может достоверно отличить машину от человека, говорят, что машина прошла испытание.

Затем Тьюринг рассмотрел все возможные возражения против предложения «машины могут думать» и обнаружил, что существуют простые и очевидные ответы, если вопрос демистифицирован таким образом. Однако он не собирался проводить тест для измерения наличия «сознания» или «понимания». Он не считал, что это имеет отношение к проблемам, которые он рассматривал. Он написал:

Я не хочу создавать впечатление, что, по моему мнению, в сознании нет никакой тайны. Например, существует некий парадокс, связанный с любой попыткой его локализации. Но я не думаю, что эти загадки обязательно нужно разгадать, прежде чем мы сможем ответить на вопрос, который нас интересует в этой статье. [48]

Для Сирла, как философа, исследующего природу разума и сознания, это важные загадки. Китайская комната создана для того, чтобы показать, что теста Тьюринга недостаточно для обнаружения присутствия сознания, даже если комната может вести себя или функционировать так же, как сознательный разум.

Обработка символов

[ редактировать ]

Компьютеры манипулируют физическими объектами для выполнения вычислений и моделирования. Исследователи искусственного интеллекта Аллен Ньюэлл и Герберт А. Саймон назвали этот тип машины системой физических символов . Это также эквивалентно формальным системам, используемым в области математической логики .

Сирл подчеркивает тот факт, что такого рода манипуляции с символами являются синтаксическими (заимствование термина из изучения грамматики ). символов Компьютер манипулирует символами, используя определенную форму синтаксиса, без какого-либо знания семантики (то есть их значения ).

Ньюэлл и Саймон предположили, что физическая система символов (такая как цифровой компьютер) обладает всеми необходимыми механизмами для «общего разумного действия», или, как его называют сегодня, общего искусственного интеллекта . Они сформулировали это как философскую позицию, гипотезу системы физических символов : «Система физических символов обладает необходимыми и достаточными средствами для общего разумного действия». [49] [50] Аргумент китайской комнаты не опровергает этого, поскольку он сформулирован в терминах «разумного действия», то есть внешнего поведения машины, а не наличия или отсутствия понимания, сознания и разума.

Программы ИИ двадцать первого века (такие как « глубокое обучение ») выполняют математические операции над огромными матрицами неопознанных чисел и мало похожи на символьную обработку, используемую программами ИИ в то время, когда Сирл писал свою критику в 1980 году. Нильс Нильссон описывает такие системы, как они скорее «динамические», чем «символические». Нильссон отмечает, что это, по сути, оцифрованные представления динамических систем: отдельные числа не имеют определенной семантики, а вместо этого являются выборками или точками данных из динамического сигнала, и именно аппроксимируемый сигнал будет иметь семантику. Нильссон утверждает, что неразумно рассматривать эти сигналы как «обработку символов» в том же смысле, что и гипотезу о физических системах символов. [51]

Китайская комната и полнота по Тьюрингу

[ редактировать ]

Китайская комната имеет дизайн, аналогичный дизайну современного компьютера. Он имеет архитектуру фон Неймана , которая состоит из программы (книги инструкций), некоторой памяти (бумаги и картотеки), машины, которая следует инструкциям (человек) и средства записи символов в память (человек). карандаш и ластик). Машина с такой конструкцией известна в теоретической информатике как « полная по Тьюрингу », поскольку она имеет необходимое оборудование для выполнения любых вычислений, которые может выполнить машина Тьюринга, и, следовательно, она способна выполнять пошаговое моделирование любая другая цифровая машина, при наличии достаточной памяти и времени. Тьюринг пишет: «Все цифровые компьютеры в некотором смысле эквивалентны». [52] Широко распространенный тезис Чёрча-Тьюринга гласит, что любая функция, вычислимая с помощью эффективной процедуры, вычислима с помощью машины Тьюринга.

Полнота китайской комнаты по Тьюрингу подразумевает, что она может делать то же, что и любой другой цифровой компьютер (хотя и гораздо медленнее). Таким образом, если китайская комната не содержит или не может содержать разум, говорящий по-китайски, то никакой другой цифровой компьютер не может содержать разум. Некоторые ответы Сирлу начинаются с утверждения, что в описанной комнате не может быть разума, говорящего по-китайски. Аргументы этой формы, по мнению Стевана Харнада , являются «не опровержением, а скорее утверждением» [53] аргумента о китайской комнате, поскольку эти аргументы на самом деле подразумевают, что ни один цифровой компьютер не может иметь разума. [30]

Некоторые критики, такие как Ханох Бен-Ями, утверждают, что китайская комната не может имитировать все возможности цифрового компьютера, например, способность определять текущее время. [54]

Полный аргумент

[ редактировать ]

Сирл предложил более формальную версию аргумента, частью которого является «Китайская комната». Первую версию он представил в 1984 году. Представленная ниже версия относится к 1990 году. [55] [к] Мысленный эксперимент «Китайская комната» призван доказать пункт А3. [л]

Он начинает с трех аксиом:

(А1) «Программы формальные (синтаксические)».
Программа использует синтаксис для управления символами и не обращает внимания на семантику символов. Он знает, где разместить символы и как их перемещать, но не знает, что они обозначают и что означают. Для программы символы — это такие же физические объекты, как и любые другие.
(A2) «Сознание имеет ментальное содержание (семантику)».
В отличие от символов, используемых программой, наши мысли имеют значение: они представляют вещи, и мы знаем, что они представляют.
(A3) «Синтаксис сам по себе не является ни составляющим, ни достаточным для семантики».
Именно это и призван доказать мысленный эксперимент в китайской комнате: в китайской комнате есть синтаксис (потому что там находится человек, перемещающий символы). Китайская комната не имеет семантики (поскольку, по мнению Сирла, в комнате нет никого или ничего, кто понимал бы, что означают символы). Следовательно, наличия синтаксиса недостаточно для создания семантики.

Сирл утверждает, что это приводит непосредственно к такому выводу:

(C1) Программы не являются ни составляющими, ни достаточными для разума.
Это должно следовать без противоречий из первых трех: Программы не имеют семантики. В программах есть только синтаксис, а синтаксиса недостаточно для семантики. У каждого ума есть семантика. Следовательно, никакие программы не являются разумами.

Большая часть аргументов призвана показать, что искусственный интеллект никогда не сможет создать машину с разумом, написав программы, манипулирующие символами. Остальная часть аргумента касается другой проблемы. Запускается ли в человеческом мозге программа? Другими словами, правильна ли вычислительная теория разума ? [ф] Он начинает с аксиомы, призванной выразить основной современный научный консенсус относительно мозга и разума:

(A4) Мозг порождает разум.

Сирл утверждает, что мы можем получить «немедленно» и «тривиально» [56] что:

(C2) Любая другая система, способная вызывать разум, должна была бы обладать причинными способностями (по крайней мере), эквивалентными возможностям мозга.
В мозгу должно быть что-то, что заставляет разум существовать. Науке еще предстоит точно определить, что это такое, но оно должно существовать, потому что существует разум. Сирл называет это «причинными силами». «Причинные силы» — это все, что мозг использует для создания разума. Если что-то еще может вызвать существование разума, оно должно обладать «эквивалентными причинными силами». «Эквивалентные причинные силы» — это все , что можно использовать для формирования разума.

И отсюда он делает дальнейшие выводы:

(C3) Любой артефакт, вызывающий психические явления, любой искусственный мозг, должен был бы быть в состоянии дублировать определенные причинные способности мозга, и он не мог бы сделать это, просто запустив формальную программу.
Это следует из C1 и C2: поскольку ни одна программа не может создать разум, а «эквивалентные причинные силы» создают разум, из этого следует, что программы не обладают «эквивалентными причинными силами».
(C4) Способ, которым человеческий мозг на самом деле производит психические явления, не может быть обусловлен исключительно запуском компьютерной программы.
Поскольку программы не обладают «эквивалентными причинными силами», «эквивалентные причинные силы» создают разум, а мозг производит разум, из этого следует, что мозг не использует программы для создания разума.

Опровержения аргументов Сирла принимают самые разные формы (см. ниже). Компьютеристы и функционалисты отвергают А3, утверждая, что «синтаксис» (как его описывает Сирл) может иметь «семантику», если синтаксис имеет правильную функциональную структуру. Элиминативные материалисты отвергают А2, утверждая, что разум на самом деле не имеет «семантики» — что мысли и другие психические явления по своей сути бессмысленны, но, тем не менее, функционируют так, как если бы они имели смысл.

Ответы на аргумент Сирла можно классифицировать в зависимости от того, что они якобы показывают: [м]

  • Те, которые определяют, кто говорит по-китайски
  • Те, которые демонстрируют, как бессмысленные символы могут стать значимыми.
  • Те, которые предполагают, что китайскую комнату следует каким-то образом переделать.
  • Те, кто утверждает, что аргумент Сирла вводит в заблуждение.
  • Те, которые утверждают, что этот аргумент делает ложные предположения о субъективном сознательном опыте и, следовательно, ничего не доказывает.

Некоторые аргументы (например, моделирование роботов и мозга) делятся на несколько категорий.

Системы и ответы виртуального разума: поиск разума

[ редактировать ]

Эти ответы пытаются ответить на вопрос: поскольку мужчина в комнате не говорит по-китайски, где же разум, который это говорит? Эти ответы затрагивают ключевые онтологические проблемы разума и тела , симуляции и реальности. Все ответы, идентифицирующие разум в комнате, являются версиями «ответа системы».

Ответ системы

[ редактировать ]

В базовой версии ответа системы утверждается, что именно «вся система» понимает китайский язык. [61] [н] Хотя человек понимает только английский, когда он объединяется с программой, бумагой для заметок, карандашами и картотекой, они образуют систему, способную понимать китайский язык. «Здесь понимание не приписывается простому индивидууму; оно скорее приписывается всей системе, частью которой он является», — объясняет Сирл. [31]

Сирл отмечает, что (в этой простой версии ответа) «система» представляет собой не что иное, как совокупность обычных физических объектов; он наделяет силой понимания и сознания «сочетание этого человека и кусочков бумаги». [31] не прилагая никаких усилий, чтобы объяснить, как эта куча предметов стала сознательным, мыслящим существом. Сирл утверждает, что ни один разумный человек не должен быть удовлетворен ответом, если только он не находится «во власти идеологии»; [31] Чтобы этот ответ был хотя бы отдаленно правдоподобным, нужно принять как должное, что сознание может быть продуктом «системы» обработки информации и не требует ничего, напоминающего реальную биологию мозга.

Затем Сирл отвечает, упрощая этот список физических объектов: он спрашивает, что произойдет, если человек запомнит правила и будет отслеживать все в своей голове? Тогда вся система состоит всего из одного объекта: самого человека. Сирл утверждает, что если человек не понимает китайского языка, то и система не понимает китайского языка, потому что теперь и «система», и «человек» описывают один и тот же объект. [31]

Критики ответа Сирла утверждают, что программа позволила этому человеку объединить два разума в одной голове. [ ВОЗ? ] Если мы предположим, что «разум» — это форма обработки информации, тогда теория вычислений может учитывать два вычисления, происходящие одновременно, а именно (1) вычисление универсальной программируемости (которое представляет собой функцию, реализуемую человеком, и ведение заметок). материалы независимо от какого-либо конкретного содержимого программы) и (2) вычисление машины Тьюринга, описываемое программой (которое создается всем, включая конкретную программу). [63] Таким образом, теория вычислений формально объясняет открытую возможность того, что второе вычисление в Китайской комнате может повлечь за собой семантическое понимание китайских входных данных, эквивалентное человеческому. Основное внимание уделяется машине Тьюринга программы, а не человеку. [64] Однако, с точки зрения Сирла, этот аргумент является зацикленным. Спорный вопрос заключается в том, является ли сознание формой обработки информации, и этот ответ требует, чтобы мы сделали это предположение.

Более сложные версии ответа системы пытаются более точно определить, что такое «система», и различаются тем, как именно они ее описывают. Судя по этим ответам, [ ВОЗ? ] «Разум, говорящий по-китайски», может представлять собой такие вещи, как: «программное обеспечение», «программа», «работающая программа», симуляция «нейронных коррелятов сознания», «функциональная система», «моделируемый разум». «, « эмерджентное свойство» или «виртуальный разум».

Ответ виртуального разума

[ редактировать ]

Марвин Мински предложил версию системного ответа, известную как «ответ виртуального разума». [the] Термин « виртуальный » используется в информатике для описания объекта, который кажется существующим «в» компьютере (или компьютерной сети) только потому, что программное обеспечение создает видимость его существования. Все объекты «внутри» компьютеров (включая файлы, папки и т. д.) являются «виртуальными», за исключением электронных компонентов компьютера. Точно так же Минский утверждает, что компьютер может содержать «разум», виртуальный в том же смысле, что и виртуальные машины , виртуальные сообщества и виртуальная реальность .

Чтобы прояснить разницу между ответом простой системы, приведенным выше, и ответом виртуального разума, Дэвид Коул отмечает, что в одной системе могут одновременно работать две симуляции: одна говорит по-китайски, а другая говорит по-корейски. Хотя существует только одна система, может быть несколько «виртуальных разумов», поэтому «система» не может быть «разумом». [68]

Сирл отвечает, что такой разум является в лучшем случае симуляцией, и пишет: «Никто не предполагает, что компьютерное моделирование пожара с пятью сигналами тревоги сожжет весь район или что компьютерное моделирование ливня оставит нас всех мокрыми». [69] Николас Ферн отвечает, что в некоторых вопросах симуляция ничуть не хуже реальности. «Когда мы вызываем функцию карманного калькулятора на настольном компьютере, на экране появляется изображение карманного калькулятора. Мы не жалуемся, что это не совсем калькулятор, поскольку физические характеристики устройства не имеют значения. " [70] Вопрос в том, подобен ли человеческий разум карманному калькулятору, состоящему по существу из информации, где идеальная симуляция всего лишь является вещью? Или разум подобен ливню, вещи в мире, которая представляет собой нечто большее, чем просто его симуляцию, и не может быть полностью реализована с помощью компьютерной симуляции? На протяжении десятилетий вопрос моделирования заставлял исследователей ИИ и философов задуматься о том, является ли термин « синтетический интеллект » более подходящим, чем обычное описание такого интеллекта как «искусственного».

Эти ответы дают объяснение того, кто именно понимает китайский язык. мужчины в комнате есть что-то Если кроме , кто понимает китайский язык, Сирл не может утверждать, что (1) этот мужчина не понимает китайский язык, следовательно (2) ничто в комнате не понимает китайский язык. По мнению тех, кто дает этот ответ, это показывает, что аргумент Сирла не может доказать, что «сильный ИИ» является ложным. [п]

Однако эти ответы сами по себе не дают никаких доказательств того, что сильный ИИ верен. Они не показывают, что система (или виртуальный разум) понимает китайский язык, за исключением гипотетической предпосылки, что она проходит тест Тьюринга. Сирл утверждает, что если мы хотим считать Сильный ИИ отдаленно правдоподобным, то Китайская комната является примером, требующим объяснения, и трудно или невозможно объяснить, как сознание могло бы «появиться» из комнаты или как система могла бы обладать сознанием. Как пишет Сирл, «ответ системы просто ставит вопрос, настаивая на том, что система должна понимать китайский язык». [31] и таким образом уклоняется от вопроса или безнадежно зацикливается.

Робот и ответы на семантику: в поисках смысла

[ редактировать ]

Для человека в комнате символы — это просто бессмысленные «закорючки». Но если китайская комната действительно «понимает» то, что говорит, тогда символы должны откуда-то получить свое значение. Эти аргументы пытаются связать символы с вещами, которые они символизируют. Эти ответы касаются обеспокоенности Сирла по поводу интенциональности , обоснования символов и синтаксиса в сравнении с семантикой .

Ответ робота

[ редактировать ]

Предположим, что вместо комнаты программу поместили в робота, который мог бродить и взаимодействовать с окружающей средой. Это позволило бы установить « причинную связь» между символами и вещами, которые они представляют. [72] [д] Ганс Моравец комментирует: «Если бы мы могли привить робота к программе рассуждения, нам больше не нужен был бы человек, который мог бы передавать смысл: он исходил бы из физического мира». [74] [р]

Ответ Сирла состоит в том, чтобы предположить, что без ведома человека, находившегося в китайской комнате, некоторые входные данные поступали непосредственно с камеры, установленной на роботе, а некоторые выходные данные использовались для манипулирования руками и ногами робота. Тем не менее, человек в комнате по-прежнему просто следует правилам и не знает, что означают символы. Сирл пишет: «Он не видит того, что бросается в глаза роботу». [76]

Производное значение

[ редактировать ]

Некоторые отвечают, что комната, как ее описывает Сирл, связана с миром: через говорящих на китайском языке, с которыми она «разговаривает», и через программистов, которые спроектировали базу знаний в его картотеке. Символы, которыми манипулирует Сирл, уже имеют смысл, но для него они просто не имеют значения. [77] [с]

Сирл говорит, что символы имеют только «производное» значение, подобное значению слов в книгах. Значение символов зависит от сознательного понимания говорящих по-китайски и программистов за пределами комнаты. Комната, как книга, не имеет собственного понимания. [т]

Контекстуалистический ответ

[ редактировать ]

Некоторые утверждали, что значения символов берут свое начало на обширном «фоне» здравого смысла , закодированном в программе и картотечных шкафах. Это обеспечило бы «контекст», который придал бы символам их значение. [75] [в]

Сирл согласен с тем, что такой фон существует, но не согласен с тем, что его можно встроить в программы. Хьюберт Дрейфус также раскритиковал идею о том, что «фон» может быть представлен символически. [80]

На каждое из этих предложений ответ Сирла один и тот же: сколько бы знаний ни было записано в программу и как бы программа ни была связана с миром, он все равно находится в комнате, манипулируя символами согласно правилам. Его действия синтаксичны, и это никогда не сможет объяснить ему, что означают символы. Сирл пишет: «Синтаксис недостаточен для семантики». [81] [v]

Однако для тех, кто признает, что действия Сирла имитируют разум, отдельный от его собственного, важным вопросом является не то, что символы означают для Сирла, а то, что они означают для виртуального разума. Хотя Сирл заперт в комнате, виртуальный разум — нет: он связан с внешним миром через говорящих по-китайски, с помощью программистов, которые передали ему мировые знания, а также через камеры и другие датчики, которые робототехники могут предоставить .

Моделирование мозга и ответы коннекционистов: редизайн комнаты

[ редактировать ]

Все эти аргументы представляют собой версии ответа системы, которые идентифицируют определенный тип системы как важный; они идентифицируют некую специальную технологию, которая могла бы создать в машине сознательное понимание. (Ответы «робот» и «здравый смысл» выше также указывают на важность определенного типа системы.)

Ответ на симулятор мозга

[ редактировать ]

Предположим, что программа детально смоделировала действие каждого нейрона мозга говорящего по-китайски. [83] [В] Это укрепляет интуицию о том, что существенной разницы между работой программы и работой живого человеческого мозга не будет.

Сирл отвечает, что такое моделирование не воспроизводит важные особенности мозга — его причинные и интенциональные состояния. Он непреклонен в том, что «человеческие психические явления [зависят] от реальных физико-химических свойств реального человеческого мозга». [28] Более того, он утверждает:

[Я] представляю, что вместо одноязычного человека в комнате, перетасовывающего символы, мы имеем человека, управляющего сложной системой водопроводных труб с соединяющими их клапанами. Когда мужчина получает китайские символы, он смотрит в программе, написанной на английском языке, какие клапаны ему нужно включать и выключать. Каждое водное соединение соответствует синапсу в китайском мозгу, и вся система устроена так, что после выполнения всех правильных включений, то есть после открытия всех правильных кранов, китайские ответы выскакивают в выходном конце серии. труб.Где же в этой системе понимание? Он принимает китайский язык на входе, моделирует формальную структуру синапсов китайского мозга и выдает китайский язык на выходе. Но этот человек определенно не понимает китайского языка, как и водопроводные трубы, и если мы склонны принять, как мне кажется, абсурдную точку зрения, которую каким-то образом понимает соединение человека и водопроводных труб, помните, что в принципе человек может усвоить формальную структуру водопроводных труб и проделать все «нейронные импульсы» в своем воображении. [85]

Китайский мозг
[ редактировать ]

Что, если мы попросим каждого гражданина Китая смоделировать один нейрон, используя телефонную систему для моделирования связей между аксонами и дендритами ? В этой версии кажется очевидным, что ни один человек не будет иметь никакого понимания того, что может говорить мозг. [86] [х] Также очевидно, что эта система функционально эквивалентна мозгу, поэтому, если сознание является функцией, эта система будет сознательной.

Сценарий замены мозга
[ редактировать ]

При этом нас просят представить, что инженеры изобрели крошечный компьютер, имитирующий действие отдельного нейрона. Что произойдет, если мы заменяем один нейрон за раз? Замена одного явно не изменит сознательное осознание. Замена их всех позволит создать цифровой компьютер, имитирующий мозг. Если Сирл прав, то сознательное осознание должно исчезнуть во время процедуры (либо постепенно, либо все сразу). Критики Сирла утверждают, что во время процедуры не было бы никакого смысла утверждать, что сознательное осознание заканчивается и начинается бездумное моделирование. [88] [и] [С] ( см. в «Корабле Тесея» Подобный мысленный эксперимент .)

Ответы коннекционистов

[ редактировать ]
Это утверждение тесно связано с ответом на симулятор мозга и утверждает, что массово-параллельная коннекционистская архитектура будет способна к пониманию. [аа] Современное глубокое обучение во многом параллельно и успешно демонстрирует интеллектуальное поведение во многих областях. Нильс Нильссон утверждает, что современный ИИ использует оцифрованные «динамические сигналы», а не символы, которые ИИ использовал в 1980 году. [51] В данном случае семантику будет иметь дискретный сигнал, а не отдельные числа, которыми управляет программа. Это машина другого типа, отличная от той, которую визуализировал Сирл.

Комбинированный ответ

[ редактировать ]
Этот ответ объединяет ответ робота с ответом симуляции мозга, утверждая, что симуляция мозга, связанная с миром через тело робота, может иметь разум. [93]

Много особняков / подождите до следующего года, ответьте

[ редактировать ]
Улучшенные технологии будущего позволят компьютерам понимать. [29] [аб] Сирл соглашается, что это возможно, но считает этот момент несущественным. Сирл согласен, что помимо мозга могут существовать и другие аппаратные средства, обладающие сознательным пониманием.

Эти аргументы (а также ответы робота или здравого смысла) определяют некую специальную технологию, которая поможет создать в машине сознательное понимание. Их можно интерпретировать двояко: либо они утверждают, что (1) эта технология необходима для сознания, китайская комната не реализует или не может реализовать эту технологию и, следовательно, китайская комната не может пройти тест Тьюринга, либо (даже если бы и прошла) не имело бы сознательного понимания. Или они могут утверждать, что (2) легче увидеть, что китайская комната обладает разумом, если мы визуализируем эту технологию как используемую для ее создания.

В первом случае, когда требуются такие функции, как тело робота или коннекционистская архитектура, Сирл утверждает, что от сильного ИИ (в его понимании) отказались. [и] Китайская комната имеет все элементы полной машины Тьюринга и, таким образом, способна моделировать любые цифровые вычисления. Если комната Сирла не может пройти тест Тьюринга, то не существует другой цифровой технологии, способной пройти тест Тьюринга. Если комната Сирла может пройти тест Тьюринга, но при этом не имеет разума, то теста Тьюринга недостаточно, чтобы определить, есть ли у комнаты «разум». В любом случае, это отрицает ту или иную позицию, которую Сирл называет «сильным ИИ», доказывая его аргумент.

Аргументы в пользу мозга, в частности, отрицают сильный ИИ, если предполагают, что нет более простого способа описать разум, чем создать программу, столь же загадочную, как и мозг. Он пишет: «Я думал, что вся идея сильного ИИ заключается в том, что нам не нужно знать, как работает мозг, чтобы знать, как работает разум». [29] По мнению Сирла, если вычисления не дают объяснения человеческого разума, то сильный ИИ потерпел неудачу.

Другие критики считают, что комната, как ее описал Сирл, на самом деле обладает разумом, однако они утверждают, что его трудно увидеть — описание Сирла верно, но вводит в заблуждение. Перепроектировав комнату более реалистично, они надеются сделать это более очевидным. В данном случае эти аргументы используются как апелляция к интуиции (см. следующий раздел).

На самом деле, комнату можно с легкостью перепроектировать, чтобы ослабить нашу интуицию. Блока Неда Аргумент болвана [94] что программу теоретически можно переписать в простую таблицу правил предполагает , вида «если пользователь пишет S , ответьте P и перейдите к X». По крайней мере, в принципе, любую программу можно переписать (или « рефакторить ») в такую ​​форму, даже симуляцию мозга. [объявление] В сценарии болвана все психическое состояние скрыто в букве X, которая представляет собой адрес памяти — число, связанное со следующим правилом. Трудно себе представить, что мгновение сознательного опыта можно уловить в одном большом количестве, но именно это утверждает «сильный ИИ». С другой стороны, такая таблица поиска была бы смехотворно большой (вплоть до физической невозможности), и поэтому состояния могли бы быть слишком конкретными.

Сирл утверждает, что независимо от того, написана ли программа или как бы машина ни была подключена к миру, разум моделируется простой пошаговой цифровой машиной (или машинами). Эти машины всегда такие же, как и люди в комнате: они ничего не понимают и не говорят по-китайски. Они просто манипулируют символами, не зная, что они означают. Сирл пишет: «Я могу иметь любую формальную программу, какую захотите, но я все равно ничего не понимаю». [10]

Скорость и сложность: апеллирует к интуиции

[ редактировать ]

Следующие аргументы (и интуитивная интерпретация приведенных выше аргументов) не объясняют напрямую, как разум, говорящий по-китайски, мог существовать в комнате Сирла или как символы, которыми он манипулирует, могли стать значимыми. Однако, подвергая сомнению интуицию Сирла, они поддерживают другие позиции, такие как ответы системы и роботов. Эти аргументы, если они будут приняты, не позволяют Сирлу утверждать, что его вывод очевиден, поскольку подрывают интуицию, которой требует его уверенность.

Некоторые критики полагают, что аргументы Сирла полностью основаны на интуиции. Блок пишет: «Сила аргумента Сирла зависит от интуиции, о которой некоторые сущности не думают». [95] Дэниел Деннетт описывает аргумент о китайской комнате как вводящий в заблуждение « насос интуиции ». [96] и пишет: «Мысленный эксперимент Сирла незаконно зависит от того, что вы вообразите слишком простой случай, не относящийся к делу случай, и сделаете из него очевидный вывод». [96]

Некоторые из приведенных выше аргументов также служат апелляцией к интуиции, особенно те, которые призваны создать более правдоподобную картину того, что в китайской комнате есть разум, который может включать в себя робота, здравый смысл, симуляцию мозга и коннекционистские ответы. Некоторые из приведенных выше ответов также затрагивают конкретную проблему сложности. В ответе коннекционистов подчеркивается, что работающая система искусственного интеллекта должна быть такой же сложной и взаимосвязанной, как человеческий мозг. В ответе на знание здравого смысла подчеркивается, что любая программа, прошедшая тест Тьюринга, должна быть «чрезвычайно гибкой, сложной и многослойной системой, наполненной «мировыми знаниями», мета-знаниями и мета-мета-знаниями», как Дэниел Деннетт. объясняет . [79]

Скорость и сложность ответов

[ редактировать ]

Многие из этих критических замечаний подчеркивают скорость и сложность человеческого мозга. [но] который обрабатывает информацию со скоростью 100 миллиардов операций в секунду (по некоторым оценкам). [98] Некоторые критики отмечают, что человеку в комнате, вероятно, потребуются миллионы лет, чтобы ответить на простой вопрос, и ему потребуются «шкафы для документов» астрономических размеров. [99] Это ставит под сомнение ясность интуиции Сирла.

Особенно яркая версия ответа на вопрос о скорости и сложности принадлежит Полу и Патриции Черчленд . Они предлагают аналогичный мысленный эксперимент: «Рассмотрим темную комнату, в которой находится человек, держащий в руках стержневой магнит или заряженный предмет. Если этот человек будет качать магнит вверх и вниз, то, согласно будет теории искусственной яркости Максвелла (АЛ), это инициируют распространяющийся круг электромагнитных волн и, таким образом, будут светиться. Но, как хорошо известно всем нам, кто играл с магнитами или заряженными шарами, их силы (или любые другие силы, если уж на то пошло), даже когда они приведены в движение, не производят свечения. все это немыслимо, чтобы можно было создать настоящую яркость, просто перемещая силы!» [87] Черчленд считает, что проблема в том, что ему придется махать магнитом вверх и вниз примерно 450 триллионов раз в секунду, чтобы что-то увидеть. [100]

Стеван Харнад критично относится к скорости и сложности ответов, когда они выходят за рамки нашей интуиции. Он пишет: «Некоторые создали культ скорости и времени, считая, что при ускорении до нужной скорости вычислительное может совершить фазовый переход в ментальное. Должно быть ясно, что это не контраргумент, а всего лишь ad hoc предположение ( как и мнение, что все это просто вопрос повышения до нужной степени «сложности».)» [101] [из]

Сирл утверждает, что его критики также полагаются на интуицию, однако интуиция его оппонентов не имеет эмпирической основы. Он пишет, что для того, чтобы считать «ответ системы» хотя бы отдаленно правдоподобным, человек должен находиться «во власти идеологии». [31] Ответ системы имеет смысл (по мнению Сёрла) только в том случае, если предположить, что любая «система» может обладать сознанием просто потому, что она является системой с правильным поведением и функциональными частями. Это предположение, утверждает он, несостоятельно, учитывая наш опыт сознания.

Другие разумы и зомби: бессмысленность

[ редактировать ]

В нескольких ответах утверждается, что аргумент Сирла неуместен, поскольку его предположения о разуме и сознании ошибочны. Сирл считает, что люди каждый день напрямую переживают свое сознание, интенциональность и природу разума, и что этот опыт сознания не подлежит сомнению. Он пишет, что мы должны «предполагать реальность и познаваемость психического». [104] Ответы ниже задаются вопросом, оправдано ли использование Сирлом своего собственного опыта сознания для определения того, что это нечто большее, чем просто механическая обработка символов. В частности, ответ «другой разум» утверждает, что мы не можем использовать наш опыт сознания для ответа на вопросы о других разумах (даже о разуме компьютера), а эпифенома отвечает на вопрос, можем ли мы вообще выдвигать какие-либо аргументы о чем-то вроде сознания, которое не может По определению, может быть обнаружен любым экспериментом, и элиминативный материалистический ответ утверждает, что собственное личное сознание Серла не «существует» в том смысле, в котором, по мнению Серла, оно существует.

Другие умы отвечают

[ редактировать ]

В «Ответе других разумов» указывается, что аргумент Сирла представляет собой версию проблемы других разумов , примененную к машинам. Мы не можем определить, совпадает ли субъективный опыт других людей с нашим собственным. Мы можем только изучить их поведение (т. е. применив для них собственный тест Тьюринга). Критики Сирла утверждают, что он предъявляет китайскую комнату к более высокому стандарту, чем мы бы придерживались к обычному человеку. [105] [в]

Нильс Нильссон пишет: «Если программа ведет себя так, как будто она умножает, большинство из нас сказали бы, что она на самом деле умножает. Насколько я знаю, Сирл может вести себя только так, как если бы он глубоко размышлял об этих вещах. Но хотя я с ним и не согласен, его симуляция довольно хороша, поэтому я хочу отдать ему должное за реальную мысль». [107]

Тьюринг предвосхитил линию аргументации Сирла (которую он назвал «Аргументом сознания») в 1950 году и заставил другие умы ответить. [108] Он отметил, что люди никогда не учитывают проблемы других умов, общаясь друг с другом. Он пишет, что «вместо того, чтобы постоянно спорить по этому поводу, обычно принято соблюдать вежливую условность, о которой все думают». [109] Тест Тьюринга просто распространяет это «вежливое соглашение» на машины. Он не намерен решать проблемы других разумов (машин или людей) и не считает, что нам это нужно. [ах]

Ответы, учитывая, что «сознание» Сирла необнаружимо.

[ редактировать ]

Если мы примем описание интенциональности, сознания и разума, данное Сирлом, мы будем вынуждены признать, что сознание эпифеноменально : что оно «не отбрасывает тени», то есть не обнаруживается во внешнем мире. «Причинные свойства» Сирла не могут быть обнаружены никем вне разума, иначе Китайская комната не смогла бы пройти тест Тьюринга - люди снаружи могли бы сказать, что в комнате нет говорящего по-китайски, обнаружив их причинные свойства. Поскольку они не могут обнаружить причинные свойства, они не могут обнаружить существование ментального. Таким образом, сирловские «каузальные свойства» и само сознание необнаружимы, а все, что не может быть обнаружено, либо не существует, либо не имеет значения.

Майк Алдер называет это «Ответом пылающего лазерного меча Ньютона». Он утверждает, что вся эта аргументация несерьезна, потому что она неверификационистская : не только различие между симуляцией разума и нечетким определением разума, но и неуместно, потому что никакие эксперименты не были и даже не могут быть предложены для того, чтобы различать эти два понятия. [111]

Дэниел Деннетт приводит такую ​​иллюстрацию: предположим, что в результате какой-то мутации рождается человек, который не обладает «причинными свойствами» Сёрла, но, тем не менее, действует точно так же, как человеческое существо. Это философский зомби , как это сформулировано в философии разума ). Это новое животное будет воспроизводиться так же, как и любой другой человек, и со временем таких зомби станет больше. Естественный отбор благоприятствовал бы зомби, поскольку их конструкция (как мы могли предположить) немного проще. В конце концов люди вымрут. Поэтому, если Сирл прав, то, скорее всего, люди (какими мы видим их сегодня) на самом деле являются «зомби», которые, тем не менее, настаивают на том, что обладают сознанием. Невозможно узнать, все ли мы зомби или нет. Даже если мы все зомби, мы все равно будем верить, что это не так. [112]

Элиминативный материалистический ответ

[ редактировать ]

Некоторые философы утверждают, что сознания, как его описывает Серл, не существует. Дэниел Деннетт описывает сознание как « иллюзию пользователя ». [113]

Эту позицию иногда называют элиминативным материализмом : точка зрения, согласно которой сознание — это не концепция, которая может «сводиться» к строго механическому описанию, а скорее концепция, которая будет просто устранена, как работает материальный как только будет полностью понято, мозг. , точно так же, как понятие демона уже исключено из науки, а не сведено к строго механическому описанию. Другие ментальные свойства, такие как исходная интенциональность (также называемая «значением», «содержанием» и «семантическим характером»), также обычно рассматриваются как особые свойства, связанные с убеждениями и другими пропозициональными установками. Элиминативный материализм утверждает, что пропозициональные установки, такие как убеждения и желания, среди других интенциональных психических состояний, имеющих содержание, не существуют. Если элиминативный материализм является правильным научным объяснением человеческого познания, то предположение аргумента китайской комнаты о том, что «сознание имеет ментальное содержание ( семантика) )» следует отклонить. [114]

Сирл не согласен с этим анализом и утверждает, что «изучение разума начинается с таких фактов, как то, что у людей есть убеждения, а у термостатов, телефонов и счетных машин их нет… мы хотели знать, что отличает разум от термостатов. и печень». [76] Он считает очевидным, что мы можем обнаружить присутствие сознания, и отвергает эти ответы как не относящиеся к делу.

Другие ответы

[ редактировать ]

Маргарет Боден в своей статье «Побег из китайской комнаты» утверждала, что даже если человек в комнате не понимает китайский язык, это не означает, что в комнате нет понимания. Человек в комнате, по крайней мере, понимает книгу правил, используемую для предоставления выходных ответов. [115]

См. также

[ редактировать ]

Примечания

[ редактировать ]
  1. ^ Перейти обратно: а б с См . § Сознание , в котором обсуждается взаимосвязь между аргументом китайской комнаты и сознанием.
  2. ^ Не путать с общим искусственным интеллектом , который также иногда называют «сильным ИИ». См . § Исследования сильного ИИ и исследования ИИ .
  3. ^ Перейти обратно: а б Эта версия взята из книги Сирла « Разум, язык и общество». [20] и также цитируется в книге Дэниела Деннета « Объяснение сознания» . [21] Первоначальная формулировка Сирла заключалась в следующем: «Правильно запрограммированный компьютер на самом деле является разумом в том смысле, что можно буквально сказать, что компьютеры с правильными программами понимают и имеют другие когнитивные состояния». [22] Сильный ИИ определяется аналогично Стюартом Дж. Расселом и Питером Норвигом : «слабый ИИ — машины идей могут действовать так, как если бы они были разумными, — и сильный ИИ — утверждения, которые делают это, на самом деле представляют собой сознательное мышление (а не просто симуляцию мышления). " [23]
  4. Обратите внимание, что Лейбниц возражал против «механической» теории разума (философской позиции, известной как механизм ). Сирл возражает против взгляда на разум, основанного на «обработке информации» (философская позиция, известная как « компьютерализм »). Сирл принимает механизм и отвергает вычислительность.
  5. Харнад редактировал журнал в те годы, когда был представлен и популяризирован аргумент о китайской комнате.
  6. ^ Перейти обратно: а б Харнад считает, что аргумент Сёрла противоречит тезису, который «с тех пор стал называться «вычислением», согласно которому познание — это всего лишь вычисление, следовательно, ментальные состояния — это всего лишь состояния вычислений». [18] Дэвид Коул соглашается, что «этот аргумент также имеет широкие последствия для функционалистских и вычислительных теорий смысла и разума». [19]
  7. Сирл считает, что «сильный ИИ имеет смысл только с учетом дуалистического предположения, что когда дело касается разума, мозг не имеет значения». [28] В другом месте он пишет: «Я думал, что вся идея сильного ИИ заключается в том, что нам не нужно знать, как работает мозг, чтобы знать, как работает разум». [29] Своей формулировкой эта позиция обязана Стевану Харнаду. [30]
  8. ^ «Один из спорных вопросов, — пишет Сирл, — это адекватность теста Тьюринга». [31]
  9. ^ Вычислительность связана с Джерри Фодором и Хилари Патнэм , [34] и принадлежит Аллену Ньюэллу , [30] Зенон Пилишин [30] и Стивен Пинкер , [35] среди других.
  10. ^ Ларри Хаузер пишет, что «биологический натурализм либо запутан (колеблется между теорией идентичности и дуализмом), либо это просто теория идентичности или дуализм». [39]
  11. Формулировки каждой аксиомы и вывода взяты из презентации Сирла в журнале Scientific American . [56] [57] (A1-3) и (C1) описаны как 1,2,3 и 4 у Дэвида Коула. [58]
  12. Пол и Патрисия Черчленд пишут, что мысленный эксперимент в китайской комнате призван «подкрепить аксиому 3». [59]
  13. ^ Дэвид Коул объединяет вторую и третью категории, а также четвертую и пятую. [60]
  14. Версии ответа системы принадлежат Неду Блоку , Джеку Коупленду , Дэниелу Деннетту , Джерри Фодору , Джону Хогеланду , Рэю Курцвейлу и Жоржу Рею , среди других. [62]
  15. ^ Ответ виртуального разума принадлежит Мински, [65] [66] Тим Модлин , Дэвид Чалмерс и Дэвид Коул. [67]
  16. ^ Дэвид Коул пишет: «Исходя из интуиции, что в мысленном эксперименте CR он не поймет китайский язык, запустив программу, Сирл делает вывод, что не существует никакого понимания, созданного путем запуска программы. Очевидно, что этот вывод действителен или нет, включает метафизический вопрос о идентичности людей и умов. Если понимающий человек не тождественен оператору комнаты, то вывод необоснован». [71]
  17. ^ Эту должность занимают , среди прочих, Маргарет Боден , Тим Крейн , Дэниел Деннетт , Джерри Фодор , Стеван Харнад , Ганс Моравец и Жорж Рей . [73]
  18. ^ Дэвид Коул называет это «экстерналистским» пониманием смысла. [75]
  19. ^ Ответ производного значения связан с Дэниелом Деннетом и другими.
  20. ^ Сирл различает «внутреннюю» интенциональность и «производную» интенциональность. «Внутренняя» интенциональность предполагает «сознательное понимание», подобное человеческому разуму. Дэниел Деннетт не согласен с тем, что существует различие. Дэвид Коул пишет: «По мнению Деннета, производная интенциональность — это все, что есть». [78]
  21. ^ Дэвид Коул описывает это как «интерналистский» подход к значению. [75] Сторонниками этой позиции являются Роджер Шанк , Дуг Ленат , Марвин Мински и (с оговорками) Дэниел Деннетт , который пишет: «Дело в том, что любая программа [прошедшая тест Тьюринга] должна быть чрезвычайно гибкой, сложной и многоуровневой системой». , наполненный «мировым знанием», мета-знанием и мета-мета-знанием». [79]
  22. ^ Сирл также пишет: «Формальных символов самих по себе никогда не может быть достаточно для ментального содержания, потому что символы по определению не имеют значения (или интерпретации , или семантики), за исключением того, что кто-то вне системы придает им его». [82]
  23. ^ Ответ на симуляцию мозга дали Пол Черчленд , Патриция Черчленд и Рэй Курцвейл . [84]
  24. ^ Ранние версии этого аргумента были выдвинуты в 1974 году Лоуренсом Дэвисом и в 1978 году Недом Блоком . Версия Блока использовала рации и называлась «Китайский тренажерный зал». Пол и Патрисия Черчленд также описали этот сценарий. [87]
  25. Ранняя версия сценария замены мозга была выдвинута Кларком Глимуром в середине 70-х годов и затронута Зеноном Пилишиным в 1980 году. Ганс Моравец представил яркую версию этого сценария: [89] и теперь это ассоциируется с Рэя Курцвейла версией трансгуманизма .
  26. Сирл не рассматривает сценарий замены мозга как аргумент против CRA, однако в другом контексте Сирл исследует несколько возможных решений, включая возможность того, что «вы, к своему полному изумлению, обнаружите, что действительно теряете контроль над своим внешним поведением». Например, вы обнаруживаете, что, когда врачи проверяют ваше зрение, вы слышите, как они говорят: «Мы держим перед вами красный предмет, пожалуйста, скажите нам, что вы видите». Вам хочется закричать: «Я ничего не вижу, я полностью ослепну». Но вы слышите свой голос, говорящий совершенно вне вашего контроля: «Я вижу перед собой красный объект». [...] [В]аш сознательный опыт постепенно сводится к нулю, в то время как ваше внешне наблюдаемое поведение остается прежним». [90]
  27. Коннекционистский ответ дали Энди Кларк и Рэй Курцвейл , [91] а также Пол и Патрисия Черчленд . [92]
  28. ^ Сирл (2009) использует название «Подождите, пока ответ в следующем году».
  29. Сирл пишет, что ответ робота «молчаливо признает, что познание — это не только вопрос формального манипулирования символами». [76] Стеван Харнад высказывает то же самое, написав: «Отрицание того, что [тест Тьюринга] является достаточно сильным тестом, или отрицание того, что компьютер может когда-либо пройти его, не является опровержением (а скорее подтверждением) CRA». , это всего лишь особый призыв попытаться спасти вычислительный подход, оговорив ad hoc (перед лицом CRA), что детали реализации все-таки имеют значение и что компьютерная реализация является «правильной» реализацией, тогда как реализация Сирла — «неправильной». ' добрый." [53]
  30. ^ То есть любая программа, работающая на машине с ограниченным объемом памяти.
  31. ^ Ответы о скорости и сложности даны Дэниелом Деннеттом , Тимом Модлином , Дэвидом Чалмерсом , Стивеном Пинкером , Полом Черчлендом , Патрицией Черчленд и другими. [97] Дэниел Деннетт указывает на сложность мировых знаний. [79]
  32. ^ Критики формы «фазового перехода» этого аргумента включают Стевана Харнада, Тима Модлина , Дэниела Деннета и Дэвида Коула. [97] Эта идея «фазового перехода» является разновидностью сильного эмерджентизма (то, что Деннетт высмеивает как «у-у-у появление на Западном побережье»). [102] ). Харнад обвиняет Черчленда и Патрицию Черчленд в поддержке сильного эмерджентизма. Рэй Курцвейл также придерживается определенной формы сильного эмерджентизма. [103]
  33. Ответ «другие умы» был предложен, среди прочих, Деннеттом, Курцвейлом и Гансом Моравецом . [106]
  34. Одна из причин, побудивших Тьюринга разработать тест Тьюринга , состоит в том, чтобы избежать именно тех философских проблем, которые интересуют Сирла. Он пишет: «Я не хочу создавать впечатление, будто в этом нет никакой тайны… [но] я не думайте, что эти загадки обязательно нужно разгадать, прежде чем мы сможем ответить на вопрос, который нас интересует в этой статье». [110]
  1. ^ Перейти обратно: а б Сирл 1980 .
  2. ^ Перейти обратно: а б Харнад 2001 , с. 1.
  3. ^ Робертс 2016 .
  4. ^ Перейти обратно: а б с Сирл 1992 , с. 44.
  5. ^ Перейти обратно: а б с Рассел и Норвиг 2021 , с. 986.
  6. ^ Перейти обратно: а б с Сирл 1980 , с. 11.
  7. ^ Searle 1980 , стр. 1–2, «Сторонники сильного ИИ утверждают, что в этой последовательности вопросов и ответов машина не только имитирует человеческие способности, но также (1) что можно буквально сказать, что машина понимает историю и предоставляет ответы на вопросы и (2) то, что делают машина и ее программа, объясняет способность человека понимать историю и отвечать на вопросы о ней».
  8. ^ Searle 1980 , стр. 1–2, «согласно Strong AI, правильная симуляция на самом деле является разумом. Согласно Weak AI, правильная симуляция — это модель разума».
  9. ^ Сирл 2004 , с. 66.
  10. ^ Перейти обратно: а б Сирл 1980 , с. 3.
  11. ^ Коул 2004 , 2.1; Лейбниц 1714 , раздел 17.
  12. ^ «История русской китайской комнаты, предшествовавшая дискуссии Сирла 1980 года» , Центр исследований сознания , 15 июня 2018 г., заархивировано из оригинала 16 мая 2021 г. , получено 9 января 2019 г.
  13. ^ Коул 2004 , 2.3.
  14. ^ Коул 2004 , с. 2; Престон и Бишоп, 2002 г.
  15. ^ Перейти обратно: а б Харнад 2001 , с. 2.
  16. ^ Харнад 2001 , с. 1; Коул 2004 , с. 2
  17. ^ Акман 1998 .
  18. ^ Харнад 2005 , с. 1.
  19. ^ Коул 2004 , с. 1.
  20. ^ Сирл 1999 , с. [ нужна страница ] .
  21. ^ Деннетт 1991 , с. 435.
  22. ^ Перейти обратно: а б Сирл 1980 , с. 1.
  23. ^ Перейти обратно: а б Рассел и Норвиг 2021 , с. 981.
  24. ^ Сирл 2009 , с. 1.
  25. ^ Цитируется по McCorduck 2004 , с. 138.
  26. ^ Цитируется по Crevier 1993 , с. 46
  27. ^ Хаугеланд 1985 , с. 2 (курсив его)
  28. ^ Перейти обратно: а б с Сирл 1980 , с. 13.
  29. ^ Перейти обратно: а б с Сирл 1980 , с. 8.
  30. ^ Перейти обратно: а б с д Харнад 2001 .
  31. ^ Перейти обратно: а б с д и ж г Сирл 1980 , с. 6.
  32. ^ Сирл 2004 , с. 45.
  33. ^ Харнад 2001 , с. 3 (курсив его)
  34. ^ Хорст 2005 , с. 1.
  35. ^ Пинкер 1997 .
  36. ^ Харнад 2001 , стр. 3–5.
  37. ^ Сирл 1990a , с. 29.
  38. ^ Сирл 1990b .
  39. ^ Перейти обратно: а б с Хаузер 2006 , с. 8.
  40. ^ Сирл 1992 , гл. 5.
  41. ^ Сирл 2002 .
  42. ^ Чалмерс 1996 , с. 322.
  43. ^ Макгинн 2000 .
  44. ^ Сирл 1980 , с. 418.
  45. ^ Хью 2016 .
  46. ^ Курцвейл 2005 , с. 260.
  47. ^ Сайгин, Чичекли и Акман 2000 .
  48. ^ Перейти обратно: а б Тьюринг 1950 год .
  49. ^ Ньюэлл и Саймон 1976 , с. 116.
  50. ^ Рассел и Норвиг 2021 , с. 19.
  51. ^ Перейти обратно: а б Нильссон 2007 .
  52. ^ Тьюринг 1950 , с. 442.
  53. ^ Перейти обратно: а б Харнад 2001 , с. 14.
  54. ^ Ben-Yami 1993 .
  55. ^ Сирл 1984 ; Сирл 1990а .
  56. ^ Перейти обратно: а б Сирл 1990а .
  57. ^ Хаузер 2006 , с. 5.
  58. ^ Коул 2004 , с. 5.
  59. ^ Черчленд и Черчленд 1990 , с. 34.
  60. ^ Коул 2004 , стр. 5–6.
  61. ^ Сирл 1980 , стр. 5–6; Коул, 2004 г. , стр. 6–7; Хаузер 2006 , стр. 2–3; Деннетт 1991 , с. 439; Ферн 2007 , с. 44; Кревье 1993 , с. 269.
  62. ^ Коул 2004 , с. 6.
  63. ^ Йи 1993 , с. 44, сноска 2.
  64. ^ Йи 1993 , стр. 42–47.
  65. ^ Минский 1980 , с. 440.
  66. ^ Коул 2004 , с. 7.
  67. ^ Коул 2004 , стр. 7–9.
  68. ^ Коул 2004 , с. 8.
  69. ^ Сирл 1980 , с. 12.
  70. ^ Ферн 2007 , с. 47.
  71. ^ Коул 2004 , с. 21.
  72. ^ Сирл 1980 , с. 7; Коул, 2004 г. , стр. 9–11; Хаузер 2006 , с. 3; Ферн 2007 , с. 44.
  73. ^ Коул 2004 , с. 9.
  74. ^ Цитируется по Crevier 1993 , с. 272
  75. ^ Перейти обратно: а б с Коул 2004 , с. 18.
  76. ^ Перейти обратно: а б с Сирл 1980 , с. 7.
  77. ^ Хаузер 2006 , с. 11; Коул 2004 , с. 19.
  78. ^ Коул 2004 , с. 19.
  79. ^ Перейти обратно: а б с Деннетт 1991 , с. 438.
  80. ^ Дрейфус 1979 , « Эпистемологическое предположение».
  81. ^ Сирл 1984 .
  82. ^ Моцкин и Сирл 1989 , с. 45.
  83. ^ Сирл 1980 , стр. 7–8; Коул 2004 , стр. 12–13; Хаузер 2006 , стр. 3–4; Черчленд и Черчленд 1990 .
  84. ^ Коул 2004 , с. 12.
  85. ^ Сирл 1980 , с. [ нужна страница ] .
  86. ^ Коул 2004 , с. 4; Хаузер 2006 , с. 11.
  87. ^ Перейти обратно: а б Черчленд и Черчленд 1990 .
  88. ^ Коул 2004 , с. 20; Моравец 1988 ; Курцвейл 2005 , с. 262; Кревье 1993 , стр. 271 и 279.
  89. ^ Моравец 1988 .
  90. ^ Сирл 1992 .
  91. ^ Коул 2004 , стр. 12 и 17.
  92. ^ Хаузер 2006 , с. 7.
  93. ^ Сирл 1980 , стр. 8–9; Хаузер 2006 , с. 11.
  94. ^ Блок 1981 .
  95. ^ Цитируется по Коулу 2004 , с. 13.
  96. ^ Перейти обратно: а б Деннетт 1991 , стр. 437–440.
  97. ^ Перейти обратно: а б Коул 2004 , с. 14.
  98. ^ Кревье 1993 , с. 269.
  99. ^ Коул 2004 , стр. 14–15; Кревье, 1993 , стр. 269–270; Пинкер 1997 , с. 95.
  100. ^ Черчленд и Черчленд 1990 ; Коул 2004 , с. 12; Кревье 1993 , с. 270; Fearn 2007 , стр. 45–46; Пинкер 1997 , с. 94.
  101. ^ Харнад 2001 , с. 7.
  102. ^ Кревье 1993 , с. 275.
  103. ^ Курцвейл 2005 .
  104. ^ Сирл 1980 , с. 10.
  105. ^ Сирл 1980 , с. 9; Коул 2004 , с. 13; Хаузер 2006 , стр. 4–5; Нильссон 1984 .
  106. ^ Коул 2004 , стр. 12–13.
  107. ^ Нильссон 1984 .
  108. ^ Тьюринг 1950 , стр. 11–12.
  109. ^ Тьюринг 1950 , с. 11.
  110. ^ Тьюринг 1950 , с. 12.
  111. ^ Возраст 2004 г.
  112. ^ Коул 2004 , с. 22; Кревье 1993 , с. 271; Харнад 2005 , с. 4.
  113. ^ Деннетт 1991 , [ нужна страница ] .
  114. ^ Рэмси 2022 .
  115. ^ Боден, Маргарет А. (1988), «Побег из китайской комнаты», в Хайле, Джоне (редактор), Компьютерные модели разума , Cambridge University Press, ISBN  978-0-521-24868-6

Дальнейшее чтение

[ редактировать ]
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 11495e873a5d3ed5dc4476ae30178f27__1722658560
URL1:https://arc.ask3.ru/arc/aa/11/27/11495e873a5d3ed5dc4476ae30178f27.html
Заголовок, (Title) документа по адресу, URL1:
Chinese room - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)