~~~~~~~~~~~~~~~~~~~~ Arc.Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~ 
Номер скриншота №:
✰ EF1E5ED32C529CD91AA86F48A78088B7__1718758260 ✰
Заголовок документа оригинал.:
✰ Chinese room - Wikipedia ✰
Заголовок документа перевод.:
✰ Китайская комната — Википедия ✰
Снимок документа находящегося по адресу (URL):
✰ https://en.wikipedia.org/wiki/Strong_AI_hypothesis ✰
Адрес хранения снимка оригинал (URL):
✰ https://arc.ask3.ru/arc/aa/ef/b7/ef1e5ed32c529cd91aa86f48a78088b7.html ✰
Адрес хранения снимка перевод (URL):
✰ https://arc.ask3.ru/arc/aa/ef/b7/ef1e5ed32c529cd91aa86f48a78088b7__translat.html ✰
Дата и время сохранения документа:
✰ 22.06.2024 20:03:29 (GMT+3, MSK) ✰
Дата и время изменения документа (по данным источника):
✰ 19 June 2024, at 03:51 (UTC). ✰ 

~~~~~~~~~~~~~~~~~~~~~~ Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~~ 
Сервисы Ask3.ru: 
 Архив документов (Снимки документов, в формате HTML, PDF, PNG - подписанные ЭЦП, доказывающие существование документа в момент подписи. Перевод сохраненных документов на русский язык.)https://arc.ask3.ruОтветы на вопросы (Сервис ответов на вопросы, в основном, научной направленности)https://ask3.ru/answer2questionТоварный сопоставитель (Сервис сравнения и выбора товаров) ✰✰
✰ https://ask3.ru/product2collationПартнерыhttps://comrades.ask3.ru


Совет. Чтобы искать на странице, нажмите Ctrl+F или ⌘-F (для MacOS) и введите запрос в поле поиска.
Arc.Ask3.ru: далее начало оригинального документа

Китайская комната — Википедия Jump to content

Китайская комната

Из Википедии, бесплатной энциклопедии
(Перенаправлено из гипотезы сильного ИИ )

Аргумент китайской комнаты утверждает, что цифровой компьютер, выполняющий компьютерную программу, не может иметь « разума », « понимания » или « сознания ». [а] независимо от того, насколько разумно или человекоподобно программа может заставить компьютер вести себя. Философ Джон Сирл представил этот аргумент в своей статье «Сознание, мозг и программы», опубликованной в журнале Behavioral and Brain Sciences в 1980 году. [1] Готфрид Лейбниц (1714 г.), Анатолий Днепров (1961 г.), Лоуренс Дэвис (1974 г.) и Нед Блок (1978 г.) представили аналогичные аргументы. С тех пор версия Сирла широко обсуждалась. [2] Центральным элементом аргументации Сирла является мысленный эксперимент, известный как «Китайская комната» . [3]

Аргумент направлен против позиций функционализма компьютерализма и . философских [4] которые утверждают, что разум можно рассматривать как систему обработки информации, оперирующую формальными символами, и что для его присутствия достаточно моделирования данного психического состояния. В частности, этот аргумент призван опровергнуть позицию, которую Серл называет сильной гипотезой ИИ : [б] «Правильно запрограммированный компьютер с правильными входами и выходами, таким образом, будет обладать разумом точно в том же смысле, в котором разум есть у людей». [с]

Хотя его сторонники первоначально представили этот аргумент в ответ на заявления исследователей искусственного интеллекта (ИИ), он не является аргументом против целей основных исследований ИИ, поскольку не показывает предела «разумного» поведения, которое может проявлять машина. . [5] Этот аргумент применим только к цифровым компьютерам, на которых выполняются программы, и не применим к машинам в целом. [6]

Мысленный эксперимент китайской в комнате

Сирла Мысленный эксперимент начинается с этой гипотетической предпосылки: предположим, что исследования искусственного интеллекта преуспели в создании компьютера, который ведет себя так, как если бы он понимал китайский язык . Он принимает китайские иероглифы в качестве входных данных и, следуя инструкциям компьютерной программы , создает другие китайские иероглифы, которые представляют в качестве выходных данных. Предположим, говорит Сирл, что этот компьютер выполняет свою задачу настолько убедительно, что легко проходит тест Тьюринга : он убеждает человека, говорящего по-китайски, в том, что программа сама является живым говорящим по-китайски. На все вопросы, которые задает человек, он дает соответствующие ответы, так что любой говорящий по-китайски будет убежден, что он разговаривает с другим человеком, говорящим по-китайски.

Вопрос, на который Сирл хочет ответить, заключается в следующем: «понимает» ли машина китайский язык в буквальном смысле ? Или это просто имитация способности понимать китайский язык? [7] [д] Сирл называет первую позицию «сильным ИИ», а вторую — «слабым ИИ». [Это]

Затем Сирл предполагает, что он находится в закрытой комнате и имеет книгу с английской версией компьютерной программы, а также достаточное количество бумаги, карандашей, ластиков и шкафов для документов. Сирл мог получать китайские иероглифы через щель в двери, обрабатывать их в соответствии с инструкциями программы и выводить китайские иероглифы на выходе, не понимая никакого содержания китайского письма. Если бы компьютер прошел тест Тьюринга таким образом, то, говорит Сирл, он бы сделал то же самое, просто запустив программу вручную.

Сирл утверждает, что нет существенной разницы между ролями компьютера и им самим в эксперименте. Каждый просто шаг за шагом следует программе, создавая поведение, которое затем интерпретируется пользователем как демонстрация разумного разговора. Однако сам Сирл не смог понять разговора. («Я не говорю ни слова по-китайски», [10] — указывает он.) Следовательно, утверждает он, из этого следует, что компьютер тоже не сможет понять разговор.

Сирл утверждает, что без «понимания» (или « интенциональности ») мы не можем описать то, что делает машина, как «думание», и, поскольку она не думает, у нее нет «разума» в чем-либо похожем на нормальный смысл слова. слово. Поэтому он заключает, что гипотеза «сильного ИИ» ложна.

История [ править ]

Готфрид Лейбниц в 1714 году выдвинул аналогичный аргумент против механизма (идея о том, что все, что составляет человека, в принципе можно объяснить в механических терминах. Другими словами, человек, включая его разум, представляет собой всего лишь очень сложную машину). . Лейбниц использовал мысленный эксперимент по расширению мозга до размеров мельницы . [11] Лейбницу было трудно представить, что «разум», способный к «восприятию», может быть построен с использованием только механических процессов. [ф]

Питер Винч высказал то же самое в своей книге « Идея социальной науки и ее отношение к философии» (1958), где он приводит аргументы, показывающие, что «человек, понимающий китайский язык, не является человеком, который твердо разбирается в статистических данных». вероятности появления различных слов в китайском языке» (с.108).

Советский кибернетик Анатолий Днепров выдвинул по существу идентичный аргумент в 1961 году в форме рассказа « Игра ». В нем стадион людей действует как переключатели и ячейки памяти, реализующие программу перевода предложения на португальский язык, язык, которого никто из них не знает. [12] Игру организовал «Профессор Зарубин» для ответа на вопрос «Могут ли мыслить математические машины?» Выступая через Зарубина, Днепров пишет: «Единственный способ доказать, что машины могут думать, — это превратить себя в машину и изучить свой мыслительный процесс», и заключает, как и Серл: «Мы доказали, что даже самая совершенная симуляция машины мышление — это не сам процесс мышления».

В 1974 году Лоуренс Дэвис представил, как можно дублировать мозг с помощью телефонных линий и офисов, укомплектованных людьми, а в 1978 году Нед Блок представил, что все население Китая будет участвовать в таком моделировании мозга. Этот мысленный эксперимент называется « Китайский мозг» , также «Китайская нация» или «Китайский тренажерный зал». [13]

Джон Сирл в декабре 2005 года

Версия Сирла появилась в его статье 1980 года «Сознание, мозг и программы», опубликованной в журнале Behavioral and Brain Sciences . [1] В конечном итоге она стала «самой влиятельной целевой статьей журнала». [2] породив огромное количество комментариев и ответов в последующие десятилетия, и Сирл продолжал защищать и уточнять эту аргументацию во многих статьях, популярных статьях и книгах. Дэвид Коул пишет, что «аргумент китайской комнаты, вероятно, был наиболее широко обсуждаемым философским аргументом в когнитивной науке, появившимся за последние 25 лет». [14]

Большая часть дискуссии состоит из попыток его опровергнуть. «Подавляющее большинство», — отмечает BBS редактор Стеван Харнад , — [г] «Все еще думаю, что аргумент о китайской комнате совершенно неверен». [15] Огромный объем литературы, выросшей вокруг нее, вдохновил Пэта Хейса прокомментировать, что область когнитивной науки следует переопределить как «непрерывную исследовательскую программу, направленную на то, чтобы доказать ложность аргумента Сирла о китайской комнате». [16]

По словам Харнада, аргумент Сирла стал «чем-то вроде классики в когнитивной науке». [15] Варол Акман согласен и назвал оригинальную статью «образцом философской ясности и чистоты». [17]

Философия [ править ]

Хотя аргумент «Китайской комнаты» изначально был представлен как реакция на заявления исследователей искусственного интеллекта , философы стали рассматривать его как важную часть философии разума . Это вызов функционализму и вычислительной теории разума . [час] и связано с такими вопросами, как проблема разума и тела , проблема других разумов , проблема обоснования символов и трудная проблема сознания . [а]

Сильный editИИ

Сирл определил философскую позицию , которую он называет «сильным ИИ»:

Таким образом, правильно запрограммированный компьютер с правильными входами и выходами будет обладать разумом точно в том же смысле, в котором разум есть у людей. [с]

Определение зависит от различия между симуляцией разума и реальным наличием разума. Сирл пишет, что «согласно «Сильному ИИ» правильная симуляция на самом деле является разумом. Согласно «Слабому ИИ» правильная симуляция — это модель разума». [8]

Это утверждение неявно содержится в некоторых заявлениях первых исследователей и аналитиков ИИ. Например, в 1955 году основатель искусственного интеллекта Герберт А. Саймон заявил, что «теперь в мире существуют машины, которые думают, учатся и создают». [24] Саймон вместе с Алленом Ньюэллом и Клиффом Шоу после завершения первой программы, которая могла выполнять формальные рассуждения Теоретик логики» ), заявили, что они «решили почтенную проблему разума и тела , объяснив, как система, состоящая из материи, может иметь свойства ума ». [25] Джон Хаугеланд писал, что «ИИ хочет только настоящего предмета: машин с разумом в полном и буквальном смысле. Это не научная фантастика, а настоящая наука, основанная на теоретической концепции, столь же глубокой, сколь и смелой: а именно, мы есть, в корне сами компьютеры ». [26]

Сирл также приписывает сторонникам сильного ИИ следующие утверждения:

  • Системы искусственного интеллекта можно использовать для объяснения разума; [Это]
  • Изучение мозга не имеет отношения к изучению ума; [я] и
  • Тест Тьюринга достаточен для установления существования психических состояний. [Дж]

Сильный ИИ как вычислительный функционализм или подход

В более поздних презентациях аргумента о китайской комнате Сирл определил «сильный ИИ» как «компьютерный функционализм » (термин, который он приписывает Дэниелу Деннетту ). [4] [31] Функционализм — это позиция в современной философии сознания , которая утверждает, что мы можем определять психические явления (такие как убеждения, желания и восприятия), описывая их функции по отношению друг к другу и к внешнему миру. поскольку компьютерная программа может точно представлять Согласно функционализму, функциональные отношения как отношения между символами, компьютер может иметь ментальные явления, если он запускает правильную программу.

Стеван Харнад утверждает, что изображения сильного ИИ, предложенные Сирлом, можно переформулировать как «узнаваемые принципы вычислительной техники , позицию (в отличие от «сильного ИИ»), которой на самом деле придерживаются многие мыслители, и, следовательно, ее стоит опровергнуть». [32] Вычислительность [к] — это позиция в философии разума, которая утверждает, что разум можно точно описать как систему обработки информации .

По мнению Харнада, каждое из следующих утверждений является «принципом» компьютерализма: [35]

  • Ментальные состояния — это вычислительные состояния (именно поэтому компьютеры могут иметь ментальные состояния и помогать объяснять разум);
  • Вычислительные состояния не зависят от реализации — другими словами, именно программное обеспечение определяет вычислительное состояние, а не аппаратное обеспечение (именно поэтому мозг, будучи аппаратным обеспечением, не имеет значения); и это
  • Поскольку реализация не важна, единственные эмпирические данные, которые имеют значение, — это то, как функционирует система; следовательно, тест Тьюринга является окончательным.

биологического натурализма против Сильный ИИ

Сирл придерживается философской позиции, которую он называет « биологическим натурализмом »: сознание [а] и понимание требует наличия особых биологических механизмов, находящихся в мозге. Он пишет: «Мозги порождают разум». [6] и что «реальные человеческие психические явления [зависят] от реальных физико-химических свойств реального человеческого мозга». [36] Сирл утверждает, что этот механизм (известный в нейробиологии как « нейронные корреляты сознания ») должен обладать некоторыми причинными силами, которые позволяют человеческому опыту сознания. [37] Вера Сирла в существование этих сил подверглась критике. [л]

Сирл не согласен с представлением о том, что машины могут обладать сознанием и пониманием, поскольку, как он пишет, «мы именно такие машины». [6] Сирл считает, что мозг на самом деле является машиной, но мозг порождает сознание и понимание с помощью особых механизмов. Если нейробиология способна изолировать механический процесс, порождающий сознание, то Сирл допускает, что возможно создать машины, обладающие сознанием и пониманием. Однако Сирл не верит, что сознание может возникнуть без специального оборудования.

Биологический натурализм подразумевает, что невозможно определить, происходит ли переживание сознания, просто исследуя, как функционирует система, поскольку важен специфический механизм мозга. Таким образом, биологический натурализм прямо противоположен как бихевиоризму , так и функционализму (включая «компьютерный функционализм» или «сильный ИИ»). [38] Биологический натурализм похож на теорию идентичности (позиция, согласно которой психические состояния «идентичны» неврологическим событиям или «состоят из них»); однако у Сирла есть конкретные технические возражения против теории идентичности. [39] [м] Биологический натурализм Сирла и сильный искусственный интеллект противостоят картезианскому дуализму . [38] классическая идея о том, что мозг и разум состоят из разных «веществ». Действительно, Сирл обвиняет сильный ИИ в дуализме, написав, что «сильный ИИ имеет смысл только с учетом дуалистического предположения, что когда дело касается разума, мозг не имеет значения». [27]

Сознание [ править ]

В первоначальной презентации Сирла подчеркивалось «понимание» — то есть психические состояния с тем, что философы называют « интенциональностью », — и не затрагивалось напрямую другие тесно связанные идеи, такие как «сознание». Однако в более поздних презентациях Сирл включил сознание в качестве реальной цели аргумента. [4]

Вычислительные модели сознания сами по себе недостаточны для существования сознания. Вычислительная модель сознания соотносится с сознанием так же, как вычислительная модель чего-либо соотносится с моделируемой областью. Никто не предполагает, что вычислительная модель ливней в Лондоне оставит нас всех мокрыми. Но они допускают ошибку, полагая, что вычислительная модель сознания каким-то образом сознательна. В обоих случаях это одна и та же ошибка. [40]

- Джон Р. Сирл, Сознание и язык , с. 16

Дэвид Чалмерс пишет: «Совершенно очевидно, что в основе всего лежит сознание» китайской комнаты. [41]

Колин Макгинн утверждает, что «Китайская комната» убедительно доказывает, что трудная проблема сознания принципиально неразрешима. Чтобы внести ясность, спор идет не о том, может ли машина быть сознательной, а о том, можно ли показать, что она (или что-то еще) обладает сознанием. Ясно, что любой другой метод допроса обитателя китайской комнаты имеет в принципе те же трудности, что и обмен вопросами и ответами на китайском языке. Просто невозможно предугадать, обитает ли в комнате сознательная сила или какая-то хитрая симуляция. [42]

Сирл утверждает, что это верно только для наблюдателя за пределами комнаты. Весь смысл мысленного эксперимента состоит в том, чтобы поместить кого-нибудь в комнату, где он сможет непосредственно наблюдать за действиями сознания. Сирл утверждает, что со своей точки зрения в комнате он не видит ничего, что могло бы вообразить возникновение сознания, кроме него самого, и очевидно, что у него нет разума, способного говорить по-китайски. По словам Сирлза, «у компьютера нет ничего больше, чем у меня в случае, когда я ничего не понимаю». [43]

Прикладная этика [ править ]

Сидение в боевом информационном центре на борту военного корабля — предложенный как реальный аналог китайской комнаты.

Патрик Хью использовал аргумент китайской комнаты, чтобы вывести требования к системам военного командования и контроля командира , если они хотят сохранить моральную свободу . Он провел аналогию между командиром в их командном центре и человеком в Китайской комнате и проанализировал ее, читая понятия Аристотеля о «принуждении» и «невежестве» . Информация может быть «преобразована вниз» из значения в символы и ею можно символически манипулировать, но моральная свобода действий может быть подорвана, если произойдет неадекватное «преобразование вверх» в смысл. Хью привел примеры с авианосцем « Винсеннес инцидента » . [44]

Информатика [ править ]

Аргумент о китайской комнате — это прежде всего аргумент в философии разума , и как крупные учёные-компьютерщики, так и исследователи искусственного интеллекта считают его нерелевантным для своих областей. [5] Однако для понимания аргумента необходимы несколько концепций, разработанных учеными-компьютерщиками, включая обработку символов , машины Тьюринга , полноту Тьюринга и тест Тьюринга .

ИИ исследования ИИ против Сильный

Аргументы Сирла обычно не считаются проблемой для исследований ИИ. Основная задача исследований искусственного интеллекта состоит только в создании полезных систем, которые действуют разумно, и не имеет значения, является ли интеллект «просто» симуляцией. Исследователи искусственного интеллекта Стюарт Рассел и Питер Норвиг написали в 2021 году: «Мы заинтересованы в программах, которые ведут себя разумно. Отдельные аспекты сознания — осознание, самосознание, внимание — могут быть запрограммированы и могут быть частью интеллектуальной машины. Мы не в состоянии реализовать проект создания машины, обладающей таким же сознанием, как и люди». [5]

Сирл не согласен с тем, что исследования ИИ могут создать машины, способные к высокоинтеллектуальному поведению. Аргумент о китайской комнате оставляет открытой возможность создания цифровой машины, которая будет действовать более разумно, чем человек, но не будет обладать разумом или интенциональностью , как у мозга .

«Гипотезу сильного ИИ» Сирла не следует путать с «сильным ИИ», как его определил Рэй Курцвейл и другие футуристы. [45] [23] которые используют этот термин для описания машинного интеллекта, который конкурирует с человеческим интеллектом или превосходит его, то есть общий искусственный интеллект , ИИ человеческого уровня или сверхинтеллект . Курцвейл имеет в виду прежде всего объем интеллекта , демонстрируемый машиной, тогда как аргумент Сирла не устанавливает этому предела. Сирл утверждает, что сверхразумная машина не обязательно будет обладать разумом и сознанием.

Тест Тьюринга [ править ]

«Стандартная интерпретация» теста Тьюринга, в которой игроку C, допрашивающему, дается задача попытаться определить, какой игрок — A или B — является компьютером, а какой — человеком. Для вынесения решения следователь ограничивается использованием ответов на письменные вопросы. Изображение адаптировано из Saygin, et al. 2000. [46]

Китайская комната реализует версию теста Тьюринга . [47] Алан Тьюринг представил тест в 1950 году, чтобы помочь ответить на вопрос «могут ли машины думать?» В стандартной версии судья-человек разговаривает на естественном языке с человеком и машиной, предназначенной для достижения результатов, неотличимых от действий человека. Все участники отделены друг от друга. Если судья не может достоверно отличить машину от человека, говорят, что машина прошла испытание.

Затем Тьюринг рассмотрел каждое возможное возражение против предложения «машины могут думать» и обнаружил, что существуют простые и очевидные ответы, если вопрос демистифицирован таким образом. Однако он не собирался проводить тест для измерения наличия «сознания» или «понимания». Он не считал, что это имеет отношение к проблемам, которые он рассматривал. Он написал:

Я не хочу создавать впечатление, что, по моему мнению, в сознании нет никакой тайны. Например, существует некий парадокс, связанный с любой попыткой его локализации. Но я не думаю, что эти загадки обязательно нужно разгадать, прежде чем мы сможем ответить на вопрос, который нас интересует в этой статье. [47]

Для Сирла, как философа, исследующего природу разума и сознания , это важные загадки. Китайская комната создана для того, чтобы показать, что теста Тьюринга недостаточно для обнаружения присутствия сознания, даже если комната может вести себя или функционировать так же, как сознательный разум.

Обработка символов [ править ]

Китайская комната (и все современные компьютеры) манипулируют физическими объектами для проведения вычислений и моделирования. Исследователи искусственного интеллекта Аллен Ньюэлл и Герберт А. Саймон назвали этот тип машины системой физических символов . Это также эквивалентно формальным системам, используемым в области математической логики .

Сирл подчеркивает тот факт, что такого рода манипуляции с символами являются синтаксическими (заимствование термина из изучения грамматики ). Компьютер манипулирует символами, используя форму синтаксических правил символов , без какого-либо знания семантики (то есть их значения ).

Ньюэлл и Саймон предположили, что физическая система символов (такая как цифровой компьютер) обладает всеми необходимыми механизмами для «общего разумного действия», или, как его называют сегодня, общего искусственного интеллекта . Они сформулировали это как философскую позицию, гипотезу системы физических символов : «Система физических символов обладает необходимыми и достаточными средствами для общего разумного действия». [48] [49] Аргумент китайской комнаты не опровергает этого, поскольку он сформулирован в терминах «разумного действия», то есть внешнего поведения машины, а не наличия или отсутствия понимания, сознания и разума.

Программы искусственного интеллекта XXI века (такие как « глубокое обучение ») выполняют математические операции над огромными матрицами неопознанных чисел и мало похожи на символьную обработку, используемую программами искусственного интеллекта в то время, когда Сирл писал свою критику в 1980 году. Нильс Нильссон описывает такие системы, как они скорее «динамические», чем «символические». Нильссон отмечает, что это, по сути, оцифрованные представления динамических систем — отдельные числа не имеют определенной семантики, а вместо этого являются выборками или точками данных из динамического сигнала, и именно аппроксимируемый сигнал будет иметь семантику. Нильссон утверждает, что неразумно рассматривать эти сигналы как «обработку символов» в том же смысле, что и гипотезу о физических системах символов. [50]

Китайская комната и по Тьюрингу полнота

Китайская комната имеет дизайн, аналогичный дизайну современного компьютера. Он имеет архитектуру фон Неймана , которая состоит из программы (книги инструкций), некоторого объема памяти (бумаги и картотеки), центрального процессора , который следует инструкциям (человек), и средства записи символов в память (процессор). карандаш и ластик). Машина с такой конструкцией известна в теоретической информатике как « полная по Тьюрингу », поскольку она имеет необходимое оборудование для выполнения любых вычислений, которые может выполнить машина Тьюринга , и, следовательно, она способна выполнять пошаговое моделирование любая другая цифровая машина, при наличии достаточной памяти и времени. Алан Тьюринг пишет: «Все цифровые компьютеры в некотором смысле эквивалентны». [51] Широко распространенный тезис Чёрча-Тьюринга утверждает, что любая функция, вычислимая с помощью эффективной процедуры, вычислима с помощью машины Тьюринга .

Полнота китайской комнаты по Тьюрингу подразумевает, что она может делать то же, что и любой другой цифровой компьютер (хотя и гораздо медленнее). Таким образом, если китайская комната не содержит или не может содержать разум, говорящий по-китайски, то никакой другой цифровой компьютер не может содержать разум. Некоторые ответы Сирлу начинаются с утверждения, что в описанной комнате не может быть разума, говорящего по-китайски. Аргументы этой формы, по мнению Стевана Харнада , являются «не опровержением, а скорее утверждением» [52] аргумента о китайской комнате, поскольку эти аргументы на самом деле подразумевают, что ни один цифровой компьютер не может иметь разума. [29]

Некоторые критики, такие как Ханох Бен-Ями, утверждают, что китайская комната не может имитировать все возможности цифрового компьютера, например, способность определять текущее время. [53]

Полный аргумент [ править ]

Сирл предложил более формальную версию аргумента, частью которого является «Китайская комната». Первую версию он представил в 1984 году. Представленная ниже версия относится к 1990 году. [54] [н] Мысленный эксперимент «Китайская комната» призван доказать пункт А3. [О]

Он начинает с трех аксиом:

(А1) «Программы формальны ( синтаксические )».
Программа использует синтаксис для управления символами и не обращает внимания на семантику символов. Он знает, где разместить символы и как их перемещать, но не знает, что они обозначают и что означают. Для программы символы — это такие же физические объекты, как и любые другие.
(А2) «Сознание имеет ментальное содержание ( семантику )».
В отличие от символов, используемых программой, наши мысли имеют значение: они представляют вещи, и мы знаем, что они представляют.
(A3) «Синтаксис сам по себе не является ни составляющим, ни достаточным для семантики».
Именно это и призван доказать мысленный эксперимент в китайской комнате: в китайской комнате есть синтаксис (потому что там находится человек, перемещающий символы). Китайская комната не имеет семантики (поскольку, по мнению Сирла, в комнате нет никого или ничего, кто понимал бы, что означают символы). Следовательно, наличия синтаксиса недостаточно для создания семантики.

Сирл утверждает, что это приводит непосредственно к такому выводу:

(C1) Программы не являются ни составляющими, ни достаточными для разума.
Это не противоречит первым трем пунктам: программы не имеют семантики. В программах есть только синтаксис, а синтаксиса недостаточно для семантики. У каждого ума есть семантика. Следовательно, никакие программы не являются разумами.

Большая часть аргументов призвана показать, что искусственный интеллект никогда не сможет создать машину с разумом, написав программы, манипулирующие символами. Остальная часть аргумента касается другой проблемы. Запускается ли в человеческом мозге программа? Другими словами, верна ли вычислительная теория разума ? [час] Он начинает с аксиомы, призванной выразить основной современный научный консенсус относительно мозга и разума:

(A4) Мозг порождает разум.

Сирл утверждает, что мы можем получить «немедленно» и «тривиально» [55] что:

(C2) Любая другая система, способная вызывать разум, должна была бы обладать причинными способностями (по крайней мере), эквивалентными возможностям мозга.
В мозгу должно быть что-то, что заставляет разум существовать. Науке еще предстоит точно определить, что это такое, но оно должно существовать, потому что существует разум. Сирл называет это «причинными силами». «Причинные силы» — это все, что мозг использует для создания разума. Если что-то еще может вызвать существование разума, оно должно обладать «эквивалентными причинными силами». «Эквивалентные причинные силы» — это все , что можно использовать для формирования разума.

И отсюда он делает дальнейшие выводы:

(C3) Любой артефакт, вызывающий психические явления, любой искусственный мозг, должен был бы быть в состоянии дублировать определенные причинные способности мозга, и он не мог бы сделать это, просто запустив формальную программу.
Это следует из C1 и C2: Поскольку ни одна программа не может создать разум, а «эквивалентные причинные силы» создают разум, из этого следует, что программы не имеют «эквивалентных причинных сил».
(C4) Способ, которым человеческий мозг на самом деле производит психические явления, не может быть обусловлен исключительно запуском компьютерной программы.
Поскольку программы не обладают «эквивалентными причинными силами», «эквивалентные причинные силы» создают разум, а мозг производит разум, из этого следует, что мозг не использует программы для создания разума.

Опровержения аргументов Сирла принимают самые разные формы (см. ниже). Компьютеристы и функционалисты отвергают А3, утверждая, что «синтаксис» (как его описывает Сирл) может иметь «семантику», если синтаксис имеет правильную функциональную структуру. Элиминативные материалисты отвергают А2, утверждая, что разум на самом деле не имеет «семантики» — что мысли и другие психические явления по своей сути бессмысленны, но, тем не менее, функционируют так, как если бы они имели смысл.

Ответы [ править ]

Ответы на аргумент Сирла можно классифицировать в зависимости от того, что они якобы показывают: [п]

  • Те, которые определяют, кто говорит по-китайски
  • Те, которые демонстрируют, как бессмысленные символы могут стать значимыми.
  • Те, которые предполагают, что китайскую комнату следует каким-то образом переделать.
  • Те, кто утверждает, что аргумент Сирла вводит в заблуждение.
  • Те, которые утверждают, что этот аргумент делает ложные предположения о субъективном сознательном опыте и, следовательно, ничего не доказывает.

Некоторые аргументы (например, моделирование роботов и мозга) делятся на несколько категорий.

разума виртуального разума: поиск и ответы Системы

Эти ответы пытаются ответить на вопрос: поскольку мужчина в комнате не говорит по-китайски, где тот «ум», который говорит? Эти ответы затрагивают ключевые онтологические проблемы разума и тела и симуляции и реальности. Все ответы, идентифицирующие разум в комнате, являются версиями «ответа системы».

Ответ системы [ править ]

В базовой версии ответа системы утверждается, что именно «вся система» понимает китайский язык. [60] [д] Хотя человек понимает только английский, когда он сочетается с программой, бумагой для заметок, карандашами и картотеками, они образуют систему, способную понимать китайский язык. «Здесь понимание не приписывается простому индивидууму; оно скорее приписывается всей системе, частью которой он является», — объясняет Сирл. [30]
Сирл отмечает, что (в этой простой версии ответа) «система» представляет собой не что иное, как совокупность обычных физических объектов; он наделяет силой понимания и сознания «сочетание этого человека и кусочков бумаги». [30] не прилагая никаких усилий, чтобы объяснить, как эта куча предметов стала сознательным, мыслящим существом. Сирл утверждает, что ни один разумный человек не должен быть удовлетворен ответом, если только он не находится «во власти идеологии»; [30] Чтобы этот ответ был хотя бы отдаленно правдоподобным, нужно принять как должное, что сознание может быть продуктом «системы» обработки информации и не требует ничего, напоминающего реальную биологию мозга.
Затем Серл отвечает, упрощая этот список физических объектов: он спрашивает, что произойдет, если человек запомнит правила и будет отслеживать все в своей голове? Тогда вся система состоит всего из одного объекта: самого человека. Сирл утверждает, что если человек не понимает китайского языка, то и система не понимает китайского языка, потому что теперь и «система», и «человек» описывают один и тот же объект. [30]
Критики ответа Сирла утверждают, что программа позволила этому человеку объединить два разума в одной голове. [ ВОЗ? ] Если мы предположим, что «разум» — это форма обработки информации, тогда теория вычислений может учитывать два вычисления, происходящие одновременно, а именно (1) вычисление универсальной программируемости (которое представляет собой функцию, реализуемую человеком и ведение заметок). материалы независимо от какого-либо конкретного содержимого программы) и (2) вычисление машины Тьюринга, описываемое программой (которое создается всем, включая конкретную программу). [62] Таким образом, теория вычислений формально объясняет открытую возможность того, что второе вычисление в Китайской комнате может повлечь за собой эквивалентное человеку семантическое понимание китайских входных данных. Основное внимание уделяется машине Тьюринга программы, а не человеку. [63] Однако, с точки зрения Сирла, этот аргумент является зацикленным. Спорный вопрос заключается в том, является ли сознание формой обработки информации, и этот ответ требует, чтобы мы сделали это предположение.

Более сложные версии ответа системы пытаются более точно определить, что такое «система», и различаются тем, как именно они ее описывают. Судя по этим ответам, [ ВОЗ? ] «Разум, говорящий по-китайски», может быть таким, как: «программное обеспечение», «программа», «работающая программа», симуляция «нейронных коррелятов сознания», «функциональная система», «моделируемый разум». « эмерджентное свойство» или « виртуальный разум» (описанный ниже).

Ответ виртуального разума [ править ]

Марвин Мински предложил версию системного ответа, известную как «ответ виртуального разума». [р] Термин « виртуальный » используется в информатике для описания объекта, который кажется существующим «в» компьютере (или компьютерной сети) только потому, что программное обеспечение создает видимость его существования. Все объекты «внутри» компьютеров (включая файлы, папки и т. д.) являются «виртуальными», за исключением электронных компонентов компьютера. Точно так же, утверждает Мински , компьютер может содержать «разум», который является виртуальным в том же смысле, что и виртуальные машины , виртуальные сообщества и виртуальная реальность .
Чтобы прояснить разницу между ответом простой системы, приведенным выше, и ответом виртуального разума, Дэвид Коул отмечает, что в одной системе могут одновременно работать две симуляции: одна говорит по-китайски, а другая говорит по-корейски. Хотя существует только одна система, может быть несколько «виртуальных разумов», поэтому «система» не может быть «разумом». [67]
Сирл отвечает, что такой разум — это, в лучшем случае, симуляция , и пишет: «Никто не предполагает, что компьютерное моделирование пожара с пятью сигналами тревоги сожжёт окрестности или что компьютерное моделирование ливня оставит нас всех промокшими». [68] Николас Ферн отвечает, что в некоторых вопросах симуляция ничуть не хуже реальности. «Когда мы вызываем функцию карманного калькулятора на настольном компьютере, на экране появляется изображение карманного калькулятора. Мы не жалуемся, что «это не совсем калькулятор», потому что физические характеристики устройства не соответствуют действительности. иметь значение." [69] Вопрос в том, подобен ли человеческий разум карманному калькулятору, состоящему по существу из информации, где идеальная симуляция всего лишь является вещью? Или разум подобен ливню, вещи в мире, которая представляет собой нечто большее, чем просто его симуляцию, и не может быть полностью реализована с помощью компьютерной симуляции? На протяжении десятилетий вопрос моделирования заставлял исследователей ИИ и философов задуматься о том, является ли термин « синтетический интеллект » более подходящим, чем обычное описание такого интеллекта как «искусственного».

Эти ответы дают объяснение того, кто именно понимает китайский язык. есть кто-то Если кроме мужчины в комнате , кто понимает китайский язык, Сирл не может утверждать, что (1) этот мужчина не понимает китайский язык, следовательно (2) ничто в комнате не понимает китайский язык. По мнению тех, кто дает этот ответ, это показывает, что аргумент Сирла не может доказать, что «сильный ИИ» является ложным. [с]

Однако эти ответы сами по себе не предоставляют никаких доказательств того, что сильный ИИ верен . Они не показывают, что система (или виртуальный разум) понимает китайский язык, за исключением гипотетической предпосылки о том, что она проходит тест Тьюринга . Сирл утверждает, что, если мы хотим считать Сильный ИИ хотя бы отдаленно правдоподобным, Китайская комната является примером, требующим объяснения, и трудно или невозможно объяснить, как сознание могло бы «появиться» из комнаты или как система могла бы обладать сознанием. Как пишет Сирл, «ответ системы просто ставит вопрос, настаивая на том, что система должна понимать китайский язык». [30] и таким образом уклоняется от вопроса или безнадежно зацикливается.

Робот и ответы на семантику: в поисках смысла [ править ]

Для человека в комнате символы — это просто бессмысленные «закорючки». Но если китайская комната действительно «понимает» то, что говорит, тогда символы должны откуда-то получить свое значение. Эти аргументы пытаются связать символы с вещами, которые они символизируют. Эти ответы касаются обеспокоенности Сирла по поводу интенциональности , обоснования символов и синтаксиса в сравнении с семантикой .

Ответ робота [ править ]

Предположим, что вместо комнаты программу поместили в робота, который мог бродить и взаимодействовать с окружающей средой. Это позволило бы установить « причинную связь» между символами и вещами, которые они представляют. [71] [т] Ганс Моравец комментирует: «Если бы мы могли привить робота к программе рассуждения, нам больше не нужен был бы человек, который мог бы передавать смысл: он исходил бы из физического мира». [73] [в]
Ответ Сирла состоит в том, чтобы предположить, что без ведома человека, находившегося в китайской комнате, некоторые входные сигналы поступали непосредственно с камеры, установленной на роботе, а некоторые выходные данные использовались для манипулирования руками и ногами робота. Тем не менее, человек в комнате по-прежнему просто следует правилам и не знает, что означают символы. Сирл пишет: «Он не видит того, что бросается в глаза роботу». [75] ( можно найти в комнате Мэри .) Похожий мысленный эксперимент

Производное значение [ править ]

Некоторые отвечают, что комната, как ее описывает Сирл, связана с миром: через говорящих на китайском языке, с которыми она «разговаривает», и через программистов, которые спроектировали базу знаний в его картотеке. Символы, которыми манипулирует Сирл, уже имеют значение они просто не имеют значения , но для него . [76] [v]
Сирл говорит, что символы имеют только «производное» значение, подобное значению слов в книгах. Значение символов зависит от сознательного понимания говорящих по-китайски и программистов за пределами комнаты. Комната, как книга, не имеет собственного понимания. [В]

Здравый смысл / ответ контекстуалиста [ править ]

Некоторые утверждают, что значения символов берут свое начало на обширном «фоне» здравого смысла, закодированном в программе и картотечных шкафах. Это обеспечило бы « контекст », который придал бы символам их значение. [74] [Икс]
Сирл согласен с тем, что такой фон существует, но не согласен с тем, что его можно встроить в программы. Хьюберт Дрейфус также раскритиковал идею о том, что «фон» может быть представлен символически. [79]

На каждое из этих предложений ответ Сирла один и тот же: сколько бы знаний ни было записано в программу и как бы программа ни была связана с миром, он все равно находится в комнате, манипулируя символами согласно правилам. Его действия синтаксичны , и это никогда не сможет объяснить ему, что означают символы. Сирл пишет: «Синтаксис недостаточен для семантики». [80] [и]

Однако для тех, кто признает, что действия Сирла имитируют разум, отдельный от его собственного, важным вопросом является не то, что символы означают для Сирла , а то, что они означают для виртуального разума. Хотя Сирл заперт в комнате, виртуальный разум — нет: он связан с внешним миром через говорящих на китайском языке, с помощью программистов, которые передали ему мировые знания, а также через камеры и другие датчики, которые могут предоставить робототехники .

комнаты редизайн : Моделирование мозга и ответы коннекционистов

Все эти аргументы представляют собой версии ответа системы, которые идентифицируют определенный тип системы как важный; они идентифицируют некую специальную технологию, которая могла бы создать в машине сознательное понимание. (В приведенных выше ответах «робот» и «здравый смысл» также указывается, что определенный тип системы является важным.)

Ответ симулятора мозга [ править ]

Предположим, что программа детально смоделировала действие каждого нейрона мозга говорящего по-китайски. [82] [С] Это укрепляет интуицию о том, что существенной разницы между работой программы и работой живого человеческого мозга не будет.
Сирл отвечает, что такое моделирование не воспроизводит важные особенности мозга — его причинные и интенциональные состояния. Сирл непреклонен в том, что «человеческие психические явления [зависят] от реальных физико-химических свойств реального человеческого мозга». [27] Более того, он утверждает:

[Я] представляю, что вместо одноязычного человека в комнате, перетасовывающего символы, мы имеем человека, управляющего сложной системой водопроводных труб с соединяющими их клапанами. Когда мужчина получает китайские символы, он смотрит в программе, написанной на английском языке, какие клапаны ему нужно включать и выключать. Каждое водное соединение соответствует синапсу в китайском мозгу, и вся система устроена так, что после всех правильных включений, то есть после открытия всех правильных кранов, китайские ответы выскакивают в выходном конце серии. труб. Где же в этой системе понимание? Он принимает китайский язык на входе, моделирует формальную структуру синапсов китайского мозга и выдает китайский язык на выходе. Но этот человек определенно не понимает китайского языка, как и водопроводные трубы, и если мы склонны принять, как мне кажется, абсурдную точку зрения, которую каким-то образом понимает соединение человека и водопроводных труб, помните, что в принципе человек может усвоить формальную структуру водопроводных труб и проделать все «нейронные импульсы» в своем воображении. [84]

Два варианта ответа симулятора мозга — это «китайский мозг» и сценарий замены мозга.

Китайский мозг [ править ]
Что, если мы попросим каждого гражданина Китая смоделировать один нейрон, используя телефонную систему для моделирования связей между аксонами и дендритами ? В этой версии кажется очевидным, что ни один человек не будет иметь никакого понимания того, что может говорить мозг. [85] [аа] Также очевидно, что эта система функционально эквивалентна мозгу, поэтому, если сознание является функцией, эта система будет сознательной.
мозга Сценарий замены
При этом нас просят представить, что инженеры изобрели крошечный компьютер, имитирующий действие отдельного нейрона. Что произойдет, если мы заменяем один нейрон за раз? Замена одного явно не изменит сознательное осознание. Замена их всех позволит создать цифровой компьютер, имитирующий мозг. Если Сирл прав, то сознательное осознание должно исчезнуть во время процедуры (либо постепенно, либо все сразу). Критики Сирла утверждают, что во время процедуры не было бы никакого смысла утверждать, что сознательное осознание заканчивается и начинается бездумное моделирование. [87] [аб] [и] ( см. в «Корабле Тесея» .) Подобный мысленный эксперимент

Ответы коннекциониста [ править ]

Это утверждение тесно связано с ответом на симулятор мозга и утверждает, что массово-параллельная коннекционистская архитектура будет способна к пониманию. [объявление] Современное глубокое обучение во многом параллельно и успешно демонстрирует интеллектуальное поведение во многих областях. Нильс Нильссон утверждает, что современный ИИ использует оцифрованные «динамические сигналы», а не «символы», которые ИИ использовал в 1980 году. [50] В данном случае семантику будет иметь дискретный сигнал , а не отдельные числа, которыми управляет программа. Это машина другого типа, отличная от той, которую визуализировал Сирл.

Комбинированный ответ [ править ]

Этот ответ объединяет ответ робота с ответом симуляции мозга, утверждая, что симуляция мозга, связанная с миром через тело робота, может иметь разум. [92]

Много особняков / подождите до следующего года, ответ [ править ]

Улучшенные технологии будущего позволят компьютерам понимать. [28] [но] Сирл соглашается, что это возможно, но считает этот момент несущественным. Сирл согласен, что помимо мозга могут существовать и другие аппаратные средства, обладающие сознательным пониманием.

Эти аргументы (и ответы робота или здравого смысла) определяют некую специальную технологию, которая поможет создать сознательное понимание в машине. Их можно интерпретировать двояко: либо они утверждают, что (1) эта технология необходима для сознания, китайская комната не реализует или не может реализовать эту технологию и, следовательно, китайская комната не может пройти тест Тьюринга, либо (даже если бы и прошла) не имело бы сознательного понимания. Или они могут утверждать, что (2) легче увидеть, что китайская комната обладает разумом, если мы визуализируем эту технологию как используемую для ее создания.

В первом случае, когда требуются такие функции, как тело робота или коннекционистская архитектура, Сирл утверждает, что от сильного ИИ (в его понимании) отказались. [из] Китайская комната имеет все элементы полной машины Тьюринга и, таким образом, способна моделировать любые цифровые вычисления. Если комната Сирла не может пройти тест Тьюринга, то не существует другой цифровой технологии, способной пройти тест Тьюринга. Если комната Сирла может пройти тест Тьюринга, но при этом не имеет разума, то теста Тьюринга недостаточно, чтобы определить, есть ли у комнаты «разум». В любом случае, это отрицает ту или иную позицию, которую Сирл называет «сильным ИИ», доказывая его аргумент.

Аргументы в пользу мозга, в частности, отрицают сильный ИИ, если предполагают, что нет более простого способа описать разум, чем создать программу, столь же загадочную, как и мозг. Он пишет: «Я думал, что вся идея сильного ИИ заключается в том, что нам не нужно знать, как работает мозг, чтобы знать, как работает разум». [28] По мнению Сирла , если вычисления не дают объяснения человеческого разума, то сильный ИИ потерпел неудачу.

Другие критики считают, что комната, как ее описал Сирл, на самом деле обладает разумом, однако они утверждают, что его трудно увидеть — описание Сирла верно, но вводит в заблуждение. Перепроектировав комнату более реалистично, они надеются сделать это более очевидным. В данном случае эти аргументы используются как апелляция к интуиции (см. следующий раздел).

На самом деле, комнату можно с легкостью перепроектировать, чтобы ослабить нашу интуицию. Неда Блока Аргумент болвана [93] предполагает, что программу теоретически можно переписать в простую таблицу правил вида «если пользователь пишет S , ответьте P и перейдите к X». По крайней мере, в принципе, любую программу можно переписать (или « рефакторить ») в такую ​​форму, даже симуляцию мозга. [в] В сценарии болвана все психическое состояние скрыто в букве X, которая представляет собой адрес памяти — число, связанное со следующим правилом. Трудно себе представить, что мгновение сознательного опыта можно уловить в одном большом количестве, но именно это утверждает «сильный ИИ». С другой стороны, такая таблица поиска была бы смехотворно большой (вплоть до физической невозможности), и поэтому состояния могли бы быть чрезвычайно конкретными.

Сирл утверждает, что независимо от того, написана ли программа или как бы машина ни была подключена к миру, разум моделируется простой пошаговой цифровой машиной (или машинами). Эти машины всегда такие же, как и люди в комнате: они ничего не понимают и не говорят по-китайски. Они просто манипулируют символами, не зная, что они означают. Сирл пишет: «Я могу иметь любую формальную программу, какую захотите, но я все равно ничего не понимаю». [10]

Скорость и сложность: взывает к интуиции [ править ]

Следующие аргументы (и интуитивная интерпретация приведенных выше аргументов) не объясняют напрямую, как разум, говорящий по-китайски, мог существовать в комнате Сирла или как символы, которыми он манипулирует, могли стать значимыми. Однако, подвергая сомнению интуицию Сирла, они поддерживают другие позиции, такие как ответы системы и роботов. Эти аргументы, если они будут приняты, не позволяют Сирлу утверждать, что его вывод очевиден, поскольку подрывают интуицию, которой требует его уверенность.

Некоторые критики полагают, что аргументы Сирла полностью основаны на интуиции. Нед Блок пишет: «Сила аргумента Сирла зависит от интуиции, о которой некоторые сущности не думают». [94] Дэниел Деннетт описывает аргумент о китайской комнате как вводящий в заблуждение « насос интуиции ». [95] и пишет: «Мысленный эксперимент Сирла незаконно зависит от того, что вы вообразите слишком простой случай, не относящийся к делу случай, и сделаете из него «очевидный» вывод». [95]

Некоторые из приведенных выше аргументов также служат апелляцией к интуиции, особенно те, которые призваны создать более правдоподобную картину того, что в китайской комнате есть разум, который может включать в себя робота, здравый смысл, симуляцию мозга и коннекционистские ответы. Некоторые из приведенных выше ответов также затрагивают конкретную проблему сложности. Ответ коннекционистов подчеркивает, что работающая система искусственного интеллекта должна быть такой же сложной и взаимосвязанной, как человеческий мозг. В ответе на знание здравого смысла подчеркивается, что любая программа, прошедшая тест Тьюринга, должна быть «чрезвычайно гибкой, сложной и многослойной системой, наполненной «мировыми знаниями», мета-знаниями и мета-мета-знаниями», как Дэниел Деннетт объясняет . . [78]

Ответы на скорость и сложность [ править ]

Многие из этих критических замечаний подчеркивают скорость и сложность человеческого мозга. [ах] который обрабатывает информацию со скоростью 100 миллиардов операций в секунду (по некоторым оценкам). [97] Некоторые критики отмечают, что человеку в комнате, вероятно, потребуются миллионы лет, чтобы ответить на простой вопрос, и ему потребуются «шкафы для документов» астрономических размеров. [98] Это ставит под сомнение ясность интуиции Сирла.
Особенно яркая версия ответа на вопрос о скорости и сложности принадлежит Полу и Патриции Черчленд . Они предлагают аналогичный мысленный эксперимент: «Рассмотрим темную комнату, в которой находится человек, держащий в руках стержневой магнит или заряженный предмет. Если этот человек будет качать магнит вверх и вниз, то, согласно будет теории искусственной яркости Максвелла (АЛ), это инициируют распространяющийся круг электромагнитных волн и, таким образом, будут светиться. Но, как хорошо известно всем нам, кто играл с магнитами или заряженными шарами, их силы (или любые другие силы, если уж на то пошло), даже когда они приведены в движение, не производят свечения. все это немыслимо, чтобы можно было создать настоящую яркость, просто перемещая силы!» [86] Черчленд считает, что проблема в том, что ему придется махать магнитом вверх и вниз примерно 450 триллионов раз в секунду, чтобы что-то увидеть. [99]
Стеван Харнад критично относится к скорости и сложности ответов, когда они выходят за рамки нашей интуиции. Он пишет: «Некоторые создали культ скорости и времени, считая, что при ускорении до нужной скорости вычислительное может совершить фазовый переход в ментальное. Должно быть ясно, что это не контраргумент, а всего лишь ad hoc предположение ( как и мнение, что все это просто вопрос повышения до нужной степени «сложности».)» [100] [есть]

Сирл утверждает, что его критики также полагаются на интуицию, однако интуиция его оппонентов не имеет эмпирической основы. Он пишет, что для того, чтобы считать «ответ системы» хотя бы отдаленно правдоподобным, человек должен находиться «во власти идеологии». [30] Ответ системы имеет смысл (по мнению Сёрла) только в том случае, если предположить, что любая «система» может обладать сознанием просто потому, что она является системой с правильным поведением и функциональными частями. Это предположение, утверждает он, несостоятельно, учитывая наш опыт сознания.

разумы и зомби бессмысленность : Другие

В нескольких ответах утверждается, что аргумент Сирла неуместен, поскольку его предположения о разуме и сознании ошибочны. Сирл считает, что люди каждый день напрямую переживают свое сознание, интенциональность и природу разума, и что этот опыт сознания не подлежит сомнению. Он пишет, что мы должны «предполагать реальность и познаваемость психического». [103] Ответы ниже задаются вопросом, оправдано ли использование Сирлом своего собственного опыта сознания для определения того, что это нечто большее, чем просто механическая обработка символов. В частности, ответ «другой разум» утверждает, что мы не можем использовать наш опыт сознания для ответа на вопросы о других разумах (даже о разуме компьютера), а эпифенома отвечает на вопрос, можем ли мы вообще выдвигать какие-либо аргументы о чем-то вроде сознания, которое не может По определению, может быть обнаружено любым экспериментом, и элиминативный материалистический ответ утверждает, что собственное личное сознание Серла не «существует» в том смысле, в котором, по мнению Серла, оно существует.

Ответ других умов [ править ]

В «Ответе других разумов» указывается, что аргумент Сирла представляет собой версию проблемы других разумов , примененную к машинам. Мы не можем определить, совпадает ли субъективный опыт других людей с нашим собственным. Мы можем только изучить их поведение (то есть, задав им собственный тест Тьюринга ). Критики Сирла утверждают, что он предъявляет китайскую комнату к более высокому стандарту, чем мы бы придерживались к обычному человеку. [104] [также]
Нильс Нильссон пишет: «Если программа ведет себя так, как будто она умножает, большинство из нас сказали бы, что она на самом деле умножает. Насколько я знаю, Сирл может вести себя только так, как если бы он глубоко размышлял об этих вещах. Но хотя я с ним и не согласен, его симуляция довольно хороша, поэтому я хочу отдать ему должное за реальную мысль». [106]
Алан Тьюринг предвосхитил линию аргументации Сирла (которую он назвал «Аргументом от сознания») в 1950 году и заставил другие умы ответить. [107] Он отметил, что люди никогда не учитывают проблемы других умов, общаясь друг с другом. Он пишет, что «вместо того, чтобы постоянно спорить по этому поводу, обычно принято соблюдать вежливую условность, о которой все думают». [108] Тест Тьюринга просто распространяет это «вежливое соглашение» на машины. Он не намерен решать проблемы других разумов (машин или людей) и не считает, что нам это нужно. [и]

учитывая, что «сознание» Сирла необнаружимо Ответы ,

Если мы примем описание интенциональности, сознания и разума, данное Сирлом, мы будем вынуждены признать, что сознание эпифеноменально : что оно «не отбрасывает тени», то есть не обнаруживается во внешнем мире. «Каузальные свойства» Сирла не могут быть обнаружены никем за пределами разума, иначе Китайская комната не смогла бы пройти тест Тьюринга — люди снаружи могли бы сказать, что в комнате нет говорящего по-китайски, обнаружив их причинные свойства. Поскольку они не могут обнаружить причинные свойства, они не могут обнаружить существование ментального. Таким образом, сирловские «каузальные свойства» и само сознание необнаружимы, а все, что не может быть обнаружено, либо не существует, либо не имеет значения.
Майк Алдер называет это «Ответом пылающего лазерного меча Ньютона». Он утверждает, что вся эта аргументация несерьезна, потому что она неверификационистская : не только различие между симуляцией разума и нечетким определением разума, но и неуместно, потому что никакие эксперименты не были и даже не могут быть предложены для того, чтобы различать эти два понятия. [110]
Дэниел Деннетт приводит такую ​​иллюстрацию: предположим, что в результате какой-то мутации рождается человек, который не обладает «каузальными свойствами» Сёрла, но, тем не менее, действует точно так же, как человеческое существо. (Этот вид животных называется « зомби » в мысленных экспериментах в философии разума ). Это новое животное будет воспроизводиться так же, как и любой другой человек, и со временем таких зомби станет больше. Естественный отбор благоприятствовал бы зомби, поскольку их конструкция (как мы могли предположить) немного проще. В конце концов люди вымрут. Поэтому, если Сирл прав, то, скорее всего, люди (какими мы видим их сегодня) на самом деле являются «зомби», которые, тем не менее, настаивают на том, что обладают сознанием. Невозможно узнать, все мы зомби или нет. Даже если мы все зомби, мы все равно будем верить, что это не так. [111]

материалистический ответ Элиминативный

Некоторые философы утверждают, что сознания, как его описывает Серл, не существует. Дэниел Деннетт описывает сознание как « иллюзию пользователя ». [112]
Эту позицию иногда называют элиминативным материализмом : точка зрения, согласно которой сознание — это не концепция, которая может «допускать сведения» к строго механическому (то есть материальному) описанию, а, скорее, концепция, которая будет просто устранена , как только материальный мозг произведения полностью поняты, точно так же, как понятие демона уже устранено из науки, а не сведено к строго механическому описанию. Другие ментальные свойства, такие как исходная интенциональность (также называемая «значением», «содержанием» и «семантическим характером»), также обычно рассматриваются как особые свойства, связанные с убеждениями и другими пропозициональными установками. Элиминативный материализм утверждает, что пропозициональные установки, такие как убеждения и желания, среди других интенциональных психических состояний, имеющих содержание, не существуют. Если элиминативный материализм является правильным научным объяснением человеческого познания, то предположение аргумента китайской комнаты о том, что «сознание имеет ментальное содержание ( семантика )» следует отвергнуть. [113]

Сирл не согласен с этим анализом и утверждает, что «изучение разума начинается с таких фактов, как то, что у людей есть убеждения, а у термостатов, телефонов и счетных машин их нет… мы хотели знать, что отличает разум от термостатов». и печень». [75] Он считает очевидным, что мы можем обнаружить присутствие сознания, и отвергает эти ответы как не относящиеся к делу.

Другие ответы [ править ]

Маргарет Боден в своей статье «Побег из китайской комнаты» утверждала, что даже если человек в комнате не понимает китайский язык, это не означает, что в комнате нет понимания. Человек в комнате, по крайней мере, понимает книгу правил, используемую для предоставления выходных ответов. [114]

В популярной культуре [ править ]

Аргумент китайской комнаты является центральной концепцией Питера Уоттса романов «Слепое зрение» и (в меньшей степени) «Эхопраксия» . [115] Грег Иган кратко (и несколько устрашающе) иллюстрирует эту концепцию в своем рассказе 1990 года «Учись быть собой» в своем сборнике «Аксиоматика» .

Это центральная тема видеоигры Zero Escape: Virtue's Last Reward , которая связана с повествованием игры. [116]

Похожий человек-компьютер представлен в Лю Цысиня романе «Задача трёх тел» , описанном Филипом Штайнером следующим образом: для выполнения различных логических схем, таких как логический элемент И и логический элемент ИЛИ». [117] [ал]

См. также [ править ]

Примечания [ править ]

  1. ^ Перейти обратно: а б с См. § Сознание , в котором обсуждается взаимосвязь между аргументом китайской комнаты и сознанием.
  2. ^ Не путать с общим искусственным интеллектом , который также иногда называют «сильным ИИ». См. § Исследования сильного ИИ и исследования ИИ .
  3. ^ Перейти обратно: а б Эта версия взята из книги Сирла « Разум, язык и общество». [20] и также цитируется в книге Дэниела Деннета « Объяснение сознания» . [21] Первоначальная формулировка Сирла заключалась в следующем: «Правильно запрограммированный компьютер на самом деле является разумом в том смысле, что можно буквально сказать, что компьютеры с правильными программами понимают и имеют другие когнитивные состояния». [22] Сильный ИИ определяется аналогично Стюартом Расселом и Питером Норвигом : «слабый ИИ — машины идей могут действовать так, как если бы они были разумными — и сильный ИИ — утверждения, которые делают это, на самом деле являются осознанным мышлением (а не просто симуляцией мышления). ." [23]
  4. Сирл пишет, что «согласно Сильному ИИ, правильная симуляция на самом деле является разумом. Согласно Слабому ИИ, правильная симуляция — это модель разума». [8] Он также пишет: «С точки зрения сильного ИИ правильно запрограммированный компьютер не просто имитирует наличие разума; он буквально обладает разумом». [9]
  5. ^ Перейти обратно: а б Сирл пишет: «Сторонники сильного ИИ утверждают, что в этой последовательности вопросов и ответов машина не только имитирует человеческие способности, но также (1) можно сказать, что машина буквально понимает историю и дает ответы на вопросы, и ( 2) то, что делают машина и ее программа, объясняет способность человека понимать историю и отвечать на вопросы о ней». [7]
  6. Обратите внимание, что Лейбниц возражал против «механической» теории разума (философской позиции, известной как механизм ). Сирл возражает против взгляда на разум, основанного на «обработке информации» (философская позиция, известная как « компьютерализм »). Сирл принимает механизм и отвергает вычислительность.
  7. Харнад редактировал BBS в те годы, когда был представлен и популяризирован аргумент о китайской комнате.
  8. ^ Перейти обратно: а б Стеван Харнад считает, что аргумент Сирла противоречит тезису, который «с тех пор стал называться «вычислением», согласно которому познание - это всего лишь вычисление, следовательно, ментальные состояния - это всего лишь состояния вычислений». [18] Дэвид Коул соглашается, что «этот аргумент также имеет широкие последствия для функционалистских и вычислительных теорий смысла и разума». [19]
  9. Сирл считает, что «сильный ИИ имеет смысл только с учетом дуалистического предположения, что когда дело касается разума, мозг не имеет значения». [27] В другом месте он пишет: «Я думал, что вся идея сильного ИИ заключается в том, что нам не нужно знать, как работает мозг, чтобы знать, как работает разум». [28] Своей формулировкой эта позиция обязана Стевану Харнаду. [29]
  10. ^ «Один из спорных вопросов, — пишет Сирл, — это адекватность теста Тьюринга». [30]
  11. ^ Вычислительность связана с Джерри Фодором и Хилари Патнэм , [33] и принадлежит Аллену Ньюэллу , [29] Зенон Пилишин [29] и Стивен Пинкер , [34] среди других.
  12. ^ См. ответы Сирлу в разделе «Бессмысленность» ниже.
  13. ^ Ларри Хаузер пишет, что «биологический натурализм либо запутан (колеблется между теорией идентичности и дуализмом), либо это просто теория идентичности или дуализм». [38]
  14. Формулировки каждой аксиомы и вывода взяты из презентации Сирла в журнале Scientific American . [55] [56] (A1-3) и (C1) описаны как 1,2,3 и 4 у Дэвида Коула. [57]
  15. Пол и Патрисия Черчленд пишут, что мысленный эксперимент в китайской комнате призван «подкрепить аксиому 3». [58]
  16. ^ Дэвид Коул объединяет вторую и третью категории, а также четвертую и пятую. [59]
  17. Версии ответа системы принадлежат Неду Блоку , Джеку Коупленду , Дэниелу Деннетту , Джерри Фодору , Джону Хогеланду , Рэю Курцвейлу и Жоржу Рею , среди других. [61]
  18. ^ Ответ виртуального разума принадлежит Марвину Мински , [64] [65] Тим Модлин , Дэвид Чалмерс и Дэвид Коул. [66]
  19. ^ Дэвид Коул пишет: «Интуитивно понимая, что в мысленном эксперименте CR он не поймет китайский язык, запустив программу, Сирл делает вывод, что при запуске программы не возникает никакого понимания. Очевидно, что этот вывод действителен или нет, включает метафизический подход. вопрос о идентичности людей и умов. Если понимающий человек не тождественен оператору комнаты, то вывод необоснован». [70]
  20. ^ Эту должность занимают, среди прочих , Маргарет Боден , Тим Крейн , Дэниел Деннетт , Джерри Фодор , Стеван Харнад , Ганс Моравец и Жорж Рей . [72]
  21. ^ Дэвид Коул называет это «экстерналистским» пониманием смысла. [74]
  22. ^ Ответ производного значения связан с Дэниелом Деннетом и другими.
  23. ^ Сирл различает «внутреннюю» интенциональность и «производную» интенциональность. «Внутренняя» интенциональность предполагает «сознательное понимание», подобное человеческому разуму. Дэниел Деннетт не согласен с тем, что существует различие. Дэвид Коул пишет: «По мнению Деннета, производная интенциональность — это все, что есть». [77]
  24. ^ Дэвид Коул описывает это как «интерналистский» подход к значению. [74] Сторонниками этой позиции являются Роджер Шанк , Дуг Ленат , Марвин Мински и (с оговорками) Дэниел Деннетт , который пишет: «Дело в том, что любая программа [которая прошла тест Тьюринга] должна была бы быть чрезвычайно гибкой, сложной и многоуровневой системой». , наполненный «мировым знанием», мета-знанием и мета-мета-знанием». [78]
  25. ^ Сирл также пишет: «Формальных символов самих по себе никогда не может быть достаточно для ментального содержания, потому что символы по определению не имеют значения (или интерпретации , или семантики), за исключением того, что кто-то вне системы придает им его». [81]
  26. ^ Ответ на симуляцию мозга дали Пол Черчленд , Патриция Черчленд и Рэй Курцвейл . [83]
  27. ^ Ранние версии этого аргумента были выдвинуты в 1974 году Лоуренсом Дэвисом и в 1978 году Недом Блоком . Версия Блока использовала рации и называлась «Китайский тренажерный зал». Пол и Патрисия Черчленд также описали этот сценарий. [86]
  28. Ранняя версия сценария замены мозга была выдвинута Кларком Глимуром в середине 70-х годов и затронута Зеноном Пилишиным в 1980 году. Ганс Моравец представил яркую версию этого сценария: [88] и теперь это ассоциируется с Рэя Курцвейла версией трансгуманизма .
  29. Сирл не рассматривает сценарий замены мозга как аргумент против CRA, однако в другом контексте Сирл рассматривает несколько возможных решений, включая возможность того, что «вы, к своему полному изумлению, обнаружите, что действительно теряете контроль над своим внешним поведением». Например, вы обнаруживаете, что, когда врачи проверяют ваше зрение, вы слышите, как они говорят: «Мы держим перед вами красный предмет, пожалуйста, скажите нам, что вы видите». Вам хочется закричать: «Я ничего не вижу, я полностью ослепну». Но вы слышите свой голос, говорящий совершенно вне вашего контроля: «Я вижу перед собой красный объект». [...] [В]аш сознательный опыт постепенно сводится к нулю, в то время как ваше внешне наблюдаемое поведение остается прежним». [89]
  30. Коннекционистский ответ дали Энди Кларк и Рэй Курцвейл , [90] а также Пол и Патрисия Черчленд . [91]
  31. ^ Сирл (2009) использует название «Подождите, пока ответ в следующем году».
  32. Сирл пишет, что ответ робота «молчаливо признает, что познание — это не только вопрос формального манипулирования символами». [75] Стеван Харнад высказывает то же самое, написав: «Отрицание того, что [тест Тьюринга] является достаточно сильным тестом, или отрицание того, что компьютер может когда-либо пройти его, не является опровержением (а скорее подтверждением) CRA». , это всего лишь особый призыв попытаться спасти вычислительный подход, оговорив ad hoc (перед лицом CRA), что детали реализации все-таки имеют значение и что компьютерная реализация является «правильной» реализацией, тогда как реализация Сирла — «неправильной». ' добрый." [52]
  33. ^ То есть любая программа, работающая на машине с ограниченным объемом памяти.
  34. ^ Ответы о скорости и сложности даны Дэниелом Деннеттом , Тимом Модлином , Дэвидом Чалмерсом , Стивеном Пинкером , Полом Черчлендом , Патрисией Черчленд и другими. [96] Дэниел Деннетт указывает на сложность мировых знаний. [78]
  35. ^ Критики формы «фазового перехода» этого аргумента включают Стевана Харнада, Тима Модлина , Дэниела Деннета и Дэвида Коула. [96] Эта идея «фазового перехода» является версией сильного эмерджентизма (то, что Дэниел Деннетт высмеивает как «у-у-у, появление на Западном побережье»). [101] ). Харнад обвиняет Черчленда и Патрицию Черчленд в поддержке сильного эмерджентизма. Рэй Курцвейл также придерживается определенной формы эмерджентизма. [102]
  36. Ответ «другие умы» был предложен Дэниелом Деннеттом , Рэем Курцвейлом и Гансом Моравецом , среди других. [105]
  37. Одна из причин, побудивших Тьюринга разработать тест Тьюринга , состоит в том, чтобы избежать именно тех философских проблем, которые интересуют Сирла. Он пишет: «Я не хочу создавать впечатление, будто в этом нет никакой тайны… [но] я не думайте, что эти загадки обязательно необходимо разгадать, прежде чем мы сможем ответить на вопрос, который нас интересует в этой статье». [109]
  38. ^ «Наконец, наиболее тщательно продуманная внутриигровая попытка решить проблему трех тел предпринята Фон Нейманом и Ньютоном, которые создают огромный человеко-компьютер, используя в качестве инструментов миллионы солдат Кинга (стр. 227–228). Эти солдаты берут роль входного и выходного сигнала, и им поручено выполнять различные логические схемы, такие как вентиль И и вентиль ИЛИ (стр. 229–230)6. В конце концов показано, что огромная армия из 30 миллионов солдат выполняет эти логические схемы. , действующий как компьютер, созданный из людей (стр. 234–235). С точки зрения визуального представления решения задачи трёх тел в физике этот раздел особенно важен, поскольку словарный запас внезапно смещается в сторону типичного. Компьютерный жаргон Теперь есть «центральный процессор», «материнская плата» с «прошивающими компонентами» (с. 235), «модуль дифференциального исчисления» и длинный «вычисление». [117]

Цитаты [ править ]

  1. ^ Перейти обратно: а б Сирл 1980 .
  2. ^ Перейти обратно: а б Харнад 2001 , с. 1.
  3. ^ Робертс 2016 .
  4. ^ Перейти обратно: а б с Сирл 1992 , с. 44.
  5. ^ Перейти обратно: а б с Рассел и Норвиг 2021 , с. 986.
  6. ^ Перейти обратно: а б с Сирл 1980 , с. 11.
  7. ^ Перейти обратно: а б Сирл 1980 , с. 2.
  8. ^ Перейти обратно: а б Сирл 2009 , с. 1.
  9. ^ Сирл 2004 , с. 66.
  10. ^ Перейти обратно: а б Сирл 1980 , с. 3.
  11. ^ Коул 2004 , 2.1; Лейбниц 1714 , раздел 17.
  12. ^ «История русской китайской комнаты, предшествовавшая дискуссии Сирла 1980 года» . Центр исследований сознания . 15 июня 2018 г. Архивировано из оригинала 16 мая 2021 г. Проверено 9 января 2019 г.
  13. ^ Коул 2004 , 2.3.
  14. ^ Коул 2004 , с. 2; Престон и Бишоп, 2002 г.
  15. ^ Перейти обратно: а б Харнад 2001 , с. 2.
  16. ^ Харнад 2001 , с. 1; Коул 2004 , с. 2
  17. ^ Акман 1998 .
  18. ^ Харнад 2005 , с. 1.
  19. ^ Коул 2004 , с. 1.
  20. ^ Сирл 1999 , с. [ нужна страница ] .
  21. ^ Деннетт 1991 , с. 435.
  22. ^ Сирл 1980 , с. 1.
  23. ^ Перейти обратно: а б Рассел и Норвиг 2021 , с. 981.
  24. ^ Цитируется по McCorduck 2004 , с. 138.
  25. ^ Цитируется по Crevier 1993 , с. 46
  26. ^ Хаугеланд 1985 , с. 2 (курсив его)
  27. ^ Перейти обратно: а б с Сирл 1980 , с. 13.
  28. ^ Перейти обратно: а б с Сирл 1980 , с. 8.
  29. ^ Перейти обратно: а б с д Харнад 2001 .
  30. ^ Перейти обратно: а б с д Это ж г Сирл 1980 , с. 6.
  31. ^ Сирл 2004 , с. 45.
  32. ^ Харнад 2001 , с. 3 (курсив его)
  33. ^ Хорст 2005 , с. 1.
  34. ^ Пинкер 1997 .
  35. ^ Харнад 2001 , стр. 3–5.
  36. ^ Сирл 1990a , с. 29.
  37. ^ Сирл 1990b .
  38. ^ Перейти обратно: а б с Хаузер 2006 , с. 8.
  39. ^ Сирл 1992 , гл. 5.
  40. ^ Сирл 2002 .
  41. ^ Чалмерс 1996 , с. 322.
  42. ^ Макгинн 2000 .
  43. ^ Searle 1980, p. 418.
  44. ^ Хью 2016 .
  45. ^ Курцвейл 2005 , с. 260.
  46. ^ Сайгин, Чичекли и Акман 2000 .
  47. ^ Перейти обратно: а б Тьюринг 1950 год .
  48. ^ Ньюэлл и Саймон 1976 , с. 116.
  49. ^ Рассел и Норвиг 2021 , с. 19.
  50. ^ Перейти обратно: а б Нильссон 2007 .
  51. ^ Тьюринг 1950 , с. 442.
  52. ^ Перейти обратно: а б Харнад 2001 , с. 14.
  53. ^ Ben-Yami 1993 .
  54. ^ Сирл 1984 ; Сирл 1990а .
  55. ^ Перейти обратно: а б Сирл 1990а .
  56. ^ Хаузер 2006 , с. 5.
  57. ^ Коул 2004 , с. 5.
  58. ^ Черчленд и Черчленд 1990 , с. 34.
  59. ^ Коул 2004 , стр. 5–6.
  60. ^ Сирл 1980 , стр. 5–6; Коул, 2004 г. , стр. 6–7; Хаузер 2006 , стр. 2–3; Деннетт 1991 , с. 439; Ферн 2007 , с. 44; Кревье 1993 , с. 269.
  61. ^ Коул 2004 , с. 6.
  62. ^ Йи 1993 , с. 44, сноска 2.
  63. ^ Йи 1993 , стр. 42–47.
  64. ^ Минский 1980 , с. 440.
  65. ^ Коул 2004 , с. 7.
  66. ^ Коул 2004 , стр. 7–9.
  67. ^ Коул 2004 , с. 8.
  68. ^ Сирл 1980 , с. 12.
  69. ^ Ферн 2007 , с. 47.
  70. ^ Коул 2004 , с. 21.
  71. ^ Сирл 1980 , с. 7; Коул, 2004 г. , стр. 9–11; Хаузер 2006 , с. 3; Ферн 2007 , с. 44.
  72. ^ Коул 2004 , с. 9.
  73. ^ Цитируется по Crevier 1993 , с. 272
  74. ^ Перейти обратно: а б с Коул 2004 , с. 18.
  75. ^ Перейти обратно: а б с Сирл 1980 , с. 7.
  76. ^ Хаузер 2006 , с. 11; Коул 2004 , с. 19.
  77. ^ Коул 2004 , с. 19.
  78. ^ Перейти обратно: а б с Деннетт 1991 , с. 438.
  79. ^ Дрейфус 1979 , « Эпистемологическое предположение».
  80. ^ Сирл 1984 .
  81. ^ Моцкин и Сирл 1989 , с. 45.
  82. ^ Сирл 1980 , стр. 7–8; Коул 2004 , стр. 12–13; Хаузер 2006 , стр. 3–4; Черчленд и Черчленд 1990 .
  83. ^ Коул 2004 , с. 12.
  84. ^ Сирл 1980 , с. [ нужна страница ] .
  85. ^ Коул 2004 , с. 4; Хаузер 2006 , с. 11.
  86. ^ Перейти обратно: а б Черчленд и Черчленд 1990 .
  87. ^ Коул 2004 , с. 20; Моравец 1988 ; Курцвейл 2005 , с. 262; Кревье 1993 , стр. 271 и 279.
  88. ^ Моравец 1988 .
  89. ^ Сирл 1992 .
  90. ^ Коул 2004 , стр. 12 и 17.
  91. ^ Хаузер 2006 , с. 7.
  92. ^ Сирл 1980 , стр. 8–9; Хаузер 2006 , с. 11.
  93. ^ Блок 1981 .
  94. ^ Цитируется по Коулу 2004 , с. 13.
  95. ^ Перейти обратно: а б Деннетт 1991 , стр. 437–440.
  96. ^ Перейти обратно: а б Коул 2004 , с. 14.
  97. ^ Кревье 1993 , с. 269.
  98. ^ Коул 2004 , стр. 14–15; Кревье, 1993 , стр. 269–270; Пинкер 1997 , с. 95.
  99. ^ Черчленд и Черчленд 1990 ; Коул 2004 , с. 12; Кревье 1993 , с. 270; Fearn 2007 , стр. 45–46; Пинкер 1997 , с. 94.
  100. ^ Харнад 2001 , с. 7.
  101. ^ Кревье 1993 , с. 275.
  102. ^ Курцвейл 2005 .
  103. ^ Сирл 1980 , с. 10.
  104. ^ Сирл 1980 , с. 9; Коул 2004 , с. 13; Хаузер 2006 , стр. 4–5; Нильссон 1984 .
  105. ^ Коул 2004 , стр. 12–13.
  106. ^ Нильссон 1984 .
  107. ^ Тьюринг 1950 , стр. 11–12.
  108. ^ Тьюринг 1950 , с. 11.
  109. ^ Тьюринг 1950 , с. 12.
  110. ^ Возраст 2004 г.
  111. ^ Коул 2004 , с. 22; Кревье 1993 , с. 271; Харнад 2005 , с. 4.
  112. ^ Деннетт 1991 , [ нужна страница ] .
  113. ^ Рэмси 2022 .
  114. ^ Маргарет А. Боден (1988). «Побег из китайской комнаты». В Джоне Хейле (ред.). Компьютерные модели разума . Издательство Кембриджского университета. ISBN  9780521248686 .
  115. ^ Уитмарш 2016 .
  116. ^ «Двухминутный игровой критик – последняя награда Добродетели и Китайская комната» . 30 июля 2016 г. Архивировано из оригинала 9 июля 2021 г. Проверено 7 июля 2021 г.
  117. ^ Перейти обратно: а б Штайнер 2022 .

Ссылки [ править ]

Номера страниц выше относятся к стандартной формате PDF . распечатке статьи в
Номера страниц выше относятся к стандартной формате PDF . распечатке статьи в
Номера страниц выше относятся к стандартной формате PDF . распечатке статьи в
Номера страниц выше относятся к стандартной формате PDF . распечатке статьи в
Номера страниц выше относятся к стандартной формате PDF распечатке статьи в Сирла . См. также первоначальный проект .
Номера страниц выше относятся к стандартной формате PDF . распечатке статьи в
Lyceum PDF . Номера страниц выше и содержание диаграмм относятся к распечатке статьи в формате

Дальнейшее чтение [ править ]

Arc.Ask3.Ru: конец оригинального документа.
Arc.Ask3.Ru
Номер скриншота №: EF1E5ED32C529CD91AA86F48A78088B7__1718758260
URL1:https://en.wikipedia.org/wiki/Strong_AI_hypothesis
Заголовок, (Title) документа по адресу, URL1:
Chinese room - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть, любые претензии не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, денежную единицу можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)