~~~~~~~~~~~~~~~~~~~~ Arc.Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~ 
Номер скриншота №:
✰ 9E5D3888418F8197680E19F93F40B15E__1715315880 ✰
Заголовок документа оригинал.:
✰ Symbolic artificial intelligence - Wikipedia ✰
Заголовок документа перевод.:
✰ Символический искусственный интеллект — Википедия ✰
Снимок документа находящегося по адресу (URL):
✰ https://en.wikipedia.org/wiki/Sub-symbolic ✰
Адрес хранения снимка оригинал (URL):
✰ https://arc.ask3.ru/arc/aa/9e/5e/9e5d3888418f8197680e19f93f40b15e.html ✰
Адрес хранения снимка перевод (URL):
✰ https://arc.ask3.ru/arc/aa/9e/5e/9e5d3888418f8197680e19f93f40b15e__translat.html ✰
Дата и время сохранения документа:
✰ 22.06.2024 19:56:10 (GMT+3, MSK) ✰
Дата и время изменения документа (по данным источника):
✰ 10 May 2024, at 07:38 (UTC). ✰ 

~~~~~~~~~~~~~~~~~~~~~~ Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~~ 
Сервисы Ask3.ru: 
 Архив документов (Снимки документов, в формате HTML, PDF, PNG - подписанные ЭЦП, доказывающие существование документа в момент подписи. Перевод сохраненных документов на русский язык.)https://arc.ask3.ruОтветы на вопросы (Сервис ответов на вопросы, в основном, научной направленности)https://ask3.ru/answer2questionТоварный сопоставитель (Сервис сравнения и выбора товаров) ✰✰
✰ https://ask3.ru/product2collationПартнерыhttps://comrades.ask3.ru


Совет. Чтобы искать на странице, нажмите Ctrl+F или ⌘-F (для MacOS) и введите запрос в поле поиска.
Arc.Ask3.ru: далее начало оригинального документа

Символический искусственный интеллект — Википедия Jump to content

Символический искусственный интеллект

Из Википедии, бесплатной энциклопедии
(Перенаправлено с Sub-symbolic )
Художественное изображение ИИ, в котором поперечное сечение человеческой головы и мозга в профиль смешано с контуром, подобным фону и наложению.
Художественное представление ИИ

В искусственном интеллекте символический искусственный интеллект — это термин, обозначающий совокупность всех методов исследования искусственного интеллекта, которые основаны на символических (удобочитаемых) представлениях проблем высокого уровня, логике и поиске . [1] Символический ИИ использовал такие инструменты, как логическое программирование , правила производства , семантические сети и фреймы , а также разработал такие приложения, как системы, основанные на знаниях (в частности, экспертные системы ), символическую математику , автоматизированные средства доказательства теорем , онтологии , семантическую сеть и автоматизированные системы. системы планирования и планирования . Парадигма символического ИИ привела к появлению плодотворных идей в области поиска , языков символического программирования, агентов , многоагентных систем , семантической сети , а также сильных и слабых сторон формальных знаний и систем рассуждения .

Символический ИИ был доминирующей парадигмой исследований ИИ с середины 1950-х до середины 1990-х годов. [2] Исследователи 1960-х и 1970-х годов были убеждены, что символические подходы в конечном итоге позволят создать машину с общим искусственным интеллектом , и считали это конечной целью своей области. [ нужна цитата ] Ранний бум с ранними успехами, такими как « Теоретик логики» и Сэмюэля » « Программа игры в шашки , привел к нереалистичным ожиданиям и обещаниям, за которым последовала Первая зима искусственного интеллекта, поскольку финансирование иссякло. [3] [4] Второй бум (1969–1986 гг.) произошел с появлением экспертных систем, их обещанием использовать корпоративный опыт и энтузиазмом корпоративных объятий. [5] [6] За этим бумом и некоторыми ранними успехами, например, XCON в DEC , последовало позднее разочарование. [6] Возникли проблемы с получением знаний, поддержанием больших баз знаний и нестабильностью в решении проблем, выходящих за пределы предметной области. Затем последовал еще один, второй, AI Winter (1988–2011). [7] Впоследствии исследователи ИИ сосредоточились на решении основных проблем, связанных с преодолением неопределенности и приобретением знаний. [8] Неопределенность решалась с помощью формальных методов, таких как скрытые марковские модели , байесовские рассуждения и статистическое реляционное обучение . [9] [10] Символическое машинное обучение решило проблему приобретения знаний с помощью таких вкладов, как пространство версий , , Valiant обучение PAC обучение Quinlan ID3 и решений дереву , обучение на основе прецедентов индуктивное логическое программирование для изучения отношений. [11]

Нейронные сети , субсимволический подход, развивались с самого начала и вновь получили широкое распространение в 2012 году. Ранними примерами являются Розенблатта , по обучению перцептрона работа работа по обратному распространению ошибки Румельхарта, Хинтона и Уильямса, [12] и работа в области сверточных нейронных сетей ЛеКуна и др. в 1989 году. [13] Однако нейронные сети не считались успешными примерно до 2012 года: «Пока большие данные не стали обычным явлением, общее мнение в сообществе искусственного интеллекта заключалось в том, что так называемый подход нейронных сетей безнадежен. к другим методам... Революция произошла в 2012 году, когда ряд людей, в том числе группа исследователей, работающая с Хинтоном, разработали способ использования мощности графических процессоров для значительного увеличения мощности нейронных сетей». [14] В течение следующих нескольких лет глубокое обучение добилось впечатляющих успехов в работе со зрением, распознавании речи , синтезе речи, генерации изображений и машинном переводе. Однако с 2020 года, когда при подходах глубокого обучения стали более очевидными трудности, связанные с предвзятостью, объяснением, понятностью и надежностью; все большее число исследователей ИИ призывают объединить лучшее из символического и нейросетевого подходов. [15] [16] и обращение к областям, с которыми оба подхода сталкиваются с трудностями, например, к рассуждениям, основанным на здравом смысле . [14]

История [ править ]

Ниже приводится краткая история символического ИИ до наших дней. Периоды времени и названия взяты из лекции Генри Каутца, посвященной памяти Роберта С. Энгельмора AAAI 2020 года. [17] и более длинная статья в Википедии по истории искусственного интеллекта с немного отличающимися датами и названиями для большей ясности.

Первое лето ИИ: иррациональное изобилие, . гг 1948–1966

Успех первых попыток создания ИИ произошел в трех основных областях: искусственные нейронные сети, представление знаний и эвристический поиск, что способствовало возникновению высоких ожиданий. В этом разделе резюмируется повторение Каутцем ранней истории искусственного интеллекта.

основанные на познании или поведении человека Подходы , или животного

Кибернетические подходы попытались воспроизвести петли обратной связи между животными и окружающей их средой. Робот-черепаха с датчиками, двигателями для вождения и рулевого управления, а также семью электронными трубками для управления, основанная на заранее запрограммированной нейронной сети, была построена еще в 1948 году. Эту работу можно рассматривать как ранний предшественник более поздних работ в области нейронных сетей. обучение с подкреплением и расположенная робототехника. [18]

Важной ранней программой символического ИИ была программа «Теоретик логики » , написанная Алленом Ньюэллом , Гербертом Саймоном и Клиффом Шоу в 1955–56 годах, поскольку она смогла доказать 38 элементарных теорем из « Principia Mathematica » Уайтхеда и Рассела . Позже Ньюэлл, Саймон и Шоу обобщили эту работу, создав независимое от предметной области средство решения проблем GPS (General Issue Solver). GPS решала проблемы, представленные формальными операторами, посредством поиска в пространстве состояний с использованием анализа средств и целей . [19]

В 1960-е годы символические подходы добились больших успехов в моделировании разумного поведения в структурированных средах, таких как игры, символическая математика и доказательство теорем. В 1960-е годы исследования ИИ были сосредоточены в четырёх институтах: Университете Карнеги-Меллона , Стэнфорде , Массачусетском технологическом институте и (позже) Эдинбургском университете . Каждый из них разработал свой собственный стиль исследования. Более ранние подходы, основанные на кибернетике или искусственных нейронных сетях, были заброшены или отодвинуты на второй план.

Герберт Саймон и Аллен Ньюэлл изучали человеческие навыки решения проблем и пытались их формализовать, а их работа заложила основы области искусственного интеллекта, а также когнитивной науки , исследования операций и науки управления . Их исследовательская группа использовала результаты психологических экспериментов для разработки программ, имитирующих методы, используемые людьми для решения проблем. [20] [21] Эта традиция, сосредоточенная в Университете Карнеги-Меллона, в конечном итоге привела к развитию архитектуры Soar в середине 1980-х годов. [22] [23]

Эвристический поиск [ править ]

В дополнение к узкоспециализированным знаниям, специфичным для конкретной предметной области, которые мы увидим позже в экспертных системах, ранние исследователи символического ИИ открыли еще одно, более общее применение знаний. Их называли эвристикой, эмпирическими правилами, которые направляют поиск в многообещающих направлениях: «Как может неперечислительный поиск быть практичным, если основная проблема экспоненциально сложна? Подход, пропагандируемый Саймоном и Ньюэллом, заключается в использовании эвристики : быстрых алгоритмов, которые могут потерпеть неудачу». на некоторых входах или на выходе неоптимальные решения». [24] Еще одним важным достижением стал поиск способа применения этих эвристик, гарантирующего, что решение будет найдено, если оно таковое существует, несмотря на случайные ошибки эвристики: «Алгоритм A* предоставил общую основу для полного и оптимального эвристически управляемого поиска. A* сегодня используется в качестве подпрограммы практически в каждом алгоритме ИИ, но все еще не является волшебным средством; его гарантия полноты достигается за счет экспоненциального времени в худшем случае. [24]

знаний рассуждению Ранние работы по представлению и

Ранние работы охватывали как применения формальных рассуждений с упором на логику первого порядка , так и попытки обрабатывать рассуждения здравого смысла менее формальным образом.

Моделирование формальных рассуждений с помощью логики: «аккуратность» [ править ]

В отличие от Саймона и Ньюэлла, Джон Маккарти считал, что машинам не нужно моделировать точные механизмы человеческого мышления, а вместо этого они могут попытаться найти суть абстрактного рассуждения и решения проблем с помощью логики. [25] независимо от того, использовали ли люди одни и те же алгоритмы. [а] Его лаборатория в Стэнфорде ( SAIL ) сосредоточилась на использовании формальной логики для решения широкого спектра задач, включая представление знаний , планирование и обучение . [29] Логика также была в центре внимания работ в Эдинбургском университете и других странах Европы, что привело к развитию языка программирования Пролог и науки логического программирования. [30] [31]

Моделирование неявных знаний здравого смысла с помощью фреймов и сценариев: «неряшливость» [ править ]

Исследователи из Массачусетского технологического института (такие как Марвин Мински и Сеймур Пейперт ) [32] [33] [4] обнаружили, что решение сложных проблем со зрением и обработкой естественного языка требует специальных решений — они утверждали, что ни один простой и общий принцип (например, логика ) не может охватить все аспекты разумного поведения. Роджер Шанк назвал их «антилогические» подходы « неряшливыми » (в отличие от « аккуратных » парадигм КМУ и Стэнфорда). [34] [35] Базы знаний здравого смысла (такие как Дуга Лената ) Cyc являются примером «неряшливого» ИИ, поскольку их приходится создавать вручную, по одной сложной концепции за раз. [36] [37] [38]

Первая зима ИИ: разбитые мечты, гг . 1967–1977

Первая зима ИИ стала шоком:

Во время первого лета искусственного интеллекта многие думали, что машинный интеллект можно создать всего за несколько лет. Агентство перспективных оборонных исследовательских проектов (DARPA) запустило программы поддержки исследований ИИ с целью использования ИИ для решения проблем национальной безопасности; в частности, автоматизировать перевод с русского на английский язык для разведывательных операций и создать автономные танки для поля боя. Исследователи начали понимать, что достижение ИИ будет намного сложнее, чем предполагалось десять лет назад, но сочетание высокомерия и неискренности заставило многих исследователей из университетов и аналитических центров принять финансирование с обещаниями результатов, о которых они должны были знать, что они могут это сделать. не выполнить. К середине 1960-х годов не было создано ни полезных систем перевода на естественный язык, ни автономных танков, и началась резкая реакция. Новое руководство DARPA отменило существующие программы финансирования искусственного интеллекта.

...

За пределами США наиболее благодатной почвой для исследований ИИ была Великобритания. Зима искусственного интеллекта в Соединенном Королевстве была вызвана не столько разочарованием военных лидеров, сколько конкурирующими учеными, которые считали исследователей искусственного интеллекта шарлатанами и отнимали финансирование исследований. Парламент поручил профессору прикладной математики сэру Джеймсу Лайтхиллу оценить состояние исследований ИИ в стране . В отчете говорится, что все проблемы, над которыми работают в области ИИ, лучше решать исследователям из других дисциплин, таких как прикладная математика. В отчете также утверждается, что успехи ИИ в решении игрушечных задач никогда не смогут масштабироваться до реальных приложений из-за комбинаторного взрыва. [39]

Второе лето ИИ: знание – сила, гг . 1978–1987

основанные на знаниях , Системы

Поскольку ограничения слабых, независимых от предметной области методов становились все более очевидными, [40] исследователи всех трех традиций начали встраивать знания в приложения ИИ. [41] [5] Революция в области знаний была вызвана осознанием того, что знания лежат в основе высокопроизводительных специализированных приложений искусственного интеллекта.

Эдвард Фейгенбаум сказал:

  • «В знании – сила». [42]

Чтобы описать высокую производительность в конкретной области, требуются как общие, так и узкоспециализированные знания. Эд Фейгенбаум и Дуг Ленат назвали это «Принципом знания»:

(1) Принцип знания: если программа хочет хорошо выполнять сложную задачу, она должна много знать о мире, в котором она работает.
(2) Правдоподобное расширение этого принципа, называемое гипотезой ширины: существуют две дополнительные способности, необходимые для разумного поведения в неожиданных ситуациях: обращение к все более общим знаниям и проведение аналогий с конкретными, но обширными знаниями. [43]

экспертными системами Успех с

Эта «революция знаний» привела к разработке и внедрению экспертных систем (представленных Эдвардом Фейгенбаумом ), первой коммерчески успешной формы программного обеспечения искусственного интеллекта. [44] [45] [46]

Ключевыми экспертными системами были:

  • ДЕНДРАЛ , который нашел структуру органических молекул по их химической формуле и показаниям масс-спектрометра.
  • MYCIN , который диагностировал бактериемию и при необходимости предлагал дальнейшие лабораторные исследования, интерпретируя результаты лабораторных исследований, историю болезни и наблюдения врача. «Имея около 450 правил, MYCIN смог работать так же хорошо, как некоторые эксперты, и значительно лучше, чем младшие врачи». [47]
  • ИНТЕРНИСТ и КАДУЦЕЙ , занимающиеся диагностикой внутренних болезней. Терапевт попытался перенять опыт заведующего кафедрой внутренних болезней Медицинской школы Университета Питтсбурга, в то время как CADUCEUS в конечном итоге смог диагностировать до 1000 различных заболеваний.
  • GUIDON, который показал, как база знаний, созданная для экспертного решения проблем, может быть перепрофилирована для обучения. [48]
  • XCON для настройки компьютеров VAX — трудоемкий на тот момент процесс, который мог занять до 90 дней. XCON сократил время примерно до 90 минут. [7]

ДЕНДРАЛ считается первой экспертной системой, основанной на наукоемком решении задач. Это описано ниже Эдом Фейгенбаумом из ACM интервью « Интервью с Эдом Фейгенбаумом» :

Одним из людей в Стэнфорде, интересующихся компьютерными моделями разума, был Джошуа Ледерберг , лауреат Нобелевской премии 1958 года по генетике. Когда я сказал ему, что хочу индукционную «песочницу», он ответил: «У меня есть именно такая для тебя». В его лаборатории проводилась масс-спектрометрия аминокислот. Вопрос заключался в следующем: как перейти от рассмотрения спектра аминокислоты к химической структуре аминокислоты? Вот как мы начали проект DENDRAL: я хорошо разбирался в эвристических методах поиска, а у него был алгоритм, который хорошо генерировал пространство химических задач.

У нас не было грандиозного видения. Мы работали снизу вверх. Нашим химиком был Карл Джерасси , изобретатель химического вещества, лежащего в основе противозачаточных таблеток, а также один из самых уважаемых в мире масс-спектрометристов. Карл и его постдоки были экспертами мирового класса в области масс-спектрометрии. Мы начали расширять их знания, изобретая по ходу дела инженерные знания. Эти эксперименты привели к тому, что ДЕНДРАЛ получил все больше и больше знаний. Чем больше вы это делали, тем умнее становилась программа. У нас были очень хорошие результаты.

Обобщение гласило: в знании заключена сила. Это была большая идея. В моей карьере это было громкое «Ага!», и раньше ИИ создавался не так. Звучит просто, но это, вероятно, самое мощное обобщение ИИ. [49]

Остальные экспертные системы, упомянутые выше, появились после DENDRAL. MYCIN иллюстрирует классическую архитектуру экспертной системы, состоящую из базы знаний правил в сочетании с механизмом символического рассуждения, включая использование факторов уверенности для обработки неопределенности. GUIDON показывает, как явная база знаний может быть перепрофилирована для второго приложения, обучения, и является примером интеллектуальной системы обучения , особого типа приложения, основанного на знаниях. Клэнси показал, что недостаточно просто использовать правила MYCIN для обучения, необходимо также добавить правила для управления диалогом и моделирования учащихся. [48] XCON важен тем, что он сэкономил миллионы долларов DEC , что спровоцировало бум экспертных систем, когда большинство крупных корпораций в США имели группы экспертных систем для сбора корпоративного опыта, его сохранения и автоматизации:

К 1988 году группа искусственного интеллекта DEC развернула 40 экспертных систем, и их количество будет увеличиваться. У DuPont было 100 в использовании и 500 в разработке. Почти каждая крупная корпорация США имела свою собственную группу искусственного интеллекта и либо использовала, либо исследовала экспертные системы. [47]

Знания экспертов по шахматам были закодированы в Deep Blue . В 1996 году это позволило Deep компании IBM Blue с помощью символического ИИ выиграть в шахматной партии у тогдашнего чемпиона мира Гарри Каспарова . [50]

Архитектура основанных на знаниях и экспертных систем [ править ]

Ключевым компонентом системной архитектуры всех экспертных систем является база знаний, в которой хранятся факты и правила решения задач. [51] Самый простой подход к созданию базы знаний экспертной системы — это просто набор или сеть производственных правил . Продукционные правила соединяют символы отношениями, подобными оператору «Если-То». Экспертная система обрабатывает правила, чтобы сделать выводы и определить, какая дополнительная информация ей нужна, т. е. какие вопросы задавать, используя удобочитаемые символы. Например, OPS5 , CLIPS и их преемники Jess и Drools таким же образом работают .

Экспертные системы могут работать либо по прямой цепочке – от доказательств к выводам, либо по обратной цепочке – от целей к необходимым данным и предварительным условиям. Более продвинутые системы, основанные на знаниях, такие как Soar, также могут выполнять рассуждения на метауровне, то есть рассуждать о своих собственных рассуждениях с точки зрения решения проблем и мониторинга успеха стратегий решения проблем.

Системы Blackboard — это второй вид основанной на знаниях , архитектуры экспертных систем . Они моделируют сообщество экспертов, постепенно вносящих свой вклад, где только могут, в решение проблемы. Проблема представлена ​​на нескольких уровнях абстракции или в альтернативных представлениях. Эксперты (источники знаний) добровольно предоставляют свои услуги всякий раз, когда осознают, что могут внести свой вклад. Потенциальные действия по решению проблем представлены в повестке дня, которая обновляется по мере изменения проблемной ситуации. Контролер решает, насколько полезен каждый вклад и кто должен предпринять следующее действие по решению проблемы. Один из примеров: архитектура доски BB1. [52] Первоначально он был вдохновлен исследованиями того, как люди планируют выполнять несколько задач во время путешествия. [53] Новшеством BB1 было применение той же модели доски для решения проблемы управления, т. е. его контроллер выполнял рассуждения на метауровне с использованием источников знаний, которые отслеживали, насколько хорошо продвигался план или решение проблем, и мог переключаться с одной стратегии на другую. по мере того, как условия – такие как цели или время – менялись. BB1 применяется во многих областях: планирование строительной площадки, интеллектуальные системы обучения и мониторинг пациентов в режиме реального времени.

Вторая зима AI, гг . 1988–1993

В разгар бума искусственного интеллекта такие компании, как Symbolics , LMI и Texas Instruments, продавали машины LISP, специально предназначенные для ускорения разработки приложений и исследований искусственного интеллекта. Кроме того, несколько компаний, занимающихся искусственным интеллектом, таких как Teknowledge и Inference Corporation , продавали корпорациям оболочки экспертных систем, обучение и консалтинг.

К сожалению, бум искусственного интеллекта длился недолго, и Каутц лучше всего описывает последовавшую вторую зиму искусственного интеллекта:

Можно назвать много причин прихода второй зимы AI. Компании-производители аппаратного обеспечения потерпели неудачу, когда на рынке появились гораздо более экономичные рабочие станции общего назначения Unix от Sun вместе с хорошими компиляторами для LISP и Prolog. Многие коммерческие внедрения экспертных систем были прекращены, поскольку их обслуживание оказалось слишком дорогостоящим. Медицинские экспертные системы так и не получили распространения по нескольким причинам: сложность поддержания их в актуальном состоянии; перед медицинскими работниками стоит задача научиться использовать ошеломляющее разнообразие различных экспертных систем для различных заболеваний; и, возможно, самое главное, нежелание врачей доверять компьютерному диагнозу больше, чем интуиции, даже в тех конкретных областях, где экспертные системы могут превзойти среднего врача. Деньги венчурного капитала покинули ИИ практически в одночасье. Всемирная конференция по искусственному интеллекту IJCAI в 1987 году в Ванкувере организовала огромную и щедрую торговую выставку, которую посетили тысячи неакадемических работников; главная конференция по искусственному интеллекту в следующем году, AAAI 1988 в Сент-Поле, была небольшим и строго академическим мероприятием. [7]

Добавление более строгих основ, гг . 1993–2011

Неопределенное рассуждение [ править ]

Были опробованы как статистические подходы, так и расширения логики.

Один статистический подход, скрытые модели Маркова , уже был популяризирован в 1980-х годах для работы по распознаванию речи. [9] Впоследствии, в 1988 году, Джудея Перл популяризировал использование байесовских сетей как надежного, но эффективного способа обработки неопределенных рассуждений, опубликовав книгу «Вероятностные рассуждения в интеллектуальных системах: сети правдоподобных выводов». [54] и байесовский подходы успешно применялись в экспертных системах. [55] Даже позже, в 1990-х годах, статистическое реляционное обучение, подход, сочетающий вероятность с логическими формулами, позволило объединить вероятность с логикой первого порядка, например, с марковскими логическими сетями или вероятностной мягкой логикой .

Также были опробованы другие, невероятностные расширения логики первого порядка. Например, немонотонные рассуждения можно использовать с системами поддержания истины . Система поддержания истины отслеживала предположения и обоснования всех выводов. Это позволяло отозвать выводы, когда предположения оказались неверными или было получено противоречие. Объяснения могут быть предоставлены для вывода, объясняя, какие правила были применены для его создания, а затем продолжая рассмотрение основных выводов и правил вплоть до основных предположений. [56] Лофти Заде ввел другой тип расширения для представления неопределенности. Например, при принятии решения о том, насколько «тяжелый» или «высокий» мужчина, часто нет четкого ответа «да» или «нет», и вместо этого предикат для тяжелого или высокого будет возвращать значения от 0 до 1. Эти значения представлены в какой степени предикаты были истинны. Его нечеткая логика также предоставила средства для распространения комбинаций этих значений через логические формулы. [57]

Машинное обучение [ править ]

Подходы к символическому машинному обучению были исследованы для устранения узких мест в получении знаний . Одним из самых ранних является Мета-ДЕНДРАЛ . Мета-ДЕНДРАЛ использовал метод генерации и тестирования для создания правдоподобных гипотез о правилах для проверки спектров. Знание предметной области и задач сократило количество протестированных кандидатов до приемлемого размера. Фейгенбаум описал Мета-ДЕНДРАЛ как

...кульминация моей мечты начала-середины 1960-х годов, связанной с формированием теории. Идея заключалась в том, что у вас есть средство решения проблем, такое как DENDRAL, которое принимает некоторые входные данные и выдает выходные данные. При этом он использовал слои знаний, чтобы направлять и сокращать поиск. Эти знания появились благодаря тому, что мы брали интервью у людей. Но как люди получили эти знания? Глядя на тысячи спектров. Поэтому нам нужна была программа, которая могла бы анализировать тысячи спектров и делать выводы о знаниях масс-спектрометрии, которые ДЕНДРАЛ мог бы использовать для решения отдельных задач формирования гипотез. Мы сделали это. Нам даже удалось опубликовать новые знания о масс-спектрометрии в Журнале Американского химического общества , лишь в сноске указав, что программа Meta-DENDRAL действительно сделала это. Нам удалось сделать то, о чем мы мечтали: создать компьютерную программу, которая выдаст новый научный результат, который можно будет опубликовать. [49]

В отличие от наукоемкого подхода Meta-DENDRAL, Росс Куинлан изобрел независимый от предметной области подход к статистической классификации, обучению дерева решений , начиная сначала с ID3. [58] а затем расширил его возможности до C4.5 . [59] Созданные деревья решений представляют собой стеклянный ящик , интерпретируемые классификаторы с интерпретируемыми человеком правилами классификации.

Прогресс был достигнут и в понимании теории машинного обучения. Том Митчелл представил обучение в пространстве версий , которое описывает обучение как поиск в пространстве гипотез с верхними, более общими, и нижними, более конкретными границами, охватывающими все жизнеспособные гипотезы, соответствующие уже рассмотренным примерам. [60] Более формально компания Valiant представила «Вероятно приблизительно правильное обучение» (PAC Learning), основу для математического анализа машинного обучения. [61]

Символическое машинное обучение — это нечто большее, чем просто обучение на примерах. Например, Джон Андерсон представил когнитивную модель человеческого обучения, в которой практика навыков приводит к компиляции правил из декларативного формата в процедурный формат с помощью его ACT-R когнитивной архитектуры . Например, учащийся может научиться применять фразу «Дополнительные углы — это два угла, сумма которых равна 180 градусам» в качестве нескольких различных процедурных правил. Например, одно правило может гласить, что если X и Y дополняют друг друга и вы знаете X, то Y будет 180 - X. Он назвал свой подход «компиляцией знаний». ACT-R успешно использовался для моделирования аспектов человеческого познания, таких как обучение и запоминание. ACT-R также используется в интеллектуальных обучающих системах , называемых когнитивными наставниками , для успешного преподавания школьникам геометрии, компьютерного программирования и алгебры. [62]

Индуктивное логическое программирование было еще одним подходом к обучению, который позволял синтезировать логические программы на основе примеров ввода-вывода. Например, Эхуда Шапиро могла синтезировать программы Пролога на основе примеров. MIS (система вывода моделей) [63] Джон Р. Коза применил генетические алгоритмы к синтезу программ для создания генетического программирования , которое он использовал для синтеза программ LISP. Наконец, Зохар Манна и Ричард Уолдингер предложили более общий подход к синтезу программ , который синтезирует функциональную программу в ходе проверки правильности ее спецификаций. [64]

В качестве альтернативы логике Роджер Шанк представил рассуждение на основе прецедентов (CBR). Подход CBR, изложенный в его книге «Динамическая память», [65] основное внимание уделяется запоминанию ключевых случаев решения проблем для использования в будущем и их обобщению, где это необходимо. Столкнувшись с новой проблемой, ЦБ РФ извлекает наиболее похожий из предыдущих случаев и адаптирует его к специфике текущей проблемы. [66] Другая альтернатива логике — генетические алгоритмы и генетическое программирование — основана на эволюционной модели обучения, в которой наборы правил кодируются в популяции, правила управляют поведением особей, а отбор наиболее приспособленных сокращает наборы неподходящих правил на протяжении многих поколений. . [67]

Символическое машинное обучение применялось для изучения концепций, правил, эвристики и решения проблем. Подходы, помимо вышеперечисленных, включают в себя:

  1. Обучение на основе инструкций или советов, т. е. принятие человеческих указаний, представленных в виде советов, и определение того, как применить их на практике в конкретных ситуациях. Например, в игре «Червы» нужно научиться правильно разыгрывать руку, чтобы «не набирать очки». [68]
  2. Обучение на примерах — повышение производительности за счет принятия отзывов профильных экспертов (SME) во время обучения. Когда решение проблемы не удается, эксперту предлагается либо изучить новый образец решения проблемы, либо получить новое объяснение того, почему один образец более актуален, чем другой. Например, программа Protos научилась диагностировать шум в ушах, общаясь с аудиологом. [69]
  3. Обучение по аналогии — построение решений проблем на основе аналогичных проблем, наблюдавшихся в прошлом, а затем модификация их решений в соответствии с новой ситуацией или областью. [70] [71]
  4. Системы обучения учеников — изучение новых решений проблем, наблюдая за решением проблем человеком. Знание предметной области объясняет, почему новые решения верны и как их можно обобщить. LEAP научился проектировать схемы СБИС, наблюдая за проектировщиками-людьми. [72]
  5. Обучение путем открытия, т. е. создание задач для проведения экспериментов и последующее обучение на основе результатов. Дуга Лената из Eurisko , например, Traveler . два года подряд изучала эвристику, чтобы побеждать игроков-людей в ролевой игре [73]
  6. Изучение макрооператоров — т. е. поиск полезных макрооператоров, которые можно изучить на основе последовательностей основных действий по решению проблем. Хорошие макрооператоры упрощают решение проблем, позволяя решать проблемы на более абстрактном уровне. [74]

Глубокое обучение и нейросимволический искусственный интеллект, 2011 сейчас г.

С развитием глубокого обучения символический подход ИИ стали сравнивать с глубоким обучением как дополняющий его «…при этом исследователи ИИ много раз проводили параллели между исследованиями Канемана о человеческом рассуждении и принятии решений, отраженными в его книге « Думай, быстро». и Медленный – и так называемые «системы ИИ 1 и 2», которые в принципе будут моделироваться с помощью глубокого обучения и символического мышления соответственно». С этой точки зрения символическое мышление больше подходит для обдуманного рассуждения, планирования и объяснения, тогда как глубокое обучение больше подходит для быстрого распознавания образов в перцептивных приложениях с зашумленными данными. [15] [16]

Нейро-символический ИИ: интеграция нейронного подходов и символического

Нейросимволический ИИ пытается интегрировать нейронную и символическую архитектуру таким образом, чтобы взаимодополняющим образом учитывать сильные и слабые стороны каждой из них, чтобы поддерживать надежный ИИ, способный рассуждать, обучаться и когнитивно моделировать. Как утверждает Валиант [75] и многие другие, [76] эффективное построение богатых вычислительных когнитивных моделей требует сочетания здравых символических рассуждений и эффективных моделей (машинного) обучения. Гэри Маркус аналогичным образом утверждает, что: «Мы не можем построить богатые когнитивные модели адекватным, автоматизированным способом без триумвирата гибридной архитектуры, богатых предварительных знаний и сложных методов рассуждения». [77] и в частности: «Чтобы построить надежный, основанный на знаниях подход к ИИ, мы должны иметь в своем наборе инструментов механизм манипулирования символами. Слишком большая часть полезных знаний абстрактна, чтобы обойтись без инструментов, которые представляют абстракцию и манипулируют ею, и на сегодняшний день это единственный механизм то, что мы знаем о том, что можно надежно манипулировать таким абстрактным знанием, является аппаратом манипулирования символами». [78]

Генри Каутц , [17] Франческа Росси , [79] и Барт Селман [80] также выступали за синтез. Их аргументы основаны на необходимости обратиться к двум видам мышления, обсуждаемым в Дэниела Канемана книге « Думай быстро и медленно» . Канеман описывает человеческое мышление как состоящее из двух компонентов: Системы 1 и Системы 2 . Система 1 быстрая, автоматическая, интуитивная и бессознательная. Система 2 более медленная, пошаговая и явная. Система 1 используется для распознавания образов, тогда как Система 2 гораздо лучше подходит для планирования, дедукции и обдуманного мышления. С этой точки зрения, глубокое обучение лучше всего моделирует первый тип мышления, а символическое рассуждение лучше всего моделирует второй тип, и оба необходимы.

Гарсез и Лэмб описывают, что исследования в этой области продолжаются, по крайней мере, последние двадцать лет. [81] начиная с их книги 2002 года о нейросимволических системах обучения. [82] Серия семинаров по нейросимволическому мышлению проводится каждый год, начиная с 2005 года, см. на http://www.neural-symbolic.org/ подробности .

В своей статье 2015 года «Нейро-символическое обучение и рассуждение: вклад и проблемы» Гарсез и др. утверждает, что:

Интеграция символической и коннекционистской парадигм ИИ проводилась относительно небольшим исследовательским сообществом в течение последних двух десятилетий и дала несколько значительных результатов. За последнее десятилетие было показано, что нейронные символические системы способны преодолевать так называемую пропозициональную фиксацию нейронных сетей, как выразился Маккарти (1988) в ответ на Смоленского (1988); см. также (Хинтон, 1990). Было показано, что нейронные сети способны представлять модальную и временную логику (д'Авила Гарсез и Ламб, 2006) и фрагменты логики первого порядка (Бадер, Хитцлер, Хёллдоблер, 2008; д'Авила Гарсез, Ламб, Габбай, 2009). Кроме того, нейронно-символические системы применялись для решения ряда задач в области биоинформатики, техники управления, проверки и адаптации программного обеспечения, визуального интеллекта, обучения онтологии и компьютерных игр. [76]

Подходы к интеграции разнообразны. Генри Каутца Таксономия нейросимволических архитектур вместе с некоторыми примерами выглядит следующим образом:

  • Символическая нейронная символика — это текущий подход многих нейронных моделей обработки естественного языка, где слова или токены подслов являются одновременно конечными входными и выходными данными больших языковых моделей. Примеры включают BERT , RoBERTa и GPT-3 .
  • Символический[Нейронный] — примером является AlphaGo , где символические методы используются для вызова нейронных методов. В этом случае символическим подходом является поиск по дереву Монте-Карло , а нейронные методы учатся оценивать игровые позиции.
  • Neural|Symbolic — использует нейронную архитектуру для интерпретации перцептивных данных как символов и отношений, которые затем анализируются символически.
  • Нейронный: символический → нейронный — полагается на символические рассуждения для генерации или маркировки обучающих данных, которые впоследствии изучаются моделью глубокого обучения, например, для обучения нейронной модели символическим вычислениям с использованием системы символьной математики, подобной Macsyma , для создания или маркировки примеров. .
  • Neural_{Symbolic} — использует нейронную сеть, созданную на основе символических правил. Примером может служить средство доказательства нейронных теорем. [83] который конструирует нейронную сеть из дерева доказательств И-ИЛИ , сгенерированного на основе правил и терминов базы знаний. Логические тензорные сети [84] тоже попадают в эту категорию.
  • Neural[Symbolic] — позволяет нейронной модели напрямую вызывать механизм символического рассуждения, например, для выполнения действия или оценки состояния.

Остаются многие ключевые вопросы исследования, такие как:

  • Как лучше всего интегрировать нейронную и символическую архитектуру? [85]
  • Как символические структуры следует представлять в нейронных сетях и извлекать из них?
  • Как следует изучать и рассуждать о здравых знаниях?
  • Как можно обращаться с абстрактными знаниями, которые сложно логически закодировать?

Методы и вклад [ править ]

В этом разделе представлен обзор методов и их вклада в общий контекст, ведущий к множеству других, более подробных статей в Википедии. Разделы, посвященные машинному обучению и неопределенному рассуждению, рассмотрены ранее в разделе истории .

Языки программирования ИИ [ править ]

Ключевым языком программирования ИИ в США во время последнего символического периода бума ИИ был LISP . LISP — второй старейший язык программирования после FORTRAN , созданный в 1958 году Джоном Маккарти . LISP предоставил первый цикл чтения-оценки-печати для поддержки быстрой разработки программ. Скомпилированные функции можно было свободно смешивать с интерпретируемыми функциями. Также были предусмотрены трассировка программы, пошаговое выполнение и точки останова, а также возможность изменять значения или функции и продолжать работу с точек останова или ошибок. У него был первый самостоятельный компилятор , а это означало, что сам компилятор изначально был написан на LISP, а затем запускался интерпретативно для компиляции кода компилятора.

Другие ключевые инновации, предложенные LISP и распространившиеся на другие языки программирования, включают:

Программы сами по себе представляли собой структуры данных, с которыми могли работать другие программы, что позволяло легко определять языки более высокого уровня.

В отличие от США, в Европе ключевым языком программирования ИИ в тот же период был Пролог . Пролог предоставлял встроенное хранилище фактов и предложений, к которым можно было обращаться с помощью цикла чтения-оценки-печати . Хранилище может действовать как база знаний, а предложения могут действовать как правила или ограниченная форма логики. Как подмножество логики первого порядка, Пролог был основан на предложениях Хорна с допущением закрытого мира (любые неизвестные факты считались ложными) и предположением об уникальном имени для примитивных терминов (например, считалось, что идентификатор barack_obama относится ровно к одному объект. Возврат и унификация встроены в Пролог.

Ален Кольмерауэр и Филипп Руссель считаются изобретателями Пролога. Пролог — это форма логического программирования, изобретенная Робертом Ковальски . На ее историю также повлияла Карла Хьюитта , PLANNER база данных утверждений с вызовом методов на основе шаблонов. Более подробно см. раздел о происхождении Пролога в статье PLANNER .

Пролог также является разновидностью декларативного программирования . Логические предложения, описывающие программы, напрямую интерпретируются для запуска указанных программ. Никакой явной последовательности действий не требуется, как в случае с императивными языками программирования.

Япония поддержала Prolog в своем проекте пятого поколения , намереваясь создать специальное оборудование для высокой производительности. Точно так же машины LISP были созданы для работы с LISP, но когда второй бум искусственного интеллекта обернулся крахом, эти компании не смогли конкурировать с новыми рабочими станциями, которые теперь могли запускать LISP или Prolog на сопоставимых скоростях. смотрите в разделе история Более подробную информацию .

Smalltalk был еще одним влиятельным языком программирования искусственного интеллекта. Например, он представил метаклассы и, наряду с Flavors и CommonLoops , повлиял на Common Lisp Object System , или ( CLOS ), которая теперь является частью Common Lisp , текущего стандартного диалекта Lisp. CLOS — это объектно-ориентированная система на основе Lisp, которая допускает множественное наследование во время выполнения в дополнение к инкрементным расширениям как классов, так и метаклассов, обеспечивая тем самым протокол метаобъектов . [86]

Другие языки программирования ИИ см. в этом списке языков программирования для искусственного интеллекта . В настоящее время Python , многопарадигмальный язык программирования , является самым популярным языком программирования, отчасти благодаря своей обширной библиотеке пакетов, которая поддерживает науку о данных , обработку естественного языка и глубокое обучение. Python включает в себя цикл чтения-оценки-печати, функциональные элементы, такие как функции высшего порядка , и объектно-ориентированное программирование , включающее метаклассы.

Поиск [ править ]

Поиск возникает во многих видах решения задач, включая планирование , удовлетворение ограничений и игры в такие игры, как шашки , шахматы и го . Наиболее известные алгоритмы поиска в дереве поиска AI — это поиск в ширину , поиск в глубину , A* и поиск по Монте-Карло . Ключевыми алгоритмами поиска логической выполнимости являются WalkSAT , обучение на основе конфликтов и алгоритм DPLL . Для состязательного поиска во время игр ранним вкладом были альфа-бета-обрезка , ветвление и граница и минимакс .

знаний рассуждения Представление и

Было исследовано множество различных подходов к представлению знаний, а затем к обоснованию этих представлений. Ниже приведен краткий обзор подходов к представлению знаний и автоматизированному рассуждению.

Представление знаний [ править ]

Семантические сети , концептуальные графы , фреймы и логика — все это подходы к моделированию знаний, таких как знания предметной области, знания решения проблем и семантическое значение языка. Онтологии моделируют ключевые понятия и их отношения в предметной области. Примерами онтологий являются YAGO , WordNet и DOLCE . DOLCE — это пример верхней онтологии , которую можно использовать для любого домена, а WordNet — это лексический ресурс, который также можно рассматривать как онтологию . YAGO включает WordNet как часть своей онтологии, чтобы согласовать факты, извлеченные из Википедии, WordNet с синсетами . Онтология заболеваний является примером медицинской онтологии, используемой в настоящее время.

Логика описания — это логика автоматической классификации онтологий и обнаружения противоречивых данных классификации. OWL — это язык, используемый для представления онтологий с помощью логики описания . Protégé — это редактор онтологий, который может читать онтологии OWL , а затем проверять согласованность с помощью дедуктивных классификаторов , таких как HermiT. [87]

Логика первого порядка является более общей, чем логика описания. Автоматизированные средства доказательства теорем, обсуждаемые ниже, могут доказывать теоремы в логике первого порядка. Логика предложений Хорна более ограничена, чем логика первого порядка, и используется в языках логического программирования, таких как Пролог. Расширения логики первого порядка включают временную логику для управления временем; эпистемическая логика , позволяющая рассуждать о знаниях агентов; модальная логика для обработки возможности и необходимости; и вероятностная логика для совместной обработки логики и вероятности.

Автоматическое доказательство теорем [ править ]

Примеры автоматизированных средств доказательства теорем для логики первого порядка:

Prover9 можно использовать совместно с Mace4 программой проверки моделей . ACL2 — это средство доказательства теорем, которое может обрабатывать доказательства по индукции и является потомком средства доказательства теорем Бойера-Мура, также известного как Nqthm .

знаниях основанных на , Рассуждение в системах

Системы, основанные на знаниях, имеют явную базу знаний , обычно состоящую из правил, для повышения возможности повторного использования в разных доменах за счет разделения процедурного кода и знаний предметной области. Отдельный механизм вывода обрабатывает правила и добавляет, удаляет или изменяет хранилище знаний.

Механизмы вывода прямой цепочки являются наиболее распространенными и встречаются в CLIPS и OPS5 . Обратная цепочка происходит в Прологе, где используется более ограниченное логическое представление — предложения Horn . Сопоставление с образцом, в частности унификация , используется в Прологе.

Более гибкий вид решения проблем возникает, когда происходит размышление о том, что делать дальше, а не просто выбор одного из доступных действий. Этот вид рассуждений на метауровне используется в Soar и в архитектуре доски BB1.

Когнитивные архитектуры, такие как ACT-R, могут иметь дополнительные возможности, например, способность компилировать часто используемые знания в фрагменты более высокого уровня .

Рассуждения здравого смысла [ править ]

Марвин Мински первым предложил фреймы как способ интерпретации обычных визуальных ситуаций, таких как офис, а Роджер Шанк распространил эту идею на сценарии для обычных повседневных дел, таких как обед вне дома. Cyc попытался собрать полезные знания здравого смысла и разработал «микротеории» для обработки определенных видов рассуждений, специфичных для предметной области.

Качественное моделирование, такое как Бенджамина Койперса , QSIM [88] аппроксимирует человеческие рассуждения о наивной физике, например о том, что происходит, когда мы нагреваем жидкость в кастрюле на плите. Мы ожидаем, что он нагреется и, возможно, закипит, даже если мы не знаем его температуры, точки кипения или других деталей, таких как атмосферное давление.

Точно так же Аллена алгебра временных интервалов представляет собой упрощение рассуждений о времени, а исчисление связей регионов — упрощение рассуждений о пространственных отношениях. Оба могут быть решены с помощью решателей ограничений .

Ограничения и рассуждения на основе ограничений [ править ]

Решатели ограничений выполняют более ограниченный вид вывода, чем логика первого порядка. Они могут упростить наборы пространственно-временных ограничений, например, для RCC или временной алгебры , а также решать другие виды головоломок, таких как Wordle , судоку , криптоарифметические задачи и так далее. Программирование логики ограничений можно использовать для решения задач планирования, например, с помощью правил обработки ограничений (CHR).

Автоматизированное планирование [ править ]

Программа общего решения проблем (GPS) рассматривала планирование как способ решения проблем, используя анализ средств и результатов для создания планов. STRIPS использовал другой подход, рассматривая планирование как доказательство теорем. Graphplan использует подход к планированию с наименьшими обязательствами, а не последовательно выбирает действия из исходного состояния, движения вперед или целевого состояния, если работает назад. Satplan — это подход к планированию, при котором проблема планирования сводится к булевой задаче выполнимости .

Обработка естественного языка [ править ]

Обработка естественного языка фокусируется на рассмотрении языка как данных для выполнения таких задач, как определение тем, без обязательного понимания предполагаемого значения. Понимание естественного языка, напротив, создает представление значения и использует его для дальнейшей обработки, например, для ответа на вопросы.

Синтаксический анализ , токенизация , исправление орфографии , разметка частей речи , разбиение на фрагменты существительных и глагольных фраз — все это аспекты обработки естественного языка, которые долгое время обрабатывались символическим ИИ, но с тех пор были улучшены с помощью подходов глубокого обучения. В символическом ИИ теория репрезентации дискурса для представления значений предложений использовались и логика первого порядка. Скрытый семантический анализ (LSA) и явный семантический анализ также обеспечивали векторное представление документов. В последнем случае векторные компоненты интерпретируются как понятия, названные в статьях Википедии.

Новые подходы к глубокому обучению, основанные на моделях Transformer , теперь затмили эти более ранние подходы к символическому ИИ и достигли самых современных показателей обработки естественного языка . Однако модели Transformer непрозрачны и еще не создают интерпретируемые человеком семантические представления предложений и документов. Вместо этого они создают векторы для конкретных задач, значение векторных компонентов которых неясно.

Агенты и мультиагентные системы [ править ]

Агенты — это автономные системы, встроенные в среду, которую они воспринимают и в некотором смысле действуют на нее. Стандартный учебник Рассела и Норвига по искусственному интеллекту построен так, чтобы отражать все более совершенную архитектуру агентов. [89] Сложность агентов варьируется от простых реактивных агентов до агентов с моделью мира и возможностями автоматического планирования , возможно , агентом BDI , т. е. агентом с убеждениями, желаниями и намерениями, или, альтернативно, моделью обучения с подкреплением , которую со временем научились выбирать. действия – вплоть до комбинации альтернативных архитектур, например нейросимволической архитектуры [85] это включает в себя глубокое обучение восприятию. [90]

Напротив, многоагентная система состоит из нескольких агентов, которые общаются между собой с помощью некоторого языка межагентного общения, такого как язык запросов и манипулирования знаниями (KQML). Агенты не обязательно должны иметь одинаковую внутреннюю архитектуру. Преимущества многоагентных систем включают возможность разделить работу между агентами и повысить отказоустойчивость в случае потери агентов. Проблемы исследования включают в себя то, как агенты достигают консенсуса , распределенное решение проблем , многоагентное обучение , многоагентное планирование и оптимизацию распределенных ограничений .

Споры [ править ]

Споры в области символического ИИ возникали с самого начала, как внутри этой области — например, между логиками (прологичными «аккуратными» ) и нелогиками (антилогичными «неряшливыми» ), а также между теми, кто принимал ИИ, но отвергал символический ИИ. подходы — в первую очередь коннекционистские — и те, кто находится за пределами этой области. Критика из-за пределов этой области исходила в основном от философов на интеллектуальных основаниях, но также и от финансирующих агентств, особенно во время двух зим ИИ.

Проблема фрейма: проблемы представления знаний для порядка первого логики

Были обнаружены ограничения при использовании простой логики первого порядка для рассуждений о динамических областях. Были обнаружены проблемы как с перечислением предварительных условий успеха действия, так и с предоставлением аксиом того, что не изменилось после выполнения действия.

Маккарти и Хейс представили проблему фрейма в 1969 году в статье «Некоторые философские проблемы с точки зрения искусственного интеллекта». [91] Простой пример возникает при «доказательстве того, что один человек может вступить в разговор с другим», поскольку для вывода потребуется аксиома, утверждающая, что «если у человека есть телефон, он все еще у него есть после поиска номера в телефонной книге». преуспевать. Подобные аксиомы потребуются и для других действий предметной области, чтобы указать, что не изменилось.

Похожая проблема, называемая проблемой квалификации , возникает при попытке перечислить предварительные условия успеха действия. Можно представить бесконечное количество патологических состояний, например, банан в выхлопной трубе может помешать правильной работе автомобиля.

Подход Маккарти к решению проблемы фрейма заключался в ограничении , своего рода немонотонной логике , в которой выводы можно было делать из действий, которым нужно только указать, что изменится, без необходимости явно указывать все, что не изменится. Другие немонотонные логики обеспечивали системы поддержания истины , которые пересматривали убеждения, приводя к противоречиям.

Другие способы работы с более открытыми областями включали системы вероятностного рассуждения и машинное обучение для изучения новых концепций и правил. » Маккарти В данном случае «Советчик можно рассматривать как источник вдохновения, поскольку он может включать в себя новые знания, полученные от человека в форме утверждений или правил. Например, экспериментальные системы символьного машинного обучения исследовали способность принимать советы высокого уровня на естественном языке и интерпретировать их в практические правила, специфичные для конкретной предметной области.

Подобно проблемам с динамическими областями, рассуждения здравого смысла также трудно уловить в формальных рассуждениях. Примеры рассуждений, основанных на здравом смысле, включают неявные рассуждения о том, как люди думают, или общие знания о повседневных событиях, объектах и ​​живых существах. Подобные знания воспринимаются как нечто само собой разумеющееся и не считаются заслуживающими внимания. Рассуждения, основанные на здравом смысле, являются открытой областью исследований и бросают вызов как символическим системам (например, Cyc пытается уловить ключевые части этих знаний на протяжении более десяти лет), так и нейронным системам (например, беспилотным автомобилям , которые не знают, въезжать в конусы или не сбивать пешеходов, идущих на велосипеде).

Маккарти считал своего «Советника» обладателем здравого смысла, но его определение здравого смысла отличалось от приведенного выше. [92] Он определил программу как имеющую здравый смысл, « если она автоматически выводит для себя достаточно широкий класс непосредственных последствий всего, что ей говорят, и того, что она уже знает ».

: философские проблемы и конфликты Коннекционистский ИИ социологические

Коннекционистские подходы включают более ранние работы по нейронным сетям , [93] такие как перцептроны ; работы середины-конца 80-х, такие как Дэнни Хиллиса и Connection Machine достижения ЛеКуна Янна в области сверточных нейронных сетей ; к сегодняшним более продвинутым подходам, таким как Трансформеры , GAN и другие работы в области глубокого обучения.

Три философские позиции [94] среди коннекционистов наметились:

  1. Имплементационизм — когда коннекционистские архитектуры реализуют возможности символьной обработки,
  2. Радикальный коннекционизм — где символическая обработка полностью отвергается, а коннекционистская архитектура лежит в основе интеллекта и вполне достаточна для его объяснения.
  3. Умеренный коннекционизм — когда символическая обработка и коннекционистская архитектура рассматриваются как взаимодополняющие, и оба необходимы для интеллекта.

Олазаран в своей социологической истории разногласий внутри сообщества нейронных сетей описал точку зрения умеренного коннекционизма как по существу совместимую с текущими исследованиями нейро-символических гибридов:

Третья и последняя позиция, которую я хотел бы здесь рассмотреть, — это то, что я называю умеренным коннекционистским взглядом, более эклектичным взглядом на текущие дебаты между коннекционизмом и символическим ИИ. Одним из исследователей, наиболее подробно разработавшим эту позицию, является Энди Кларк , философ из Школы когнитивных и вычислительных наук Университета Сассекса (Брайтон, Англия). Кларк защищал гибридные (частично символические, частично коннекционистские) системы. Он утверждал, что для изучения и моделирования познания необходимы (по крайней мере) два типа теорий. С одной стороны, для некоторых задач обработки информации (например, распознавания образов) коннекционизм имеет преимущества перед символическими моделями. Но с другой стороны, для других когнитивных процессов (таких как серийное, дедуктивное рассуждение и процессы генеративной манипуляции символами) символическая парадигма предлагает адекватные модели, а не только «приближения» (вопреки утверждениям радикальных коннекционистов). [95]

Гэри Маркус заявил, что враждебность в сообществе глубокого обучения против символических подходов сейчас может быть скорее социологической, чем философской:

Думать, что мы можем просто отказаться от манипулирования символами, значит приостановить неверие.

И тем не менее, по большей части именно так и работает современный ИИ. Хинтон и многие другие упорно пытались полностью изгнать символы. Надежда на глубокое обучение (по-видимому, основанная не столько на науке, сколько на своего рода исторической обиде) заключается в том, что разумное поведение возникнет исключительно в результате слияния огромных данных и глубокого обучения. В то время как классические компьютеры и программное обеспечение решают задачи, определяя наборы правил манипулирования символами, предназначенных для конкретных задач, таких как редактирование строки в текстовом процессоре или выполнение вычислений в электронной таблице, нейронные сети обычно пытаются решать задачи путем статистической аппроксимации и обучения на основе Примеры.

По словам Маркуса, Джеффри Хинтон и его коллеги были категорически «антисимволическими»:

Когда глубокое обучение вновь появилось в 2012 году, оно было характерно для большей части последнего десятилетия. К 2015 году его враждебность ко всему символическому полностью выкристаллизовалась. Он выступил с докладом на семинаре по искусственному интеллекту в Стэнфорде, сравнив символы с эфиром , что стало одной из величайших ошибок науки.

...

С тех пор его антисимволическая кампания только усилилась. В 2016 году Янн ЛеКун , Бенджио и Хинтон написали манифест по глубокому обучению в одном из самых важных научных журналов Nature. Он завершился прямой атакой на манипулирование символами, призывая не к примирению, а к полной замене. Позже Хинтон заявил собравшимся лидерам Европейского Союза, что вкладывать любые дополнительные деньги в методы манипулирования символами было «огромной ошибкой», сравнив это с инвестициями в двигатели внутреннего сгорания в эпоху электромобилей. [96]

Часть этих споров может быть связана с неясной терминологией:

Обладатель премии Тьюринга Джудея Перл предлагает критику машинного обучения, которая, к сожалению, смешивает термины машинное обучение и глубокое обучение. Точно так же, когда Джеффри Хинтон говорит о символическом ИИ, этот термин имеет тенденцию подразумевать экспертные системы, лишенные какой-либо способности к обучению. Использование терминологии нуждается в пояснении. Машинное обучение не ограничивается поиском ассоциативных правил , см. объем работ по символическому машинному обучению и реляционному обучению (отличия от глубокого обучения заключаются в выборе представления, локальном логическом, а не распределенном и неиспользовании алгоритмов обучения на основе градиента). ). Точно так же символический ИИ — это не просто правила производства, написанные вручную. Правильное определение ИИ касается представления и рассуждения знаний , автономных многоагентных систем , планирования и аргументации , а также обучения. [97]

робототехника: мир модель Расположенная как

Еще одна критика символического ИИ — это подход воплощенного познания :

Подход воплощенного познания утверждает, что нет смысла рассматривать мозг отдельно: познание происходит внутри тела, встроенного в окружающую среду. Нам необходимо изучить систему в целом; Функционирование мозга использует закономерности окружающей среды, включая остальную часть его тела. В рамках подхода воплощенного познания робототехника, зрение и другие сенсоры становятся центральными, а не периферийными. [98]

Родни Брукс изобрел робототехнику, основанную на поведении , — один из подходов к воплощенному познанию. Новый ИИ , другое название этого подхода, рассматривается как альтернатива как символическому ИИ, так и коннекционистскому ИИ. Его подход отвергал репрезентации, как символические, так и распределенные, как не только ненужные, но и вредные. Вместо этого он создал архитектуру включения — многоуровневую архитектуру для воплощенных агентов. Каждый уровень преследует свою цель и должен функционировать в реальном мире. Например, первый робот, которого он описывает в «Интеллекте без представления» , имеет три слоя. Нижний уровень интерпретирует датчики сонара, чтобы избежать объектов. Средний уровень заставляет робота бродить, когда нет препятствий. Верхний слой заставляет робота отправляться в более отдаленные места для дальнейшего исследования. Каждый уровень может временно блокировать или подавлять уровень более низкого уровня. Он раскритиковал исследователей ИИ за определение проблем ИИ для своих систем, когда: «В реальном мире не существует четкого разделения между восприятием (абстракцией) и рассуждением». [99] Он называл своих роботов «Существами», и каждый уровень «состоял из сети с фиксированной топологией простых конечных автоматов». [100] В подходе Nouvelle AI: «Во-первых, жизненно важно протестировать Существ, которые мы создаем, в реальном мире; то есть в том же мире, в котором мы, люди, живем. Катастрофически поддаться искушению протестировать их в упрощенном мире. сначала, даже с самыми благими намерениями, а затем перенести деятельность в неупрощенный мир». [101] Его акцент на реальном тестировании контрастировал с «ранними работами в области ИИ, сосредоточенными на играх, геометрических задачах, символической алгебре, доказательстве теорем и других формальных системах». [102] и использование мира блоков в символических системах искусственного интеллекта, таких как SHRDLU .

Текущие просмотры [ править ]

Каждый подход — символический, коннекционистский и поведенческий — имеет свои преимущества, но подвергается критике со стороны других подходов. Символический ИИ критиковали как бестелесный, подверженный проблемам квалификации и плохо справляющийся с проблемами восприятия, в которых глубокое обучение превосходит другие. В свою очередь, коннекционистский ИИ подвергался критике как плохо подходящий для обдуманного пошагового решения проблем, объединения знаний и планирования действий. Наконец, Nouvelle AI преуспевает в области реактивной и реальной робототехники, но ее критикуют за трудности с объединением обучения и знаний.

Гибридный ИИ, включающий один или несколько из этих подходов, в настоящее время рассматривается как путь вперед. [17] [79] [80] Рассел и Норвиг заключают, что:

В целом Дрейфус увидел области, где у ИИ нет полных ответов, и сказал, что поэтому ИИ невозможен; теперь мы видим, что во многих из этих областей продолжаются исследования и разработки, ведущие к увеличению возможностей, а не к невозможности. [98]

См. также [ править ]

Примечания [ править ]

  1. ^ Маккарти однажды сказал: «Это ИИ, поэтому нас не волнует, реален ли он психологически». [2] Маккарти подтвердил свою позицию в 2006 году на конференции AI@50 , где он сказал: «Искусственный интеллект по определению не является симуляцией человеческого интеллекта». [26] Памела МакКордак пишет, что существует «две основные ветви искусственного интеллекта: одна направлена ​​на создание разумного поведения независимо от того, как оно было достигнуто, а другая направлена ​​на моделирование интеллектуальных процессов, наблюдаемых в природе, особенно в человеческих». [27] Стюарт Рассел и Питер Норвиг писали: «В текстах по авиационной технике цель их области не определяется как создание «машин, которые летают настолько точно, как голуби, что могут обмануть даже других голубей». [28]

Цитаты [ править ]

  1. ^ Гарнело, Марта; Шанахан, Мюррей (01 октября 2019 г.). «Сочетание глубокого обучения с символическим искусственным интеллектом: представление объектов и отношений» . Современное мнение в области поведенческих наук . 29 : 17–23. дои : 10.1016/j.cobeha.2018.12.010 . hdl : 10044/1/67796 . S2CID   72336067 .
  2. ^ Перейти обратно: а б Одежда 1982 года .
  3. ^ Каутц 2022 , стр. 107–109.
  4. ^ Перейти обратно: а б Рассел и Норвиг 2021 , с. 19.
  5. ^ Перейти обратно: а б Рассел и Норвиг, 2021 г. , стр. 22–23.
  6. ^ Перейти обратно: а б Каутц 2022 , стр. 109–110.
  7. ^ Перейти обратно: а б с Каутц 2022 , с. 110.
  8. ^ Каутц 2022 , стр. 110–111.
  9. ^ Перейти обратно: а б Рассел и Норвиг 2021 , с. 25.
  10. ^ Каутц 2022 , с. 111.
  11. ^ Каутц 2020 , стр. 110–111.
  12. ^ Румельхарт, Дэвид Э.; Хинтон, Джеффри Э.; Уильямс, Рональд Дж. (1986). «Изучение представлений с помощью ошибок обратного распространения». Природа . 323 (6088): 533–536. Бибкод : 1986Natur.323..533R . дои : 10.1038/323533a0 . ISSN   1476-4687 . S2CID   205001834 .
  13. ^ ЛеКун, Ю.; Бозер, Б.; Денкер, И.; Хендерсон, Д.; Ховард, Р.; Хаббард, В.; Такель, Л. (1989). «Обратное распространение ошибки, примененное к распознаванию рукописного почтового индекса». Нейронные вычисления . 1 (4): 541–551. дои : 10.1162/neco.1989.1.4.541 . S2CID   41312633 .
  14. ^ Перейти обратно: а б Маркус и Дэвис 2019 .
  15. ^ Перейти обратно: а б Росси, Франческа. «Думайте быстро и медленно в ИИ» . АААИ . Проверено 5 июля 2022 г.
  16. ^ Перейти обратно: а б Селман, Барт. «Обращение президента AAAI: состояние искусственного интеллекта» . АААИ . Проверено 5 июля 2022 г.
  17. ^ Перейти обратно: а б с Каутц 2020 .
  18. ^ Каутц 2022 , с. 106.
  19. ^ Ньюэлл и Саймон 1972 .
  20. ^ & McCorduck 2004 , стр. 139–179, 245–250, 322–323 (EPAM).
  21. ^ Кревье 1993 , стр. 145–149.
  22. ^ МакКордак 2004 , стр. 450–451.
  23. ^ Кревье 1993 , стр. 258–263.
  24. ^ Перейти обратно: а б Каутц 2022 , с. 108.
  25. ^ Рассел и Норвиг, 2021 , с. 9 (логист А.И.), с. 19 (работа Маккарти).
  26. ^ Создатель 2006 .
  27. ^ МакКордак 2004 , стр. 100–101.
  28. ^ Рассел и Норвиг 2021 , с. 2.
  29. ^ МакКордак 2004 , стр. 251–259.
  30. ^ Кревье 1993 , стр. 193–196.
  31. ^ Хоу 1994 .
  32. ^ МакКордак 2004 , стр. 259–305.
  33. ^ Кревье 1993 , стр. 83–102, 163–176.
  34. ^ МакКордак 2004 , стр. 421–424, 486–489.
  35. ^ Кревье 1993 , с. 168.
  36. ^ МакКордак 2004 , с. 489.
  37. ^ Кревье 1993 , стр. 239–243.
  38. ^ Рассел и Норвиг 2021 , с. 316, 340.
  39. ^ Каутц 2022 , с. 109.
  40. ^ Рассел и Норвиг 2021 , с. 22.
  41. ^ МакКордак 2004 , стр. 266–276, 298–300, 314, 421.
  42. ^ Шустек, Лен (июнь 2010 г.). «Интервью с Эдом Фейгенбаумом» . Коммуникации АКМ . 53 (6): 41–45. дои : 10.1145/1743546.1743564 . ISSN   0001-0782 . S2CID   10239007 . Проверено 14 июля 2022 г.
  43. ^ Ленат, Дуглас Б; Фейгенбаум, Эдвард А. (1988). «На порогах познания». Материалы международного семинара по искусственному интеллекту для промышленного применения : 291–300. дои : 10.1109/AIIA.1988.13308 . S2CID   11778085 .
  44. ^ Рассел и Норвиг 2021 , стр. 22–24.
  45. ^ МакКордак 2004 , стр. 327–335, 434–435.
  46. ^ Кревье 1993 , стр. 145–62, 197–203.
  47. ^ Перейти обратно: а б Рассел и Норвиг 2021 , с. 23.
  48. ^ Перейти обратно: а б Кланси 1987 .
  49. ^ Перейти обратно: а б Шустек, Лен (2010). «Интервью с Эдом Фейгенбаумом» . Коммуникации АКМ . 53 (6): 41–45. дои : 10.1145/1743546.1743564 . ISSN   0001-0782 . S2CID   10239007 . Проверено 5 августа 2022 г.
  50. ^ «Увлечение ИИ: что такое искусственный интеллект?» . Цифровой гид IONOS . Проверено 2 декабря 2021 г.
  51. ^ Хейс-Рот, Мюррей и Адельман, 2015 .
  52. ^ Хейс-Рот, Барбара (1985). «Архитектура доски для контроля». Искусственный интеллект . 26 (3): 251–321. дои : 10.1016/0004-3702(85)90063-3 .
  53. ^ Хейс-Рот, Барбара (1980). Процессы человеческого планирования . РЭНД.
  54. ^ Перл 1988 .
  55. ^ Шпигельхальтер и др. 1993 год .
  56. ^ Рассел и Норвиг 2021 , стр. 335–337.
  57. ^ Рассел и Норвиг 2021 , с. 459.
  58. ^ Куинлан, Дж. Росс. «Глава 15: Изучение эффективных процедур классификации и их применение в шахматном эндшпиле». В Михальски, Карбонелл и Митчелл (1983) .
  59. ^ Куинлан, Дж. Росс (15 октября 1992 г.). C4.5: Программы для машинного обучения (1-е изд.). Сан-Матео, Калифорния: Морган Кауфманн. ISBN  978-1-55860-238-0 .
  60. ^ Митчелл, Том М.; Утгофф, Пол Э.; Банерджи, Ранан. «Глава 6: Обучение путем экспериментирования: приобретение и совершенствование эвристики решения проблем». В Михальски, Карбонелл и Митчелл (1983) .
  61. ^ Валиант, LG (5 ноября 1984 г.). «Теория обучаемого» . Коммуникации АКМ . 27 (11): 1134–1142. дои : 10.1145/1968.1972 . ISSN   0001-0782 . S2CID   12837541 .
  62. ^ Кёдингер, КР; Андерсон-младший; Хэдли, Вашингтон; Марк, Массачусетс; другие (1997). «Интеллектуальное репетиторство идет в школу в большом городе» . Международный журнал искусственного интеллекта в образовании (IJAIED) . 8 :30–43 . Проверено 18 августа 2012 г.
  63. ^ Шапиро, Эхуд Ю. (1981). «Модельная система вывода». Материалы 7-й международной совместной конференции по искусственному интеллекту . IJCAI. Том. 2. п. 1064.
  64. ^ Манна, Зоар; Уолдингер, Ричард (1 января 1980 г.). «Дедуктивный подход к синтезу программ». АКМ Транс. Программа. Ланг. Сист . 2 (1): 90–121. дои : 10.1145/357084.357090 . S2CID   14770735 .
  65. ^ Шанк, Роджер К. (28 января 1983 г.). Динамическая память: теория напоминания и обучения у компьютеров и людей . Кембридж Кембриджшир: Нью-Йорк: Издательство Кембриджского университета. ISBN  978-0-521-27029-8 .
  66. ^ Хаммонд, Кристиан Дж. (11 апреля 1989 г.). Планирование на основе случая: рассмотрение планирования как задачи памяти . Бостон: Академическая пресса. ISBN  978-0-12-322060-8 .
  67. ^ Коза, Джон Р. (11 декабря 1992 г.). Генетическое программирование: о программировании компьютеров посредством естественного отбора (1-е изд.). Кембридж, Массачусетс: Книга Брэдфорда. ISBN  978-0-262-11170-6 .
  68. ^ Мостоу, Дэвид Джек. «Глава 12: Машинное преобразование советов в процедуру эвристического поиска». В Михальски, Карбонелл и Митчелл (1983) .
  69. ^ Барейсс, Рэй; Портер, Брюс; Вир, Крейг. «Глава 4: Протос: ученик, обучающийся на основе образцов». В Михальски, Карбонелл и Митчелл (1986) , стр. 112–139.
  70. ^ Карбонелл, Хайме. «Глава 5: Обучение по аналогии: формулирование и обобщение планов на основе прошлого опыта». В Михальски, Карбонелл и Митчелл (1983) , стр. 137–162.
  71. ^ Карбонелл, Хайме. «Глава 14: Деривационная аналогия: теория реконструктивного решения проблем и приобретения опыта». В Михальски, Карбонелл и Митчелл (1986) , стр. 371-392.
  72. ^ Митчелл, Том; Мабадеван, Шридбар; Стейнберг, Луи. «Глава 10: LEAP: ученик по проектированию СБИС». В Kodratoff & Michalski (1990) , стр. 271-289.
  73. ^ Ленат, Дуглас. «Глава 9: Роль эвристики в обучении путем открытия: три тематических исследования». В Михальски, Карбонелл и Митчелл (1983) , стр. 243–306.
  74. ^ Корф, Ричард Э. (1985). Учимся решать задачи поиском макрооператоров . Заметки об исследованиях в области искусственного интеллекта. Издательство Питман. ISBN  0-273-08690-1 .
  75. ^ Валиант 2008 .
  76. ^ Перейти обратно: а б Гарсез и др. 2015 .
  77. ^ Маркус 2020 , с. 44.
  78. ^ Маркус 2020 , с. 17.
  79. ^ Перейти обратно: а б Росси 2022 .
  80. ^ Перейти обратно: а б Только 2022 год .
  81. ^ Гарсез и Ламб 2020 , с. 2.
  82. ^ Гарсез и др. 2002
  83. ^ Роктешель, Тим; Ридель, Себастьян (2016). «Изучение вывода из базы знаний с помощью нейронных средств доказательства теорем» . Материалы 5-го семинара по автоматизированному построению баз знаний . Сан-Диего, Калифорния: Ассоциация компьютерной лингвистики. стр. 45–50. дои : 10.18653/v1/W16-1309 . Проверено 6 августа 2022 г.
  84. ^ Серафини, Лучано; Гарсез, Артур д'Авила (2016), Логические тензорные сети: глубокое обучение и логические рассуждения на основе данных и знаний , arXiv : 1606.04422
  85. ^ Перейти обратно: а б Гарсес, Артур д'Авила; Лэмб, Луис К.; Габбай, Дов М. (2009). Нейро-символическое когнитивное мышление (1-е изд.). Берлин-Гейдельберг: Springer. Бибкод : 2009nscr.book.....D . дои : 10.1007/978-3-540-73246-4 . ISBN  978-3-540-73245-7 . S2CID   14002173 .
  86. ^ Кичалес, Грегор; Ривьер, Джим де; Боброу, Дэниел Г. (30 июля 1991 г.). Искусство метаобъектного протокола (1-е изд.). Кембридж, Массачусетс: MIT Press. ISBN  978-0-262-61074-2 .
  87. ^ Мотик, Борис; Ширер, Роб; Хоррокс, Ян (28 октября 2009 г.). «Рассуждения о гипертаблицах для описательной логики». Журнал исследований искусственного интеллекта . 36 : 165–228. arXiv : 1401.3485 . дои : 10.1613/jair.2811 . ISSN   1076-9757 . S2CID   190609 .
  88. ^ Койперс, Бенджамин (1994). Качественные рассуждения: моделирование и моделирование с неполными знаниями . МТИ Пресс. ISBN  978-0-262-51540-5 .
  89. ^ Рассел и Норвиг, 2021 .
  90. ^ Лео де Пеннинг, Артур С. д'Авила Гарсес, Луис К. Ламб, Джон-Жюль Ч. Мейер: «Нейро-символический когнитивный агент для онлайн-обучения и рассуждения». IJCAI 2011: 1653–1658 гг.
  91. ^ Маккарти и Хейс 1969 .
  92. ^ Маккарти 1959 .
  93. ^ Нильссон 1998 , стр. 7.
  94. ^ Олазаран 1993 , стр. 411–416.
  95. ^ Олазаран 1993 , стр. 415–416.
  96. ^ Маркус 2020 , с. 20.
  97. ^ Гарсез и Ламб 2020 , с. 8.
  98. ^ Перейти обратно: а б Рассел и Норвиг 2021 , с. 982.
  99. ^ Брукс 1991 , с. 143.
  100. ^ Брукс 1991 , с. 151.
  101. ^ Брукс 1991 , с. 150.
  102. ^ Брукс 1991 , с. 142.

Ссылки [ править ]

Arc.Ask3.Ru: конец оригинального документа.
Arc.Ask3.Ru
Номер скриншота №: 9E5D3888418F8197680E19F93F40B15E__1715315880
URL1:https://en.wikipedia.org/wiki/Sub-symbolic
Заголовок, (Title) документа по адресу, URL1:
Symbolic artificial intelligence - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть, любые претензии не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, денежную единицу можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)