AI-полный
В области искусственного интеллекта (ИИ) задачи, для решения которых предположительно потребуется общий искусственный интеллект , неофициально известны как AI-полные или AI-сложные . [1] Называя проблему ИИ-полной, отражает убеждение, что ее невозможно решить с помощью простого конкретного алгоритма.
Предполагается, что проблемы, связанные с искусственным интеллектом, включают компьютерное зрение , понимание естественного языка и умение справляться с непредвиденными обстоятельствами при решении любой реальной проблемы. [2]
Задачи, связанные с искусственным интеллектом, могут быть полезны, например, для проверки присутствия людей, как это и CAPTCHA делается , а также в компьютерной безопасности для обхода атак методом перебора . [3] [4]
История [ править ]
Термин был придуман Фаней Монтальво по аналогии с NP-полной и NP-трудной в теории сложности , формально описывающей самый известный класс сложных задач. [5] Первые случаи использования этого термина встречаются в докторской диссертации Эрика Мюллера 1987 года. [6] и в Эрика Рэймонда 1991 года «Жаргонном файле» . [7]
Экспертные системы , которые были популярны в 1980-х годах, были способны решать очень простые и/или ограниченные версии задач, полных ИИ, но никогда в их полной общности. Когда исследователи ИИ пытались «масштабировать» свои системы для решения более сложных реальных ситуаций, программы имели тенденцию становиться чрезмерно хрупкими без здравого смысла или элементарного понимания ситуации: они терпели неудачу из-за непредвиденных обстоятельств, выходящих за рамки исходной проблемы. контекст начнет проявляться. Когда люди сталкиваются с новыми ситуациями в мире, им помогает понимание общего контекста: они знают, что происходит вокруг них, почему они здесь, что они, вероятно, будут делать и так далее. Они могут распознавать необычные ситуации и соответствующим образом приспосабливаться. Экспертным системам не хватало такой адаптивности, и они были хрупкими при столкновении с новыми ситуациями. [8]
В мае 2022 года DeepMind опубликовала работу, в которой они обучили одну модель выполнять несколько дел одновременно. Модель под названием Gato может «играть в Atari, использовать изображения подписей, общаться в чате, складывать блоки с помощью настоящей руки робота и многое другое, принимая, исходя из контекста, решение о том, выводить ли текст, крутящие моменты суставов, нажатия кнопок или другие токены». [9] Точно так же некоторые задачи, которые когда-то считались решаемыми с помощью ИИ, например машинный перевод, [10] являются одними из возможностей больших языковых моделей . [11]
Проблемы с искусственным интеллектом [ править ]
Предполагается, что проблемы, связанные с искусственным интеллектом, включают:
- ИИ Экспертная оценка [12] (комплексное понимание естественного языка , автоматизированное рассуждение , автоматизированное доказательство теорем , формализованная логическая экспертная система )
- Проблемы Бонгарда [13]
- Компьютерное зрение (и подзадачи, такие как распознавание объектов ) [14]
- Понимание естественного языка (и подзадачи, такие как интеллектуальный анализ текста , [15] машинный перевод , [16] и устранение смысловой неоднозначности слов [17] )
- Автономное вождение [18]
- Работа с непредвиденными обстоятельствами при решении любой реальной проблемы, [19] будь то навигация , планирование или даже рассуждения , выполняемые экспертными системами . [ нужна ссылка ]
Формализация [ править ]
![]() | Этот раздел необходимо обновить . Причина такова: этот раздел, возможно, больше не актуален, поскольку современный ИИ опирается на нейронные сети, выполняемые с распараллеливанием, а не на формально определенные алгоритмы, и не нуждается в помощи человека. Кроме того, он основан на единственной ссылке, что ставит под сомнение его известность. ( апрель 2024 г. ) |
Формальная модель в рамках парадигмы агента для выбора систем искусственного интеллекта (AIS) основана на функциях полезности и контекстных ограничениях. В нем обсуждаются такие понятия, как функции полезности, интеллектуальность, функциональное соответствие и условия безопасности. Проблема заключается в поиске оптимального AIS с учетом мер полезности и контекстных ограничений, причем решения требуют указания допустимых контекстов, тестовых контекстов, запрещенных состояний, функций полезности и метрик. Он также признает необходимость переопределить функциональное соответствие в отсутствие человека-оператора, назвав эту структуру «интеллометрией», обеспечивая основу для оценки и сравнения АИС для конкретных задач. [20]
Теория вычислительной сложности занимается относительной вычислительной сложностью вычислимых функций . По определению, он не охватывает проблемы, решение которых неизвестно или не охарактеризовано формально. Поскольку многие проблемы ИИ еще не формализованы, традиционная теория сложности не позволяет формально определить ИИ-полноту.
Для решения этой проблемы была предложена теория сложности ИИ. [21] Он основан на модели вычислений , которая разделяет вычислительную нагрузку между компьютером и человеком: одна часть решается компьютером, а другая часть — человеком. Это формализуется с помощью машины Тьюринга, управляемой человеком . Формализация определяет сложность алгоритма, сложность задачи и сводимость, что, в свою очередь, позволяет классы эквивалентности определить .
Сложность выполнения алгоритма с помощью машины Тьюринга с участием человека определяется парой , где первый элемент представляет сложность части человека, а второй элемент — сложность части машины.
Результаты [ править ]
Сложность решения следующих задач с помощью машины Тьюринга с участием человека составляет: [21]
- Оптическое распознавание символов печатного текста:
- Тест Тьюринга :
- для -предложение разговора, в котором оракул запоминает историю разговора (постоянный оракул):
- для -предложение разговора, в котором история разговора должна быть передана повторно:
- для - разговор с предложением, в котором история разговора должна быть передана повторно, и человеку требуется линейное время, чтобы прочитать запрос:
- Игра ESP :
- Маркировка изображений (на основе протокола Артура-Мерлина ):
- Классификация изображений : только человек: , и с меньшей зависимостью от человека: .
Исследования [ править ]
Роман Ямопольский [22] предполагает, что проблема является AI-полным, если он имеет два свойства:
- Он находится в наборе задач ИИ (решаемых Human Oracle).
- Любую проблему ИИ можно превратить в по некоторому алгоритму с полиномиальным временем.
С другой стороны, проблема является AI-Hard тогда и только тогда, когда существует проблема AI-Complete это полиномиальное время, сводимое по Тьюрингу к . Как следствие, это также приводит к существованию задач AI-Easy , которые можно решить за полиномиальное время с помощью детерминированной машины Тьюринга с оракулом для некоторой проблемы.
Ямопольский [23] также выдвинул гипотезу, что тест Тьюринга является определяющим признаком полноты ИИ.
Гроппе и Джайн [24] классифицируют проблемы, которые требуют искусственного общего интеллекта для достижения производительности машины на уровне человека, как ИИ-полные, в то время как только ограниченные версии ИИ-полных проблем могут быть решены с помощью существующих систем ИИ. Для Шекрста, [25] получение полиномиального решения задач, полных с помощью ИИ, не обязательно будет равно решению проблемы сильного ИИ , при этом подчеркивается, что отсутствие исследований вычислительной сложности является ограничивающим фактором на пути к созданию общего искусственного интеллекта.
Для Кви-Бинторо и Велеса, [26] Решение проблем, связанных с искусственным интеллектом, будет иметь серьезные последствия для общества.
См. также [ править ]
Ссылки [ править ]
- ^ Шапиро, Стюарт К. (1992). Искусственный интеллект. Архивировано 1 февраля 2016 г. в Wayback Machine . Стюарт К. Шапиро (ред.), Энциклопедия искусственного интеллекта (второе издание, стр. 54–57). Нью-Йорк: Джон Уайли. (Раздел 4 посвящен «Заданиям, выполняемым ИИ».)
- ^ Роман В. Ямпольский. Тест Тьюринга как определяющая черта полноты ИИ. В искусственном интеллекте, эволюционных вычислениях и метаэвристике (AIECM) — по стопам Алана Тьюринга. Синь-Ше Ян (Ред.). стр. 3–17. (Глава 1). Спрингер, Лондон. 2013. http://cecs.louisville.edu/ry/TuringTestasaDefiningFeature04270003.pdf. Архивировано 22 мая 2013 г. в Wayback Machine.
- ^ Луис фон Ан, Мануэль Блюм, Николас Хоппер и Джон Лэнгфорд. CAPTCHA: использование сложных задач искусственного интеллекта для обеспечения безопасности. Архивировано 4 марта 2016 г. на Wayback Machine . В материалах Eurocrypt, Vol. 2656 (2003), стр. 294–311.
- ^ Бергмайр, Ричард (7 января 2006 г.). «Стеганография естественного языка и «полный ИИ» примитив безопасности». CiteSeerX 10.1.1.105.129 .
{{cite journal}}
: Для цитирования журнала требуется|journal=
( помощь ) (неопубликовано?) - ^ Маллери, Джон К. (1988), «Размышления о внешней политике: поиск подходящей роли для компьютеров с искусственным интеллектом», Ежегодное собрание Ассоциации международных исследований 1988 года. , Сент-Луис, Миссури, заархивировано из оригинала 29 февраля 2008 г. , получено 27 апреля 2007 г.
{{citation}}
: CS1 maint: отсутствует местоположение издателя ( ссылка ) . - ^ Мюллер, Эрик Т. (1987, март). Мечты и вычисления (технический отчет CSD-870017). Архивировано 30 октября 2020 г. в докторской диссертации Wayback Machine , Калифорнийский университет, Лос-Анджелес. («Мечтание - это всего лишь еще одна проблема , полная ИИ : если бы мы могли решить любую проблему искусственного интеллекта, мы могли бы решить и все остальные», стр. 302)
- ^ Раймонд, Эрик С. (1991, 22 марта). Файл жаргона, версия 2.8.1. Архивировано 4 июня 2011 г. на Wayback Machine (определение «AI-complete» впервые добавлено в файл жаргона.)
- ^ Ленат, Дуглас ; Гуха, Р.В. (1989), Создание больших систем, основанных на знаниях , Аддисон-Уэсли, стр. 1–5.
- ^ «Агент-универсал» . www.deepmind.com . Архивировано из оригинала 02 августа 2022 г. Проверено 26 мая 2022 г.
- ^ Кац, Миранда. «Добро пожаловать в эпоху коллег по искусственному интеллекту | Обратный канал» . Проводной . ISSN 1059-1028 . Проверено 28 апреля 2024 г.
- ^ «Раскрытие возможностей больших языковых моделей (LLM)» . www.unite.ai . Проверено 28 апреля 2024 г.
- ^ Стоктон, Ник. «Если ИИ может исправить экспертную оценку в науке, ИИ может сделать что угодно» . Проводной . ISSN 1059-1028 . Проверено 27 апреля 2024 г.
- ^ Шекрст, Кристина (2020), Сканси, Сандро (редактор), «Полнота искусственного интеллекта: использование глубокого обучения для устранения человеческого фактора» , Руководство по основам глубокого обучения: логические, исторические и философские перспективы , Чам: Springer International Publishing, стр. . 117–130, номер домена : 10.1007/978-3-030-37591-1_11 , ISBN. 978-3-030-37591-1 , получено 25 марта 2024 г.
- ^ Страт, Томас М.; Челлаппа, Рама; Патель, Вишал М. (2020). «Зрение и робототехника» . Журнал ИИ . 42 (2): 49–65. дои : 10.1609/aimag.v41i2.5299 . S2CID 220687545 – через коллекцию ABI/INFORM.
- ^ Крестель, Ральф; Арас, Хидир; Андерссон, Линда; Пирой, Флорина; Хэнбери, Аллан; Альдеруччи, Дин (6 июля 2022 г.). «3-й семинар по патентному анализу текста и семантическим технологиям (PatentSemTech2022)» . Материалы 45-й Международной конференции ACM SIGIR по исследованиям и разработкам в области информационного поиска . Мадрид, Испания: ACM. стр. 3474–3477. дои : 10.1145/3477495.3531702 . ISBN 978-1-4503-8732-3 . S2CID 250340282 . Архивировано из оригинала 15 апреля 2023 г. Проверено 15 апреля 2023 г.
- ^ Оринич, Петр (2022), Деген, Гельмут; Нтоа, Ставрула (ред.), «Скажи это правильно: нейронный машинный перевод с помощью искусственного интеллекта дает новым ораторам возможность оживить лемко» , Искусственный интеллект в HCI , Конспекты лекций по информатике, том. 13336, Чам: Springer International Publishing, стр. 567–580, doi : 10.1007/978-3-031-05643-7_37 , ISBN 978-3-031-05642-0 , получено 15 апреля 2023 г.
- ^ Иде, Н.; Веронис, Дж. (1998). «Введение в специальный выпуск, посвященный устранению неоднозначности смысла слов: современное состояние» (PDF) . Компьютерная лингвистика . 24 (1): 2–40. Архивировано (PDF) из оригинала 9 октября 2022 г.
- ^ Маск, Илон (14 апреля 2022 г.). «Илон Маск рассказывает о Твиттере, Тесле и о том, как работает его мозг — в прямом эфире на TED2022» . TED (конференция) (Интервью). Беседовал Крис_Андерсон_(предприниматель) . Ванкувер. Архивировано из оригинала 15 декабря 2022 года . Проверено 15 декабря 2022 г.
- ^ Шекрст, Кристина (2020), «Глава 11 - Полнота искусственного интеллекта: использование глубокого обучения для устранения человеческого фактора», в Сканси, Сандро (ред.), Руководство по основам глубокого обучения , Springer, ISBN 978-3-030-37591-1
- ^ А. Кулешов, «Формализация параметров системы искусственного интеллекта в стандартизации искусственного интеллекта», Международная конференция по приложениям и инновациям искусственного интеллекта (IC-AIAI), 2018 г., Никосия, Кипр, 2018 г., стр. 51-54, doi: 10.1109/IC-AIAI. .2018.8674446. ключевые слова: {Искусственный интеллект;Надежность;Стандарты;Измерение;Безопасность;Аварии},
- ↑ Перейти обратно: Перейти обратно: а б Дафна Шахаф и Эяль Амир (2007) На пути к теории полноты ИИ . Архивировано 7 ноября 2020 г. в Wayback Machine . Commonsense 2007, 8-й Международный симпозиум по логическим формализациям рассуждений здравого смысла. Архивировано 19 января 2021 г. в Wayback Machine .
- ^ Ямпольский, Роман (2012), «AI-Complete, AI-Hard или AI-Easy - Классификация проблем в AI» (PDF) , 23-я конференция по искусственному интеллекту и когнитивным наукам Среднего Запада, MAICS 2012, Цинциннати, Огайо, США, 21 -22 апреля 2012 г. , получено 5 апреля 2024 г.
- ^ Ямпольский, Роман (2013), «Тест Тьюринга как определяющая черта полноты искусственного интеллекта», Искусственный интеллект, эволюционные вычисления и метаэвристика , Исследования в области вычислительного интеллекта, том. 427, стр. 3–17, номер документа : 10.1007/978-3-642-29694-9_1 , ISBN. 978-3-642-29693-2
- ^ Гроппе, Свен; Джайн, Сарика (2024), «Путь вперед в решении проблем, связанных с искусственным интеллектом», New Generation Computing , 42 : 1–5, doi : 10.1007/s00354-024-00251-8
- ^ Шекрст, Кристина (2020), Сканси, Сандро (редактор), «Полнота искусственного интеллекта: использование глубокого обучения для устранения человеческого фактора» , Руководство по основам глубокого обучения: логические, исторические и философские перспективы , Чам: Springer International Publishing, стр. . 117–130, номер домена : 10.1007/978-3-030-37591-1_11 , ISBN. 978-3-030-37591-1 , получено 5 апреля 2024 г.
- ^ Бинторо, Тед; Велес, Ной (2022 г.), «Полный искусственный интеллект: что значит быть человеком во все более компьютеризированном мире», Соединяя человеческий интеллект и искусственный интеллект , Образовательные коммуникации и технологии: проблемы и инновации, Чам: Спрингер, стр. 257–274. , doi : 10.1007/978-3-030-84729-6_18 , ISBN 978-3-030-84728-9