Jump to content

Интеллектуальный агент

В интеллекте и искусственном интеллекте интеллектуальный агент ( IA ) — это агент, действующий разумным образом. Он воспринимает окружающую среду предпринимает действия , самостоятельно для достижения целей и может улучшить свою производительность за счет обучения или приобретения знаний . Интеллектуальный агент может быть простым или сложным: термостат или другая система управления примером интеллектуального агента считается , как и человек , а также любая система, отвечающая этому определению, например, фирма , государство или биом. . [1]

Простая диаграмма рефлекторного агента

Ведущие учебники по искусственному интеллекту определяют «искусственный интеллект» как «исследование и проектирование интеллектуальных агентов», и это определение рассматривает целенаправленное поведение как суть интеллекта. Целенаправленные агенты также описываются с использованием термина, заимствованного из экономики , « рациональный агент ». [1]

У агента есть «целевая функция», которая инкапсулирует все цели IA. Такой агент предназначен для создания и выполнения любого плана, который после завершения максимизирует ожидаемое значение целевой функции. [2] Например, агент обучения с подкреплением имеет «функцию вознаграждения», которая позволяет программистам формировать желаемое поведение IA. [3] а поведение эволюционного алгоритма определяется «функцией приспособленности». [4]

Интеллектуальные агенты в искусственном интеллекте тесно связаны с агентами в экономике , а версии парадигмы интеллектуального агента изучаются в когнитивной науке , этике и философии практического разума , а также во многих междисциплинарных социо-когнитивных моделях и компьютерных социальных симуляциях .

Интеллектуальные агенты часто схематически описываются как абстрактная функциональная система, подобная компьютерной программе. Абстрактные описания интеллектуальных агентов называются абстрактными интеллектуальными агентами ( AIA ), чтобы отличать их от их реальных реализаций. Автономный интеллектуальный агент предназначен для функционирования без вмешательства человека. Интеллектуальные агенты также тесно связаны с программными агентами ( автономной компьютерной программой, выполняющей задачи от имени пользователей).

Как определение искусственного интеллекта

[ редактировать ]

Искусственный интеллект: современный подход [5] [6] [2] определяет «агента» как

«Все, что можно рассматривать как восприятие окружающей среды посредством датчиков и воздействие на эту среду посредством исполнительных механизмов»

Он определяет «рационального агента» как:

«Агент, который действует так, чтобы максимизировать ожидаемое значение показателя эффективности на основе прошлого опыта и знаний».

Он также определяет область «исследований искусственного интеллекта» как:

«Изучение и проектирование рациональных агентов»

Падгам и Виникофф (2005) согласны с тем, что интеллектуальный агент находится в окружающей среде и своевременно (хотя и не обязательно в режиме реального времени) реагирует на изменения в окружающей среде. Однако интеллектуальные агенты также должны активно и гибко добиваться поставленных целей . [а] Необязательные требования включают в себя то, чтобы агент был рациональным и чтобы он был способен анализировать убеждения-желания-намерения . [7]

Каплан и Хэнлайн определяют искусственный интеллект как «способность системы правильно интерпретировать внешние данные, учиться на таких данных и использовать эти знания для достижения конкретных целей и задач посредством гибкой адаптации». [8] Это определение тесно связано с определением интеллектуального агента.

Преимущества

[ редактировать ]

С философской точки зрения это определение искусственного интеллекта избегает нескольких направлений критики. В отличие от теста Тьюринга , он никак не относится к человеческому интеллекту. Таким образом, нет необходимости обсуждать, является ли это «реальным» или «имитированным» интеллектом (т. е. «синтетическим» или «искусственным» интеллектом), и это не указывает на то, что такая машина обладает разумом , сознанием или истинным пониманием (т. е. это не подразумевает « сильную гипотезу ИИ » Джона Сирла). Он также не пытается провести резкую разделительную линию между «разумным» и «неразумным» поведением — программы необходимо оценивать только с точки зрения их целевой функции.

Что еще более важно, он имеет ряд практических преимуществ, которые помогли продвинуть вперед исследования в области ИИ. Он обеспечивает надежный и научный способ тестирования программ; исследователи могут напрямую сравнивать или даже комбинировать различные подходы к изолированным проблемам, задавая вопрос, какой агент лучше всего максимизирует данную «целевую функцию». Это также дает им общий язык для общения с другими областями, такими как математическая оптимизация (которая определяется в терминах «целей») или экономика (которая использует то же определение « рационального агента »). [9]

Целевая функция

[ редактировать ]

Агент, которому назначена явная «целевая функция», считается более умным, если он последовательно предпринимает действия, которые успешно максимизируют его запрограммированную целевую функцию. Цель может быть простой («1, если ИА выигрывает игру в Го , 0 в противном случае») или сложной («Выполнять действия, математически аналогичные тем, которые были успешны в прошлом»). «Целевая функция» инкапсулирует все цели, ради достижения которых агент вынужден действовать; в случае рациональных агентов функция также включает в себя приемлемые компромиссы между достижением противоречивых целей. (Терминология различается; например, некоторые агенты стремятся максимизировать или минимизировать « функцию полезности », «целевую функцию» или « функцию потерь ».) [6] [2]

Цели могут быть явно определены или стимулированы. Если ИИ запрограммирован на « обучение с подкреплением », у него есть « функция вознаграждения », которая поощряет одни типы поведения и наказывает другие. Альтернативно, эволюционная система может ставить перед собой цели, используя « функцию приспособленности », чтобы мутировать и преимущественно воспроизводить системы искусственного интеллекта с высокими показателями, подобно тому, как животные эволюционировали, чтобы врожденно желать определенных целей, таких как поиск еды. [10] Некоторым системам ИИ, таким как метод ближайшего соседа, вместо разума по аналогии, этим системам обычно не ставятся цели, за исключением той степени, в которой цели неявно подразумеваются в их обучающих данных. [11] Такие системы все еще можно оценить, если бесцелевую систему представить как систему, «цель» которой состоит в выполнении своей узкой классификационной задачи. [12]

Системы, которые традиционно не считаются агентами, такие как системы представления знаний, иногда включаются в парадигму, представляя их как агентов, цель которых (например) отвечать на вопросы как можно точнее; понятие «действия» здесь расширено и включает в себя «акт» дачи ответа на вопрос. В качестве дополнительного расширения системы, управляемые мимикрией, можно представить как агентов, которые оптимизируют «целевую функцию» в зависимости от того, насколько точно IA удается имитировать желаемое поведение. [6] [2] В генеративно-состязательных сетях 2010-х годов компонент «кодер»/«генератор» пытается имитировать и импровизировать композицию человеческого текста. Генератор пытается максимизировать функцию, инкапсулирующую, насколько хорошо она может обмануть антагонистический компонент «предиктор»/«дискриминатор». [13]

Хотя символические системы ИИ часто принимают явную целевую функцию, эта парадигма также может быть применена к нейронным сетям и эволюционным вычислениям . Обучение с подкреплением может создавать интеллектуальных агентов, которые действуют таким образом, чтобы максимизировать «функцию вознаграждения». [14] Иногда вместо того, чтобы устанавливать функцию вознаграждения, прямо равную желаемой функции эталонной оценки, программисты машинного обучения используют формирование вознаграждения, чтобы изначально давать машине вознаграждение за постепенный прогресс в обучении. [15] Ян ЛеКун заявил в 2018 году: «Большинство алгоритмов обучения, которые придумали люди, по сути, состоят из минимизации некоторой целевой функции». [16] Шахматы AlphaZero имели простую целевую функцию; каждая победа засчитывается как +1 очко, а каждое поражение - как -1 очко. Целевая функция для беспилотного автомобиля должна быть более сложной. [17] Эволюционные вычисления могут развить интеллектуальных агентов, которые, по-видимому, будут действовать таким образом, чтобы максимизировать «функцию приспособленности», влияющую на то, сколько потомков может оставить каждый агент. [4]

Теоретическая и невычислимая конструкция AIXI является максимально интеллектуальным агентом в этой парадигме; [18] однако в реальном мире IA ограничено ограниченным временем и аппаратными ресурсами, и ученые конкурируют за создание алгоритмов, которые могут достигать все более высоких результатов в тестах производительности с реальным оборудованием. [19] [ соответствующий? ]

Классы интеллектуальных агентов

[ редактировать ]

Классификация Рассела и Норвига

[ редактировать ]

Рассел и Норвиг (2003) группируют агентов на пять классов в зависимости от степени их предполагаемого интеллекта и способностей: [20]

Простые рефлекторные агенты

[ редактировать ]
Простое рефлекторное средство

Простые рефлекторные агенты действуют только на основе текущего восприятия , игнорируя остальную часть истории восприятия. Функция агента основана на правиле «условие-действие» : «если условие, то действие».

Эта функция агента успешна только тогда, когда среда полностью наблюдаема. Некоторые рефлекторные агенты также могут содержать информацию о своем текущем состоянии, что позволяет им игнорировать условия, активаторы которых уже сработали.

Бесконечные петли часто неизбежны для простых рефлекторных агентов, действующих в частично наблюдаемой среде. Если агент может рандомизировать свои действия, возможно, удастся избежать бесконечных циклов.

Рефлекторные агенты на основе моделей

[ редактировать ]
Рефлекторный агент на основе модели

Агент на основе модели может работать с частично наблюдаемыми средами. Его текущее состояние хранится внутри агента, поддерживая некую структуру, описывающую ту часть мира, которую нельзя увидеть. Это знание о том, «как устроен мир», называется моделью мира, отсюда и название «агент, основанный на модели».

Рефлекторный агент, основанный на модели, должен поддерживать некую внутреннюю модель , которая зависит от истории восприятия и тем самым отражает, по крайней мере, некоторые из ненаблюдаемых аспектов текущего состояния. Историю восприятия и влияние действия на окружающую среду можно определить с помощью внутренней модели. Затем он выбирает действие так же, как и рефлекторный агент.

Агент также может использовать модели для описания и прогнозирования поведения других агентов в среде. [21]

Агенты, основанные на целях

[ редактировать ]
Агент на основе модели и цели

Агенты на основе целей дополнительно расширяют возможности агентов на основе модели за счет использования информации о «целях». Информация о целях описывает ситуации, которые желательны. Это дает агенту возможность выбирать среди множества возможностей, выбирая ту, которая достигает целевого состояния. Поиск и планирование — это разделы искусственного интеллекта, посвященные поиску последовательностей действий, которые достигают целей агента.

Агенты на основе утилит

[ редактировать ]
Агент на основе модели и утилиты

Агенты, основанные на целях, различают только целевые и нецелевые состояния. Также возможно определить меру того, насколько желательно то или иное состояние. Эту меру можно получить с помощью функции полезности , которая отображает состояние в меру полезности состояния. Более общий показатель эффективности должен позволять сравнивать различные состояния мира в зависимости от того, насколько хорошо они удовлетворяют целям агента. Термин «полезность» можно использовать для описания того, насколько «счастлив» агент.

Рациональный агент, основанный на полезности, выбирает действие, которое максимизирует ожидаемую полезность результатов действия, то есть то, что агент ожидает получить в среднем с учетом вероятностей и полезностей каждого результата. Агенту, основанному на утилитах, приходится моделировать и отслеживать свое окружение — задачи, которые потребовали большого количества исследований в области восприятия, представления, рассуждения и обучения.

Обучающиеся агенты

[ редактировать ]
Общий обучающий агент

Преимущество обучения заключается в том, что оно позволяет агентам изначально действовать в неизвестных средах и становиться более компетентными, чем могли бы позволить только их первоначальные знания. Наиболее важное различие проводится между «элементом обучения», ответственным за улучшение, и «элементом производительности», ответственным за выбор внешних действий.

Элемент обучения использует обратную связь от «критика» о том, как работает агент, и определяет, как следует изменить элемент производительности или «актера», чтобы добиться большего успеха в будущем. Элемент производительности, ранее считавшийся всем агентом, воспринимает восприятие и принимает решения о действиях.

Последний компонент обучающего агента — это «генератор задач». Он отвечает за предложение действий, которые приведут к новому и информативному опыту.

Классификация Вейсса

[ редактировать ]

Вайс (2013) определяет четыре класса агентов:

  • Агенты на основе логики – в которых решение о том, какое действие выполнить, принимается посредством логического вывода.
  • Реактивные агенты – в которых принятие решений реализуется в той или иной форме прямого сопоставления ситуации с действием.
  • Агенты убеждения-желания-намерения - в которых принятие решений зависит от манипулирования структурами данных, представляющими убеждения, желания и намерения агента; и, наконец,
  • Многоуровневые архитектуры – в которых принятие решений реализуется с помощью различных уровней программного обеспечения, каждый из которых более или менее явно анализирует окружающую среду на разных уровнях абстракции.

В 2013 году Александр Висснер-Гросс опубликовал теорию свободы и интеллекта интеллектуальных агентов. [22] [23]

Иерархия агентов

[ редактировать ]

Для активного выполнения своих функций интеллектуальные агенты сегодня обычно объединяются в иерархическую структуру, содержащую множество «субагентов». Интеллектуальные субагенты обрабатывают и выполняют функции более низкого уровня. Взятые вместе, интеллектуальный агент и субагенты создают целостную систему, которая может выполнять сложные задачи или цели с помощью поведения и реакций, отображающих форму интеллекта.

Как правило, агент может быть создан путем разделения тела на датчики и исполнительные механизмы и таким образом, чтобы он работал со сложной системой восприятия, которая принимает описание мира в качестве входных данных для контроллера и выводит команды на исполнительный механизм. Однако иерархия уровней контроллера часто необходима, чтобы сбалансировать немедленную реакцию, необходимую для задач низкого уровня, и медленное рассуждение о сложных целях высокого уровня. [24]

Функция агента

[ редактировать ]

Простую программу агента можно математически определить как функцию f (называемую «функцией агента»). [25] который сопоставляет каждую возможную последовательность восприятий с возможным действием, которое агент может выполнить, или с коэффициентом, элементом обратной связи, функцией или константой, которая влияет на возможные действия:

Функция агента — это абстрактное понятие, поскольку оно может включать в себя различные принципы принятия решений, такие как расчет полезности отдельных вариантов, дедукция по логическим правилам, нечеткая логика и т. д. [26]

Вместо этого программный агент отображает каждое возможное восприятие на действие. [27]

Мы используем термин «перцепт» для обозначения входных данных восприятия агента в любой данный момент. На следующих рисунках агент — это все, что можно рассматривать как воспринимающее окружающую среду через датчики и воздействующее на эту среду через исполнительные механизмы.

Приложения

[ редактировать ]

Халлербах и др. обсудили применение агентных подходов для разработки и проверки автоматизированных систем вождения с помощью цифрового двойника тестируемого транспортного средства и микроскопического моделирования дорожного движения на основе независимых агентов. [28] Waymo создала мультиагентную среду моделирования Carcraft для тестирования алгоритмов беспилотных автомобилей . [29] [30] Он моделирует взаимодействие водителей-людей, пешеходов и автоматизированных транспортных средств. Поведение людей имитируется искусственными агентами на основе данных о реальном поведении человека. Основная идея использования агентного моделирования для понимания беспилотных автомобилей обсуждалась еще в 2003 году. [31]

Альтернативные определения и использование

[ редактировать ]

«Интеллектуальный агент» также часто используется как расплывчатый маркетинговый термин, иногда синоним « виртуального личного помощника ». [32] Некоторые определения 20-го века характеризуют агент как программу, которая помогает пользователю или действует от имени пользователя. [33] Эти примеры известны как программные агенты , а иногда «интеллектуальный программный агент» (то есть программный агент с интеллектом) называют «интеллектуальным агентом».

По мнению Николы Касабова , системы IA должны обладать следующими характеристиками: [34]

См. также

[ редактировать ]

Примечания

[ редактировать ]
  1. ^ Определение Пэдгама и Виникоффа явно охватывает только социальных агентов, которые взаимодействуют с другими агентами.

Встроенные ссылки

[ редактировать ]
  1. ^ Jump up to: а б Рассел и Норвиг 2003 , гл. 2.
  2. ^ Jump up to: а б с д Брингсйорд, Зельмер; Говиндараджулу, Навин Сундар (12 июля 2018 г.). "Искусственный интеллект" . В Эдварде Н. Залте (ред.). Стэнфордская энциклопедия философии (выпуск лета 2020 г.) .
  3. ^ Волчовер, Натали (30 января 2020 г.). «Искусственный интеллект сделает то, что мы просим. Это проблема» . Журнал Кванта . Проверено 21 июня 2020 г.
  4. ^ Jump up to: а б Булл, Ларри (1999). «Об эволюционных вычислениях на основе моделей». Мягкие вычисления . 3 (2): 76–82. дои : 10.1007/s005000050055 . S2CID   9699920 .
  5. ^ Рассел и Норвиг 2003 , стр. 4–5, 32, 35, 36 и 56.
  6. ^ Jump up to: а б с Рассел и Норвиг (2003)
  7. ^ Лин Пэдхэм и Майкл Виникофф. Разработка интеллектуальных агентных систем: Практическое руководство. Том. 13. Джон Уайли и сыновья, 2005.
  8. ^ Каплан, Андреас; Хэнляйн, Майкл (1 января 2019 г.). «Сири, Сири, в моей руке: кто самый справедливый на земле? Об интерпретациях, иллюстрациях и значении искусственного интеллекта». Горизонты бизнеса . 62 (1): 15–25. дои : 10.1016/j.bushor.2018.08.004 . S2CID   158433736 .
  9. ^ Рассел и Норвиг 2003 , с. 27.
  10. ^ Домингос 2015 , Глава 5.
  11. ^ Домингос 2015 , Глава 7.
  12. ^ Линденбаум М., Маркович С. и Русаков Д. (2004). Выборочная выборка для классификаторов ближайших соседей. Машинное обучение, 54(2), 125–152.
  13. ^ «Генераторно-состязательные сети: что такое GAN и как они развивались» . ВенчурБит . 26 декабря 2019 года . Проверено 18 июня 2020 г.
  14. ^ Уолчовер, Натали (январь 2020 г.). «Искусственный интеллект сделает то, что мы просим. Это проблема» . Журнал Кванта . Проверено 18 июня 2020 г.
  15. ^ Эндрю Ю. Нг, Дайши Харада и Стюарт Рассел. «Инвариантность политики при трансформации вознаграждения: теория и применение к формированию вознаграждения». В ICML, вып. 99, стр. 278-287. 1999.
  16. ^ Мартин Форд . Архитекторы интеллекта: правда об искусственном интеллекте от людей, его создающих. ООО «Пакт Паблишинг», 2018.
  17. ^ «Почему у искусственного интеллекта AlphaZero проблемы с реальным миром» . Журнал Кванта . 2018 . Проверено 18 июня 2020 г.
  18. ^ Адамс, Сэм; Арель, Итмар; Бах, Йоша; Куп, Роберт; Фурлан, Род; Герцель, Бен; Холл, Дж. Сторрс; Самсонович, Алексей; Шойц, Матиас; Шлезингер, Мэтью; Шапиро, Стюарт К.; Сова, Джон (15 марта 2012 г.). «Составление карты общего искусственного интеллекта человеческого уровня» . Журнал ИИ . 33 (1): 25. дои : 10.1609/aimag.v33i1.2322 .
  19. ^ Хатсон, Мэтью (27 мая 2020 г.). «Привлекательные достижения в некоторых областях искусственного интеллекта нереальны» . Наука | АААС . Проверено 18 июня 2020 г.
  20. ^ Рассел и Норвиг 2003 , стр. 46–54.
  21. ^ Стефано Альбрехт и Питер Стоун (2018). Автономные агенты, моделирующие других агентов: всесторонний обзор и открытые проблемы. Искусственный интеллект, Том. 258, стр. 66-95. https://doi.org/10.1016/j.artint.2018.01.002
  22. ^ Коробка, фанаты из (04.12.2019). «Универсальная формула интеллекта» . Гики из коробки . Проверено 11 октября 2022 г.
  23. ^ Висснер-Гросс, AD; Фрир, CE (19 апреля 2013 г.). «Причинные энтропийные силы» . Письма о физических отзывах . 110 (16): 168702. Бибкод : 2013PhRvL.110p8702W . doi : 10.1103/PhysRevLett.110.168702 . hdl : 1721.1/79750 . ПМИД   23679649 .
  24. ^ Пул, Дэвид; Макворт, Алан. «1.3 Агенты, расположенные в окружающей среде ‣ Глава 2. Архитектура агентов и иерархическое управление ‣ Искусственный интеллект: основы вычислительных агентов, 2-е издание» . artint.info . Проверено 28 ноября 2018 г.
  25. ^ Рассел и Норвиг 2003 , с. 33
  26. ^ Саламон, Томас (2011). Проектирование агентно-ориентированных моделей . Репин: Издательство Брукнер. стр. 42–59. ISBN  978-80-904661-1-1 .
  27. ^ Нильссон, Нильс Дж. (апрель 1996 г.). «Искусственный интеллект: современный подход» . Искусственный интеллект . 82 (1–2): 369–380. дои : 10.1016/0004-3702(96)00007-0 . ISSN   0004-3702 .
  28. ^ Халлербах, С.; Ся, Ю.; Эберле, У.; Кестер, Ф. (2018). «Идентификация критических сценариев на основе моделирования для кооперативных и автоматизированных транспортных средств» . Международный журнал SAE о подключенных и автоматизированных транспортных средствах . 1 (2). SAE International: 93. doi : 10.4271/2018-01-1066 .
  29. ^ Мадригал, рассказ Алексиса К. «В секретном мире Waymo для обучения беспилотным автомобилям» . Атлантика . Проверено 14 августа 2020 г.
  30. ^ Коннорс, Дж.; Грэм, С.; Майу, Л. (2018). «Кибер-синтетическое моделирование для транспортных средств». На Международной конференции по кибервойне и безопасности . Academic Conferences International Limited: 594-XI.
  31. ^ Ян, Гоцин; Ву, Чжаохуэй; Ли, Сюмэй; Чен, Вэй (2003). «SVE: встроенная среда интеллектуального автомобиля на основе агентов» . Материалы Международной конференции IEEE 2003 года по интеллектуальным транспортным системам . Том. 2. стр. 1745–1749. дои : 10.1109/ITSC.2003.1252782 . ISBN  0-7803-8125-4 . S2CID   110177067 .
  32. ^ Фингар, Питер (2018). «Конкуренция за будущее с интеллектуальными агентами... и признание» . Сайты Форбс . Проверено 18 июня 2020 г.
  33. ^ Бургин, Марк и Гордана Додиг-Црнкович. «Системный подход к искусственным агентам». Препринт arXiv arXiv:0902.3513 (2009).
  34. ^ Касабов 1998 .

Другие ссылки

[ редактировать ]
[ редактировать ]
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 494ad7d44d8621ad820676c268a5b4c5__1719818700
URL1:https://arc.ask3.ru/arc/aa/49/c5/494ad7d44d8621ad820676c268a5b4c5.html
Заголовок, (Title) документа по адресу, URL1:
Intelligent agent - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)