Jump to content

Диалоговая система

(Перенаправлено из Менеджера диалогов )

Автоматизированный онлайн-помощник на сайте – пример, когда диалоговые системы являются основными компонентами

Диалоговая система , или диалоговый агент ( CA ), — это компьютерная система, предназначенная для общения с человеком. Диалоговые системы использовали один или несколько режимов общения как на входном, так и на выходном канале: текст, речь, графика, тактильные ощущения, жесты и другие режимы.

Элементы диалоговой системы не определены, поскольку эта идея находится в стадии исследования. [ нужна ссылка ] однако они отличаются от чат-бота . [1] Типичный с графическим пользовательским интерфейсом мастер ведет своего рода диалог, но он включает в себя очень мало общих компонентов диалоговой системы, а состояние диалога тривиально.

После диалоговых систем, основанных только на обработке письменного текста, начиная с начала шестидесятых годов, [2] первая голосовая диалоговая система была выпущена проектом DARPA в США в 1977 году. [3] После окончания этого пятилетнего проекта некоторые европейские проекты выпустили первую диалоговую систему, способную говорить на многих языках (также французском, немецком и итальянском). [4] Эти первые системы использовались в телекоммуникационной отрасли для предоставления различных телефонных услуг в конкретных областях, например, автоматизированная повестка дня и обслуживание столов для поездов.

Компоненты

[ редактировать ]

Какие наборы компонентов включены в диалоговую систему и то, как эти компоненты распределяют обязанности, различается от системы к системе. Принципиальным элементом любой диалоговой системы является менеджер диалога , который является компонентом, управляющим состоянием диалога и стратегией диалога. Типичный цикл деятельности в диалоговой системе состоит из следующих фаз: [5]

  1. Пользователь говорит, и ввод преобразуется в обычный текст системным распознавателем/декодером ввода , который может включать в себя:
  2. Текст анализируется блоком понимания естественного языка (NLU), который может включать в себя:
  3. Семантическая информация анализируется менеджером диалогов , который сохраняет историю и состояние диалога и управляет общим потоком разговора.
  4. Обычно менеджер диалога связывается с одним или несколькими менеджерами задач , которые знают конкретную область задач.
  5. Менеджер диалогов выдает выходные данные с помощью генератора выходных данных , который может включать в себя:
  6. Наконец, выходные данные визуализируются с помощью средства рендеринга вывода , которое может включать в себя:

Диалоговые системы, основанные на текстовом интерфейсе (например, текстовый чат), содержат только этапы 2–5.

Типы систем

[ редактировать ]

Диалоговые системы делятся на следующие категории, которые перечислены здесь по нескольким параметрам. Многие категории частично совпадают, и различия могут быть недостаточно четко установлены.

Natural dialogue systems

[edit]

"A Natural Dialogue System is a form of dialogue system that tries to improve usability and user satisfaction by imitating human behaviour" [6] (Berg, 2014). It addresses the features of a human-to-human dialogue (e.g. sub dialogues and topic changes) and aims to integrate them into dialogue systems for human-machine interaction. Often, (spoken) dialogue systems require the user to adapt to the system because the system is only able to understand a very limited vocabulary, is not able to react to topic changes, and does not allow the user to influence the dialogue flow. Mixed-initiative is a way to enable the user to have an active part in the dialogue instead of only answering questions. However, the mere existence of mixed-initiative is not sufficient to be classified as a natural dialogue system. Other important aspects include:[6]

  • Adaptivity of the system
  • Support of implicit confirmation
  • Usage of verification questions
  • Possibilities to correct information that has already been given
  • Over-informativeness (give more information than has been asked for)
  • Support negations
  • Understand references by analysing discourse and anaphora
  • Natural language generation to prevent monotonous and recurring prompts
  • Adaptive and situation-aware formulation
  • Social behaviour (greetings, the same level of formality as the user, politeness)
  • Quality of speech recognition and synthesis

Although most of these aspects are issues of many different research projects, there is a lack of tools that support the development of dialogue systems addressing these topics.[7] Apart from VoiceXML that focuses on interactive voice response systems and is the basis for many spoken dialogue systems in industry (customer support applications) and AIML that is famous for the A.L.I.C.E. chatbot, none of these integrate linguistic features like dialogue acts or language generation. Therefore, NADIA (a research prototype) gives an idea of how to fill that gap and combines some of the aforementioned aspects like natural language generation, adaptive formulation, and sub dialogues.

Performance

[edit]

Some authors measure the dialogue system's performance in terms of the percentage of sentences completely right, by comparing the model of sentences (this measure is called Concept Sentence Accuracy[8] or Sentence Understanding[4]).

Applications

[edit]

Dialogue systems can support a broad range of applications in business enterprises, education, government, healthcare, and entertainment.[9] For example:

  • Responding to customers' questions about products and services via a company's website or intranet portal
  • Customer service agent knowledge base: Allows agents to type in a customer's question and guide them with a response
  • Guided selling: Facilitating transactions by providing answers and guidance in the sales process, particularly for complex products being sold to novice customers
  • Help desk: Responding to internal employee questions, e.g., responding to HR questions
  • Website navigation: Guiding customers to relevant portions of complex websites—a Website concierge
  • Technical support: Responding to technical problems, such as diagnosing a problem with a product or device
  • Personalized service: Conversational agents can leverage internal and external databases to personalise interactions, such as answering questions about account balances, providing portfolio information, delivering frequent flier or membership information, for example
  • Training or education: They can provide problem-solving advice while the user learns
  • Simple dialogue systems are widely used to decrease the human workload in call centers. In this and other industrial telephony applications, the functionality provided by dialogue systems is known as interactive voice response or IVR.
  • Support scientist in data manipulation and analysis tasks, for example in genomics.[10]

In some cases, conversational agents can interact with users using artificial characters. These agents are then referred to as embodied agents.

Toolkits and architectures

[edit]

A survey of current frameworks, languages and technologies for defining dialogue systems.

Name & linksSystem typeDescriptionAffiliation[s]Environment[s]Comments
AIMLChatterbot languageXML dialect for creating natural language software agentsRichard Wallace, Pandorabots, Inc.
ChatScriptChatterbot languageLanguage/Engine for creating natural language software agentsBruce Wilcox
CSLU Toolkit
A state-based speech interface prototyping environmentOGI School of Science and Engineering
M. McTear
Ron Cole
publications are from 1999.
NLUI ServerDomain-independent toolkitComplete multilingual framework for building natural language user interface systemsLinguaSysout-of-box support of mixed-initiative dialogues
OlympusComplete framework for implementing spoken dialogue systemsCarnegie Mellon University[1]
NextnovaMultimodal PlatformPlatform for developing multimodal software applications. Based on State Chart XML (SCXML)Ponvia Technology, Inc.
VXML
Voice XML
Spoken dialogueMultimodal dialogue markup languageDeveloped initially by AT&T, then administered by an industry consortium and finally a W3C specificationExampleprimarily for telephony.
SALTmarkup languageMultimodal dialogue markup languageMicrosoft"has not reached the level of maturity of VoiceXML in the standards process".
Quack.com - QXMLDevelopment EnvironmentCompany bought by AOL
OpenDialDomain-independent toolkitHybrid symbolic/statistical framework for spoken dialogue systems, implemented in JavaUniversity of Oslo
NADIAdialogue engine and dialogue modellingCreating natural dialogues/dialogue systems. Supports dialogue acts, mixed initiative, NLG. Implemented in Java.Markus M. Bergcreate XML-based dialogue files, no need to specify grammars, publications are from 2014

See also

[edit]

References

[edit]
  1. ^ Klüwer, Tina. "From chatbots to dialog systems." Conversational agents and natural language interaction: Techniques and Effective Practices. IGI Global, 2011. 1-22.
  2. ^ McTear, Michael, Zoraida Callejas, and David Griol, The conversational interface: Talking to smart devices, Springer, 2016.
  3. ^ Giancarlo Pirani (ed), Advanced algorithms and architectures for speech understanding, Vol. 1. Springer Science & Business Media, 2013.
  4. ^ Jump up to: a b Alberto Ciaramella, A prototype performance evaluation report, Sundial work package 8000 (1993).
  5. ^ Jurafsky & Martin (2009), Speech and language processing. Pearson International Edition, ISBN 978-0-13-504196-3, Chapter 24
  6. ^ Jump up to: a b Berg, Markus M. (2014), Modelling of Natural Dialogues in the Context of Speech-based Information and Control Systems, Akademische Verlagsgesellschaft AKA, ISBN 978-3-89838-508-4
  7. ^ Berg, Markus M. (2015), "NADIA: A Simplified Approach Towards the Development of Natural Dialogue Systems", Natural Language Processing and Information Systems, Lecture Notes in Computer Science, vol. 9103, pp. 144–150, doi:10.1007/978-3-319-19581-0_12, ISBN 978-3-319-19580-3
  8. ^ Bangalore, Srinivas, and Michael Johnston. "Robust understanding in multimodal interfaces." Computational Linguistics 35.3 (2009): 345-397.
  9. ^ Lester, J.; Branting, K.; Mott, B. (2004), "Conversational Agents" (PDF), The Practical Handbook of Internet Computing, Chapman & Hall
  10. ^ Кровари; Пидо; Пиноли; Бернаскони; Чанакоглу; Гарзотто; Кери (2021), «GeCoAgent: диалоговый агент для расширения возможностей извлечения и анализа геномных данных», ACM Transactions on Computing for Healthcare , 3 , ACM New York, NY: 1–29, doi : 10.1145/3464383 , hdl : 11311/1192262 , S2CID   245855725

Дальнейшее чтение

[ редактировать ]
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 1525b5d3ffd3e74eca0701973e0cfeed__1720526940
URL1:https://arc.ask3.ru/arc/aa/15/ed/1525b5d3ffd3e74eca0701973e0cfeed.html
Заголовок, (Title) документа по адресу, URL1:
Dialogue system - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)