~~~~~~~~~~~~~~~~~~~~ Arc.Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~ 
Номер скриншота №:
✰ 1BDBBA62E7BBFC6A8CE79468497DDF17__1718287500 ✰
Заголовок документа оригинал.:
✰ Markov model - Wikipedia ✰
Заголовок документа перевод.:
✰ Марковская модель — Википедия ✰
Снимок документа находящегося по адресу (URL):
✰ https://en.wikipedia.org/wiki/Markov_model ✰
Адрес хранения снимка оригинал (URL):
✰ https://arc.ask3.ru/arc/aa/1b/17/1bdbba62e7bbfc6a8ce79468497ddf17.html ✰
Адрес хранения снимка перевод (URL):
✰ https://arc.ask3.ru/arc/aa/1b/17/1bdbba62e7bbfc6a8ce79468497ddf17__translat.html ✰
Дата и время сохранения документа:
✰ 22.06.2024 21:44:32 (GMT+3, MSK) ✰
Дата и время изменения документа (по данным источника):
✰ 13 June 2024, at 17:05 (UTC). ✰ 

~~~~~~~~~~~~~~~~~~~~~~ Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~~ 
Сервисы Ask3.ru: 
 Архив документов (Снимки документов, в формате HTML, PDF, PNG - подписанные ЭЦП, доказывающие существование документа в момент подписи. Перевод сохраненных документов на русский язык.)https://arc.ask3.ruОтветы на вопросы (Сервис ответов на вопросы, в основном, научной направленности)https://ask3.ru/answer2questionТоварный сопоставитель (Сервис сравнения и выбора товаров) ✰✰
✰ https://ask3.ru/product2collationПартнерыhttps://comrades.ask3.ru


Совет. Чтобы искать на странице, нажмите Ctrl+F или ⌘-F (для MacOS) и введите запрос в поле поиска.
Arc.Ask3.ru: далее начало оригинального документа

Марковская модель — Википедия Jump to content

Марковская модель

Из Википедии, бесплатной энциклопедии

В теории вероятностей марковская модель это стохастическая модель, используемая для моделирования псевдослучайно изменяющихся систем. Предполагается, что будущие состояния зависят только от текущего состояния, а не от событий, произошедших до него (т. е. предполагается марковское свойство ). Как правило, это предположение позволяет проводить рассуждения и вычисления с использованием модели, которые в противном случае были бы неразрешимы . По этой причине в области прогнозного моделирования и вероятностного прогнозирования желательно, чтобы данная модель проявляла марковское свойство.

Введение [ править ]

Существует четыре общие модели Маркова, используемые в разных ситуациях, в зависимости от того, является ли каждое последовательное состояние наблюдаемым или нет, и нужно ли корректировать систему на основе сделанных наблюдений:

Марковские модели
Состояние системы полностью наблюдаемо Состояние системы частично наблюдаемо
Система автономна Цепь Маркова Скрытая модель Маркова
Система контролируется Марковский процесс принятия решения Частично наблюдаемый марковский процесс принятия решений

Цепь Маркова [ править ]

Простейшей моделью Маркова является цепь Маркова . Он моделирует состояние системы со случайной величиной , которая меняется со временем. В этом контексте свойство Маркова указывает на то, что распределение этой переменной зависит только от распределения предыдущего состояния. Примером использования цепи Маркова является цепь Маркова Монте-Карло , которая использует свойство Маркова для доказательства того, что конкретный метод выполнения случайного блуждания будет производить выборку из совместного распределения .

марковская модель Скрытая

Скрытая модель Маркова — это цепь Маркова, для которой состояние наблюдаемо лишь частично или с зашумлением. Другими словами, наблюдения связаны с состоянием системы, но их обычно недостаточно для точного определения состояния. Существует несколько хорошо известных алгоритмов для скрытых моделей Маркова. Например, при наличии последовательности наблюдений алгоритм Витерби вычисляет наиболее вероятную соответствующую последовательность состояний, прямой алгоритм вычисляет вероятность последовательности наблюдений, а алгоритм Баума – Уэлча оценивает начальные вероятности перехода функция и функция наблюдения скрытой марковской модели.

Одним из распространенных применений является распознавание речи , где наблюдаемые данные представляют собой речевого аудиосигнала форму , а скрытое состояние — это произнесенный текст. В этом примере алгоритм Витерби находит наиболее вероятную последовательность произнесенных слов с учетом звука речи.

Марковский процесс принятия решений

Марковский процесс принятия решений представляет собой цепь Маркова, в которой переходы между состояниями зависят от текущего состояния и вектора действия, применяемого к системе. Обычно процесс принятия решений Маркова используется для расчета политики действий, которая максимизирует некоторую полезность в отношении ожидаемого вознаграждения.

наблюдаемый марковский процесс Частично принятия решений

Частично наблюдаемый марковский процесс принятия решений (POMDP) ​​— это марковский процесс принятия решений, в котором состояние системы наблюдается лишь частично. POMDP, как известно, являются NP-полными , но последние методы аппроксимации сделали их полезными для различных приложений, таких как управление простыми агентами или роботами. [1]

Марковское случайное поле [ править ]

, Случайное поле Маркова или сеть Маркова, можно рассматривать как обобщение цепи Маркова в нескольких измерениях. В цепи Маркова состояние зависит только от предыдущего состояния во времени, тогда как в марковском случайном поле каждое состояние зависит от своих соседей в любом из нескольких направлений. Марковское случайное поле можно представить как поле или график случайных величин, где распределение каждой случайной величины зависит от соседних переменных, с которыми она связана. Более конкретно, совместное распределение любой случайной величины в графе можно вычислить как произведение «кликовых потенциалов» всех клик в графе, содержащих эту случайную величину. Моделирование проблемы как марковского случайного поля полезно, поскольку оно подразумевает, что таким способом можно вычислить совместные распределения в каждой вершине графа.

марковские модели Иерархические

Иерархические модели Маркова могут применяться для классификации человеческого поведения на различных уровнях абстракции. Например, ряд простых наблюдений, таких как местоположение человека в комнате, можно интерпретировать для определения более сложной информации, например, какую задачу или деятельность выполняет человек. Два вида иерархических марковских моделей — это иерархическая скрытая марковская модель. [2] и абстрактная скрытая марковская модель. [3] Оба использовались для распознавания поведения. [4] а определенные свойства условной независимости между различными уровнями абстракции в модели позволяют ускорить обучение и сделать вывод. [3] [5]

марковская модель Толерантная

Модель толерантной Маркова (ТММ) представляет собой вероятностно-алгоритмическую модель цепи Маркова. [6] Он назначает вероятности в соответствии с кондиционирующим контекстом, который рассматривает последний символ из последовательности, который должен появиться, как наиболее вероятный, а не истинно встречающийся символ. TMM может моделировать три различных характера: замены, добавления или удаления. Успешные приложения были эффективно реализованы в сжатии последовательностей ДНК. [6] [7]

цепи Модели прогнозирования на марковской основе

Цепи Маркова использовались в качестве методов прогнозирования по нескольким темам, например, тенденции цен, [8] ветровая энергия [9] и солнечное излучение . [10] Модели прогнозирования цепи Маркова используют множество различных настроек, от дискретизации временных рядов до [9] к скрытым марковским моделям в сочетании с вейвлетами [8] и модель распределения смеси марковской цепи (MCM). [10]

См. также [ править ]

Ссылки [ править ]

  1. ^ Кельблинг, LP; Литтман, М.Л.; Кассандра, Арканзас (1998). «Планирование и действие в частично наблюдаемых стохастических областях» . Искусственный интеллект . 101 (1–2): 99–134. CiteSeerX   10.1.1.390.8474 . дои : 10.1016/S0004-3702(98)00023-X . ISSN   0004-3702 .
  2. ^ Хорошо, С.; Сингер, Ю. (1998). «Иерархическая скрытая марковская модель: анализ и приложения» . Машинное обучение . 32 (1): 41–62. дои : 10.1023/А:1007469218079 .
  3. ^ Перейти обратно: а б Буй, ХХ; Венкатеш, С.; Уэст, Г. (2002). «Политика распознавания в абстрактной скрытой марковской модели» . Журнал исследований искусственного интеллекта . 17 : 451–499. дои : 10.1613/jair.839 . hdl : 10536/DRO/DU:30044252 .
  4. ^ Теохарус, Г. (2002). Иерархическое обучение и планирование в частично наблюдаемых марковских процессах принятия решений (доктор философии). Мичиганский государственный университет.
  5. ^ Лур, С.; Буй, ХХ; Венкатеш, С.; Вест, ГСА (2003). «Распознавание человеческой деятельности посредством иерархического стохастического обучения» . PERCOM '03 Материалы первой международной конференции IEEE по всеобъемлющим вычислениям и коммуникациям . стр. 416–422. CiteSeerX   10.1.1.323.928 . дои : 10.1109/PERCOM.2003.1192766 . ISBN  978-0-7695-1893-0 . S2CID   13938580 .
  6. ^ Перейти обратно: а б Пратас, Д.; Хоссейни, М.; Пиньо, Эй Джей (2017). «Толерантные к заменам марковские модели относительного сжатия последовательностей ДНК». PACBB 2017 – 11-я Международная конференция по практическому применению вычислительной биологии и биоинформатики, Порту, Португалия . стр. 265–272. дои : 10.1007/978-3-319-60816-7_32 . ISBN  978-3-319-60815-0 .
  7. ^ Пратас, Д.; Пиньо, Эй Джей; Феррейра, PJSG (2016). «Эффективное сжатие геномных последовательностей». Конференция по сжатию данных (DCC), 2016 . IEEE. стр. 231–240. дои : 10.1109/DCC.2016.60 . ISBN  978-1-5090-1853-6 . S2CID   14230416 .
  8. ^ Перейти обратно: а б де Соуза и Силва, Э.Г.; Леги, LFL; де Соуза и Силва, Э.А. (2010). «Прогнозирование тенденций цен на нефть с использованием вейвлетов и скрытых моделей Маркова» . Экономика энергетики . 32 .
  9. ^ Перейти обратно: а б Карпиноне, А; Джорджио, М; Ланджелла, Р.; Теста, А. (2015). «Моделирование цепей Маркова для очень краткосрочного прогнозирования ветроэнергетики» . Исследование электроэнергетических систем . 122 : 152–158. дои : 10.1016/j.epsr.2014.12.025 .
  10. ^ Перейти обратно: а б Мункхаммар, Дж.; ван дер Меер, DW; Виден, Дж. (2019). «Вероятностное прогнозирование временных рядов индекса ясного неба с высоким разрешением с использованием модели распределения смеси цепи Маркова». Солнечная энергия . 184 : 688–695. doi : 10.1016/j.solener.2019.04.014 . S2CID   146076100 .
Arc.Ask3.Ru: конец оригинального документа.
Arc.Ask3.Ru
Номер скриншота №: 1BDBBA62E7BBFC6A8CE79468497DDF17__1718287500
URL1:https://en.wikipedia.org/wiki/Markov_model
Заголовок, (Title) документа по адресу, URL1:
Markov model - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть, любые претензии не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, денежную единицу можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)