Иерархическая скрытая марковская модель
![]() | Эта статья включает список общих ссылок , но в ней отсутствуют достаточные соответствующие встроенные цитаты . ( Ноябрь 2020 г. ) |
Иерархическая скрытая модель Маркова (HHMM) — это статистическая модель, полученная на основе скрытой модели Маркова (HMM). В HHMM каждое состояние рассматривается как автономная вероятностная модель . Точнее, каждое состояние ЧЧММ само по себе является ЧЧММ.
HHMM и HMM полезны во многих областях, включая распознавание образов . [1] [2]
Фон
[ редактировать ]Иногда полезно использовать HMM в конкретных структурах, чтобы облегчить обучение и обобщение. Например, даже несмотря на то, что полностью подключенный HMM всегда можно использовать, если доступно достаточно обучающих данных, часто бывает полезно ограничить модель, не допуская произвольных переходов между состояниями. Точно так же может оказаться полезным встроить HMM в более крупную структуру; который теоретически не сможет решить никаких других проблем, кроме базового HMM, но может решить некоторые проблемы более эффективно, когда дело касается объема необходимых обучающих данных.
Описание
[ редактировать ]В иерархической скрытой марковской модели (HHMM) каждое состояние рассматривается как автономная вероятностная модель. Точнее, каждое состояние ЧЧММ само по себе является ЧЧММ. Это означает, что состояния HHMM излучают последовательности символов наблюдения, а не отдельные символы наблюдения, как в случае стандартных состояний HMM.

Когда состояние в ЧЧММ активируется, оно активирует свою собственную вероятностную модель, т.е. оно активирует одно из состояний лежащего в основе ЧЧММ, которое, в свою очередь, может активировать лежащее в его основе ЧЧММ и так далее. Процесс повторяется до тех пор, пока не активируется особое состояние, называемое производственным состоянием. Только производственные состояния излучают символы наблюдения в обычном смысле HMM. Когда производственное состояние выдало символ, управление возвращается в состояние, которое активировало производственное состояние.Состояния, которые напрямую не излучают символы наблюдений, называются внутренними состояниями. Активация состояния в ЧЧММ под внутренним состоянием называется вертикальным переходом . После завершения вертикального перехода происходит горизонтальный переход в состояние внутри того же уровня. Когда горизонтальный переход приводит к конечному состоянию, управление возвращается всостояние в ЧЧММ, на более высоком уровне иерархии, которое произвело последний вертикальный переход.
Обратите внимание, что вертикальный переход может привести к большему количеству вертикальных переходов до достижения последовательности производственных состояний инаконец-то возвращаемся на верхний уровень. Таким образом, посещенные производственные состояния порождают последовательность символов наблюдения, которая «производится» состоянием на верхнем уровне.
Методы оценки параметров HHMM и структуры модели более сложны, чем для параметров HMM, и заинтересованному читателю отсылаем к Fine et al. (1998).
HMM и HHMM принадлежат к одному классу классификаторов. То есть их можно использовать для решениятот же набор проблем. Фактически, HHMM можно преобразовать в стандартный HMM. Однако HHMM использует свою структуру для более эффективного решения части проблем.
Топология
[ редактировать ]Классические HHMM требуют заранее определенной топологии, а это означает, что количество и иерархическая структура подмоделей должны быть известны заранее. [1] Самко и др. (2010) использовали информацию о состояниях из пространства признаков (т. е. из-за пределов самой модели Маркова), чтобы определить топологию для нового HHMM неконтролируемым способом. [2] Однако такие внешние данные, содержащие соответствующую информацию для построения ЧЧММ, могут быть доступны не во всех контекстах, например, при языковой обработке.
См. также
[ редактировать ]Ссылки
[ редактировать ]- ^ Jump up to: а б Хорошо, Шай; Певец Йорам; Тишби, Нафтали (1 июля 1998 г.). «Иерархическая скрытая марковская модель: анализ и приложения» . Машинное обучение . 32 (1): 41–62. дои : 10.1023/А:1007469218079 . ISSN 1573-0565 . Проверено 3 ноября 2021 г.
- ^ Jump up to: а б Самко, Оксана; Маршалл, Дэвид; Розин, Пол (01 января 2010 г.). Автоматическое построение иерархической структуры скрытой марковской модели для обнаружения семантических закономерностей в данных о движении . Том. 1. С. 275–280.
Дальнейшее чтение
[ редактировать ]- С. Файн, Ю. Сингер и Н. Тишби, «Иерархическая скрытая марковская модель: анализ и приложения», Machine Learning, vol. 32, с. 41–62, 1998 г.
- К.Мерфи и М.Паскин. «Вывод линейного времени в иерархических HMM», NIPS-01 (Neural Info. Proc. Systems).
- Х. Буи, Д. Фунг и С. Венкатеш. «Иерархические скрытые марковские модели с общей государственной иерархией», AAAI-04 (Национальная конференция по искусственному интеллекту).