Jump to content

Модель смеси

(Перенаправлено из Анализа скрытого профиля )

В статистике смешанная модель — это вероятностная модель для представления присутствия субпопуляций в общей популяции без требования, чтобы наблюдаемый набор данных идентифицировал субпопуляцию, к которой принадлежит отдельное наблюдение. Формально модель смеси соответствует распределению смеси , которое представляет собой распределение вероятностей наблюдений в общей совокупности. Однако, хотя проблемы, связанные с «распределением смесей», связаны с выведением свойств генеральной совокупности из свойств субпопуляций, «модели смеси» используются для того, чтобы сделать статистические выводы о свойствах субпопуляций на основе только наблюдений над объединенное население, без информации об идентичности подгрупп населения. Модели смесей используются для кластеризации (так называемая кластеризация на основе модели) , а также для оценки плотности .

Модели смеси не следует путать с моделями данных о составе , т. е. данными, сумма компонентов которых ограничена постоянным значением (1, 100% и т. д.). Однако композиционные модели можно рассматривать как смешанные модели, в которых члены совокупности отбираются случайным образом. И наоборот, смешанные модели можно рассматривать как композиционные модели, в которых общий размер читающей популяции нормализован к 1.

Структура

[ редактировать ]

Общая модель смеси

[ редактировать ]

Типичная конечномерная модель смеси представляет собой иерархическую модель, состоящую из следующих компонентов:

  • N наблюдаемых случайных величин, каждая из которых распределена в соответствии со смесью K компонентов, причем компоненты принадлежат одному и тому же параметрическому семейству распределений (например, все нормальные , все зипфианские и т. д.), но с разными параметрами.
  • N случайных скрытых переменных, определяющих идентичность компонента смеси каждого наблюдения, каждая из которых распределена в соответствии с K -мерным категориальным распределением.
  • Набор из K весов смеси, которые представляют собой вероятности, сумма которых равна 1.
  • Набор K параметров, каждый из которых определяет параметр соответствующего компонента смеси. Во многих случаях каждый «параметр» на самом деле представляет собой набор параметров. Например, если компоненты смеси представляют собой распределения Гаусса будет среднее значение и дисперсия , для каждого компонента . Если компоненты смеси являются категориальными распределениями (например, когда каждое наблюдение является токеном из конечного алфавита размера V ), будет вектор вероятностей V , сумма которых равна 1.

Кроме того, в байесовском подходе веса и параметры смеси сами по себе будут случайными переменными, а априорные распределения будут размещены над переменными. В таком случае веса обычно рассматриваются как K -мерный случайный вектор, полученный из распределения Дирихле ( сопряженного априорного значения категориального распределения), а параметры будут распределяться в соответствии с их соответствующими сопряженными априорными значениями.

Математически базовую модель параметрической смеси можно описать следующим образом:

В байесовском подходе все параметры связаны со случайными величинами следующим образом:

Эта характеристика использует F и H для описания произвольных распределений по наблюдениям и параметрам соответственно. Обычно H будет предшествующим F . сопряженным Двумя наиболее распространенными вариантами F являются гауссово , то есть « нормальное » (для вещественных наблюдений) и категориальное (для дискретных наблюдений). Другими распространенными возможностями распределения компонентов смеси являются:

Конкретные примеры

[ редактировать ]

Модель гауссовой смеси

[ редактировать ]
Модель небайесовской смеси Гаусса с использованием пластинчатых обозначений . Меньшие квадраты обозначают фиксированные параметры; большие кружки обозначают случайные величины. Заполненные фигуры обозначают известные значения. вектор размера K. Обозначение [K] означает

Типичная модель небайесовской смеси Гаусса выглядит следующим образом:

Модель байесовской смеси Гаусса с использованием пластинчатых обозначений . Меньшие квадраты обозначают фиксированные параметры; большие кружки обозначают случайные величины. Заполненные фигуры обозначают известные значения. вектор размера K. Обозначение [K] означает

Байесовская версия модели гауссовой смеси выглядит следующим образом:

Анимация процесса кластеризации одномерных данных с использованием модели байесовской гауссовской смеси, где нормальные распределения получены из процесса Дирихле . Гистограммы кластеров показаны разными цветами. В процессе оценки параметров создаются и растут новые кластеры на основе данных. В легенде показаны цвета кластеров и количество точек данных, назначенных каждому кластеру.

Модель многомерной гауссовой смеси

[ редактировать ]

Модель байесовской смеси Гаусса обычно расширяется, чтобы соответствовать вектору неизвестных параметров (выделено жирным шрифтом) или многомерным нормальным распределениям. В многомерном распределении (т. е. моделирующем вектор со случайными переменными N ) можно смоделировать вектор параметров (например, несколько наблюдений сигнала или участков на изображении), используя априорное распределение модели смеси Гаусса на векторе оценок, заданном формулой

где я й векторная компонента характеризуется нормальными распределениями с весами , означает и ковариационные матрицы . Чтобы включить это априорное значение в байесовскую оценку, априорное значение умножается на известное распределение. данных обусловлено параметрами быть оценены. В этой формулировке апостериорное распределение является также моделью гауссовой смеси вида

с новыми параметрами и которые обновляются с использованием алгоритма EM . [2] Хотя обновление параметров на основе ЭМ хорошо зарекомендовало себя, получение первоначальных оценок этих параметров в настоящее время является областью активных исследований. Обратите внимание, что эта формулировка дает решение полного апостериорного распределения в замкнутой форме. Оценки случайной величины может быть получено с помощью одной из нескольких оценок, таких как среднее или максимум апостериорного распределения.

Такие распределения полезны, например, для предположения лоскутной формы изображений и кластеров. В случае представления изображения каждый гауссиан может быть наклонен, расширен и деформирован в соответствии с ковариационными матрицами. . Каждому участку (обычно размером 8x8 пикселей) на изображении соответствует одно гауссово распределение набора. Примечательно, что любое распределение точек вокруг кластера (см. k -means ) может быть точно задано с достаточным количеством гауссовских компонентов, но более K для точного моделирования данного распределения изображений или кластера данных едва ли требуется = 20 компонентов.

Модель категориальной смеси

[ редактировать ]
Небайесовская модель категориальной смеси с использованием табличной записи . Меньшие квадраты обозначают фиксированные параметры; большие кружки обозначают случайные величины. Заполненные фигуры обозначают известные значения. Индикация [K] означает вектор размера K ; то же самое для [V].

Типичная модель небайесовской смеси с категориальными наблюдениями выглядит следующим образом:

  • как указано выше
  • как указано выше
  • как указано выше
  • измерение категориальных наблюдений, например, размер словарного запаса слов
  • вероятность для компонента наблюдения за предметом
  • вектор размерности состоит из сумма должна быть равна 1

Случайные переменные:


Модель байесовской категориальной смеси с использованием табличной записи . Меньшие квадраты обозначают фиксированные параметры; большие кружки обозначают случайные величины. Заполненные фигуры обозначают известные значения. Индикация [K] означает вектор размера K ; то же самое для [V].

Типичная модель байесовской смеси с категориальными наблюдениями выглядит следующим образом:

  • как указано выше
  • как указано выше
  • как указано выше
  • измерение категориальных наблюдений, например, размер словарного запаса слов
  • вероятность для компонента наблюдения за предметом
  • вектор размерности состоит из сумма должна быть равна 1
  • общий гиперпараметр концентрации для каждого компонента
  • концентрационный гиперпараметр

Случайные переменные:


Финансовая модель

[ редактировать ]
Нормальное распределение строится с использованием различных средних и дисперсий.

Финансовые доходы часто ведут себя по-разному в обычных ситуациях и в кризисные времена. Модель смеси [3] для возврата данных кажется разумным. Иногда используемая модель представляет собой модель скачкообразной диффузии или смесь двух нормальных распределений. см. в разделах «Финансовая экономика § Проблемы и критика» и «Управление финансовыми рисками § Банковское дело» Дополнительную информацию .

Цены на жилье

[ редактировать ]

Предположим, мы наблюдаем цены на N разных домов. Различные типы домов в разных районах будут иметь совершенно разные цены, но цена определенного типа дома в конкретном районе (например, дома с тремя спальнями в умеренно высококлассном районе) будет иметь тенденцию довольно близко приближаться к среднему значению. Одной из возможных моделей таких цен было бы предположить, что цены точно описываются смешанной моделью с K различными компонентами, каждый из которых распределен как нормальное распределение с неизвестным средним значением и дисперсией, причем каждый компонент определяет определенную комбинацию типа дома/района. Подгонка этой модели к наблюдаемым ценам, например, с использованием алгоритма максимизации ожидания , приведет к группировке цен в соответствии с типом дома/района и выявлению разброса цен в каждом типе/районе. (Обратите внимание, что для таких значений, как цены или доходы, которые гарантированно положительны и имеют тенденцию к экспоненциальному росту , логарифмически нормальное распределение на самом деле может быть лучшей моделью, чем нормальное распределение.)

Темы в документе

[ редактировать ]

Предположим, что документ состоит из N различных слов из общего словаря размером V , где каждое слово соответствует одной из K возможных тем. Распределение таких слов можно смоделировать как смесь K различных V -мерных категориальных распределений . Модель такого типа обычно называют тематической моделью . Обратите внимание, что максимизация ожидания , примененная к такой модели, обычно не дает реалистичных результатов из-за (помимо прочего) чрезмерного количества параметров . Для получения хороших результатов обычно необходимы некоторые дополнительные предположения. Обычно в модель добавляются два типа дополнительных компонентов:

  1. Априорное распределение размещается над параметрами, описывающими распределение тем, с использованием распределения Дирихле с параметром концентрации , который установлен значительно ниже 1, чтобы стимулировать разреженные распределения (где только небольшое количество слов имеет значительно ненулевые вероятности).
  2. На идентичность слов накладывается какое-то дополнительное ограничение, чтобы воспользоваться преимуществами естественной кластеризации.
  • Например, цепь Маркова может быть размещена на идентичности тем (т. е. скрытых переменных, определяющих компонент смеси каждого наблюдения), что соответствует тому факту, что ближайшие слова принадлежат схожим темам. (Это приводит к созданию скрытой марковской модели , в частности той, в которой априорное распределение размещается над переходами состояний и благоприятствует переходам, которые остаются в одном и том же состоянии.)
  • Другая возможность — это скрытая модель распределения Дирихле , которая делит слова на D различных документов и предполагает, что в каждом документе с любой частотой встречается лишь небольшое количество тем.

Распознавание рукописного ввода

[ редактировать ]

Следующий пример основан на примере из книги Кристофера М. Бишопа « Распознавание образов и машинное обучение» . [4]

Представьте себе, что нам дано черно-белое изображение размера N × N , которое, как известно, представляет собой отсканированную рукописную цифру от 0 до 9, но мы не знаем, какая цифра написана. Мы можем создать модель смеси с разные компоненты, где каждый компонент представляет собой вектор размера ( распределений Бернулли по одному на пиксель). Такую модель можно обучить с помощью алгоритма максимизации ожидания на немаркированном наборе рукописных цифр, и она будет эффективно группировать изображения в соответствии с записываемой цифрой. Ту же модель затем можно было бы использовать для распознавания цифры другого изображения, просто сохраняя постоянные параметры, вычисляя вероятность нового изображения для каждой возможной цифры (тривиальный расчет) и возвращая цифру, которая генерировала наибольшую вероятность.

Оценка точности снаряда (также известная как вероятность круговой ошибки, CEP)

[ редактировать ]

Модели смеси применяются в задаче направления нескольких снарядов на цель (например, в воздушной, наземной или морской обороне), где физические и/или статистические характеристики снарядов различаются в пределах нескольких снарядов. Примером могут быть выстрелы из нескольких типов боеприпасов или выстрелы из нескольких мест, направленные на одну цель. Комбинацию типов снарядов можно охарактеризовать как модель гауссовой смеси. [5] Кроме того, хорошо известной мерой точности для группы снарядов является вероятность круговой ошибки (CEP), которая представляет собой число R такое, что в среднем половина группы снарядов попадает в круг радиуса R вокруг цели. точка. значения R. Модель смеси можно использовать для определения (или оценки ) Модель смеси правильно отображает различные типы снарядов.

Прямые и косвенные применения

[ редактировать ]

Приведенный выше финансовый пример представляет собой прямое применение смешанной модели, ситуации, в которой мы предполагаем наличие основного механизма, так что каждое наблюдение принадлежит одному из некоторого количества различных источников или категорий. Однако этот основной механизм может быть наблюдаемым, а может и нет. В этой форме смеси каждый из источников описывается функцией плотности вероятности компонента, а вес смеси представляет собой вероятность того, что наблюдение происходит от этого компонента.

При косвенном применении модели смеси мы не предполагаем такой механизм. Модель смеси используется просто из-за ее математической гибкости. Например, смесь двух нормальных распределений с разными средними значениями может привести к плотности с двумя модами , которая не моделируется стандартными параметрическими распределениями. Другой пример - возможность смешанных распределений моделировать более толстые хвосты, чем базовые гауссовы, чтобы быть кандидатом на моделирование более экстремальных событий. В сочетании с динамической согласованностью этот подход был применен к оценке производных финансовых инструментов при наличии улыбки волатильности в контексте моделей локальной волатильности . Это определяет наше приложение.

Прогнозируемое обслуживание

[ редактировать ]

Кластеризация на основе смешанной модели также преимущественно используется для определения состояния машины при профилактическом обслуживании . Графики плотности используются для анализа плотности объектов больших размеров. Если наблюдаются многомодельные плотности, то предполагается, что конечное множество плотностей образовано конечным набором нормальных смесей. Многомерная модель гауссовой смеси используется для кластеризации данных признаков в k групп, где k представляет каждое состояние машины. Состояние машины может быть нормальным, выключенным или неисправным. [6] Каждый образовавшийся кластер можно диагностировать с помощью таких методов, как спектральный анализ. В последние годы это также широко использовалось в других областях, таких как раннее обнаружение неисправностей. [7]

Нечеткая сегментация изображений

[ редактировать ]
Пример гауссовой смеси в сегментации изображения с серой гистограммой

В обработке изображений и компьютерном зрении традиционные модели сегментации изображений часто присваивают одному пикселю только один эксклюзивный шаблон. При нечеткой или мягкой сегментации любой шаблон может иметь определенное «право собственности» на любой отдельный пиксель. Если шаблоны являются гауссовскими, нечеткая сегментация естественным образом приводит к гауссовым смесям. В сочетании с другими аналитическими или геометрическими инструментами (например, фазовыми переходами через диффузионные границы) такие пространственно регуляризованные модели смесей могут привести к более реалистичным и эффективным в вычислительном отношении методам сегментации. [8]

Регистрация набора точек

[ редактировать ]

Модели вероятностной смеси, такие как модели смеси Гаусса (GMM), используются для решения проблем регистрации набора точек в области обработки изображений и компьютерного зрения. попарного При регистрации набора точек один набор точек рассматривается как центроиды моделей смеси, а другой набор точек рассматривается как точки данных (наблюдения). К современным методам относятся, например, когерентный дрейф точки (CPD). [9] и смешанные модели t-распределения Стьюдента (TMM). [10] Результаты недавних исследований демонстрируют превосходство моделей гибридных смесей. [11] (например, объединение t-распределения Стьюдента и распределения Уотсона/ распределения Бингема для отдельного моделирования пространственных положений и ориентации осей) по сравнению с CPD и TMM с точки зрения присущей устойчивости, точности и различительной способности.

Идентифицируемость

[ редактировать ]

Идентифицируемость означает наличие уникальной характеристики для любой из моделей рассматриваемого класса (семейства). Процедуры оценки могут быть неточно определены, а асимптотическая теория может не выполняться, если модель не поддается идентификации.

Пусть J — класс всех биномиальных распределений с n = 2 . Тогда смесь двух членов J имела бы

и п 2 знак равно 1 - п 0 - п 1 . Очевидно, что при данных p 0 и p 1 невозможно однозначно определить описанную выше модель смеси, поскольку необходимо три параметра ( π , θ 1 , θ 2 определить ).

Определение

[ редактировать ]

Рассмотрим смесь параметрических распределений одного класса. Позволять

быть классом всех распределений компонентов. Тогда выпуклая оболочка K функции J определяет класс всей конечной смеси распределений в J :

K называется идентифицируемым, если все его члены уникальны, то есть, учитывая два члена p и p' в K , которые являются смесью k -распределений и k'- распределений соответственно в J , мы имеем p = p' тогда и только тогда, когда во-первых, k = k′ , а во-вторых, мы можем переупорядочить суммирование так, чтобы a i = a i и ƒ i = ƒ i для всех i .

Оценка параметров и идентификация системы

[ редактировать ]

Модели параметрической смеси часто используются, когда мы знаем распределение Y и можем выполнить выборку из X , но мы хотели бы определить значения a i и θ i . Такие ситуации могут возникнуть в исследованиях, в которых мы отбираем популяцию, состоящую из нескольких отдельных субпопуляций.

Принято думать о моделировании смеси вероятностей как о проблеме недостающих данных. Один из способов понять это — предположить, что рассматриваемые точки данных «принадлежат» к одному из распределений, которые мы используем для моделирования данных. Когда мы начинаем, это членство неизвестно или отсутствует. Задача оценки заключается в разработке соответствующих параметров для выбранных нами функций модели, при этом связь с точками данных представляется как их членство в отдельных распределениях модели.

Были предложены различные подходы к проблеме разложения смеси, многие из которых сосредоточены на методах максимального правдоподобия, таких как максимизация ожидания (EM) или максимальная апостериорная оценка (MAP). Обычно эти методы рассматривают отдельно вопросы идентификации системы и оценки параметров; Методы определения количества и функциональной формы компонентов смеси отличаются от методов оценки значений соответствующих параметров. Некоторыми заметными отклонениями являются графические методы, описанные Тартером и Локком. [12] а в последнее время методы минимальной длины сообщения (MML), такие как Figueiredo и Jain. [13] и в некоторой степени процедуры анализа шаблонов сопоставления моментов, предложенные Маквильямом и Лохом (2009). [14]

Максимизация ожиданий (ЕМ)

[ редактировать ]

Максимизация ожидания (ЕМ), по-видимому, является наиболее популярным методом определения параметров смеси с априорно заданным количеством компонентов. Это особый способ реализации оценки максимального правдоподобия для этой задачи. EM особенно привлекателен для конечных нормальных смесей, где возможны выражения в замкнутой форме, например, в следующем итерационном алгоритме Демпстера и др. (1977) [15]

с апостериорными вероятностями

Таким образом, на основе текущей оценки параметров условная вероятность для данного наблюдения x ( т ) генерация из состояния s определяется для каждого t = 1, …, N ; N — размер выборки. Затем параметры обновляются таким образом, чтобы новые веса компонентов соответствовали средней условной вероятности, а среднее значение и ковариация каждого компонента представляли собой средневзвешенное среднее значение и ковариацию для каждого компонента.

Демпстер [15] также показал, что каждая последующая итерация EM не уменьшит вероятность - свойство, не свойственное другим методам максимизации на основе градиента. Более того, EM естественным образом встраивает в себя ограничения на вектор вероятности, и для достаточно больших размеров выборки положительная определенность ковариации повторяется. Это ключевое преимущество, поскольку методы с явными ограничениями требуют дополнительных вычислительных затрат для проверки и поддержания соответствующих значений. Теоретически EM является алгоритмом первого порядка и поэтому медленно сходится к решению с фиксированной точкой. Реднер и Уокер (1984) [ нужна полная цитата ] подчеркивают это, приводя доводы в пользу суперлинейных методов Ньютона, второго порядка и квазиньютоновских методов и сообщая о медленной сходимости в ЭМ на основе их эмпирических испытаний. Они признают, что сближение правдоподобия было быстрым, даже если сближения значений самих параметров не было. Относительные преимущества EM и других алгоритмов по сравнению со сходимостью обсуждались в другой литературе. [16]

Другие распространенные возражения против использования ЭМ заключаются в том, что они имеют склонность к ложному выявлению локальных максимумов, а также демонстрируют чувствительность к начальным значениям. [17] [18] Можно решить эти проблемы, оценивая ЭМ в нескольких начальных точках пространства параметров, но это требует больших вычислительных затрат и других подходов, таких как метод ЭМ отжига Удеа и Накано (1998) (в котором исходные компоненты по существу вынуждены перекрываться). обеспечение менее неоднородной основы для первоначальных предположений), может быть предпочтительнее.

Фигейредо и Джайн [13] Обратите внимание, что сходимость к «бессмысленным» значениям параметров, полученным на границе (где нарушаются условия регулярности, например, Гош и Сен (1985)) часто наблюдается, когда количество компонентов модели превышает оптимальное/истинное. На этом основании они предлагают единый подход к оценке и идентификации, при котором начальное n выбирается так, чтобы оно значительно превышало ожидаемое оптимальное значение. Их процедура оптимизации построена на основе критерия минимальной длины сообщения (MML), который эффективно исключает компонент-кандидат, если для его поддержки недостаточно информации. Таким образом можно систематизировать сокращения n и рассматривать оценку и идентификацию совместно.

Шаг ожидания

[ редактировать ]

При первоначальных предположениях о параметрах нашей модели смеси «частичное членство» каждой точки данных в каждом распределении составляющих вычисляется путем расчета ожидаемых значений для переменных членства каждой точки данных. То есть для каждой точки данных x j и распределения Y i значение принадлежности y i , j равно:

Шаг максимизации

[ редактировать ]

Имея ожидаемые значения членства в группе, оценки плагина пересчитываются для параметров распределения.

Коэффициенты смешивания a i являются средними значениями принадлежности по N точкам данных.

Параметры модели компонента θ i также рассчитываются путем максимизации ожидания с использованием точек данных x j , которые были взвешены с использованием значений членства. Например, если θ — среднее значение µ

С новыми оценками для a i и θ i шаг ожидания повторяется для перерасчета новых значений членства. Вся процедура повторяется до тех пор, пока параметры модели не сойдутся.

Цепь Маркова Монте-Карло

[ редактировать ]

В качестве альтернативы алгоритму EM параметры модели смеси могут быть получены с использованием апостериорной выборки , как указано в теореме Байеса . Это по-прежнему считается проблемой неполных данных, при которой членство в точках данных является недостающими данными. двухэтапную итерационную процедуру, известную как выборка Гиббса Можно использовать .

Предыдущий пример смеси двух гауссовских распределений может продемонстрировать, как работает метод. Как и раньше, делаются первоначальные предположения о параметрах модели смеси. Вместо вычисления частичного членства для каждого распределения элементов значение членства для каждой точки данных извлекается из распределения Бернулли (то есть оно будет присвоено либо первому, либо второму гауссову). Параметр Бернулли θ определяется для каждой точки данных на основе одного из составляющих распределений. [ нечеткий ] На основе распределения генерируются ассоциации членства для каждой точки данных. Затем можно использовать подключаемые оценщики, как на этапе M EM, для создания нового набора параметров модели смеси, и повторить этап биномиального рисования.

Согласование моментов

[ редактировать ]

Метод согласования моментов — один из старейших методов определения параметров смеси, восходящий к основополагающей работе Карла Пирсона 1894 года. В этом подходе параметры смеси определяются так, чтобы составное распределение имело моменты, соответствующие некоторому заданному значению. Во многих случаях извлечение решений моментных уравнений может представлять собой нетривиальные алгебраические или вычислительные проблемы. Более того, численный анализ Дэя [19] указал, что такие методы могут быть неэффективными по сравнению с ЭМ. Тем не менее, интерес к этому методу возобновился, например, Craigmile and Titterington (1998) и Wang. [20]

Маквильям и Ло (2009) рассматривают характеристику гиперкубовидной нормальной смесевой копулы в системах больших размерностей, для которых EM было бы непомерно вычислительно сложно. Здесь процедура анализа шаблонов используется для генерации многомерных хвостовых зависимостей, соответствующих набору одномерных и (в некотором смысле) двумерных моментов. Затем эффективность этого метода оценивается с использованием данных журнала доходности акций и статистики теста Колмогорова-Смирнова , что предполагает хорошее описательное соответствие.

Спектральный метод

[ редактировать ]

Некоторые проблемы оценки модели смеси можно решить с помощью спектральных методов . В частности, это становится полезным, если точки данных x i являются точками в многомерном реальном пространстве , а скрытые распределения известны как логарифмически вогнутые (например, распределение Гаусса или экспоненциальное распределение ).

Спектральные методы обучения смешанных моделей основаны на использовании разложения по сингулярным значениям матрицы, содержащей точки данных. Идея состоит в том, чтобы рассмотреть k верхних сингулярных векторов, где k — количество распределений, которые необходимо изучить. Проекция каждой точки данных в линейное подпространство, охватываемое этими группами векторов, точками, происходящими из одного и того же распределения очень близко друг к другу, тогда как точки из разных распределений остаются далеко друг от друга.

Отличительной особенностью спектрального метода является то, что он позволяет доказать , что если распределения удовлетворяют определенному условию разделения (например, не слишком близки), то оцененная смесь с высокой вероятностью будет очень близка к истинной.

Графические методы

[ редактировать ]

Тартер и Лок [12] опишите графический подход к идентификации смеси, в котором функция ядра применяется к эмпирическому частотному графику, чтобы уменьшить внутрикомпонентную дисперсию. Таким образом, можно легче идентифицировать компоненты, имеющие разные значения. Хотя этот λ -метод не требует предварительного знания количества или функциональной формы компонентов, его успех зависит от выбора параметров ядра, которые в некоторой степени неявно включают предположения о структуре компонента.

Другие методы

[ редактировать ]

Некоторые из них, вероятно, даже смогут изучить смеси распределений с тяжелым хвостом, в том числе с бесконечная дисперсия (см. ссылки на статьи ниже). В этой ситуации методы, основанные на EM, не будут работать, поскольку шаг ожидания будет расходиться из-за присутствия выбросы .

Моделирование

[ редактировать ]

Чтобы смоделировать выборку размера N, состоящую из смеси распределений F i , i =1 до n , с вероятностями p i (сумма = p i = 1):

  1. Сгенерируйте N случайных чисел из категориального распределения размера n и вероятностей p i для i = 1= to n . Они сообщают вам, из какого F i каждое из N будет получено значений. Обозначим через m i количество случайных чисел, присвоенных i й категория.
  2. Для каждого i сгенерируйте m i случайных чисел из Fi распределения .

Расширения

[ редактировать ]

В байесовской настройке можно добавить дополнительные уровни к графической модели, определяющей модель смеси, . Например, в общей скрытых тем распределения Дирихле модели наблюдения представляют собой наборы слов, взятые из D различных документов, а компоненты смеси K представляют темы, которые являются общими для всех документов. Каждый документ имеет свой набор весовых коэффициентов, которые определяют темы, преобладающие в этом документе. Все наборы весов смеси имеют общие гиперпараметры .

Очень распространенным расширением является соединение скрытых переменных, определяющих идентичность компонентов смеси, в цепь Маркова вместо предположения, что они являются независимыми одинаково распределенными случайными величинами. Полученная модель называется скрытой марковской моделью и является одной из наиболее распространенных последовательных иерархических моделей. Были разработаны многочисленные расширения скрытых марковских моделей; дополнительную информацию см. в полученной статье.

Распределение смесей и проблема разложения смеси, то есть идентификация составляющих ее компонентов и их параметров, упоминалась в литературе еще в 1846 г. (Кетле у Маклахлана, [17] 2000), хотя часто упоминается работа Карла Пирсона (1894). [21] как первый автор, который открыто обратился к проблеме разложения при характеристике ненормальных признаков соотношения лба к длине тела у самок популяций прибрежных крабов. Мотивацией для этой работы послужил зоолог Уолтер Франк Рафаэль Уэлдон, который в 1893 году (в книге Тартера и Локка) предположил, что [12] ), что асимметрия на гистограмме этих отношений может сигнализировать об эволюционном расхождении. Подход Пирсона заключался в том, чтобы подогнать к данным одномерную смесь двух нормалей, выбрав пять параметров смеси так, чтобы эмпирические моменты соответствовали моментам модели.

Хотя его работа была успешной в идентификации двух потенциально различных подгрупп и демонстрации гибкости смесей как инструмента сопоставления моментов, формулировка требовала решения полинома 9-й степени (ненического), что в то время представляло значительную вычислительную проблему.

Последующие работы были сосредоточены на решении этих проблем, но только с появлением современного компьютера и популяризацией методов параметризации максимального правдоподобия (MLE) исследования по-настоящему начали развиваться. [22] С тех пор было проведено огромное количество исследований по этой теме, охватывающих такие области, как рыболовство , сельское хозяйство , ботаника , экономика , медицина , генетика , психология , палеонтология , электрофорез , финансы , геология и зоология . [23]

См. также

[ редактировать ]

Иерархические модели

[ редактировать ]

Обнаружение выбросов

[ редактировать ]
  1. ^ Хацис, Сотириос П.; Космопулос, Димитриос И.; Варваригу, Теодора А. (2008). «Моделирование и классификация сигналов с использованием устойчивой модели скрытого пространства на основе t-распределений». Транзакции IEEE по обработке сигналов . 56 (3): 949–963. Бибкод : 2008ITSP...56..949C . дои : 10.1109/TSP.2007.907912 . S2CID   15583243 .
  2. ^ Ю, Гошен (2012). «Решение обратных задач с помощью кусочно-линейных оценок: от моделей гауссовой смеси к структурированной разреженности». Транзакции IEEE при обработке изображений . 21 (5): 2481–2499. arXiv : 1006.3056 . Бибкод : 2012ITIP...21.2481G . дои : 10.1109/tip.2011.2176743 . ПМИД   22180506 . S2CID   479845 .
  3. ^ Динов, И.Д. « Учебное пособие по максимизации ожиданий и моделированию смесей ». Цифровая библиотека Калифорнии , онлайн-ресурс по статистическим вычислениям, документ EM_MM, http://repositories.cdlib.org/socr/EM_MM , 9 декабря 2008 г.
  4. ^ Бишоп, Кристофер (2006). Распознавание образов и машинное обучение . Нью-Йорк: Спрингер. ISBN  978-0-387-31073-2 .
  5. ^ Сполл, Дж. К. и Марьяк, Дж. Л. (1992). «Возможная байесовская оценка квантилей точности снаряда на основе данных, отличных от iid». Журнал Американской статистической ассоциации , том. 87 (419), стр. 676–681. JSTOR   2290205
  6. ^ Амрутнатх, Нагдев; Гупта, Тарун (2 февраля 2018 г.). Прогнозирование класса неисправности при обучении без учителя с использованием подхода кластеризации на основе моделей . Неопубликовано. дои : 10.13140/rg.2.2.22085.14563 .
  7. ^ Амрутнатх, Нагдев; Гупта, Тарун (01 февраля 2018 г.). Исследование алгоритмов машинного обучения без учителя для обнаружения неисправностей при профилактическом обслуживании . Неопубликовано. дои : 10.13140/rg.2.2.28822.24648 .
  8. ^ Шен, Цзяньхун (Джеки) (2006). «Стохастически-вариационная модель мягкой сегментации Мамфорда-Шаха» . Международный журнал биомедицинской визуализации . 2006 : 2–16. Бибкод : 2006IJBI.200649515H . дои : 10.1155/IJBI/2006/92329 . ПМК   2324060 . ПМИД   23165059 .
  9. ^ Мироненко Андрей; Сон, Сюбо (2010). «Регистрация набора точек: когерентный дрейф точки». IEEE Транс. Паттерн Анал. Мах. Интелл . 32 (12): 2262–2275. arXiv : 0905.2635 . дои : 10.1109/TPAMI.2010.46 . ПМИД   20975122 . S2CID   10809031 .
  10. ^ Равикумар, Нишант; Гуя, Али; Чимен, Серкан; Франджи, Александро; Тейлор, Зейке (2018). «Групповая регистрация сходства наборов точек с использованием модели t-смеси Стьюдента для моделей статистической формы» . Мед. Изображение Анал . 44 : 156–176. дои : 10.1016/j.media.2017.11.012 . ПМИД   29248842 .
  11. ^ Байер, Симинг; Равикумар, Нишант; Струмия, Маддалена; Тонг, Сяогуан; Гао, Ин; Остермайер, Мартин; Фариг, Ребекка; Майер, Андреас (2018). «Интраоперационная компенсация сдвига мозга с использованием модели гибридной смеси» . Вычисление медицинских изображений и компьютерное вмешательство – MICCAI 2018 . Гранада, Испания: Springer, Cham. стр. 116–124. дои : 10.1007/978-3-030-00937-3_14 .
  12. ^ Jump up to: а б с Тартер, Майкл Э. (1993), Оценка кривой без модели , Чепмен и Холл
  13. ^ Jump up to: а б Фигейредо, Массачусетс; Джайн, АК (март 2002 г.). «Обучение без учителя моделей конечной смеси». Транзакции IEEE по анализу шаблонов и машинному интеллекту . 24 (3): 381–396. CiteSeerX   10.1.1.362.9811 . дои : 10.1109/34.990138 .
  14. ^ МакВильям, Н.; Ло, К. (2008), Включение многомерных хвостовых зависимостей в оценку кредитных деривативов (рабочий документ) [1]
  15. ^ Jump up to: а б Демпстер, AP; Лэрд, Нью-Мексико; Рубин, Д.Б. (1977). «Максимальное правдоподобие на основе неполных данных с помощью алгоритма EM». Журнал Королевского статистического общества, серия B. 39 (1): 1–38. CiteSeerX   10.1.1.163.7580 . JSTOR   2984875 .
  16. ^ Сюй, Л.; Джордан, Мичиган (январь 1996 г.). «О свойствах сходимости алгоритма EM для гауссовских смесей». Нейронные вычисления . 8 (1): 129–151. дои : 10.1162/neco.1996.8.1.129 . hdl : 10338.dmlcz/135225 . S2CID   207714252 .
  17. ^ Jump up to: а б Маклахлан, Дж.Дж. (2000), Модели конечной смеси , Wiley
  18. ^ Ботев З.И.; Крозе, Д.П. (2004). «Глобальная оптимизация правдоподобия с помощью метода перекрестной энтропии с применением к моделям смесей». Материалы зимней конференции по моделированию 2004 г., 2004 г. Том. 1. С. 517–523. CiteSeerX   10.1.1.331.2319 . дои : 10.1109/WSC.2004.1371358 . ISBN  978-0-7803-8786-7 . S2CID   6880171 .
  19. ^ Дэй, Северная Каролина (1969). «Оценка компонентов смеси нормальных распределений». Биометрика . 56 (3): 463–474. дои : 10.2307/2334652 . JSTOR   2334652 .
  20. ^ Ван, Дж. (2001), «Генерация ежедневных изменений рыночных переменных с использованием многомерной смеси нормальных распределений», Труды 33-й зимней конференции по моделированию : 283–289.
  21. ^ Амендола, Карлос; и др. (2015). «Моментные разновидности гауссовских смесей». Журнал алгебраической статистики . 7 . arXiv : 1510.04654 . Бибкод : 2015arXiv151004654A . дои : 10.18409/jas.v7i1.42 . S2CID   88515304 .
  22. ^ Маклахлан, Дж.Дж.; Бэсфорд, К.Э. (1988), «Модели смеси: вывод и приложения к кластеризации», Статистика: Учебники и монографии , Бибкод : 1988mmia.book.....M
  23. ^ Titterington, Smith & Makov 1985

Дальнейшее чтение

[ редактировать ]

Книги по смесевым моделям

[ редактировать ]

Применение моделей гауссовой смеси

[ редактировать ]
  1. Рейнольдс, Д.А.; Роуз, RC (январь 1995 г.). «Надежная независимая от текста идентификация говорящего с использованием моделей говорящих с гауссовой смесью». Транзакции IEEE по обработке речи и аудио . 3 (1): 72–83. дои : 10.1109/89.365379 . S2CID   7319345 .
  2. Пермутер, Х.; Франкос, Дж.; Джермин, Айдахо (2003). Гауссовы смешанные модели текстуры и цвета для поиска в базе данных изображений . Международная конференция IEEE по акустике, речи и обработке сигналов , 2003 г. Материалы (ICASSP '03). дои : 10.1109/ICASSP.2003.1199538 .
  3. Лемке, Вольфганг (2005). Моделирование и оценка временной структуры в пространстве состояний . Спрингер Верлаг. ISBN  978-3-540-28342-3 .
  4. Бриго, Дамиано ; Меркурио, Фабио (2001). Смещенная и смешанная диффузия для аналитически управляемых моделей улыбки . Математические финансы – Конгресс бакалавров, 2000 г. Труды. Спрингер Верлаг.
  5. Бриго, Дамиано; Меркурио, Фабио (июнь 2002 г.). «Динамика логнормальной смеси и калибровка к рыночной волатильности улыбается». Международный журнал теоретических и прикладных финансов . 5 (4): 427. CiteSeerX   10.1.1.210.4165 . дои : 10.1142/S0219024902001511 .
  6. Сполл, Дж. К.; Марьяк, Дж. Л. (1992). «Возможная байесовская оценка квантилей точности снаряда на основе данных, отличных от iid». Журнал Американской статистической ассоциации . 87 (419): 676–681. дои : 10.1080/01621459.1992.10475269 . JSTOR   2290205 .
  7. Александр, Кэрол (декабрь 2004 г.). «Нормальная диффузия смеси с неопределенной летучестью: моделирование краткосрочных и долгосрочных эффектов улыбки» (PDF) . Журнал банковского дела и финансов . 28 (12): 2957–80. дои : 10.1016/j.jbankfin.2003.10.017 .
  8. Стилиану, Яннис; Пантазис, Яннис; Кальдереро, Фелипе; Ларрой, Педро; Северен, Франсуа; Шимке, Саша; Бональ, Роландо; Матта, Федерико; Валсамакис, Афанасиос (2005). Мультимодальная биометрическая верификация на основе GMM (PDF) .
  9. Чен, Дж.; Адебоми, 0.Е.; Олусайо, ОС; Кулеша, В. (2010). Оценка подхода к плотности вероятностной гипотезы гауссовой смеси для отслеживания нескольких целей . IEEE Международная конференция по системам и методам визуализации , 2010. doi : 10.1109/IST.2010.5548541 . {{cite conference}}: CS1 maint: числовые имена: список авторов ( ссылка )
[ редактировать ]
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 34bb5046f8d60ef7c25a1db68588dde7__1721983500
URL1:https://arc.ask3.ru/arc/aa/34/e7/34bb5046f8d60ef7c25a1db68588dde7.html
Заголовок, (Title) документа по адресу, URL1:
Mixture model - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)