Jump to content

Максимум из апостериорной оценки

В байесовской статистике максимальная апостериорной вероятности ( MAP ) оценка — это оценка неизвестной величины, которая равна моде апостериорного распределения . MAP можно использовать для получения точечной оценки ненаблюдаемой величины на основе эмпирических данных. Он тесно связан с методом оценки максимального правдоподобия (ML), но использует расширенную цель оптимизации , которая включает в себя априорное распределение (которое количественно определяет дополнительную информацию, доступную благодаря предшествующим знаниям о связанном событии) по величине, которую необходимо оценить. Таким образом, оценку MAP можно рассматривать как регуляризацию оценки максимального правдоподобия.

Описание

[ редактировать ]

Предположим, что мы хотим оценить ненаблюдаемый параметр популяции. на основе наблюдений . Позволять быть выборочным распределением , так что это вероятность когда базовый параметр совокупности равен . Тогда функция:

известна как функция правдоподобия и оценка:

это оценка максимального правдоподобия .

Теперь предположим, что априорное распределение над существует. Это позволяет нам лечить как случайная величина, как в байесовской статистике . Мы можем вычислить апостериорное распределение используя теорему Байеса :

где — функция плотности , является областью .

Затем метод максимальной апостериорной оценки оценивает как мода апостериорного распределения этой случайной величины:

Знаменатель апостериорного распределения (так называемое предельное правдоподобие ) всегда положителен и не зависит от и поэтому не играет никакой роли в оптимизации. Обратите внимание, что оценка MAP совпадает с оценкой ML, когда априорная является однородным (т.е. является постоянной функцией ).

Когда функция потерь имеет вид

как стремится к 0, оценка Байеса приближается к оценке MAP, при условии, что распределение он квазивогнутый. [ 1 ] Но обычно оценка MAP не является оценкой Байеса, если только является дискретным .

Вычисление

[ редактировать ]

Оценки MAP можно рассчитать несколькими способами:

  1. Аналитически, когда мода(ы) апостериорного распределения может быть задана в замкнутой форме . Это тот случай, когда сопряженные априорные значения . используются
  2. С помощью численной оптимизации, такой как метод сопряженных градиентов или метод Ньютона . Обычно для этого требуются первые или вторые производные , которые необходимо оценить аналитически или численно.
  3. Через модификацию алгоритма максимизации ожидания . Для этого не требуются производные от апостериорной плотности.
  4. Методом Монте-Карло с имитацией отжига.

Ограничения

[ редактировать ]

Хотя для оценки MAP требуются только мягкие условия, чтобы она была предельным случаем оценки Байеса (при функции потерь 0–1), [ 1 ] в целом он не очень репрезентативен для байесовских методов. Это связано с тем, что оценки MAP являются точечными оценками, тогда как байесовские методы характеризуются использованием распределений для суммирования данных и получения выводов: таким образом, байесовские методы имеют тенденцию вместо этого сообщать апостериорное среднее или медиану вместе с достоверными интервалами . Это связано как с тем, что эти оценки оптимальны при потерях квадратичной и линейной ошибки соответственно, которые более репрезентативны для типичных функций потерь , так и потому, что для непрерывного апостериорного распределения не существует функции потерь, которая предполагает, что MAP является оптимальной точечной оценкой. Кроме того, апостериорное распределение часто может не иметь простой аналитической формы: в этом случае распределение можно смоделировать с использованием методов Монте-Карло для цепей Маркова , а оптимизация для нахождения его режима (мод) может быть затруднена или невозможна. [ нужна ссылка ]

Пример плотности бимодального распределения , при котором высшая мода не характерна для большей части распределения.

Во многих типах моделей, таких как смешанные модели , задняя часть может быть мультимодальной . В таком случае обычно рекомендуется выбирать самый высокий режим: это не всегда осуществимо ( глобальная оптимизация является сложной проблемой), а в некоторых случаях даже невозможно (например, когда возникают проблемы с идентификацией ). Более того, высшая мода может быть нехарактерна для большинства задних.

Наконец, в отличие от оценок ML, оценка MAP не является инвариантной при перепараметризации. Переход от одной параметризации к другой предполагает введение якобиана , влияющего на расположение максимума. [ 2 ]

В качестве примера разницы между упомянутыми выше оценками Байеса (оценками среднего и медианы) и использованием оценки MAP рассмотрим случай, когда необходимо классифицировать входные данные. как положительные или отрицательные (например, кредиты как рискованные или безопасные). Предположим, что существует всего три возможных гипотезы о правильном методе классификации. , и с задними 0,4, 0,3 и 0,3 соответственно. Предположим, что дан новый экземпляр, , классифицирует его как положительный, тогда как два других классифицируют его как отрицательный. Использование оценки MAP для правильного классификатора , классифицируется как положительный, тогда как оценки Байеса усредняют все гипотезы и классифицируют как отрицательный.

Предположим, что нам дана последовательность МИР случайные величины и априорное распределение дается . Мы хотим найти оценку MAP . Обратите внимание, что нормальное распределение является своим собственным сопряженным априором , поэтому мы сможем найти решение в замкнутой форме аналитически.

Тогда функция, которую необходимо максимизировать, определяется выражением

что эквивалентно минимизации следующей функции :

Таким образом, мы видим, что оценка MAP для µ имеет вид

которое оказывается линейной интерполяцией между априорным средним значением и выборочным средним, взвешенным по их соответствующим ковариациям.

Случай называется неинформативным априором и приводит к неправильному распределению вероятностей ; в этом случае

  1. ^ Перейти обратно: а б Бассетт, Роберт; Дериде, Хулио (30 января 2018 г.). «Максимальные апостериорные оценки как предел оценок Байеса». Математическое программирование : 1–16. arXiv : 1611.05917 . дои : 10.1007/s10107-018-1241-0 . ISSN   0025-5610 .
  2. ^ Мерфи, Кевин П. (2012). Машинное обучение: вероятностная перспектива . Кембридж, Массачусетс: MIT Press. стр. 151–152. ISBN  978-0-262-01802-9 .
  • ДеГрут, М. (1970). Оптимальные статистические решения . МакГроу-Хилл. ISBN  0-07-016242-5 .
  • Соренсон, Гарольд В. (1980). Оценка параметров: принципы и проблемы . Марсель Деккер. ISBN  0-8247-6987-2 .
  • Хальд, Андерс (2007). «Вывод Гаусса нормального распределения и метод наименьших квадратов, 1809 г.». История параметрического статистического вывода от Бернулли до Фишера, 1713–1935 гг . Нью-Йорк: Спрингер. стр. 55–61. ISBN  978-0-387-46409-1 .
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 21d688638fb0a1bca8c7d5abc47780f4__1716106140
URL1:https://arc.ask3.ru/arc/aa/21/f4/21d688638fb0a1bca8c7d5abc47780f4.html
Заголовок, (Title) документа по адресу, URL1:
Maximum a posteriori estimation - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)