Обратная вероятность
В теории вероятностей обратная вероятность — это старый термин, обозначающий распределение вероятностей ненаблюдаемой переменной.
Сегодня проблема определения ненаблюдаемой переменной (любым методом) называется статистикой вывода , метод обратной вероятности (присвоение распределения вероятностей ненаблюдаемой переменной) называется байесовской вероятностью , распределение данных с учетом ненаблюдаемой переменной — это правдоподобие функция (которая сама по себе не дает распределения вероятностей для параметра), а распределение ненаблюдаемой переменной с учетом как данных, так и априорного распределения является апостериорным распределением . Развитие этой области и терминологии от «обратной вероятности» к «байесовской вероятности» описано Файнбергом (2006) .
Термин «обратная вероятность» появляется в статье Де Моргана 1837 года по отношению к методу вероятности Лапласа (разработанному в статье 1774 года, которая независимо открыла и популяризировала байесовские методы, а также в книге 1812 года), хотя термин «обратная вероятность» «вероятность» в них не встречается. [1] Фишер использует этот термин у Фишера (1922) , ссылаясь на «фундаментальный парадокс обратной вероятности» как источник путаницы между статистическими терминами, которые относятся к истинному значению, подлежащему оценке, и фактическому значению, полученному с помощью метода оценки. что подвержено ошибкам. Позже Джеффрис использует этот термин в защиту методов Байеса и Лапласа в книге Джеффриса (1939) . Термин «байесовский метод», заменивший «обратную вероятность», был введен Рональдом Фишером в 1950 году. [2] Обратная вероятность, интерпретируемая по-разному, была доминирующим подходом к статистике до тех пор, пока не был разработан частотный подход в начале 20-го века Рональдом Фишером , Ежи Нейманом и Эгоном Пирсоном . [3] После развития частотного подхода термины частотный и байесовский были разработаны для противопоставления этих подходов и стали обычным явлением в 1950-х годах.
Подробности [ править ]
Говоря современным языком, при наличии распределения вероятностей p ( x | θ) для наблюдаемой величины x, зависящей от ненаблюдаемой переменной θ, «обратная вероятность» — это апостериорное распределение p (θ| x ), которое зависит как от функции правдоподобия ( инверсия распределения вероятностей) и априорное распределение. Само распределение p ( x |θ) называется прямой вероятностью .
Обратная задача вероятности (в XVIII и XIX веках) — задача оценки параметра по экспериментальным данным в экспериментальных науках, особенно в астрономии и биологии . Простым примером может служить задача оценки положения звезды на небе (в определенное время определенной даты) для целей навигации . Учитывая данные, необходимо оценить истинное положение (вероятно, путем усреднения). Эта проблема теперь будет рассматриваться как одна из логических статистических выводов .
Термины «прямая вероятность» и «обратная вероятность» использовались до середины 20-го века, когда термины « функция правдоподобия » и «апостериорное распределение» стали преобладающими.
См. также [ править ]
Ссылки [ править ]
- ^ Финберг 2006 , с. 5.
- ^ Финберг 2006 , с. 14.
- ^ Fienberg 2006 , 4.1 Частотные альтернативы обратной вероятности, стр. 7–9.
- Фишер, Р.А. (1922). «О математических основах теоретической статистики». Филос. Пер. Р. Сок. Лонд. А. 222А : 309–368.
- См. перепечатку в Коц, С. (1992). Прорывы в статистике. Том 1 . Издательство Спрингер.
- Джеффрис, Гарольд (1939). Теория вероятностей (Третье изд.). Издательство Оксфордского университета.
- Финберг, Стивен Э. (2006). «Когда байесовский вывод стал «байесовским»?» . Байесовский анализ . 1 (1): 1–40. дои : 10.1214/06-BA101 .