Байесовский фактор
Часть серии о |
Байесовская статистика |
---|
Апостериорный = Вероятность × Априорный ÷ Доказательства |
Фон |
Модельное здание |
Апостериорное приближение |
Оценщики |
Приближение доказательств |
Оценка модели |
Фактор Байеса представляет собой соотношение двух конкурирующих статистических моделей, представленных их доказательствами , и используется для количественной оценки поддержки одной модели над другой. [1] Рассматриваемые модели могут иметь общий набор параметров, например нулевую гипотезу и альтернативу, но это не обязательно; например, это также может быть нелинейная модель по сравнению с ее линейной аппроксимацией . Фактор Байеса можно рассматривать как байесовский аналог теста отношения правдоподобия , хотя он использует интегрированную (т. е. предельную) вероятность, а не максимизированную вероятность. Таким образом, обе величины совпадают только при простых гипотезах (например, двух конкретных значениях параметров). [2] Кроме того, в отличие от проверки значимости нулевой гипотезы , факторы Байеса поддерживают оценку доказательств в пользу нулевой гипотезы, а не только позволяют отвергнуть или не отвергнуть нулевую гипотезу. [3]
Несмотря на концептуальную простоту, вычисление фактора Байеса может оказаться сложной задачей в зависимости от сложности модели и гипотез. [4] Поскольку выражения предельного правдоподобия в закрытой форме, как правило, недоступны, численные аппроксимации, основанные на выборках MCMC . были предложены [5] В некоторых особых случаях можно получить упрощенные алгебраические выражения; например, соотношение плотности Сэвиджа – Дики в случае точной (ограниченной равенством) гипотезы против неограниченной альтернативы. [6] [7] Другое приближение, полученное путем применения аппроксимации Лапласа к интегрированному правдоподобию, известно как байесовский информационный критерий (BIC); [8] в больших наборах данных коэффициент Байеса будет приближаться к BIC по мере того, как влияние априорных значений ослабевает. В небольших наборах данных априорные значения обычно имеют значение и не должны быть неправильными, поскольку фактор Байеса будет неопределенным, если любой из двух интегралов в его отношении не является конечным.
Определение
[ редактировать ]Фактор Байеса — это соотношение двух предельных правдоподобий; то есть вероятности двух статистических моделей, интегрированные по априорным вероятностям их параметров. [9]
Апостериорная вероятность модели M с учетом данных D определяется теоремой Байеса :
Ключевой термин, зависящий от данных представляет вероятность того, что некоторые данные будут получены в предположении модели M ; правильная его оценка является ключом к сравнению байесовских моделей.
Учитывая задачу выбора модели , в которой нужно выбрать между двумя моделями на основе наблюдаемых данных D , правдоподобие двух разных моделей M 1 и M 2 , параметризованных векторами параметров модели и , оценивается коэффициентом Байеса K, определяемым выражением
Когда две модели имеют одинаковую априорную вероятность, так что , фактор Байеса равен отношению апостериорных вероятностей M 1 и M 2 . Если вместо интеграла фактора Байеса используется правдоподобие, соответствующее оценке максимального правдоподобия параметра для каждой статистической модели, то тест становится классическим тестом отношения правдоподобия . В отличие от теста отношения правдоподобия, это сравнение байесовских моделей не зависит от какого-либо отдельного набора параметров, поскольку оно интегрируется по всем параметрам в каждой модели (относительно соответствующих априорных значений). Преимущество использования факторов Байеса состоит в том, что оно автоматически и вполне естественно включает в себя штраф за включение слишком большой структуры модели. [10] Таким образом, это защищает от переобучения . Для моделей, для которых явная версия правдоподобия недоступна или слишком дорога для численной оценки, приближенные байесовские вычисления . для выбора модели в байесовской структуре можно использовать [11] с оговоркой, что приближенные байесовские оценки байесовских факторов часто бывают необъективными. [12]
Другие подходы:
- рассматривать сравнение моделей как проблему принятия решения , вычисляя ожидаемую ценность или стоимость каждого выбора модели;
- использовать минимальную длину сообщения (MML).
- использовать минимальную длину описания (MDL).
Интерпретация
[ редактировать ]Значение K > 1 означает, что M 1 более сильно подтверждается рассматриваемыми данными, чем M 2 . Обратите внимание, что классическая проверка гипотез дает одной гипотезе (или модели) предпочтительный статус («нулевая гипотеза») и рассматривает только доказательства против нее. Тот факт, что фактор Байеса может предоставить доказательства в пользу , а не только против нулевой гипотезы, является одним из ключевых преимуществ этого метода анализа. [13]
Гарольд Джеффрис дал шкалу интерпретации K : [14]
К | dСердце | биты | Сила доказательств |
---|---|---|---|
< 10 0 | < 0 | < 0 | Отрицательный (поддерживает M 2 ) |
10 0 до 10 1/2 | от 0 до 5 | от 0 до 1,6 | Едва ли стоит упоминания |
10 1/2 до 10 1 | от 5 до 10 | от 1,6 до 3,3 | Существенный |
10 1 до 10 3/2 | от 10 до 15 | от 3,3 до 5,0 | Сильный |
10 3/2 до 10 2 | от 15 до 20 | от 5,0 до 6,6 | Очень сильный |
> 10 2 | > 20 | > 6,6 | Решительный |
Во втором столбце приведены соответствующие веса доказательств в децихартлеях (также известных как децибаны ); биты добавлены в третий столбец для ясности. По мнению И. Дж. Гуда, изменение веса доказательств на 1 децибан или 1/3 бита (т. е. изменение отношения шансов с четов примерно до 5:4) примерно настолько точно, насколько люди могут разумно воспринимать степень своей веры. в гипотезе в повседневном использовании. [15]
Альтернативная таблица, широко цитируемая, предоставлена Кассом и Рафтери (1995): [10]
журнал 10 К | К | Сила доказательств |
---|---|---|
от 0 до 1/2 | от 1 до 3,2 | Не стоит большего, чем простое упоминание |
1/2 к 1 | от 3,2 до 10 | Существенный |
1 к 2 | от 10 до 100 | Сильный |
> 2 | > 100 | Решительный |
Пример
[ редактировать ]Предположим, у нас есть случайная величина , которая приводит либо к успеху, либо к неудаче. Мы хотим сравнить модель M 1 , где вероятность успеха равна q = 1 ⁄ 2 и другую модель M 2 , где q неизвестно, и мы берем априорное распределение для q, на равномерное [0,1]. Мы берем выборку из 200 человек и находим 115 успешных и 85 неудачных. Вероятность можно рассчитать в соответствии с биномиальным распределением :
Таким образом, мы имеем для M 1
тогда как для M 2 имеем
Тогда соотношение равно 1,2, о котором «едва ли стоит упоминать», даже если оно очень незначительно указывает на M 1 .
Проверка частотной гипотезы M . 1 (здесь рассматриваемая как нулевая гипотеза ) дала бы совсем другой результат Такой тест говорит, что M 1 следует отклонить на уровне значимости 5%, поскольку вероятность получения 115 или более успехов из выборки из 200, если q = 1 ⁄ 2 равно 0,02, а в качестве двустороннего критерия получения числа, столь же экстремального или более экстремального, чем 115, будет 0,04. Обратите внимание, что 115 отличается от 100 более чем на два стандартных отклонения. Таким образом, хотя проверка частотной гипотезы даст значимые результаты на уровне значимости 5%, фактор Байеса вряд ли считает это экстремальным результатом. Однако обратите внимание, что неравномерный априор (например, тот, который отражает тот факт, что вы ожидаете, что количество успехов и неудач будет одного и того же порядка) может привести к тому, что байесовский фактор будет более согласовываться с частотным коэффициентом. проверка гипотезы.
Классический тест отношения правдоподобия нашел бы оценку максимального правдоподобия для q , а именно , откуда
(вместо усреднения по всем возможным q ). Это дает отношение правдоподобия 0,1 и указывает на M 2 .
M 2 — более сложная модель, чем M 1 , поскольку у нее есть свободный параметр, который позволяет более точно моделировать данные. Способность факторов Байеса учитывать это является причиной того, что байесовский вывод был выдвинут в качестве теоретического обоснования и обобщения бритвы Оккама , уменьшающей ошибки типа I. [16]
С другой стороны, современный метод относительного правдоподобия учитывает количество свободных параметров в моделях, в отличие от классического отношения правдоподобия. Метод относительного правдоподобия можно применить следующим образом. Модель M 1 имеет 0 параметров, поэтому ее информационного критерия Акаике (AIC) равно значение . Модель M 2 имеет 1 параметр, поэтому ее значение AIC равно . Следовательно, M 1 примерно раз более вероятно, чем M 2, чтобы минимизировать потерю информации. Таким образом, М 2 несколько предпочтительнее, но М 1 нельзя исключать.
См. также
[ редактировать ]- Информационный критерий Акаике
- Приблизительное байесовское вычисление
- Байесовский информационный критерий
- Информационный критерий отклонения
- Парадокс Линдли
- Минимальная длина сообщения
- Выбор модели
- E-значение
- Статистические коэффициенты
Ссылки
[ редактировать ]- ^ Мори, Ричард Д.; Ромейн, Ян-Виллем; Рудер, Джеффри Н. (2016). «Философия байесовских факторов и количественная оценка статистических данных» . Журнал математической психологии . 72 : 6–18. дои : 10.1016/j.jmp.2015.11.001 .
- ^ Лесаффр, Эммануэль; Лоусон, Эндрю Б. (2012). «Проверка байесовской гипотезы». Байесовская биостатистика . Сомерсет: Джон Уайли и сыновья. стр. 72–78. дои : 10.1002/9781119942412.ch3 . ISBN 978-0-470-01823-1 .
- ^ Ли, Александр; и др. (2020). «Байесовская методология сэра Гарольда Джеффриса как практическая альтернатива проверке гипотезы о значении P » . Вычислительный мозг и поведение . 3 (2): 153–161. дои : 10.1007/s42113-019-00070-x . hdl : 2066/226717 .
- ^ Льоренте, Фернандо; и др. (2023). «Вычисление предельного правдоподобия для выбора модели и проверки гипотез: обширный обзор». Обзор СИАМ . появиться: 3–58. arXiv : 2005.08334 . дои : 10.1137/20M1310849 . S2CID 210156537 .
- ^ Конгдон, Питер (2014). «Оценка вероятностей модели или предельной вероятности на практике». Прикладное байесовское моделирование (2-е изд.). Уайли. стр. 38–40. ISBN 978-1-119-95151-3 .
- ^ Куп, Гэри (2003). «Сравнение моделей: соотношение плотности Сэвиджа – Дики». Байесовская эконометрика . Сомерсет: Джон Уайли и сыновья. стр. 69–71. ISBN 0-470-84567-8 .
- ^ Вагенмейкерс, Эрик-Ян; Лодевикс, Том; Куриял, Химаншу; Грасман, Рауль (2010). «Проверка байесовских гипотез для психологов: учебное пособие по методу Сэвиджа – Дики» (PDF) . Когнитивная психология . 60 (3): 158–189. дои : 10.1016/j.cogpsych.2009.12.001 . ПМИД 20064637 . S2CID 206867662 .
- ^ Ибрагим, Джозеф Г.; Чен, Мин-Хуэй; Синха, Дебаджьоти (2001). «Сравнение моделей». Байесовский анализ выживания . Серия Спрингера по статистике. Нью-Йорк: Спрингер. стр. 246–254. дои : 10.1007/978-1-4757-3447-8_6 . ISBN 0-387-95277-2 .
- ^ Гилл, Джефф (2002). «Проверка байесовской гипотезы и фактор Байеса». Байесовские методы: подход социальных и поведенческих наук . Чепмен и Холл. стр. 199–237. ISBN 1-58488-288-3 .
- ^ Перейти обратно: а б Роберт Э. Касс и Адриан Э. Рафтери (1995). «Факторы Байеса» (PDF) . Журнал Американской статистической ассоциации . 90 (430): 791. дои : 10.2307/2291091 . JSTOR 2291091 .
- ^ Тони, Т.; Штумпф, магистр здравоохранения (2009). «Выбор моделей динамических систем на основе моделирования в системной и популяционной биологии» . Биоинформатика . 26 (1): 104–10. arXiv : 0911.1705 . doi : 10.1093/биоинформатика/btp619 . ПМК 2796821 . ПМИД 19880371 .
- ^ Роберт, CP; Ж. Корнюэ; Дж. Марин и Н.С. Пиллаи (2011). «Недостаток уверенности в выборе приближенной байесовской модели вычислений» . Труды Национальной академии наук . 108 (37): 15112–15117. Бибкод : 2011PNAS..10815112R . дои : 10.1073/pnas.1102900108 . ПМК 3174657 . ПМИД 21876135 .
- ^ Уильямс, Мэтт; Боат, Расмус; Филипп, Майкл (2017). «Использование байесовских факторов для проверки гипотез в исследованиях развития». Исследования в области человеческого развития . 14 : 321–337. дои : 10.1080/15427609.2017.1370964 .
- ^ Джеффрис, Гарольд (1998) [1961]. Теория вероятностей (3-е изд.). Оксфорд, Англия. п. 432. ИСБН 9780191589676 .
{{cite book}}
: CS1 maint: отсутствует местоположение издателя ( ссылка ) - ^ Хорошо, Эй Джей (1979). «Исследования по истории вероятности и статистики. XXXVII Статистическая работа Тьюринга во Второй мировой войне». Биометрика . 66 (2): 393–396. дои : 10.1093/биомет/66.2.393 . МР 0548210 .
- ^ Затачивание бритвы Оккама на байесовском ремне
Дальнейшее чтение
[ редактировать ]- Бернардо, Дж.; Смит, AFM (1994). Байесовская теория . Джон Уайли. ISBN 0-471-92416-4 .
- Денисон, DGT; Холмс, CC; Маллик, Британская Колумбия; Смит, AFM (2002). Байесовские методы нелинейной классификации и регрессии . Джон Уайли. ISBN 0-471-49036-9 .
- Динес, З. (2019). Откуда мне знать, что предсказывает моя теория? Достижения в методах и практике психологической науки дои : 10.1177/2515245919876960
- Дуда, Ричард О.; Харт, Питер Э.; Сторк, Дэвид Г. (2000). «Раздел 9.6.5». Классификация узоров (2-е изд.). Уайли. стр. 487–489. ISBN 0-471-05669-3 .
- Гельман А.; Карлин, Дж.; Стерн, Х.; Рубин, Д. (1995). Байесовский анализ данных . Лондон: Чепмен и Холл . ISBN 0-412-03991-5 .
- Джейнс, ET (1994), Теория вероятностей: логика науки , глава 24.
- Кадане, Джозеф Б.; Дики, Джеймс М. (1980). «Байесовская теория принятия решений и упрощение моделей». В Кменте, Ян; Рэмси, Джеймс Б. (ред.). Оценка эконометрических моделей . Нью-Йорк: Академическая пресса. стр. 245–268. ISBN 0-12-416550-8 .
- Ли, премьер-министр (2012). Байесовская статистика: введение . Уайли. ISBN 9781118332573 .
- Ричард, Марк; Весер, Ян (2021). «Тестирование эффективности рынков прогнозов: подход Мартингейла, коэффициент правдоподобия и факторный анализ Байеса» . Риски . 9 (2): 31. doi : 10.3390/risks9020031 . HDL : 10419/258120 .
- Винклер, Роберт (2003). Введение в байесовский вывод и принятие решений (2-е изд.). Вероятностный. ISBN 0-9647938-4-9 .
Внешние ссылки
[ редактировать ]- BayesFactor — пакет R для расчета факторов Байеса в распространенных исследовательских проектах.
- Калькулятор коэффициента Байеса — онлайн-калькулятор для расчета коэффициентов Байеса
- Калькуляторы коэффициентов Байеса. Архивировано 7 мая 2015 г. на Wayback Machine — веб-версия большей части пакета BayesFactor.