Байесовская линейная регрессия

Из Википедии, бесплатной энциклопедии

Байесовская линейная регрессия — это тип условного моделирования , при котором среднее значение одной переменной описывается линейной комбинацией других переменных с целью получения апостериорной вероятности коэффициентов регрессии (а также других параметров, описывающих распределение регрессии). ) и в конечном итоге позволяет за пределами выборки прогнозировать регрессию (часто обозначаемую как ) при условии наблюдаемых значений регрессоров (обычно ). Самая простая и наиболее широко используемая версия этой модели — нормальная линейная модель , в которой данный распределяется по Гауссу . В этой модели и при определенном выборе априорных вероятностей параметров — так называемых сопряженных априорных вероятностей — апостериорная вероятность может быть найдена аналитически. При более произвольно выбранных априорных значениях апостериорные значения обычно приходится аппроксимировать.

Настройка модели [ править ]

Рассмотрим стандартную задачу линейной регрессии , в которой для мы указываем среднее распределения условного учитывая вектор-предиктор :

где это вектор и являются независимыми и одинаково нормально распределенными случайными величинами:

Это соответствует следующей функции правдоподобия :

Обычное решение методом наименьших квадратов используется для оценки вектора коэффициентов с использованием псевдообратного метода Мура – ​​Пенроуза :

где это матрица проектирования , каждая строка которой является вектором-предсказателем ; и это столбец -вектор .

Это частотный подход, который предполагает, что имеется достаточно измерений, чтобы сказать что-то значимое о . В байесовском подходе данные дополняются дополнительной информацией в виде априорного распределения вероятностей . Априорное убеждение о параметрах объединяется с функцией правдоподобия данных в соответствии с теоремой Байеса , чтобы получить апостериорное убеждение о параметрах. и . Априорное значение может принимать различные функциональные формы в зависимости от предметной области и информации, которая доступна априорно .

Поскольку данные включают в себя как и внимание сосредоточено только на распределении при условии нуждается в обосновании. Фактически, «полный» байесовский анализ потребовал бы совместного определения правдоподобия. вместе с предшествующим , где символизирует параметры распределения для . Только в предположении (слабой) экзогенности можно учитывать совместную вероятность. . [1] Последняя часть обычно игнорируется в предположении непересекающихся наборов параметров. Более того, при классических предположениях считаются выбранными (например, в спланированном эксперименте) и поэтому имеют известную вероятность без параметров. [2]

С сопряженными априорами [ править ]

априорное распределение Сопряженное

Для произвольного априорного распределения может не существовать аналитического решения для апостериорного распределения . В этом разделе мы рассмотрим так называемое сопряженное априорное распределение , для которого апостериорное распределение можно получить аналитически.

Предыдущий сопряжена этой функции правдоподобия , если она имеет ту же функциональную форму относительно и . Поскольку логарифмическое правдоподобие квадратично по , логарифмическое правдоподобие перезаписывается так, что правдоподобие становится нормальным в . Писать

Вероятность теперь переписывается как

где
где – количество коэффициентов регрессии.

Это предполагает форму предшествующего:

где представляет собой обратное гамма-распределение

В обозначениях, введенных в статье об обратном гамма-распределении , это плотность распространение с и с и как априорные значения и , соответственно. Эквивалентно, его также можно описать как масштабированное обратное распределение хи-квадрат :

Далее условная априорная плотность это нормальное распределение ,

В обозначениях нормального распределения условное априорное распределение имеет вид

Заднее распределение

Теперь, когда априорное значение указано, апостериорное распределение можно выразить как

С некоторой перестановкой, [3] апостериорное значение можно переписать так, чтобы апостериорное среднее значение вектора параметров может быть выражено через оценку наименьших квадратов и априорное среднее , при этом сила априора указана матрицей априорной точности

Чтобы оправдать это действительно является апостериорным средним, квадратичные члены в экспоненте можно переставить в квадратичную форму в . [4]

Теперь апостериорное распределение можно выразить как произведение нормального распределения на обратное гамма-распределение :

Следовательно, апостериорное распределение можно параметризовать следующим образом.

где два множителя соответствуют плотности и распределения, параметры которых определяются выражением

который иллюстрирует, что байесовский вывод является компромиссом между информацией, содержащейся в априоре, и информацией, содержащейся в выборке.

Модель доказательства

Модель доказательства - вероятность данных с учетом модели . Он также известен как предельное правдоподобие и априорная плотность прогнозирования . Здесь модель определяется функцией правдоподобия и априорное распределение по параметрам, т.е. . Доказательства модели отражают в одном числе, насколько хорошо такая модель объясняет наблюдения. Доказательства модели байесовской линейной регрессии, представленные в этом разделе, можно использовать для сравнения конкурирующих линейных моделей путем сравнения байесовских моделей . Эти модели могут различаться количеством и значениями переменных-предсказателей, а также их априорными значениями параметров модели. Сложность модели уже учтена в доказательствах модели, поскольку она исключает параметры путем интегрирования по всем возможным значениям и .

Этот интеграл можно вычислить аналитически, и решение дается в следующем уравнении. [5]

Здесь обозначает гамма-функцию . Поскольку мы выбрали сопряженный априор, предельное правдоподобие также можно легко вычислить, вычислив следующее равенство для произвольных значений и .

Обратите внимание, что это уравнение представляет собой не что иное, как переформулировку теоремы Байеса . Вставка формул для априорного значения, правдоподобия и апостериорного значения и упрощение полученного выражения приводит к аналитическому выражению, приведенному выше.

Другие случаи [ править ]

В общем, аналитическое выведение апостериорного распределения может оказаться невозможным или непрактичным. Однако можно аппроксимировать апостериорный результат с помощью приближенного метода байесовского вывода , такого как выборка Монте-Карло. [6] или вариационный Байес .

Особый случай называется гребневой регрессией .

Подобный анализ может быть выполнен для общего случая многомерной регрессии, и частично он обеспечивает байесовскую оценку ковариационных матриц : см. Байесовскую многомерную линейную регрессию .

См. также [ править ]

Примечания [ править ]

  1. ^ См. Джекман (2009), с. 101.
  2. ^ См. Гельман и др. (2013), с. 354.
  3. ^ Промежуточные этапы этого вычисления можно найти у О'Хагана (1994) в начале главы, посвященной линейным моделям.
  4. ^ Промежуточные этапы описаны у Fahrmeir et al. (2009) на странице 188.
  5. ^ Промежуточные этапы этого вычисления можно найти у О'Хагана (1994) на странице 257.
  6. ^ Карлин и Луи (2008) и Гельман и др. (2003) объясняют, как использовать методы выборки для байесовской линейной регрессии.

Ссылки [ править ]

  • Коробка, ГЭП ; Тяо, GC (1973). Байесовский вывод в статистическом анализе . Уайли. ISBN  0-471-57428-7 .
  • Карлин, Брэдли П.; Луи, Томас А. (2008). Байесовские методы анализа данных (Третье изд.). Бока-Ратон, Флорида: Чепмен и Холл/CRC. ISBN  1-58488-697-8 .
  • Фармейр, Л.; Кнейб, Т.; Ланг, С. (2009). Регрессия. Модели, методы и приложения (второе изд.). Гейдельберг: Спрингер. дои : 10.1007/978-3-642-01837-4 . ISBN  978-3-642-01836-7 .
  • Гельман, Эндрю ; и другие. (2013). «Введение в регрессионные модели». Байесовский анализ данных (Третье изд.). Бока-Ратон, Флорида: Чепмен и Холл/CRC. стр. 353–380. ISBN  978-1-4398-4095-5 .
  • Джекман, Саймон (2009). «Регрессионные модели». Байесовский анализ для социальных наук . Уайли. стр. 99–124. ISBN  978-0-470-01154-6 .
  • Росси, Питер Э.; Алленби, Грег М.; Маккалок, Роберт (2006). Байесовская статистика и маркетинг . Джон Уайли и сыновья. ISBN  0470863676 .
  • О'Хаган, Энтони (1994). Байесовский вывод . Продвинутая теория статистики Кендалла. Том. 2Б (Первое изд.). Холстед. ISBN  0-340-52922-9 .

Внешние ссылки [ править ]