Bayesian approach to multivariate linear regression
В статистике байесовская многомерная линейная регрессия – это Байесовский подход к многомерной линейной регрессии , т.е. линейная регрессия , при которой прогнозируемый результат представляет собой вектор коррелирующих случайных величин, а не одну скалярную случайную величину. Более общее описание этого подхода можно найти в статье Оценка MMSE .
Рассмотрим задачу регрессии, в которой зависимая переменная прогнозируемая с действительным знаком, представляет собой не один скаляр а вектор длины m коррелирующих действительных чисел. Как и в стандартной настройке регрессии, имеется n наблюдений, где каждое наблюдение i состоит из k -1 независимых переменных , сгруппированных в вектор. длины k (где была добавлена фиктивная переменная со значением 1, чтобы учесть коэффициент пересечения). Это можно рассматривать как набор m связанных задач регрессии для каждого наблюдения i : где набор ошибок все коррелируют. Эквивалентно, это можно рассматривать как одну задачу регрессии, результатом которой является вектор-строка. а векторы коэффициентов регрессии располагаются рядом друг с другом следующим образом:
Матрица коэффициентов B представляет собой матрица, где векторы коэффициентов для каждой задачи регрессии располагаются горизонтально:
Вектор шума для каждого наблюдения i является нормальным, так что результаты для данного наблюдения коррелируют:
Мы можем записать всю задачу регрессии в матричной форме так: где Y и E матрицы. Матрица проектирования X представляет собой матрица с наблюдениями, расположенными вертикально, как в стандартной настройке линейной регрессии :
Классическое, часто встречающееся линейное решение методом наименьших квадратов состоит в том, чтобы просто оценить матрицу коэффициентов регрессии. используя Мура-Пенроуза псевдообратную связь :
Чтобы получить байесовское решение, нам нужно указать условное правдоподобие, а затем найти соответствующее априорное сопряжение. Как и в одномерном случае линейной байесовской регрессии , мы обнаружим, что можем указать естественное условное сопряжение (которое зависит от масштаба).
Запишем нашу условную вероятность как [1] пишу ошибку с точки зрения и урожайность
Мы ищем естественное сопряжение — совместную плотность. которая имеет ту же функциональную форму, что и вероятность. Поскольку вероятность квадратична по , мы переписываем вероятность, чтобы она была нормальной в (отклонение от классической выборочной оценки).
Используя ту же технику, что и при использовании байесовской линейной регрессии , мы разлагаем экспоненциальный член, используя матричную форму метода суммы квадратов. Здесь, однако, нам также понадобится использовать матричное дифференциальное исчисление ( произведение Кронекера и преобразования векторизации ).
Во-первых, давайте применим сумму квадратов, чтобы получить новое выражение для вероятности:
Мы хотели бы разработать условную форму для априор: где представляет собой обратное распределение Уишарта и это некоторая форма нормального распределения в матрице . Это достигается с помощью преобразования векторизации , которое преобразует вероятность из функции матриц. к функции векторов .
Писать
Позволять где обозначает произведение Кронекера матриц A и B , обобщение внешнего произведения , которое умножает матрица по матрица для создания матрица, состоящая из каждой комбинации произведений элементов двух матриц.
Затем что приведет к вероятности, которая является нормальной в .
Имея вероятность в более удобной форме, мы теперь можем найти естественное (условное) сопряженное априорное выражение.
Естественное сопряжение до использования векторизованной переменной имеет вид: [1] где и
Используя приведенные выше априорные данные и правдоподобие, апостериорное распределение можно выразить как: [1] где .Условия, включающие можно сгруппировать (с ) с использованием: с
Теперь это позволяет нам записать апостериор в более удобной форме:
Это принимает форму обратного распределения Уишарта, умноженного на нормальное распределение матрицы : и
Параметры этого заднего отдела определяются следующим образом:
- ^ Jump up to: а б с Питер Э. Росси, Грег М. Алленби, Роб Маккалок. Байесовская статистика и маркетинг . Джон Уайли и сыновья, 2012, с. 32.