Взвешенные наименьшие квадраты
Эту статью или раздел, возможно, потребуется очистить или резюмировать, поскольку она разделена на методы наименьших квадратов и линейные методы наименьших квадратов (математика) . |
Часть серии о |
Регрессионный анализ |
---|
Модели |
Оценка |
Фон |
Взвешенный метод наименьших квадратов ( WLS ), также известный как взвешенная линейная регрессия , [1] [2] представляет собой обобщение обычного метода наименьших квадратов и линейной регрессии , в котором знание о неравной дисперсии наблюдений ( гетероскедастичности ) включено в регрессию.WLS также является специализацией метода обобщенных наименьших квадратов , когда все недиагональные элементы ковариационной матрицы ошибок равны нулю.
Формулировка
[ редактировать ]Соответствие модели точке данных измеряется ее остатком , , определяемый как разница между измеренным значением зависимой переменной, и значение, предсказанное моделью, :
Если ошибки некоррелированы и имеют одинаковую дисперсию, то функция минимизируется при , такой, что .
Теорема Гаусса –Маркова показывает, что в этом случае — лучший линейный несмещенный оценщик ( СИНИЙ ). Однако если измерения некоррелированы, но имеют разные неопределенности, можно применить модифицированный подход. Эйткен показал, что когда взвешенная сумма квадратов остатков минимизирована, СИНИЙ, если каждый вес равен обратной величине дисперсии измерения
Уравнения градиента для этой суммы квадратов:
которые в линейной системе наименьших квадратов дают модифицированные нормальные уравнения: Матрица выше соответствует определению в соответствующем обсуждении линейного метода наименьших квадратов .
Когда ошибки наблюдений некоррелированы и матрица весовая W = Ω −1 , является диагональю, их можно записать как
Если ошибки коррелированы, результирующая оценка имеет СИНИЙ цвет , если весовая матрица равна обратной матрице дисперсии-ковариации наблюдений.
Когда ошибки некоррелированы, удобно упростить вычисления, факторизовав весовую матрицу как . Тогда нормальные уравнения можно записать в той же форме, что и обычные уравнения наименьших квадратов:
где мы определяем следующую масштабированную матрицу и вектор:
Это разновидность отбеливающей трансформации ; последнее выражение предполагает поэлементное деление .
Для нелинейных систем наименьших квадратов аналогичный аргумент показывает, что нормальные уравнения следует изменить следующим образом.
Обратите внимание, что для эмпирических тестов соответствующая W неизвестна наверняка и ее необходимо оценить. Для этого обобщенных наименьших квадратов можно использовать методы (FGLS); в этом случае он специализирован для диагональной ковариационной матрицы, что дает допустимое взвешенное решение методом наименьших квадратов.
Если неопределенность наблюдений неизвестна из внешних источников, то веса можно оценить на основе данных наблюдений. Это может быть полезно, например, для выявления выбросов. После удаления выбросов из набора данных веса следует сбросить до единицы. [3]
Мотивация
[ редактировать ]В некоторых случаях наблюдения могут быть взвешенными — например, они могут быть не одинаково надежными. В этом случае можно минимизировать взвешенную сумму квадратов: где w i > 0 — вес i- го наблюдения, а W — диагональная матрица таких весов.
идеале веса должны быть равны обратной величине дисперсии В измерения. (Это означает, что наблюдения некоррелированы. Если наблюдения коррелированы , выражение применяется. В этом случае весовая матрица в идеале должна быть равна обратной дисперсионно-ковариационной матрице наблюдений). [3] Тогда нормальные уравнения таковы:
Этот метод используется в методе наименьших квадратов с итеративным перевзвешиванием .
Решение
[ редактировать ]Ошибки параметров и корреляция
[ редактировать ]Оценочные значения параметров представляют собой линейные комбинации наблюдаемых значений.
Следовательно, выражение для предполагаемой дисперсионно-ковариационной матрицы оценок параметров можно получить путем распространения ошибок из ошибок наблюдений. Обозначим дисперсионно-ковариационную матрицу наблюдений через M , а матрицу оцениваемых параметров через M б . Затем
Когда W = М −1 , это упрощается до
Когда используются единичные веса ( W = I , единичная матрица ), подразумевается, что экспериментальные ошибки некоррелированы и все равны: M = σ 2 I , где σ 2 – это априорная дисперсия наблюдения. В любом случае σ 2 аппроксимируется приведенным хи-квадратом :
где S — минимальное значение взвешенной целевой функции :
Знаменатель, , – число степеней свободы ; см. эффективные степени свободы для обобщений на случай коррелированных наблюдений.
Во всех случаях дисперсия оценки параметра дается и ковариация между оценками параметров и дается . Стандартное отклонение — это квадратный корень из дисперсии, , а коэффициент корреляции определяется выражением . Эти оценки погрешностей отражают только случайные ошибки измерений. Истинная неопределенность параметров больше из-за наличия систематических ошибок , которые по определению не поддаются количественной оценке.Обратите внимание, что хотя наблюдения могут быть некоррелированными, параметры обычно коррелируют .
Доверительные пределы параметров
[ редактировать ]), часто предполагается Из- за отсутствия каких-либо конкретных доказательств, но часто ссылаясь на центральную предельную теорему (см. Нормальное распределение#Возникновение и приложения , что ошибка каждого наблюдения принадлежит нормальному распределению со средним значением, равным нулю, и стандартным отклонением. . При этом предположении следующие вероятности могут быть получены для оценки одного скалярного параметра с точки зрения его предполагаемой стандартной ошибки: (приведено здесь ):
- 68%, что интервал включает истинное значение коэффициента
- 95%, что интервал включает истинное значение коэффициента
- 99%, что интервал включает истинное значение коэффициента
Предположение не является необоснованным, если n >> m . Если экспериментальные ошибки распределены нормально, параметры будут принадлежать t-распределению Стьюдента с n - m степенями свободы . Когда n ≫ m t-распределение Стьюдента приближается к нормальному распределению. Однако обратите внимание, что эти доверительные пределы не могут учитывать систематическую ошибку. Кроме того, ошибки параметров следует указывать только с одной значащей цифрой, поскольку они подвержены ошибке выборки . [4]
Когда количество наблюдений относительно невелико, неравенство Чебычева можно использовать для верхней границы вероятностей, независимо от каких-либо предположений о распределении экспериментальных ошибок: максимальные вероятности того, что параметр будет превышать 1, 2 или 3 стандартных отклонения. от его ожидаемого значения составляют 100%, 25% и 11% соответственно.
Остаточная стоимость и корреляция
[ редактировать ]Остатки соотношением связаны с наблюдениями
где H — идемпотентная матрица, известная как матрица шляпы :
и I — единичная матрица . Ковариационная матрица остатков M р дается
Таким образом, остатки коррелируют, даже если наблюдения — нет.
Когда ,
Сумма взвешенных остаточных значений равна нулю, если модельная функция содержит постоянный член. Умножьте слева выражение для остатков на X Т В Т :
Скажем, например, что первый член модели является константой, так что для всех я . В таком случае следует, что
Таким образом, в мотивационном примере, приведенном выше, тот факт, что сумма остаточных значений равна нулю, не случаен, а является следствием присутствия постоянного члена α в модели.
Если ошибка эксперимента подчиняется нормальному распределению , то из-за линейной зависимости между остатками и наблюдениями то же самое должно быть и с остатками: [5] но поскольку наблюдения представляют собой лишь выборку из совокупности всех возможных наблюдений, остатки должны принадлежать t-распределению Стьюдента . Стьюдентизированные остатки полезны при проведении статистической проверки выброса, когда конкретный остаток кажется чрезмерно большим.
См. также
[ редактировать ]- Итеративно перевзвешенные методы наименьших квадратов
- Стандартные ошибки, совместимые с гетероскедастичностью
- Взвешенное среднее
Ссылки
[ редактировать ]- ^ «Взвешенная регрессия» .
- ^ «Визуализация взвешенной регрессии» .
- ^ Перейти обратно: а б Струц, Т. (2016). «3». Подгонка данных и неопределенность (Практическое введение в метод взвешенных наименьших квадратов и не только) . Спрингер Вьюег. ISBN 978-3-658-11455-8 .
- ^ Мандель, Джон (1964). Статистический анализ экспериментальных данных . Нью-Йорк: Межнаучный.
- ^ Мардия, КВ; Кент, Джей Ти; Бибби, Дж. М. (1979). Многомерный анализ . Нью-Йорк: Академическая пресса. ISBN 0-12-471250-9 .