Обобщенные наименьшие квадраты
Часть серии о |
Регрессионный анализ |
---|
Модели |
Оценка |
Фон |
В статистике обобщенный метод наименьших квадратов (GLS) — это метод, используемый для оценки неизвестных параметров в модели линейной регрессии . Он используется, когда существует ненулевая степень корреляции между остатками в регрессионной модели. GLS используется для повышения статистической эффективности и снижения риска получения ошибочных выводов по сравнению с традиционными методами наименьших квадратов и взвешенными методами наименьших квадратов. Впервые он был описан Александром Эйткеном в 1935 году. [1]
Это требует знания ковариационной матрицы остатков. Если это неизвестно, оценка ковариационной матрицы дает метод допустимых обобщенных наименьших квадратов (FGLS). Однако FGLS дает меньше гарантий улучшения.
Метод
[ редактировать ]В стандартных моделях линейной регрессии наблюдаются данные на n статистических единицах с k - 1 значениями предикторов и одним значением ответа каждая.
Значения ответа помещаются в вектор, и значения предикторов помещаются в матрицу плана , где каждая строка представляет собой вектор переменные-предикторы (включая константу) для эта точка данных.
Модель предполагает, что условное среднее данный быть линейной функцией от и что условная дисперсия члена ошибки, заданная — известная неособая ковариационная матрица , . То есть, где представляет собой вектор неизвестных констант, называемых «коэффициентами регрессии», которые оцениваются на основе данных.
Если это приблизительная оценка для , то вектор невязки для является . Оценки обобщенного метода наименьших квадратов минимизируя квадрат длины Махаланобиса этого остаточного вектора: что эквивалентно что является задачей квадратичного программирования . Стационарная точка целевой функции возникает, когда поэтому оценщик Количество известна как матрица точности (или матрица дисперсии ), обобщение диагональной весовой матрицы .
Характеристики
[ редактировать ]Оценка GLS является несмещенной , последовательной , эффективной и асимптотически нормальной с GLS эквивалентен применению обычного метода наименьших квадратов (OLS) к линейно преобразованной версии данных. Это можно увидеть, факторизовав используя такой метод, как разложение Холецкого . Умножение слева обеих частей к дает эквивалентную линейную модель: В этой модели , где является единичной матрицей . Затем, может быть эффективно оценено путем применения МНК к преобразованным данным, что требует минимизации цели, Это преобразование эффективно стандартизирует масштаб и декоррелирует ошибки. Когда OLS используется для данных с гомоскедастическими ошибками, применяется теорема Гаусса – Маркова , поэтому оценка GLS является лучшей линейной несмещенной оценкой для .
Взвешенные наименьшие квадраты
[ редактировать ]Особый случай GLS, называемый взвешенным методом наименьших квадратов (WLS), возникает, когда все недиагональные элементы Ω равны 0. Эта ситуация возникает, когда дисперсии наблюдаемых значений неравны или когда гетероскедастичность присутствует , но между ними не существует корреляций. наблюдаемые отклонения. Вес для единицы i пропорционален обратной величине дисперсии ответа для единицы i . [2]
Вывод путем оценки максимального правдоподобия
[ редактировать ]Обыкновенный метод наименьших квадратов можно интерпретировать как оценку максимального правдоподобия с учетом того , что ошибки независимы и нормально распределены с нулевым средним значением и общей дисперсией. В GLS априорное правило обобщается на случай, когда ошибки не могут быть независимыми и могут иметь разные дисперсии . По заданным параметрам подгонки предполагается , что условная функция плотности вероятности ошибок равна: По теореме Байеса , GLS для В , и как является маргинальным распределением, оно не зависит от . Следовательно, логарифмическая вероятность равна где скрытыми членами являются те, которые не зависят от , и — логарифмическая вероятность . Максимальная апостериорная оценка (MAP) тогда является оценкой максимального правдоподобия (MLE), которая эквивалентна задаче оптимизации, поставленной выше:
где был заменен на , и задача оптимизации была переписана с учетом того факта, что логарифм является строго возрастающей функцией , и того свойства, что аргумент, решающий задачу оптимизации, не зависит от членов целевой функции, которые не включают указанные члены.
Возможные обобщенные методы наименьших квадратов
[ редактировать ]Если ковариация ошибок неизвестно, можно получить непротиворечивую оценку , сказать , [3] используя реализуемую версию GLS, известную как осуществимая оценка обобщенных наименьших квадратов ( FGLS ).
В FGLS моделирование происходит в два этапа:
- Модель оценивается с помощью OLS или другого непротиворечивого (но неэффективного) средства оценки, а остатки используются для построения непротиворечивого средства оценки ковариационной матрицы ошибок (для этого часто необходимо исследовать модель, добавляя дополнительные ограничения; например, если ошибки следуют за процессом временного ряда, статистику обычно необходимы некоторые теоретические предположения об этом процессе, чтобы гарантировать наличие непротиворечивой оценки).
- Затем, используя непротиворечивую оценку ковариационной матрицы ошибок, можно реализовать идеи GLS.
Хотя GLS более эффективен, чем OLS, в условиях гетероскедастичности (также называемой гетероскедастичностью) или автокорреляции , это не относится к FGLS. Допустимая оценка асимптотически более эффективна (при условии, что ковариационная матрица ошибок оценивается последовательно), но для выборки малого и среднего размера она может быть фактически менее эффективной, чем МНК. Вот почему некоторые авторы предпочитают использовать МНК и переформулировать свои выводы, просто рассматривая альтернативную оценку дисперсии оценки, устойчивой к гетероскедастичности или серийной автокорреляции. Однако для больших выборок FGLS предпочтительнее OLS в условиях гетероскедастичности или серийной корреляции. [3] [4] Предостережение: оценщик FGLS не всегда последовательен. Одним из случаев, когда FGLS может быть противоречивым, является наличие фиксированных эффектов, специфичных для конкретного человека. [5]
В общем, эта оценка имеет другие свойства, чем GLS. Для больших выборок (т. е. асимптотически) все свойства (при соответствующих условиях) являются общими по отношению к GLS, но для конечных выборок свойства оценок FGLS неизвестны: они резко изменяются в зависимости от каждой конкретной модели, и, как правило, их точные распределения не могут быть получены аналитически. Для конечных выборок FGLS в некоторых случаях может быть менее эффективным, чем OLS. Таким образом, хотя GLS может быть реализован, не всегда разумно применять этот метод, когда выборка мала. Метод, используемый для повышения точности оценок в конечных выборках, заключается в итерации; то есть взять остатки из FGLS для обновления средства оценки ковариации ошибок, а затем обновить оценку FGLS, итеративно применяя одну и ту же идею до тех пор, пока оценки не будут отличаться меньше, чем некоторый допуск. Однако этот метод не обязательно значительно повышает эффективность оценки, если исходная выборка была небольшой.
Разумный вариант, когда выборки не слишком велики, — применить МНК, но отказаться от классической оценки дисперсии.
(что противоречиво в этой структуре) и вместо этого используйте оценщик HAC (согласованность гетероскедастичности и автокорреляции). В контексте автокорреляции оценку Ньюи-Уэста можно использовать оценку Эйкера-Уайта , а в гетероскедастических контекстах вместо нее можно использовать . Этот подход гораздо безопаснее, и его следует использовать, если только выборка не велика, где «большой» иногда является скользким вопросом (например, если распределение ошибок асимметрично, требуемая выборка будет намного больше).
Обычная оценка методом наименьших квадратов (OLS) рассчитывается по формуле:
и оценки остатков построены.
Для простоты рассмотрим модель гетероскедастических и неавтокоррелированных ошибок. Предположим, что дисперсионно-ковариационная матрица вектора ошибок является диагональным, или, что то же самое, ошибки различных наблюдений некоррелированы. Тогда каждая диагональная запись может быть оценена с помощью подобранных остатков так может быть построено:
Важно отметить, что квадраты остатков нельзя использовать в предыдущем выражении; необходима оценка дисперсий ошибок. Для этого гетероскедастичности можно использовать параметрическую модель или непараметрическую программу оценки.
Оценивать с использованием с использованием [4] взвешенные наименьшие квадраты :
Процедуру можно повторять. Первая итерация задается следующим образом:
Эта оценка можно повторить до сходимости.
В условиях регулярности оценка FGLS (или оценка ее итераций, если проводится конечное число итераций) асимптотически распределяется как:
где - размер выборки, и
где означает предел вероятности .
См. также
[ редактировать ]Ссылки
[ редактировать ]- ^ Эйткен, AC (1935). «О наименьших квадратах и линейных комбинациях наблюдений». Труды Королевского общества Эдинбурга . 55 : 42–48. дои : 10.1017/s0370164600014346 .
- ^ Струц, Т. (2016). Подгонка данных и неопределенность (Практическое введение в метод взвешенных наименьших квадратов и не только) . Спрингер Вьюег. ISBN 978-3-658-11455-8 . , глава 3
- ^ Перейти обратно: а б Балтаги, Б.Х. (2008). Эконометрика (4-е изд.). Нью-Йорк: Спрингер.
- ^ Перейти обратно: а б Грин, штат Вашингтон (2003). Эконометрический анализ (5-е изд.). Река Аппер-Седл, Нью-Джерси: Прентис-Холл.
- ^ Хансен, Кристиан Б. (2007). «Обобщенный вывод методом наименьших квадратов в панельных и многоуровневых моделях с последовательной корреляцией и фиксированными эффектами». Журнал эконометрики . 140 (2): 670–694. doi : 10.1016/j.jeconom.2006.07.011 .
Дальнейшее чтение
[ редактировать ]- Амемия, Такеши (1985). «Обобщенная теория наименьших квадратов» . Продвинутая эконометрика . Издательство Гарвардского университета. ISBN 0-674-00560-0 .
- Джонстон, Джон (1972). «Обобщенный метод наименьших квадратов» . Эконометрические методы (Второе изд.). Нью-Йорк: МакГроу-Хилл. стр. 208–242.
- Кмента, Ян (1986). «Обобщенная модель линейной регрессии и ее приложения» . Элементы эконометрики (второе изд.). Нью-Йорк: Макмиллан. стр. 607–650. ISBN 0-472-10886-7 .
- Бек, Натаниэль; Кац, Джонатан Н. (сентябрь 1995 г.). «Что делать (и не делать) с данными временных рядов» . Американский обзор политической науки . 89 (3): 634–647. дои : 10.2307/2082979 . ISSN 1537-5943 . JSTOR 2082979 . S2CID 63222945 .