Всего наименьших квадратов
Часть серии о |
Регрессионный анализ |
---|
Модели |
Оценка |
Фон |
В прикладной статистике общий метод наименьших квадратов — это тип регрессии ошибок в переменных , метод моделирования данных методом наименьших квадратов , в котором учитываются ошибки наблюдения как по зависимым, так и по независимым переменным. Это обобщение регрессии Деминга , а также ортогональной регрессии , и его можно применять как к линейным, так и к нелинейным моделям.
Полная аппроксимация данных методом наименьших квадратов в общем эквивалентна лучшему, по норме Фробениуса , низкоранговому приближению матрицы данных. [1]
Линейная модель
[ редактировать ]Фон
[ редактировать ]В методе наименьших квадратов моделирования данных целевая функция , S ,
минимизируется, где r — вектор остатков , а W — весовая матрица. В линейном методе наименьших квадратов модель содержит уравнения, линейные по параметрам, входящим в вектор параметров. , поэтому остатки определяются выражением
Имеется m наблюдений по параметрам y и n в β с m > n . X — матрица размера m × n , элементы которой являются либо константами, либо функциями независимых переменных x . Матрица весов W в идеале является обратной матрицей дисперсии-ковариации наблюдений y . Предполагается, что независимые переменные не содержат ошибок. Оценки параметров находятся путем установки уравнений градиента в ноль, что приводит к нормальным уравнениям [примечание 1]
Допуск ошибок наблюдения во всех переменных
[ редактировать ]Теперь предположим, что и x, и y наблюдаются с ошибками, с дисперсионно-ковариационными матрицами и соответственно. В этом случае целевую функцию можно записать в виде
где и являются остатками по x и y соответственно. Четко [ нужны дальнейшие объяснения ] эти остатки не могут быть независимыми друг от друга, но они должны быть связаны какими-то отношениями. Записав модельную функцию как , ограничения выражаются m уравнениями условий. [2]
Таким образом, задача состоит в том, чтобы минимизировать целевую функцию с учетом m ограничений. Она решается применением множителей Лагранжа . После некоторых алгебраических манипуляций [3] результат получен.
или альтернативно где M — матрица дисперсии-ковариации относительно независимых и зависимых переменных.
Пример
[ редактировать ]Когда ошибки данных некоррелированы, все матрицы M и W диагональны. Затем возьмем пример прямой подгонки.
в этом случае
показывая, как дисперсия в i- й точке определяется дисперсиями как независимых, так и зависимых переменных, а также моделью, используемой для подбора данных. Выражение можно обобщить, заметив, что параметр это наклон линии.
Выражение этого типа используется при аппроксимации данных титрования pH , где небольшая ошибка по x приводит к большой ошибке по y, когда наклон велик.
Алгебраическая точка зрения
[ редактировать ]Как показали в 1980 году Голуб и Ван Лоан, проблема TLS вообще не имеет решения. [4] Ниже рассматривается простой случай, когда существует единственное решение, без каких-либо конкретных предположений.
Вычисление TLS с использованием разложения по сингулярным значениям (SVD) описано в стандартных текстах. [5] Мы можем решить уравнение
для B , где X — это m -by- n , а Y — это m -by -k . [примечание 2]
То есть мы стремимся найти B , который минимизирует матрицы ошибок E и F для X и Y соответственно. То есть,
где представляет собой расширенную матрицу, в которой E и F расположены рядом, а — это норма Фробениуса , квадратный корень из суммы квадратов всех элементов матрицы и, что эквивалентно, квадратный корень из суммы квадратов длин строк или столбцов матрицы.
Это можно переписать как
где это идентификационная матрица. Тогда цель состоит в том, чтобы найти что снижает ранг по к . Определять быть разложением по сингулярным значениям расширенной матрицы .
где V соответствующие форме X и Y. разбит на блоки ,
Используя теорему Эккарта – Янга , приближение, минимизирующее норму ошибки, таково, что матрицы и не изменяются, а наименьшие сингулярные значения заменяются нулями. То есть мы хотим
поэтому по линейности,
Затем мы можем удалить блоки из матриц U и Σ, упрощая до
Это обеспечивает E и F, так что
Теперь, если несингулярен, что не всегда так (обратите внимание, что поведение TLS при сингулярность еще не совсем понятна), тогда мы можем умножить обе части справа на привести нижний блок правой матрицы к отрицательной единице, дав [6]
и так
Наивная GNU Octave реализация :
function B = tls(X, Y)
[m n] = size(X); % n is the width of X (X is m by n)
Z = [X Y]; % Z is X augmented with Y.
[U S V] = svd(Z, 0); % find the SVD of Z.
VXY = V(1:n, 1+n:end); % Take the block of V consisting of the first n rows and the n+1 to last column
VYY = V(1+n:end, 1+n:end); % Take the bottom-right block of V.
B = -VXY / VYY;
end
Описанный выше способ решения задачи требует, чтобы матрица несингулярен, может быть немного расширен с помощью так называемого классического алгоритма TLS . [7]
Вычисление
[ редактировать ]Стандартная реализация классического алгоритма TLS доступна через Netlib , см. также. [8] [9] Все современные реализации, основанные, например, на решении последовательности обычных задач наименьших квадратов, аппроксимируют матрицу (обозначается в литературе), как это представили Ван Хаффель и Вандевалле. Стоит отметить, что это однако это не решение TLS . во многих случаях [10] [11]
Нелинейная модель
[ редактировать ]Для нелинейных систем аналогичные рассуждения показывают, что нормальные уравнения итерационного цикла можно записать в виде
где – матрица Якобиана .
Геометрическая интерпретация
[ редактировать ]Когда независимая переменная не содержит ошибок, остаток представляет собой «вертикальное» расстояние между наблюдаемой точкой данных и подобранной кривой (или поверхностью). В общем методе наименьших квадратов остаток представляет собой расстояние между точкой данных и подобранной кривой, измеренное в некотором направлении. Фактически, если обе переменные измеряются в одних и тех же единицах измерения и ошибки по обеим переменным одинаковы, то остаток представляет собой кратчайшее расстояние между точкой данных и подобранной кривой , то есть вектор невязки перпендикулярен касательной кривая. По этой причине этот тип регрессии иногда называют двумерной евклидовой регрессией (Stein, 1983). [12] или ортогональная регрессия .
Масштабно-инвариантные методы
[ редактировать ]Серьезная трудность возникает, если переменные не измеряются в одних и тех же единицах. Сначала рассмотрим измерение расстояния между точкой данных и линией: в каких единицах измерения измеряется это расстояние? Если мы рассмотрим измерение расстояния на основе теоремы Пифагора, то ясно, что мы будем складывать величины, измеряемые в разных единицах, что бессмысленно. Во-вторых, если мы изменим масштаб одной из переменных, например, будем измерять в граммах, а не в килограммах, то мы получим другие результаты (другую линию). Чтобы избежать этих проблем, иногда предлагается перейти к безразмерным переменным — это можно назвать нормализацией или стандартизацией. Однако существуют различные способы сделать это, и они приводят к созданию подогнанных моделей, которые не эквивалентны друг другу. Один из подходов заключается в нормализации по известной (или расчетной) точности измерения, тем самым минимизируя расстояние Махаланобиса от точек до линии, обеспечивая решение с максимальным правдоподобием ; [ нужна ссылка ] неизвестная точность может быть найдена посредством дисперсионного анализа .
Короче говоря, общий метод наименьших квадратов не обладает свойством инвариантности единиц, то есть он не масштабно-инвариантен . Для значимой модели мы требуем, чтобы это свойство выполнялось. Путь вперед — осознать, что остатки (расстояния), измеренные в разных единицах, можно комбинировать, если вместо сложения использовать умножение. Рассмотрите возможность подгонки линии: для каждой точки данных произведение вертикальных и горизонтальных остатков равно двойной площади треугольника, образованного линиями остатков и подогнанной линией. Мы выбираем линию, которая минимизирует сумму этих площадей. Нобелевский лауреат Пол Самуэльсон доказал в 1942 году, что в двух измерениях это единственная линия, выражаемая исключительно через отношения стандартных отклонений и коэффициента корреляции, которая (1) соответствует правильному уравнению, когда наблюдения лежат на прямой линии ( 2) демонстрирует масштабную инвариантность и (3) демонстрирует инвариантность при перестановке переменных. [13] Это решение было заново открыто в различных дисциплинах и известно как стандартизированная главная ось (Ricker 1975, Warton et al., 2006). [14] [15] уменьшенная главная ось , среднегеометрическая функциональная зависимость (Draper and Smith, 1998), [16] регрессия наименьших продуктов , диагональная регрессия , линия органической корреляции и линия наименьших площадей (Tofallis, 2002). [17]
Тофалис (2015, 2023) [18] [19] расширил этот подход для работы с несколькими переменными. Расчеты проще, чем для расчета суммы наименьших квадратов, поскольку они требуют только знания ковариаций и могут быть рассчитаны с использованием стандартных функций электронных таблиц.
См. также
[ редактировать ]- Разбавление регрессии
- Регрессия Деминга , частный случай с двумя предикторами и независимыми ошибками.
- Модель ошибок в переменных
- Модель Гаусса-Гельмерта
- Линейная регрессия
- Наименьшие квадраты
- Анализ главных компонентов
- Регрессия главных компонентов
Примечания
[ редактировать ]- ^ Альтернативная форма: , где – это сдвиг параметра от некоторой начальной оценки и это разница между y и значением, рассчитанным с использованием начального значения
- ^ Обозначение XB ≈ Y используется здесь для отражения обозначений, использованных в предыдущей части статьи. В вычислительной литературе проблема чаще представляется как AX ≈ B , т.е. с буквой X, используемой для обозначения nxk . размером матрицы неизвестных коэффициентов регрессии
Ссылки
[ редактировать ]- ^ И. Марковский и С. Ван Хаффель , Обзор методов наименьших квадратов. Обработка сигналов, вып. 87, стр. 2283–2302, 2007. препринт .
- ^ В.Е. Деминг, Статистическая корректировка данных, Wiley, 1943.
- ^ Ганс, Питер (1992). Подгонка данных в химических науках . Уайли. ISBN 9780471934127 . Проверено 4 декабря 2012 г.
- ^ GH Голуб и CF Ван Лоан, Анализ общей задачи наименьших квадратов. Число. Анал., 17, 1980, стр. 883–893.
- ^ Голуб, Джин Х .; Ван Лоан, Чарльз Ф. (1996). Матричные вычисления (3-е изд.). Издательство Университета Джонса Хопкинса . стр. 596.
- ^ Бьёрк, Аке (1996) Численные методы решения задач наименьших квадратов , Общество промышленной и прикладной математики. ISBN 978-0898713602 [ нужна страница ]
- ^ С. Ван Хаффель и Дж. Вандевалле (1991) Общие задачи наименьших квадратов: вычислительные аспекты и анализ . Публикации SIAM, Филадельфия, Пенсильвания.
- ^ С. Ван Хаффель , Документированные программы на Фортране 77 с расширенным классическим алгоритмом общих наименьших квадратов, алгоритмом частичного разложения по сингулярным значениям и алгоритмом частичного общего наименьших квадратов, Внутренний отчет ESAT-KUL 88/1, Лаборатория ESAT, Департамент электротехники Инженерное дело, Католический университет Левена, 1988 г.
- ^ С. Ван Хаффель , Расширенный классический алгоритм наименьших квадратов, J. Comput. Прил. Математика, 25, стр. 111–119, 1989.
- ^ М. Плешингер, Общая задача наименьших квадратов и сокращение данных в AX ≈ Б. Докторская диссертация, Либерецкий технический университет и Институт компьютерных наук, AS CR Прага, 2008. Доктор философии. Диссертация
- ^ И. Гнетынкова, М. Плешингер, Д. М. Сима, З. Стракош и С. Ван Хаффель , Общая задача наименьших квадратов в AX ≈ B. Новая классификация, связанная с классическими работами. СИМАКС об. 32, выпуск 3 (2011), стр. 748–770.
- ^ Штейн, Яаков Дж. «Двумерная евклидова регрессия» (PDF) .
{{cite journal}}
: Для цитирования журнала требуется|journal=
( помощь ) - ^ Самуэльсон, Пол А. (1942). «Заметки об альтернативных регрессиях». Эконометрика . 10 (1): 80–83. дои : 10.2307/1907024 . JSTOR 1907024 .
- ^ Рикер, МЫ (1975). «Заметка о комментариях профессора Жоликера». Журнал Совета по исследованиям рыболовства Канады . 32 (8): 1494–1498. дои : 10.1139/f75-172 .
- ^ Уортон, Дэвид И.; Райт, Ян Дж.; Фальстер, Дэниел С.; Вестоби, Марк (2006). «Двумерные методы аппроксимации линий для аллометрии». Биологические обзоры . 81 (2): 259–291. CiteSeerX 10.1.1.461.9154 . дои : 10.1017/S1464793106007007 . ПМИД 16573844 . S2CID 16462731 .
- ^ Дрейпер, Н. Р. и Смит, Х. Прикладной регрессионный анализ , 3-е издание, стр. 92–96. 1998 год
- ^ Тофаллис, Крис (2002). «Подбор модели для нескольких переменных путем минимизации среднего геометрического отклонения». В Ван Хаффеле, Сабина ; Леммерлинг, П. (ред.). Моделирование методом полных наименьших квадратов и ошибок в переменных: анализ, алгоритмы и приложения . Дордрехт: Kluwer Academic Publ. ISBN 978-1402004766 . ССНН 1077322 .
- ^ Тофаллис, Крис (2015). «Подбор уравнений к данным с идеальной корреляционной связью». ССНН 2707593 .
- ^ Тофалис, К. (2023). Беспристрастная подгонка уравнения к данным. Математика, 11(18), 3957. https://ssrn.com/abstract=4556739 https://doi.org/10.3390/math11183957.
Другие
[ редактировать ]- И. Гнетынкова, М. Плешингер, Д. М. Сима, З. Стракош и С. Ван Хаффель , Полная задача наименьших квадратов в AX ≈ B. Новая классификация по отношению к классическим работам. СИМАКС об. 32, выпуск 3 (2011), стр. 748–770. Доступен в виде препринта .
- М. Плешингер, Общая задача наименьших квадратов и сокращение данных в AX ≈ B. Докторская диссертация, Либерецкий технический университет и Институт компьютерных наук, AS CR Прага, 2008. Кандидат философии. Диссертация
- К.С. Пейдж, З. Стракош, Основные проблемы в линейных алгебраических системах. СИАМ Дж. Матричный анал. Прил. 27, 2006, стр. 861–875. дои : 10.1137/040616991
- С. Ван Хаффель и П. Леммерлинг, Моделирование по методу наименьших квадратов и ошибкам в переменных: анализ, алгоритмы и приложения . Дордрехт, Нидерланды: Kluwer Academic Publishers, 2002.
- С. Джо и С.В. Ким. Последовательная нормализованная фильтрация по методу наименьших квадратов с зашумленной матрицей данных. IEEE Транс. Сигнальный процесс., вып. 53, нет. 6, стр. 2112–2123, июнь 2005 г.
- Р.Д. ДеГроат и Э.М. Даулинг, Задача наименьших квадратов данных и выравнивание каналов. IEEE Транс. Сигнальный процесс., вып. 41, нет. 1, стр. 407–411, январь 1993 г.
- С. Ван Хаффель и Дж. Вандевалле, «Задачи полных наименьших квадратов: вычислительные аспекты и анализ». Публикации SIAM, Филадельфия, Пенсильвания, 1991. дои : 10.1137/1.9781611971002
- Т. Абацоглу и Дж. Мендель, Ограниченный общий метод наименьших квадратов , в Proc. IEEE Международный. Конф. Акуст., Речь, Сигнальный Процесс. (ICASSP'87), апрель 1987 г., вып. 12, стр. 1485–1488.
- П. де Гроен. Введение в метод наименьших квадратов , в журнале Nieuw Archief voor Mathematics, четвертая серия, часть 14, 1996, стр. 237–253 archive.org .
- GH Голуб и CF Ван Лоан, анализ общей проблемы наименьших квадратов. СИАМ Дж. на цифре. Анал., 17, 1980, стр. 883–893. дои : 10.1137/0717073
- Перпендикулярная регрессия линии на MathPages
- А. Р. Амири-Симкуи и С. Джазаери Взвешенный общий метод наименьших квадратов, сформулированный на основе стандартной теории наименьших квадратов , в Journal of Geodetic Science, 2 (2): 113–124, 2012 [1] .