Jump to content

Полиномиальная регрессия

(Перенаправлено из полиномиальной подгонки )

В статистике полиномиальная регрессия — это форма регрессионного анализа , в которой взаимосвязь между независимой переменной x и зависимой переменной y моделируется как n-й степени полином по x . Полиномиальная регрессия соответствует нелинейной зависимости между значением x и соответствующим условным средним значением y , обозначаемым E( y | x ). Хотя полиномиальная регрессия соответствует данным нелинейной модели, как задача статистической оценки она является линейной в том смысле, что функция регрессии E( y | x ) линейна относительно неизвестных параметров , которые оцениваются на основе данных . По этой причине полиномиальная регрессия считается частным случаем множественной линейной регрессии .

Объясняющие (независимые) переменные, возникающие в результате полиномиального разложения «базовых» переменных, известны как члены более высокой степени. Такие переменные также используются в настройках классификации . [1]

Модели полиномиальной регрессии обычно подбираются с использованием метода наименьших квадратов . Метод наименьших квадратов минимизирует дисперсию несмещенных теоремы оценок коэффициентов в условиях Гаусса–Маркова . Метод наименьших квадратов был опубликован в 1805 году Лежандром и в 1809 году Гауссом . Первый план эксперимента 1815 года по полиномиальной регрессии появился в статье Жергонна . [2] [3] В двадцатом веке полиномиальная регрессия сыграла важную роль в развитии регрессионного анализа с большим упором на вопросы проектирования и вывода . [4] Совсем недавно использование полиномиальных моделей было дополнено другими методами, причем неполиномиальные модели имели преимущества для некоторых классов задач. [ нужна ссылка ]

Определение и пример

[ редактировать ]
Кубическая полиномиальная регрессия, соответствующая моделируемому набору данных. Доверительный диапазон представляет собой 95%-ный одновременный доверительный интервал, построенный с использованием подхода Шеффе .

Цель регрессионного анализа — смоделировать ожидаемое значение зависимой переменной y с точки зрения значения независимой переменной (или вектора независимых переменных) x . В простой линейной регрессии модель

используется, где ε — ненаблюдаемая случайная ошибка со средним нулевым значением, обусловленным скалярной переменной x . В этой модели при каждом увеличении значения x на единицу условное ожидание y увеличивается на β 1 единиц.

Во многих случаях такая линейная зависимость может не соблюдаться. Например, если мы моделируем выход химического синтеза с точки зрения температуры, при которой происходит синтез, мы можем обнаружить, что выход улучшается за счет увеличения количества на каждую единицу повышения температуры. В этом случае мы могли бы предложить квадратичную модель вида

В этой модели при повышении температуры от x до x + 1 единиц ожидаемый урожай изменяется на (Это можно увидеть, заменив x в этом уравнении на x +1 и вычитая уравнение в x из уравнения в x +1.) Для бесконечно малых изменений x влияние на y определяется полной производной по x : Тот факт, что изменение урожайности зависит от x , делает связь между x и y нелинейной, даже если модель линейна по оцениваемым параметрам.

В общем, мы можем смоделировать ожидаемое значение y как полином n- й степени, получив общую модель полиномиальной регрессии.

Удобно, что все эти модели линейны с точки зрения оценки , поскольку функция регрессии линейна с точки зрения неизвестных параметров β 0 , β 1 , .... Следовательно, для анализа методом наименьших квадратов вычислительные и логические задачи Полиномиальную регрессию можно полностью решить с помощью методов множественной регрессии . Это делается путем обработки x , x 2 , ... как отдельные независимые переменные в модели множественной регрессии.

Матричная форма и расчет сметы

[ редактировать ]

Модель полиномиальной регрессии

может быть выражено в матричной форме с точки зрения матрицы проектирования , вектор ответа , вектор параметров и вектор случайных ошибок. I ряд и будет содержать значения x и y для i -й выборки данных. Тогда модель можно записать в виде системы линейных уравнений :

который при использовании чисто матричной записи записывается как

Вектор оцененных коэффициентов полиномиальной регрессии (с использованием методом наименьших квадратов обычной оценки ) равен

предполагая, что m < n, что необходимо для того, чтобы матрица была обратимой; тогда с тех пор является матрицей Вандермонда , то условие обратимости гарантированно выполнено, если все ценности различны. Это уникальное решение методом наименьших квадратов.

Расширенные формулы

[ редактировать ]

Приведенные выше матричные уравнения хорошо объясняют поведение полиномиальной регрессии. Однако для физической реализации полиномиальной регрессии для набора пар точек xy полезна более подробная информация. Приведенные ниже матричные уравнения для полиномиальных коэффициентов расширены из теории регрессии без вывода и легко реализуются. [5] [6] [7]

После решения приведенной выше системы линейных уравнений для полином регрессии можно построить следующим образом:

Интерпретация

[ редактировать ]

Хотя полиномиальная регрессия технически является частным случаем множественной линейной регрессии, интерпретация подобранной модели полиномиальной регрессии требует несколько иной точки зрения. Часто бывает трудно интерпретировать отдельные коэффициенты при аппроксимации полиномиальной регрессии, поскольку лежащие в основе мономы могут быть сильно коррелированы. Например, х и х 2 имеют корреляцию около 0,97, когда x равномерно распределен в интервале (0, 1). Хотя корреляцию можно уменьшить с помощью ортогональных полиномов , обычно более информативно рассматривать подобранную функцию регрессии в целом. Затем можно использовать точечные или одновременные доверительные интервалы, чтобы дать представление о неопределенности в оценке функции регрессии.

Альтернативные подходы

[ редактировать ]

Полиномиальная регрессия — один из примеров регрессионного анализа с использованием базисных функций для моделирования функциональной связи между двумя величинами. Точнее, он заменяет в линейной регрессии с полиномиальной основой , например . Недостаток полиномиальных базисов заключается в том, что базисные функции являются «нелокальными», а это означает, что подобранное значение y при заданном значении x = x 0 сильно зависит от значений данных с x, далеким от x 0 . [8] В современной статистике полиномиальные базисные функции используются наряду с новыми базисными функциями , такими как сплайны , радиальные базисные функции и вейвлеты . Эти семейства базисных функций более экономично подходят для многих типов данных.

Цель полиномиальной регрессии — смоделировать нелинейную связь между независимыми и зависимыми переменными (технически между независимой переменной и условным средним значением зависимой переменной). Это похоже на цель непараметрической регрессии , целью которой является уловить нелинейные регрессионные отношения. Следовательно, подходы непараметрической регрессии, такие как сглаживание, могут быть полезной альтернативой полиномиальной регрессии. Некоторые из этих методов используют локализованную форму классической полиномиальной регрессии. [9] Преимущество традиционной полиномиальной регрессии заключается в том, что можно использовать структуру вывода множественной регрессии (это также справедливо при использовании других семейств базисных функций, таких как сплайны).

Последней альтернативой является использование ядерных моделей, таких как регрессия опорных векторов с полиномиальным ядром .

Если остатки имеют неравную дисперсию , взвешенный метод наименьших квадратов . для учета этого можно использовать [10]

См. также

[ редактировать ]

Примечания

[ редактировать ]
  • Microsoft Excel использует полиномиальную регрессию при подгонке линии тренда к точкам данных на диаграмме рассеяния XY. [11]
  1. ^ Инь-Вэнь Чанг; Чо-Джуй Се; Кай-Вэй Чанг; Майкл Ринггаард; Чи-Джен Линь (2010). «Обучение и тестирование отображений полиномиальных данных низкой степени с помощью линейного SVM» . Журнал исследований машинного обучения . 11 : 1471–1490.
  2. ^ Жергонн, JD (ноябрь 1974 г.) [1815]. «Применение метода наименьших квадратов для интерполяции последовательностей». История математики . 1 (4) (Перевод Ральфа Сент-Джона и С.М. Стиглера из французского издания 1815 г.): 439–447. дои : 10.1016/0315-0860(74)90034-2 .
  3. ^ Стиглер, Стивен М. (ноябрь 1974 г.). «Документ Жергонна 1815 года о разработке и анализе экспериментов по полиномиальной регрессии». История математики . 1 (4): 431–439. дои : 10.1016/0315-0860(74)90033-0 .
  4. ^ Смит, Кирстин (1918). «О стандартных отклонениях скорректированных и интерполированных значений наблюдаемой полиномиальной функции и ее констант, а также о рекомендациях, которые они дают для правильного выбора распределения наблюдений» . Биометрика . 12 (1/2): 1–85. дои : 10.2307/2331929 . JSTOR   2331929 .
  5. ^ Мутукришнан, Гоури (17 июня 2018 г.). «Математика полиномиальной регрессии, Мутукришнан» . Математика, лежащая в основе полиномиальной регрессии . Проверено 30 января 2024 г.
  6. ^ «Математика полиномиальной регрессии» . Полиномиальная регрессия. Класс регрессии PHP .
  7. ^ Девор, Джей Л. (1995). Вероятность и статистика для техники и наук (4-е изд.). США: Издательство Brooks/Cole Publishing Company. стр. 539–542. ISBN  0-534-24264-2 .
  8. ^ Такое «нелокальное» поведение является свойством аналитических функций , которые не являются постоянными (везде). Такое «нелокальное» поведение широко обсуждается в статистике:
    • Маги, Лонни (1998). «Нелокальное поведение в полиномиальных регрессиях». Американский статистик . 52 (1): 20–22. дои : 10.2307/2685560 . JSTOR   2685560 .
  9. ^ Фань, Цзяньцин (1996). Локальное полиномиальное моделирование и его приложения: от линейной регрессии к нелинейной регрессии . Монографии по статистике и прикладной теории вероятности. Чепмен и Холл/CRC. ISBN  978-0-412-98321-4 .
  10. ^ Конте, SD; Де Бур, К. (2018). Элементарный численный анализ: алгоритмический подход . Классика прикладной математики. Общество промышленной и прикладной математики (SIAM, 3600 Market Street, этаж 6, Филадельфия, Пенсильвания, 19104). п. 259. ИСБН  978-1-61197-520-8 . Проверено 28 августа 2020 г.
  11. ^ Стивенсон, Кристофер. «Учебник: Полиномиальная регрессия в Excel» . Facialstaff.richmond.edu . Проверено 22 января 2017 г.
[ редактировать ]
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: a1072d15b0482aef71b3882cd05c8178__1720373700
URL1:https://arc.ask3.ru/arc/aa/a1/78/a1072d15b0482aef71b3882cd05c8178.html
Заголовок, (Title) документа по адресу, URL1:
Polynomial regression - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)