Jump to content

Алгоритм обратной подгонки

В статистике алгоритм обратной подгонки представляет собой простую итерационную процедуру, используемую для подгонки обобщенной аддитивной модели . Она была представлена ​​в 1985 году Лео Брейманом и Джеромом Фридманом вместе с обобщенными аддитивными моделями. В большинстве случаев алгоритм обратного подгонки эквивалентен методу Гаусса–Зейделя — алгоритму, используемому для решения определенной линейной системы уравнений .

Алгоритм

[ редактировать ]

Аддитивные модели — это класс непараметрических регрессионных моделей вида:

где каждый это переменная в нашем -мерный предиктор , и наша результирующая переменная. представляет нашу внутреннюю ошибку, которая, как предполагается, имеет нулевое среднее значение. представляют собой неуказанные гладкие функции одного . Учитывая гибкость в , у нас обычно нет уникального решения: остается неидентифицируемым, поскольку к любому из элементов можно добавить любые константы. и вычтем это значение из . Обычно это можно исправить, ограничив

для всех

уход

обязательно.

Тогда алгоритм переоснащения следующий:

   Initialize ,
   Do until  converge:
       For each predictor j:
           (a)  (backfitting step)
           (b)  (mean centering of estimated function)

где наш оператор сглаживания. Обычно это сглаживание кубического сплайна, но может быть любая другая подходящая операция подгонки, например:

Теоретически шаг (b) в алгоритме не требуется, поскольку суммы оценок функции ограничены нулевой суммой. Однако из-за численных проблем это может стать проблемой на практике. [1]

Мотивация

[ редактировать ]

Если рассмотреть задачу минимизации ожидаемой квадратичной ошибки:

Согласно теории проекций существует единственное решение, определяемое формулой:

для я = 1, 2, ..., п .

Это дает матричную интерпретацию:

где . В этом контексте мы можем представить более гладкую матрицу, , что приблизительно соответствует нашему и дает оценку, , из

или в сокращенной форме

Точное решение этой задачи невозможно вычислить при больших np , поэтому используется итеративный метод обратной подгонки. Мы делаем первоначальные предположения и обновляйте каждый в свою очередь, это будет сглаженная аппроксимация остатков всех остальных:

Глядя на сокращенную форму, легко увидеть, что алгоритм обратного подгонки эквивалентен методу Гаусса–Зейделя для линейных операторов сглаживания S .

Явный вывод для двух измерений

[ редактировать ]

Следующий, [2] мы можем сформулировать алгоритм обратной подгонки явно для двумерного случая. У нас есть:

Если мы обозначим как оценка на i- м этапе обновления этапы обратной подгонки:

По индукции получаем

и

Если мы установим тогда мы получим

Где мы решили путем прямого подключения от .

Мы имеем сходимость, если . В этом случае позволив :

Мы можем проверить, что это решение проблемы, т. е. что и сходиться к и соответственно, подставив эти выражения в исходные уравнения.

Проблемы

[ редактировать ]

Выбор момента остановки алгоритма произволен, и априори трудно предсказать, сколько времени займет достижение определенного порога сходимости. Кроме того, окончательная модель зависит от порядка, в котором переменные-предикторы подходят.

Кроме того, решение, найденное с помощью процедуры обратной подгонки, не является единственным. Если вектор такой, что сверху, то если это решение, то так же также является решением для любого . Модификация алгоритма обратной подгонки, включающая проекции на собственное пространство S, может решить эту проблему.

Модифицированный алгоритм

[ редактировать ]

Мы можем изменить алгоритм обратной подгонки, чтобы упростить поиск уникального решения. Позволять — пространство, охватываемое всеми собственными векторами Si , соответствующими собственному значению 1. Тогда любой b, удовлетворяющий имеет и Теперь, если мы возьмем быть матрицей, которая проектируется ортогонально на , мы получаем следующий модифицированный алгоритм обратной подгонки:

   Initialize ,, 
   Do until  converge:
       Regress  onto the space , setting 
       For each predictor j:
           Apply backfitting update to  using the smoothing operator , yielding new estimates for 
  1. ^ Хасти, Тревор , Роберт Тибширани и Джером Фридман (2001). Элементы статистического обучения: интеллектуальный анализ данных, логический вывод и прогнозирование . Спрингер, ISBN   0-387-95284-5 .
  2. ^ Хердле, Вольфганг; и др. (9 июня 2004 г.). «Обратное оснащение». Архивировано из оригинала 10 мая 2015 г. Проверено 19 августа 2015 г.
  • Брейман Л. и Фридман Дж. Х. (1985). «Оценка оптимальных преобразований для множественной регрессии и корреляций (с обсуждением)». Журнал Американской статистической ассоциации . 80 (391): 580–619. дои : 10.2307/2288473 . JSTOR   2288473 .
  • Хасти, ТиДжей и Тибширани, Р.Дж. (1990). «Обобщенные аддитивные модели». Монографии по статистике и прикладной теории вероятности . 43 .
  • Хердле, Вольфганг; и др. (9 июня 2004 г.). «Обратное оснащение» . Архивировано из оригинала 10 мая 2015 г. Проверено 19 августа 2015 г.
[ редактировать ]
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: e5d3f181e9d79030982ebb4d914ee6be__1710751440
URL1:https://arc.ask3.ru/arc/aa/e5/be/e5d3f181e9d79030982ebb4d914ee6be.html
Заголовок, (Title) документа по адресу, URL1:
Backfitting algorithm - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)