Ядро более гладкое
Сглаживатель ядра - это статистический метод оценки действительной функции. как средневзвешенное значение соседних наблюдаемых данных. Вес определяется ядром , так что более близким точкам присваиваются более высокие веса. Оцениваемая функция является гладкой, а уровень гладкости задается одним параметром.Ядерное сглаживание — это разновидность взвешенной скользящей средней .
Определения
[ редактировать ]Позволять быть ядром, определяемым
где:
- это евклидова норма
- это параметр (радиус ядра)
- D ( t ) обычно является положительной вещественной функцией, значение которой уменьшается (или не увеличивается) с увеличением расстояния X и X0 между .
Популярные ядра, используемые для сглаживания, включают параболическое ядро (Епанечникова), трехкубическое и гауссовское .
Позволять быть непрерывной функцией X . Для каждого средневзвешенное по ядру Надарая-Ватсона (гладкая оценка Y ( X )) определяется выражением
где:
- N — количество наблюдаемых точек
- Y ( X i ) — наблюдения в точках X i .
В следующих разделах мы опишем некоторые частные случаи сглаживателей ядра.
Гауссово ядро более гладкое
[ редактировать ]Ядро Гаусса является одним из наиболее широко используемых ядер и выражается уравнением, приведенным ниже.
Здесь b — масштаб длины входного пространства.
Ближайший сосед более плавный
[ редактировать ]Идея сглаживания ближайшего соседа заключается в следующем. Для каждой точки X 0 возьмите m ближайших соседей и оцените значение Y ( X 0 ) путем усреднения значений этих соседей.
Формально, , где является m- м ближайшим к X 0 соседом, и
Пример:
В этом примере X является одномерным. Для каждого 0 X представляет собой среднее значение из 16 ближайших к X 0 баллов (обозначено красным).
Ядро в среднем более плавное
[ редактировать ]Идея сглаживания среднего ядра заключается в следующем. Для каждой точки данных X 0 выберите постоянный размер расстояния λ (радиус ядра или ширину окна для измерения p = 1) и вычислите средневзвешенное значение для всех точек данных, которые находятся ближе, чем до X 0 (точки, расположенные ближе к X 0, получают больший вес).
Формально, и D ( t ) — одно из популярных ядер.
Пример:
Для каждого X 0 ширина окна постоянна, а вес каждой точки окна схематически обозначен желтой цифрой на графике. Видно, что оценка гладкая, но граничные точки смещены. Причиной тому является неодинаковое количество точек (справа и слева от X 0 ) в окне, когда X 0 находится достаточно близко к границе.
Локальная линейная регрессия
[ редактировать ]В двух предыдущих разделах мы предполагали, что базовая функция Y(X) является локально постоянной, поэтому мы смогли использовать для оценки средневзвешенное значение. Идея локальной линейной регрессии состоит в том, чтобы локально соответствовать прямой линии (или гиперплоскости для более высоких измерений), а не константе (горизонтальной линии). После подгонки линии оценка обеспечивается значением этой линии в точке X 0 . Повторяя эту процедуру для каждого X 0 , можно получить оценочную функцию .Как и в предыдущем разделе, ширина окна постоянна. Формально локальная линейная регрессия вычисляется путем решения взвешенной задачи наименьших квадратов.
Для одного измерения ( p = 1):
Решение в закрытой форме определяется следующим образом:
где:
Пример:
Полученная функция является гладкой, и проблема со смещенными граничными точками уменьшается.
Локальную линейную регрессию можно применять к любому размерному пространству, хотя вопрос о том, что такое локальная окрестность, становится более сложным. Обычно используется k ближайших точек обучения к контрольной точке, чтобы соответствовать локальной линейной регрессии. Это может привести к высокой дисперсии подобранной функции. Чтобы ограничить дисперсию, набор обучающих точек должен содержать тестовую точку в своей выпуклой оболочке (см. ссылку Гупта и др.).
Локальная полиномиальная регрессия
[ редактировать ]Вместо подгонки локально линейных функций можно подогнать полиномиальные функции.
При p=1 следует минимизировать:
с
В общем случае (p>1) следует минимизировать:
См. также
[ редактировать ]Ссылки
[ редактировать ]- Ли, К. и Дж. С. Расин. Непараметрическая эконометрика: теория и практика . Издательство Принстонского университета, 2007 г., ISBN 0-691-12161-3 .
- Т. Хасти, Р. Тибширани и Дж. Фридман, Элементы статистического обучения , глава 6, Springer, 2001. ISBN 0-387-95284-5 ( сайт сопутствующей книги ).
- М. Гупта, Э. Гарсия и Э. Чин, «Адаптивная локальная линейная регрессия с применением к управлению цветом принтера», IEEE Trans. Обработка изображений 2008.