Jump to content

Ядро более гладкое

Сглаживатель ядра - это статистический метод оценки действительной функции. как средневзвешенное значение соседних наблюдаемых данных. Вес определяется ядром , так что более близким точкам присваиваются более высокие веса. Оцениваемая функция является гладкой, а уровень гладкости задается одним параметром.Ядерное сглаживание — это разновидность взвешенной скользящей средней .

Определения

[ редактировать ]

Позволять быть ядром, определяемым

где:

  • это евклидова норма
  • это параметр (радиус ядра)
  • D ( t ) обычно является положительной вещественной функцией, значение которой уменьшается (или не увеличивается) с увеличением расстояния X и X0 между .

Популярные ядра, используемые для сглаживания, включают параболическое ядро ​​(Епанечникова), трехкубическое и гауссовское .

Позволять быть непрерывной функцией X . Для каждого средневзвешенное по ядру Надарая-Ватсона (гладкая оценка Y ( X )) определяется выражением

где:

  • N — количество наблюдаемых точек
  • Y ( X i ) — наблюдения в точках X i .

В следующих разделах мы опишем некоторые частные случаи сглаживателей ядра.

Гауссово ядро ​​более гладкое

[ редактировать ]

Ядро Гаусса является одним из наиболее широко используемых ядер и выражается уравнением, приведенным ниже.

Здесь b — масштаб длины входного пространства.

Ближайший сосед более плавный

[ редактировать ]

Идея сглаживания ближайшего соседа заключается в следующем. Для каждой точки X 0 возьмите m ближайших соседей и оцените значение Y ( X 0 ) путем усреднения значений этих соседей.

Формально, , где является m- м ближайшим к X 0 соседом, и

Пример:

В этом примере X является одномерным. Для каждого 0 X представляет собой среднее значение из 16 ближайших к X 0 баллов (обозначено красным).

Ядро в среднем более плавное

[ редактировать ]

Идея сглаживания среднего ядра заключается в следующем. Для каждой точки данных X 0 выберите постоянный размер расстояния λ (радиус ядра или ширину окна для измерения p = 1) и вычислите средневзвешенное значение для всех точек данных, которые находятся ближе, чем до X 0 (точки, расположенные ближе к X 0, получают больший вес).

Формально, и D ( t ) — одно из популярных ядер.

Пример:

Для каждого X 0 ширина окна постоянна, а вес каждой точки окна схематически обозначен желтой цифрой на графике. Видно, что оценка гладкая, но граничные точки смещены. Причиной тому является неодинаковое количество точек (справа и слева от X 0 ) в окне, когда X 0 находится достаточно близко к границе.

Локальная линейная регрессия

[ редактировать ]

В двух предыдущих разделах мы предполагали, что базовая функция Y(X) является локально постоянной, поэтому мы смогли использовать для оценки средневзвешенное значение. Идея локальной линейной регрессии состоит в том, чтобы локально соответствовать прямой линии (или гиперплоскости для более высоких измерений), а не константе (горизонтальной линии). После подгонки линии оценка обеспечивается значением этой линии в точке X 0 . Повторяя эту процедуру для каждого X 0 , можно получить оценочную функцию .Как и в предыдущем разделе, ширина окна постоянна. Формально локальная линейная регрессия вычисляется путем решения взвешенной задачи наименьших квадратов.

Для одного измерения ( p = 1):

Решение в закрытой форме определяется следующим образом:

где:

Пример:

Полученная функция является гладкой, и проблема со смещенными граничными точками уменьшается.

Локальную линейную регрессию можно применять к любому размерному пространству, хотя вопрос о том, что такое локальная окрестность, становится более сложным. Обычно используется k ближайших точек обучения к контрольной точке, чтобы соответствовать локальной линейной регрессии. Это может привести к высокой дисперсии подобранной функции. Чтобы ограничить дисперсию, набор обучающих точек должен содержать тестовую точку в своей выпуклой оболочке (см. ссылку Гупта и др.).

Локальная полиномиальная регрессия

[ редактировать ]

Вместо подгонки локально линейных функций можно подогнать полиномиальные функции.

При p=1 следует минимизировать:

с

В общем случае (p>1) следует минимизировать:

См. также

[ редактировать ]
  • Ли, К. и Дж. С. Расин. Непараметрическая эконометрика: теория и практика . Издательство Принстонского университета, 2007 г., ISBN   0-691-12161-3 .
  • Т. Хасти, Р. Тибширани и Дж. Фридман, Элементы статистического обучения , глава 6, Springer, 2001. ISBN   0-387-95284-5 ( сайт сопутствующей книги ).
  • М. Гупта, Э. Гарсия и Э. Чин, «Адаптивная локальная линейная регрессия с применением к управлению цветом принтера», IEEE Trans. Обработка изображений 2008.
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: fe78c6bb9caac221eb26642fe2e68a4d__1720992360
URL1:https://arc.ask3.ru/arc/aa/fe/4d/fe78c6bb9caac221eb26642fe2e68a4d.html
Заголовок, (Title) документа по адресу, URL1:
Kernel smoother - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)