Регрессия ядра
В статистике — ядерная регрессия это непараметрический метод оценки условного ожидания случайной величины . чтобы найти нелинейную связь между парой случайных величин X и Y. Цель состоит в том ,
В любой непараметрической регрессии условное ожидание переменной относительно переменной можно написать:
где это неизвестная функция.
- Ватсона Регрессия ядра Надарая
Надарая и Уотсон в 1964 году предложили оценить как локально взвешенное среднее с использованием ядра в качестве весовой функции. [1] [2] [3] Оценщик Надарая-Ватсона:
где это ядро с пропускной способностью такой, что имеет порядок не менее 1, то есть .
Вывод [ править ]
Начнем с определения условного ожидания .
мы оцениваем совместные распределения f ( x , y ) и f ( x ), используя оценку плотности ядра с ядром K :
Мы получаем:
что является оценщиком Надарайи – Ватсона.
Оценщик ядра Пристли – Чао [ править ]
где — это полоса пропускания (или параметр сглаживания).
Оценка ядра Гассера-Мюллера [ править ]
где [4]
Пример [ править ]
Этот пример основан на перекрестных данных о заработной плате в Канаде, состоящих из случайной выборки, взятой из записей публичного использования Канадской переписи населения 1971 года для лиц мужского пола, имеющих общее образование (13 класс). Всего 205 наблюдений. [ нужна ссылка ]
На рисунке справа показана оцененная функция регрессии с использованием ядра Гаусса второго порядка вместе с асимптотическими границами изменчивости.
Пример сценария [ править ]
Следующие команды языка программирования R используют npreg()
функция для обеспечения оптимального сглаживания и создания фигуры, приведенной выше. Эти команды можно вводить в командной строке с помощью вырезания и вставки.
install.packages("np")
library(np) # non parametric library
data(cps71)
attach(cps71)
m <- npreg(logwage~age)
plot(m, plot.errors.method="asymptotic",
plot.errors.style="band",
ylim=c(11, 15.2))
points(age, logwage, cex=.25)
detach(cps71)
Похожие [ править ]
По словам Дэвида Сальсбурга , алгоритмы, используемые в ядерной регрессии, были независимо разработаны и использовались в нечетких системах : «Поскольку придуманы почти одинаковые компьютерные алгоритмы, нечеткие системы и регрессии на основе плотности ядра, по-видимому, были разработаны совершенно независимо друг от друга. " [5]
реализация Статистическая
- GNU Octave Пакет математических программ
- Юлия : KernelEstimator.jl
- MATLAB доступен бесплатный набор инструментов MATLAB с реализацией регрессии ядра, оценкой плотности ядра, оценкой функции риска и многими другими : на этих страницах (этот набор инструментов является частью книги). [6] ).
- Питон :
KernelReg
класс для смешанных типов данных вstatsmodels.nonparametric
подпакет (включает другие классы, связанные с плотностью ядра), пакет kernel_reгрессия как расширение scikit-learn (неэффективно с точки зрения памяти, полезно только для небольших наборов данных) - Р : функция
npreg
пакета np может выполнять регрессию ядра. [7] [8] - Стата : npregress , kernreg2.
См. также [ править ]
Ссылки [ править ]
- ^ Надарая, Э.А. (1964). «Об оценке регрессии». Теория вероятностей и ее приложения . 9 (1): 141–2. дои : 10.1137/1109020 .
- ^ Уотсон, GS (1964). «Гладкий регрессионный анализ». Санкхья: Индийский статистический журнал, серия A. 26 (4): 359–372. JSTOR 25049340 .
- ^ Биренс, Герман Дж. (1994). «Оценщик функции регрессии ядра Надарая – Ватсона» . Темы углубленной эконометрики . Нью-Йорк: Издательство Кембриджского университета. стр. 212–247. ISBN 0-521-41900-Х .
- ^ Гассер, Тео; Мюллер, Ханс-Георг (1979). «Ядерная оценка функций регрессии». Методы сглаживания для оценки кривой (Proc. Workshop, Гейдельберг, 1979) . Конспект лекций по математике. Том. 757. Шпрингер, Берлин. стр. 23–68. ISBN 3-540-09706-6 . МР 0564251 .
- ^ Зальсбург, Д. (2002). Женщина, дегустирующая чай: как статистика произвела революцию в науке в двадцатом веке . У. Х. Фриман. стр. 290–91. ISBN 0-8050-7134-2 .
- ^ Горова, И.; Колачек Ю.; Зелинка, Дж. (2012). Ядерное сглаживание в MATLAB: Теория и практика ядерного сглаживания . Сингапур: Мировое научное издательство. ISBN 978-981-4405-48-5 .
- ^ np : Непараметрические методы сглаживания ядра для смешанных типов данных.
- ^ Клок, Джон; Маккин, Джозеф В. (2014). Непараметрические статистические методы, использующие R. ЦРК Пресс. стр. 98–106. ISBN 978-1-4398-7343-4 .
Дальнейшее чтение [ править ]
- Хендерсон, Дэниел Дж.; Парметр, Кристофер Ф. (2015). Прикладная непараметрическая эконометрика . Издательство Кембриджского университета. ISBN 978-1-107-01025-3 .
- Ли, Ци; Расин, Джеффри С. (2007). Непараметрическая эконометрика: теория и практика . Издательство Принстонского университета. ISBN 978-0-691-12161-1 .
- Пэган, А.; Улла, А. (1999). Непараметрическая эконометрика . Издательство Кембриджского университета. ISBN 0-521-35564-8 .
- Расин, Джеффри С. (2019). Введение в продвинутую теорию и практику непараметрической эконометрики: воспроизводимый подход с использованием R . Издательство Кембриджского университета. ISBN 9781108483407 .
- Симонов, Джеффри С. (1996). Методы сглаживания в статистике . Спрингер. ISBN 0-387-94716-7 .
Внешние ссылки [ править ]
- Масштабно-адаптивная регрессия ядра (с программным обеспечением Matlab).
- Учебное пособие по регрессии ядра с использованием электронной таблицы (с Microsoft Excel ).
- Онлайн-демонстрация регрессии ядра . Требуется .NET 3.0 или более поздняя версия.
- Регрессия ядра с автоматическим выбором полосы пропускания (с Python)