Метод ядра
Часть серии о |
Машинное обучение и интеллектуальный анализ данных |
---|
В машинном обучении машины ядра — это класс алгоритмов анализа шаблонов , наиболее известным представителем которого является машина опорных векторов (SVM). Эти методы предполагают использование линейных классификаторов для решения нелинейных задач. [1] Общая задача анализа шаблонов — найти и изучить общие типы отношений (например, кластеры , рейтинги , главные компоненты , корреляции , классификации ) в наборах данных. Для многих алгоритмов, решающих эти задачи, данные в необработанном представлении должны быть явно преобразованы в представления вектора признаков с помощью заданной пользователем карты признаков : напротив, методы ядра требуют только заданного пользователем ядра , т. е. функции подобия по всем пары точек данных, вычисленные с использованием внутренних продуктов . требуется только конечномерная матрица, введенная пользователем Карта признаков в машинах с ядром является бесконечномерной, но согласно теореме о представителе . Машины ядра медленно вычисляют наборы данных размером более пары тысяч примеров без параллельной обработки.
Методы ядра обязаны своим названием использованию функций ядра , которые позволяют им работать в многомерном, неявном пространстве признаков, даже не вычисляя координаты данных в этом пространстве, а, скорее, просто вычисляя продукты между изображениями внутренние все пары данных в пространстве признаков. Эта операция часто вычислительно дешевле, чем явное вычисление координат. Этот подход называется « трюком ядра ». [2] Функции ядра были введены для данных последовательности, графиков , текста, изображений, а также векторов.
Алгоритмы, способные работать с ядрами, включают перцептрон ядра , машины опорных векторов (SVM), гауссовы процессы , анализ главных компонент (PCA), канонический корреляционный анализ , гребневую регрессию , спектральную кластеризацию , линейные адаптивные фильтры и многие другие.
Большинство алгоритмов ядра основаны на выпуклой оптимизации или собственных задачах и статистически обоснованы. Обычно их статистические свойства анализируются с помощью статистической теории обучения (например, с использованием сложности Радемахера ).
Мотивация неформальное объяснение и
Методы ядра можно рассматривать как методы обучения на основе экземпляров : вместо изучения некоторого фиксированного набора параметров, соответствующих характеристикам их входных данных, они вместо этого «запоминают» -й обучающий пример и узнаем для него соответствующий вес . Прогноз для немаркированных входных данных, т. е. тех, которые не входят в обучающий набор, обрабатывается применением функции подобия. , называемое ядром , между немаркированным входом и каждый из входных данных обучения . Например, ядерный двоичный классификатор обычно вычисляет взвешенную сумму сходств.
- - это прогнозируемая метка ядерного двоичного классификатора для немаркированного входа. чей скрытый истинный ярлык представляет интерес;
- это функция ядра, которая измеряет сходство между любой парой входных данных ;
- сумма варьируется по n помеченным примерам в обучающем наборе классификатора, с ;
- тот – веса обучающих примеров, определенные алгоритмом обучения;
- знаковая функция определяет, будет ли прогнозируемая классификация выходит положительным или отрицательным.
Ядерные классификаторы были описаны еще в 1960-х годах, с изобретением ядерного перцептрона . [3] Они приобрели большую известность благодаря популярности машины опорных векторов (SVM) в 1990-х годах, когда выяснилось, что SVM конкурирует с нейронными сетями в таких задачах, как распознавание рукописного текста .
Математика: трюк с ядром [ править ]
Трюк с ядром позволяет избежать явного отображения, которое необходимо, чтобы заставить алгоритмы линейного обучения изучать нелинейную функцию или границу решения . Для всех и во входном пространстве , определенные функции может быть выражено как внутренний продукт в другом пространстве . Функция часто называют ядром или функцией ядра . Слово «ядро» используется в математике для обозначения весовой функции для взвешенной суммы или интеграла .
Некоторые задачи машинного обучения имеют больше структуры, чем произвольная весовая функция. . Вычисления становятся намного проще, если ядро можно записать в виде «карты функций». который удовлетворяет
Теорема Мерсера похожа на обобщение результата линейной алгебры, которое сопоставляет скалярное произведение любой положительно определенной матрице . Фактически, условие Мерсера можно свести к этому более простому случаю. Если мы выберем в качестве меры счетную меру для всех , который подсчитывает количество точек внутри набора , то интеграл в теореме Мерсера сводится к суммированию
Некоторые алгоритмы, зависящие от произвольных отношений в собственном пространстве на самом деле имело бы линейную интерпретацию в другом контексте: в пространстве диапазонов . Линейная интерпретация дает нам представление об алгоритме. Кроме того, часто нет необходимости вычислять непосредственно во время вычислений, как в случае с машинами опорных векторов . Некоторые называют это сокращение времени работы основным преимуществом. Исследователи также используют его для обоснования значений и свойств существующих алгоритмов.
Теоретически матрица Грама относительно (иногда также называемая «матрицей ядра» [4] ), где , должен быть положительно полуопределенным (PSD) . [5] Эмпирически для эвристики машинного обучения выбор функции которые не удовлетворяют условию Мерсера, все равно могут работать разумно, если по крайней мере, приближается к интуитивному представлению о сходстве. [6] Независимо от того, это ядро Мерсера, все еще может называться «ядром».
Если функция ядра также является ковариационной функцией , используемой в гауссовских процессах , то матрица Грама также можно назвать ковариационной матрицей . [7]
Приложения [ править ]
Области применения ядерных методов разнообразны и включают в себя геостатистику , [8] кригинг , обратное дистанционное взвешивание , 3D реконструкция , биоинформатика , хемоинформатика , извлечение информации и распознавание рукописного текста .
Популярные ядра [ править ]
- Ядро Фишера
- Ядра графа
- Ядро более гладкое
- Полиномиальное ядро
- Ядро радиальной базисной функции (RBF)
- Строковые ядра
- Нейронное касательное ядро
- Ядро гауссовского процесса нейронной сети (NNGP)
См. также [ править ]
- Методы ядра для векторного вывода
- Оценка плотности ядра
- Представление теоремы
- Обучение по сходству
- Теорема Ковера
Ссылки [ править ]
- ^ «Метод ядра» . Энгати . Проверено 4 апреля 2023 г.
- ^ Теодоридис, Сергиос (2008). Распознавание образов . Эльзевир Б.В. с. 203. ИСБН 9780080949123 .
- ^ Айзерман, Массачусетс; Браверман, Эммануэль М.; Розоноер, Л.И. (1964). «Теоретические основы метода потенциальных функций в обучении распознаванию образов». Автоматизация и дистанционное управление . 25 : 821–837. Цитируется в Гийон, Изабель; Бозер, Б.; Вапник, Владимир (1993). Автоматическая настройка производительности очень больших классификаторов VC-размерности . Достижения в области нейронных систем обработки информации. CiteSeerX 10.1.1.17.7215 .
- ^ Хофманн, Томас; Шолькопф, Бернхард; Смола, Александр Дж. (2008). «Методы ядра в машинном обучении» . Анналы статистики . 36 (3). arXiv : математика/0701907 . дои : 10.1214/009053607000000677 . S2CID 88516979 .
- ^ Мори, Мехриар ; Ростамизаде, Афшин; Талвалкар, Амит (2012). Основы машинного обучения . США, Массачусетс: MIT Press. ISBN 9780262018258 .
- ^ Сьюэлл, Мартин. «Машины опорных векторов: состояние Мерсера» . Машины опорных векторов. Архивировано из оригинала 15 октября 2018 г. Проверено 30 мая 2014 г.
- ^ Расмуссен, Карл Эдвард; Уильямс, Кристофер К.И. (2006). Гауссовы процессы для машинного обучения . МТИ Пресс. ISBN 0-262-18253-Х . [ нужна страница ]
- ^ Хонарха, М.; Каерс, Дж. (2010). «Стохастическое моделирование закономерностей с использованием дистанционного моделирования закономерностей». Математические науки о Земле . 42 (5): 487–517. Бибкод : 2010MaGeo..42..487H . дои : 10.1007/s11004-010-9276-7 . S2CID 73657847 .
Дальнейшее чтение [ править ]
- Шоу-Тейлор, Дж .; Кристианини, Н. (2004). Ядерные методы анализа закономерностей . Издательство Кембриджского университета.
- Лю, В.; Принсипи, Дж.; Хайкин, С. (2010). Адаптивная фильтрация ядра: подробное введение . Уайли. ISBN 9781118211212 .
- Шёлкопф, Б .; Смола, Эй Джей; Бах, Ф. (2018). Обучение с помощью ядер: машины опорных векторов, регуляризация, оптимизация и многое другое . МТИ Пресс. ISBN 978-0-262-53657-8 .
Внешние ссылки [ править ]
- Kernel-Machines Org — веб-сайт сообщества
- Статья на сайте onlineprediction.net о методах ядра