Jump to content

Анализ главных компонентов ядра

В области многомерной статистики анализ главных компонент ядра (kernel PCA) [1] является расширением анализа главных компонент (PCA) с использованием методов методов ядра . С помощью ядра первоначально линейные операции PCA выполняются в воспроизводящем ядерном гильбертовом пространстве .

Предыстория: линейный PCA

[ редактировать ]

Напомним, что обычный PCA работает с данными с нулевым центром; то есть,

,

где является одним из многомерные наблюдения.Он работает путем диагонализации ковариационной матрицы ,

другими словами, он дает собственное разложение ковариационной матрицы:

который можно переписать как

. [2]

(См. также: Ковариационная матрица как линейный оператор )

Введение ядра в PCA

[ редактировать ]

Чтобы понять полезность ядра PCA, особенно для кластеризации, обратите внимание, что, хотя N точек, как правило, не могут быть линейно разделены в измерениях, их почти всегда можно линейно разделить по размеры. То есть, учитывая N баллов, , если мы отобразим их в N -мерное пространство с

где ,

легко построить гиперплоскость , разделяющую точки на произвольные кластеры. Конечно, это создает линейно независимые векторы, поэтому нет никакой ковариации, по которой можно было бы явно выполнить собственное разложение , как в линейном PCA.

Вместо этого в ядре PCA нетривиальный, произвольный «выбирается» функция, которая никогда не вычисляется явно, что дает возможность использовать очень многомерные значения. если нам никогда не придется фактически оценивать данные в этом пространстве. Поскольку мы обычно стараемся избегать работы в -space, которое мы назовем «пространством функций», мы можем создать ядро ​​N на N.

которое представляет собой внутреннее пространство продукта (см. матрицу Грамиана ) трудноразрешимого в противном случае пространства признаков. Двойственная форма, возникающая при создании ядра, позволяет нам математически сформулировать версию PCA, в которой мы фактически никогда не решаем собственные векторы и собственные значения ковариационной матрицы в -space (см. трюк с ядром ). N-элементы в каждом столбце K представляют собой скалярное произведение одной точки преобразованных данных относительно всех преобразованных точек (N точек). Некоторые известные ядра показаны в примере ниже.

Поскольку мы никогда не работаем непосредственно в пространстве признаков, формулировка ядра PCA ограничена тем, что она вычисляет не сами основные компоненты, а проекции наших данных на эти компоненты. Чтобы оценить проекцию из точки в пространстве объектов на k-ю главную компоненту (где верхний индекс k означает компонент k, а не степени k)

Мы отмечаем, что обозначает скалярное произведение, которое представляет собой просто элементы ядра . Кажется, осталось только вычислить и нормализовать , что можно сделать, решив уравнение на собственный вектор

где - количество точек данных в наборе, а и являются собственными значениями и собственными векторами . Затем для нормализации собственных векторов , мы требуем этого

Необходимо учитывать тот факт, что независимо от того, имеет нулевое среднее в исходном пространстве, его центрирование не гарантируется в пространстве признаков (которое мы никогда не вычисляем явно). Поскольку для выполнения эффективного анализа главных компонент необходимы центрированные данные, мы « централизуем » стать

где обозначает матрицу размера N на N, для которой каждый элемент принимает значение . Мы используем для выполнения алгоритма ядра PCA, описанного выше.

Здесь следует проиллюстрировать одно предостережение относительно ядра PCA. В линейном PCA мы можем использовать собственные значения для ранжирования собственных векторов в зависимости от того, какая часть изменений данных захватывается каждым главным компонентом. Это полезно для уменьшения размерности данных, а также может быть применено к KPCA. Однако на практике бывают случаи, когда все варианты данных одинаковы. Обычно это вызвано неправильным выбором масштаба ядра.

Большие наборы данных

[ редактировать ]

На практике большой набор данных приводит к большому K, и хранение K может стать проблемой. Один из способов справиться с этой проблемой — выполнить кластеризацию набора данных и заполнить ядро ​​средствами этих кластеров. Поскольку даже этот метод может дать относительно большое значение K, обычно вычисляются только верхние собственные значения P, а собственные векторы собственных значений вычисляются таким образом.

Точки ввода перед ядром PCA

Рассмотрим три концентрических облака точек (показано); мы хотим использовать ядро ​​PCA для идентификации этих групп. Цвет точек не представляет информацию, используемую в алгоритме, а только показывает, как преобразование перемещает точки данных.

Сначала рассмотрим ядро

Применение этого к PCA ядра дает следующее изображение.

Вывод после PCA ядра с . Эти три группы можно различить только по первому компоненту.

Теперь рассмотрим гауссово ядро:

То есть это ядро ​​является мерой близости, равной 1 при совпадении точек и равной 0 на бесконечности.

Вывод после ядра PCA с гауссовским ядром.

Обратите внимание, в частности, что первого главного компонента достаточно, чтобы различить три разные группы, что невозможно при использовании только линейного PCA, поскольку линейный PCA работает только в заданном (в данном случае двумерном) пространстве, в котором эти концентрические облака точек являются не является линейно разделимым.

Приложения

[ редактировать ]

Было продемонстрировано, что Kernel PCA полезен для обнаружения новинок. [3] и шумоподавление изображения. [4]

См. также

[ редактировать ]
  1. ^ Шёлкопф, Бернхард; Смола, Алекс; Мюллер, Клаус-Роберт (1998). «Анализ нелинейных компонентов как проблема собственных значений ядра». Нейронные вычисления . 10 (5): 1299–1319. CiteSeerX   10.1.1.100.3636 . дои : 10.1162/089976698300017467 . S2CID   6674407 .
  2. ^ Шолькопф, Бернхард; Смола, Александр; Мюллер, Клаус-Роберт (декабрь 1996 г.). Нелинейный анализ компонентов как проблема собственных значений ядра (PDF) (Технический отчет). Институт биологической кибернетики Макса Планка. 44.
  3. ^ Хоффманн, Хейко (2007). «Ядро PCA для обнаружения новинок» . Распознавание образов . 40 (3): 863–874. Бибкод : 2007PatRe..40..863H . дои : 10.1016/j.patcog.2006.07.009 .
  4. ^ PCA ядра и шумоподавление в пространствах функций. НИПС, 1999 г.
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: c7028ecdc57e98342d68bea06b009763__1716085020
URL1:https://arc.ask3.ru/arc/aa/c7/63/c7028ecdc57e98342d68bea06b009763.html
Заголовок, (Title) документа по адресу, URL1:
Kernel principal component analysis - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)