Интуитивно понятно, что идея LDA состоит в том, чтобы найти проекцию, в которой разделение классов будет максимальным. Учитывая два набора помеченных данных, и , мы можем вычислить среднее значение каждого класса, и , как
где количество примеров класса . Цель линейного дискриминантного анализа — обеспечить большое разделение средних классов, сохраняя при этом небольшую дисперсию внутри класса. [4] Это формулируется как максимизация по отношению к , следующее соотношение:
где - ковариационная матрица между классами и — общая ковариационная матрица внутри класса:
Чтобы расширить LDA до нелинейных отображений, данные в виде очки могут быть сопоставлены с новым пространством объектов, через какую-то функцию В этом новом пространстве функций функция, которую необходимо максимизировать, равна [1]
где
и
Далее, обратите внимание, что . Явное вычисление отображений и тогда выполнение LDA может оказаться дорогостоящим в вычислительном отношении и во многих случаях неразрешимым. Например, может быть бесконечномерным. Таким образом, вместо того, чтобы явно сопоставлять данные с данные могут быть неявно внедрены путем переписывания алгоритма с использованием скалярных произведений и использования функций ядра, в которых скалярное произведение в новом пространстве признаков заменяется функцией ядра, .
LDA можно переформулировать в терминах скалярного произведения, заметив сначала, что будет иметь расширениеформа [5]
Тогда обратите внимание, что
где
Числитель тогда можно записать как:
Аналогично знаменатель можно записать как
с компонент определяется как - единичная матрица, и матрица со всеми элементами, равными . Это тождество можно получить, начав с выражения для и используя расширение и определения и
Используя эти уравнения для числителя и знаменателя , уравнение для можно переписать как
Тогда дифференцирование и приравнивание к нулю дает
Поскольку только направление , а, следовательно, и направление вопросы, вышеизложенное может быть решено для как
Обратите внимание, что на практике обычно имеет единственное число, поэтому к нему добавляется кратное тождеству [1]
Учитывая решение для , проекция новой точки данных определяется выражением [1]
Распространение на случаи, когда существует более двух классов, относительно просто. [2] [6] [7] Позволять быть числом классов. Затем многоклассовый KFD предполагает проецирование данных в -мерное пространство с использованием дискриминантные функции
Это можно записать в матричной записи
где это столбцы . [6] Кроме того, ковариационная матрица между классами теперь имеет вид
где является средним значением всех данных в новом пространстве признаков. Ковариационная матрица внутри класса:
Решение теперь получается путем максимизации
Снова можно использовать трюк с ядром, и цель многоклассового KFD становится [7]
где и
The определяются, как в предыдущем разделе, и определяется как
затем можно вычислить, найдя ведущие собственные векторы . [7] Кроме того, проекция нового входа, , определяется [7]
^ Jump up to: а б Дуда, Р.; Харт, П.; Сторк, Д. (2001). Классификация шаблонов . Нью-Йорк, штат Нью-Йорк: Уайли.
^ Jump up to: а б с д и Чжан, Дж.; Ма, К.К. (2004). «Дискриминант ядра Фишера для классификации текстур». {{cite journal}}: Для цитирования журнала требуется |journal= ( помощь )
^ Лю, К.; Лу, Х.; Ма, С. (2004). «Улучшение ядра дискриминантного анализа Фишера для распознавания лиц». Транзакции IEEE по схемам и системам видеотехнологий . 14 (1): 42–49. дои : 10.1109/tcsvt.2003.818352 . S2CID 39657721 .
^ Лю, К.; Хуанг, Р.; Лу, Х.; Ма, С. (2002). «Распознавание лиц с использованием дискриминантного анализа Фишера на основе ядра». Международная конференция IEEE по автоматическому распознаванию лиц и жестов .
^ Фэн, Ю.; Ши, П. (2004). «Обнаружение лиц на основе дискриминантного анализа ядра Фишера». Международная конференция IEEE по автоматическому распознаванию лиц и жестов .
^ Ван, Ю.; Руан, К. (2006). «Дискриминантный анализ ядра Фишера для распознавания отпечатков ладоней». Международная конференция по распознаванию образов .
^ Вэй, Л.; Ян, Ю.; Нисикава, РМ; Цзян, Ю. (2005). «Исследование нескольких методов машинного обучения для классификации злокачественных и доброкачественных кластерных микрокальцификаций». Транзакции IEEE по медицинской визуализации . 24 (3): 371–380. дои : 10.1109/tmi.2004.842457 . ПМИД 15754987 . S2CID 36691320 .
Arc.Ask3.Ru Номер скриншота №: 619986c710a703941ea5e1fcafe9efe4__1719054960 URL1:https://arc.ask3.ru/arc/aa/61/e4/619986c710a703941ea5e1fcafe9efe4.html Заголовок, (Title) документа по адресу, URL1: Kernel Fisher discriminant analysis - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)