Jump to content

Машина опорных векторов наименьших квадратов

Машины опорных векторов наименьших квадратов (LS-SVM) для статистики и статистического моделирования представляют собой (SVM) с методом наименьших квадратов версии машин опорных векторов , которые представляют собой набор связанных контролируемых методов обучения, которые анализируют данные и распознают закономерности, и которые используются для классификации и регрессионного анализа . В этой версии решение находится путем решения набора линейных уравнений вместо задачи выпуклого квадратичного программирования (QP) для классических SVM. Классификаторы SVM по методу наименьших квадратов были предложены Йоханом Суйкенсом и Йосом Вандевалле. [1] LS-SVM — это класс методов обучения на основе ядра .

От машины опорных векторов к машине опорных векторов наименьших квадратов

[ редактировать ]

Учитывая обучающий набор с входными данными и соответствующие метки двоичных классов , СВМ [2] классификатор, согласно оригинальной формулировке Вапника , удовлетворяет следующим условиям:

Данные спирали: для синей точки данных, для красной точки данных

что эквивалентно

где — это нелинейная карта исходного пространства в многомерное или бесконечномерное пространство.

Неотделимые данные

[ редактировать ]

В случае, если такой разделяющей гиперплоскости не существует, вводятся так называемые слабые переменные такой, что

Результат классификатора SVM

В соответствии с принципом минимизации структурного риска граница риска минимизируется с помощью следующей задачи минимизации:

Чтобы решить эту проблему, мы могли бы построить функцию Лагранжа :

где являются множителями Лагранжа . Оптимальная точка будет находиться в седле функции Лагранжа, и тогда получим

( 1 )

Подставив путем его выражения в лагранжиане, сформированном из соответствующей цели и ограничений, мы получим следующую задачу квадратичного программирования:

где называется функцией ядра . Решая эту задачу QP с учетом ограничений в ( 1 ), мы получим гиперплоскость в многомерном пространстве и, следовательно, классификатор в исходном пространстве.

Формулировка SVM по методу наименьших квадратов

[ редактировать ]

Версия классификатора SVM по методу наименьших квадратов получается путем переформулировки задачи минимизации как

с учетом ограничений равенства

Приведенная выше формулировка классификатора SVM наименьших квадратов (LS-SVM) неявно соответствует интерпретации регрессии с двоичными целевыми объектами. .

С использованием , у нас есть

с Обратите внимание, что эта ошибка также имеет смысл для аппроксимации данных методом наименьших квадратов, так что те же конечные результаты справедливы и для случая регрессии.

Следовательно, формулировка классификатора LS-SVM эквивалентна

с и

Результат классификатора LS-SVM

Оба и следует рассматривать как гиперпараметры для настройки степени регуляризации по сравнению с суммой квадратов ошибок. Решение зависит только от соотношения , поэтому в исходной формулировке используются только в качестве параметра настройки. Мы используем оба и в качестве параметров, чтобы обеспечить байесовскую интерпретацию LS-SVM.

Решение регрессора LS-SVM будет получено после построения функции Лагранжа :

где являются множителями Лагранжа. Условия оптимальности таковы.

Устранение и даст линейную систему вместо задачи квадратичного программирования :

с , и . Здесь, это единичная матрица и - матрица ядра, определенная формулой .

Функция ядра K

[ редактировать ]

Для функции ядра K (•, •) обычно есть следующие варианты:

  • Линейное ядро:
  • Полиномиальное ядро ​​степени :
  • Радиальная базисная функция ядра RBF:
  • Ядро MLP:

где , , , и являются константами. Обратите внимание, что условие Мерсера выполняется для всех и значения в случае полинома и RBF, но не для всех возможных вариантов выбора и по делу МЛП. Параметры шкалы , и определить масштабирование входных данных в полиномиальной, RBF и функции ядра MLP . Это масштабирование связано с пропускной способностью ядра в статистике , где показано, что пропускная способность является важным параметром поведения обобщения метода ядра.

Байесовская интерпретация LS-SVM

[ редактировать ]

Байесовская интерпретация SVM была предложена Смолой и др. Они показали, что использование разных ядер в SVM можно рассматривать как определение различных априорных распределений вероятностей в функциональном пространстве, а именно: . Здесь является константой и – оператор регуляризации, соответствующий выбранному ядру.

Общая байесовская система доказательств была разработана Маккеем. [3] [4] [5] и Маккей использовал его для решения проблемы регрессии, прямой нейронной сети и сети классификации. Предоставленный набор данных , модель с вектором параметров и так называемый гиперпараметр или параметр регуляризации Байесовский вывод строится с тремя уровнями вывода:

  • На уровне 1 для заданного значения , первый уровень вывода предполагает апостериорное распределение по байесовскому правилу
  • Второй уровень вывода определяет ценность , максимизируя
  • Третий уровень вывода в системе фактических данных ранжирует различные модели путем изучения их апостериорных вероятностей.

Мы видим, что байесовская структура доказательств представляет собой единую теорию обучения модели и выбора модели.Квок использовал байесовскую структуру доказательств для интерпретации формулировки SVM и выбора модели. И он также применил байесовскую систему доказательств для поддержки векторной регрессии.

Теперь, учитывая данные и гиперпараметры и модели , параметры модели и оцениваются путем максимизации апостериорного . Применяя правило Байеса, получаем

где — нормирующая константа, такая как интеграл по всем возможным и равен 1.Мы предполагаем и не зависят от гиперпараметра , и условно независимы, т. е. мы предполагаем

Когда , распределение будет приближаться к равномерному распределению. Кроме того, мы предполагаем и являются гауссовским распределением, поэтому мы получаем априорное распределение и с быть

Здесь - размерность пространства признаков, такая же, как размерность .

Вероятность предполагается, что оно зависит только от и . Мы предполагаем, что точки данных независимо одинаково распределены (iid), так что:

Чтобы получить функцию наименьших квадратов стоимости, предполагается, что вероятность точки данных пропорциональна:

Для ошибок взято гауссово распределение как:

Предполагается, что и определяются таким образом, что центры классов и сопоставляются с целью -1 и +1 соответственно. Прогнозы элементов класса следовать многомерному распределению Гаусса, которое имеет дисперсию .

Объединив предыдущие выражения и пренебрегая всеми константами, правило Байеса принимает вид

Максимальные оценки апостериорной плотности и затем получаются минимизацией отрицательного логарифма (26), поэтому мы приходим к (10).

  1. ^ Суйкенс, JAK; Вандевалле, Дж. (1999) «Классификаторы векторных машин, поддерживающие метод наименьших квадратов», Neural Processing Letters , 9 (3), 293–300.
  2. ^ Вапник, В. Природа статистической теории обучения. Спрингер-Верлаг, Нью-Йорк, 1995 г.
  3. ^ Маккей, DJC Байесовская интерполяция. Нейронные вычисления, 4 (3): 415–447, май 1992 г.
  4. ^ Маккей, DJC. Практическая байесовская структура для сетей обратного распространения ошибки. Нейронные вычисления, 4 (3): 448–472, май 1992 г.
  5. ^ Маккей, DJC. Структура доказательств, применяемая к классификационным сетям. Нейронные вычисления, 4 (5): 720–736, сентябрь 1992 г.

Библиография

[ редактировать ]
  • Дж. К. Суйкенс, Т. Ван Гестель, Дж. Де Брабантер, Б. Де Мур, Дж. Вандевалле, Машины опорных векторов наименьших квадратов, World Scientific Pub. Ко., Сингапур, 2002 г. ISBN   981-238-151-1
  • Суйкенс Дж. А. К., Вандевалле Дж., Классификаторы векторных машин, поддерживающие метод наименьших квадратов, Neural Processing Letters , vol. 9, нет. 3 июня 1999 г., стр. 293–300.
  • Владимир Вапник. Природа статистической теории обучения . Спрингер-Верлаг, 1995. ISBN   0-387-98780-0
  • Маккей, DJC, Вероятные сети и правдоподобные предсказания — обзор практических байесовских методов для контролируемых нейронных сетей. Сеть: Вычисления в нейронных системах , вып. 6, 1995, стр. 469–505.
[ редактировать ]
  • www.esat.kuleuven.be/sista/lssvmlab/ «Набор инструментов Лаборатории векторных машин с поддержкой наименьших квадратов (LS-SVMlab) содержит реализации Matlab/C для ряда алгоритмов LS-SVM».
  • www.kernel-machines.org «Машины опорных векторов и методы на основе ядра (Смола и Шёлкопф)».
  • www.gaussianprocess.org «Гауссовы процессы: моделирование данных с использованием априорных значений гауссовского процесса вместо функций регрессии и классификации (Маккей, Уильямс)».
  • www.support-vector.net «Машины опорных векторов и методы на основе ядра (Кристианини)».
  • dlib : содержит реализацию SVM метода наименьших квадратов для крупномасштабных наборов данных.
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: ea84fd2d27c92a42ea039aea6cf65d1c__1716347400
URL1:https://arc.ask3.ru/arc/aa/ea/1c/ea84fd2d27c92a42ea039aea6cf65d1c.html
Заголовок, (Title) документа по адресу, URL1:
Least-squares support vector machine - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)