Регуляризованные наименьшие квадраты
Эту статью следует резюмировать в разделе «Наименьшие квадраты#Регуляризация» и предоставить ссылку оттуда сюда с помощью {{Main}} шаблон. ( ноябрь 2020 г. ) |
Часть серии о |
Регрессионный анализ |
---|
Модели |
Оценка |
Фон |
Регуляризованный метод наименьших квадратов ( RLS ) — это семейство методов решения задачи наименьших квадратов с использованием регуляризации для дальнейшего ограничения получаемого решения.
RLS используется по двум основным причинам. Первый возникает, когда количество переменных в линейной системе превышает количество наблюдений. В таких условиях обычная задача наименьших квадратов является некорректной и, следовательно, ее невозможно подогнать, поскольку соответствующая задача оптимизации имеет бесконечно много решений. RLS позволяет вводить дополнительные ограничения, которые однозначно определяют решение.
Вторая причина использования RLS возникает, когда изученная модель страдает плохой генерализацией . В таких случаях можно использовать RLS для улучшения обобщаемости модели путем ограничения ее во время обучения. Это ограничение может либо привести к тому, что решение будет каким-то образом «разреженным», либо отразить другие предварительные знания о проблеме, такие как информация о корреляциях между функциями. Байесовского априорным понимания этого можно достичь, показав, что методы RLS часто эквивалентны решениям задачи наименьших квадратов.
Общая формулировка
[ редактировать ]Рассмотрим настройку обучения, заданную вероятностным пространством. , . Позволять обозначаем обучающий набор пары iid относительно . Позволять быть функцией потерь. Определять как пространство функций таких, что ожидаемый риск: хорошо определен.Основная цель – минимизировать ожидаемый риск: Поскольку задача не может быть решена точно, необходимо указать, как измерить качество решения. Хороший алгоритм обучения должен обеспечивать оценщику небольшой риск.
По мере совместного распределения обычно неизвестен, принимается эмпирический риск. Для регуляризованного метода наименьших квадратов вводится функция квадратичных потерь:
Однако, если функции взяты из относительно неограниченного пространства, такого как набор интегрируемых с квадратом функций на , этот подход может не соответствовать обучающим данным и привести к плохому обобщению. Таким образом, он должен каким-то образом ограничивать или наказывать сложность функции. . В RLS это достигается путем выбора функций из воспроизводящего ядра гильбертова пространства (RKHS). и добавление члена регуляризации к целевой функции, пропорционального норме функции в :
Формулировка ядра
[ редактировать ]Определение РКХС
[ редактировать ]RKHS может быть определен симметричной положительно определенной ядерной функцией. с воспроизводящим свойством: где . RKHS для ядра состоит из пополнения пространства функций, натянутого на : , где все являются действительными числами. Некоторые часто используемые ядра включают линейное ядро, индуцирующее пространство линейных функций: полиномиальное ядро, индуцирующее пространство полиномиальных функций порядка : и гауссово ядро:
Заметим, что для произвольной функции потерь Этот подход определяет общий класс алгоритмов, называемый регуляризацией Тихонова. Например, использование потери шарнира приводит к алгоритму машины опорных векторов , а использование потерь, нечувствительных к эпсилону, приводит к регрессии опорных векторов .
Произвольное ядро
[ редактировать ]Теорема о представителе гарантирует, что решение можно записать как: для некоторых .
Задачу минимизации можно выразить так: где, с некоторым злоупотреблением обозначениями, ввод матрицы ядра (в отличие от функции ядра ) является .
Для такой функции
Можно получить следующую задачу минимизации:
Поскольку сумма выпуклых функций выпукла, решение единственное, и его минимум можно найти, задав градиент по отношению к к : где
Сложность
[ редактировать ]Сложность обучения — это, по сути, стоимость вычисления матрицы ядра плюс стоимость решения линейной системы, которая примерно равна . Вычисление матрицы ядра для линейного или гауссовского ядра : . Сложность тестирования составляет .
Прогноз
[ редактировать ]Прогноз на новой контрольной точке является:
Линейное ядро
[ редактировать ]Для удобства введено векторное обозначение. Позволять быть матрица, где строки являются входными векторами, и а вектор, где записи являются соответствующими выходными данными. В терминах векторов матрицу ядра можно записать как . Функцию обучения можно записать как:
Здесь мы определяем . Целевую функцию можно переписать как:
Первый член — это целевая функция обычной регрессии наименьших квадратов (OLS), соответствующая остаточной сумме квадратов . Второй термин — это термин регуляризации, которого нет в МНК, что накладывает большие штрафы. ценности.Поскольку рассматривается гладкая конечномерная задача и возможно применение стандартных инструментов исчисления. Чтобы минимизировать целевую функцию, градиент рассчитывается по отношению к и установите его на ноль:
Это решение очень похоже на решение стандартной линейной регрессии с дополнительным членом . Если предположения регрессии МНК верны, решение , с , является несмещенной оценкой и является линейной несмещенной оценкой с минимальной дисперсией согласно теореме Гаусса – Маркова . Термин следовательно, приводит к предвзятому решению; однако это также имеет тенденцию уменьшать дисперсию. В этом легко убедиться, поскольку ковариационная матрица -значения пропорциональны , и, следовательно, большие значения приведет к снижению дисперсии. Поэтому манипулирование соответствует смещению и дисперсии компромисса. Для проблем с высокой дисперсией оценки, например, случаи с относительно небольшими или с помощью коррелированных регрессоров оптимальная точность прогнозирования может быть получена с использованием ненулевого и, таким образом, внося некоторую предвзятость для уменьшения дисперсии. нередко Кроме того, в машинном обучении встречаются случаи, когда , в этом случае имеет дефектный ранг и является ненулевым необходимо вычислить .
Сложность
[ редактировать ]Параметр контролирует обратимость матрицы .Для решения указанной выше линейной системы можно использовать несколько методов, причем разложение Холецкого, вероятно, является методом выбора, поскольку матрица симметричен и . положительно определен Сложность этого метода для обучения и для тестирования. Стоимость по сути, это вычисления , тогда как обратное вычисление (или, скорее, решение линейной системы) примерно .
Карты признаков и теорема Мерсера
[ редактировать ]В этом разделе будет показано, как расширить RLS до любого вида воспроизводящего ядра K. Вместо линейного ядра рассматривается карта признаков. для некоторого гильбертова пространства , называемое пространством признаков. В этом случае ядро определяется как: Матрица теперь заменяется новой матрицей данных , где или -й компонент . Это означает, что для данного обучающего набора . Таким образом, целевую функцию можно записать в виде
Этот подход известен как трюк с ядром . Этот прием позволяет существенно упростить вычислительные операции. Если является многомерным, вычислительным может быть довольно интенсивным. Если явный вид функции ядра известен, нам просто нужно вычислить и сохранить матрица ядра .
Действительно, гильбертово пространство не обязательно должен быть изоморфен , и может быть бесконечномерным. Это следует из теоремы Мерсера , которая утверждает, что непрерывная, симметричная, положительно определенная ядерная функция может быть выражена как где образуют ортонормированный базис для , и . Если определены карты объектов с компонентами , отсюда следует, что . Это демонстрирует, что любое ядро может быть связано с картой признаков и что RLS обычно состоит из линейных RLS, выполняемых в некотором, возможно, многомерном пространстве признаков. Хотя теорема Мерсера показывает, как одна карта признаков может быть связана с ядром, на самом деле с данным воспроизводящим ядром могут быть связаны несколько карт признаков. Например, карта удовлетворяет свойство для произвольного воспроизводящего ядра.
Байесовская интерпретация
[ редактировать ]Метод наименьших квадратов можно рассматривать как максимизацию правдоподобия при допущении нормального распределения остатков. Это связано с тем, что показатель степени распределения Гаусса в данных является квадратичным, как и целевая функция метода наименьших квадратов. В этой структуре термины регуляризации RLS можно понимать как кодирование априорных значений . Например, регуляризация Тихонова соответствует нормально распределенному априорному значению с центром в 0. Чтобы увидеть это, сначала обратите внимание, что цель МНК пропорциональна функции логарифмического правдоподобия при каждой выборке обычно распределяется вокруг . Затем заметьте, что нормальный априор с центром в 0 имеет логарифмическую вероятность вида где и являются константами, которые зависят от дисперсии априорного значения и не зависят от . Таким образом, минимизация логарифма вероятности, умноженная на априорную величину, эквивалентна минимизации суммы функции потерь МНК и члена регуляризации гребневой регрессии.
Это дает более интуитивную интерпретацию того, почему регуляризация Тихонова приводит к единственному решению задачи наименьших квадратов: существует бесконечно много векторов. удовлетворяющие ограничениям, полученным из данных, но поскольку мы подходим к проблеме с априорным убеждением, что обычно распределяется вокруг начала координат, в конечном итоге мы выберем решение с учетом этого ограничения.
Другие методы регуляризации соответствуют другим априорным значениям. смотрите в списке Более подробную информацию ниже.
Конкретные примеры
[ редактировать ]Ридж-регрессия (или регуляризация Тихонова)
[ редактировать ]Один особенно распространенный выбор штрафной функции. это квадрат норма , т.е. Наиболее распространенные названия этого метода — регуляризация Тихонова и регрессия гребня .Он допускает решение в замкнутой форме для : Название «гребневая регрессия» намекает на тот факт, что термин добавляет положительные записи вдоль диагонального «гребня» выборочной ковариационной матрицы. .
Когда , т. е. в случае обычных наименьших квадратов условие, что вызывает выборочную ковариационную матрицу не иметь полного ранга и поэтому его нельзя инвертировать для получения уникального решения. Вот почему может существовать бесконечное количество решений обычной задачи наименьших квадратов, когда . Однако, когда , т. е. при использовании гребневой регрессии добавление к выборочной ковариационной матрице гарантирует, что все ее собственные значения будут строго больше 0. Другими словами, она становится обратимой, и решение становится уникальным.
По сравнению с обычным методом наименьших квадратов, гребневая регрессия не является несмещенной. Он допускает смещение, чтобы уменьшить дисперсию и среднеквадратическую ошибку .
Лассо-регрессия
[ редактировать ]Еще одним популярным выбором является метод наименьшего абсолютного отбора и усадки (LASSO). В лассо-регрессии функция штрафа лассо это норма , т.е.
Обратите внимание, что штрафная функция лассо является выпуклой, но не строго выпуклой.В отличие от регуляризации Тихонова , эта схема не имеет удобного решения в замкнутой форме: вместо этого решение обычно находится с помощью квадратичного программирования или более общих методов выпуклой оптимизации , а также с помощью конкретных алгоритмов, таких как алгоритм регрессии наименьшего угла .
Важное различие между лассо-регрессией и регуляризацией Тихонова состоит в том, что лассо-регрессия требует большего количества записей фактически равняться 0, чем было бы в противном случае. Напротив, хотя регуляризация Тихонова приводит к введению чтобы быть маленькими, это не приводит к тому, что большее количество из них становится равным 0, чем было бы в противном случае. Таким образом, регуляризация LASSO более подходит, чем регуляризация Тихонова, в тех случаях, когда мы ожидаем, что количество ненулевых записей быть небольшим, и регуляризация Тихонова более уместна, когда мы ожидаем, что записи обычно будет небольшим, но не обязательно нулевым. Какой из этих режимов более актуален, зависит от конкретного набора имеющихся данных.
Помимо описанного выше выбора функций, LASSO имеет некоторые ограничения. Ридж-регрессия обеспечивает лучшую точность в случае для сильно коррелирующих переменных. [1] В другом случае , ЛАССО выбирает не более переменные. Более того, LASSO имеет тенденцию выбирать некоторые произвольные переменные из группы сильно коррелированных выборок, поэтому эффекта группировки нет.
ℓ 0 Пенализация
[ редактировать ]Самый крайний способ обеспечить разреженность — это сказать, что фактическая величина коэффициентов не имеет значения; скорее, единственное, что определяет сложность количество ненулевых записей. Это соответствует настройке быть норма . Эту функцию регуляризации, хотя она и привлекательна из-за гарантированной разреженности, очень сложно решить, поскольку для этого требуется оптимизация функции, которая даже не является слабо выпуклой . Лассо-регрессия – это минимально возможное расслабление штраф, что приводит к слабо выпуклой задаче оптимизации.
Эластичная сетка
[ редактировать ]Для любого неотрицательного и цель имеет следующий вид:
Позволять , то решение задачи минимизации описывается как: для некоторых .
Учитывать как штрафная функция Elastic Net.
Когда эластичная сеть становится гребневой регрессией, тогда как оно становится Лассо. Штрафная функция Elastic Net не имеет первой производной в 0 и строго выпукла. принимая свойства как лассо-регрессии, так и гребневой регрессии .
Одним из основных свойств Elastic Net является то, что она может выбирать группы коррелирующих переменных. Разница между весовыми векторами выборок и дается: где . [2]
Если и сильно коррелируют ( ), весовые векторы очень близки. В случае отрицательно коррелированных выборок ( ) образцы можно взять. Подводя итог, можно сказать, что для сильно коррелированных переменных весовые векторы имеют тенденцию быть равными с точностью до знака в случае отрицательно коррелированных переменных.
Неполный список методов RLS
[ редактировать ]Ниже приводится список возможных вариантов выбора функции регуляризации. , а также имя каждого из них, соответствующий априор, если он есть простой, и способы вычисления решения полученной задачи оптимизации.
Имя | Функция регуляризации | Соответствующий предыдущий | Методы решения |
---|---|---|---|
Tikhonov regularization | Нормальный | Закрытая форма | |
Лассо-регрессия | Лаплас | Проксимальный градиентный спуск , регрессия по наименьшему углу | |
штраф | – | Прямой выбор , обратное исключение , использование априорных значений, таких как шип и плита. | |
Эластичные сетки | Нормальная смесь и смесь Лапласа | Проксимальный градиентный спуск | |
Полная вариационная регуляризация | – | Метод Сплита-Брегмана и др. |
См. также
[ редактировать ]- Наименьшие квадраты
- Регуляризация в математике.
- Ошибка обобщения , одна из причин использования регуляризации.
- Tikhonov regularization
- Лассо-регрессия
- Эластичная чистая регуляризация
- Регрессия по наименьшему углу
Ссылки
[ редактировать ]- ^ Тибширани Роберт (1996). «Регрессионное сокращение и отбор с помощью лассо» (PDF) . Журнал Королевского статистического общества, серия B. 58 : стр. 266–288.
- ^ Хуэй, Цзоу ; Хасти, Тревор (2003). «Регуляризация и выбор переменных с помощью эластичной сети» (PDF) . Журнал Королевского статистического общества, серия B. 67 (2): стр. 301–320.