Лассо (статистика)
В статистике и машинном обучении лассо ( оператор наименьшего абсолютного сжатия и выбора ; также лассо или LASSO ) — это метод регрессионного анализа , который выполняет как выбор переменных, так и регуляризацию, чтобы повысить точность прогнозирования и интерпретируемость полученной статистической модели . Метод лассо предполагает, что коэффициенты линейной модели редки, а это означает, что некоторые из них не равны нулю. Первоначально он был введен в геофизику , [1] и позже Робертом Тибширани , [2] кто придумал этот термин.
Первоначально Лассо было сформулировано для моделей линейной регрессии . Этот простой случай раскрывает значительную информацию об оценщике. К ним относятся его связь с гребневой регрессией и выбором лучшего подмножества , а также связь между оценками коэффициентов лассо и так называемым мягким порогом. Это также показывает, что (как и в стандартной линейной регрессии) оценки коэффициентов не обязательно должны быть уникальными, ковариаты коллинеарны если .
Хотя изначально регуляризация лассо была определена для линейной регрессии, ее легко распространить на другие статистические модели, включая обобщенные линейные модели , обобщенные уравнения оценки , модели пропорциональных рисков и M-оценки . [2] [3] Способность Lasso выполнять выбор подмножества зависит от формы ограничения и имеет множество интерпретаций, в том числе с точки зрения геометрии , байесовской статистики и выпуклого анализа .
LASSO тесно связан с шумоподавлением при поиске базиса .
История
[ редактировать ]Лассо было введено для повышения точности прогнозирования и интерпретируемости регрессионных моделей. Он выбирает сокращенный набор известных ковариат для использования в модели. [2] [1]
Лассо было разработано независимо в геофизической литературе в 1986 году на основе предыдущей работы, в которой использовалась штраф как за подгонку, так и за штрафование коэффициентов. Статистик Роберт Тибширани независимо заново открыл и популяризировал его в 1996 году, основываясь на . неотрицательной гарроте Бреймана [1] [4]
До лассо наиболее широко используемым методом выбора ковариат был пошаговый выбор . Такой подход повышает точность прогнозирования только в определенных случаях, например, когда лишь несколько ковариат имеют сильную связь с результатом. Однако в других случаях это может увеличить ошибку прогнозирования.
В то время гребневая регрессия была самым популярным методом повышения точности прогнозов. Гребневая регрессия улучшает ошибку прогнозирования за счет уменьшения суммы квадратов коэффициентов регрессии до значения меньше фиксированного значения, чтобы уменьшить переобучение , но она не выполняет ковариатный выбор и, следовательно, не помогает сделать модель более интерпретируемой.
Лассо достигает обеих этих целей, заставляя сумму абсолютного значения коэффициентов регрессии быть меньше фиксированного значения, что приводит к нулю определенных коэффициентов, исключая их из влияния на прогноз. Эта идея аналогична гребневой регрессии, которая также уменьшает размер коэффициентов; однако гребневая регрессия не устанавливает коэффициенты в ноль (и, таким образом, не выполняет выбор переменных ).
Основная форма
[ редактировать ]Наименьшие квадраты
[ редактировать ]Рассмотрим выборку, состоящую из N случаев, каждый из которых состоит из p ковариат и одного исхода. Позволять быть результатом и быть вектором ковариат для i й случай. Тогда цель лассо – решить [2]
Здесь - постоянный коэффициент, - вектор коэффициентов, а — заранее заданный свободный параметр, определяющий степень регуляризации.
Сдача в аренду быть ковариатной матрицей, так что и это я й ряд , выражение можно записать более компактно как где это стандарт норма .
Обозначение скалярного среднего значения точек данных к и среднее значение переменных ответа к , полученная оценка для является , так что и поэтому стандартно работать с переменными, которым присвоено нулевое среднее. Кроме того, ковариаты обычно стандартизированы. так что решение не зависит от масштаба измерения.
Может быть полезно переписать в так называемой лагранжевой форме где точное соотношение между и зависит от данных.
Ортонормированные ковариаты
[ редактировать ]Теперь можно рассмотреть некоторые основные свойства средства оценки лассо.
Предполагая сначала, что ковариаты ортонормированы, так что , где является дельтой Кронекера или, что то же самое, , то с помощью субградиентных методов можно показать, что [2] называется оператором мягкого порога , поскольку он переводит значения в сторону нуля (делая их точно нулевыми, если они достаточно малы) вместо того, чтобы устанавливать меньшие значения в ноль и оставлять большие значения нетронутыми, как оператор жесткого порога , часто обозначаемый , бы.
Целью гребневой регрессии является минимизация
С использованием и формула гребневой регрессии: , [5] это дает:
Ридж-регрессия уменьшает все коэффициенты в единый коэффициент. и не устанавливает никакие коэффициенты в ноль. [6]
Ее также можно сравнить с регрессией с выбором наилучшего подмножества , целью которой является минимизация где это " норма», которая определяется как если ровно m компонентов z не равны нулю. В этом случае можно показать, что где это так называемая функция жесткого порога и является индикаторной функцией (она равна 1, если ее аргумент истинен, и 0 в противном случае).
Таким образом, оценки лассо имеют общие черты как регрессии гребня, так и регрессии выбора лучшего подмножества, поскольку они оба уменьшают величину всех коэффициентов, таких как регрессия гребня, и устанавливают некоторые из них равными нулю, как в случае выбора лучшего подмножества. Кроме того, хотя гребневая регрессия масштабирует все коэффициенты с помощью постоянного коэффициента, лассо вместо этого переводит коэффициенты в сторону нуля на постоянное значение и устанавливает их в ноль, если они его достигают.
Коррелирующие ковариаты
[ редактировать ]В одном особом случае две ковариаты, скажем, j и k , идентичны для каждого наблюдения, так что , где . Тогда значения и которые минимизируют целевую функцию лассо, не определены однозначно. В самом деле, если некоторые в котором , то если замена к и к , сохраняя при этом все остальные фиксированное, дает новое решение, поэтому целевая функция лассо имеет континуум допустимых минимизаторов. [7] Несколько вариантов лассо, включая регуляризацию Elastic net , были разработаны для устранения этого недостатка.
Общая форма
[ редактировать ]Регуляризацию лассо можно распространить на другие целевые функции, например, для обобщенных линейных моделей , обобщенных уравнений оценки , моделей пропорциональных рисков и M-оценок . [2] [3] Учитывая целевую функцию регуляризованная версия оценщика с помощью лассо является решением где только наказывается, пока может принимать любое разрешенное значение, так же, как не был наказан по основному делу.
Интерпретации
[ редактировать ]Геометрическая интерпретация
[ редактировать ]Лассо может устанавливать коэффициенты равными нулю, в то время как внешне похожая регрессия гребня не может. Это связано с различием формы их границ ограничений. И лассо, и гребневую регрессию можно интерпретировать как минимизацию одной и той же целевой функции. но с учетом различных ограничений: для лассо и для хребта. На рисунке показано, что область ограничений, определяемая норма — это квадрат, повернутый так, что его углы лежат на осях (вообще говоря, перекрестный многогранник ), а область, определяемая Норма — это круг (вообще говоря, n -сфера ), который относительно вращения инвариантен и, следовательно, не имеет углов. Как видно на рисунке, выпуклый объект, лежащий по касательной к границе, такой как показанная линия, скорее всего, встретит угол (или эквивалент более высокой размерности) гиперкуба, для которого некоторые компоненты тождественно равны нулю, а в случае n -сферы точки на границе, для которых некоторые компоненты равны нулю, не отличаются от других, и выпуклый объект больше не контактирует с точкой, в которой некоторые компоненты равны нулю, чем единица, для которой ни один из них не равен нулю.
Упрощение интерпретации λ за счет компромисса между точностью и простотой
[ редактировать ]Масштаб лассо можно изменить, чтобы можно было легко предвидеть и влиять на степень сжатия, связанную с заданным значением . [8] Предполагается, что стандартизирован с помощью z-показателей и что центрировано (нулевое среднее). Позволять представляют предполагаемые коэффициенты регрессии и пусть обратитесь к оптимизированным по данным обычным решениям наименьших квадратов. Затем мы можем определить лагранжиан как компромисс между точностью решений, оптимизированных по данным, и простотой соблюдения гипотетических значений. [9] Это приводит к где указано ниже, а символ «штрих» означает транспонирование. Первая дробь представляет относительную точность, вторая дробь — относительную простоту, а баланс между ними.
Учитывая один регрессор, относительную простоту можно определить, указав как , что является максимальной величиной отклонения от когда . Предполагая, что , путь решения можно определить через : Если , используется обычное решение наименьших квадратов (OLS). Предполагаемая ценность выбирается, если больше, чем . Кроме того, если , затем представляет собой пропорциональное влияние . Другими словами, измеряет в процентном отношении минимальную степень влияния гипотетического значения относительно решения OLS, оптимизированного по данным.
Если -норма используется для штрафа за отклонения от нуля с учетом одного регрессора, путь решения определяется выражением
Нравиться , движется в направлении точки когда близко к нулю; но в отличие от , влияние уменьшается в если увеличивается (см. рисунок).
Учитывая несколько регрессоров, момент, когда параметр активируется (т.е. ему разрешено отклоняться от ) также определяется вкладом регрессора в точность. Первый,
Ан 75 % означает, что точность в выборке увеличивается на 75 %, если вместо гипотетических решений используются неограниченные МНК. ценности. Индивидуальный вклад отклонения от каждой гипотезы можно вычислить с помощью х матрица
где . Если когда вычисляется, то диагональные элементы сумма до . Диагональ значения могут быть меньше 0 или, реже, больше 1. Если регрессоры некоррелированы, то диагональный элемент просто соответствует значение между и .
Масштабированную версию адаптивного лассо можно получить, установив . [10] Если регрессоры некоррелированы, то в тот момент, когда параметр активирован, задается диагональный элемент . Полагая для удобства, что вектор нулей, То есть, если регрессоры некоррелированы, еще раз указывает на минимальное влияние . Даже когда регрессоры коррелируют, первый раз активация параметра регрессии происходит, когда равен наибольшему диагональному элементу .
Эти результаты можно сравнить с измененной версией лассо, определив , что представляет собой среднее абсолютное отклонение от . Если предположить, что регрессоры некоррелированы, то момент активации регрессор определяется
Для , момент активации снова определяется выражением . Если представляет собой вектор нулей и подмножество соответствующие параметры в равной степени отвечают за идеальное соответствие , то это подмножество активируется в ценность . Тогда момент активации соответствующего регрессора равен . Другими словами, включение нерелевантных регрессоров задерживает момент активации соответствующих регрессоров этим измененным лассо. Адаптивное лассо и лассо являются особыми случаями средства оценки «1ASTc». Последний группирует параметры вместе только в том случае, если абсолютная корреляция между регрессорами превышает значение, указанное пользователем. [8]
Байесовская интерпретация
[ редактировать ]Точно так же, как гребневую регрессию можно интерпретировать как линейную регрессию, для которой коэффициентам присвоены нормальные априорные распределения , лассо можно интерпретировать как линейную регрессию, для которой коэффициенты имеют априорные распределения Лапласа . Распределение Лапласа имеет резкий пик в нуле (его первая производная разрывна в нуле) и концентрирует свою вероятностную массу ближе к нулю, чем нормальное распределение. Это дает альтернативное объяснение того, почему лассо имеет тенденцию устанавливать некоторые коэффициенты равными нулю, а гребневая регрессия - нет. [2]
Интерпретация выпуклой релаксации
[ редактировать ]Лассо также можно рассматривать как выпуклую релаксацию задачи регрессии выбора наилучшего подмножества, которая заключается в нахождении подмножества ковариат, которая приводит к наименьшему значению целевой функции для некоторого фиксированного , где n — общее количество ковариат. " норма», , (количество ненулевых элементов вектора) является предельным случаем " нормы", вида (где кавычки означают, что на самом деле это не нормы для с не является выпуклым для , поэтому неравенство треугольника не выполняется). Следовательно, поскольку p = 1 — наименьшее значение, для которого « норма» является выпуклой (и, следовательно, фактически является нормой), лассо в некотором смысле является лучшим выпуклым приближением к задаче выбора лучшего подмножества, поскольку область, определяемая формулой - выпуклая оболочка области, определяемая формулой для .
Обобщения
[ редактировать ]Варианты лассо были созданы, чтобы устранить ограничения исходной техники и сделать метод более полезным для решения конкретных задач. Почти все они сосредоточены на уважении или использовании зависимостей между ковариатами.
Эластичная чистая регуляризация добавляет дополнительный штраф, подобный гребневой регрессии, который повышает производительность, когда количество предикторов превышает размер выборки, позволяет методу выбирать вместе сильно коррелированные переменные и повышает общую точность прогнозирования. [7]
Групповое лассо позволяет выбирать группы связанных ковариат как одну единицу, что может быть полезно в ситуациях, когда не имеет смысла включать одни ковариаты без других. [11] Дальнейшие расширения группового лассо выполняют выбор переменных внутри отдельных групп (лассо разреженных групп) и допускают перекрытие между группами (лассо перекрывающихся групп). [12] [13]
Слитое лассо может учитывать пространственные или временные характеристики проблемы, в результате чего оценки лучше соответствуют структуре системы. [14] Модели, регуляризованные с помощью лассо, могут быть подобраны с использованием таких методов, как субградиентные методы , регрессия наименьшего угла (LARS) и методы проксимального градиента . Определение оптимального значения параметра регуляризации является важной частью обеспечения хорошей работы модели; обычно он выбирается с использованием перекрестной проверки .
Эластичная сетка
[ редактировать ]В 2005 году Цзоу и Хасти представили эластичную сетку . [7] Когда p > n (количество ковариат больше размера выборки), лассо может выбрать только n ковариат (даже если с результатом связано больше) и имеет тенденцию выбирать одну ковариату из любого набора сильно коррелированных ковариат. Кроме того, даже когда n > p , гребневая регрессия имеет тенденцию работать лучше, учитывая сильно коррелированные ковариаты.
Эластичная сетка удлиняет лассо, добавляя дополнительную срок наказания что эквивалентно решению
Эту задачу можно записать в простой форме лассо сдача в аренду
Затем , что, когда ковариаты ортогональны друг другу, дает
Таким образом, результат штрафа за эластичную сетку представляет собой комбинацию эффектов штрафов за лассо и гребня.
Возвращаясь к общему случаю, тот факт, что штрафная функция теперь строго выпуклая, означает, что если , , что является отличием от лассо. [7] В общем, если — это выборочная корреляционная матрица, поскольку нормализованы.
Таким образом, высококоррелированные ковариаты, как правило, имеют схожие коэффициенты регрессии, при этом степень сходства зависит от обоих факторов. и , который отличается от лассо. Это явление, при котором сильно коррелированные ковариаты имеют схожие коэффициенты регрессии, называется эффектом группировки. Группировка желательна, поскольку в таких приложениях, как связывание генов с заболеванием, предпочтительнее найти все связанные ковариаты, а не выбирать по одной из каждого набора коррелирующих ковариат, как это часто бывает с помощью лассо. [7] Кроме того, выбор только одного из каждой группы обычно приводит к увеличению ошибки прогнозирования, поскольку модель менее надежна (именно поэтому гребневая регрессия часто превосходит лассо).
Групповое лассо
[ редактировать ]В 2006 году Юань и Линь представили групповое лассо, позволяющее совместно выбирать заранее определенные группы ковариат в модель или из нее. [11] Это полезно во многих ситуациях, возможно, наиболее очевидно, когда категориальная переменная закодирована как набор бинарных ковариат. В этом случае групповое лассо может гарантировать, что все переменные, кодирующие категориальную ковариату, будут включены или исключены вместе. Другая область, в которой группирование является естественным, — это биологические исследования. Поскольку гены и белки часто лежат в известных путях, то, какие пути связаны с результатом, может быть более важным, чем то, связаны ли отдельные гены. Целевая функция группового лассо является естественным обобщением стандартной цели лассо. где матрица расчета и ковариатный вектор были заменены набором матриц проектирования и ковариатные векторы , по одному на каждую из J-групп. Кроме того, срок штрафа теперь составляет сумму, превышающую нормы, определяемые положительно определенными матрицами . Если каждая ковариата находится в своей группе и , то это сводится к стандартному аркану, а если имеется только одна группа и , это сводится к регрессии гребня. Поскольку наказание сводится к Норма для подпространств, определенных каждой группой, он не может выбрать только некоторые ковариаты из группы, как и гребневая регрессия. Однако, поскольку штраф представляет собой сумму по различным нормам подпространств, как в стандартном лассо, ограничение имеет некоторые недифференциальные точки, которые соответствуют тождественному нулю некоторых подпространств. Следовательно, он может обнулить векторы коэффициентов, соответствующие некоторым подпространствам, и только сжать другие. Однако можно расширить групповой лассо до так называемого лассо разреженной группы, который может выбирать отдельные ковариаты внутри группы, добавив дополнительный штраф к каждому групповому подпространству. [12] Другое расширение, групповое лассо с перекрытием, позволяет распределять ковариаты между группами, например, если ген должен возникать в двух путях. [13]
Пакет «gglasso» в R позволяет быстро и эффективно внедрить Group LASSO. [15]
Сплавленный лассо
[ редактировать ]В некоторых случаях изучаемое явление может иметь важную пространственную или временную структуру, которую необходимо учитывать во время анализа, например, временные ряды или данные на основе изображений. В 2005 году Тибширани и его коллеги представили слитое лассо, чтобы расширить его использование до этого типа данных. [14] Целевая функция слитого лассо:
Первое ограничение — это ограничение лассо, а второе напрямую наказывает за большие изменения во временной или пространственной структуре, что заставляет коэффициенты плавно изменяться, чтобы отразить основную логику системы. Кластерное лассо [16] представляет собой обобщение слитного лассо, которое идентифицирует и группирует соответствующие ковариаты на основе их эффектов (коэффициентов). Основная идея состоит в том, чтобы штрафовать различия между коэффициентами так, чтобы ненулевые коэффициенты группировались. Это можно смоделировать с помощью следующей регуляризации:
Напротив, переменные могут быть сгруппированы в сильно коррелированные группы, а затем из каждого кластера можно извлечь одну репрезентативную ковариату. [17]
Существуют алгоритмы, решающие задачу слитого лассо, а также некоторые ее обобщения. Алгоритмы могут решить ее точно за конечное число операций. [18]
Квазинормы и мостовая регрессия
[ редактировать ]Лассо, эластичная сеть, групповое и сросшееся аркан строят штрафные функции по и нормы (с весами, если необходимо). Мостовая регрессия использует общие нормы ( ) и квазинормы ( ). [20] Например, для p =1/2 аналогом лассо в лагранжевой форме является решение где
Утверждается, что дробные квазинормы ( ) обеспечивают более значимые результаты при анализе данных как теоретически, так и эмпирически. [21] Невыпуклость этих квазинорм усложняет задачу оптимизации. Для решения этой задачи разработана процедура минимизации ожидания. [22] и реализовано [19] для минимизации функции где — произвольная вогнутая монотонно возрастающая функция (например, дает штраф за лассо и дает штраф).
Эффективный алгоритм минимизации основан на кусочно- квадратичной аппроксимации субквадратичного роста (PQSQ). [22]
Адаптивное лассо
[ редактировать ]Адаптивное лассо было введено Цзоу в 2006 году для линейной регрессии. [10] и Чжан и Лу в 2007 году для регрессии пропорциональных рисков. [23]
Приор аркан
[ редактировать ]Предыдущее лассо было введено для обобщенных линейных моделей Цзяном и др. в 2016 году для включения предварительной информации, такой как важность определенных ковариат. [24] В предшествующем лассо такая информация суммируется в псевдоответы (называемые предшествующими ответами). а затем к обычной целевой функции добавляется дополнительная целевая функция со штрафом-лассо. Без ограничения общности в линейной регрессии новую целевую функцию можно записать как что эквивалентно
обычная целевая функция лассо с ответами заменяется средневзвешенным значением наблюдаемых ответов и предыдущих ответов (называемые скорректированными значениями ответа по предварительной информации).
В предыдущем лассо параметр называется балансирующим параметром, поскольку он уравновешивает относительную важность данных и априорной информации. В крайнем случае , предшествующий лассо сводится к лассо. Если , априорное лассо будет полагаться исключительно на априорную информацию, чтобы соответствовать модели. Кроме того, параметр балансировки имеет еще одну привлекательную интерпретацию: он контролирует дисперсию в своем априорном распределении с байесовской точки зрения.
Априорное лассо более эффективно при оценке и прогнозировании параметров (с меньшей ошибкой оценки и ошибки прогнозирования), когда априорная информация имеет высокое качество, и устойчиво к априорной информации низкого качества с хорошим выбором балансирующего параметра. .
Вычисление решений лассо
[ редактировать ]Функция потерь лассо не дифференцируема, но для вычисления пути решения лассо было разработано множество методов выпуклого анализа и теории оптимизации. К ним относятся координатный спуск, [25] субградиентные методы, регрессия наименьшего угла (LARS) и методы проксимального градиента. [26] Субградиентные методы являются естественным обобщением традиционных методов, таких как градиентный спуск и стохастический градиентный спуск, на случай, когда целевая функция не дифференцируема во всех точках. LARS — это метод, тесно связанный с моделями лассо и во многих случаях позволяющий эффективно их подогнать, хотя он может не работать хорошо при всех обстоятельствах. LARS генерирует полные пути решения. [26] Проксимальные методы стали популярными благодаря своей гибкости и эффективности и являются областью активных исследований. Выбор метода будет зависеть от конкретного варианта аркана, данных и имеющихся ресурсов. Однако проксимальные методы обычно эффективны.
Пакет «glmnet» в R, где «glm» — это ссылка на «обобщенные линейные модели», а «net» — на «сеть» из «эластичной сети», обеспечивает чрезвычайно эффективный способ реализации LASSO и некоторых его вариантов. [27] [28] [29]
Пакет «celer» в Python обеспечивает высокоэффективный решатель задачи Лассо, часто превосходящий традиционные решатели, такие как scikit-learn, до 100 раз в определенных сценариях, особенно с многомерными наборами данных. Этот пакет использует методы двойной экстраполяции для достижения повышения производительности. [30] [31] Пакет celer доступен на GitHub .
Выбор параметра регуляризации
[ редактировать ]Выбор параметра регуляризации ( ) является фундаментальной частью лассо. Хорошее значение имеет важное значение для производительности лассо, поскольку оно контролирует силу сжатия и выбор переменных, что в умеренных количествах может улучшить как точность прогнозирования, так и интерпретируемость. Однако, если регуляризация становится слишком сильной, важные переменные могут быть опущены, а коэффициенты могут быть чрезмерно сокращены, что может нанести вред как прогнозирующей способности, так и выводам. Перекрестная проверка часто используется для нахождения параметра регуляризации.
Информационные критерии, такие как байесовский информационный критерий (BIC) и информационный критерий Акаике (AIC), могут быть предпочтительнее перекрестной проверки, поскольку их вычисления выполняются быстрее, а их производительность менее нестабильна в небольших выборках. [32] Информационный критерий выбирает параметр регуляризации оценщика, максимизируя точность модели в выборке, одновременно ограничивая ее эффективное количество параметров/степеней свободы. Цзоу и др. предложил измерять эффективные степени свободы путем подсчета количества параметров, отклоняющихся от нуля. [33] Кауфман и Россет считали подход степеней свободы ошибочным. [34] и Янсон и др., [35] потому что степени свободы модели могут увеличиться, даже если она подвергается более жесткому наказанию параметром регуляризации. В качестве альтернативы для подсчета эффективного количества параметров можно использовать определенную выше меру относительной простоты. [32] Для лассо эта мера определяется выражением который монотонно возрастает от нуля до при уменьшении параметра регуляризации от до нуля.
Выбранные приложения
[ редактировать ]LASSO применялся в экономике и финансах, и было обнаружено, что он улучшает прогнозирование и выбирает иногда игнорируемые переменные, например, в литературе по прогнозированию банкротства корпораций. [36] или прогноз быстрорастущих фирм. [37]
См. также
[ редактировать ]Ссылки
[ редактировать ]- ^ Jump up to: а б с Сантоса, Фадил; Саймс, Уильям В. (1986). «Линейная инверсия сейсмограмм отражения с ограниченной полосой пропускания». Журнал SIAM по научным и статистическим вычислениям . 7 (4). СИАМ: 1307–1330. дои : 10.1137/0907087 .
- ^ Jump up to: а б с д и ж г Тибширани, Роберт (1996). «Регрессионное сокращение и отбор с помощью лассо». Журнал Королевского статистического общества . Серия Б (методическая). 58 (1). Уайли: 267–88. JSTOR 2346178 .
- ^ Jump up to: а б Тибширани, Роберт (1997). «Метод лассо для выбора переменных в модели Кокса». Статистика в медицине . 16 (4): 385–395. CiteSeerX 10.1.1.411.8024 . doi : 10.1002/(SICI)1097-0258(19970228)16:4<385::AID-SIM380>3.0.CO;2-3 . ПМИД 9044528 .
- ^ Брейман, Лео (1995). «Улучшенная регрессия подмножества с использованием неотрицательной гарроты». Технометрика . 37 (4): 373–84. дои : 10.1080/00401706.1995.10484371 .
- ^ Макдональд, Гэри (2009). «Риджевая регрессия» . Междисциплинарные обзоры Wiley: вычислительная статистика . 1 : 93–100. дои : 10.1002/wics.14 . S2CID 64699223 . Проверено 22 августа 2022 г.
- ^ Мелкумова, Л.Е.; Шацких, С.Я. (01.01.2017). «Сравнение оценщиков Ridge и LASSO для анализа данных» . Процедия Инжиниринг . 3-я Международная конференция «Информационные технологии и нанотехнологии», ITNT-2017, 25–27 апреля 2017, Самара, Россия. 201 : 746–755. doi : 10.1016/j.proeng.2017.09.615 . ISSN 1877-7058 .
- ^ Jump up to: а б с д и Цзоу, Хуэй; Хасти, Тревор (2005). «Регуляризация и выбор переменных с помощью эластичной сети» . Журнал Королевского статистического общества . Серия Б (статистическая методология). 67 (2). Уайли: 301–20. дои : 10.1111/j.1467-9868.2005.00503.x . JSTOR 3647580 . S2CID 122419596 .
- ^ Jump up to: а б Хорнвег, Виктор (2018). «Глава 8» . Наука: Подчинение . Хорнвег Пресс. ISBN 978-90-829188-0-9 .
- ^ Мотамеди, Фахиме; Санчес, Орасио; Мехри, Алиреза; Гасеми, Фахиме (октябрь 2021 г.). «Ускорение анализа больших данных с помощью алгоритма LASSO-случайного леса в исследованиях QSAR». Биоинформатика . 37 (19): 469–475. doi : 10.1093/биоинформатика/btab659 . ISSN 1367-4803 . ПМИД 34979024 .
- ^ Jump up to: а б Цзоу, Хуэй (2006). «Адаптивное лассо и его свойства Oracle» (PDF) .
- ^ Jump up to: а б Юань, Мин; Линь, Йи (2006). «Выбор модели и оценка в регрессии с сгруппированными переменными» . Журнал Королевского статистического общества . Серия Б (статистическая методология). 68 (1). Уайли: 49–67. дои : 10.1111/j.1467-9868.2005.00532.x . JSTOR 3647556 . S2CID 6162124 .
- ^ Jump up to: а б Пуиг, Арнау Тибау, Ами Визель и Альфред О. Герой III . « Многомерный оператор порогового сжатия ». Материалы 15-го семинара по статистической обработке сигналов, SSP'09, IEEE, стр. 113–116.
- ^ Jump up to: а б Жакоб, Лоран, Гийом Обозински и Жан-Филипп Верт. « Групповое лассо с перекрытием и графическое лассо ». Опубликовано в материалах 26-й Международной конференции по машинному обучению, Монреаль, Канада, 2009 г.
- ^ Jump up to: а б Тибширани, Роберт, Майкл Сондерс, Сахарон Россет, Цзи Чжу и Кейт Найт. 2005. «Разреженность и гладкость с помощью слитого лассо». Журнал Королевского статистического общества. Серия B (Статистическая методология) 67(1). Уайли: 91–108. https://www.jstor.org/stable/3647602 .
- ^ Ян, И; Цзоу, Хуэй (ноябрь 2015 г.). «Быстрый унифицированный алгоритм для решения проблем группового лассо с наказанием» . Статистика и вычисления . 25 (6): 1129–1141. дои : 10.1007/s11222-014-9498-5 . ISSN 0960-3174 . S2CID 255072855 .
- ^ Она, Июань (2010). «Разреженная регрессия с точной кластеризацией» . Электронный статистический журнал . 4 : 1055–1096. дои : 10.1214/10-EJS578 .
- ^ Рид, Стивен (2015). «Разреженная регрессия и предельное тестирование с использованием прототипов кластеров» . Биостатистика . 17 (2): 364–76. arXiv : 1503.00334 . Бибкод : 2015arXiv150300334R . doi : 10.1093/biostatistics/kxv049 . ПМК 5006118 . ПМИД 26614384 .
- ^ Бенто, Хосе (2018). «О сложности взвешенного сросшегося лассо». Письма об обработке сигналов IEEE . 25 (10): 1595–1599. arXiv : 1801.04987 . Бибкод : 2018ISPL...25.1595B . дои : 10.1109/ЛСП.2018.2867800 . S2CID 5008891 .
- ^ Jump up to: а б Миркес Э.М. Репозиторий PQSQ-регуляризованной регрессии , GitHub.
- ^ Фу, Вэньцзян Дж. 1998. « Мост против Лассо ». Журнал вычислительной и графической статистики 7 (3). Тейлор и Фрэнсис: 397–416.
- ^ Аггарвал CC, Хиннебург А., Кейм Д.А. (2001) « Об удивительном поведении метрик расстояния в многомерном пространстве ». В: Ван ден Буше Дж., Виану В. (ред.) Теория баз данных - ICDT 2001. ICDT 2001. Конспекты лекций по информатике, Vol. 1973. Springer, Берлин, Гейдельберг, стр. 420–434.
- ^ Jump up to: а б Горбань, АН; Миркес, Э.М.; Зиновьев А. (2016) « Кусочно-квадратичные аппроксимации произвольных функций ошибок для быстрого и надежного машинного обучения ». Нейронные сети, 84, 28-38.
- ^ Чжан, Х.Х.; Лу, В. (5 августа 2007 г.). «Адаптивное лассо для модели пропорциональных рисков Кокса» . Биометрика . 94 (3): 691–703. дои : 10.1093/biomet/asm037 . ISSN 0006-3444 .
- ^ Цзян, Юань (2016). «Выбор переменных с априорной информацией для обобщенных линейных моделей с помощью априорного метода лассо» . Журнал Американской статистической ассоциации . 111 (513): 355–376. дои : 10.1080/01621459.2015.1008363 . ПМЦ 4874534 . ПМИД 27217599 .
- ^ Джером Фридман, Тревор Хэсти и Роберт Тибширани. 2010. «Пути регуляризации для обобщенных линейных моделей посредством спуска по координатам». Журнал статистического программного обеспечения 33 (1): 1-21. https://www.jstatsoft.org/article/view/v033i01/v33i01.pdf .
- ^ Jump up to: а б Эфрон, Брэдли, Тревор Хэсти, Иэн Джонстон и Роберт Тибширани. 2004. «Регрессия по наименьшему углу». Анналы статистики 32 (2). Институт математической статистики: 407–51. https://www.jstor.org/stable/3448465 .
- ^ Фридман, Джером; Хасти, Тревор; Тибширани, Роберт (2010). «Пути регуляризации обобщенных линейных моделей посредством спуска по координатам» . Журнал статистического программного обеспечения . 33 (1): 1–22. дои : 10.18637/jss.v033.i01 . ISSN 1548-7660 . ПМЦ 2929880 . ПМИД 20808728 .
- ^ Саймон, Ной; Фридман, Джером; Хасти, Тревор; Тибширани, Роб (2011). «Пути регуляризации модели пропорциональных рисков Кокса посредством координатного спуска» . Журнал статистического программного обеспечения . 39 (5): 1–13. дои : 10.18637/jss.v039.i05 . ISSN 1548-7660 . ПМЦ 4824408 . ПМИД 27065756 .
- ^ Тэй, Дж. Кеннет; Нарасимхан, Баласубраманян; Хасти, Тревор (2023). «Пути регуляризации эластичной сети для всех обобщенных линейных моделей» . Журнал статистического программного обеспечения . 106 (1). дои : 10.18637/jss.v106.i01 . ISSN 1548-7660 . ПМЦ 10153598 . ПМИД 37138589 .
- ^ Массиас, Матюрен; Грамфор, Александр; Салмон, Джозеф (2018). «Celer: быстрый решатель лассо с двойной экстраполяцией» (PDF) . Материалы 35-й Международной конференции по машинному обучению . 80 : 3321–3330.
- ^ Массиас, Матюрен; Вайтер, Сэмюэл; Грамфор, Александр; Салмон, Джозеф (2020). «Двойная экстраполяция для разреженных GLM» . Журнал исследований машинного обучения . 21 (234): 1–33.
- ^ Jump up to: а б Хорнвег, Виктор (2018). «Глава 9» . Наука: Подчинение . Хорнвег Пресс. ISBN 978-90-829188-0-9 .
- ^ Цзоу, Хуэй; Хасти, Тревор; Тибширани, Роберт (2007). «О «степенях свободы» аркана» . Анналы статистики . 35 (5): 2173–2792. дои : 10.1214/009053607000000127 .
- ^ Кауфман, С.; Россет, С. (2014). «Когда большая регуляризация подразумевает меньшее количество степеней свободы? Достаточные условия и контрпримеры». Биометрика . 101 (4): 771–784. дои : 10.1093/biomet/asu034 . ISSN 0006-3444 .
- ^ Янсон, Лукас; Фитиан, Уильям; Хасти, Тревор Дж. (2015). «Эффективные степени свободы: ошибочная метафора» . Биометрика . 102 (2): 479–485. дои : 10.1093/biomet/asv019 . ISSN 0006-3444 . ПМЦ 4787623 . ПМИД 26977114 .
- ^ Шаонан, Тянь; Ю, Ян; Го, Хуэй (2015). «Выбор переменных и прогнозы корпоративного банкротства». Журнал банковского дела и финансов . 52 (1): 89–100. дои : 10.1016/j.jbankfin.2014.12.003 .
- ^ Коад, Алекс; Срой, Степан (2020). «Поймать газелей с помощью лассо: методы больших данных для прогнозирования быстрорастущих компаний». Экономика малого бизнеса . 55 (1): 541–565. дои : 10.1007/s11187-019-00203-3 . S2CID 255011751 .