Регуляризация (математика)

Из Википедии, бесплатной энциклопедии
Зеленая и синяя функции несут нулевые потери в заданных точках данных. Изученную модель можно заставить отдать предпочтение зеленой функции, которая может лучше обобщать большее количество точек, взятых из основного неизвестного распределения, путем корректировки , вес члена регуляризации.

По математике , статистике , финансам , [1] и информатике , особенно в машинном обучении и обратных задачах , регуляризация — это процесс, который изменяет результат ответа на «более простой». Его часто используют для получения результатов для некорректных задач или для предотвращения переобучения . [2]

Хотя процедуры регуляризации можно разделить по-разному, особенно полезно следующее разграничение:

  • Явная регуляризация — это регуляризация всякий раз, когда к задаче оптимизации явно добавляется член. Этими условиями могут быть априоры, штрафы или ограничения. Явная регуляризация обычно используется при решении некорректных задач оптимизации. Член регуляризации, или штраф, накладывает затраты на функцию оптимизации, чтобы сделать оптимальное решение уникальным.
  • Неявная регуляризация — это все остальные формы регуляризации. Это включает, например, раннюю остановку, использование устойчивой функции потерь и отбрасывание выбросов. Неявная регуляризация практически повсеместно распространена в современных подходах к машинному обучению, включая стохастический градиентный спуск для обучения глубоких нейронных сетей и ансамблевые методы (такие как случайные леса и деревья с градиентным усилением).

При явной регуляризации, независимо от проблемы или модели, всегда есть термин данных, соответствующий вероятности измерения, и член регуляризации, соответствующий априорному значению. Объединив оба источника с использованием байесовской статистики, можно вычислить апостериорный результат, который включает оба источника информации и, следовательно, стабилизирует процесс оценки. Находя компромисс между обеими целями, человек выбирает либо больше привязываться к данным, либо применять обобщение (чтобы предотвратить переобучение). Существует целое направление исследований, занимающееся всеми возможными регуляризациями. На практике обычно пробуют конкретную регуляризацию, а затем определяют плотность вероятности, соответствующую этой регуляризации, чтобы оправдать свой выбор. Это также может быть физически мотивировано здравым смыслом или интуицией.

В машинном обучении термин данных соответствует обучающим данным, а регуляризация — это либо выбор модели, либо модификации алгоритма. Всегда направлено на уменьшение ошибки обобщения, т. е. оценки ошибки с обученной моделью в наборе оценок, а не с обучающими данными. [3]

Одним из первых применений регуляризации является регуляризация Тихонова (гребневая регрессия), связанная с методом наименьших квадратов.

Регуляризация в машинном обучении [ править ]

В машинном обучении ключевой задачей является предоставление моделям возможности точно предсказывать результаты на основе невидимых данных, а не только на знакомых обучающих данных. Регуляризация имеет решающее значение для решения проблемы переобучения (когда модель запоминает детали обучающих данных, но не может обобщать их на новые данные) и недостаточного подбора , когда модель слишком проста, чтобы отразить сложность обучающих данных. Эта концепция отражает обучение учащихся применять изученные концепции к новым проблемам, а не просто вспоминать заученные ответы. [4] Цель регуляризации — побудить модели изучать более широкие закономерности данных, а не запоминать их. Такие методы, как ранняя остановка , регуляризация L1 и L2 и Dropout, предназначены для предотвращения переоснащения и недостаточного подбора, тем самым улучшая способность модели адаптироваться и хорошо работать с новыми данными, тем самым улучшая обобщение модели. [4]

Ранняя остановка [ править ]

Останавливает обучение, когда производительность проверки ухудшается, предотвращая переобучение путем остановки до того, как модель запомнит данные обучения. [4]

L2 Регуляризация L1 и

Добавляет штрафные санкции к функции стоимости, чтобы препятствовать созданию сложных моделей:

  • Регуляризация L1 (также называемая LASSO) приводит к разреженным моделям за счет добавления штрафа, основанного на абсолютном значении коэффициентов.
  • Регуляризация L2 (также называемая гребневой регрессией) способствует уменьшению и более равномерному распределению весов за счет добавления штрафа, основанного на квадрате коэффициентов. [4]

Выбывание [ править ]

Случайным образом игнорируется подмножество нейронов во время обучения, имитируя обучение нескольких архитектур нейронных сетей для улучшения обобщения. [4]

Классификация [ править ]

Эмпирическое обучение классификаторов (из конечного набора данных) всегда является недоопределенной проблемой, поскольку оно пытается вывести функцию любого даны только примеры .

Термин регуляризации (или регуляризатор) добавляется к функции потерь :

где — это базовая функция потерь, которая описывает стоимость прогнозирования когда этикетка , такие как потеря квадрата или потеря шарнира ; и — параметр, который контролирует важность термина регуляризации. обычно выбирается для наложения штрафа за сложность . Используемые конкретные понятия сложности включают ограничения на гладкость и границы нормы векторного пространства . [5] [ нужна страница ]

Теоретическим обоснованием регуляризации является то, что она пытается применить к решению бритву Оккама (как показано на рисунке выше, где может быть предпочтительнее зеленая функция, более простая). С байесовской точки зрения многие методы регуляризации соответствуют наложению определенных априорных распределений на параметры модели. [6]

Регуляризация может служить нескольким целям, включая изучение более простых моделей, создание разреженных моделей и введение групповой структуры. [ нужны разъяснения ] в проблему обучения.

Та же идея возникла во многих областях науки . Простая форма регуляризации, применяемая к интегральным уравнениям ( регуляризация Тихонова ), по сути, представляет собой компромисс между подгонкой данных и уменьшением нормы решения. методы нелинейной регуляризации, включая регуляризацию полной вариации Совсем недавно стали популярными .

Обобщение [ править ]

Регуляризацию можно рассматривать как метод улучшения обобщаемости изученной модели.

Цель этой задачи обучения — найти функцию, которая соответствует или предсказывает результат (метку), которая минимизирует ожидаемую ошибку по всем возможным входным данным и меткам. Ожидаемая ошибка функции является:

где и являются доменами входных данных и их этикетки соответственно.

Обычно в задачах обучения доступен только подмножество входных данных и меток, измеренных с некоторым шумом. Следовательно, ожидаемая ошибка неизмерима, и лучшим доступным заменителем является эмпирическая ошибка по доступные образцы:

Без ограничений на сложность доступного функционального пространства (формально, воспроизводящего ядра гильбертова пространства ) будет изучена модель, которая несет нулевую потерю из-за суррогатной эмпирической ошибки. Если измерения (например, ) были сделаны с шумом, эта модель может страдать от переобучения и отображать плохую ожидаемую ошибку. Регуляризация вводит штраф за исследование определенных областей функционального пространства, используемого для построения модели, что может улучшить обобщение.

Тихонова (гребневая ) регрессия Регуляризация

Эти методы названы в честь Андрея Николаевича Тихонова , который применил регуляризацию к интегральным уравнениям и внес важный вклад во многие другие области.

При изучении линейной функции , характеризующийся неизвестным вектором такой, что , можно добавить -норма вектора к выражению потерь, чтобы отдать предпочтение решениям с меньшими нормами. Тихоновская регуляризация — одна из наиболее распространенных форм. Это также известно как регрессия гребня. Это выражается как:

где будут представлять образцы, используемые для обучения.

В случае общей функции норма функции в ее воспроизводящем ядерном гильбертовом пространстве равна:

Как Норма дифференцируема , обучение можно продвигать по градиентному спуску .

квадратов Тихонову метод наименьших Регуляризованный по

Задачу обучения с функцией потерь наименьших квадратов и тихоновской регуляризацией можно решить аналитически. Записанное в матричной форме, оптимальное – это тот, для которого градиент функции потерь по отношению к равен 0.

где третье утверждение является условием первого порядка .

По построению задачи оптимизации другие значения дать большие значения для функции потерь. В этом можно убедиться, исследуя вторую производную .

Во время обучения этот алгоритм принимает время . Слагаемые соответствуют обращению матрицы и вычислению , соответственно. Тестирование занимает время.

Ранняя остановка [ править ]

Раннюю остановку можно рассматривать как регуляризацию во времени. Интуитивно понятно, что процедура обучения, такая как градиентный спуск, имеет тенденцию изучать все более и более сложные функции с увеличением итераций. Путем регуляризации по времени можно контролировать сложность модели, улучшая обобщение.

Ранняя остановка реализуется с использованием одного набора данных для обучения, одного статистически независимого набора данных для проверки и другого для тестирования. Модель обучается до тех пор, пока производительность проверочного набора не перестанет улучшаться, а затем применяется к тестовому набору.

Теоретическая мотивация по методу наименьших квадратов [ править ]

Рассмотрим конечную аппроксимацию ряда Неймана для обратимой матрицы A , где :

Это можно использовать для аппроксимации аналитического решения нерегуляризованного метода наименьших квадратов, если γ вводится для обеспечения того, чтобы норма была меньше единицы.

Точное решение нерегуляризованной задачи обучения методом наименьших квадратов минимизирует эмпирическую ошибку, но может потерпеть неудачу. Ограничивая T , единственный свободный параметр в приведенном выше алгоритме, проблема регуляризуется по времени, что может улучшить ее обобщение.

Приведенный выше алгоритм эквивалентен ограничению количества итераций градиентного спуска для эмпирического риска.

с обновлением градиентного спуска:

Базовый случай тривиален. Индуктивный случай доказывается следующим образом:

Регуляризаторы для разреженности [ править ]

Предположим, что словарь с размером задано так, что функция в функциональном пространстве может быть выражена как:

Сравнение шара L1 и шара L2 в двух измерениях дает представление о том, как регуляризация L1 обеспечивает разреженность.

Обеспечение ограничения разреженности может привести к созданию более простых и более интерпретируемых моделей. Это полезно во многих реальных приложениях, таких как вычислительная биология . Примером может служить разработка простого прогностического теста на заболевание, чтобы минимизировать затраты на проведение медицинских тестов и одновременно максимизировать прогностическую способность.

Разумным ограничением разреженности является норма , определяемый как количество ненулевых элементов в . Решение Однако было продемонстрировано, что проблема регуляризованного обучения является NP-трудной . [7]

The норма (см. также Нормы ) может использоваться для аппроксимации оптимального норма посредством выпуклой релаксации. Можно показать, что норма вызывает разреженность. В случае метода наименьших квадратов эта проблема известна как LASSO в статистике и поиск базиса в обработке сигналов.

Эластичная чистая регуляризация

регуляризация может иногда давать неуникальные решения. На рисунке представлен простой пример, когда пространство возможных решений лежит на линии 45 градусов. Это может быть проблематично для некоторых приложений и решается путем объединения с регуляризация в эластичной сетевой регуляризации , которая принимает следующий вид:

Эластичная чистая регуляризация имеет тенденцию иметь эффект группировки, когда коррелированным входным объектам присваиваются равные веса.

Эластичная регуляризация сети широко используется на практике и реализована во многих библиотеках машинного обучения.

Проксимальные методы [ править ]

В то время норма не приводит к NP-трудной задаче, норма выпукла, но не является строго дифференцируемой из-за перегиба при x = 0. субградиентные методы , основанные на субпроизводной. Для решения можно использовать регулярные проблемы обучения. Однако более быстрая конвергенция может быть достигнута с помощью проксимальных методов.

Для проблемы такой, что является выпуклым, непрерывным, дифференцируемым, с липшицевым непрерывным градиентом (например, функцией потерь по методу наименьших квадратов) и является выпуклым, непрерывным и собственным, то ближайший метод решения задачи заключается в следующем. Сначала определите проксимальный оператор

а затем повторить

Проксимальный метод итеративно выполняет градиентный спуск, а затем проецирует результат обратно в пространство, разрешенное .

Когда является регуляризатором L 1 , проксимальный оператор эквивалентен оператору мягкого порога,

Это позволяет проводить эффективные вычисления.

Разреженность групп без перекрытий [ править ]

Группы признаков можно регуляризовать с помощью ограничения разреженности, что может быть полезно для выражения определенных предварительных знаний в задаче оптимизации.

В случае линейной модели с непересекающимися известными группами можно определить регуляризатор:

где

Это можно рассматривать как создание регуляризатора над норму над членами каждой группы, за которой следует норма над группами.

Эту проблему можно решить проксимальным методом, где проксимальный оператор представляет собой блочную функцию мягкого порога:

Разреженность групп с перекрытиями [ править ]

Алгоритм, описанный для разреженности групп без перекрытий, в определенных ситуациях можно применить к случаю, когда группы действительно перекрываются. Скорее всего, это приведет к появлению некоторых групп со всеми нулевыми элементами, а других групп с некоторыми ненулевыми и некоторыми нулевыми элементами.

Если желательно сохранить структуру группы, можно определить новый регуляризатор:

Для каждого , определяется как вектор такой, что ограничение в группу равно и все остальные записи равны нулю. Регуляризатор находит оптимальную дезинтеграцию на части. Его можно рассматривать как дублирование всех элементов, существующих в нескольких группах. Задачи обучения с помощью этого регуляризатора также можно решить проксимальным методом с некоторым усложнением. Проксимальный оператор не может быть вычислен в закрытой форме, но может быть эффективно решен итеративно, вызывая внутреннюю итерацию внутри итерации проксимального метода.

полуконтролируемого обучения для Регуляризаторы

Когда сбор меток обходится дороже, чем входные примеры, может оказаться полезным полуконтролируемое обучение. Регуляризаторы были разработаны для управления алгоритмами обучения для изучения моделей, которые учитывают структуру неконтролируемых обучающих выборок. Если симметричная весовая матрица задан, можно определить регуляризатор:

Если кодирует результат некоторой метрики расстояния для точек и , желательно, чтобы . Этот регуляризатор отражает эту интуицию и эквивалентен:

где матрица Лапласа графа, индуцированного .

Проблема оптимизации можно решить аналитически, если ограничение применяется для всех контролируемых образцов. Меченая часть вектора поэтому очевидно. Немаркированная часть решается путем:

Псевдообратный вариант можно использовать, поскольку имеет тот же диапазон, что и .

для многозадачного Регуляризаторы обучения

В случае многозадачного обучения проблемы рассматриваются одновременно, каждая из которых так или иначе связана. Цель – научиться функции, в идеале заимствующие силу из связанности задач, обладающие предсказательной силой. Это эквивалентно изучению матрицы .

Разреженный регуляризатор для столбцов [ править ]

Этот регуляризатор определяет норму L2 для каждого столбца и норму L1 для всех столбцов. Ее можно решить проксимальными методами.

ядерных норм Регуляризация

где собственные значения в сингулярном разложении .

Регуляризация с ограничением по среднему [ править ]

Этот регуляризатор ограничивает функции, изученные для каждой задачи, похожими на общее среднее значение функций по всем задачам. Это полезно для выражения предварительной информации, которой каждая задача должна делиться друг с другом. Примером может служить прогнозирование уровня железа в крови, измеренного в разное время дня, где каждая задача представляет отдельного человека.

Кластерная регуляризация с ограничением по среднему [ править ]

где представляет собой кластер задач.

Этот регуляризатор похож на регуляризатор с ограничением по среднему значению, но вместо этого обеспечивает сходство между задачами в одном кластере. Это может собирать более сложную априорную информацию. Этот метод использовался для прогнозирования рекомендаций Netflix . Кластер будет соответствовать группе людей со схожими предпочтениями.

Сходство на основе графика [ править ]

В более общем смысле, чем указано выше, сходство между задачами можно определить с помощью функции. Регуляризатор побуждает модель изучать аналогичные функции для аналогичных задач.

для заданной симметричной матрицы подобия .

использования регуляризации в статистике и машинном обучении варианты Другие

Байесовские методы обучения используют априорную вероятность , которая (обычно) снижает вероятность более сложных моделей. Хорошо известные методы выбора модели включают информационный критерий Акаике (AIC), минимальную длину описания (MDL) и байесовский информационный критерий (BIC). Альтернативные методы контроля переобучения, не связанные с регуляризацией, включают перекрестную проверку .

Примеры применения различных методов регуляризации к линейной модели :

Модель Подходящая мера Мера энтропии [5] [8]
АИК / БИК
Лассо [9]
Гребневая регрессия [10]
Шумоподавление базового преследования
Модель Рудина–Ошера–Фатеми (ТВ)
Модель Поттса
РЛАД [11]
Селектор Данцига [12]
СКЛОН [13]

См. также [ править ]

Примечания [ править ]

  1. ^ Крациос, Анастасис (2020). «Глубокое обучение без арбитража в обобщенной структуре HJM с использованием данных регуляризации арбитража» . Риски. 8 (2): [1] . дои : 10.3390/risks8020040 . hdl : 20.500.11850/456375 . Модели временной структуры можно упорядочить, чтобы исключить возможности арбитража [ sic ? ]. {{cite journal}}: Для цитирования журнала требуется |journal= ( помощь )
  2. ^ Бюльманн, Питер; Ван Де Гир, Сара (2011). Статистика для многомерных данных . Серия Спрингера по статистике. п. 9 . дои : 10.1007/978-3-642-20192-9 . ISBN  978-3-642-20191-2 . Если p > n, обычная оценка методом наименьших квадратов не уникальна и будет сильно переопределять данные. Таким образом, будет необходима форма регуляризации сложности.
  3. ^ Гудфеллоу, Ян; Бенджио, Йошуа; Курвиль, Аарон. Книга глубокого обучения . Проверено 29 января 2021 г.
  4. ^ Перейти обратно: а б с д Это Го, Джингру. «Заметки об искусственном интеллекте: регуляризация нейронных сетей» . глубокое обучение.ай . Проверено 4 февраля 2024 г.
  5. ^ Перейти обратно: а б Бишоп, Кристофер М. (2007). Распознавание образов и машинное обучение (Корр. полиграфия. Под ред.). Нью-Йорк: Спрингер. ISBN  978-0-387-31073-2 .
  6. ^ О связи между максимальной апостериорной оценкой и гребневой регрессией см. Вайнбергер, Килиан (11 июля 2018 г.). «Линейная/гребневая регрессия» . CS4780 Машинное обучение Лекция 13 . Корнелл.
  7. ^ Натараджан, Б. (1 апреля 1995 г.). «Разреженные приближенные решения линейных систем» . SIAM Journal по вычислительной технике . 24 (2): 227–234. дои : 10.1137/S0097539792240406 . ISSN   0097-5397 . S2CID   2072045 .
  8. ^ Дуда, Ричард О. (2004). Классификация узоров + руководство для компьютера: комплект в твердом переплете (2-е изд.). Нью-Йорк [ua]: Уайли. ISBN  978-0-471-70350-1 .
  9. ^ Тибширани, Роберт (1996). «Регрессионное сжатие и отбор с помощью лассо» ( PostScript ) . Журнал Королевского статистического общества, серия B. 58 (1): 267–288. МР   1379242 . Проверено 19 марта 2009 г.
  10. ^ Артур Э. Хорл; Роберт В. Кеннард (1970). «Гребетная регрессия: смещенная оценка неортогональных задач». Технометрика . 12 (1): 55–67. дои : 10.2307/1267351 . JSTOR   1267351 .
  11. ^ Ли Ван; Майкл Д. Гордон; Цзи Чжу (2006). «Регуляризованная регрессия наименьших абсолютных отклонений и эффективный алгоритм настройки параметров». Шестая международная конференция по интеллектуальному анализу данных . стр. 690–700. дои : 10.1109/ICDM.2006.134 . ISBN  978-0-7695-2701-7 .
  12. ^ Кандес, Эммануэль ; Тао, Теренс (2007). «Селектор Данцига: статистическая оценка, когда p намного больше n ». Анналы статистики . 35 (6): 2313–2351. arXiv : math/0506081 . дои : 10.1214/009053606000001523 . МР   2382644 . S2CID   88524200 .
  13. ^ Малгожата Богдан; Эвоут ван ден Берг; Вэйцзе Су; Эммануэль Дж. Кандес (2013). «Статистическая оценка и тестирование по упорядоченной норме L1». arXiv : 1310.1969 [ стат.МЕ ].

Ссылки [ править ]