Регуляризация матрицы
В области теории обучения статистической матричная регуляризация обобщает понятия векторной регуляризации на случаи, когда объектом обучения является матрица. Цель регуляризации — обеспечить соблюдение условий, например разреженности или гладкости, которые могут обеспечить стабильные прогностические функции. Например, в более распространенной векторной модели регуляризация Тихонова оптимизируется по найти вектор это стабильное решение проблемы регрессии. Когда система описывается матрицей, а не вектором, эту задачу можно записать как где векторная норма, налагающая штраф за регуляризацию на был расширен до матричной нормы на .
Регуляризация матриц находит применение в дополнении матриц , многомерной регрессии и многозадачном обучении . Идеи выбора признаков и групп также можно распространить на матрицы, и их можно обобщить на непараметрический случай обучения с несколькими ядрами .
Основное определение
[ редактировать ]Рассмотрим матрицу учиться на ряде примеров, , где идет от к , и идет от к . Пусть каждая входная матрица быть , и пусть быть большого размера . Общая модель вывода можно представить как где внутренний продукт — это внутренний продукт Фробениуса . Для различных приложений матрицы будут иметь разные формы, [1] но для каждого из них можно сделать вывод о задаче оптимизации можно записать как где определяет эмпирическую ошибку для данного , и является штрафом за регуляризацию матрицы. Функция обычно выбирается выпуклым и часто выбирается для обеспечения разреженности (с использованием -нормы) и/или гладкость (с использованием -нормы). Окончательно, находится в пространстве матриц с внутренним произведением Фробениуса .
Общие приложения
[ редактировать ]Завершение матрицы
[ редактировать ]В задаче о пополнении матрицы матрица принимает форму где и являются канонической основой в и . В этом случае роль внутреннего продукта Фробениуса заключается в выборе отдельных элементов. из матрицы . Таким образом, вывод это выборка записей из матрицы .
Проблема реконструкции из небольшого набора выборочных записей возможно только при определенных ограничениях на матрицу, и эти ограничения могут быть реализованы с помощью функции регуляризации. Например, можно предположить, что имеет низкий ранг, и в этом случае штраф за регуляризацию может принять форму ядерной нормы. [2] где , с от к , являются сингулярными значениями .
Многомерная регрессия
[ редактировать ]Модели, используемые в многомерной регрессии, параметризуются матрицей коэффициентов. В приведенном выше внутреннем продукте Фробениуса каждая матрица является так, что выход внутреннего продукта представляет собой скалярное произведение одной строки входных данных с одним столбцом матрицы коэффициентов. Знакомая форма таких моделей:
Многие из векторных норм, используемых в регрессии с одной переменной, можно распространить на многомерный случай. Одним из примеров является квадрат нормы Фробениуса, который можно рассматривать как -норма, действующая либо по элементам, либо на сингулярные значения матрицы:
В многомерном случае эффект регуляризации с нормой Фробениуса такой же, как и в векторном случае; очень сложные модели будут иметь более высокие нормы и, следовательно, будут подвергаться большему наказанию.
Многозадачное обучение
[ редактировать ]Настройка многозадачного обучения почти такая же, как и настройка многомерной регрессии. Основное отличие состоит в том, что входные переменные также индексируются по задачам (столбцы ). Тогда представление с внутренним продуктом Фробениуса будет
Роль матричной регуляризации в этом случае может быть такой же, как и в многомерной регрессии, но матричные нормы также можно использовать для объединения проблем обучения в разных задачах. В частности, отметим, что для задачи оптимизации решения, соответствующие каждому столбцу развязаны. То есть одно и то же решение можно найти, решив общую задачу или решив изолированную задачу регрессии для каждого столбца. Проблемы можно объединить, добавив дополнительный штраф за регуляризацию ковариации решений. где моделирует взаимосвязь между задачами. Эту схему можно использовать как для обеспечения сходства решений между задачами, так и для изучения конкретной структуры сходства задач путем чередования оптимизаций и . [3] Когда известно, что взаимосвязь между задачами представлена на графике, матрицу Лапласа графика можно использовать для объединения задач обучения.
Спектральная регуляризация
[ редактировать ]Регуляризация с помощью спектральной фильтрации использовалась для поиска устойчивых решений проблем, подобных тем, которые обсуждались выше, путем обращения к некорректным инверсиям матриц (см., например, функцию фильтра для регуляризации Тихонова ). Во многих случаях функция регуляризации воздействует на входные данные (или ядро), чтобы гарантировать ограниченное обратное путем исключения небольших сингулярных значений, но также может быть полезно иметь спектральные нормы, которые действуют на матрицу, которую необходимо изучить.
Существует ряд матричных норм, которые действуют на сингулярные значения матрицы. Часто используемые примеры включают p-нормы Шаттена с p = 1 или 2. Например, регуляризация матрицы с помощью 1-нормы Шаттена, также называемой ядерной нормой, может использоваться для обеспечения разреженности спектра матрицы. Это использовалось в контексте завершения матрицы, когда считается, что рассматриваемая матрица имеет ограниченный ранг. [2] В этом случае задача оптимизации становится следующей:
Спектральная регуляризация также используется для обеспечения применения уменьшенной матрицы ранговых коэффициентов в многомерной регрессии. [4] В этом случае матрицу коэффициентов уменьшенного ранга можно найти, оставив только верхнюю часть. сингулярные значения, но его можно расширить, чтобы сохранить любой сокращенный набор сингулярных значений и векторов.
Структурированная разреженность
[ редактировать ]Разреженная оптимизация стала предметом большого исследовательского интереса как способ поиска решений, которые зависят от небольшого числа переменных (см., например, метод Лассо ). В принципе, разреженность по входам можно обеспечить путем наложения штрафов на входы. -норма матрицы, но -норма не является выпуклой. На практике это можно реализовать путем выпуклой релаксации к -норм. В то время как регуляризация по входу с -norm найдет решения с небольшим числом ненулевых элементов, применяя -норма для разных групп переменных может обеспечить структуру при разреженности решений. [5]
Самый простой пример структурированной разреженности использует норма с и :
Например, норма используется в многозадачном обучении для группировки функций по задачам, так что все элементы в данной строке матрицы коэффициентов могут быть обнулены как группа. [6] Эффект группировки достигается за счет принятия -нормы каждой строки, а затем принимая общий штраф за сумму этих норм по строкам. Эта регуляризация приводит к тому, что строки будут иметь тенденцию быть нулевыми или плотными. Тот же тип регуляризации можно использовать для обеспечения разреженности по столбцам, взяв -нормы каждого столбца.
В более общем смысле, норму можно применять к произвольным группам переменных: где индекс по группам переменных, и указывает мощность группы .
Алгоритмы решения этих проблем разреженности групп расширяют более известные методы Лассо и группового лассо, позволяя, например, перекрываться группы, и были реализованы посредством поиска совпадений : [7] и проксимальные градиентные методы . [8] Записав проксимальный градиент по отношению к заданному коэффициенту, , можно видеть, что эта норма обеспечивает соблюдение группового мягкого порога [1] где – индикаторная функция групповых норм .
Таким образом, используя Согласно нормам, легко обеспечить структуру разреженной матрицы либо по строкам, либо по столбцам, либо в произвольных блоках. Например, применяя групповые нормы к блокам в многомерной или многозадачной регрессии, можно найти группы входных и выходных переменных, такие, что определенные подмножества выходных переменных (столбцы в матрице ) будет зависеть от одного и того же разреженного набора входных переменных.
Выбор нескольких ядер
[ редактировать ]Идеи структурированной разреженности и выбора признаков можно распространить на непараметрический случай множественного обучения ядра . [9] Это может быть полезно, когда имеется несколько типов входных данных (например, цвет и текстура) с разными подходящими ядрами для каждого или когда подходящее ядро неизвестно. Если есть два ядра, например, с картами признаков и лежащие в соответствующих воспроизводящих ядерных гильбертовых пространствах , затем большее пространство, , может быть создан как сумма двух пробелов: предполагая линейную независимость в и . В этом случае -норма – это снова сумма норм:
Таким образом, выбрав в качестве нормы такого типа матричную функцию регуляризации, можно найти решение, разреженное по количеству используемых ядер, но плотное по коэффициенту каждого используемого ядра. Обучение с использованием нескольких ядер также можно использовать как форму выбора нелинейных переменных или как метод агрегирования модели (например, путем взятия суммы квадратов норм и ослабления ограничений разреженности). Например, каждое ядро можно считать ядром Гаусса разной ширины.
См. также
[ редактировать ]Ссылки
[ редактировать ]- ^ Jump up to: а б Росаско, Лоренцо; Поджо, Томазо (декабрь 2014 г.). «Экскурсия по машинному обучению по регуляризации». Конспект лекций MIT-9.520 (Рукопись).
- ^ Jump up to: а б Кандес, Эммануэль Ж .; Рехт, Бенджамин (2009). «Точное пополнение матрицы посредством выпуклой оптимизации» . Основы вычислительной математики . 9 (6): 717–772. дои : 10.1007/s10208-009-9045-5 .
- ^ Чжан; Юнг (2012). «Выпуклая формулировка взаимоотношений задач обучения в многозадачном обучении». Материалы двадцать шестой конференции по неопределенности в искусственном интеллекте (UAI2010) . arXiv : 1203.3536 . Бибкод : 2012arXiv1203.3536Z .
- ^ Изенман, Алан Дж. (1975). «Регрессия пониженного ранга для многомерной линейной модели» . Журнал многомерного анализа . 5 (2): 248–264. дои : 10.1016/0047-259X(75)90042-1 .
- ^ Какаде; Шалев-Шварц; Тевари (2012). «Методы регуляризации для обучения с помощью матриц» . Журнал исследований машинного обучения . 13 : 1865–1890.
- ^ Аргириу, А.; Евгениу, Т.; Понтил, М. (2008). «Выпуклое многозадачное обучение» . Машинное обучение . 73 (3): 243–272. дои : 10.1007/s10994-007-5040-8 .
- ^ Хуан; Чжан; Метаксас (2011). «Обучение со структурированной разреженностью» . Журнал исследований машинного обучения . 12 : 3371–3412.
- ^ Чен, Си; и др. (2012). «Метод сглаживания проксимального градиента для общей структурированной разреженной регрессии» . Анналы прикладной статистики . 6 (2): 719–752. arXiv : 1005.4717 . дои : 10.1214/11-AOAS514 .
- ^ Зонненбург; Ратч; Шафер; Шолькопф (2006). «Крупномасштабное множественное обучение» . Журнал исследований машинного обучения . 7 : 1531–1565.