Множественное обучение ядра
Часть серии о |
Машинное обучение и интеллектуальный анализ данных |
---|
Множественное обучение ядер относится к набору методов машинного обучения, которые используют заранее определенный набор ядер и изучают оптимальную линейную или нелинейную комбинацию ядер как часть алгоритма. Причины использования множественного обучения ядра включают в себя: а) возможность выбора оптимального ядра и параметров из большего набора ядер, уменьшение систематической ошибки из-за выбора ядра, одновременно позволяя использовать более автоматизированные методы машинного обучения, и б) объединение данных из разных источников ( например, звук и изображения из видео), которые имеют разные представления о сходстве и, следовательно, требуют разных ядер. Вместо создания нового ядра можно использовать несколько алгоритмов ядра для объединения уже установленных ядер для каждого отдельного источника данных.
Несколько подходов к обучению ядра использовались во многих приложениях, таких как распознавание событий в видео, [ 1 ] распознавание объектов на изображениях, [ 2 ] и объединение биомедицинских данных. [ 3 ]
Алгоритмы
[ редактировать ]Было разработано несколько алгоритмов обучения ядра для контролируемого, полуконтролируемого и неконтролируемого обучения. Большая часть работы была проделана в случае контролируемого обучения с линейными комбинациями ядер, однако было разработано множество алгоритмов. Основная идея алгоритмов обучения с несколькими ядрами заключается в добавлении дополнительного параметра к задаче минимизации алгоритма обучения. В качестве примера рассмотрим случай контролируемого обучения линейной комбинации набора ядра . Представляем новое ядро , где — вектор коэффициентов для каждого ядра. Поскольку ядра аддитивны (из-за свойств воспроизведения ядерных гильбертовых пространств ), эта новая функция по-прежнему остается ядром. Для набора данных с этикетками тогда задачу минимизации можно записать как
где является функцией ошибок и является термином регуляризации. обычно это функция квадратичных потерь ( регуляризация Тихонова ) или функция шарнирных потерь (для SVM ), и алгоритмов обычно является норма или некоторая комбинация норм (т.е. эластичная сетчатая регуляризация ). Эту задачу оптимизации затем можно решить стандартными методами оптимизации. Адаптации существующих методов, таких как последовательная минимальная оптимизация, также были разработаны для методов на основе SVM с несколькими ядрами. [ 4 ]
Обучение под присмотром
[ редактировать ]Для обучения с учителем существует множество других алгоритмов, которые используют разные методы для изучения формы ядра. Следующая классификация была предложена Гоненом и Алпайдином (2011). [ 5 ]
Подходы с фиксированными правилами
[ редактировать ]Подходы с фиксированными правилами, такие как описанный выше алгоритм линейной комбинации, используют правила для установки комбинации ядер. Они не требуют параметризации и используют такие правила, как суммирование и умножение, для объединения ядер. Вес изучается в алгоритме. Другие примеры фиксированных правил включают попарные ядра, которые имеют вид
- .
Эти парные подходы использовались для прогнозирования белок-белковых взаимодействий. [ 6 ]
Эвристические подходы
[ редактировать ]Эти алгоритмы используют параметризованную комбинированную функцию. Параметры обычно определяются для каждого отдельного ядра на основе производительности одного ядра или некоторых вычислений из матрицы ядра. Примеры их включают ядро от Tenabe et al. (2008). [ 7 ] Сдача в аренду быть точностью, полученной с использованием только и позволяя быть порогом меньшим, чем минимум одноядерной точности, мы можем определить
Другие подходы используют определение сходства ядра, например
Используя эту меру, Куи и Лейн (2009) [ 8 ] использовал следующую эвристику для определения
Подходы к оптимизации
[ редактировать ]Эти подходы решают задачу оптимизации для определения параметров функции объединения ядер. Это было сделано с помощью мер сходства и подходов к минимизации структурных рисков. Для мер сходства, таких как определенная выше, проблему можно сформулировать следующим образом: [ 9 ]
где является ядром обучающего набора.
к минимизации структурного риска Используемые подходы включают линейные подходы, например, использованный Lanckriet et al. (2002). [ 10 ] Мы можем определить неправдоподобность ядра быть значением целевой функции после решения канонической задачи SVM. Тогда мы можем решить следующую задачу минимизации:
где является положительной константой. Существует множество других вариаций той же идеи с разными методами уточнения и решения проблемы, например, с неотрицательными весами для отдельных ядер и использованием нелинейных комбинаций ядер.
Байесовский подход
[ редактировать ]Байесовские подходы помещают априорные значения в параметры ядра и изучают значения параметров из априорных значений и базового алгоритма. Например, функцию решения можно записать как
можно смоделировать с помощью априора Дирихле и может быть смоделировано с помощью гауссианы с нулевым средним и априорной обратной гамма-дисперсией. Затем эта модель оптимизируется с использованием индивидуального полиномиального пробит -подхода с сэмплером Гиббса .
[ 11 ] Эти методы успешно использовались в таких приложениях, как распознавание складок белков и проблемы гомологии белков. [ 12 ] [ 13 ]
Усиление подходов
[ редактировать ]Подходы к ускорению добавляют новые ядра итеративно до тех пор, пока не будет достигнут некоторый критерий остановки, который является функцией производительности. Примером этого является модель MARK, разработанная Беннеттом и др. (2002) [ 14 ]
Параметры и изучаются методом градиентного спуска на координатной основе. Таким образом, каждая итерация алгоритма спуска определяет лучший столбец ядра, который следует выбрать на каждой конкретной итерации, и добавляет его к объединенному ядру. Затем модель перезапускается для генерации оптимальных весов. и .
Полуконтролируемое обучение
[ редактировать ]Подходы полуконтролируемого обучения к обучению с несколькими ядрами аналогичны другим расширениям подходов контролируемого обучения. Была разработана индуктивная процедура, которая использует эмпирические потери логарифмического правдоподобия и групповую регуляризацию LASSO с консенсусом по условным ожиданиям для немаркированных данных для категоризации изображений. Мы можем определить проблему следующим образом. Позволять быть помеченными данными, и пусть быть набором непомеченных данных. Тогда мы можем записать функцию решения следующим образом.
Задачу можно записать так
где - функция потерь (в данном случае взвешенное отрицательное логарифмическое правдоподобие), — параметр регуляризации ( в данном случае Group LASSO ), а — это штраф за консенсус условного ожидания (CEC) для немаркированных данных. Наказание ЦИК определяется следующим образом. Пусть предельная плотность ядра для всех данных равна
где (расстояние ядра между помеченными данными и всеми помеченными и неразмеченными данными) и представляет собой неотрицательный случайный вектор с 2-нормой, равной 1. Значение — сколько раз проецируется каждое ядро. Затем на MKD выполняется регуляризация ожиданий, в результате чего получается эталонное ожидание. и модельное ожидание . Затем мы определяем
где — расхождение Кульбака-Лейблера . Комбинированная задача минимизации оптимизируется с использованием модифицированного алгоритма блочного градиентного спуска. Для получения дополнительной информации см. Wang et al. [ 15 ]
Обучение без присмотра
[ редактировать ]Алгоритмы обучения с несколькими ядрами без присмотра также были предложены Zhuang et al. Проблема определяется следующим образом. Позволять быть набором немаркированных данных. Определение ядра — линейное комбинированное ядро. . В этой задаче данные необходимо «кластеризовать» в группы на основе расстояний ядра. Позволять быть группой или кластером, в котором является членом. Определим функцию потерь как . Кроме того, мы минимизируем искажения, минимизируя . Наконец, мы добавляем термин регуляризации, чтобы избежать переобучения. Объединив эти члены, мы можем записать задачу минимизации следующим образом.
где . Одна из формулировок этого определяется следующим образом. Позволять быть такой матрицей, что означает, что и являются соседями. Затем, . Обратите внимание, что эти группы также необходимо выучить. Чжуанг и др. решить эту задачу попеременным методом минимизации для и группы . Для получения дополнительной информации см. Zhuang et al. [ 16 ]
Библиотеки
[ редактировать ]Доступные библиотеки MKL включают в себя
- SPG-GMKL : масштабируемая библиотека C++ MKL SVM, способная обрабатывать миллион ядер. [ 17 ]
- GMKL : Обобщенный код множественного обучения в MATLAB . и регуляризация для контролируемого обучения. [ 18 ]
- (Другой) GMKL : другой код MATLAB MKL, который также может выполнять регуляризацию эластичной сети. [ 19 ]
- SMO-MKL : исходный код C++ для алгоритма последовательной минимальной оптимизации MKL. Делает -n или регуляризация. [ 20 ]
- SimpleMKL : код MATLAB, основанный на алгоритме SimpleMKL для MKL SVM. [ 21 ]
- MKLPy : среда Python для машин MKL и ядра, совместимая с scikit и различными алгоритмами, например EasyMKL. [ 22 ] и другие.
Ссылки
[ редактировать ]- ^ Линь Чен, Ликсин Дуань и Донг Сюй, «Распознавание событий в видео путем обучения из гетерогенных веб-источников», на Международной конференции IEEE по компьютерному зрению и распознаванию образов (CVPR), 2013, стр. 2666-2673.
- ^ Серхат С. Букак, Ронг Джин и Анил К. Джайн, Многоядерное обучение для визуального распознавания объектов: обзор. Т-ПАМИ, 2013.
- ^ Ю и др. Многоядерное обучение по норме L2 и его применение для объединения биомедицинских данных . БМЦ Биоинформатика 2010, 11:309
- ^ Фрэнсис Р. Бах, Герт Р.Г. Ланкриет и Майкл И. Джордан. 2004. Множественное обучение ядра, коническая двойственность и алгоритм SMO . В материалах двадцать первой международной конференции по машинному обучению (ICML '04). ACM, Нью-Йорк, штат Нью-Йорк, США
- ^ Мехмет Генен, Этем Алпайдин. Журнал «Множественные алгоритмы обучения ядра» . Мах. Учиться. Рис. 12 июля: 2211–2268 гг., 2011 г.
- ^ Бен-Гур, А. и Нобл В.С. Методы ядра для прогнозирования белок-белковых взаимодействий. Биоинформатика. 2005 июня; 21 Приложение 1: i38-46.
- ^ Хироаки Танабэ, Ту Бао Хо, Кань Хао Нгуен и Саори Кавасаки. Простые, но эффективные методы для объединения ядер в вычислительной биологии. В материалах международной конференции IEEE по исследованиям, инновациям и видению будущего, 2008 г.
- ^ Шибин Цю и Терран Лейн. Фреймворк для множественной векторной регрессии ядра и его приложения для прогнозирования эффективности siRNA. Транзакции IEEE/ACM по вычислительной биологии и биоинформатика, 6(2):190–199, 2009 г.
- ^ Герт Р.Г. Ланкриет, Нелло Кристианини, Питер Бартлетт, Лоран Эль Гауи и Майкл И. Джордан. Изучение матрицы ядра с помощью полуопределенного программирования. Журнал исследований машинного обучения, 5:27–72, 2004а
- ^ Герт Р.Г. Ланкриет, Нелло Кристианини, Питер Бартлетт, Лоран Эль Гауи и Майкл И. Джордан. Изучение матрицы ядра с помощью полуопределенного программирования. В материалах XIX Интернационала Конференция по машинному обучению, 2002 г.
- ^ Марк Джиролами и Саймон Роджерс. Иерархические байесовские модели для обучения ядра. В материалах 22-й Международной конференции по машинному обучению, 2005 г.
- ^ Теодорос Дамулас и Марк А. Джиролами. Объединение пространств признаков для классификации. Шаблон Признание, 42(11):2671–2683, 2009 г.
- ^ Теодорос Дамулас и Марк А. Джиролами. Вероятностное многоклассовое многоядерное обучение: Вкл. Распознавание складок белка и обнаружение удаленной гомологии. Биоинформатика, 24(10):1264–1270, 2008 год
- ^ Кристин П. Беннетт, Мичинари Мама и Марк Дж. Эмбрехтс. МАРК: Алгоритм повышения гетерогенные модели ядра. В материалах 8-й Международной конференции ACM SIGKDD по обнаружению знаний и интеллектуальному анализу данных, 2002 г.
- ^ Ван, Шухуэй и др. S3MKL: масштабируемое полуконтролируемое множественное обучение для реальных приложений с изображениями . ТРАНЗАКЦИИ IEEE ПО МУЛЬТИМЕДИИ, ТОМ. 14, НЕТ. 4 АВГУСТА 2012 ГОДА
- ^ Дж. Чжуан, Дж. Ван, SCH Hoi и X. Lan. Неконтролируемое множественное обучение ядра . Жур. Мах. Учиться. Рез. 20:129–144, 2011 г.
- ^ Ашеш Джайн, SVN Вишванатан и Маник Варма. SPG-GMKL: обобщенное множественное обучение с миллионом ядер. В материалах конференции ACM SIGKDD по обнаружению знаний и интеллектуальному анализу данных, Пекин, Китай, август 2012 г.
- ^ М. Варма и Б. Р. Бабу. Больше общности в эффективном обучении с несколькими ядрами. В материалах Международной конференции по машинному обучению, Монреаль, Канада, июнь 2009 г.
- ^ Ян, Х., Сюй, З., Йе, Дж., Кинг, И. и Лю, MR (2011). Эффективное разреженное обобщенное множественное обучение. Транзакции IEEE в нейронных сетях, 22 (3), 433-446.
- ^ СВН Вишванатан, З. Сан, Н. Тира-Ампорнпунт и М. Варма. Множественное обучение ядра и алгоритм SMO. В журнале «Достижения в области нейронных систем обработки информации», Ванкувер, Британская Колумбия, Канада, декабрь 2010 г.
- ^ Ален Ракотомамонжи, Фрэнсис Бах, Стефан Каню, Ив Гранвале. ПростойMKL. Журнал исследований машинного обучения, Microtome Publishing, 2008, 9, стр. 2491-2521.
- ^ Фабио Айолли, Микеле Донини. EasyMKL: масштабируемый алгоритм обучения с несколькими ядрами . Нейрокомпьютинг, 169, стр. 215-224.