Встраивание дистрибутивов в ядро
Эту статью может потребовать очистки Википедии , чтобы она соответствовала стандартам качества . Конкретная проблема заключается в следующем: эту абсурдность вызова распределения P ( X ) с заглавной буквы X , когда заглавная буква X также является именем случайной величины, и другие подобные вещи необходимо очистить. ( Март 2020 г. ) |
В машинном обучении встраивание распределений в ядро (также называемое средним значением ядра или картой средних значений ) включает класс непараметрических методов, в которых распределение вероятностей представляется как элемент воспроизводящего ядра гильбертова пространства (RKHS). [1] Обобщение сопоставления признаков отдельных точек данных, выполненное с помощью классических методов ядра , встраивание распределений в бесконечномерные пространства признаков может сохранить все статистические характеристики произвольных распределений, в то же время позволяя сравнивать распределения и манипулировать ими с использованием операций гильбертового пространства, таких как как внутренние произведения , расстояния, проекции , линейные преобразования и спектральный анализ . [2] Эта структура обучения очень общая и может применяться к распределениям в любом пространстве. на которой разумная функция ядра (измеряющая сходство между элементами ) можно определить. Например, для обучения на основе данных были предложены различные ядра: векторы в , дискретные классы/категории, строки , графы / сети , изображения, временные ряды , многообразия , динамические системы и другие структурированные объекты. [3] [4] Теория, лежащая в основе вложений ядра распределений, была в первую очередь разработана Алексом Смолой , Ле Сонгом , Артуром Греттоном и Бернхардом Шёлкопфом . Обзор последних работ по встраиванию дистрибутивов в ядро можно найти здесь. [5]
Анализ распределений имеет фундаментальное значение в машинном обучении и статистике , и многие алгоритмы в этих областях полагаются на теоретико-информационные подходы, такие как энтропия , взаимная информация или расхождение Кульбака-Лейблера . Однако для оценки этих величин необходимо сначала либо выполнить оценку плотности, либо использовать сложные стратегии пространственного разделения/коррекции смещения, которые обычно неосуществимы для многомерных данных. [6] Обычно методы моделирования сложных распределений основаны на параметрических предположениях, которые могут быть необоснованными или сложными с точки зрения вычислений (например, модели гауссовой смеси ), в то время как непараметрические методы, такие как оценка плотности ядра (Примечание: ядра сглаживания в этом контексте интерпретируются иначе, чем ядра, обсуждаемые здесь). ) или представление характеристической функции (через преобразование Фурье распределения) нарушаются в многомерных условиях. [2]
Методы, основанные на встраивании дистрибутивов в ядро, обходят эти проблемы, а также обладают следующими преимуществами: [6]
- Данные можно моделировать без ограничительных предположений о форме распределений и взаимосвязях между переменными.
- Промежуточная оценка плотности не требуется
- Практикующие специалисты могут указать свойства дистрибутива, наиболее подходящие для их проблемы (с учетом предварительных знаний путем выбора ядра).
- Если используется характеристическое ядро, то встраивание позволяет однозначно сохранить всю информацию о распределении, а благодаря трюку с ядром вычисления на потенциально бесконечномерном RKHS могут быть реализованы на практике как простые Грама . матричные операции
- Можно доказать независимую от размерности скорость сходимости эмпирического среднего значения ядра (оцененного с использованием выборок из распределения) к вложению ядра истинного основного распределения.
- Алгоритмы обучения, основанные на этой структуре, демонстрируют хорошую способность к обобщению и сходимость на конечной выборке, при этом часто они проще и эффективнее, чем методы теории информации.
Таким образом, обучение посредством встраивания распределений в ядро предлагает принципиальную замену теоретико-информационным подходам и представляет собой структуру, которая не только включает многие популярные методы машинного обучения и статистики в качестве особых случаев, но также может привести к совершенно новым алгоритмам обучения.
Определения
[ редактировать ]Позволять обозначим случайную величину с доменом и распространение . Учитывая симметричное положительно определенное ядро теорема Мура – Ароншайна утверждает существование уникального RKHS на ( гильбертово пространство функций оснащен внутренним продуктом и норма ) для чего является воспроизводящим ядром, т. е. в котором элемент удовлетворяет воспроизводящему свойству
Альтернативно можно рассмотреть как неявное сопоставление функций (которое поэтому также называют пространством признаков), так что можно рассматривать как меру сходства между точками Хотя мера сходства является линейной в пространстве признаков, она может быть сильно нелинейной в исходном пространстве в зависимости от выбора ядра.
Встраивание ядра
[ редактировать ]Встраивание ядра дистрибутива в (также называемое средним значением ядра или средней картой ) определяется следующим образом: [1]
Если допускает квадратично интегрируемую плотность , затем , где – интегральный оператор Гильберта–Шмидта . Ядро является характерным, если среднее вложение является инъективным. [7] Таким образом, каждое распределение может быть однозначно представлено в RKHS, и все статистические характеристики распределений сохраняются за счет встраивания ядра, если используется характеристическое ядро.
Эмпирическое встраивание ядра
[ редактировать ]Данный примеры обучения взятые независимо и одинаково распределенные (iid) из встраивание ядра можно оценить эмпирически как
Встраивание совместного распределения
[ редактировать ]Если обозначает другую случайную величину (для простоты предположим, что это ко-область также с тем же ядром который удовлетворяет ), то совместное распределение может быть отображено в тензорного произведения пространстве признаков с помощью [2]
В силу эквивалентности между тензором и линейным отображением это совместное вложение можно интерпретировать как нецентрированный перекрестной ковариации. оператор откуда кросс-ковариация функций может быть вычислено как [8]
Данный пары обучающих примеров взято из , мы также можем эмпирически оценить вложение ядра совместного распределения через
Встраивание условного распределения
[ редактировать ]Учитывая условное распределение можно определить соответствующее вложение RKHS как [2]
Обратите внимание, что вложение таким образом, определяет семейство точек в RKHS, индексированных значениями взято условной переменной . Исправив к определенному значению, мы получаем один элемент в , и поэтому естественно определить оператор
что, учитывая отображение функций выводит условное встраивание данный Предполагая, что для всех можно показать, что [8]
Это предположение всегда верно для конечных областей с характеристическими ядрами, но не обязательно справедливо для непрерывных областей. [2] Тем не менее, даже в тех случаях, когда предположение не соответствует действительности, все еще может использоваться для аппроксимации условного встраивания ядра и на практике оператор инверсии заменяется регуляризованной версией самого себя (где обозначает единичную матрицу ).
Приведены примеры обучения оператор условного встраивания эмпирического ядра можно оценить как [2]
где представляют собой неявно сформированные матрицы признаков, — матрица Грама для образцов , и — параметр регуляризации, необходимый для предотвращения переобучения .
Таким образом, эмпирическая оценка условного вложения ядра дается взвешенной суммой выборок в пространстве признаков:
где и
Характеристики
[ редактировать ]- Ожидание любой функции в RKHS можно вычислить как внутренний продукт с встраиванием ядра:
- При наличии больших объемов выборки манипуляции Матрица Грамма может требовать больших вычислительных ресурсов. За счет использования низкоранговой аппроксимации матрицы Грама (например, неполной факторизации Холецкого ) время работы и требования к памяти алгоритмов обучения на основе встраивания ядра могут быть значительно сокращены без большой потери точности аппроксимации. [2]
Сходимость среднего эмпирического ядра к вложению истинного распределения
[ редактировать ]- Если определяется так, что принимает значения в для всех с (как и в случае с широко используемыми ядрами радиальных базисных функций ), то с вероятностью не менее : [6]
- где обозначает единичный шар в и представляет собой матрицу Грама с
- Скорость сходимости (в норме RKHS) вложения эмпирического ядра к его аналогу распределения равна и не зависит от размерности .
- Таким образом, статистика, основанная на вложениях ядра, позволяет избежать проклятия размерности , и хотя истинное основное распределение на практике неизвестно, можно (с высокой вероятностью) получить приближение в пределах истинного встраивания ядра на основе конечной выборки размера .
- Для внедрения условных распределений эмпирическую оценку можно рассматривать как средневзвешенное значение отображений признаков (где веса зависят от значения условной переменной и отражают влияние обусловленности на встраивание в ядро). В этом случае эмпирическая оценка сходится к вложению условного распределения RKHS со скоростью если параметр регуляризации уменьшается, так как хотя более высокие темпы конвергенции могут быть достигнуты за счет дополнительных предположений о совместном распределении. [2]
Универсальные ядра
[ редактировать ]- Позволять быть компактным метрическим пространством и множество непрерывных функций . Воспроизводящее ядро называется универсальным тогда и только тогда, когда RKHS из плотный в , то есть для любого и все существует такой, что . [9] Все универсальные ядра, определенные на компакте, являются характеристическими ядрами, но обратное не всегда верно. [10]
- Позволять непрерывной трансляции инвариантным при быть ядром, с . Тогда теорема Бохнера гарантирует существование единственной конечной борелевской меры (называемой спектральной мерой ) на такой, что
- Для чтобы быть универсальным, достаточно, чтобы непрерывная часть в своем уникальном разложении Лебега не равно нулю. Кроме того, если
- затем – спектральная плотность частот в и представляет собой Фурье преобразование . Если поддержка это все из , затем также является характерным ядром. [11] [12] [13]
- Если индуцирует строго положительно определенную матрицу ядра для любого набора различных точек, то это универсальное ядро. [6] Например, широко используемое гауссово RBF-ядро
- на компактных подмножествах является универсальным.
Выбор параметров для вложений ядра условного распределения
[ редактировать ]- Оператор встраивания условного распределения эмпирического ядра альтернативно можно рассматривать как решение следующей задачи регуляризованной регрессии наименьших квадратов (функциональнозначной) [14]
- где – норма Гильберта–Шмидта .
- Таким образом, можно выбрать параметр регуляризации путем выполнения перекрестной проверки на основе квадратичной функции потерь задачи регрессии.
Правила вероятности как операции в РКХС
[ редактировать ]Этот раздел иллюстрирует, как основные вероятностные правила могут быть переформулированы как (мульти)линейные алгебраические операции в среде встраивания ядра, и в первую очередь основан на работе Song et al. [2] [8] Приняты следующие обозначения:
- совместное распределение по случайным величинам
- предельное распределение ; предельное распределение
- условное распределение данный с соответствующим оператором условного встраивания
- предварительное распространение по
- используется, чтобы отличить дистрибутивы, включающие априорное значение, от дистрибутивов которые не полагаются на предыдущие
На практике все вложения оцениваются эмпирически по данным и предполагалось, что набор образцов может использоваться для оценки встраивания ядра предыдущего дистрибутива .
Правило сумм ядра
[ редактировать ]В теории вероятностей предельное распределение можно вычислить путем интегрирования от плотности соединений (включая предварительное распределение по )
Аналог этого правила в среде встраивания ядра гласит, что встраивание RKHS , можно вычислить через
где это встраивание ядра В практических реализациях правило сумм ядра принимает следующий вид
где
- это эмпирическое встраивание ядра предыдущего распределения, , и представляют собой матрицы Грама с записями соответственно.
Правило цепочки ядра
[ редактировать ]В теории вероятностей совместное распределение можно разложить на произведение условного и предельного распределений.
Аналог этого правила в среде встраивания ядра гласит, что совместное встраивание может быть факторизован как композиция оператора условного встраивания с оператором автоковариации, связанным с
где
В практических реализациях правило цепочки ядра принимает следующую форму:
Правило ядра Байеса
[ редактировать ]В теории вероятностей апостериорное распределение можно выразить через априорное распределение и функцию правдоподобия как
- где
Аналог этого правила в системе встраивания ядра выражает встраивание ядра условного распределения в терминах операторов условного встраивания, которые модифицируются предыдущим распределением.
откуда из цепного правила:
В практических реализациях правило Байеса ядра принимает следующий вид
где
В этой структуре используются два параметра регуляризации: для оценки и для оценки окончательного оператора условного встраивания
Последняя регуляризация выполняется на квадрате потому что не может быть положительно определенным .
Приложения
[ редактировать ]Измерение расстояния между распределениями
[ редактировать ]Максимальное среднее несоответствие (MMD) - это мера расстояния между распределениями. и которое определяется как расстояние между их вложениями в RKHS [6]
Хотя большинство мер расстояния между распределениями, таких как широко используемая дивергенция Кульбака – Лейблера, требуют либо оценки плотности (параметрической или непараметрической), либо стратегий пространственного разделения/коррекции смещения, [6] MMD легко оценить как эмпирическое среднее значение, которое сконцентрировано вокруг истинного значения MMD. Характеристика этого расстояния как максимального среднего несоответствия относится к тому факту, что вычисление MMD эквивалентно нахождению функции RKHS, которая максимизирует разницу в ожиданиях между двумя распределениями вероятностей.
форма интегральной вероятностной метрики .
Тест ядра с двумя выборками
[ редактировать ]Даны n обучающих примеров из и m образцов из , можно сформулировать тестовую статистику на основе эмпирической оценки MMD
чтобы получить двухвыборочный тест [15] нулевой гипотезы о том, что обе выборки происходят из одного и того же распределения (т.е. ) против широкой альтернативы .
Оценка плотности с помощью вложений ядра
[ редактировать ]Хотя алгоритмы обучения в структуре встраивания ядра обходят необходимость в промежуточной оценке плотности, тем не менее можно использовать эмпирическое встраивание для выполнения оценки плотности на основе n выборок, взятых из базового распределения. . Это можно сделать, решив следующую оптимизационную задачу [6] [16]
- при условии
где максимизация производится по всему пространству распределений на Здесь, - это вложение ядра предлагаемой плотности и является энтропийно-подобной величиной (например , энтропия , дивергенция КЛ , дивергенция Брегмана ). Распределение, которое решает эту оптимизацию, можно интерпретировать как компромисс между хорошей подгонкой эмпирических средних значений выборки и в то же время распределением значительной части вероятностной массы по всем областям вероятностного пространства (большая часть которых может быть не представлена в обучающие примеры). На практике хорошее приближенное решение сложной оптимизации можно найти, ограничив пространство плотностей кандидатов смесью M распределений кандидатов с регуляризованными пропорциями смешивания. Связи между идеями, лежащими в основе гауссовских процессов , и условными случайными полями могут быть установлены с помощью оценки условных распределений вероятностей таким образом, если рассматривать сопоставления признаков, связанные с ядром, как достаточную статистику в обобщенных (возможно, бесконечномерных) экспоненциальных семействах . [6]
Измерительная зависимость случайных величин
[ редактировать ]Мера статистической зависимости между случайными величинами и (из любых областей, в которых можно определить разумные ядра) может быть сформулировано на основе критерия независимости Гильберта – Шмидта. [17]
и может использоваться в качестве принципиальной замены взаимной информации , корреляции Пирсона или любой другой меры зависимости, используемой в алгоритмах обучения. В частности, HSIC может обнаруживать произвольные зависимости (когда во вложениях используется характеристическое ядро, HSIC равен нулю тогда и только тогда, когда переменные независимы ) и может использоваться для измерения зависимости между различными типами данных (например, изображениями и текстовыми подписями). ). Учитывая n iid выборок каждой случайной величины, простую несмещенную оценку HSIC без параметров, которая демонстрирует концентрацию вокруг истинного значения: можно вычислить время, [6] где матрицы Грама двух наборов данных аппроксимируются с использованием с . Желательные свойства HSIC привели к разработке многочисленных алгоритмов, которые используют эту меру зависимости для множества распространенных задач машинного обучения, таких как: выбор признаков (BAHSIC [18] ), кластеризация (CLUHSIC [19] ) и уменьшение размерности (MUHSIC [20] ).
HSIC можно расширить для измерения зависимости нескольких случайных величин. Вопрос о том, когда HSIC обретет независимость в этом случае, недавно изучался: [21] для более двух переменных
- на : характеристическое свойство отдельных ядер остается эквивалентным условием.
- в общих областях: характеристическое свойство компонентов ядра необходимо, но недостаточно .
Распространение убеждений ядра
[ редактировать ]Распространение убеждений — это фундаментальный алгоритм вывода в графических моделях , в которых узлы неоднократно передают и получают сообщения, соответствующие оценке условных ожиданий. В структуре встраивания ядра сообщения могут быть представлены как функции RKHS, а встраивания условного распределения могут применяться для эффективного вычисления обновлений сообщений. Учитывая n выборок случайных величин, представленных узлами в марковском случайном поле , входящее сообщение в узел t из узла u может быть выражено как
если бы предполагалось, что он лежит в РХС. Сообщение обновления распространения доверия ядра от t к узлу s затем задается следующим образом: [2]
где обозначает поэлементное векторное произведение, — набор узлов, подключенных к t, исключая узел s , , являются матрицами Грамма выборок от переменных соответственно и — это матрица признаков для образцов из .
Таким образом, если входящие сообщения в узел t представляют собой линейные комбинации выборок с сопоставлением признаков из , то исходящее сообщение от этого узла также представляет собой линейную комбинацию выборок с сопоставлением признаков из . Таким образом, это функциональное представление обновлений передачи сообщений RKHS создает эффективный алгоритм распространения убеждений, в котором потенциалы представляют собой непараметрические функции, выведенные из данных, так что можно моделировать произвольные статистические отношения. [2]
Непараметрическая фильтрация в скрытых марковских моделях
[ редактировать ]В скрытой марковской модели (HMM) две ключевые величины, представляющие интерес, — это вероятности перехода между скрытыми состояниями. и вероятности выбросов для наблюдений. Используя структуру встраивания условного распределения ядра, эти величины можно выразить в терминах выборок из HMM. Серьезным ограничением методов внедрения в этой области является необходимость обучения выборок, содержащих скрытые состояния, поскольку в противном случае вывод с произвольными распределениями в HMM невозможен.
Одним из распространенных применений HMM является фильтрация , цель которой состоит в том, чтобы оценить апостериорное распределение по скрытому состоянию. на временном шаге t с учетом истории предыдущих наблюдений из системы. При фильтрации состояние убеждения рекурсивно поддерживается на этапе прогнозирования (где обновления вычисляются путем исключения предыдущего скрытого состояния), за которым следует этап подготовки (где обновления вычисляются путем применения правила Байеса к условиям нового наблюдения). [2] Вложение RKHS состояния убеждения в момент времени t+1 может быть рекурсивно выражено как
путем вычисления вложений шага прогнозирования с помощью правила сумм ядра и внедрения шага кондиционирования с помощью правила Байеса ядра . Предполагая обучающую выборку задано, на практике можно оценить
Таким образом, фильтрация с использованием вложений ядра реализуется рекурсивно с использованием следующих обновлений весов: [2]
где обозначим матрицы Грама и соответственно, представляет собой трансфер-матрицу Грама, определяемую как и
Машины для измерения опоры
[ редактировать ]Машина меры поддержки (SMM) представляет собой обобщение машины опорных векторов (SVM), в которой обучающими примерами являются распределения вероятностей в сочетании с метками. . [22] SMM решают стандартную задачу двойной оптимизации SVM, используя следующее ожидаемое ядро:
которое вычислимо в замкнутой форме для многих общих конкретных распределений (например, распределение Гаусса) в сочетании с популярными ядрами внедрения (например, ядро Гаусса или полиномиальное ядро), или может быть точно оценено эмпирически на основе выборок iid с помощью
При определенном выборе ядра встраивания , СММ применительно к обучающим примерам эквивалентно SVM, обученному на выборках , и, таким образом, SMM можно рассматривать как гибкую SVM, в которой другое ядро, зависящее от данных (заданное предполагаемой формой распределения ) можно разместить на каждой тренировочной точке. [22]
Адаптация предметной области при ковариате, целевом и условном сдвиге
[ редактировать ]Целью адаптации предметной области является формулирование алгоритмов обучения, которые хорошо обобщают, когда обучающие и тестовые данные имеют разное распределение. Приведены примеры обучения и тестовый набор где неизвестны, обычно предполагают три типа различий между распределением обучающих примеров и тестовый дистрибутив : [23] [24]
- Ковариатный сдвиг , при котором предельное распределение ковариат меняется по областям:
- Целевой сдвиг , при котором предельное распределение результатов меняется по областям:
- Условный сдвиг, при котором остается одинаковым во всех доменах, но условные распределения различаются: . В общем случае наличие условного сдвига приводит к некорректной задаче и дополнительному предположению, что изменяется только при преобразовании местоположения - масштаба (LS) на обычно применяется для того, чтобы решить проблему.
Используя встраивание в ядро маргинальных и условных распределений, можно сформулировать практические подходы к устранению подобных различий между обучающей и тестовой областями. Ковариатный сдвиг можно учесть путем повторного взвешивания примеров с помощью оценок отношения полученные непосредственно из вложений ядра маргинальных распределений в каждой области без необходимости явной оценки распределений. [24] Целевой сдвиг, с которым невозможно справиться аналогичным образом, поскольку отсутствуют образцы из доступны в тестовой области, учитывается путем взвешивания обучающих примеров с использованием вектора который решает следующую задачу оптимизации (где на практике необходимо использовать эмпирические приближения) [23]
- при условии
Чтобы справиться с условным сдвигом масштаба местоположения, можно выполнить LS-преобразование обучающих точек, чтобы получить новые преобразованные обучающие данные. (где обозначает поэлементное векторное произведение). Чтобы обеспечить одинаковое распределение между новыми преобразованными обучающими выборками и тестовыми данными, оцениваются путем минимизации следующего эмпирического расстояния встраивания ядра [23]
В общем, методы внедрения ядра для работы с условным сдвигом LS и целевым сдвигом могут быть объединены, чтобы найти перевзвешенное преобразование обучающих данных, которое имитирует тестовое распределение, и эти методы могут хорошо работать даже при наличии условных сдвигов, отличных от местоположения. -масштабные изменения. [23]
Обобщение предметной области посредством инвариантного представления признаков
[ редактировать ]Учитывая N наборов обучающих примеров, выбранных iid из распределений Целью обобщения предметной области является формулирование алгоритмов обучения, которые хорошо работают на тестовых примерах, выбранных из ранее невиданной предметной области. где во время обучения данные из тестовой области недоступны. Если условные распределения предполагаются относительно одинаковыми во всех областях, то учащийся, способный к обобщению предметной области, должен оценить функциональную связь между переменными, устойчивую к изменениям маргинальных значений. . Анализ инвариантных компонентов области (DICA), основанный на встраивании этих распределений в ядро, представляет собой метод, который определяет преобразование обучающих данных, которое минимизирует разницу между маргинальными распределениями, сохраняя при этом общее условное распределение, общее для всех обучающих доменов. [25] Таким образом, DICA извлекает инварианты , функции, которые передаются между доменами, и может рассматриваться как обобщение многих популярных методов уменьшения размерностей, таких как анализ главных компонентов ядра , анализ компонентов переноса и обратная регрессия ковариационного оператора. [25]
Определение распределения вероятностей на РХС с
DICA измеряет различия между доменами посредством дисперсии распределения , которая рассчитывается как
где
так это Матрица Грамма по распределениям, из которых выбираются обучающие данные. Находя ортогональное преобразование в низкоразмерном подпространстве B (в пространстве признаков), которое минимизирует дисперсию распределения, DICA одновременно гарантирует, что B выравнивается по основаниям центрального подпространства C , для которого становится независимым от данный по всем доменам. При отсутствии целевых значений , можно сформулировать неконтролируемую версию DICA, которая находит низкоразмерное подпространство, которое минимизирует дисперсию распределения и одновременно максимизирует дисперсию (в пространстве признаков) во всех доменах (вместо сохранения центрального подпространства). [25]
Регрессия распределения
[ редактировать ]В регрессии распределения цель состоит в том, чтобы перейти от вероятностных распределений к действительным значениям (или векторам). Многие важные задачи машинного обучения и статистики вписываются в эту структуру, включая многоэкземплярное обучение и задачи точечной оценки без аналитического решения (например, оценка гиперпараметра или энтропии ). На практике наблюдаются только выборки из выборочных распределений, и оценки должны основываться на сходстве, вычисленном между наборами точек . Регрессия распределения успешно применялась, например, при контролируемом энтропийном обучении и прогнозировании аэрозолей с использованием многоспектральных спутниковых изображений. [26]
Данный данные обучения, где мешок содержит образцы из распределения вероятностей и выходная метка , можно решить задачу регрессии распределения, взяв вложения распределений и изучив регрессор от вложений к выходным данным. Другими словами, можно рассмотреть следующую регрессии гребня ядра: задачу
где
с ядро в домене -с , это ядро во встроенных дистрибутивах, и RKHS определяется . Примеры для включить линейное ядро , ядро Гаусса , экспоненциальное ядро , ядро Коши , обобщенное ядро t-стьюдента , или обратное ядро мультиквадрики .
Прогноз на новую раздачу принимает простую аналитическую форму
где , , , . В условиях умеренной регулярности можно показать, что эта оценка непротиворечива, и она может обеспечить одноэтапную выборку (как если бы у вас был доступ к истинному значению). -s) минимаксная оптимальная скорость. [26] В целевая функция -s — действительные числа; результаты могут быть распространены и на случай, когда -s являются -мерные векторы или, в более общем смысле, элементы сепарабельного гильбертова пространства с использованием операторных значений. ядра.
Пример
[ редактировать ]В этом простом примере, взятом из Song et al., [2] предполагаются дискретными случайными величинами , принимающими значения из множества и ядро выбрано в качестве дельта-функции Кронекера , поэтому . Карта признаков, соответствующая этому ядру, представляет собой стандартный базисный вектор. . Таким образом, вложения ядра таких распределений являются векторами маргинальных вероятностей, тогда как вложения совместных распределений в этом случае равны матрицы, задающие совместные таблицы вероятностей, и явная форма этих вложений имеет вид
Когда , для всех , оператор встраивания условного распределения,
в этой настройке является таблицей условной вероятности
и
Таким образом, вложения условного распределения при фиксированном значении может быть вычислено как
В этой дискретной настройке с дельта-ядром Кронекера правило сумм ядра принимает вид
Правило цепочки ядра в этом случае имеет вид
Ссылки
[ редактировать ]- ^ Jump up to: а б А. Смола, А. Греттон, Л. Сонг, Б. Шёлкопф. (2007). Вложение в гильбертово пространство для распределений. Архивировано 15 декабря 2013 г. в Wayback Machine . Алгоритмическая теория обучения: 18-я Международная конференция . Спрингер: 13–31.
- ^ Jump up to: а б с д и ж г час я дж к л м н Л. Сонг, К. Фукумидзу, Ф. Динуццо, А. Греттон (2013). Ядро встраивания условных распределений: унифицированная структура ядра для непараметрического вывода в графических моделях . Журнал обработки сигналов IEEE 30 : 98–111.
- ^ Дж. Шоу-Тейлор, Н. Кристианини. (2004). Ядерные методы анализа закономерностей . Издательство Кембриджского университета, Кембридж, Великобритания.
- ^ Т. Хофманн, Б. Шёлкопф, А. Смола. (2008). Методы ядра в машинном обучении . Анналы статистики 36 (3): 1171–1220.
- ^ Муандет, Крикамол; Фукумидзу, Кендзи; Шриперумбудур, Бхарат; Шёлкопф, Бернхард (28 июня 2017 г.). «Встраивание распределений по ядру: обзор и не только». Основы и тенденции в машинном обучении . 10 (1–2): 1–141. arXiv : 1605.09522 . дои : 10.1561/2200000060 . ISSN 1935-8237 .
- ^ Jump up to: а б с д и ж г час я Л. Песня. (2008) Обучение через вложение распределений в гильбертово пространство . Докторская диссертация, Сиднейский университет.
- ^ К. Фукумидзу, А. Греттон, X. Сан и Б. Шёлкопф (2008). Ядерные меры условной независимости . Достижения в области нейронных систем обработки информации 20 , MIT Press, Кембридж, Массачусетс.
- ^ Jump up to: а б с Л. Сонг, Дж. Хуанг, А. Дж. Смола, К. Фукумидзу. (2009). Вложения условных распределений в гильбертово пространство . Учеб. Межд. Конф. Машинное обучение . Монреаль, Канада: 961–968.
- ^ * Стейнварт, Инго; Кристманн, Андреас (2008). Машины опорных векторов . Нью-Йорк: Спрингер. ISBN 978-0-387-77241-7 .
- ^ Шриперумбудур, Британская Колумбия; Фукумидзу, К.; Ланкриет, GRG (2011). «Универсальность, характеристические ядра и вложение мер RKHS». Журнал исследований машинного обучения . 12 (70).
- ^ Лян, Перси (2016), CS229T/STAT231: Статистическая теория обучения (PDF) , конспекты лекций в Стэнфорде
- ^ Шриперумбудур, Британская Колумбия; Фукумидзу, К.; Ланкриет, GRG (2010). О связи универсальности, характеристических ядер и RKHS-вложения мер . Материалы тринадцатой международной конференции по искусственному интеллекту и статистике. Италия.
- ^ Миккелли, Калифорния; Сюй, Ю.; Чжан, Х. (2006). «Универсальные ядра» . Журнал исследований машинного обучения . 7 (95): 2651–2667.
- ^ С. Грюневальдер, Г. Левер, Л. Бальдассар, С. Паттерсон, А. Греттон, М. Понтиль. (2012). Условные средние вложения как регрессоры . Учеб. Межд. Конф. Машинное обучение : 1823–1830 гг.
- ^ А. Греттон, К. Боргвардт, М. Раш, Б. Шёлкопф, А. Смола. (2012). Двухвыборочный тест ядра . Журнал исследований машинного обучения , 13 : 723–773.
- ^ М. Дудик, С. Дж. Филлипс, Р. Э. Шапире. (2007). Оценка распределения максимальной энтропии с помощью обобщенной регуляризации и приложение к моделированию распределения видов . Журнал исследований машинного обучения , 8 : 1217–1260.
- ^ А. Греттон, О. Буске, А. Смола, Б. Шёлкопф. (2005). Измерение статистической зависимости с помощью норм Гильберта – Шмидта . Учеб. Международный Конф. по теории алгоритмического обучения : 63–78.
- ^ Л. Сонг, А. Смола, А. Греттон, К. Боргвардт, Дж. Бедо. (2007). Контролируемый выбор признаков посредством оценки зависимости . Учеб. Международный Конф. Машинное обучение , Omnipress: 823–830.
- ^ Л. Сонг, А. Смола, А. Греттон, К. Боргвардт. (2007). Представление кластеризации с точки зрения максимизации зависимостей . Учеб. Международный Конф. Машинное обучение . Омнипресс: 815–822.
- ^ Л. Сонг, А. Смола, К. Боргвардт, А. Греттон. (2007). Разворачивается цветная максимальная дисперсия . Нейронные системы обработки информации .
- ^ Золтан Сабо, Бхарат К. Шриперумбудур. Характеристические и универсальные ядра тензорных произведений . Журнал исследований машинного обучения , 19:1–29, 2018 г.
- ^ Jump up to: а б К. Муандет, К. Фукумидзу, Ф. Динуццо, Б. Шёлкопф. (2012). Обучение на распределениях с помощью машин меры поддержки . Достижения в области нейронных систем обработки информации : 10–18.
- ^ Jump up to: а б с д К. Чжан, Б. Шёлкопф, К. Муандет, З. Ван. (2013). Адаптация предметной области при целевом и условном сдвиге . Журнал исследований машинного обучения, 28 (3): 819–827.
- ^ Jump up to: а б А. Греттон, А. Смола, Дж. Хуанг, М. Шмитфулл, К. Боргвардт, Б. Шёлкопф. (2008). Сдвиг ковариации и локальное обучение путем сопоставления распределений. В Дж. Кинонеро-Кандела, М. Сугияма, А. Швайгофер, Н. Лоуренс (ред.). Сдвиг набора данных в машинном обучении , MIT Press, Кембридж, Массачусетс: 131–160.
- ^ Jump up to: а б с К. Муандет, Д. Бальдуцци, Б. Шёлкопф. (2013). Обобщение предметной области посредством инвариантного представления признаков . 30-я Международная конференция по машинному обучению .
- ^ Jump up to: а б З. Сабо, Б. Сриперумбудур, Б. Почос, А. Греттон. Теория обучения регрессии распределения . Журнал исследований машинного обучения , 17(152):1–40, 2016.
Внешние ссылки
[ редактировать ]- Набор инструментов для теоретических оценок информации (демонстрация регрессии распределения).