Аппроксимации гауссовского процесса
Эта статья включает список общих ссылок , но в ней отсутствуют достаточные соответствующие встроенные цитаты . ( Август 2020 г. ) |
В статистике и машинном обучении аппроксимация гауссовского процесса — это вычислительный метод , который ускоряет задачи вывода в контексте модели гауссовского процесса , чаще всего оценку правдоподобия и прогнозирование. Как и аппроксимации других моделей, они часто могут быть выражены как дополнительные предположения, налагаемые на модель, не соответствующие каким-либо реальным признакам, но сохраняющие ее ключевые свойства, упрощающие расчеты. Многие из этих методов аппроксимации могут быть выражены в чисто линейных алгебраических или функционально-аналитических терминах как матричные или функциональные аппроксимации. Другие являются чисто алгоритмическими, и их нелегко перефразировать как модификацию статистической модели.
Основные идеи
[ редактировать ]При статистическом моделировании часто удобно предполагать, что , исследуемое явление представляет собой гауссовский процесс , индексируемый который имеет среднюю функцию и ковариационная функция . Можно также предположить, что данные – значения конкретной реализации этого процесса для показателей .
Следовательно, совместное распределение данных можно выразить как
- ,
где и , т.е. соответственно матрица со значениями ковариационной функции и вектор со средними значениями функции по соответствующим (парам) индексам.Тогда отрицательное логарифмическое правдоподобие данных принимает форму
Аналогично, лучший предсказатель , значения для индексов , данные данные имеет форму
В контексте гауссовских моделей, особенно в геостатистике , прогнозирование с использованием лучшего предиктора, т.е. среднего условного значения данных, также известно как кригинг .
Самый затратный в вычислительном отношении компонент формулы лучшего предиктора — это инвертирование ковариационной матрицы. , который имеет кубическую сложность . Аналогичным образом, оценка вероятности включает в себя как расчет и определитель который имеет ту же кубическую сложность.
Аппроксимации гауссовского процесса часто можно выразить в терминах предположений о согласно которому и можно вычислить с гораздо меньшей сложностью. Поскольку обычно считается, что эти предположения не отражают реальность, вероятность и лучший предиктор, полученные таким образом, не являются точными, но они должны быть близки к своим исходным значениям.
Методы на основе моделей
[ редактировать ]Этот класс аппроксимаций выражается через набор допущений, которые накладываются на исходный процесс и которые обычно подразумевают некоторую специальную структуру ковариационной матрицы. Хотя большинство этих методов были разработаны независимо, большинство из них можно выразить как частные случаи разреженного общего приближения Веккья .
Методы разреженной ковариации
[ редактировать ]Эти методы аппроксимируют истинную модель за счет разреженности ковариационной матрицы. Обычно каждый метод предлагает свой собственный алгоритм, который в полной мере использует преимущества шаблона разреженности в ковариационной матрице. Двумя выдающимися представителями этого класса подходов являются сужение ковариации и разделение доменов. Первый метод обычно требует метрики над и предполагает, что для у нас есть только если для некоторого радиуса . Второй метод предполагает, что существуют такой, что . Тогда при соответствующем распределении индексов по элементам разбиения и упорядочивании элементов ковариационная матрица является блочно-диагональной.
Методы разреженной точности
[ редактировать ]Это семейство методов предполагает, что матрица точности является разреженным и обычно определяет, какие из его элементов не равны нулю. Это приводит к быстрой инверсии, поскольку необходимо вычислять только эти элементы. Некоторые из известных приближений в этой категории включают подход, основанный на эквивалентности между гауссовыми процессами с ковариационной функцией Матерна и стохастическими уравнениями в уравнениях, периодического вложения и гауссовых процессов с ближайшим соседом. Первый метод применяется в случае и когда имеет определенную метрику и использует тот факт, что сохраняется марковское свойство, что делает очень редко. Второй расширяет область и использует дискретное преобразование Фурье для декорреляции данных, что приводит к получению матрицы диагональной точности. Третий требует метрики по и использует так называемый эффект экранирования, предполагая, что только если , для некоторых .
Методы разреженного фактора Холецкого
[ редактировать ]Во многих практических приложениях вычисление сначала заменяется вычислениями , фактор Холецкого , и второй его обратный . Известно, что это более стабильно, чем простая инверсия. По этой причине некоторые авторы сосредотачиваются на построении разреженной аппроксимации фактора Холецкого прецизионных или ковариационных матриц. Одним из наиболее устоявшихся методов этого класса является приближение Веккья и его обобщение. Эти подходы определяют оптимальное упорядочение индексов и, следовательно, элементов а затем предположим структуру зависимостей, которая сводит к минимуму заполнение коэффициента Холецкого. В этой структуре можно выразить несколько других методов: аппроксимацию с несколькими разрешениями (MRA), гауссовский процесс ближайшего соседа, модифицированный процесс прогнозирования и полномасштабную аппроксимацию.
Методы низкого ранга
[ редактировать ]Хотя этот подход включает в себя множество методов, общим допущением, лежащим в их основе, является предположение о том, что , представляющий интерес Гауссов процесс, фактически является низкоранговым. Точнее, предполагается, что существует набор индексов такой, что любой второй набор индексов
где это матрица, и и является диагональной матрицей. В зависимости от метода и применения различные способы выбора были предложены. Обычно выбирается значительно меньшим, чем что означает, что вычислительные затраты на инвертирование это управляемо( вместо ).
В более общем плане, помимо выбора , можно также найти матрица и предположим, что , где являются значения гауссовского процесса, возможно, не зависящие от . Многие методы машинного обучения попадают в эту категорию, такие как подмножество регрессоров (SoR), векторная машина релевантности , гауссов процесс с разреженным спектром и другие, и они обычно различаются по способу получения и .
Иерархические методы
[ редактировать ]Общий принцип иерархических аппроксимаций состоит в многократном применении какого-либо другого метода, причем каждое последующее применение улучшает качество аппроксимации. Несмотря на то, что их можно выразить как набор статистических предположений, их часто описывают в терминах иерархической матричной аппроксимации (HODLR) или расширения базисной функции (LatticeKrig, MRA, вейвлеты). Иерархический матричный подход часто можно представить как повторное применение аппроксимации низкого ранга к последовательно меньшим подмножествам набора индексов. . Расширение базовых функций основано на использовании функций с компактной поддержкой. Эти особенности затем могут быть использованы алгоритмом, который последовательно проходит через последовательные уровни аппроксимации. В наиболее благоприятных условиях некоторые из этих методов могут достичь квазилинейной ( ) сложность.
Единая структура
[ редактировать ]Вероятностные графические модели обеспечивают удобную основу для сравнения аппроксимаций на основе моделей. В этом контексте значение процесса по индексу тогда может быть представлена вершиной в ориентированном графе, а ребра соответствуют членам факторизации совместной плотности . В общем, когда не предполагается никаких независимых отношений, совместное распределение вероятностей может быть представлено произвольным направленным ациклическим графом. Использование определенного приближения может быть выражено как определенный способ упорядочивания вершин и добавления или удаления определенных ребер.
Методы без статистической модели
[ редактировать ]Этот класс методов не определяет статистическую модель и не налагает допущений на существующую. Тремя основными членами этой группы являются алгоритм мета-кригинга, алгоритм заполнения пробелов и подход локального аппроксимированного гауссовского процесса. Первый разбивает набор индексов на компоненты , вычисляет условное распределение для каждого из этих компонентов отдельно, а затем использует геометрическую медиану условных PDF-файлов для их объединения. Второй основан на квантильной регрессии с использованием значений процесса, близких к значению, которое пытается предсказать, где расстояние измеряется с точки зрения метрики набора индексов. Локальный приближенный гауссов процесс использует аналогичную логику, но строит действительный стохастический процесс на основе этих соседних значений.
Ссылки
[ редактировать ]- Лю, Хайтао; Онг, Ю-Сун; Шен, Сяобо; Цай, Цзяньфэй (2020). «Когда гауссов процесс встречается с большими данными: обзор масштабируемой GPS». Транзакции IEEE в нейронных сетях и системах обучения . ПП : 1–19. arXiv : 1807.01065 . дои : 10.1109/TNNLS.2019.2957109 . ПМИД 31944966 .
- Хитон, Мэтью Дж.; Датта, Абхируп; Финли, Эндрю О.; Фуррер, Рейнхард; Гиннесс, Джозеф; Гуханиеги, Раджарши; Гербер, Флориан; Грэмси, Роберт Б.; Хаммерлинг, Дорит; Кацфусс, Матиас; Линдгрен, Финн; Нычка, Дуглас В.; Сунь, Фуронг; Заммит-Мангион, Эндрю (2018). «Конкурс тематических исследований среди методов анализа больших пространственных данных» . Журнал сельскохозяйственной, биологической и экологической статистики . 24 (3): 398–425. дои : 10.1007/s13253-018-00348-w . ISSN 1085-7117 . ПМК 6709111 .
- Банерджи, Судипто (2017). «Многомерная байесовская геостатистика» . Байесовский анализ . 12 (2): 583–614. дои : 10.1214/17-BA1056R . ПМК 5790125 . ПМИД 29391920 .