Jump to content

Гауссов процесс

В теории вероятностей и статистике гауссов процесс — это случайный процесс (набор случайных величин, индексированных по времени или пространству), такой, что каждый конечный набор этих случайных величин имеет многомерное нормальное распределение . Распределение гауссовского процесса — это совместное распределение всех этих (бесконечно многих) случайных величин и, как таковое, распределение по функциям с непрерывной областью определения, например, во времени или пространстве.

Концепция гауссовских процессов названа в честь Карла Фридриха Гаусса , поскольку в ее основе лежит понятие гауссовского распределения ( нормального распределения ). Гауссовские процессы можно рассматривать как бесконечномерное обобщение многомерных нормальных распределений.

Гауссовы процессы полезны в статистическом моделировании , поскольку они извлекают выгоду из свойств, унаследованных от нормального распределения. Например, если случайный процесс моделируется как гауссовский процесс, распределения различных производных величин можно получить явно. К таким величинам относятся среднее значение процесса за определенный период времени и ошибка оценки среднего значения с использованием выборочных значений за небольшой набор периодов времени. Хотя точные модели часто плохо масштабируются по мере увеличения объема данных, несколько методов аппроксимации было разработано , которые часто сохраняют хорошую точность, резко сокращая время вычислений.

Определение

[ редактировать ]

Непрерывный во времени случайный процесс является гауссовым тогда и только тогда, когда для любого конечного индексов набора в наборе индексов

многомерная гауссова случайная величина . [1] Это то же самое, что сказать, что каждая линейная комбинация имеет одномерное нормальное (или гауссово) распределение.

Используя характеристические функции случайных величин с обозначая мнимую единицу такую, что , свойство Гаусса можно сформулировать следующим образом: является гауссовым тогда и только тогда, когда для любого конечного набора индексов , есть действительные значения , с такая, что для всех имеет место равенство ,

или . Числа и Можно показать, что это ковариации и средние значения переменных в процессе. [2]

Дисперсия

[ редактировать ]

Дисперсия гауссовского процесса конечна в любой момент времени. , формально [3] : с. 515

Стационарность

[ редактировать ]

Для общих случайных процессов стационарность в строгом смысле подразумевает стационарность в широком смысле , но не каждый стационарный случайный процесс в широком смысле является стационарным в строгом смысле. Однако для гауссовского случайного процесса эти две концепции эквивалентны. [3] : с. 518

Гауссов случайный процесс является стационарным в строгом смысле тогда и только тогда, когда он стационарен в широком смысле.

Существует явное представление для стационарных гауссовских процессов. [4] Простой пример такого представления:

где и являются независимыми случайными величинами со стандартным нормальным распределением .

Ковариационные функции

[ редактировать ]

Ключевым фактом гауссовских процессов является то, что они могут быть полностью определены их статистикой второго порядка. [5] Таким образом, если предполагается, что гауссовский процесс имеет нулевое среднее, определение функции ковариации полностью определяет поведение процесса. Важно отметить, что неотрицательная определенность этой функции позволяет ее спектральное разложение с использованием расширения Карунена-Лоэва . процесса Основными аспектами, которые можно определить с помощью ковариационной функции, являются стационарность , изотропность , гладкость и периодичность . [6] [7]

Стационарность относится к поведению процесса в отношении разделения любых двух точек. и . Если процесс стационарен, ковариационная функция зависит только от . Например, процесс Орнштейна–Уленбека стационарен.

Если процесс зависит только от , евклидово расстояние (не направление) между и , то процесс считается изотропным. считается процесс, одновременно стационарный и изотропный Однородным ; [8] на практике эти свойства отражают различия (вернее, их отсутствие) в поведении процесса в зависимости от местоположения наблюдателя.

В конечном итоге гауссовские процессы переводятся как принятие априорных значений функций, и гладкость этих априорных значений может быть вызвана функцией ковариации. [6] Если мы ожидаем, что для «близких» входных точек и соответствующие им выходные точки и быть также «рядом», то присутствует предположение о непрерывности. Если мы хотим учесть значительное смещение, мы можем выбрать более грубую ковариационную функцию. Крайними примерами такого поведения являются ковариационная функция Орнштейна – Уленбека и квадратичная экспонента, где первая никогда не дифференцируема, а вторая бесконечно дифференцируема.

Периодичность означает создание периодических закономерностей в поведении процесса. Формально это достигается путем отображения входных данных в двумерный вектор .

Обычные ковариационные функции

[ редактировать ]
Влияние выбора разных ядер на распределение априорной функции гауссовского процесса. Слева — квадрат экспоненциального ядра. Середина – броуновская. Справа квадратично.

Существует ряд общих ковариационных функций: [7]

  • Постоянный :
  • Линейный:
  • белый гауссов шум:
  • Квадратная экспонента:
  • Орнштейн-Уленбек:
  • Мать:
  • Периодический:
  • Рациональный квадратик:

Здесь . Параметр — характерный масштаб процесса (практически «насколько близко» две точки и должны существенно влиять друг на друга), это дельта Кронекера и стандартное отклонение шумовых флуктуаций. Более того, Бесселя модифицированная функция порядка и гамма -функция оценивается при . Важно отметить, что сложную ковариационную функцию можно определить как линейную комбинацию других более простых ковариационных функций, чтобы учесть различные представления о имеющемся наборе данных.

Результаты вывода зависят от значений гиперпараметров. (например и ), определяющий поведение модели. Популярный выбор для состоит в том, чтобы обеспечить максимальные апостериорные его (MAP) оценки с некоторыми выбранными априорными значениями. Если априор очень близок к однородному, это то же самое, что максимизировать предельную вероятность процесса; маргинализация, выполняемая по наблюдаемым значениям процесса . [7] Этот подход также известен как метод максимального правдоподобия II , максимизация доказательств или эмпирический Байес . [9]

Непрерывность

[ редактировать ]

Для гауссовского процесса непрерывность по вероятности эквивалентна среднеквадратической непрерывности , [10] : 145  и непрерывность с вероятностью единица эквивалентна непрерывности выборки . [11] :91 «Гауссовы процессы разрывны в фиксированных точках». Последнее предполагает, но не подразумевает, непрерывность вероятности.Непрерывность вероятности имеет место тогда и только тогда, когда среднее значение и автоковариация являются непрерывными функциями. Напротив, непрерывность выборки была сложной задачей даже для стационарных гауссовских процессов (как, вероятно, впервые заметил Андрей Колмогоров ), и еще более сложной задачей для более общих процессов. [12] : Секта. 2,8 [13] : 69, 81  [14] : 80  [15] Как обычно, под выборочным непрерывным процессом понимают процесс, допускающий выборочную непрерывную модификацию . [16] : 292  [17] : 424 

Стационарный корпус

[ редактировать ]

Для стационарного гауссовского процесса некоторые условия в его спектре достаточны для непрерывности образца, но не являются необходимыми. Необходимое и достаточное условие, иногда называемое теоремой Дадли – Фернике, включает функцию определяется (правая часть не зависит от из-за стационарности). Непрерывность по вероятности эквивалентно непрерывности в При сближении к (как ) слишком медленный, непрерывность выборки может потерпеть неудачу. Имеет значение сходимость следующих интегралов: эти два интеграла равны согласно интегрированию путем замены Первый подынтегральный оператор не обязательно должен быть ограничен как таким образом, интеграл может сходиться ( ) или расходятся ( ). Взяв для примера для больших то есть, для маленьких получается когда и когда В этих двух случаях функция увеличивается на но в целом это не так. Более того, условие

(*) существует такой, что является монотонным на

не следует из непрерывности и очевидные отношения (для всех ) и

Теорема Пусть 1. быть непрерывным и удовлетворять (*) . Тогда условие необходимо и достаточно для обеспечения непрерывности выборки

Немного истории. [17] : 424  Достаточность была объявлена ​​Ксавье Ферником в 1964 году, но первое доказательство было опубликовано Ричардом М. Дадли в 1967 году. [16] : Теорема 7.1 Необходимость доказали Майкл Б. Маркус и Лоуренс Шепп в 1970 году. [18] : 380 

Существуют образцы непрерывных процессов такой, что они нарушают условие (*) . Пример, найденный Маркусом и Шеппом [18] : 387  представляет собой случайный лакунарный ряд Фурье где являются независимыми случайными величинами со стандартным нормальным распределением ; частоты являются быстрорастущей последовательностью; и коэффициенты удовлетворить Последнее соотношение подразумевает

откуда почти наверняка, что почти наверняка обеспечивает равномерную сходимость ряда Фурье и выборочную непрерывность

Автокорреляция случайного лакунарного ряда Фурье

Его автоковариационная функция нигде не монотонна (см. рисунок), как и соответствующая функция

Броуновское движение как интеграл гауссовских процессов

[ редактировать ]

Винеровский процесс (также известный как броуновское движение) является интегралом обобщенного гауссовского процесса белого шума . Он не стационарен , но имеет стационарные приращения .

Процесс Орнштейна – Уленбека является стационарным гауссовским процессом.

Броуновский мост (как и процесс Орнштейна-Уленбека) является примером гауссовского процесса, приращения которого не являются независимыми .

Дробное броуновское движение — это гауссов процесс, ковариационная функция которого является обобщением функции винеровского процесса.

Закон нуля и единицы Дрисколла

[ редактировать ]

Закон нуля и единицы Дрисколла - это результат, характеризующий выборочные функции, генерируемые гауссовским процессом.

Позволять быть гауссовским процессом со средним нулем с неотрицательно определенной ковариационной функцией . Позволять быть гильбертовым пространством с воспроизводящим ядром с положительно определенным ядром. .

Затем где и являются ковариационными матрицами всех возможных пар точки, подразумевает

Более того, подразумевает [19]

Это имеет важные последствия, когда , как

Таким образом, почти все выборочные пути гауссовского процесса со средним нулем и положительно определенным ядром будет лежать вне гильбертова пространства .

Гауссовы процессы с линейными ограничениями

[ редактировать ]

Для многих представляющих интерес приложений уже имеются некоторые ранее существовавшие знания о рассматриваемой системе. Рассмотрим, например, случай, когда результат гауссовского процесса соответствует магнитному полю; здесь реальное магнитное поле ограничено уравнениями Максвелла, и был бы желателен способ включить это ограничение в формализм гауссовского процесса, поскольку это, вероятно, улучшит точность алгоритма.

Метод включения линейных ограничений в гауссовские процессы уже существует: [20]

Рассмотрим (векторную) выходную функцию который, как известно, подчиняется линейному ограничению (т.е. является линейным оператором) Тогда ограничение можно выполнить, выбрав , где моделируется как гауссовский процесс, и нахождение такой, что Данный и используя тот факт, что гауссовы процессы замкнуты относительно линейных преобразований, гауссов процесс для подчинение принуждению становится Следовательно, линейные ограничения могут быть закодированы в среднее значение и ковариационную функцию гауссовского процесса.

Приложения

[ редактировать ]
Пример регрессии гауссовского процесса (прогноз) в сравнении с другими моделями регрессии. [21]

Гауссов процесс можно использовать в качестве априорного распределения вероятностей по функциям в байесовском выводе . [7] [22] Учитывая любой набор из N точек в желаемой области ваших функций, возьмите многомерный гауссиан , параметром ковариационной матрицы которого является матрица Грамма ваших N точек с некоторым желаемым ядром , и выполните выборку из этого гауссиана. Для решения задачи прогнозирования с несколькими выходами была разработана регрессия гауссовского процесса для векторной функции. В этом методе строится «большая» ковариация, описывающая корреляции между всеми входными и выходными переменными, взятыми в N точках в желаемой области. [23] Этот подход был подробно разработан для матричных гауссовских процессов и обобщен на процессы с «более тяжелыми хвостами», такие как процессы Стьюдента . [24]

Вывод непрерывных значений с помощью предшествующего гауссовского процесса известен как регрессия гауссовского процесса или кригинг ; расширение регрессии гауссовского процесса на несколько целевых переменных известно как кокригинг . [25] Таким образом, гауссовские процессы полезны как мощный инструмент нелинейной многомерной интерполяции .

Гауссовы процессы также широко используются для решения задач численного анализа, таких как численное интегрирование, решение дифференциальных уравнений или оптимизация в области вероятностных чисел .

Гауссовские процессы также можно использовать, например, в контексте смешанных экспертных моделей. [26] [27] Основное обоснование такой структуры обучения состоит в предположении, что данное отображение не может быть хорошо отражено с помощью одной модели гауссовского процесса. Вместо этого пространство наблюдения разделено на подмножества, каждое из которых характеризуется своей функцией отображения; каждый из них изучается через различные компоненты гауссовского процесса в постулируемой смеси.

В естественных науках гауссовские процессы нашли применение в качестве вероятностных моделей астрономических временных рядов и в качестве предсказателей молекулярных свойств. [28]

Предсказание гауссовского процесса, или кригинг

[ редактировать ]
Гауссова регрессия процесса (прогноз) с квадратичным экспоненциальным ядром. Левый график основан на предыдущем распределении функции. Средние вытянуты сзади. Справа — средний прогноз с заштрихованным одним стандартным отклонением.

Когда речь идет об общей задаче регрессии гауссовского процесса (кригинг), предполагается, что для гауссовского процесса наблюдался в координатах , вектор значений — это всего лишь один образец из многомерного гауссовского распределения размерности, равной количеству наблюдаемых координат . Следовательно, в предположении распределения с нулевым средним , где — ковариационная матрица между всеми возможными парами для заданного набора гиперпараметров θ . [7] Таким образом, логарифмическая предельная вероятность равна:

и максимизация этой предельной вероятности в направлении θ обеспечивает полную спецификацию гауссова процесса f . Здесь можно кратко отметить, что первый член соответствует штрафному члену за неспособность модели соответствовать наблюдаемым значениям, а второй член - штрафному члену, который увеличивается пропорционально сложности модели. Указав θ , делаем прогнозы относительно ненаблюдаемых значений в координатах x * тогда остается только вопрос отбора выборок из прогнозируемого распределения где апостериорная средняя оценка A определяется как а апостериорная оценка дисперсии B определяется как: где — это ковариация между новой координатой оценки x * и всеми другими наблюдаемыми координатами x для данного вектора гиперпараметров θ , и определены, как и раньше, и — это дисперсия в точке x *, определяемая θ . Важно отметить, что практически апостериорная средняя оценка («точечная оценка») — это просто линейная комбинация наблюдений ; аналогичным образом дисперсия фактически не зависит от наблюдений . Известным узким местом в прогнозировании гауссовского процесса является то, что вычислительная сложность вывода и оценки правдоподобия кубична по числу точек | x |, и поэтому может стать невозможным для больших наборов данных. [6] Работы по разреженным гауссовским процессам, которые обычно основаны на идее построения репрезентативного множества для данного процесса f , пытаются обойти эту проблему. [29] [30] Метод кригинга можно использовать на скрытом уровне нелинейной модели смешанных эффектов для прогнозирования пространственных функций: этот метод называется скрытым кригингом. [31]

Часто ковариация имеет вид , где является параметром масштабирования. Примерами являются ковариационные функции класса Матерна. Если этот параметр масштабирования либо известна, либо неизвестна (т.е. должна быть маргинализирована), то апостериорная вероятность, , т.е. вероятность гиперпараметров задан набор пар данных наблюдений за и , допускает аналитическое выражение. [32]

Байесовские нейронные сети как гауссовские процессы

[ редактировать ]

Байесовские нейронные сети — это особый тип байесовских сетей , который возникает в результате вероятностной обработки моделей глубокого обучения и искусственных нейронных сетей и назначения предварительного распределения их параметрам . Вычисления в искусственных нейронных сетях обычно организованы в последовательные слои искусственных нейронов . Количество нейронов в слое называется шириной слоя. По мере увеличения ширины слоя многие байесовские нейронные сети сводятся к гауссовскому процессу с композиционным ядром закрытой формы . Этот гауссов процесс называется гауссовским процессом нейронной сети (NNGP). [7] [33] [34] Он позволяет более эффективно оценивать прогнозы байесовских нейронных сетей и предоставляет аналитический инструмент для понимания глубокого обучения моделей .

Вычислительные проблемы

[ редактировать ]

В практических приложениях модели гауссовских процессов часто оцениваются на сетке, приводящей к многомерным нормальным распределениям. Использование этих моделей для прогнозирования или оценки параметров с использованием максимального правдоподобия требует оценки многомерной гауссовской плотности, которая включает в себя вычисление определителя и обратной ковариационной матрицы. Обе эти операции имеют кубическую вычислительную сложность, что означает, что даже для сеток скромных размеров обе операции могут иметь непомерно высокие вычислительные затраты. Этот недостаток привел к развитию множества методов аппроксимации .

См. также

[ редактировать ]
  1. ^ Маккей, Дэвид, Дж. К. (2003). Теория информации, вывод и алгоритмы обучения (PDF) . Издательство Кембриджского университета . п. 540. ИСБН  9780521642989 . Распределение вероятностей функции является гауссовским процессом, если для любого конечного набора точек , плотность является гауссовым {{cite book}}: CS1 maint: несколько имен: список авторов ( ссылка )
  2. ^ Дадли, РМ (1989). Реальный анализ и вероятность . Уодсворт и Брукс/Коул. ISBN  0-534-10050-3 .
  3. ^ Jump up to: Перейти обратно: а б Амос Лапидот (8 февраля 2017 г.). Фонд цифровых коммуникаций . Издательство Кембриджского университета. ISBN  978-1-107-17732-1 .
  4. ^ Кац, М.; Зигерт, AJF (1947). «Явное представление стационарного гауссова процесса» . Анналы математической статистики . 18 (3): 438–442. дои : 10.1214/aoms/1177730391 .
  5. ^ Бишоп, CM (2006). Распознавание образов и машинное обучение . Спрингер . ISBN  978-0-387-31073-2 .
  6. ^ Jump up to: Перейти обратно: а б с Барбер, Дэвид (2012). Байесовское рассуждение и машинное обучение . Издательство Кембриджского университета . ISBN  978-0-521-51814-7 .
  7. ^ Jump up to: Перейти обратно: а б с д и ж Расмуссен, CE; Уильямс, CKI (2006). Гауссовы процессы для машинного обучения . МТИ Пресс . ISBN  978-0-262-18253-9 .
  8. ^ Гриммет, Джеффри; Дэвид Стирзакер (2001). Вероятность и случайные процессы . Издательство Оксфордского университета . ISBN  978-0198572220 .
  9. ^ Сигер, Матиас (2004). «Гауссовы процессы для машинного обучения». Международный журнал нейронных систем . 14 (2): 69–104. CiteSeerX   10.1.1.71.1079 . дои : 10.1142/s0129065704001899 . ПМИД   15112367 . S2CID   52807317 .
  10. ^ Дадли, Р.М. (1975). «Гауссов процесс и подход к нему» (PDF) . Материалы Международного конгресса математиков . Том. 2. С. 143–146.
  11. ^ Дадли, РМ (2010). «Примерные функции гауссовского процесса» . Избранные произведения Р. М. Дадли . Том. 1. С. 66–103. дои : 10.1007/978-1-4419-5821-1_13 . ISBN  978-1-4419-5820-4 . {{cite book}}: |journal= игнорируется ( помогите )
  12. ^ Талагранд, Мишель (2014). Верхние и нижние оценки случайных процессов: современные методы и классические задачи . Результаты математики и ее пограничные области. 3-я серия / Серия современных обзоров по математике. Спрингер, Гейдельберг. ISBN  978-3-642-54074-5 .
  13. ^ Леду, Мишель (1996), «Изопериметрия и гауссов анализ», Добрушин, Роланд; Грюнбум, Пит; Леду, Мишель (ред.), Лекции по теории вероятностей и статистике: Ecole d'Eté de Probabilités de Saint-Flour XXIV–1994 , Конспекты лекций по математике, том. 1648, Берлин: Springer, стр. 165–294, doi : 10.1007/BFb0095676 , ISBN.  978-3-540-62055-6 , МР   1600888
  14. ^ Адлер, Роберт Дж. (1990). Введение в непрерывность, экстремумы и смежные темы для общих гауссовских процессов . Том. 12. Хейворд, Калифорния: Институт математической статистики. ISBN  0-940600-17-Х . JSTOR   4355563 . МР   1088478 . {{cite book}}: |journal= игнорируется ( помогите )
  15. ^ Берман, Симеон М. (1992). «Обзор: Адлер, 1990 г. «Введение в непрерывность...» ». Математические обзоры . МР   1088478 .
  16. ^ Jump up to: Перейти обратно: а б Дадли, РМ (1967). «Размеры компактов гильбертова пространства и непрерывность гауссовских процессов» . Журнал функционального анализа . 1 (3): 290–330. дои : 10.1016/0022-1236(67)90017-1 .
  17. ^ Jump up to: Перейти обратно: а б Маркус, МБ; Шепп, Лоуренс А. (1972). «Пример поведения гауссовских процессов» . Труды шестого симпозиума Беркли по математической статистике и вероятности, вып. II: теория вероятностей . Том. 6. Университет. Калифорния, Беркли. стр. 423–441.
  18. ^ Jump up to: Перейти обратно: а б Маркус, Майкл Б.; Шепп, Лоуренс А. (1970). «Непрерывность гауссовских процессов» . Труды Американского математического общества . 151 (2): 377–391. дои : 10.1090/s0002-9947-1970-0264749-1 . JSTOR   1995502 .
  19. ^ Дрисколл, Майкл Ф. (1973). «Воспроизводящее ядро ​​структуры гильбертового пространства выборочных путей гауссовского процесса» . Журнал теории вероятностей и смежных областей . 26 (4): 309–316. дои : 10.1007/BF00534894 . ISSN   0044-3719 . S2CID   123348980 .
  20. ^ Джидлинг, Карл; Вальстрем, Никлас; Уиллс, Адриан; Шен, Томас Б. (19 сентября 2017 г.). «Линейно ограниченные гауссовские процессы». arXiv : 1703.00787 [ stat.ML ].
  21. ^ В документации scikit-learn также есть подобные примеры .
  22. ^ Лю, В.; Принсипи, JC; Хайкин, С. (2010). Адаптивная фильтрация ядра: подробное введение . Джон Уайли . ISBN  978-0-470-44753-6 . Архивировано из оригинала 4 марта 2016 г. Проверено 26 марта 2010 г.
  23. ^ Альварес, Маурисио А.; Росаско, Лоренцо; Лоуренс, Нил Д. (2012). «Ядра векторных функций: обзор» (PDF) . Основы и тенденции в машинном обучении . 4 (3): 195–266. дои : 10.1561/2200000036 . S2CID   456491 .
  24. ^ Чен, Цзэсюнь; Ван, Бо; Горбань, Александр Н. (2019). «Многомерная регрессия процессов Гаусса и Стьюдента для прогнозирования с несколькими выходами» . Нейронные вычисления и их приложения . 32 (8): 3005–3028. arXiv : 1703.04455 . дои : 10.1007/s00521-019-04687-8 .
  25. ^ Штейн, МЛ (1999). Интерполяция пространственных данных: некоторые теории кригинга . Спрингер .
  26. ^ Платаниос, Эммануил А.; Хацис, Сотириос П. (2014). «Условная гетероскедастичность гауссовой смеси процессов». Транзакции IEEE по анализу шаблонов и машинному интеллекту . 36 (5): 888–900. дои : 10.1109/TPAMI.2013.183 . ПМИД   26353224 . S2CID   10424638 .
  27. ^ Хацис, Сотириос П. (2013). «Модель гауссовского процесса со скрытой переменной с априорным процессом Питмана – Йора для многоклассовой классификации». Нейрокомпьютинг . 120 : 482–489. дои : 10.1016/j.neucom.2013.04.029 .
  28. ^ Гриффитс, Райан-Рис (2022). Применение гауссовских процессов на экстремальных масштабах длины: от молекул к черным дырам (кандидатская диссертация). Кембриджский университет. arXiv : 2303.14291 . дои : 10.17863/CAM.93643 .
  29. ^ Смола, Эй Джей; Шелькопф, Б. (2000). «Разреженная жадная матричная аппроксимация для машинного обучения». Материалы семнадцатой международной конференции по машинному обучению : 911–918. CiteSeerX   10.1.1.43.3153 .
  30. ^ Чато, Л.; Оппер, М. (2002). «Разреженные онлайн-гауссовские процессы». Нейронные вычисления . 14 (3): 641–668. CiteSeerX   10.1.1.335.9713 . дои : 10.1162/089976602317250933 . ПМИД   11860686 . S2CID   11375333 .
  31. ^ Ли, Се Юн; Маллик, Бани (2021). «Байесовское иерархическое моделирование: применение к результатам добычи в сланцах Игл Форд в Южном Техасе» . Санкхья Б. 84 : 1–43. дои : 10.1007/s13571-020-00245-8 .
  32. ^ Ранфтл, Саша; Мелито, Джан Марко; Бадели, Вахид; Рейнбахер-Кестингер, Алиса; Эллерманн, Катрин; фон дер Линден, Вольфганг (31 декабря 2019 г.). «Количественная оценка байесовской неопределенности с использованием данных разной точности и гауссовских процессов для импедансной кардиографии расслоения аорты» . Энтропия . 22 (1): 58. Бибкод : 2019Entrp..22...58R . дои : 10.3390/e22010058 . ISSN   1099-4300 . ПМЦ   7516489 . PMID   33285833 .
  33. ^ Новак, Роман; Сяо, Лечао; Хрон, Иржи; Ли, Джехун; Алеми, Александр А.; Золь-Дикштейн, Яша; Шенхольц, Сэмюэл С. (2020). «Нейронные касательные: быстрые и простые бесконечные нейронные сети в Python». Международная конференция по обучению представлений . arXiv : 1912.02803 .
  34. ^ Нил, Рэдфорд М. (2012). Байесовское обучение для нейронных сетей . Springer Science and Business Media.
[ редактировать ]

Литература

[ редактировать ]

Программное обеспечение

[ редактировать ]

Видеоуроки

[ редактировать ]
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 3206d1afe801e829a763632224b15d04__1716355200
URL1:https://arc.ask3.ru/arc/aa/32/04/3206d1afe801e829a763632224b15d04.html
Заголовок, (Title) документа по адресу, URL1:
Gaussian process - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)