~~~~~~~~~~~~~~~~~~~~ Arc.Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~ 
Номер скриншота №:
✰ 60E67C6A9FA0C5F650355683B01BF541__1718025180 ✰
Заголовок документа оригинал.:
✰ Multivariate normal distribution - Wikipedia ✰
Заголовок документа перевод.:
✰ Многомерное нормальное распределение — Википедия ✰
Снимок документа находящегося по адресу (URL):
✰ https://en.wikipedia.org/wiki/Multivariate_normal_distribution ✰
Адрес хранения снимка оригинал (URL):
✰ https://arc.ask3.ru/arc/aa/60/41/60e67c6a9fa0c5f650355683b01bf541.html ✰
Адрес хранения снимка перевод (URL):
✰ https://arc.ask3.ru/arc/aa/60/41/60e67c6a9fa0c5f650355683b01bf541__translat.html ✰
Дата и время сохранения документа:
✰ 11.06.2024 00:57:23 (GMT+3, MSK) ✰
Дата и время изменения документа (по данным источника):
✰ 10 June 2024, at 16:13 (UTC). ✰ 

~~~~~~~~~~~~~~~~~~~~~~ Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~~ 
Сервисы Ask3.ru: 
 Архив документов (Снимки документов, в формате HTML, PDF, PNG - подписанные ЭЦП, доказывающие существование документа в момент подписи. Перевод сохраненных документов на русский язык.)https://arc.ask3.ruОтветы на вопросы (Сервис ответов на вопросы, в основном, научной направленности)https://ask3.ru/answer2questionТоварный сопоставитель (Сервис сравнения и выбора товаров) ✰✰
✰ https://ask3.ru/product2collationПартнерыhttps://comrades.ask3.ru


Совет. Чтобы искать на странице, нажмите Ctrl+F или ⌘-F (для MacOS) и введите запрос в поле поиска.
Arc.Ask3.ru: далее начало оригинального документа

Многомерное нормальное распределение — Википедия Jump to content

Многомерное нормальное распределение

Из Википедии, бесплатной энциклопедии
Многомерный нормальный
Функция плотности вероятности
Многие точки выборки из многомерного нормального распределения с и , показанный вместе с 3-сигмовым эллипсом, двумя маргинальными распределениями и двумя одномерными гистограммами.
Обозначения
Параметры ц Р к - расположение
Σ R к × к ковариация ( положительная полуопределенная матрица )
Поддерживать x µ + span( ) R к
PDF
существует только тогда, когда Σ определена положительно
Иметь в виду м
Режим м
Дисперсия С
Энтропия
МГФ
CF
Расхождение Кульбака – Лейблера См. § Расхождение Кульбака – Лейблера.

В теории вероятностей и статистике многомерное нормальное распределение , многомерное распределение Гаусса или совместное нормальное распределение является обобщением одномерного ( одномерного ) нормального распределения на более высокие измерения . Одно из определений состоит в том, что случайный вектор называется нормально распределенным с k -мерными значениями, если каждая линейная комбинация его k компонентов имеет одномерное нормальное распределение. Его важность проистекает главным образом из многомерной центральной предельной теоремы . Многомерное нормальное распределение часто используется для описания, по крайней мере приблизительно, любого набора (возможно) коррелированных действительных случайных величин , каждая из которых группируется вокруг среднего значения.

Определения [ править ]

Обозначения и параметризация [ править ]

Многомерное нормальное распределение k -мерного случайного вектора можно записать в следующих обозначениях:

или чтобы явно было известно, что X является k -мерным,

с k -мерным средним вектором

и ковариационная матрица

такой, что и . Обратная и ковариационная матрица называется матрицей точности обозначается .

Стандартный нормальный случайный вектор [ править ]

Настоящий случайный вектор называется стандартным нормальным случайным вектором, если все его компоненты независимы и каждая представляет собой нормально распределенную случайную величину с нулевой средней единичной дисперсией, т.е. если для всех . [1] : п. 454

Центрированный нормальный случайный вектор [ править ]

Настоящий случайный вектор называется центрированным нормальным случайным вектором, если существует детерминированный матрица такой, что имеет то же распределение, что и где — стандартный нормальный случайный вектор с компоненты. [1] : п. 454

Нормальный случайный вектор [ править ]

Настоящий случайный вектор называется нормальным случайным вектором , если существует случайный -вектор , который представляет собой стандартный нормальный случайный вектор, a -вектор и матрица , такой, что . [2] : п. 454 [1] : п. 455

Формально:

Здесь матрица ковариационная .

В вырожденном случае, когда ковариационная матрица сингулярна , соответствующее распределение не имеет плотности; см . в разделе ниже подробности . Этот случай часто возникает в статистике ; например, в распределении вектора остатков в обычной регрессии наименьших квадратов . в целом не являются независимыми; их можно рассматривать как результат применения матрицы к набору независимых гауссовских переменных .

Эквивалентные определения

Следующие определения эквивалентны определению, данному выше. Случайный вектор имеет многомерное нормальное распределение, если оно удовлетворяет одному из следующих эквивалентных условий.

  • Любая линейная комбинация его компонентов нормально распределены . То есть для любого постоянного вектора , случайная величина имеет одномерное нормальное распределение, где одномерное нормальное распределение с нулевой дисперсией представляет собой точечную массу в своем среднем значении.
  • Существует k -вектор и симметричный положительно полуопределенный матрица , такой, что функция характеристическая является

Сферическое нормальное распределение можно охарактеризовать как уникальное распределение, компоненты которого независимы в любой ортогональной системе координат. [3] [4]

Функция плотности [ править ]

Двумерная нормальная плотность суставов

Невырожденный случай [ править ]

Многомерное нормальное распределение называется «невырожденным», если симметричная ковариационная матрица является положительно определенным . В этом случае распределение имеет плотность [5]

где является действительным k -мерным вектором-столбцом и является определяющим фактором , также известный как обобщенная дисперсия . Приведенное выше уравнение сводится к уравнению одномерного нормального распределения, если это матрица (т.е. одно действительное число).

Циркулярно-симметричная версия комплексного нормального распределения имеет несколько иную форму.

изоплотности Каждый локус — локус точек в k -мерном пространстве, каждая из которых дает одно и то же конкретное значение плотности — представляет собой эллипс или его многомерное обобщение; следовательно, многомерная нормаль является частным случаем эллиптических распределений .

Количество известно как расстояние Махаланобиса , которое представляет собой расстояние до контрольной точки. от среднего . Обратите внимание, что в случае, когда , распределение сводится к одномерному нормальному распределению, а расстояние Махаланобиса сводится к абсолютному значению стандартного балла . См. также Интервал ниже.

Двумерный случай [ править ]

В двумерном неособом случае ( ), функция плотности вероятности вектора является:

где это корреляция между и и где и . В этом случае,

В двумерном случае первое эквивалентное условие многомерного восстановления нормальности можно сделать менее ограничительным, поскольку достаточно проверить, что счетное множество различных линейных комбинаций и нормальны, чтобы заключить, что вектор является двумерным нормальным. [6]

Двумерные локусы изоплотности, нанесенные на графике -плоскостью являются эллипсы , главные оси которых определяются собственными векторами ковариационной матрицы (большой и малый полудиаметры эллипса равны квадратному корню из упорядоченных собственных значений).

Двумерное нормальное распределение с центром со стандартным отклонением 3 примерно направлении и 1 в ортогональном направлении.

Поскольку абсолютное значение параметра корреляции увеличивается, эти локусы сжимаются к следующей линии:

Это потому, что это выражение, с (где Sign — функция Sign ), замененная на , является лучшим линейным несмещенным прогнозом учитывая значение . [7]

Вырожденный случай [ править ]

Если ковариационная матрица не является полным рангом, то многомерное нормальное распределение вырождено и не имеет плотности. Точнее, он не имеет плотности по отношению к k -мерной мере Лебега (которая является обычной мерой, принимаемой в курсах вероятностей на уровне исчисления). Говорят , что только случайные векторы, распределения которых абсолютно непрерывны относительно меры, имеют плотность (относительно этой меры). Чтобы говорить о плотностях, но не иметь дело с теоретико-мерными сложностями, проще ограничить внимание подмножеством координат такая, что ковариационная матрица для этого подмножества является положительно определенной; тогда другие координаты можно рассматривать как аффинную функцию этих выбранных координат. [8]

Таким образом, чтобы осмысленно говорить о плотности в единичных случаях, мы должны выбрать другую базовую меру. Используя теорему о дезинтеграции, мы можем определить ограничение меры Лебега на -мерное аффинное подпространство где поддерживается распределение Гаусса, т.е. . По этой мере распределение имеет плотность следующего мотива:

где является обобщенным обратным и является псевдодетерминантом . [9]

распределения Кумулятивная функция

Понятие кумулятивной функции распределения (cdf) в измерении 1 можно расширить двумя способами на многомерный случай, основанный на прямоугольных и эллипсоидальных областях.

Первый способ — определить cdf случайного вектора как вероятность того, что все компоненты меньше или равны соответствующим значениям в векторе : [10]

Хотя закрытой формы для , существует ряд алгоритмов, которые оценивают его численно . [10] [11]

Другой способ - определить cdf как вероятность того, что образец находится внутри эллипсоида, определяемая его расстоянием Махаланобиса от гауссовой, прямого обобщения стандартного отклонения. [12] Для вычисления значений этой функции существуют замкнутые аналитические формулы: [12] следующее.

Интервал [ править ]

Интервал , многомерного нормального распределения дает область, состоящую из тех векторов x которые удовлетворяют

Здесь это -мерный вектор, это известный -мерный средний вектор, - известная ковариационная матрица и - функция квантиля вероятности распределения хи -квадрат с степени свободы. [13] Когда выражение определяет внутреннюю часть эллипса, а распределение хи-квадрат упрощается до экспоненциального распределения со средним значением, равным двум (скорость равна половине).

Дополнительная кумулятивная функция распределения ( распределение хвостовое )

Дополнительная кумулятивная функция распределения (ccdf) или хвостовое распределение. определяется как . Когда , затем ccdf можно записать как вероятность максимума зависимых гауссовских переменных: [14]

Хотя простой замкнутой формулы для вычисления ccdf не существует, максимум зависимых гауссовских переменных может быть быть точно оценен с помощью метода Монте-Карло . [14] [15]

Свойства [ править ]

Вероятность в разных областях [ править ]

Вверху: вероятность двумерной нормальности в области. (синие регионы). В центре: вероятность трехмерной нормали в тороидальной области. Внизу: сходящийся интеграл Монте-Карло вероятности 4-мерной нормали в 4d-регулярной многогранной области, определяемой формулой . Все они рассчитываются численным методом трассировки лучей. [16]

Вероятностное содержание многомерной нормали в квадратичной области, определяемое формулой (где это матрица, является вектором, и является скаляром), который важен для байесовской классификации/теории принятия решений с использованием гауссовского дискриминантного анализа, определяется обобщенным распределением хи-квадрат . [16] Содержимое вероятности в любой общей области, определяемой формулой (где — общая функция) можно вычислить с помощью численного метода трассировки лучей [16] ( код Матлаба ).

Высшие моменты [ править ]

Моменты k порядка - го по x определяются выражением

где р 1 + р 2 + ⋯ + р N знак равно k .

Центральные моменты k - го порядка следующие:

  1. Если k нечетно, µ 1, …, N ( x - µ ) знак равно 0 .
  2. Если k четно с k = 2 λ , то [ двусмысленный ]

где сумма берется по всем распределениям набора на λ (неупорядоченные) пары. То есть для k -го (= 2 λ = 6) центрального момента суммируются произведения ковариаций λ = 3 ожидаемое значение µ ( в интересах экономии принимается равным 0):

Это дает члены в сумме (15 в приведенном выше случае), каждое из которых является произведением ковариаций λ (в данном случае 3). Для моментов четвертого порядка (четыре переменные) имеется три члена. Для моментов шестого порядка имеется 3 × 5 = 15 членов, а для моментов восьмого порядка — 3 × 5 × 7 = 105 членов.

Затем ковариации определяются путем замены членов списка соответствующими членами списка, состоящего из r 1 единиц, затем r 2 двоек и т. д. Чтобы проиллюстрировать это, рассмотрим следующий случай центрального момента 4-го порядка:

где — ковариация X i и X j . С помощью описанного выше метода сначала находится общий случай для k -го момента с k различными X- переменными: , а затем это соответственно упрощается. Например, для , положим X i = X j и воспользуемся тем фактом, что .

Функции нормального вектора [ править ]

а: Плотность вероятности функции одной нормальной переменной с и . б: Плотность вероятности функции нормального вектора , со средним и ковариация . c: Тепловая карта совместной плотности вероятности двух функций нормального вектора. , со средним и ковариация . d: Плотность вероятности функции из 4 стандартных нормальных переменных iid. Они рассчитываются численным методом трассировки лучей. [16]

Квадратичная форма нормального вектора , (где это матрица, является вектором, и является скаляром), является обобщенной переменной хи-квадрат . [16] Направление вектора нормали соответствует прогнозируемому нормальному распределению . [17]

Если — это общая скалярная функция нормального вектора, ее функция плотности вероятности , кумулятивная функция распределения и обратная кумулятивная функция распределения могут быть вычислены с помощью численного метода трассировки лучей ( код Matlab ). [16]

Функция правдоподобия [ править ]

Если известны среднее значение и ковариационная матрица, логарифмическая вероятность наблюдаемого вектора это просто журнал функции плотности вероятности :

,

Циркулярно-симметричный вариант нецентрального комплексного случая, когда вектор комплексных чисел, будет

т.е. с сопряженным транспонированием (обозначенным ), заменяя обычное транспонирование (обозначается ). Это немного отличается от реального случая, поскольку циркулярно-симметричная версия комплексного нормального распределения имеет несколько иной вид константы нормализации .

Аналогичные обозначения используются для множественной линейной регрессии . [18]

Поскольку логарифмическая вероятность нормального вектора представляет собой квадратичную форму нормального вектора, она распределяется как обобщенная переменная хи-квадрат . [16]

Дифференциальная энтропия [ править ]

Дифференциальная энтропия многомерного нормального распределения равна [19]

,

где столбцы обозначают определитель матрицы , k — размерность векторного пространства, а результат имеет единицы измерения nats .

Кульбака Расхождение Лейблера

Расхождение Кульбака –Лейблера от к для неособых матриц Σ 1 и Σ 0 равно: [20]

где обозначает определитель матрицы , это след , натуральный логарифм и — размерность векторного пространства.

Логарифм поскольку два члена , необходимо брать по основанию e, следующие за логарифмом, сами являются логарифмами по основанию e выражений, которые либо являются факторами функции плотности, либо возникают естественным образом. Таким образом, уравнение дает результат, измеряемый в натс . Разделив все приведенное выше выражение на log e 2, получим расхождение в битах .

Когда ,

Взаимная информация [ править ]

Взаимная информация распределения представляет собой частный случай расхождения Кульбака – Лейблера, в котором полное многомерное распределение и является продуктом одномерных предельных распределений. В обозначениях раздела о расходимости Кульбака – Лейблера этой статьи: представляет собой диагональную матрицу с диагональными элементами , и . Итоговая формула взаимной информации:

где корреляционная матрица , построенная из . [21]

В двумерном случае выражение взаимной информации имеет вид:

Нормальность суставов [ править ]

Нормально распределенные и независимые [ править ]

Если и нормально распределены и независимы , это означает, что они «совместно нормально распределены», т. е. пара должно иметь многомерное нормальное распределение. Однако пара совместно нормально распределенных переменных не обязательно должна быть независимой (будет таковой только в том случае, если она некоррелирована, ).

Две нормально распределенные случайные величины не обязательно должны быть совместно нормальными двумерными [ править ]

Тот факт, что две случайные величины и оба имеют нормальное распределение, это не означает, что пара имеет совместное нормальное распределение. Простым примером является тот, в котором X имеет нормальное распределение с ожидаемым значением 0 и дисперсией 1, и если и если , где . Существуют аналогичные контрпримеры для более чем двух случайных величин. В общем, они суммируются в смешанной модели . [ нужна цитата ]

и независимость Корреляции

В общем, случайные величины могут быть некоррелированными, но статистически зависимыми. Но если случайный вектор имеет многомерное нормальное распределение, то любые два или более его некоррелированных компонента являются независимыми . Это означает, что любые два или более его компонента, попарно независимые, являются независимыми. Но, как указывалось выше, неверно, что две случайные величины, которые ( отдельно , маргинально) нормально распределены и некоррелированы, независимы.

Условные распределения [ править ]

Если N -мерный x разбит следующим образом

и, соответственно, µ и Σ разбиваются следующим образом

тогда распределение x 1 при условии x 2 = a является многомерным нормальным [22] ( Икс 1 | Икс 2 знак равно а ) ~ N ( μ , Σ ) где

и ковариационная матрица

[23]

Здесь является обобщенной инверсией . Матрица является Шура к 22 22 в . дополнением То есть приведенное выше уравнение эквивалентно инвертированию общей ковариационной матрицы, удалению строк и столбцов, соответствующих обусловленным переменным, и обратному обращению для получения условной ковариационной матрицы.

Обратите внимание, что знание того, что x 2 = a, изменяет дисперсию, хотя новая дисперсия не зависит от конкретного значения a ; что еще более удивительно, среднее значение смещается на ; сравните это с ситуацией, когда значение a не известно , и в этом случае x 1 будет иметь распределение .

Интересный факт, полученный для доказательства этого результата, состоит в том, что случайные векторы и независимы.

Матрица Σ 12 Σ 22 −1 известна как матрица коэффициентов регрессии .

Двумерный случай [ править ]

В двумерном случае, когда x разбивается на и , условное распределение данный является [24]

где корреляции коэффициент между и .

Двумерное условное ожидание [ править ]

В общем случае [ править ]

Условное ожидание X 1 при условии X 2 равно:

Доказательство: результат получается, если взять математическое ожидание условного распределения выше.

В центрированном случае с единичными отклонениями [ править ]

Условное ожидание X 1 при условии X 2 равно

и условная дисперсия равна

таким образом, условная дисперсия не зависит от x 2 .

Условное ожидание X 1 при условии, что X 2 меньше/больше z , равно: [25] : 367 

где окончательное соотношение здесь называется обратным коэффициентом Миллса .

Доказательство: два последних результата получены с использованием результата , так что

а затем используя свойства ожидания усеченного нормального распределения .

Маржинальные распределения

Чтобы получить маргинальное распределение по подмножеству многомерных нормальных случайных величин, нужно всего лишь исключить нерелевантные переменные (переменные, которые нужно исключить) из вектора средних значений и ковариационной матрицы. Доказательство этого следует из определений многомерного нормального распределения и линейной алгебры. [26]

Пример

Пусть X = [ X 1 , X 2 , X 3 ] будут многомерными нормальными случайными величинами со средним вектором µ = [ µ 1 , µ 2 , µ 3 ] и ковариационной матрицей Σ (стандартная параметризация для многомерных нормальных распределений). Тогда совместное распределение X' = [ X 1 , X 3 ] является многомерным нормальным со средним вектором µ ' = [ µ 1 , µ 3 ] и ковариационной матрицей .

Аффинное преобразование [ править ]

Если Y = c + BX аффинное преобразование где с - это вектор констант и B — константа матрица, то Y имеет многомерное нормальное распределение с ожидаемым значением c + и дисперсией BΣB Т то есть . В частности, любое подмножество X i имеет предельное распределение, которое также является многомерным нормальным. Чтобы убедиться в этом, рассмотрим следующий пример: чтобы извлечь подмножество ( X 1 , X 2 , X 4 ) Т , использовать

который извлекает нужные элементы напрямую.

Другим следствием является то, что распределение Z = b · X , где b — постоянный вектор с тем же количеством элементов, что и X , а точка указывает скалярное произведение , является одномерным гауссовым с . Этот результат получается при использовании

Обратите внимание, что из положительной определенности Σ следует, что дисперсия скалярного произведения должна быть положительной.

Аффинное преобразование X такое как 2 X, — это не то же самое, что двух независимых реализаций X. , сумма

Геометрическая интерпретация

Контуры эквивалентности неособого многомерного нормального распределения представляют собой эллипсоиды (т.е. аффинные преобразования гиперсфер ) с центром в среднем. [27] Следовательно, многомерное нормальное распределение является примером класса эллиптических распределений . Направления главных осей эллипсоидов задаются собственными векторами ковариационной матрицы . Квадраты относительных длин главных осей задаются соответствующими собственными значениями.

Если Σ = UΛU Т = 1/2 ( 1/2 ) Т является собственным разложением, где столбцы U являются единичными собственными векторами, а Λ является диагональной матрицей собственных значений, то мы имеем

Более того, U можно выбрать в качестве матрицы вращения , поскольку инвертирование оси не влияет на N (0, Λ ), но инвертирование столбца меняет знак U. определителя Распределение N ( µ , Σ ) фактически является N (0, I ) масштабированным с помощью Λ 1/2 , повёрнутый U и переведённый на µ .

И наоборот, любой выбор µ , матрицы полного ранга U и положительных диагональных элементов Λ i дает неособое многомерное нормальное распределение. Если любой Λ i равен нулю, а U квадратный, результирующая ковариационная матрица UΛU Т является единичным . Геометрически это означает, что каждый контурный эллипсоид бесконечно тонкий и имеет нулевой объем в n -мерном пространстве, поскольку хотя бы одна из главных осей имеет нулевую длину; это вырожденный случай .

«Радиус вокруг истинного среднего значения двумерной нормальной случайной величины, переписанной в полярных координатах (радиус и угол), соответствует распределению Хойта ». [28]

В одном измерении вероятность найти выборку нормального распределения в интервале составляет примерно 68,27%, но в более высоких размерностях вероятность найти выборку в области эллипса стандартного отклонения ниже. [29]

Размерность Вероятность
1 0.6827
2 0.3935
3 0.1987
4 0.0902
5 0.0374
6 0.0144
7 0.0052
8 0.0018
9 0.0006
10 0.0002

Статистический вывод

Оценка параметров [ править ]

Вывод максимального правдоподобия оценки ковариационной матрицы многомерного нормального распределения прост.

Короче говоря, функция плотности вероятности (pdf) многомерного нормального значения равна

а ML-оценщик ковариационной матрицы из выборки из n наблюдений равен [30]

это просто выборочная ковариационная матрица . Это смещенная оценка, математическое ожидание которой равно

Несмещенная выборочная ковариация — это

(матричная форма; это единичная матрица, J представляет собой матрица единиц; термин в скобках, таким образом, является центрирующая матрица)

для Информационная матрица Фишера оценки параметров многомерного нормального распределения имеет выражение замкнутого вида. Это можно использовать, например, для вычисления границы Крамера – Рао для оценки параметров в этой ситуации. см. в информации Fisher Дополнительную информацию .

Байесовский вывод [ править ]

В байесовской статистике сопряженный априор среднего вектора представляет собой еще одно многомерное нормальное распределение, а сопряженный априор ковариационной матрицы представляет собой обратное распределение Вишарта. . Предположим тогда, что n было сделано наблюдений.

и что был назначен сопряженный априор, где

где

и

Затем [31]

где

тесты на Многомерные нормальность

Многомерные тесты нормальности проверяют заданный набор данных на сходство с многомерным нормальным распределением . Нулевая гипотеза заключается в том, что набор данных аналогичен нормальному распределению, поэтому достаточно маленькое p значение указывает на ненормальные данные. Многомерные тесты на нормальность включают тест Кокса – Смолла. [32] и адаптация Смита и Джайна [33] теста Фридмана-Рафски, созданного Ларри Рафски и Джеромом Фридманом . [34]

тест Мардии [35] основано на многомерном расширении мер асимметрии и эксцесса . Для выборки { x 1 , ..., x n } k -мерных векторов мы вычисляем

При нулевой гипотезе многомерной нормальности статистика A будет иметь приблизительно распределение хи-квадрат с 1/6 B + 1 ) k ( k ( k + 2) степеней свободы, и ( будет примерно стандартной нормалью N 0,1).

Статистика эксцесса Мардиа искажена и очень медленно сходится к предельному нормальному распределению. Для образцов среднего размера , параметры асимптотического распределения статистики эксцесса изменяются [36] Для небольших выборочных испытаний ( ) используются эмпирические критические значения. Таблицы критических значений для обеих статистик даны Ренчером. [37] для к = 2, 3, 4.

Тесты Мардиа аффинно-инвариантны, но несогласованны. Например, многомерный тест на асимметрию не согласуется с симметричные ненормальные альтернативы. [38]

BHEP Тест [39] вычисляет норму разницы между эмпирической характеристической функцией и теоретической характеристической функцией нормального распределения. Расчет нормы производится в формате L 2 ( µ ) пространство суммируемых с квадратом функций относительно весовой функции Гаусса . Статистика теста

Предельное распределение этой тестовой статистики представляет собой взвешенную сумму случайных величин хи-квадрат. [39]

Доступен подробный обзор этих и других процедур испытаний. [40]

Классификация на многомерные нормальные классы [ править ]

Слева: Классификация семи многомерных нормальных классов. Цветные эллипсы — это эллипсы ошибок с точностью до 1 стандартного отклонения. Черным отмечены границы между областями классификации. – вероятность полной ошибки классификации. Справа: матрица ошибок. - вероятность классифицировать образец от нормального как . Они рассчитываются численным методом трассировки лучей. [16] ( код Матлаба ).

Гауссовский дискриминантный анализ [ править ]

Предположим, что наблюдения (которые являются векторами) предположительно происходят из одного из нескольких многомерных нормальных распределений с известными средними значениями и ковариациями. Тогда любое данное наблюдение можно отнести к распределению, из которого оно имеет наибольшую вероятность возникновения. Эта процедура классификации называется гауссовским дискриминантным анализом. Эффективность классификации, то есть вероятности различных результатов классификации, а также общая ошибка классификации, могут быть рассчитаны с помощью численного метода трассировки лучей. [16] ( код Матлаба ).

Вычислительные методы [ править ]

Получение значений из распределения [ править ]

Широко используемый метод рисования (выборки) случайного вектора x из N -мерного многомерного нормального распределения со средним вектором µ и ковариационной матрицей Σ работает следующим образом: [41]

  1. Найдите любую вещественную матрицу A такую, что A A Т = Σ . Когда Σ положительно определена, разложение Холецкого обычно используется , и всегда можно использовать расширенную форму этого разложения (поскольку ковариационная матрица может быть только положительно полуопределенной) в обоих случаях подходящая матрица A. получается Альтернативой является использование матрицы A = ½ полученное спектральным разложением Σ = UΛU −1 Σ . Первый подход более прост с вычислительной точки зрения, но матрицы A изменяются для различного порядка элементов случайного вектора, тогда как второй подход дает матрицы, которые связаны простым переупорядочением. Теоретически оба подхода дают одинаково хорошие способы определения подходящей матрицы A , но есть различия во времени вычислений.
  2. Пусть z = ( z 1 , ..., z N ) Т быть вектором, компоненты которого являются N независимыми стандартными нормальными переменными (которые можно сгенерировать, например, с помощью преобразования Бокса – Мюллера ).
  3. Пусть x будет µ + Az . Оно имеет желаемое распределение благодаря свойству аффинного преобразования.

См. также [ править ]

Ссылки [ править ]

  1. ^ Перейти обратно: а б с Лапидот, Амос (2009). Фонд цифровых коммуникаций . Издательство Кембриджского университета. ISBN  978-0-521-19395-5 .
  2. ^ Гут, Аллан (2009). Промежуточный курс теории вероятностей . Спрингер. ISBN  978-1-441-90161-3 .
  3. ^ Кац, М. (1939). «О характеристике нормального распределения». Американский журнал математики . 61 (3): 726–728. дои : 10.2307/2371328 . JSTOR   2371328 .
  4. ^ Синц, Фабиан; Гервинн, Себастьян; Бетге, Матиас (2009). «Характеристика p-обобщенного нормального распределения» . Журнал многомерного анализа . 100 (5): 817–820. дои : 10.1016/j.jmva.2008.07.006 .
  5. ^ Саймон Джей Ди Принс (июнь 2012 г.). Компьютерное зрение: модели, обучение и выводы . Издательство Кембриджского университета. 3.7: «Многомерное нормальное распределение».
  6. ^ Хамедани, Г.Г.; Тата, Миннесота (1975). «Об определении двумерного нормального распределения по распределениям линейных комбинаций переменных». Американский математический ежемесячник . 82 (9): 913–915. дои : 10.2307/2318494 . JSTOR   2318494 .
  7. ^ Вятт, Джон (26 ноября 2008 г.). «Линейная оценка наименьших среднеквадратических ошибок» (PDF) . Конспект лекций по курсу прикладной вероятности . Архивировано из оригинала (PDF) 10 октября 2015 года . Проверено 23 января 2012 г.
  8. ^ «Линейная алгебра - Отображение между аффинными координатными функциями» . Математический обмен стеками . Проверено 24 июня 2022 г.
  9. ^ Рао, ЧР (1973). Линейный статистический вывод и его приложения . Нью-Йорк: Уайли. стр. 527–528. ISBN  0-471-70823-2 .
  10. ^ Перейти обратно: а б Ботев, З.И. (2016). «Нормальный закон при линейных ограничениях: моделирование и оценка с помощью минимаксного наклона». Журнал Королевского статистического общества, серия B. 79 : 125–148. arXiv : 1603.04166 . Бибкод : 2016arXiv160304166B . дои : 10.1111/rssb.12162 . S2CID   88515228 .
  11. ^ Генц, Алан (2009). Вычисление многомерных нормальных и t вероятностей . Спрингер. ISBN  978-3-642-01689-9 .
  12. ^ Перейти обратно: а б Бенсимхун Майкл, N-мерная кумулятивная функция и другие полезные факты о гауссианах и нормальных плотностях (2006)
  13. ^ Сиотани, Минору (1964). «Области толерантности для многомерной нормальной популяции» (PDF) . Летопись Института статистической математики . 16 (1): 135–153. дои : 10.1007/BF02868568 . S2CID   123269490 .
  14. ^ Перейти обратно: а б Ботев З.И.; Манджес, М.; Риддер, А. (6–9 декабря 2015 г.). «Хвостовое распределение максимума коррелированных гауссовских случайных величин». Зимняя конференция по моделированию (WSC) 2015 . Хантингтон-Бич, Калифорния, США: IEEE. стр. 633–642. дои : 10.1109/WSC.2015.7408202 . hdl : 10419/130486 . ISBN  978-1-4673-9743-8 .
  15. ^ Адлер, Р.Дж.; Бланше, Дж.; Лю, Дж. (7–10 декабря 2008 г.). «Эффективное моделирование хвостовых вероятностей гауссовских случайных полей». Зимняя конференция по моделированию 2008 г. (WSC) . Майами, Флорида, США: IEEE. стр. 328–336. дои : 10.1109/WSC.2008.4736085 . ISBN  978-1-4244-2707-9 . {{cite conference}}: CS1 maint: дата и год ( ссылка )
  16. ^ Перейти обратно: а б с д Это ж г час я Дас, Абранил; Уилсон С. Гейслер (2020). «Методы интеграции мультинормальных чисел и вычисления мер классификации». arXiv : 2012.14331 [ stat.ML ].
  17. ^ Эрнандес-Стумпфхаузер, Даниэль; Брейдт, Ф. Джей; ван дер Вёрд, Марк Дж. (2017). «Общее прогнозируемое нормальное распределение произвольной размерности: моделирование и байесовский вывод» . Байесовский анализ . 12 (1): 113–133. дои : 10.1214/15-BA989 .
  18. ^ Тонг, Т. (2010) Множественная линейная регрессия: MLE и результаты ее распределения. Архивировано 16 июня 2013 г. на WebCite , конспекты лекций.
  19. ^ Гохале, Д.В.; Ахмед, Н.А.; Рес, Британская Колумбия; Пискатауэй, Нью-Джерси (май 1989 г.). «Выражения энтропии и их оценки для многомерных распределений». Транзакции IEEE по теории информации . 35 (3): 688–692. дои : 10.1109/18.30996 .
  20. ^ Дучи, Дж. «Выводы для линейной алгебры и оптимизации» (PDF) : 13. {{cite journal}}: Для цитирования журнала требуется |journal= ( помощь )
  21. ^ Маккей, Дэвид Дж. К. (6 октября 2003 г.). Теория информации, логический вывод и алгоритмы обучения (Иллюстрированное издание). Кембридж: Издательство Кембриджского университета. ISBN  978-0-521-64298-9 .
  22. ^ Холт, В.; Нгуен, Д. (2023). «Основные аспекты байесовского вменения данных» . ССНН   4494314 . {{cite journal}}: Для цитирования журнала требуется |journal= ( помощь )
  23. ^ Итон, Моррис Л. (1983). Многомерная статистика: векторно-пространственный подход . Джон Уайли и сыновья. стр. 116–117. ISBN  978-0-471-02776-8 .
  24. ^ Дженсен, Дж (2000). Статистика для инженеров-нефтяников и геологов . Амстердам: Эльзевир. п. 207. ИСБН  0-444-50552-0 .
  25. ^ Маддала, GS (1983). Ограниченно зависимые и качественные переменные в эконометрике . Издательство Кембриджского университета. ISBN  0-521-33825-5 .
  26. ^ Алгебраическое вычисление предельного распределения показано здесь http://fourier.eng.hmc.edu/e161/lectures/gaussianprocess/node7.html. Архивировано 17 января 2010 г. в Wayback Machine . Гораздо более короткое доказательство изложено здесь https://math.stackexchange.com/a/3832137.
  27. ^ Николаус Хансен (2016). «Стратегия эволюции CMA: Учебное пособие» (PDF) . arXiv : 1604.00772 . Бибкод : 2016arXiv160400772H . Архивировано из оригинала (PDF) 31 марта 2010 г. Проверено 7 января 2012 г.
  28. ^ Дэниел Волльшлегер. «Дистрибутив Хойта (документация для пакета R «shotGroups» версии 0.6.2)» . [ постоянная мертвая ссылка ]
  29. ^ Ван, Бин; Ши, Вэньчжун; Мяо, Зеланг (13 марта 2015 г.). Роккини, Дуччо (ред.). «Анализ уверенности в эллипсе стандартных отклонений и его расширении в евклидово пространство более высоких измерений» . ПЛОС ОДИН . 10 (3): e0118537. Бибкод : 2015PLoSO..1018537W . дои : 10.1371/journal.pone.0118537 . ISSN   1932-6203 . ПМЦ   4358977 . ПМИД   25769048 .
  30. ^ Холт, В.; Нгуен, Д. (2023). «Введение в байесовский метод вменения данных» . ССНН   4494314 . {{cite journal}}: Для цитирования журнала требуется |journal= ( помощь )
  31. ^ Холт, В.; Нгуен, Д. (2023). «Введение в байесовский метод вменения данных» . ССНН   4494314 . {{cite journal}}: Для цитирования журнала требуется |journal= ( помощь )
  32. ^ Кокс, доктор медицинских наук; Смолл, Нью-Джерси (1978). «Тестирование многомерной нормальности». Биометрика . 65 (2): 263. doi : 10.1093/biomet/65.2.263 .
  33. ^ Смит, СП; Джайн, АК (1988). «Тест для определения многомерной нормальности набора данных». Транзакции IEEE по анализу шаблонов и машинному интеллекту . 10 (5): 757. дои : 10.1109/34.6789 .
  34. ^ Фридман, Дж. Х.; Рафски, LC (1979). «Многомерные обобщения двухвыборочных критериев Вальда – Вольфовица и Смирнова» . Анналы статистики . 7 (4): 697. дои : 10.1214/aos/1176344722 .
  35. ^ Мардия, КВ (1970). «Меры многомерной асимметрии и эксцесса с приложениями». Биометрика . 57 (3): 519–530. дои : 10.1093/biomet/57.3.519 .
  36. ^ Ренчер (1995), страницы 112–113.
  37. ^ Ренчер (1995), страницы 493–495.
  38. ^ Бэрингхаус, Л.; Хенце, Н. (1991). «Предельные распределения для мер многомерной асимметрии и эксцесса на основе прогнозов» . Журнал многомерного анализа . 38 : 51–69. дои : 10.1016/0047-259X(91)90031-V .
  39. ^ Перейти обратно: а б Бэрингхаус, Л.; Хенце, Н. (1988). «Последовательный тест на многомерную нормальность, основанный на эмпирической характеристической функции». Метрика . 35 (1): 339–348. дои : 10.1007/BF02613322 . S2CID   122362448 .
  40. ^ Хенце, Норберт (2002). «Инвариантные тесты на многомерную нормальность: критический обзор». Статистические документы . 43 (4): 467–506. дои : 10.1007/s00362-002-0119-6 . S2CID   122934510 .
  41. ^ Нежный, Дж. Э. (2009). Вычислительная статистика . Статистика и вычисления. Нью-Йорк: Спрингер. стр. 315–316. дои : 10.1007/978-0-387-98144-4 . ISBN  978-0-387-98143-7 .

Литература [ править ]

Arc.Ask3.Ru: конец оригинального документа.
Arc.Ask3.Ru
Номер скриншота №: 60E67C6A9FA0C5F650355683B01BF541__1718025180
URL1:https://en.wikipedia.org/wiki/Multivariate_normal_distribution
Заголовок, (Title) документа по адресу, URL1:
Multivariate normal distribution - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть, любые претензии не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, денежную единицу можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)