Jump to content

Оценка ковариационных матриц

В статистике иногда ковариационная матрица многомерной случайной величины неизвестна, но ее необходимо оценить . Оценка ковариационных матриц затем связана с вопросом о том, как аппроксимировать фактическую ковариационную матрицу на основе выборки из многомерного распределения . Простые случаи, когда наблюдения являются полными, можно решить с помощью выборочной ковариационной матрицы . Выборочная ковариационная матрица (SCM) является несмещенной и эффективной оценкой ковариационной матрицы, если пространство ковариационных матриц рассматривается как внешний выпуклый конус в R p × p ; однако, измеренный с использованием внутренней геометрии , положительно определенных матриц SCM является смещенным и неэффективным средством оценки. [1] Кроме того, если случайная величина имеет нормальное распределение , выборочная ковариационная матрица имеет распределение Уишарта , и ее версия в немного другом масштабе представляет собой оценку максимального правдоподобия . Случаи, связанные с отсутствующими данными , гетероскедастичностью или автокоррелированными остатками, требуют более глубокого рассмотрения. Другой проблемой является устойчивость к выбросам , к которым очень чувствительны выборочные ковариационные матрицы. [2] [3] [4]

Статистический анализ многомерных данных часто включает в себя исследовательские исследования того, как переменные изменяются по отношению друг к другу, и за этим могут следовать явные статистические модели, включающие ковариационную матрицу переменных. Таким образом, оценка ковариационных матриц непосредственно по данным наблюдений играет две роли:

  • предоставить первоначальные оценки, которые можно использовать для изучения взаимосвязей;
  • предоставить выборочные оценки, которые можно использовать для проверки модели.

Оценки ковариационных матриц необходимы на начальных этапах анализа главных компонентов и факторного анализа , а также используются в версиях регрессионного анализа , которые рассматривают зависимые переменные в наборе данных вместе с независимой переменной как результат случайной выборки. .

Оценка в общем контексте

[ редактировать ]

Дана выборка, из n независимых наблюдений x 1 ,..., x n p -мерного состоящая случайного вектора X R p ×1 ( вектор-столбец p × 1), несмещенная оценка ( p × p ) ковариационной матрицы

это выборочная ковариационная матрица

где является i -м наблюдением p -мерного случайного вектора, а вектор

– это выборочное среднее .Это верно независимо от распределения случайной величины X , при условии, конечно, что существуют теоретические средние значения и ковариации. Причина появления фактора n - 1, а не n , по существу, та же, что и причина появления того же фактора в несмещенных оценках выборочных дисперсий и выборочных ковариаций , что связано с тем фактом, что среднее значение неизвестно и заменяется выборочным. среднее значение (см. поправку Бесселя ).

В тех случаях, когда известно, что распределение случайной величины X находится в пределах определенного семейства распределений, на основе этого предположения можно получить другие оценки. Хорошо известен случай, когда случайная величина X имеет нормальное распределение : в этом случае максимального правдоподобия оценка ковариационной матрицы немного отличается от несмещенной оценки и определяется выражением

Вывод этого результата приведен ниже. Очевидно, что разница между несмещенной оценкой и оценкой максимального правдоподобия уменьшается при больших n .

В общем случае несмещенная оценка ковариационной матрицы обеспечивает приемлемую оценку, когда все векторы данных в наблюдаемом наборе данных полны: то есть они не содержат пропущенных элементов . Один из подходов к оценке ковариационной матрицы состоит в том, чтобы рассматривать оценку каждой дисперсии или парной ковариации отдельно и использовать все наблюдения, для которых обе переменные имеют действительные значения. Если предположить, что недостающие данные отсутствуют случайно, это приводит к оценке ковариационной матрицы, которая является несмещенной. Однако для многих приложений эта оценка может быть неприемлемой, поскольку оцененная ковариационная матрица не обязательно будет положительно полуопределенной. Это может привести к тому, что оцененные корреляции будут иметь абсолютные значения больше единицы и/или к необратимой ковариационной матрице.

При оценке перекрестной ковариации пары сигналов, которые являются стационарными в широком смысле , отсутствующие выборки не обязательно должны быть случайными (например, допустима субвыборка с произвольным коэффициентом). [ нужна ссылка ]

Оценка максимального правдоподобия для многомерного нормального распределения

[ редактировать ]

Случайный вектор X R п ( вектор-столбец p × 1) имеет многомерное нормальное распределение с невырожденной ковариационной матрицей Σ точно, если Σ ∈ R п × р является положительно определенной матрицей а функция плотности вероятности X , равна

где µ R p ×1 значение X. ожидаемое Ковариационная матрица Σ является многомерным аналогом того, что в одном измерении было бы дисперсией , и

нормализует плотность так что оно интегрируется в 1.

Предположим теперь, что X 1 , ..., X n являются независимыми и одинаково распределенными выборками из распределения, приведенного выше. На основе наблюдаемых значений x 1 , ..., x n этого образца мы хотим оценить Σ.

Первые шаги

[ редактировать ]

Функция правдоподобия:

Довольно легко показать, что оценка максимального правдоподобия среднего вектора μ является вектором « выборочного среднего »:

см. в разделе об оценке статьи о нормальном распределении Подробности ; здесь процесс аналогичен.

Поскольку оценка не зависит от Σ, мы можем просто подставить его вместо µ в функцию правдоподобия , получив

а затем найдите значение Σ, которое максимизирует вероятность данных (на практике проще работать с журналом ).

След матрицы 1 × 1

[ редактировать ]

Теперь мы подходим к первому удивительному шагу: рассмотрим скаляр как след матрицы 1×1. Это позволяет использовать тождество tr( AB ) = tr( BA ) всякий раз, когда матрицы A и B имеют такую ​​форму, что оба произведения существуют. Мы получаем

где

иногда называется матрицей рассеяния и является положительно определенной, если существует подмножество данных, состоящее из аффинно независимые наблюдения (что мы и будем предполагать).

Используя спектральную теорему

[ редактировать ]

следует Из спектральной теоремы линейной алгебры , что положительно определенная симметричная матрица S имеет единственный положительно определенный симметричный квадратный корень S 1/2 . Мы снова можем использовать «циклическое свойство» трассы для записи

Пусть B = S 1/2 С −1 С 1/2 . Тогда приведенное выше выражение принимает вид

Положительно определенную матрицу B можно диагонализировать, и тогда возникает проблема нахождения значения B , которое максимизирует

Поскольку след квадратной матрицы равен сумме собственных значений ( «след и собственные значения» ), уравнение сводится к задаче нахождения собственных значений λ 1 , ..., λ p, которые максимизируют

Это просто задача исчисления, и мы получаем λ i = n для всех i. Итак, предположим, что Q — матрица собственных векторов, тогда

т. е. в n раз больше единичной матрицы p × p .

Заключительные шаги

[ редактировать ]

Наконец мы получаем

т. е. p × p «выборочная ковариационная матрица»

- это оценка максимального правдоподобия «ковариационной матрицы совокупности» Σ. На этом этапе мы используем заглавную букву X, а не строчную букву x, потому что думаем о ней «как о средстве оценки, а не как о оценке», то есть как о чем-то случайном, распределение вероятностей которого мы могли бы получить, зная. случайная матрица S Можно показать, что имеет распределение Уишарта с n - 1 степенями свободы. [5] То есть:

Альтернативный вывод

[ редактировать ]

Альтернативный вывод оценки максимального правдоподобия может быть выполнен с помощью матричного исчисления формул (см. также дифференциал определителя и дифференциал обратной матрицы ). Он также подтверждает вышеупомянутый факт об оценке максимального правдоподобия среднего значения. Перепишите вероятность в форме журнала, используя трюк с трассировкой:

Дифференциал этого логарифмического правдоподобия равен

Он естественным образом разбивается на часть, связанную с оценкой среднего значения, и часть, связанную с оценкой дисперсии. Условие первого порядка для максимума, , выполняется, когда условия умножения и тождественно равны нулю. Предполагая (оценка максимального правдоподобия) невырожден, то условие первого порядка оценки среднего вектора есть

что приводит к оценке максимального правдоподобия

Это позволяет нам упростить

как определено выше. Тогда условия, включающие в можно объединить как

Первое условие заказа будет выполняться, когда член в квадратных скобках равен (матричному) нулю. Предварительно умножив последнее на и разделив на дает

что, конечно, совпадает с приведенным ранее каноническим выводом.

Дуайер [6] указывает, что разложение на два члена, такое как показано выше, «ненужно», и выводит оценку в два этапа. Обратите внимание, что может быть непросто показать, что такая производная оценка является уникальным глобальным максимизатором функции правдоподобия.

Оценка внутренней ковариационной матрицы

[ редактировать ]

Внутреннее ожидание

[ редактировать ]

Учитывая выборку из n независимых наблюдений x 1 ,..., x n -мерной p гауссовской случайной величины X с ковариацией R , максимального правдоподобия оценка R с нулевым средним значением определяется выражением

Параметр принадлежит множеству положительно определенных матриц , которое является римановым многообразием , а не векторным пространством , отсюда и обычные понятия ожидания векторного пространства , т.е. ", и смещение оценки должно быть обобщено на многообразия, чтобы понять проблему оценки ковариационной матрицы. Это можно сделать, определив математическое ожидание многозначной оценки относительно многозначной точки как

где

экспоненциальное отображение и обратное экспоненциальное отображение соответственно, «exp» и «log» обозначают обычную матричную экспоненту и матричный логарифм , а E[·] — обычный оператор ожидания, определенный в векторном пространстве, в данном случае пространстве касательном многообразие. [1]

Смещение выборочной ковариационной матрицы

[ редактировать ]

Внутреннее смещения векторное поле средства оценки SCM определяется как

Внутреннее смещение оценки тогда определяется выражением .

Для комплексных гауссовских случайных величин это векторное поле смещения можно показать [1] равняться

где

и ψ(·) — дигамма-функция . Внутреннее смещение выборочной ковариационной матрицы равно

и СКМ асимптотически несмещена при n → ∞.

Точно так же внутренняя неэффективность выборочной ковариационной матрицы зависит от римановой кривизны пространства положительно определенных матриц.

Оценка усадки

[ редактировать ]

Если размер выборки n мал, а количество рассматриваемых переменных p велико, приведенные выше эмпирические оценки ковариации и корреляции очень нестабильны. В частности, можно предоставить оценки, которые значительно улучшают оценку максимального правдоподобия с точки зрения среднеквадратической ошибки. Более того, при n < p (количество наблюдений меньше числа случайных величин) эмпирическая оценка ковариационной матрицы становится сингулярной , т.е. ее нельзя инвертировать для вычисления матрицы точности .

В качестве альтернативы было предложено множество методов улучшения оценки ковариационной матрицы. Все эти подходы основаны на концепции сокращения. Это неявно присутствует в байесовских методах и штрафных методах максимального правдоподобия , а также явно проявляется в подходе сокращения типа Штейна .

Простая версия оценки усадки ковариационной матрицы представлена ​​оценкой усадки Ледуа-Вольфа. [7] [8] [9] [10] Рассматривается выпуклая комбинация эмпирической оценки ( ) с некоторой подходящей выбранной целью ( ), например, диагональная матрица. В дальнейшем параметр смешивания ( ) выбирается для максимизации ожидаемой точности сокращенной оценки. Это можно сделать путем перекрестной проверки или с помощью аналитической оценки интенсивности сжатия. Полученная регуляризованная оценка ( Можно показать, что ) превосходит оценку максимального правдоподобия для небольших выборок. Для больших образцов интенсивность усадки уменьшится до нуля, следовательно, в этом случае оценка усадки будет идентична эмпирической оценке. Помимо повышения эффективности, оценка усадки имеет еще одно преимущество: она всегда положительно определена и хорошо обусловлена.

Были предложены различные цели сокращения:

  1. единичная матрица , масштабированная по средней выборочной дисперсии ;
  2. одноиндексная модель ;
  3. модель постоянной корреляции, в которой выборочные дисперсии сохраняются, но все коэффициенты парной корреляции предполагаются равными друг другу;
  4. двухпараметрическая матрица, где все дисперсии идентичны, а все ковариации идентичны друг другу (хотя и не идентичны дисперсиям);
  5. диагональная матрица, содержащая выборочные дисперсии на диагонали и нули везде;
  6. единичная матрица . [8]

Оценщик усадки можно обобщить до многоцелевого средства оценки усадки, которое использует несколько целей одновременно. [11] Программное обеспечение для расчета ковариационной оценки усадки доступно в R (пакеты corpcor [12] и ShrinkCovMat [13] ), в Python ( scikit-learn библиотека [1] ) и в MATLAB . [14]

См. также

[ редактировать ]
  1. ^ Jump up to: а б с Смит, Стивен Томас (май 2005 г.). «Ковариантность, подпространство и внутренние границы Крамера – Рао» . IEEE Транс. Сигнальный процесс . 53 (5): 1610–1630. дои : 10.1109/TSP.2005.845428 . S2CID   2751194 .
  2. ^ Надежная статистика , Питер Дж. Хубер , Уайли, 1981 (переиздано в мягкой обложке, 2004 г.)
  3. ^ «Современная прикладная статистика с S», Уильям Н. Венейблс , Брайан Д. Рипли , Спрингер, 2002, ISBN   0-387-95457-0 , ISBN   978-0-387-95457-8 , стр. 336
  4. ^ Девлин, Сьюзен Дж .; Гнанадэсикан, Р.; Кеттенринг, младший (1975). «Надежная оценка и обнаружение выбросов с помощью коэффициентов корреляции». Биометрика . 62 (3): 531–545. дои : 10.1093/biomet/62.3.531 .
  5. ^ К. В. Мардиа , Дж. Т. Кент и Дж. М. Бибби (1979) Многомерный анализ , Academic Press .
  6. ^ Дуайер, Пол С. (июнь 1967 г.). «Некоторые применения матричных производных в многомерном анализе». Журнал Американской статистической ассоциации . 62 (318): 607–625. дои : 10.2307/2283988 . JSTOR   2283988 .
  7. ^ О. Ледуа и М. Вольф (2004a) « Хорошо обусловленная оценка для крупномерных ковариационных матриц. Архивировано 5 декабря 2014 г. в Wayback Machine » Журнал многомерного анализа 88 (2): 365–411.
  8. ^ Jump up to: а б А. Тулумис (2015) « Непараметрические оценки ковариационной матрицы усадки типа Штейна в многомерных условиях » Вычислительная статистика и анализ данных 83 : 251–261.
  9. ^ О. Ледуа и М. Вольф (2003) « Улучшенная оценка ковариационной матрицы доходности акций с применением к выбору портфеля. Архивировано 5 декабря 2014 г. в Wayback Machine » Journal of Empirical Finance 10 (5): 603–621. .
  10. ^ О. Ледуа и М. Вольф (2004b) « Дорогая, я уменьшил выборочную ковариационную матрицу. Архивировано 5 декабря 2014 г. в Wayback Machine » Журнал управления портфелем 30 (4): 110–119.
  11. ^ Т. Ланцевицкий и М. Аладжем (2014) « Многоцелевая оценка усадки ковариационных матриц », Транзакции IEEE по обработке сигналов , Том: 62, Выпуск 24, страницы: 6380-6390.
  12. ^ corpcor: Эффективная оценка ковариации и (частичной) корреляции , CRAN, 16 сентября 2021 г. {{citation}}: CS1 maint: отсутствует местоположение издателя ( ссылка )
  13. ^ ShrinkCovMat: Оценщики ковариационной матрицы усадки , CRAN, 30 июля 2019 г. {{citation}}: CS1 maint: отсутствует местоположение издателя ( ссылка )
  14. ^ Код MATLAB для целей усадки: масштабированная идентичность , одноиндексная модель , модель постоянной корреляции , двухпараметрическая матрица и диагональная матрица .
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 60b9296f4756847572c7eb35062ed04c__1722622320
URL1:https://arc.ask3.ru/arc/aa/60/4c/60b9296f4756847572c7eb35062ed04c.html
Заголовок, (Title) документа по адресу, URL1:
Estimation of covariance matrices - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)