Оценка ковариационных матриц
В статистике иногда ковариационная матрица многомерной случайной величины неизвестна, но ее необходимо оценить . Оценка ковариационных матриц затем связана с вопросом о том, как аппроксимировать фактическую ковариационную матрицу на основе выборки из многомерного распределения . Простые случаи, когда наблюдения являются полными, можно решить с помощью выборочной ковариационной матрицы . Выборочная ковариационная матрица (SCM) является несмещенной и эффективной оценкой ковариационной матрицы, если пространство ковариационных матриц рассматривается как внешний выпуклый конус в R p × p ; однако, измеренный с использованием внутренней геометрии , положительно определенных матриц SCM является смещенным и неэффективным средством оценки. [1] Кроме того, если случайная величина имеет нормальное распределение , выборочная ковариационная матрица имеет распределение Уишарта , и ее версия в немного другом масштабе представляет собой оценку максимального правдоподобия . Случаи, связанные с отсутствующими данными , гетероскедастичностью или автокоррелированными остатками, требуют более глубокого рассмотрения. Другой проблемой является устойчивость к выбросам , к которым очень чувствительны выборочные ковариационные матрицы. [2] [3] [4]
Статистический анализ многомерных данных часто включает в себя исследовательские исследования того, как переменные изменяются по отношению друг к другу, и за этим могут следовать явные статистические модели, включающие ковариационную матрицу переменных. Таким образом, оценка ковариационных матриц непосредственно по данным наблюдений играет две роли:
- предоставить первоначальные оценки, которые можно использовать для изучения взаимосвязей;
- предоставить выборочные оценки, которые можно использовать для проверки модели.
Оценки ковариационных матриц необходимы на начальных этапах анализа главных компонентов и факторного анализа , а также используются в версиях регрессионного анализа , которые рассматривают зависимые переменные в наборе данных вместе с независимой переменной как результат случайной выборки. .
Оценка в общем контексте
[ редактировать ]Дана выборка, из n независимых наблюдений x 1 ,..., x n p -мерного состоящая случайного вектора X ∈ R p ×1 ( вектор-столбец p × 1), несмещенная оценка ( p × p ) ковариационной матрицы
это выборочная ковариационная матрица
где является i -м наблюдением p -мерного случайного вектора, а вектор
– это выборочное среднее .Это верно независимо от распределения случайной величины X , при условии, конечно, что существуют теоретические средние значения и ковариации. Причина появления фактора n - 1, а не n , по существу, та же, что и причина появления того же фактора в несмещенных оценках выборочных дисперсий и выборочных ковариаций , что связано с тем фактом, что среднее значение неизвестно и заменяется выборочным. среднее значение (см. поправку Бесселя ).
В тех случаях, когда известно, что распределение случайной величины X находится в пределах определенного семейства распределений, на основе этого предположения можно получить другие оценки. Хорошо известен случай, когда случайная величина X имеет нормальное распределение : в этом случае максимального правдоподобия оценка ковариационной матрицы немного отличается от несмещенной оценки и определяется выражением
Вывод этого результата приведен ниже. Очевидно, что разница между несмещенной оценкой и оценкой максимального правдоподобия уменьшается при больших n .
В общем случае несмещенная оценка ковариационной матрицы обеспечивает приемлемую оценку, когда все векторы данных в наблюдаемом наборе данных полны: то есть они не содержат пропущенных элементов . Один из подходов к оценке ковариационной матрицы состоит в том, чтобы рассматривать оценку каждой дисперсии или парной ковариации отдельно и использовать все наблюдения, для которых обе переменные имеют действительные значения. Если предположить, что недостающие данные отсутствуют случайно, это приводит к оценке ковариационной матрицы, которая является несмещенной. Однако для многих приложений эта оценка может быть неприемлемой, поскольку оцененная ковариационная матрица не обязательно будет положительно полуопределенной. Это может привести к тому, что оцененные корреляции будут иметь абсолютные значения больше единицы и/или к необратимой ковариационной матрице.
При оценке перекрестной ковариации пары сигналов, которые являются стационарными в широком смысле , отсутствующие выборки не обязательно должны быть случайными (например, допустима субвыборка с произвольным коэффициентом). [ нужна ссылка ]
Оценка максимального правдоподобия для многомерного нормального распределения
[ редактировать ]Случайный вектор X ∈ R п ( вектор-столбец p × 1) имеет многомерное нормальное распределение с невырожденной ковариационной матрицей Σ точно, если Σ ∈ R п × р является положительно определенной матрицей а функция плотности вероятности X , равна
где µ ∈ R p ×1 — значение X. ожидаемое Ковариационная матрица Σ является многомерным аналогом того, что в одном измерении было бы дисперсией , и
нормализует плотность так что оно интегрируется в 1.
Предположим теперь, что X 1 , ..., X n являются независимыми и одинаково распределенными выборками из распределения, приведенного выше. На основе наблюдаемых значений x 1 , ..., x n этого образца мы хотим оценить Σ.
Первые шаги
[ редактировать ]Функция правдоподобия:
Довольно легко показать, что оценка максимального правдоподобия среднего вектора μ является вектором « выборочного среднего »:
см. в разделе об оценке статьи о нормальном распределении Подробности ; здесь процесс аналогичен.
Поскольку оценка не зависит от Σ, мы можем просто подставить его вместо µ в функцию правдоподобия , получив
а затем найдите значение Σ, которое максимизирует вероятность данных (на практике проще работать с журналом ).
След матрицы 1 × 1
[ редактировать ]Теперь мы подходим к первому удивительному шагу: рассмотрим скаляр как след матрицы 1×1. Это позволяет использовать тождество tr( AB ) = tr( BA ) всякий раз, когда матрицы A и B имеют такую форму, что оба произведения существуют. Мы получаем
где
иногда называется матрицей рассеяния и является положительно определенной, если существует подмножество данных, состоящее из аффинно независимые наблюдения (что мы и будем предполагать).
Используя спектральную теорему
[ редактировать ]следует Из спектральной теоремы линейной алгебры , что положительно определенная симметричная матрица S имеет единственный положительно определенный симметричный квадратный корень S 1/2 . Мы снова можем использовать «циклическое свойство» трассы для записи
Пусть B = S 1/2 С −1 С 1/2 . Тогда приведенное выше выражение принимает вид
Положительно определенную матрицу B можно диагонализировать, и тогда возникает проблема нахождения значения B , которое максимизирует
Поскольку след квадратной матрицы равен сумме собственных значений ( «след и собственные значения» ), уравнение сводится к задаче нахождения собственных значений λ 1 , ..., λ p, которые максимизируют
Это просто задача исчисления, и мы получаем λ i = n для всех i. Итак, предположим, что Q — матрица собственных векторов, тогда
т. е. в n раз больше единичной матрицы p × p .
Заключительные шаги
[ редактировать ]Наконец мы получаем
т. е. p × p «выборочная ковариационная матрица»
- это оценка максимального правдоподобия «ковариационной матрицы совокупности» Σ. На этом этапе мы используем заглавную букву X, а не строчную букву x, потому что думаем о ней «как о средстве оценки, а не как о оценке», то есть как о чем-то случайном, распределение вероятностей которого мы могли бы получить, зная. случайная матрица S Можно показать, что имеет распределение Уишарта с n - 1 степенями свободы. [5] То есть:
Альтернативный вывод
[ редактировать ]Альтернативный вывод оценки максимального правдоподобия может быть выполнен с помощью матричного исчисления формул (см. также дифференциал определителя и дифференциал обратной матрицы ). Он также подтверждает вышеупомянутый факт об оценке максимального правдоподобия среднего значения. Перепишите вероятность в форме журнала, используя трюк с трассировкой:
Дифференциал этого логарифмического правдоподобия равен
Он естественным образом разбивается на часть, связанную с оценкой среднего значения, и часть, связанную с оценкой дисперсии. Условие первого порядка для максимума, , выполняется, когда условия умножения и тождественно равны нулю. Предполагая (оценка максимального правдоподобия) невырожден, то условие первого порядка оценки среднего вектора есть
что приводит к оценке максимального правдоподобия
Это позволяет нам упростить
как определено выше. Тогда условия, включающие в можно объединить как
Первое условие заказа будет выполняться, когда член в квадратных скобках равен (матричному) нулю. Предварительно умножив последнее на и разделив на дает
что, конечно, совпадает с приведенным ранее каноническим выводом.
Дуайер [6] указывает, что разложение на два члена, такое как показано выше, «ненужно», и выводит оценку в два этапа. Обратите внимание, что может быть непросто показать, что такая производная оценка является уникальным глобальным максимизатором функции правдоподобия.
Оценка внутренней ковариационной матрицы
[ редактировать ]Внутреннее ожидание
[ редактировать ]Учитывая выборку из n независимых наблюдений x 1 ,..., x n -мерной p гауссовской случайной величины X с ковариацией R , максимального правдоподобия оценка R с нулевым средним значением определяется выражением
Параметр принадлежит множеству положительно определенных матриц , которое является римановым многообразием , а не векторным пространством , отсюда и обычные понятия ожидания векторного пространства , т.е. ", и смещение оценки должно быть обобщено на многообразия, чтобы понять проблему оценки ковариационной матрицы. Это можно сделать, определив математическое ожидание многозначной оценки относительно многозначной точки как
где
— экспоненциальное отображение и обратное экспоненциальное отображение соответственно, «exp» и «log» обозначают обычную матричную экспоненту и матричный логарифм , а E[·] — обычный оператор ожидания, определенный в векторном пространстве, в данном случае пространстве касательном многообразие. [1]
Смещение выборочной ковариационной матрицы
[ редактировать ]Внутреннее смещения векторное поле средства оценки SCM определяется как
Внутреннее смещение оценки тогда определяется выражением .
Для комплексных гауссовских случайных величин это векторное поле смещения можно показать [1] равняться
где
и ψ(·) — дигамма-функция . Внутреннее смещение выборочной ковариационной матрицы равно
и СКМ асимптотически несмещена при n → ∞.
Точно так же внутренняя неэффективность выборочной ковариационной матрицы зависит от римановой кривизны пространства положительно определенных матриц.
Оценка усадки
[ редактировать ]Если размер выборки n мал, а количество рассматриваемых переменных p велико, приведенные выше эмпирические оценки ковариации и корреляции очень нестабильны. В частности, можно предоставить оценки, которые значительно улучшают оценку максимального правдоподобия с точки зрения среднеквадратической ошибки. Более того, при n < p (количество наблюдений меньше числа случайных величин) эмпирическая оценка ковариационной матрицы становится сингулярной , т.е. ее нельзя инвертировать для вычисления матрицы точности .
В качестве альтернативы было предложено множество методов улучшения оценки ковариационной матрицы. Все эти подходы основаны на концепции сокращения. Это неявно присутствует в байесовских методах и штрафных методах максимального правдоподобия , а также явно проявляется в подходе сокращения типа Штейна .
Простая версия оценки усадки ковариационной матрицы представлена оценкой усадки Ледуа-Вольфа. [7] [8] [9] [10] Рассматривается выпуклая комбинация эмпирической оценки ( ) с некоторой подходящей выбранной целью ( ), например, диагональная матрица. В дальнейшем параметр смешивания ( ) выбирается для максимизации ожидаемой точности сокращенной оценки. Это можно сделать путем перекрестной проверки или с помощью аналитической оценки интенсивности сжатия. Полученная регуляризованная оценка ( Можно показать, что ) превосходит оценку максимального правдоподобия для небольших выборок. Для больших образцов интенсивность усадки уменьшится до нуля, следовательно, в этом случае оценка усадки будет идентична эмпирической оценке. Помимо повышения эффективности, оценка усадки имеет еще одно преимущество: она всегда положительно определена и хорошо обусловлена.
Были предложены различные цели сокращения:
- единичная матрица , масштабированная по средней выборочной дисперсии ;
- одноиндексная модель ;
- модель постоянной корреляции, в которой выборочные дисперсии сохраняются, но все коэффициенты парной корреляции предполагаются равными друг другу;
- двухпараметрическая матрица, где все дисперсии идентичны, а все ковариации идентичны друг другу (хотя и не идентичны дисперсиям);
- диагональная матрица, содержащая выборочные дисперсии на диагонали и нули везде;
- единичная матрица . [8]
Оценщик усадки можно обобщить до многоцелевого средства оценки усадки, которое использует несколько целей одновременно. [11] Программное обеспечение для расчета ковариационной оценки усадки доступно в R (пакеты corpcor [12] и ShrinkCovMat [13] ), в Python ( scikit-learn библиотека [1] ) и в MATLAB . [14]
См. также
[ редактировать ]Ссылки
[ редактировать ]- ^ Jump up to: а б с Смит, Стивен Томас (май 2005 г.). «Ковариантность, подпространство и внутренние границы Крамера – Рао» . IEEE Транс. Сигнальный процесс . 53 (5): 1610–1630. дои : 10.1109/TSP.2005.845428 . S2CID 2751194 .
- ^ Надежная статистика , Питер Дж. Хубер , Уайли, 1981 (переиздано в мягкой обложке, 2004 г.)
- ^ «Современная прикладная статистика с S», Уильям Н. Венейблс , Брайан Д. Рипли , Спрингер, 2002, ISBN 0-387-95457-0 , ISBN 978-0-387-95457-8 , стр. 336
- ^ Девлин, Сьюзен Дж .; Гнанадэсикан, Р.; Кеттенринг, младший (1975). «Надежная оценка и обнаружение выбросов с помощью коэффициентов корреляции». Биометрика . 62 (3): 531–545. дои : 10.1093/biomet/62.3.531 .
- ^ К. В. Мардиа , Дж. Т. Кент и Дж. М. Бибби (1979) Многомерный анализ , Academic Press .
- ^ Дуайер, Пол С. (июнь 1967 г.). «Некоторые применения матричных производных в многомерном анализе». Журнал Американской статистической ассоциации . 62 (318): 607–625. дои : 10.2307/2283988 . JSTOR 2283988 .
- ^ О. Ледуа и М. Вольф (2004a) « Хорошо обусловленная оценка для крупномерных ковариационных матриц. Архивировано 5 декабря 2014 г. в Wayback Machine » Журнал многомерного анализа 88 (2): 365–411.
- ^ Jump up to: а б А. Тулумис (2015) « Непараметрические оценки ковариационной матрицы усадки типа Штейна в многомерных условиях » Вычислительная статистика и анализ данных 83 : 251–261.
- ^ О. Ледуа и М. Вольф (2003) « Улучшенная оценка ковариационной матрицы доходности акций с применением к выбору портфеля. Архивировано 5 декабря 2014 г. в Wayback Machine » Journal of Empirical Finance 10 (5): 603–621. .
- ^ О. Ледуа и М. Вольф (2004b) « Дорогая, я уменьшил выборочную ковариационную матрицу. Архивировано 5 декабря 2014 г. в Wayback Machine » Журнал управления портфелем 30 (4): 110–119.
- ^ Т. Ланцевицкий и М. Аладжем (2014) « Многоцелевая оценка усадки ковариационных матриц », Транзакции IEEE по обработке сигналов , Том: 62, Выпуск 24, страницы: 6380-6390.
- ^ corpcor: Эффективная оценка ковариации и (частичной) корреляции , CRAN, 16 сентября 2021 г.
{{citation}}
: CS1 maint: отсутствует местоположение издателя ( ссылка ) - ^ ShrinkCovMat: Оценщики ковариационной матрицы усадки , CRAN, 30 июля 2019 г.
{{citation}}
: CS1 maint: отсутствует местоположение издателя ( ссылка ) - ^ Код MATLAB для целей усадки: масштабированная идентичность , одноиндексная модель , модель постоянной корреляции , двухпараметрическая матрица и диагональная матрица .