Автокорреляция

Вверху: график серии из 100 случайных чисел, скрывающих синусоидальную функцию. Внизу: синусоидальная функция, показанная на коррелограмме, полученной с помощью автокорреляции.
Визуальное сравнение свертки, взаимной корреляции и автокорреляции . Для операций с функцией f и при условии, что высота f равна 1,0, значение результата в 5 разных точках обозначается заштрихованной областью под каждой точкой. Кроме того, симметрия f является причиной и в этом примере идентичны.

Автокорреляция иногда известная как последовательная корреляция в случае дискретного времени , представляет собой корреляцию сигнала , с задержанной копией самого себя как функцию задержки. Неформально это сходство между наблюдениями случайной величины как функция временного лага между ними. Анализ автокорреляции — это математический инструмент для поиска повторяющихся закономерностей, таких как наличие периодического сигнала , скрытого шумом , или определение недостающей основной частоты в сигнале, подразумеваемой его гармоническими частотами. Он часто используется при обработке сигналов для анализа функций или серий значений, таких как сигналы во временной области .

В разных областях исследований автокорреляция определяется по-разному, и не все эти определения эквивалентны. В некоторых областях этот термин используется как синоним автоковариации .

Процессы с единичным корнем , стационарные по тренду процессы , авторегрессионные процессы и процессы скользящего среднего представляют собой особые формы процессов с автокорреляцией.

Автокорреляция случайных процессов [ править ]

В статистике автокорреляция реального или сложного случайного процесса — это корреляция Пирсона между значениями процесса в разное время в зависимости от двух моментов времени или временной задержки. Позволять быть случайным процессом и быть в любой момент времени ( может быть целым числом для процесса с дискретным временем или действительным числом для процесса с непрерывным временем ). Затем — это ценность (или реализация ), полученная в результате данного выполнения процесса в определенный момент времени. . Предположим, что процесс имеет среднее значение и дисперсия во время , для каждого . Тогда определение автокорреляционной функции между временами и является [1] : стр.388 [2] : стр.165

( Уравнение 1 )

где — это оператор ожидаемого значения , а столбец представляет собой комплексное сопряжение . Обратите внимание, что ожидание может быть неточно определено .

Вычитание среднего значения перед умножением дает функцию автоковариации между временами. и : [1] : стр.392 [2] : стр. 168

( Уравнение 2 )

Обратите внимание, что это выражение не является четко определенным для всех временных рядов или процессов, поскольку среднее значение может не существовать, или дисперсия может быть нулевой (для постоянного процесса) или бесконечной (для процессов с распределением, в котором отсутствуют моменты хорошего поведения, такие как определенные виды степенного закона ).

Определение стационарного случайного процесса смысле широком в

Если является стационарным процессом в широком смысле, то среднее значение и дисперсия не зависят от времени, и далее функция автоковариации зависит только от задержки между и : автоковариация зависит только от расстояния во времени между парой значений, но не от их положения во времени. Это также означает, что автоковариация и автокорреляция могут быть выражены как функция временной задержки, и что это будет четная функция задержки. . Это дает более знакомые формы автокорреляционной функции. [1] : стр.395

( Уравнение 3 )

и функция автоковариации :

( Уравнение 4 )

В частности, отметим, что

Нормализация [ править ]

) обычной практикой является В некоторых дисциплинах (например, в статистике и анализе временных рядов нормализация автоковариационной функции для получения зависящего от времени коэффициента корреляции Пирсона . Однако в других дисциплинах (например, инженерных) от нормализации обычно отказываются и термины «автокорреляция» и «автоковариация» используются как синонимы.

Определение коэффициента автокорреляции случайного процесса [2] : стр.169

Если функция четко определен, его значение должно лежать в диапазоне , где 1 указывает на идеальную корреляцию, а −1 указывает на идеальную антикорреляцию .

Для стационарного процесса в широком смысле (WSS) определение таково:

.

Нормализация важна как потому, что интерпретация автокорреляции как корреляции обеспечивает безмасштабную меру силы статистической зависимости , так и потому, что нормализация влияет на статистические свойства оцененных автокорреляций.

Свойства [ править ]

Свойство симметрии [ править ]

Тот факт, что автокорреляционная функция является четной функцией, можно записать как [2] : стр.171

соответственно для процесса WSS: [2] : стр.173

Максимум на нуле [ править ]

Для процесса WSS: [2] : стр.174

Обратите внимание, что всегда реален.

Шварца Неравенство Коши

Неравенство Коши –Шварца , неравенство для случайных процессов: [1] : стр.392

белого Автокорреляция шума

Автокорреляция непрерывного сигнала белого шума будет иметь сильный пик (представленный дельта-функцией Дирака ) при и будет именно для всех остальных .

Хинчина Теорема Винера

Теорема Винера – Хинчина связывает автокорреляционную функцию к спектральной плотности мощности через преобразование Фурье :

Для вещественных функций симметричная автокорреляционная функция имеет вещественное симметричное преобразование, поэтому теорему Винера – Хинчина можно перевыразить только через действительные косинусы:

Автокорреляция случайных векторов [ править ]

(потенциально зависящая от времени) Матрица автокорреляции (потенциально зависящего от времени). (также называемая вторым моментом) случайного вектора это матрица, содержащая в качестве элементов автокорреляции всех пар элементов случайного вектора . Матрица автокорреляции используется в различных алгоритмах цифровой обработки сигналов .

Для случайного вектора содержащая случайные элементы которых , ожидаемое значение и дисперсия существуют, матрица автокорреляции определяется формулой [3] : стр.190 [1] : стр.334

( Уравнение 5 )

где обозначает транспонированную матрицу размерностей .

Написано покомпонентно:

Если комплексный случайный вектор , матрица автокорреляции вместо этого определяется формулой

Здесь обозначает эрмитово транспонирование .

Например, если — случайный вектор, то это матрица, чья -я запись .

Свойства матрицы автокорреляции [ править ]

  • Матрица автокорреляции представляет собой эрмитову матрицу для комплексных случайных векторов и симметричную матрицу для вещественных случайных векторов. [3] : стр.190
  • Матрица автокорреляции представляет собой положительную полуопределенную матрицу , [3] : стр.190 т.е. для вещественного случайного вектора и соответственно в случае сложного случайного вектора.
  • Все собственные значения матрицы автокорреляции действительны и неотрицательны.
  • Матрица автоковариации связана с матрицей автокорреляции следующим образом:
    Соответственно для сложных случайных векторов:

Автокорреляция детерминированных сигналов

В обработке сигналов приведенное выше определение часто используется без нормализации, то есть без вычитания среднего значения и деления на дисперсию. Когда автокорреляционная функция нормируется по среднему значению и дисперсии, ее иногда называют коэффициентом автокорреляции. [4] или автоковариационная функция.

Автокорреляция непрерывного сигнала [ править ]

Учитывая сигнал , непрерывная автокорреляция чаще всего определяется как непрерывный взаимной корреляции интеграл сам с собой, с отставанием . [1] : стр.411

( Уравнение 6 )

где представляет собой сопряжение комплексное . Обратите внимание, что параметр в интеграле является фиктивной переменной и необходима только для вычисления интеграла. Оно не имеет конкретного значения.

Автокорреляция дискретного сигнала [ править ]

Дискретная автокорреляция с отставанием для сигнала дискретного времени является

( Уравнение 7 )

Приведенные выше определения применимы к сигналам, которые интегрируются с квадратом или суммируются с квадратом, то есть имеют конечную энергию. Вместо этого сигналы, которые «длятся вечно», рассматриваются как случайные процессы, и в этом случае необходимы другие определения, основанные на ожидаемых значениях. Для стационарных случайных процессов в широком смысле автокорреляции определяются как

Для процессов, которые не являются стационарными , это также будут функции , или .

Для процессов, которые также являются эргодическими , математическое ожидание можно заменить пределом среднего по времени. Автокорреляция эргодического процесса иногда определяется или приравнивается к [4]

Эти определения имеют то преимущество, что они дают разумные, четко определенные однопараметрические результаты для периодических функций, даже если эти функции не являются результатом стационарных эргодических процессов.

Альтернативно, сигналы, которые длятся вечно, можно обрабатывать с помощью кратковременного анализа автокорреляционной функции с использованием интегралов конечного времени. ( см. в разделе кратковременное преобразование Фурье Связанный процесс .)

Определение периодических сигналов [ править ]

Если является непрерывной периодической функцией периода , интегрирование из к заменяется интегрированием по любому интервалу длины :

что эквивалентно

Свойства [ править ]

Далее мы опишем свойства только одномерных автокорреляций, поскольку большинство свойств легко переносится из одномерного случая в многомерные случаи. Эти свойства справедливы для стационарных процессов в широком смысле . [5]

  • Фундаментальным свойством автокорреляции является симметрия. , что легко доказать из определения. В непрерывном случае
  • Непрерывная автокорреляционная функция достигает своего максимума в начале координат, где она принимает действительное значение, т.е. при любой задержке , . [1] : стр.410 Это является следствием неравенства перестановки . Тот же результат справедлив и в дискретном случае.
  • Автокорреляция периодической функции сама по себе является периодической с тем же периодом.
  • Автокорреляция суммы двух совершенно некоррелированных функций (взаимная корреляция равна нулю для всех ) — сумма автокорреляций каждой функции в отдельности.
  • Поскольку автокорреляция представляет собой особый тип взаимной корреляции , она сохраняет все свойства взаимной корреляции.
  • С помощью символа представлять свертку и это функция, которая манипулирует функцией и определяется как , определение для может быть записано как:

Многомерная автокорреляция [ править ]

Многомерная автокорреляция определяется аналогично. Например, в трех измерениях автокорреляция дискретного сигнала, суммируемого с квадратом, будет равна

Когда средние значения вычитаются из сигналов перед вычислением автокорреляционной функции, результирующую функцию обычно называют функцией автоковариации.

Эффективные вычисления [ править ]

Для данных, выраженных в виде дискретной последовательности, часто необходимо вычислить автокорреляцию с высокой вычислительной эффективностью . Метод грубой силы, основанный на определении обработки сигналов. может использоваться, когда размер сигнала небольшой. Например, для расчета автокорреляции реальной сигнальной последовательности (т.е. , и для всех остальных значений i ) вручную мы сначала осознаем, что только что данное определение такое же, как и «обычное» умножение, но со сдвигом вправо, где каждое вертикальное сложение дает автокорреляцию для конкретных значений задержки:

Таким образом, требуемая автокорреляционная последовательность имеет вид , где и автокорреляция для других значений задержки равна нулю. В этом вычислении мы не выполняем операцию переноса во время сложения, как это обычно происходит при обычном умножении. Обратите внимание, что мы можем вдвое сократить количество необходимых операций, используя присущую автокорреляции симметрию. Если сигнал оказывается периодическим, т.е. тогда мы получим круговую автокорреляцию (похожую на круговую свертку ), где левый и правый хвосты предыдущей последовательности автокорреляции будут перекрываться и давать который имеет тот же период, что и сигнальная последовательность Процедуру можно рассматривать как применение свойства свертки Z-преобразования дискретного сигнала.

Хотя алгоритм грубой силы имеет порядок n 2 существует несколько эффективных алгоритмов, которые могут вычислять автокорреляцию в порядке n log( n ) . Например, теорема Винера-Хинчина позволяет вычислить автокорреляцию на основе необработанных данных X ( t ) с помощью двух быстрых преобразований Фурье (БПФ): [6] [ нужна страница ]

где IFFT обозначает обратное быстрое преобразование Фурье . Звездочка обозначает комплексно-сопряженное число .

Альтернативно, множественная корреляция τ может быть выполнена с использованием грубого расчета для низких значений τ , а затем постепенного объединения данных X ( t ) с логарифмической плотностью для вычисления более высоких значений, что приводит к той же n log( n ) эффективности , но с меньшими требованиями к памяти. [7] [8]

Оценка [ править ]

Для дискретного процесса с известным средним значением и дисперсией, для которого мы наблюдаем наблюдения , оценку коэффициента автокорреляции можно получить как

для любого положительного целого числа . Когда истинное значение и дисперсия известны, эта оценка несмещена . Если истинное среднее значение и дисперсия процесса неизвестны, есть несколько возможностей:

  • Если и заменяются стандартными формулами для выборочного среднего и выборочной дисперсии, то это смещенная оценка .
  • Оценка на основе периодограммы заменяет в приведенной выше формуле с . Эта оценка всегда смещена; однако обычно он имеет меньшую среднеквадратическую ошибку . [9] [10]
  • Другие возможности возникают при обработке двух частей данных. и отдельно и расчет отдельных выборочных средних значений и/или выборочных дисперсий для использования при определении оценки. [ нужна ссылка ]

Преимущество оценок последнего типа состоит в том, что набор оцениваемых автокорреляций как функция , затем сформируйте функцию, которая является действительной автокорреляцией в том смысле, что можно определить теоретический процесс, имеющий именно эту автокорреляцию. Другие оценки могут страдать от проблемы, заключающейся в том, что, если они используются для расчета дисперсии линейной комбинации Таким образом, рассчитанная дисперсия может оказаться отрицательной. [11]

Регрессионный анализ [ править ]

При регрессионном анализе с использованием данных временных рядов автокорреляция интересующей переменной обычно моделируется либо с помощью модели авторегрессии (AR), модели скользящего среднего (MA), их комбинации в виде модели авторегрессии-скользящего среднего (ARMA) или модели скользящего среднего авторегрессии (ARMA). расширение последней называется авторегрессионной интегрированной моделью скользящего среднего (ARIMA). При работе с несколькими взаимосвязанными рядами данных векторная авторегрессия используется (VAR) или ее расширения.

В методе обычных наименьших квадратов (OLS) адекватность спецификации модели можно частично проверить, установив, существует ли автокорреляция остатков регрессии . Проблемную автокорреляцию ошибок, которые сами по себе не наблюдаются, обычно можно обнаружить, поскольку она приводит к автокорреляции наблюдаемых остатков. (Ошибки также известны как «члены ошибок» в эконометрике .) Автокорреляция ошибок нарушает обычное предположение метода наименьших квадратов о том, что члены ошибок некоррелированы, а это означает, что теорема Гаусса Маркова неприменима и что оценки OLS больше не являются лучшими. Линейные несмещенные оценки ( СИНИЙ ). Хотя это не искажает оценки коэффициентов МНК, стандартные ошибки имеют тенденцию недооцениваться (а t-показатели переоцениваются), когда автокорреляция ошибок при малых задержках положительна.

Традиционным тестом на наличие автокорреляции первого порядка является статистика Дурбина-Ватсона или, если объясняющие переменные включают запаздывающую зависимую переменную, h-статистика Дурбина . Однако корреляцию Дурбина-Ватсона можно линейно сопоставить с корреляцией Пирсона между значениями и их задержками. [12] Более гибкий тест, охватывающий автокорреляцию более высоких порядков и применимый независимо от того, включают ли регрессоры лаги зависимой переменной, является тест Бреуша-Годфри . Это включает в себя вспомогательную регрессию, в которой остатки, полученные в результате оценки интересующей модели, регрессируются по (а) исходным регрессорам и (б) k задержкам остатков, где «k» — порядок теста. Самая простая версия тестовой статистики из этой вспомогательной регрессии — TR. 2 , где T — размер выборки, а R 2 коэффициент детерминации . При нулевой гипотезе об отсутствии автокорреляции эта статистика асимптотически распределяется как с k степенями свободы.

Ответы на ненулевую автокорреляцию включают обобщенные методы наименьших квадратов и оценку HAC Ньюи-Уэста (согласованность гетероскедастичности и автокорреляции). [13]

При оценке модели скользящего среднего (MA) функция автокорреляции используется для определения соответствующего количества включенных членов с запаздыванием. Это основано на том факте, что для процесса MA порядка q мы имеем , для , и , для .

Приложения [ править ]

Способность автокорреляции находить повторяющиеся закономерности в данных находит множество применений, в том числе:

Серийная зависимость [ править ]

Серийная зависимость тесно связана с понятием автокорреляции, но представляет собой отдельную концепцию (см. Корреляция и зависимость ). В частности, возможна серийная зависимость, но не (линейная) корреляция. Однако в некоторых областях эти два термина используются как синонимы.

Временной ряд имеет случайной величины серийную зависимость, если значение в какой-то момент времени в ряду статистически зависит от значения в другой момент времени . Ряд серийно независим, если между какой-либо парой нет зависимости.

Если временной ряд стационарна , то статистическая зависимость между парой будет означать, что существует статистическая зависимость между всеми парами значений с одинаковым лагом .

См. также [ править ]

Ссылки [ править ]

  1. ^ Jump up to: а б с д и ж г Губнер, Джон А. (2006). Вероятность и случайные процессы для инженеров-электриков и вычислительных машин . Издательство Кембриджского университета. ISBN  978-0-521-86470-1 .
  2. ^ Jump up to: а б с д и ж Кун Иль Пак, «Основы теории вероятностей и случайных процессов с применением в коммуникациях», Springer, 2018 г., ISBN   978-3-319-68074-3
  3. ^ Jump up to: а б с Папулис, Афанасий, Вероятность, случайные величины и случайные процессы , McGraw-Hill, 1991.
  4. ^ Jump up to: а б Данн, Патрик Ф. (2005). Измерения и анализ данных для техники и науки . Нью-Йорк: МакГроу-Хилл. ISBN  978-0-07-282538-1 .
  5. ^ Проакис, Джон (31 августа 2001 г.). Инженерия систем связи (2-е издание) (2-е изд.). Пирсон. п. 168. ИСБН  978-0130617934 .
  6. ^ Коробка, ГЭП; Дженкинс, генеральный директор; Рейнзель, GC (1994). Анализ временных рядов: прогнозирование и контроль (3-е изд.). Река Аппер-Сэддл, Нью-Джерси: Прентис-Холл. ISBN  978-0130607744 .
  7. ^ Френкель, Д.; Смит, Б. (2002). «глава 4.4.2». Понимание молекулярного моделирования (2-е изд.). Лондон: Академическая пресса. ISBN  978-0122673511 .
  8. ^ Кольберг, П.; Хёфлинг, Ф. (2011). «Высокоускоренное моделирование стеклянной динамики с использованием графических процессоров: предостережения по поводу ограниченной точности вычислений с плавающей запятой». Вычислить. Физ. Коммун. 182 (5): 1120–1129. arXiv : 0912.3824 . Бибкод : 2011CoPhC.182.1120C . дои : 10.1016/j.cpc.2011.01.009 . S2CID   7173093 .
  9. ^ Пристли, МБ (1982). Спектральный анализ и временные ряды . Лондон, Нью-Йорк: Академическая пресса. ISBN  978-0125649018 .
  10. ^ Персиваль, Дональд Б.; Эндрю Т. Уолден (1993). Спектральный анализ для физических приложений: многомерные и традиционные одномерные методы . Издательство Кембриджского университета. стр. 190–195 . ISBN  978-0-521-43541-3 .
  11. ^ Персиваль, Дональд Б. (1993). «Три любопытных свойства выборочной дисперсии и автоковариации для стационарных процессов с неизвестным средним значением». Американский статистик . 47 (4): 274–276. дои : 10.1080/00031305.1993.10475997 .
  12. ^ «Методы серийной корреляции» . Статистические идеи . 26 мая 2014 г.
  13. ^ Баум, Кристофер Ф. (2006). Введение в современную эконометрику с использованием Stata . Стата Пресс. ISBN  978-1-59718-013-9 .
  14. ^ Элсон, Эллиот Л. (декабрь 2011 г.). «Флуоресцентная корреляционная спектроскопия: прошлое, настоящее, будущее» . Биофизический журнал . 101 (12): 2855–2870. Бибкод : 2011BpJ...101.2855E . дои : 10.1016/j.bpj.2011.11.012 . ПМК   3244056 . ПМИД   22208184 .
  15. ^ Холист, Роберт; Поневерский, Анджей; Чжан, Сюйчжу (2017). «Аналитическая форма автокорреляционной функции для корреляционной спектроскопии флуоресценции» . Мягкая материя . 13 (6): 1267–1275. Бибкод : 2017SMat...13.1267H . дои : 10.1039/C6SM02643E . ISSN   1744-683X . ПМИД   28106203 .
  16. ^ Ван Сикл, Январь (2008). GPS для землемеров (Третье изд.). ЦРК Пресс. стр. 18–19. ISBN  978-0-8493-9195-8 .
  17. ^ Калвани, Пайам Раджаби; Джахангири, Али Реза; Шапури, Самане; Сари, Амирхоссейн; Джалили, Юсеф Сейед (август 2019 г.). «Многомодовый АСМ-анализ тонких пленок оксида цинка, легированного алюминием, напыленных при различных температурах подложки, для оптоэлектронных приложений». Сверхрешетки и микроструктуры . 132 : 106173. doi : 10.1016/j.spmi.2019.106173 . S2CID   198468676 .
  18. ^ Тирангиэль, Джош (5 февраля 2009 г.). «Автонастройка: почему поп-музыка звучит идеально» . Время . Архивировано из оригинала 10 февраля 2009 года.
  19. ^ Кастенный, Богдан (март 2016 г.). «Новый метод быстрого измерения частоты для приложений защиты» (PDF) . Инженерные лаборатории Швейцера. Архивировано (PDF) из оригинала 9 октября 2022 г. Проверено 28 мая 2022 г.

Дальнейшее чтение [ править ]