Линейное предсказание
Линейное предсказание — это математическая операция, при которой будущие значения сигнала времени дискретного оцениваются как линейная функция предыдущих выборок.
В цифровой обработке сигналов линейное предсказание часто называют кодированием с линейным предсказанием (LPC) и, таким образом, можно рассматривать как подмножество теории фильтров . В системном анализе , подобласти математики , линейное предсказание можно рассматривать как часть математического моделирования или оптимизации .
Модель прогнозирования
[ редактировать ]Наиболее распространенным представлением является
где прогнозируемое значение сигнала, предыдущие наблюдаемые значения, при этом , и коэффициенты предиктора. Ошибка, вызванная этой оценкой, равна
где — истинное значение сигнала.
Эти уравнения действительны для всех типов (одномерного) линейного прогнозирования. Различия заключаются в том, как коэффициенты предикторов выбраны.
Для многомерных сигналов метрика ошибки часто определяется как
где — подходящая выбранная векторная норма . Такие прогнозы, как обычно используются в фильтрах Калмана и сглаживателях для оценки текущих и прошлых значений сигнала соответственно на основе зашумленных измерений. [1]
Оценка параметров
[ редактировать ]Самый распространенный выбор при оптимизации параметров – среднеквадратический критерий, который также называют критерием автокорреляции . В этом методе мы минимизируем ожидаемое значение квадрата ошибки. , что дает уравнение
для 1 ≤ j ≤ p , где R — автокорреляция сигнала x n , определяемая как
- ,
и E — ожидаемое значение . В многомерном случае это соответствует L2 нормы минимизации .
Приведенные выше уравнения называются нормальными уравнениями или уравнениями Юла-Уокера . В матричной форме уравнения можно эквивалентно записать как
где матрица автокорреляции является симметричным, Матрица Теплица с элементами , вектор вектор автокорреляции , и , вектор параметров.
Другой, более общий подход заключается в минимизации суммы квадратов ошибок, определенных в виде
где проблема оптимизации поиска по всем теперь необходимо ограничить .
С другой стороны, если среднеквадратическая ошибка прогнозирования ограничена единицей и уравнение ошибки прогнозирования включено поверх обычных уравнений, расширенный набор уравнений получается как
где индекс колеблется от 0 до , и это матрица.
Спецификация параметров линейного предиктора — обширная тема, и было предложено большое количество других подходов. Фактически, метод автокорреляции является наиболее распространенным. [2] и он используется, например, для кодирования речи в стандарте GSM .
Решение матричного уравнения является относительно дорогостоящим процессом в вычислительном отношении. Исключение Гаусса для обращения матрицы, вероятно, является самым старым решением, но этот подход не эффективно использует симметрию . Более быстрый алгоритм — это рекурсия Левинсона, предложенная Норманом Левинсоном в 1947 году, которая рекурсивно вычисляет решение. [ нужна ссылка ] В частности, приведенные выше уравнения автокорреляции могут быть более эффективно решены с помощью алгоритма Дурбина. [3]
В 1986 году Филипп Дельсарт и Ю.В. Генен предложили улучшение этого алгоритма, названное расщепленной рекурсией Левинсона, которое требует примерно вдвое меньшего количества умножений и делений. [4] Он использует специальное свойство симметричности векторов параметров на последующих уровнях рекурсии. То есть расчеты оптимального предиктора, содержащего термины используют аналогичные вычисления для оптимального предиктора, содержащего условия.
Другой способ идентификации параметров модели — итеративное вычисление оценок состояния с использованием фильтров Калмана и получение максимального правдоподобия оценок в рамках алгоритмов максимизации ожидания .
Для равноотстоящих друг от друга значений полиномиальная интерполяция представляет собой линейную комбинацию известных значений. Если оценивается, что сигнал дискретного времени подчиняется полиному степени тогда коэффициенты предиктора задаются соответствующей строкой треугольника коэффициентов биномиального преобразования. Эта оценка может быть подходящей для медленно меняющегося сигнала с низким уровнем шума. Прогнозы для первых нескольких значений являются
См. также
[ редактировать ]- Авторегрессионная модель
- Линейный прогнозный анализ
- Минимальная среднеквадратическая ошибка
- Интервал прогнозирования
- Раста-фильтрация
Ссылки
[ редактировать ]- ^ «Фильтр Калмана — обзор | Темы ScienceDirect» . www.sciencedirect.com . Проверено 24 июня 2022 г.
- ^ «Линейное предсказание — обзор | Темы ScienceDirect» . www.sciencedirect.com . Проверено 24 июня 2022 г.
- ^ Рамирес, Массачусетс (2008). «Алгоритм Левинсона, основанный на изометрическом преобразовании Дурбина» (PDF) . Письма об обработке сигналов IEEE . 15 : 99–102. дои : 10.1109/ЛСП.2007.910319 . S2CID 18906207 .
- ^ Дельсарт, П. и Генин, Ю.В. (1986), Алгоритм разделения Левинсона , Транзакции IEEE по акустике, речи и обработке сигналов , v. ASSP-34 (3), стр. 470–478
![]() | Эта статья включает список общих ссылок , но в ней отсутствуют достаточные соответствующие встроенные цитаты . ( Ноябрь 2010 г. ) |
Дальнейшее чтение
[ редактировать ]- Хейс, Миннесота (1996). Статистическая цифровая обработка сигналов и моделирование . Нью-Йорк: Дж. Уайли и сыновья. ISBN 978-0471594314 .
- Левинсон, Н. (1947). «Критерий ошибки Винера RMS (среднеквадратичное значение) при проектировании и прогнозировании фильтров». Журнал математики и физики . 25 (4): 261–278. дои : 10.1002/sapm1946251261 .
- Махул, Дж. (1975). «Линейное предсказание: обзор учебного пособия». Труды IEEE . 63 (5): 561–580. дои : 10.1109/PROC.1975.9792 .
- Юле, ГУ (1927). «О методе исследования периодичности в возмущенных рядах с особым упором на числа солнечных пятен Вольфера» . Фил. Пер. Рой. Соц. А. 226 (636–646): 267–298. дои : 10.1098/rsta.1927.0007 . JSTOR 91170 .