Jump to content

Рекурсивный фильтр наименьших квадратов

Рекурсивный метод наименьших квадратов ( RLS ) — это алгоритм адаптивного фильтра , который рекурсивно находит коэффициенты, которые минимизируют наименьших квадратов, взвешенную линейную функцию стоимости относящуюся к входным сигналам. Этот подход отличается от других алгоритмов, таких как алгоритм наименьших средних квадратов (LMS), целью которых является уменьшение среднеквадратической ошибки . При выводе RLS входные сигналы считаются детерминированными , тогда как для LMS и подобных алгоритмов они считаются стохастическими . По сравнению с большинством своих конкурентов, RLS демонстрирует чрезвычайно быструю сходимость. Однако это преимущество достигается за счет высокой вычислительной сложности.

Мотивация

[ редактировать ]

RLS был открыт Гауссом, но оставался неиспользованным или игнорировался до 1950 года, когда Плакетт заново открыл оригинальную работу Гаусса 1821 года. В общем, RLS можно использовать для решения любой проблемы, которую можно решить с помощью адаптивных фильтров . Например, предположим, что сигнал передается по эхо- шумному каналу , из-за чего он принимается как

где представляет собой аддитивный шум . Целью фильтра RLS является восстановление полезного сигнала. с помощью -нажмите ДЛЯ фильтра, :

где вектор -столбец, содержащий самые последние образцы . Оценка восстановленного полезного сигнала равна

Цель – оценить параметры фильтра. , и в каждый момент времени мы называем текущую оценку как и адаптированная оценка методом наименьших квадратов . также является вектор-столбцом, как показано ниже, и транспонирование , , является вектором-строкой . Матричный продукт (который является произведением скалярным и ) является , скаляр. Оценка «хорошая», если мала по величине в некотором смысле наименьших квадратов .

С течением времени желательно избегать полного повторения алгоритма наименьших квадратов для нахождения новой оценки для , с точки зрения .

Преимущество алгоритма RLS заключается в том, что нет необходимости инвертировать матрицы, что позволяет сэкономить вычислительные затраты. Еще одним преимуществом является то, что он обеспечивает интуитивное понимание таких результатов, как фильтр Калмана .

Обсуждение

[ редактировать ]

Идея фильтров RLS заключается в минимизации функции стоимости. путем соответствующего выбора коэффициентов фильтра , обновляя фильтр по мере поступления новых данных. Сигнал ошибки и желаемый сигнал определены на диаграмме отрицательной обратной связи ниже:

Ошибка неявно зависит от коэффициентов фильтра через оценку :

Взвешенная функция ошибок по методу наименьших квадратов — функция затрат, которую мы хотим минимизировать, — являющаяся функцией поэтому также зависит от коэффициентов фильтра:

где это «фактор забывания», который придает экспоненциально меньший вес более старым выборкам ошибок.

Функция стоимости минимизируется путем принятия частных производных для всех записей. вектора коэффициентов и обнуляем результаты

Далее замените с определением сигнала ошибки

Перестановка уравнения дает

Эту форму можно выразить через матрицы

где — взвешенная выборочная ковариационная матрица для , и является эквивалентной оценкой перекрестной ковариации между и . На основе этого выражения находим коэффициенты, минимизирующие функцию стоимости:

Это главный результат дискуссии.

Чем меньше то есть тем меньше вклад предыдущих выборок в ковариационную матрицу. Это делает фильтр более чувствительным к последним выборкам, что означает большие колебания коэффициентов фильтра. Этот случай называется алгоритмом RLS растущего окна . На практике, обычно выбирается между 0,98 и 1. [1] Используя оценку максимального правдоподобия типа II, можно найти оптимальное можно оценить по набору данных. [2]

Рекурсивный алгоритм

[ редактировать ]

В результате обсуждения было получено единственное уравнение для определения вектора коэффициентов, который минимизирует функцию стоимости. В этом разделе мы хотим получить рекурсивное решение вида

где является поправочным коэффициентом во времени . Начнем вывод рекурсивного алгоритма с выражения перекрестной ковариации с точки зрения

где это вектор размерных данных

Аналогично выражаем с точки зрения к

Чтобы сгенерировать вектор коэффициентов, нас интересует обратная детерминированная автоковариационная матрица. Для этой задачи матричное тождество Вудбери пригодится . С

является -к-
является -by-1 (вектор-столбец)
1 на- (вектор-строка)
1 на 1 является единичной матрицей

Матричное тождество Вудбери следует

Чтобы соответствовать стандартной литературе, мы определяем

где вектор усиления является

Прежде чем двигаться дальше, необходимо привести в другую форму

Вычитание второго члена в левой части дает

При рекурсивном определении желаемая форма следует

Теперь мы готовы завершить рекурсию. Как обсуждалось

Второй шаг следует из рекурсивного определения . Далее мы включаем рекурсивное определение вместе с альтернативной формой и получить

С мы приходим к уравнению обновления

где это априорная ошибка. Сравните это с апостериорной ошибкой; ошибка, рассчитанная после обновления фильтра:

Это значит, что мы нашли поправочный коэффициент

Этот интуитивно удовлетворительный результат указывает на то, что поправочный коэффициент прямо пропорционален как ошибке, так и вектору усиления, который контролирует желаемую чувствительность посредством весового коэффициента: .

Краткое описание алгоритма RLS

[ редактировать ]

Алгоритм RLS для фильтра RLS p -го порядка можно резюмировать как

Параметры: порядок фильтра
фактор забывания
значение для инициализации
Инициализация: ,
,
где единичная матрица ранга
Расчет: Для

.

Рекурсия для следует алгебраическому уравнению Риккати и, таким образом, проводит параллели с фильтром Калмана . [3]

Решетчатый рекурсивный фильтр наименьших квадратов (LRLS)

[ редактировать ]

решеточно -рекурсивного метода наименьших квадратов Адаптивный фильтр связан со стандартным RLS, за исключением того, что он требует меньшего количества арифметических операций (порядок N ). [4] Он предлагает дополнительные преимущества по сравнению с традиционными алгоритмами LMS, такие как более высокая скорость сходимости, модульная структура и нечувствительность к изменениям разброса собственных значений входной корреляционной матрицы. Описанный алгоритм LRLS основан на апостериорных ошибках и включает нормализованную форму. Вывод аналогичен стандартному алгоритму RLS и основан на определении . В случае прямого прогнозирования мы имеем с входным сигналом как самый современный образец. Случай обратного прогнозирования , где i — индекс выборки в прошлом, который мы хотим предсказать, а входной сигнал это самый последний образец. [5]

Сводка параметров

[ редактировать ]
коэффициент прямого отражения
коэффициент обратного отражения
представляет собой мгновенную ошибку апостериорного прямого прогнозирования
представляет мгновенную ошибку апостериорного обратного прогнозирования
- минимальная ошибка обратного прогнозирования по методу наименьших квадратов
- минимальная ошибка прямого прогнозирования методом наименьших квадратов
- это коэффициент преобразования между априорными и апостериорными ошибками.
– коэффициенты множителя прямой связи.
— небольшая положительная константа, которая может составлять 0,01

Краткое описание алгоритма LRLS

[ редактировать ]

Алгоритм фильтра LRLS можно резюмировать следующим образом:

Инициализация:
Для
  (если для )
 
 
 
Конец
Расчет:
Для
 
 
 
 
 Для
 
 
 
 
 
 
 
 
 Упреждающая фильтрация
 
 
 
 Конец
Конец

Нормализованный решеточный рекурсивный фильтр наименьших квадратов (NLRLS)

[ редактировать ]

Нормализованная форма LRLS имеет меньше рекурсий и переменных. Его можно вычислить, применив нормализацию к внутренним переменным алгоритма, при которой их величина будет ограничена единицей. Обычно это не используется в приложениях реального времени из-за большого количества операций деления и извлечения квадратного корня, которые требуют высокой вычислительной нагрузки.

Краткое описание алгоритма NLRLS

[ редактировать ]

Алгоритм фильтра NLRLS можно резюмировать следующим образом:

Инициализация:
Для
  (если для )
 
 
Конец
 
Расчет:
Для
  (Энергия входного сигнала)
  (Энергия опорного сигнала)
 
 
 Для
 
 
 
 Фильтр прямой связи
 
 
 Конец
Конец

См. также

[ редактировать ]
  • Хейс, Монсон Х. (1996). «9.4: Рекурсивный метод наименьших квадратов». Статистическая цифровая обработка сигналов и моделирование . Уайли. п. 541. ИСБН  0-471-59431-8 .
  • Саймон Хайкин, Теория адаптивных фильтров , Прентис Холл, 2002 г., ISBN   0-13-048434-2
  • МХА Дэвис, Р.Б. Винтер, Стохастическое моделирование и управление , Springer, 1985, ISBN   0-412-16200-8
  • Вейфэн Лю, Хосе Принсипи и Саймон Хайкин, Адаптивная фильтрация ядра: всестороннее введение , Джон Уайли, 2010 г., ISBN   0-470-44753-2
  • Р.Л.Плэкетт, Некоторые теоремы по наименьшим квадратам , Биометрика, 1950, 37, 149–157, ISSN   0006-3444
  • К. Г. Гаусс, Теория сочетания наблюдений, допускающего наименьшие ошибки , 1821, Верке, 4. Геттинге

Примечания

[ редактировать ]
  1. ^ Эманнуаль К. Ифеакор, Барри В. Джервис. Цифровая обработка сигналов: практический подход, второе издание. Индианаполис: Pearson Education Limited, 2002, с. 718
  2. ^ Стивен Ван Веренберг, Игнасио Сантамария, Мигель Лазаро-Гредилья «Оценка фактора забывания в ядерно-рекурсивном методе наименьших квадратов» , Международный семинар IEEE 2012 г. по машинному обучению для обработки сигналов, 2012 г., по состоянию на 23 июня 2016 г.
  3. Уэлч, Грег и Бишоп, Гэри «Введение в фильтр Калмана» , факультет компьютерных наук, Университет Северной Каролины в Чапел-Хилл, 17 сентября 1997 г., по состоянию на 19 июля 2011 г.
  4. ^ Диниз, Пауло С.Р., «Адаптивная фильтрация: алгоритмы и практическая реализация», Springer Nature Switzerland AG 2020, Глава 7: Адаптивные алгоритмы RLS на основе решеток. https://doi.org/10.1007/978-3-030-29057-3_7
  5. ^ Альбу, Кадлец, Софтли, Матоусек, Херманек, Коулман, Фаган «Реализация (нормализованной) решетки RLS на Virtex» , Digital Signal Processing, 2001, по состоянию на 24 декабря 2011 г.
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: b1bbd784a9c02e09c47ba4a5763a178e__1714228800
URL1:https://arc.ask3.ru/arc/aa/b1/8e/b1bbd784a9c02e09c47ba4a5763a178e.html
Заголовок, (Title) документа по адресу, URL1:
Recursive least squares filter - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)