Фильтр наименьших средних квадратов
Эта статья включает список общих ссылок , но в ней отсутствуют достаточные соответствующие встроенные цитаты . ( январь 2019 г. ) |
Алгоритмы наименьших средних квадратов ( LMS ) — это класс адаптивных фильтров, используемых для имитации желаемого фильтра путем нахождения коэффициентов фильтра, которые относятся к созданию наименьшего среднего квадрата сигнала ошибки (разница между желаемым и фактическим сигналом). Это метод стохастического градиентного спуска , в котором фильтр адаптируется только на основе ошибки в текущий момент. Он был изобретен в 1960 году Стэнфордского университета профессором Бернардом Уидроу и его первым доктором философии. студент Тед Хофф на основе своих исследований в области однослойных нейронных сетей ( ADALINE ). В частности, они использовали градиентный спуск, чтобы обучить ADALINE распознавать шаблоны, и назвали алгоритм « дельта-правилом ». Затем они применили это правило к фильтрам, в результате чего появился алгоритм LMS.
Формулировка задачи
[ редактировать ]На рисунке показаны различные части фильтра. — это входной сигнал, который затем преобразуется неизвестным фильтром что мы хотим сопоставить, используя . Выход неизвестного фильтра: , на который затем воздействует шумовой сигнал , производство . Тогда сигнал ошибки вычисляется и передается обратно в адаптивный фильтр для настройки его параметров с целью минимизации среднего квадрата сигнала ошибки. .
Связь с фильтром Винера
[ редактировать ]Реализация причинного фильтра Винера во многом похожа на решение оценки методом наименьших квадратов, за исключением области обработки сигналов. Решение методом наименьших квадратов для входной матрицы и выходной вектор является
КИХ-фильтр наименьших средних квадратов связан с фильтром Винера, но минимизация критерия ошибки первого не зависит от взаимной корреляции или автокорреляции. Его решение сходится к решению фильтра Винера. Большинство задач линейной адаптивной фильтрации можно сформулировать с помощью приведенной выше блок-схемы. То есть неизвестная система должен быть идентифицирован, и адаптивный фильтр пытается адаптировать фильтр сделать это как можно ближе к , используя только наблюдаемые сигналы , и ; но , и не наблюдаются непосредственно. Ее решение тесно связано с фильтром Винера .
Определение символов
[ редактировать ]- номер текущей входной выборки
- количество кранов фильтра
- ( Эрмитово транспонирование или сопряженное транспонирование )
- предполагаемый фильтр; интерпретировать как оценку коэффициентов фильтра после n выборок
Идея
[ редактировать ]Основная идея фильтра LMS заключается в достижении оптимального веса фильтра. , обновляя веса фильтра таким образом, чтобы они сходились к оптимальному весу фильтра. Это основано на алгоритме градиентного спуска. Алгоритм начинается с предположения небольших весов (в большинстве случаев нулевых), и на каждом этапе путем нахождения градиента среднеквадратической ошибки веса обновляются. То есть, если градиент MSE положителен, это означает, что ошибка будет продолжать положительно увеличиваться, если для дальнейших итераций будет использоваться тот же вес, а это означает, что нам нужно уменьшить веса. Точно так же, если градиент отрицательный, нам нужно увеличить веса. Уравнение обновления веса:
где представляет среднеквадратическую ошибку и является коэффициентом сходимости.
Знак минус показывает, что мы спускаемся по склону ошибки, чтобы найти веса фильтра, , что минимизирует ошибку.
Среднеквадратическая ошибка как функция весов фильтра представляет собой квадратичную функцию, что означает, что она имеет только один экстремум, что минимизирует среднеквадратическую ошибку, которая является оптимальным весом. Таким образом, LMS приближается к этому оптимальному весу путем подъема/спуска вниз по кривой среднеквадратической ошибки и веса фильтра.
Вывод
[ редактировать ]Идея фильтров LMS заключается в использовании наикрутейшего спуска для определения весов фильтров. которые минимизируют функцию стоимости . Начнем с определения функции стоимости как
где ошибка в текущей выборке n и обозначает ожидаемое значение .
Эта функция стоимости ( ) — это среднеквадратическая ошибка, которая минимизируется с помощью LMS. Именно отсюда LMS получила свое название. Применение наискорейшего спуска означает получение частных производных по отдельным записям вектора коэффициентов (весов) фильтра.
где это градиента оператор
Сейчас, – вектор, указывающий на самый крутой подъем функции стоимости. Чтобы найти минимум функции стоимости, нам нужно сделать шаг в направлении, противоположном . Выражая это математическими терминами
где – размер шага (константа адаптации). Это означает, что мы нашли алгоритм последовательного обновления, который минимизирует функцию стоимости. К сожалению, этот алгоритм нереализуем, пока мы не узнаем .
Как правило, приведенное выше ожидание не рассчитывается. Вместо этого, чтобы запустить LMS в онлайн-среде (обновляемой после получения каждого нового образца), мы используем мгновенную оценку этого ожидания. См. ниже.
Упрощения
[ редактировать ]Для большинства систем функция ожидания должно быть аппроксимировано. Это можно сделать с помощью следующей несмещенной оценки
где указывает количество образцов, которые мы используем для этой оценки. Самый простой случай
В этом простом случае алгоритм обновления выглядит следующим образом:
Действительно, это составляет алгоритм обновления фильтра LMS.
Краткое описание алгоритма LMS
[ редактировать ]Алгоритм LMS для Фильтр-го порядка можно резюмировать как
Параметры: | порядок фильтра |
размер шага | |
Инициализация: | |
Расчет: | Для |
Сходимость и стабильность в среднем
[ редактировать ]Поскольку алгоритм LMS не использует точные значения ожиданий, веса никогда не достигнут оптимальных весов в абсолютном смысле, но сходимость в среднем возможна. То есть, хотя веса могут меняться на небольшие величины, они меняются примерно до оптимальных весов. Однако если дисперсия, с которой изменяются веса, велика, сходимость среднего значения будет вводить в заблуждение. Эта проблема может возникнуть, если значение размера шага выбрано неправильно.
Если выбрано большим, величина изменения весов сильно зависит от оценки градиента, и поэтому веса могут измениться на большую величину, так что градиент, который был отрицательным в первый момент, теперь может стать положительным. А во второй момент вес может сильно измениться в противоположном направлении из-за отрицательного градиента и, таким образом, будет продолжать колебаться с большим отклонением от оптимального веса. С другой стороны, если выбрано слишком маленьким, время достижения оптимальных весов будет слишком большим.
Таким образом, верхняя граница необходим, который задается как ,
где - наибольшее собственное значение автокорреляции матрицы . Если это условие не выполняется, алгоритм становится неустойчивым и расходится.
Максимальная скорость сходимости достигается, когда
где является наименьшим собственным значением .При условии меньше или равна этому оптимуму, скорость сходимости определяется выражением , причем большее значение обеспечивает более быструю сходимость. Это означает, что более быстрая сходимость может быть достигнута, если близко к , то есть максимально достижимая скорость сходимости зависит от разброса собственных значений .
Сигнал белого шума имеет матрицу автокорреляции. где это дисперсия сигнала. В этом случае все собственные значения равны, а разброс собственных значений минимален по всем возможным матрицам.Таким образом, общепринятая интерпретация этого результата заключается в том, что LMS сходится быстро для белых входных сигналов и медленно для цветных входных сигналов, таких как процессы с характеристиками нижних или верхних частот.
Важно отметить, что приведенная выше верхняя граница обеспечивает стабильность только в среднем, но коэффициенты может еще вырасти до бесконечности, т. е. расхождение коэффициентов все еще возможно. Более практичная граница
где обозначает след . Эта оценка гарантирует, что коэффициенты не расходятся (на практике значения не следует выбирать близко к этой верхней границе, поскольку она несколько оптимистична из-за приближений и допущений, сделанных при выводе границы).
Нормализованный фильтр наименьших квадратов (NLMS)
[ редактировать ]Основным недостатком «чистого» алгоритма LMS является то, что он чувствителен к масштабированию входных данных. . Из-за этого очень сложно (если не невозможно) выбрать скорость обучения . что гарантирует стабильность алгоритма (Хайкин 2002). Нормализованный фильтр наименьших квадратов (NLMS) — это вариант алгоритма LMS, который решает эту проблему путем нормализации по мощности входного сигнала. Алгоритм NLMS можно резюмировать следующим образом:
Параметры: | порядок фильтра |
размер шага | |
Инициализация: | |
Расчет: | Для |
Оптимальная скорость обучения
[ редактировать ]Можно показать, что если нет интерференции ( ), то оптимальная скорость обучения для алгоритма NLMS равна
и не зависит от входа и реальная (неизвестная) импульсная характеристика . В общем случае с помехами ( ), оптимальная скорость обучения равна
Приведенные выше результаты предполагают, что сигналы и не коррелируют друг с другом, что обычно и имеет место на практике.
Доказательство
[ редактировать ]Пусть рассогласование фильтра определяется как , мы можем получить ожидаемое смещение для следующего образца как:
Позволять и
Предполагая независимость, мы имеем:
Оптимальная скорость обучения находится при , что приводит к:
См. также
[ редактировать ]- Рекурсивный метод наименьших квадратов
- Статистические методы, относящиеся к фильтру LMS, см. в разделе Наименьшие квадраты .
- Сходства между Винером и LMS
- Адаптивный фильтр частотной области блока с несколькими задержками
- Эквалайзер с нулевым принуждением
- Адаптивный фильтр ядра
- Соответствующий фильтр
- Венский фильтр
Ссылки
[ редактировать ]- Монсон Х. Хейс: Статистическая цифровая обработка сигналов и моделирование, Wiley, 1996, ISBN 0-471-59431-8
- Саймон Хайкин: Теория адаптивных фильтров, Прентис Холл, 2002 г., ISBN 0-13-048434-2
- Саймон С. Хайкин, Бернард Уидроу (редактор): Адаптивные фильтры наименьшего среднего квадрата, Wiley, 2003, ISBN 0-471-21570-8
- Бернард Уидроу, Сэмюэл Д. Стернс: адаптивная обработка сигналов, Прентис Холл, 1985, ISBN 0-13-004029-0
- Вейфэн Лю, Хосе Принсипи и Саймон Хайкин: Адаптивная фильтрация ядра: всестороннее введение, Джон Уайли, 2010 г., ISBN 0-470-44753-2
- Пауло С.Р. Диниз: Адаптивная фильтрация: алгоритмы и практическая реализация, Kluwer Academic Publishers, 1997, ISBN 0-7923-9912-9
Внешние ссылки
[ редактировать ]- Алгоритм LMS в адаптивных антенных решетках www.antenna-theory.com
- Демонстрация шумоподавления LMS www.advsolned.com