Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

Алгоритмы наименьших средних квадратов ( LMS ) представляют собой класс адаптивных фильтров, используемых для имитации желаемого фильтра путем нахождения коэффициентов фильтра, которые относятся к получению наименьшего среднего квадрата сигнала ошибки (разности между желаемым и фактическим сигналами). Это метод стохастического градиентного спуска, в котором фильтр адаптируется только на основе ошибки в текущий момент времени. Он был изобретен в 1960 году профессором Стэнфордского университета Бернардом Видроу и его первым доктором философии. студент, Тед Хофф .

Постановка проблемы [ править ]

LMS фильтр

Связь с фильтром Винера [ править ]

Реализация причинного фильтра Винера очень похожа на решение оценки методом наименьших квадратов, за исключением области обработки сигналов. Решение методом наименьших квадратов для входной матрицы и выходного вектора :

КИХ-фильтр наименьших средних квадратов связан с фильтром Винера, но минимизация критерия ошибки первого не зависит от взаимной корреляции или автокорреляции. Его решение сходится к решению фильтра Винера. Большинство задач линейной адаптивной фильтрации можно сформулировать с помощью приведенной выше блок-схемы. То есть должна быть идентифицирована неизвестная система, и адаптивный фильтр пытается адаптировать фильтр, чтобы сделать его как можно ближе к нему , используя только наблюдаемые сигналы , и ; но , и не наблюдаются напрямую. Его решение тесно связано с фильтром Винера .

Определение символов [ править ]

это номер текущей входной выборки
количество отводов фильтра
( Эрмитовское транспонирование или сопряженное транспонирование )
оценочный фильтр; интерпретировать как оценку коэффициентов фильтра после n выборок

Идея [ править ]

Основная идея фильтра LMS состоит в том, чтобы приблизиться к оптимальным весам фильтра , обновляя веса фильтра таким образом, чтобы они сходились к оптимальному весу фильтра. Это основано на алгоритме градиентного спуска. Алгоритм начинается с предположения малых весов (в большинстве случаев нулевых), и на каждом шаге, путем нахождения градиента среднеквадратичной ошибки, веса обновляются. То есть, если MSE-градиент положительный, это означает, что ошибка будет продолжать увеличиваться в положительном направлении, если тот же вес используется для дальнейших итераций, что означает, что нам нужно уменьшить веса. Таким же образом, если градиент отрицательный, нам нужно увеличить веса. Уравнение обновления веса:

,

где представляет собой среднеквадратичную ошибку, а - коэффициент сходимости.

Отрицательный знак показывает, что мы спускаемся вниз по наклону ошибки, чтобы найти веса фильтра , которые минимизируют ошибку.

Среднеквадратичная ошибка как функция весов фильтра является квадратичной функцией, что означает, что она имеет только один экстремум, который минимизирует среднеквадратичную ошибку, которая является оптимальным весом. Таким образом, LMS приближается к этим оптимальным весам, поднимаясь / спускаясь вниз по кривой зависимости среднеквадратичной ошибки от веса фильтра.

Вывод [ править ]

Идея фильтров LMS заключается в использовании наискорейшего спуска для нахождения весов фильтров, которые минимизируют функцию стоимости . Начнем с определения функции стоимости как

где - ошибка в текущей выборке n и обозначает ожидаемое значение .

Эта функция стоимости ( ) представляет собой среднеквадратическую ошибку, которая минимизируется LMS. Отсюда LMS получила свое название. Применение наискорейшего спуска означает получение частных производных по отдельным элементам вектора коэффициента (веса) фильтра.

где - оператор градиента

Теперь это вектор, который указывает на самый крутой подъем функции стоимости. Чтобы найти минимум функции стоимости, нам нужно сделать шаг в противоположном направлении . Чтобы выразить это в математических терминах

где - размер шага (постоянная адаптации). Это означает, что мы нашли алгоритм последовательного обновления, который минимизирует функцию стоимости. К сожалению, этот алгоритм невозможно реализовать, пока мы не узнаем об этом .

Как правило, вышеприведенное ожидание не вычисляется. Вместо этого для запуска LMS в онлайн-среде (обновление после получения каждой новой выборки) мы используем мгновенную оценку этого ожидания. Смотри ниже.

Упрощения [ править ]

Для большинства систем функция ожидания должна быть аппроксимирована. Это можно сделать с помощью следующей объективной оценки

где указывает количество образцов, которые мы используем для этой оценки. Самый простой случай

Для этого простого случая алгоритм обновления выглядит следующим образом:

Фактически, это составляет алгоритм обновления для фильтра LMS.

Сводка алгоритма LMS [ править ]

Алгоритм LMS для фильтра -го порядка можно резюмировать как

Сходимость и стабильность в среднем [ править ]

Поскольку алгоритм LMS не использует точные значения ожиданий, веса никогда не достигнут оптимальных весов в абсолютном смысле, но в среднем возможна сходимость. То есть, даже если веса могут изменяться на небольшие значения, они меняются относительно оптимальных весов. Однако, если дисперсия, с которой изменяются веса, велика, сходимость средних значений может ввести в заблуждение. Эта проблема может возникнуть, если значение шага выбрано неправильно.

Если выбрано большое значение, величина, с которой изменяются веса, сильно зависит от оценки градиента, и поэтому веса могут измениться на большую величину, так что градиент, который был отрицательным в первый момент, теперь может стать положительным. А во второй момент вес может сильно измениться в противоположном направлении из-за отрицательного градиента и, таким образом, будет продолжать колебаться с большим отклонением от оптимального веса. С другой стороны, если выбрано слишком маленькое значение, время для достижения оптимальных весов будет слишком большим.

Таким образом, требуется верхняя граница , которая задается как

где - наибольшее собственное значение автокорреляционной матрицы . Если это условие не выполняется, алгоритм становится нестабильным и расходится.

Максимальная скорость схождения достигается, когда

где - наименьшее собственное значение . Учитывая, что это значение меньше или равно этому оптимуму, скорость сходимости определяется , причем большее значение обеспечивает более быструю сходимость. Это означает , что более быстрое сближение может быть достигнуто , когда близко к , то есть максимально достижимая скорость сходимости зависит от разброса собственных значений от .

Сигнал белого шума имеет матрицу автокорреляции, где - дисперсия сигнала. В этом случае все собственные значения равны, а разброс собственных значений является минимальным по всем возможным матрицам. Таким образом, общепринятая интерпретация этого результата состоит в том, что LMS сходится быстро для белых входных сигналов и медленно для цветных входных сигналов, таких как процессы с характеристиками нижних или верхних частот.

Важно отметить, что указанная выше верхняя граница только обеспечивает стабильность в среднем, но коэффициенты могут все еще расти бесконечно большими, т.е. расхождение коэффициентов все еще возможно. Более практическая оценка

где обозначает след из . Эта граница гарантирует, что коэффициенты не расходятся (на практике значение не следует выбирать близко к этой верхней границе, поскольку это несколько оптимистично из-за приближений и предположений, сделанных при выводе границы).

Нормализованный фильтр наименьших средних квадратов (NLMS) [ править ]

Главный недостаток «чистого» алгоритма LMS состоит в том, что он чувствителен к масштабированию входных данных . Это делает очень трудным (если не невозможным) выбор скорости обучения , гарантирующей стабильность алгоритма (Хайкин, 2002). Фильтр Нормализованного минимум среднего квадратов (NLMS) представляет собой вариант LMS алгоритм , который решает эту проблему путем нормализации с силой входного сигнала. Алгоритм NLMS можно резюмировать как:

Оптимальная скорость обучения [ править ]

Можно показать, что при отсутствии помех ( ) оптимальная скорость обучения для алгоритма NLMS равна

и не зависит от входа и реальной (неизвестной) импульсной характеристики . В общем случае с помехой ( ) оптимальная скорость обучения

Приведенные выше результаты предполагают, что сигналы и не коррелируют друг с другом, что обычно и имеет место на практике.

Доказательство [ править ]

Пусть рассогласование фильтра определяется как , мы можем получить ожидаемое рассогласование для следующего образца как:

Пусть и

Предполагая независимость, мы имеем:

Оптимальная скорость обучения находится при , что приводит к:

См. Также [ править ]

  • Рекурсивный метод наименьших квадратов
  • Для статистических методов, относящихся к фильтру LMS, см. Наименьшие квадраты .
  • Сходства между Wiener и LMS
  • Адаптивный фильтр в частотной области с блоком с несколькими задержками
  • Эквалайзер с нулевым форсированием
  • Адаптивный фильтр ядра
  • согласованный фильтр
  • Винеровский фильтр

Ссылки [ править ]

  • Монсон Х. Хейс: Статистическая обработка и моделирование цифровых сигналов, Wiley, 1996, ISBN  0-471-59431-8
  • Саймон Хайкин: теория адаптивного фильтра, Prentice Hall, 2002, ISBN 0-13-048434-2 
  • Саймон С. Хайкин, Бернард Видроу (редактор): Адаптивные фильтры наименьшего среднего квадрата, Wiley, 2003, ISBN 0-471-21570-8 
  • Бернард Уидроу, Сэмюэл Д. Стернс: адаптивная обработка сигналов, Прентис-Холл, 1985, ISBN 0-13-004029-0 
  • Вайфенг Лю, Хосе Принсипи и Саймон Хайкин: Адаптивная фильтрация ядра: всестороннее введение, Джон Вили, 2010, ISBN 0-470-44753-2 
  • Пауло С.Р. Диниз: Адаптивная фильтрация: алгоритмы и практическая реализация, Kluwer Academic Publishers, 1997, ISBN 0-7923-9912-9 

Внешние ссылки [ править ]

  • Алгоритм LMS в адаптивных антенных решетках www.antenna-theory.com
  • Демонстрация шумоподавления LMS www.advsolned.com