Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

Линейное предсказание - это математическая операция, при которой будущие значения дискретного сигнала оцениваются как линейная функция предыдущих выборок.

В цифровой обработке сигналов линейное предсказание часто называется кодированием с линейным предсказанием (LPC) и, таким образом, может рассматриваться как подмножество теории фильтров . В системном анализе , подполе математики , линейное прогнозирование можно рассматривать как часть математического моделирования или оптимизации .

Модель прогноза [ править ]

Наиболее распространенное представление -

где - предсказанное значение сигнала, предыдущие наблюдаемые значения, с и коэффициенты предсказателя. Ошибка, порожденная этой оценкой, составляет

где - истинное значение сигнала.

Эти уравнения справедливы для всех типов (одномерного) линейного прогноза. Различия обнаруживаются в способе выбора коэффициентов предиктора .

Для многомерных сигналов показатель ошибки часто определяется как

где - подходящая выбранная векторная норма . Прогнозы, которые обычно используются в фильтрах Калмана и сглаживателях, для оценки текущих и прошлых значений сигнала соответственно. [ необходима цитата ]

Оценка параметров [ править ]

Наиболее распространенным выбором при оптимизации параметров является критерий среднеквадратичного значения, который также называют критерием автокорреляции . В этом методе мы минимизируем ожидаемое значение квадрата ошибки , что дает уравнение

для 1 ≤ jp , где R - автокорреляция сигнала x n , определяемая как

,

и E - ожидаемое значение . В многомерном случае это соответствует минимизации L 2 нормы .

Вышеупомянутые уравнения называются нормальными уравнениями или уравнениями Юла-Уокера . В матричной форме уравнения можно эквивалентно записать как

где автокорреляционная матрица представляет собой симметричную тёплицевую матрицу с элементами , вектор - это вектор автокорреляции , а вектор параметров.

Другой, более общий подход - минимизировать сумму квадратов ошибок, определенных в форме

где теперь должен быть ограничен поиск задачи оптимизации по всем .

С другой стороны, если среднеквадратическая ошибка предсказания ограничена единицей и уравнение ошибки предсказания включено поверх обычных уравнений, расширенная система уравнений получается как

где индекс находится в диапазоне от 0 до , - матрица.

Спецификация параметров линейного предиктора - широкая тема, и было предложено большое количество других подходов. Фактически, метод автокорреляции является наиболее распространенным [ необходима цитата ], и он используется, например, для кодирования речи в стандарте GSM .

Решение матричного уравнения является относительно дорогим в вычислительном отношении процессом. Гаусса для обращения матрицы, вероятно , самое старым решение , но этот подход не эффективен использовать симметрию . Более быстрый алгоритм - это рекурсия Левинсона, предложенная Норманом Левинсоном в 1947 году, которая рекурсивно вычисляет решение. [ необходима цитата ] В частности, приведенные выше уравнения автокорреляции могут быть более эффективно решены с помощью алгоритма Дарбина. [1]

В 1986 году Филипп Дельсарт и Ю.В. Генин предложили усовершенствование этого алгоритма, названное разделенной рекурсией Левинсона, которое требует примерно половины числа умножений и делений. [2] Он использует особое свойство симметрии векторов параметров на последующих уровнях рекурсии. То есть, вычисления для оптимального предиктора, содержащего термины, используют аналогичные вычисления для оптимального предиктора, содержащего термины.

Другой способ идентификации параметров модели - это итеративное вычисление оценок состояния с использованием фильтров Калмана и получение оценок максимального правдоподобия в рамках алгоритмов максимизации ожидания .

Для равноотстоящих значений полиномиальная интерполяция представляет собой линейную комбинацию известных значений. Если дискретный сигнал времени оценивается как подчиняющийся полиному степени, то коэффициенты предсказателя задаются соответствующей строкой треугольника коэффициентов биномиального преобразования. Эта оценка может быть подходящей для медленно меняющегося сигнала с низким уровнем шума. Прогнозы для первых нескольких значений :

См. Также [ править ]

  • Авторегрессионная модель
  • Интервал прогноза
  • Раста фильтрация
  • Минимальная среднеквадратичная ошибка

Ссылки [ править ]

  1. Перейти ↑ Ramirez, MA (2008). «Алгоритм Левинсона, основанный на изометрическом преобразовании Дарбина» (PDF) . Письма об обработке сигналов IEEE . 15 : 99–102. DOI : 10,1109 / LSP.2007.910319 .
  2. ^ Дельсарт П. и Генин Ю.В. (1986), Алгоритм разделения Левинсона , IEEE Transactions on Acoustics, Speech, and Signal Processing , v. ASSP-34 (3), pp. 470–478

Дальнейшее чтение [ править ]

  • Хейс, MH (1996). Статистическая обработка цифровых сигналов и моделирование . Нью-Йорк: J. Wiley & Sons. ISBN 978-0471594314.
  • Левинсон, Н. (1947). «Критерий ошибки Wiener RMS (среднеквадратическое значение) при проектировании и прогнозировании фильтров». Журнал математики и физики . 25 (4): 261–278.
  • Махоул, Дж. (1975). «Линейное предсказание: учебное пособие». Труды IEEE . 63 (5): 561–580. DOI : 10,1109 / PROC.1975.9792 .
  • Юля, ГУ (1927). «О методе исследования периодичностей в возмущенных рядах с особым упором на числа Вольфера» . Фил. Пер. Рой. Soc. . 226 : 267–298. DOI : 10,1098 / rsta.1927.0007 . JSTOR  91170 .

Внешние ссылки [ править ]

  • PLP и RASTA (и MFCC, и инверсия) в Matlab