Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

В статистике и обработке сигналов , то принцип ортогональности является необходимым и достаточным условием оптимальности оценки байесовской . В общих чертах принцип ортогональности гласит, что вектор ошибок оптимальной оценки (в смысле среднеквадратичной ошибки ) ортогонален любой возможной оценке. Принцип ортогональности чаще всего формулируется для линейных оценок, но возможны и более общие формулировки. Поскольку этот принцип является необходимым и достаточным условием оптимальности, его можно использовать для поиска оценки минимальной среднеквадратичной ошибки .

Принцип ортогональности для линейных оценщиков [ править ]

Принцип ортогональности чаще всего используется при линейной оценке. [1] В этом контексте пусть x будет неизвестным случайным вектором, который должен быть оценен на основе вектора наблюдения y . Хочется построить линейную оценку для некоторой матрицы H и вектора c . Тогда принцип ортогональности гласит, что оценщик достигает минимальной среднеквадратичной ошибки тогда и только тогда, когда

  • и

Если x и y имеют нулевое среднее значение, тогда достаточно потребовать первого условия.

Пример [ править ]

Предположим, что x - гауссовская случайная величина со средним m и дисперсией. Также предположим, что мы наблюдаем значение, где w - гауссовский шум, который не зависит от x и имеет среднее значение 0 и дисперсию. Мы хотим найти линейную оценку, минимизирующую MSE. Подставляя выражение в два требования принципа ортогональности, получаем

и

Решение этих двух линейных уравнений для h и c приводит к

так что линейная оценка минимальной среднеквадратичной ошибки определяется выражением

Эту оценку можно интерпретировать как средневзвешенное значение между зашумленными измерениями y и предыдущим ожидаемым значением m . Если дисперсия шума мала по сравнению с дисперсией предшествующего (соответствующего высокому SNR ), то большая часть веса придается измерениям y , которые считаются более надежными, чем априорная информация. И наоборот, если дисперсия шума относительно выше, тогда оценка будет близка к m , поскольку измерения недостаточно надежны, чтобы перевесить априорную информацию.

Наконец, обратите внимание, что, поскольку переменные x и y вместе являются гауссовскими, оценка минимальной MSE является линейной. [2] Следовательно, в этом случае описанная выше оценка минимизирует MSE среди всех оценок, а не только линейных оценок.

Общая формулировка [ править ]

Позвольте быть гильбертовым пространством случайных величин со скалярным продуктом, определенным . Предположим , это замкнутое подпространство , представляющее пространство всех возможных оценок. Хочется найти вектор, который аппроксимирует вектор . Точнее, хотелось бы минимизировать среднеквадратичную ошибку (MSE) между и .

В частном случае линейных оценок, описанных выше, пространство - это набор всех функций от и , а набор линейных оценок, т. Е. Линейных функций только от. Другие параметры, которые могут быть сформулированы таким образом, включают подпространство причинных линейных фильтров и подпространство всех (возможно, нелинейных) оценок.

Геометрически мы можем увидеть эту проблему в следующем простом случае, когда - одномерное подпространство:

Принцип ортогональности.png

Мы хотим найти наиболее близкое приближение к вектору вектором в пространстве . Из геометрической интерпретации интуитивно понятно, что наилучшее приближение или наименьшая ошибка возникает, когда вектор ошибки ортогонален векторам в пространстве .

Точнее, общий принцип ортогональности утверждает следующее: для данного замкнутого подпространства оценок в гильбертовом пространстве и элемента в элементе достигается минимальная MSE среди всех элементов в том и только тогда, когда для всех

Сформулированный таким образом, этот принцип является просто формулировкой проекционной теоремы Гильберта . Тем не менее, широкое использование этого результата в обработке сигналов привело к названию «принцип ортогональности».

Решение проблем минимизации ошибок [ править ]

Ниже приводится один из способов найти оценку минимальной среднеквадратичной ошибки с использованием принципа ортогональности.

Мы хотим иметь возможность аппроксимировать вектор с помощью

куда

представляет собой приближение как линейную комбинацию векторов в подпространстве, охватываемом Следовательно, мы хотим иметь возможность найти коэффициенты , чтобы мы могли записать наше приближение в известных терминах.

По теореме ортогональности, квадрат нормы вектора ошибки, , сводится к минимуму , когда для всех J ,

Развивая это уравнение, получаем

Если имеется конечное число векторов , можно записать это уравнение в матричной форме как

Предполагая , являются линейно независимыми , то Определитель Грама можно инвертировать с получением

таким образом обеспечивая выражение для коэффициентов оценки минимальной среднеквадратичной ошибки.

См. Также [ править ]

Заметки [ править ]

Ссылки [ править ]

  • Кей, С.М. (1993). Основы статистической обработки сигналов: теория оценивания . Прентис Холл. ISBN 0-13-042268-1.
  • Луна, Тодд К. (2000). Математические методы и алгоритмы обработки сигналов . Прентис-Холл. ISBN 0-201-36186-8.