Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

Весовые наименьших квадратов ( WLS ), также известный как взвешенной линейной регрессии , [1] [2] представляет собой обобщение обычных наименьших квадратов и линейной регрессии , в которой знание дисперсии наблюдений , включенных в регрессии. WLS - это также специализация обобщенных наименьших квадратов .

Введение [ править ]

Частный случай обобщенных наименьших квадратов, называемый взвешенными наименьшими квадратами, возникает, когда все недиагональные элементы Ω (корреляционная матрица остатков) равны нулю; отклонениях наблюдений (по ковариационная матрица по диагонали) по- прежнему может быть неодинаковой ( гетероскедастичность ).

Подгонка модели к точке данных измеряется ее невязкой , определяемой как разница между измеренным значением зависимой переменной и значением, предсказанным моделью :

Если ошибки некоррелированы и имеют одинаковую дисперсию, то минимум функции

,

находится при (определение ).

Теорема Гаусса – Маркова показывает, что в этом случае наилучшая линейная несмещенная оценка ( СИНИЙ ). Однако, если измерения не коррелированы, но имеют разные неопределенности, может быть принят модифицированный подход. Эйткен показал, что когда взвешенная сумма квадратов остатков минимизирована, это СИНИЙ, если каждый вес равен обратной величине дисперсии измерения.

Уравнения градиента для этой суммы квадратов:

которые в линейной системе наименьших квадратов дают модифицированные нормальные уравнения,

Когда ошибки наблюдений некоррелированы, а весовая матрица W диагональна, их можно записать как

Если ошибки коррелированы, результирующий оценщик будет СИНИМ, если матрица весов равна обратной матрице дисперсионно-ковариационной матрицы наблюдений.

Когда ошибки не коррелированы, удобно упростить вычисления, чтобы разложить матрицу весов на множители . Тогда нормальные уравнения могут быть записаны в той же форме, что и обычные наименьшие квадраты:

где мы определяем следующие масштабированные матрицу и вектор:

Это вид трансформации отбеливания ; последнее выражение включает поэлементное деление .

Для нелинейных систем наименьших квадратов аналогичный аргумент показывает, что нормальные уравнения следует модифицировать следующим образом.

Обратите внимание, что для эмпирических тестов соответствующее W точно не известно и должно быть оценено. Для этого могут использоваться возможные методы обобщенных наименьших квадратов (FGLS); в этом случае он специализируется на диагональной ковариационной матрице, что дает допустимое взвешенное решение методом наименьших квадратов.

Если неопределенность наблюдений неизвестна из внешних источников, то веса могут быть оценены на основе данных наблюдений. Это может быть полезно, например, для выявления выбросов. После того, как выбросы были удалены из набора данных, веса должны быть сброшены на единицу. [3]

Мотивация [ править ]

В некоторых случаях наблюдения могут быть взвешенными - например, они не могут быть одинаково надежными. В этом случае можно минимизировать взвешенную сумму квадратов:

где w i > 0 - вес i- го наблюдения, а W - диагональная матрица таких весов.

Веса должны, в идеале, быть равны обратной величиной от дисперсии измерения. (Это означает, что наблюдения не коррелированы. Если наблюдения коррелированы , применяется выражение . В этом случае весовая матрица в идеале должна быть равна обратной матрице дисперсионно-ковариационной матрицы наблюдений). [3] Тогда нормальные уравнения таковы:

Этот метод используется для метода наименьших квадратов с повторным взвешиванием .

Ошибки параметров и корреляция[ редактировать ]

Оценочные значения параметров представляют собой линейные комбинации наблюдаемых значений.

Следовательно, выражение для оцененной матрицы дисперсии-ковариации оценок параметров может быть получено путем распространения ошибки из ошибок в наблюдениях. Пусть ковариационная матрица дисперсии для наблюдений обозначена M, а матрица оцененных параметров - M β . потом

Когда W = M −1 , это упрощается до

Когда используются единичные веса ( W = I , единичная матрица ), подразумевается, что экспериментальные ошибки некоррелированы и все равны: M = σ 2 I , где σ 2 - априорная дисперсия наблюдения. В любом случае σ 2 аппроксимируется приведенным хи-квадрат :

где S - минимальное значение (взвешенной) целевой функции :

Знаменатель, - это количество степеней свободы ; см. эффективные степени свободы для обобщений на случай коррелированных наблюдений.

Во всех случаях дисперсия оценки параметра определяется как, а ковариация между оценками параметров и определяется как . Стандартное отклонение представляет собой квадратный корень из дисперсии, и коэффициент корреляции задается . Эти оценки ошибок отражают только случайные ошибки в измерениях. Истинная неопределенность параметров больше из-за наличия систематических ошибок , которые по определению не могут быть определены количественно. Обратите внимание, что даже если наблюдения могут быть некоррелированными, параметры обычно коррелированы .

Пределы достоверности параметра [ править ]

Часто предполагается , из-за отсутствия каких-либо конкретных доказательств, но часто ссылаясь на центральную предельную теорему - см. Нормальное распределение # Вхождение - что ошибка в каждом наблюдении принадлежит нормальному распределению со средним нулевым и стандартным отклонением . При таком предположении следующие вероятности могут быть получены для оценки одного скалярного параметра в терминах его оцененной стандартной ошибки (приведенной здесь ):

68%, что интервал охватывает истинное значение коэффициента
95%, что интервал охватывает истинное значение коэффициента
99%, что интервал охватывает истинное значение коэффициента

Предположение небезосновательно, когда m  >>  n . Если экспериментальные ошибки распределены нормально, параметры будут принадлежать t-распределению Стьюдента с m  -  n степенями свободы . Когда m  ≫  n t-распределение Стьюдента приближается к нормальному распределению. Обратите внимание, однако, что эти доверительные интервалы не могут учитывать систематическую ошибку. Кроме того, ошибки параметров следует указывать только до одной значащей цифры, поскольку они подвержены ошибкам выборки . [4]

Когда количество наблюдений относительно невелико, неравенство Чебычева может использоваться для верхней границы вероятностей, независимо от любых предположений о распределении экспериментальных ошибок: максимальной вероятности того, что параметр будет больше 1, 2 или 3 стандартных отклонений. от ожидаемого значения составляют 100%, 25% и 11% соответственно.

Остаточные значения и корреляция [ править ]

Эти остатки связаны с наблюдениями

где H - идемпотентная матрица, известная как матрица шляпы :

а I - единичная матрица . Матрица дисперсии-ковариации остатков M r задается выражением

Таким образом, остатки коррелированы, даже если наблюдения не коррелируют.

Когда ,

Сумма взвешенных остаточных значений равна нулю, если модельная функция содержит постоянный член. Умножим слева выражение для остатков на X T W T :

Скажем, например, что первый член модели постоянный, так что для всех i . В таком случае следует, что

Таким образом, в мотивационном примере, приведенном выше, тот факт, что сумма остаточных значений равна нулю, не является случайным, а является следствием наличия постоянного члена α в модели.

Если экспериментальная ошибка следует нормальному распределению , то из-за линейной связи между остатками и наблюдениями, то же самое должно быть и с остатками [5], но поскольку наблюдения являются лишь выборкой совокупности всех возможных наблюдений, остатки должны принадлежать к категории Стьюдента. t-распределение . Студентизированные остатки полезны при проведении статистического теста на выброс, когда конкретный остаток кажется чрезмерно большим.

См. Также [ править ]

  • Метод наименьших квадратов с итеративным перевесом
  • Стандартные ошибки, согласованные с гетероскедастичностью
  • Средневзвешенное значение

Ссылки [ править ]

  1. ^ [1]
  2. ^ [2]
  3. ^ а б Струтц, Т. (2016). Подгонка данных и неопределенность (практическое введение в взвешенный метод наименьших квадратов и другие аспекты) . Springer Vieweg. ISBN 978-3-658-11455-8., Глава 3
  4. ^ Мандель, Джон (1964). Статистический анализ экспериментальных данных . Нью-Йорк: Interscience.
  5. ^ Мардия, К.В. Кент, Дж. Т.; Бибби, Дж. М. (1979). Многомерный анализ . Нью-Йорк: Academic Press. ISBN 0-12-471250-9.