Теорема Гаусса – Маркова


Из Википедии, свободной энциклопедии
Перейти к навигации Перейти к поиску

В статистике теорема Гаусса-Маркова (или просто теорема Гаусса для некоторых авторов) [1] утверждает, что обычная оценка методом наименьших квадратов (OLS) имеет наименьшую дисперсию выборки в классе линейных несмещенных оценок , если ошибки в линейной регрессии модели некоррелированы , имеют равные дисперсии и нулевое математическое ожидание. [2] Ошибки не обязательно должны быть нормальными , они не должны быть независимыми и одинаково распределенными . (только некоррелированные со средним нулем и гомоскедастические с конечной дисперсией). От требования несмещенности оценщика нельзя отказаться, поскольку существуют смещенные оценщики с меньшей дисперсией. См., например, оценку Джеймса-Стейна (которая также снижает линейность), гребневую регрессию или просто любую вырожденную оценку.

Теорема была названа в честь Карла Фридриха Гаусса и Андрея Маркова , хотя работа Гаусса значительно предшествует работе Маркова. [3] Но в то время как Гаусс вывел результат в предположении независимости и нормальности, Марков свел предположения к форме, изложенной выше. [4] Дальнейшее обобщение несферических ошибок было дано Александром Эйткеном . [5]

Заявление

Предположим, что у нас есть в матричных обозначениях,

расширение до,

где - неслучайные, но ненаблюдаемые параметры, неслучайны и наблюдаемы (называемые «объясняющими переменными»), случайны и, следовательно , случайны. Случайные величины называются «помехами», «шумами» или просто «ошибками» (позже в статье они будут противопоставлены «остаткам»; см. ошибки и остатки в статистике ). Обратите внимание, что для включения константы в приведенную выше модель можно ввести константу как переменную с недавно введенным последним столбцом X, равным единице, т . е. для всех . Обратите внимание, что хотя в качестве примеров ответов можно наблюдать, следующие утверждения и аргументы, включая предположения,доказательства, а остальные предполагают в соответствии столько условие знания, но не

Предположения Гаусса-Маркова касаются набора случайных величин ошибки :

  • Они имеют среднее значение ноль:
  • Они гомоскедастичны , то есть все имеют одинаковую конечную дисперсию: для всех и
  • Отдельные члены ошибок не коррелированы:

Линейная оценка представляет собой линейную комбинацию

в котором коэффициенты не могут зависеть от базовых коэффициентов , так как они не наблюдаемы, но могут зависеть от значений , поскольку эти данные наблюдаемы. (Зависимость коэффициентов от каждого обычно нелинейна; оценка линейна в каждом и, следовательно, в каждом случайном случае , поэтому это «линейная» регрессия .) Говорят, что оценка является несмещенной тогда и только тогда, когда

вне зависимости от значений . Теперь пусть будет некоторая линейная комбинация коэффициентов. Тогда среднеквадратическая ошибка соответствующей оценки равна

другими словами, это ожидание квадрата взвешенной суммы (по параметрам) различий между оценщиками и соответствующими оцениваемыми параметрами. (Поскольку мы рассматриваем случай, когда все оценки параметров несмещены, эта среднеквадратическая ошибка совпадает с дисперсией линейной комбинации.) Наилучшей линейной несмещенной оценкой (СИНЕЙ) вектора параметров является та, у которой наименьшая среднеквадратическая ошибка для каждого вектора параметров линейной комбинации. Это эквивалентно условию, что

является положительной полуопределенной матрицей для любой другой линейной несмещенной оценки .

Обычная оценка методом наименьших квадратов (OLS) - это функция

of и (где обозначает транспонирование ) , которое минимизирует сумму квадратов остатков (количество ошибочных предсказаний):

Теорема теперь утверждает, что оценка МНК является СИНЕЙ. Основная идея доказательства состоит в том, что оценка методом наименьших квадратов некоррелирована с каждой линейной несмещенной оценкой нуля, т. е. с каждой линейной комбинацией , коэффициенты которой не зависят от ненаблюдаемого , но чье ожидаемое значение всегда равно нулю.

Примечание

Доказательство того, что МНК действительно МИНИМИЗИРУЕТ сумму квадратов невязок, может происходить следующим образом с вычислением матрицы Гессе и демонстрацией ее положительной определенности.

Функция MSE, которую мы хотим минимизировать, равна

для модели множественной регрессии с переменными p . Первая производная
где X - матрица дизайна

Матрица Гессе вторых производных

Предполагая, что столбцы линейно независимы, так что обратимо, пусть , тогда

Теперь позвольте быть собственным вектором .

С точки зрения векторного умножения это означает

где – собственное значение, соответствующее . Кроме того,

Наконец, поскольку собственный вектор был произвольным, это означает, что все собственные значения положительны, а значит , положительно определены. Таким образом,

действительно является локальным минимумом.

Доказательство

Позвольте быть другой линейной оценкой где где ненулевая матрица . Поскольку мы ограничиваемся несмещенными оценками, минимальная среднеквадратическая ошибка подразумевает минимальную дисперсию. Таким образом, цель состоит в том, чтобы показать, что такая оценка имеет дисперсию не меньше, чем у оценки МНК. Мы рассчитываем:

Следовательно, так как ненаблюдаема , несмещена тогда и только тогда, когда . Потом:

Так как DD' является положительно-полуопределенной матрицей, превосходит на положительно-полуопределенную матрицу.

Замечания по доказательству

Как было сказано ранее, условие положительной полуопределенности матрицы эквивалентно тому свойству, что наилучшая линейная несмещенная оценка есть (наилучшая в том смысле, что она имеет минимальную дисперсию). Чтобы увидеть это, пусть другая линейная несмещенная оценка .

Более того, равенство имеет место тогда и только тогда, когда . Мы рассчитываем

Это доказывает, что равенство выполняется тогда и только тогда , когда это дает уникальность оценки МНК как СИНЕЙ.

Обобщенная оценка методом наименьших квадратов

Метод обобщенных наименьших квадратов (GLS) , разработанный Эйткеном [5] , расширяет теорему Гаусса–Маркова на случай, когда вектор ошибок имеет нескалярную ковариационную матрицу. [6] Оценщик Эйткена также СИНИЙ.

Теорема Гаусса – Маркова, сформулированная в эконометрике.

В большинстве методов МНК регрессоры (параметры интереса) в матрице плана предполагаются фиксированными в повторяющихся выборках. Это предположение считается неуместным для такой преимущественно неэкспериментальной науки, как эконометрика . [7] Вместо этого предположения теоремы Гаусса–Маркова формулируются в зависимости от .

Линейность

Предполагается, что зависимая переменная является линейной функцией переменных, указанных в модели. Спецификация должна быть линейной по своим параметрам. Это не означает, что между независимыми и зависимыми переменными должна быть линейная зависимость. Независимые переменные могут принимать нелинейные формы, пока параметры линейны. Уравнение квалифицируется как линейное, хотя его можно преобразовать в линейное, заменив другим параметром, скажем, . Уравнение с параметром, зависящим от независимой переменной, не может считаться линейным, например , где - функция от .

Преобразования данных часто используются для преобразования уравнения в линейную форму. Например, функция Кобба-Дугласа, часто используемая в экономике, нелинейна:

Но его можно выразить в линейной форме, взяв натуральный логарифм обеих частей: [8]

Это предположение также охватывает вопросы спецификации: предполагается, что выбрана правильная функциональная форма и нет пропущенных переменных .

Однако следует помнить, что параметры, минимизирующие невязки преобразованного уравнения, не обязательно минимизируют невязки исходного уравнения.

Строгая экзогенность

Для всех наблюдений математическое ожидание члена ошибки, зависящее от регрессоров, равно нулю: [9]

где вектор данных регрессоров для i -го наблюдения и, следовательно , матрица данных или матрица плана.

Геометрически это предположение означает, что и ортогональны друг другу, так что их внутренний продукт (т. е. их перекрестный момент) равен нулю.

Это предположение нарушается, если объясняющие переменные являются стохастическими, например, когда они измерены с ошибкой или являются эндогенными . [10] Эндогенность может быть результатом одновременности , когда причинно-следственная связь течет туда и обратно между зависимой и независимой переменной. Методы инструментальных переменных обычно используются для решения этой проблемы.

Полный ранг

Матрица выборочных данных должна иметь полный ранг столбца .

В противном случае это необратимо, и оценка OLS не может быть вычислена.

Нарушением этого предположения является совершенная мультиколлинеарность , т.е. некоторые объясняющие переменные линейно зависимы. Один сценарий, в котором это произойдет, называется «ловушкой фиктивной переменной», когда базовая фиктивная переменная не пропускается, что приводит к идеальной корреляции между фиктивными переменными и постоянным членом. [11]

Мультиколлинеарность (если она не «идеальна») может присутствовать, что приводит к менее эффективной, но все же беспристрастной оценке. Оценки будут менее точными и очень чувствительными к конкретным наборам данных. [12] Мультиколлинеарность может быть обнаружена по номеру условия или фактору инфляции дисперсии , среди других тестов.

Сферические ошибки

Внешний продукт вектора ошибки должен быть сферическим.

Это означает, что член ошибки имеет равномерную дисперсию ( гомоскедастичность ) и не имеет последовательной зависимости. [13] Если это допущение нарушается, МНК остается беспристрастной, но неэффективной. Термин «сферические ошибки» будет описывать многомерное нормальное распределение: если в многомерной нормальной плотности, то уравнение представляет собой формулу для шара с центром в точке μ и радиусом σ в n-мерном пространстве. [14]

Гетероскедастичность возникает, когда количество ошибок коррелирует с независимой переменной. Например, в регрессии расходов на питание и дохода ошибка коррелирует с доходом. Люди с низким доходом, как правило, тратят аналогичную сумму на еду, в то время как люди с высоким доходом могут тратить очень большую сумму или меньше, чем люди с низким доходом. Гетероскедастичность также может быть вызвана изменениями в методах измерения. Например, по мере того, как статистические управления улучшают свои данные, ошибка измерения уменьшается, поэтому член ошибки со временем уменьшается.

Это предположение нарушается при наличии автокорреляции . Автокорреляцию можно визуализировать на графике данных, когда данное наблюдение с большей вероятностью будет лежать выше подобранной линии, если соседние наблюдения также лежат выше подобранной линии регрессии. Автокорреляция распространена в данных временных рядов, где ряды данных могут испытывать «инерцию». Если зависимой переменной требуется время, чтобы полностью поглотить шок. Пространственная автокорреляция также может иметь место в географических областях, которые, вероятно, будут иметь аналогичные ошибки. Автокорреляция может быть результатом неправильной спецификации, например, выбора неправильной функциональной формы. В этих случаях исправление спецификации является одним из возможных способов борьбы с автокорреляцией.

При наличии сферических ошибок можно показать, что обобщенная оценка методом наименьших квадратов имеет СИНИЙ цвет. [6]

Смотрите также

  • Независимые и одинаково распределенные случайные величины
  • Линейная регрессия
  • Погрешность измерения

Другая объективная статистика

  • Лучший линейный несмещенный прогноз (BLUP)
  • Непредвзятая оценка минимальной дисперсии (MVUE)

использованная литература

  1. ^ См. главу 7 Джонсона, Р.А.; Вичерн, Д. В. (2002). Прикладной многофакторный статистический анализ . Том. 5. Ученический зал.
  2. ^ Тейл, Анри (1971). «Лучшая линейная объективная оценка и прогноз». Принципы эконометрики . Нью-Йорк: Джон Уайли и сыновья. стр.  119–124 . ISBN 0-471-85845-5.
  3. ^ Плакетт, Р.Л. (1949). «Историческая заметка о методе наименьших квадратов». Биометрика . 36 (3/4): 458–460. дои : 10.2307/2332682 .
  4. ^ Дэвид, FN; Нейман, Дж. (1938). «Расширение теоремы Маркова о наименьших квадратах». Мемуары статистических исследований . 2 : 105–116. OCLC 4025782 . 
  5. ^ a b Эйткен, AC (1935). «О наименьших квадратах и ​​линейных комбинациях наблюдений». Труды Королевского общества Эдинбурга . 55 : 42–48. дои : 10.1017/S0370164600014346 .
  6. ^ б Хуанг , Дэвид С. (1970). Регрессионные и эконометрические методы . Нью-Йорк: Джон Уайли и сыновья. стр.  127–147 . ISBN 0-471-41754-8.
  7. ^ Хаяси, Фумио (2000). Эконометрика . Издательство Принстонского университета. п. 13. ISBN 0-691-01018-8.
  8. ^ Уолтерс, А.А. (1970). Введение в эконометрику . Нью-Йорк: В. В. Нортон. п. 275. ИСБН 0-393-09931-8.
  9. ^ Хаяси, Фумио (2000). Эконометрика . Издательство Принстонского университета. п. 7. ISBN 0-691-01018-8.
  10. ^ Джонстон, Джон (1972). Эконометрические методы (второе изд.). Нью-Йорк: Макгроу-Хилл. стр.  267–291 . ISBN 0-07-032679-7.
  11. ^ Вулдридж, Джеффри (2012). Введение в эконометрику (пятое международное изд.). Юго-Западный. п. 220 . ISBN 978-1-111-53439-4.
  12. ^ Джонстон, Джон (1972). Эконометрические методы (второе изд.). Нью-Йорк: Макгроу-Хилл. стр.  159–168 . ISBN 0-07-032679-7.
  13. ^ Хаяси, Фумио (2000). Эконометрика . Издательство Принстонского университета. п. 10. ISBN 0-691-01018-8.
  14. ^ Раманатан, Раму (1993). «Несферические возмущения». Статистические методы в эконометрике . Академическая пресса. стр.  330–351 . ISBN 0-12-576830-3.

дальнейшее чтение

  • Дэвидсон, Джеймс (2000). «Статистический анализ регрессионной модели». Эконометрическая теория . Оксфорд: Блэквелл. стр. 17–36. ISBN 0-631-17837-6.
  • Голдбергер, Артур (1991). «Классическая регрессия». Курс эконометрики . Кембридж: Издательство Гарвардского университета. С.  160–169 . ISBN 0-674-17544-1.
  • Тейл, Анри (1971). «Минимальные квадраты и стандартная линейная модель». Принципы эконометрики . Нью-Йорк: Джон Уайли и сыновья. стр.  101–162 . ISBN 0-471-85845-5.

внешняя ссылка

  • Самые ранние известные случаи использования некоторых математических слов: G (краткая история и объяснение названия)
  • Доказательство теоремы Гаусса-Маркова для множественной линейной регрессии (с использованием матричной алгебры)
  • Доказательство теоремы Гаусса-Маркова с использованием геометрии
Получено с https://en.wikipedia.org/w/index.php?title=Gauss–Markov_theorem&oldid=1062520772 "