В статистике теорема Гаусса-Маркова (или просто теорема Гаусса для некоторых авторов) [1] утверждает, что обычная оценка методом наименьших квадратов (OLS) имеет наименьшую дисперсию выборки в классе линейных несмещенных оценок , если ошибки в линейной регрессии модели некоррелированы , имеют равные дисперсии и нулевое математическое ожидание. [2] Ошибки не обязательно должны быть нормальными , они не должны быть независимыми и одинаково распределенными . (только некоррелированные со средним нулем и гомоскедастические с конечной дисперсией). От требования несмещенности оценщика нельзя отказаться, поскольку существуют смещенные оценщики с меньшей дисперсией. См., например, оценку Джеймса-Стейна (которая также снижает линейность), гребневую регрессию или просто любую вырожденную оценку.
Теорема была названа в честь Карла Фридриха Гаусса и Андрея Маркова , хотя работа Гаусса значительно предшествует работе Маркова. [3] Но в то время как Гаусс вывел результат в предположении независимости и нормальности, Марков свел предположения к форме, изложенной выше. [4] Дальнейшее обобщение несферических ошибок было дано Александром Эйткеном . [5]
Содержание
1 Заявление
1.1 Примечание
2 Доказательство
3 Замечания по доказательству
4 Обобщенная оценка методом наименьших квадратов
5 Теорема Гаусса – Маркова, сформулированная в эконометрике.
5.1 Линейность
5.2 Строгая экзогенность
5.3 Полный ранг
5.4 Сферические ошибки
6 См. также
6.1 Другая объективная статистика
7 ссылок
8 Дополнительная литература
9 Внешние ссылки
Заявление
Предположим, что у нас есть в матричных обозначениях,
расширение до,
где - неслучайные, но ненаблюдаемые параметры, неслучайны и наблюдаемы (называемые «объясняющими переменными»), случайны и, следовательно , случайны. Случайные величины называются «помехами», «шумами» или просто «ошибками» (позже в статье они будут противопоставлены «остаткам»; см. ошибки и остатки в статистике ). Обратите внимание, что для включения константы в приведенную выше модель можно ввести константу как переменную с недавно введенным последним столбцом X, равным единице, т . е. для всех . Обратите внимание, что хотя в качестве примеров ответов можно наблюдать, следующие утверждения и аргументы, включая предположения,доказательства, а остальные предполагают в соответствии столько условие знания, но не
Они гомоскедастичны , то есть все имеют одинаковую конечную дисперсию: для всех и
Отдельные члены ошибок не коррелированы:
Линейная оценка представляет собой линейную комбинацию
в котором коэффициенты не могут зависеть от базовых коэффициентов , так как они не наблюдаемы, но могут зависеть от значений , поскольку эти данные наблюдаемы. (Зависимость коэффициентов от каждого обычно нелинейна; оценка линейна в каждом и, следовательно, в каждом случайном случае , поэтому это «линейная» регрессия .) Говорят, что оценка является несмещенной тогда и только тогда, когда
вне зависимости от значений . Теперь пусть будет некоторая линейная комбинация коэффициентов. Тогда среднеквадратическая ошибка соответствующей оценки равна
другими словами, это ожидание квадрата взвешенной суммы (по параметрам) различий между оценщиками и соответствующими оцениваемыми параметрами. (Поскольку мы рассматриваем случай, когда все оценки параметров несмещены, эта среднеквадратическая ошибка совпадает с дисперсией линейной комбинации.) Наилучшей линейной несмещенной оценкой (СИНЕЙ) вектора параметров является та, у которой наименьшая среднеквадратическая ошибка для каждого вектора параметров линейной комбинации. Это эквивалентно условию, что
является положительной полуопределенной матрицей для любой другой линейной несмещенной оценки .
Обычная оценка методом наименьших квадратов (OLS) - это функция
of и (где обозначает транспонирование ) , которое минимизирует сумму квадратов остатков (количество ошибочных предсказаний):
Теорема теперь утверждает, что оценка МНК является СИНЕЙ. Основная идея доказательства состоит в том, что оценка методом наименьших квадратов некоррелирована с каждой линейной несмещенной оценкой нуля, т. е. с каждой линейной комбинацией , коэффициенты которой не зависят от ненаблюдаемого , но чье ожидаемое значение всегда равно нулю.
Примечание
Доказательство того, что МНК действительно МИНИМИЗИРУЕТ сумму квадратов невязок, может происходить следующим образом с вычислением матрицы Гессе и демонстрацией ее положительной определенности.
Функция MSE, которую мы хотим минимизировать, равна
для модели множественной регрессии с переменными p . Первая производная
где X - матрица дизайна
Матрица Гессе вторых производных
Предполагая, что столбцы линейно независимы, так что обратимо, пусть , тогда
Теперь позвольте быть собственным вектором .
С точки зрения векторного умножения это означает
где – собственное значение, соответствующее . Кроме того,
Наконец, поскольку собственный вектор был произвольным, это означает, что все собственные значения положительны, а значит , положительно определены. Таким образом,
действительно является локальным минимумом.
Доказательство
Позвольте быть другой линейной оценкой где где ненулевая матрица . Поскольку мы ограничиваемся несмещенными оценками, минимальная среднеквадратическая ошибка подразумевает минимальную дисперсию. Таким образом, цель состоит в том, чтобы показать, что такая оценка имеет дисперсию не меньше, чем у оценки МНК. Мы рассчитываем:
Следовательно, так как ненаблюдаема , несмещена тогда и только тогда, когда . Потом:
Так как DD' является положительно-полуопределенной матрицей, превосходит на положительно-полуопределенную матрицу.
Замечания по доказательству
Как было сказано ранее, условие положительной полуопределенности матрицы эквивалентно тому свойству, что наилучшая линейная несмещенная оценка есть (наилучшая в том смысле, что она имеет минимальную дисперсию). Чтобы увидеть это, пусть другая линейная несмещенная оценка .
Более того, равенство имеет место тогда и только тогда, когда . Мы рассчитываем
Это доказывает, что равенство выполняется тогда и только тогда , когда это дает уникальность оценки МНК как СИНЕЙ.
Обобщенная оценка методом наименьших квадратов
Метод обобщенных наименьших квадратов (GLS) , разработанный Эйткеном [5] , расширяет теорему Гаусса–Маркова на случай, когда вектор ошибок имеет нескалярную ковариационную матрицу. [6] Оценщик Эйткена также СИНИЙ.
Теорема Гаусса – Маркова, сформулированная в эконометрике.
В большинстве методов МНК регрессоры (параметры интереса) в матрице плана предполагаются фиксированными в повторяющихся выборках. Это предположение считается неуместным для такой преимущественно неэкспериментальной науки, как эконометрика . [7] Вместо этого предположения теоремы Гаусса–Маркова формулируются в зависимости от .
Линейность
Предполагается, что зависимая переменная является линейной функцией переменных, указанных в модели. Спецификация должна быть линейной по своим параметрам. Это не означает, что между независимыми и зависимыми переменными должна быть линейная зависимость. Независимые переменные могут принимать нелинейные формы, пока параметры линейны. Уравнение квалифицируется как линейное, хотя его можно преобразовать в линейное, заменив другим параметром, скажем, . Уравнение с параметром, зависящим от независимой переменной, не может считаться линейным, например , где - функция от .
Преобразования данных часто используются для преобразования уравнения в линейную форму. Например, функция Кобба-Дугласа, часто используемая в экономике, нелинейна:
Но его можно выразить в линейной форме, взяв натуральный логарифм обеих частей: [8]
Это предположение также охватывает вопросы спецификации: предполагается, что выбрана правильная функциональная форма и нет пропущенных переменных .
Однако следует помнить, что параметры, минимизирующие невязки преобразованного уравнения, не обязательно минимизируют невязки исходного уравнения.
Строгая экзогенность
Для всех наблюдений математическое ожидание члена ошибки, зависящее от регрессоров, равно нулю: [9]
где вектор данных регрессоров для i -го наблюдения и, следовательно , матрица данных или матрица плана.
Геометрически это предположение означает, что и ортогональны друг другу, так что их внутренний продукт (т. е. их перекрестный момент) равен нулю.
Это предположение нарушается, если объясняющие переменные являются стохастическими, например, когда они измерены с ошибкой или являются эндогенными . [10] Эндогенность может быть результатом одновременности , когда причинно-следственная связь течет туда и обратно между зависимой и независимой переменной. Методы инструментальных переменных обычно используются для решения этой проблемы.
Полный ранг
Матрица выборочных данных должна иметь полный ранг столбца .
В противном случае это необратимо, и оценка OLS не может быть вычислена.
Нарушением этого предположения является совершенная мультиколлинеарность , т.е. некоторые объясняющие переменные линейно зависимы. Один сценарий, в котором это произойдет, называется «ловушкой фиктивной переменной», когда базовая фиктивная переменная не пропускается, что приводит к идеальной корреляции между фиктивными переменными и постоянным членом. [11]
Мультиколлинеарность (если она не «идеальна») может присутствовать, что приводит к менее эффективной, но все же беспристрастной оценке. Оценки будут менее точными и очень чувствительными к конкретным наборам данных. [12] Мультиколлинеарность может быть обнаружена по номеру условия или фактору инфляции дисперсии , среди других тестов.
Сферические ошибки
Внешний продукт вектора ошибки должен быть сферическим.
Это означает, что член ошибки имеет равномерную дисперсию ( гомоскедастичность ) и не имеет последовательной зависимости. [13] Если это допущение нарушается, МНК остается беспристрастной, но неэффективной. Термин «сферические ошибки» будет описывать многомерное нормальное распределение: если в многомерной нормальной плотности, то уравнение представляет собой формулу для шара с центром в точке μ и радиусом σ в n-мерном пространстве. [14]
Гетероскедастичность возникает, когда количество ошибок коррелирует с независимой переменной. Например, в регрессии расходов на питание и дохода ошибка коррелирует с доходом. Люди с низким доходом, как правило, тратят аналогичную сумму на еду, в то время как люди с высоким доходом могут тратить очень большую сумму или меньше, чем люди с низким доходом. Гетероскедастичность также может быть вызвана изменениями в методах измерения. Например, по мере того, как статистические управления улучшают свои данные, ошибка измерения уменьшается, поэтому член ошибки со временем уменьшается.
Это предположение нарушается при наличии автокорреляции . Автокорреляцию можно визуализировать на графике данных, когда данное наблюдение с большей вероятностью будет лежать выше подобранной линии, если соседние наблюдения также лежат выше подобранной линии регрессии. Автокорреляция распространена в данных временных рядов, где ряды данных могут испытывать «инерцию». Если зависимой переменной требуется время, чтобы полностью поглотить шок. Пространственная автокорреляция также может иметь место в географических областях, которые, вероятно, будут иметь аналогичные ошибки. Автокорреляция может быть результатом неправильной спецификации, например, выбора неправильной функциональной формы. В этих случаях исправление спецификации является одним из возможных способов борьбы с автокорреляцией.
При наличии сферических ошибок можно показать, что обобщенная оценка методом наименьших квадратов имеет СИНИЙ цвет. [6]
Смотрите также
Независимые и одинаково распределенные случайные величины
Линейная регрессия
Погрешность измерения
Другая объективная статистика
Лучший линейный несмещенный прогноз (BLUP)
Непредвзятая оценка минимальной дисперсии (MVUE)
использованная литература
^ См. главу 7 Джонсона, Р.А.; Вичерн, Д. В. (2002). Прикладной многофакторный статистический анализ . Том. 5. Ученический зал.
^ Тейл, Анри (1971). «Лучшая линейная объективная оценка и прогноз». Принципы эконометрики . Нью-Йорк: Джон Уайли и сыновья. стр. 119–124 . ISBN 0-471-85845-5.
^ Дэвид, FN; Нейман, Дж. (1938). «Расширение теоремы Маркова о наименьших квадратах». Мемуары статистических исследований . 2 : 105–116. OCLC 4025782 .
^ a b Эйткен, AC (1935). «О наименьших квадратах и линейных комбинациях наблюдений». Труды Королевского общества Эдинбурга . 55 : 42–48. дои : 10.1017/S0370164600014346 .
^ б Хуанг , Дэвид С. (1970). Регрессионные и эконометрические методы . Нью-Йорк: Джон Уайли и сыновья. стр. 127–147 . ISBN 0-471-41754-8.
^ Хаяси, Фумио (2000). Эконометрика . Издательство Принстонского университета. п. 13. ISBN 0-691-01018-8.
^ Уолтерс, А.А. (1970). Введение в эконометрику . Нью-Йорк: В. В. Нортон. п. 275. ИСБН 0-393-09931-8.
^ Хаяси, Фумио (2000). Эконометрика . Издательство Принстонского университета. п. 7. ISBN 0-691-01018-8.
^ Джонстон, Джон (1972). Эконометрические методы (второе изд.). Нью-Йорк: Макгроу-Хилл. стр. 267–291 . ISBN 0-07-032679-7.
^ Вулдридж, Джеффри (2012). Введение в эконометрику (пятое международное изд.). Юго-Западный. п. 220 . ISBN 978-1-111-53439-4.
^ Джонстон, Джон (1972). Эконометрические методы (второе изд.). Нью-Йорк: Макгроу-Хилл. стр. 159–168 . ISBN 0-07-032679-7.
^ Хаяси, Фумио (2000). Эконометрика . Издательство Принстонского университета. п. 10. ISBN 0-691-01018-8.
^ Раманатан, Раму (1993). «Несферические возмущения». Статистические методы в эконометрике . Академическая пресса. стр. 330–351 . ISBN 0-12-576830-3.
дальнейшее чтение
Дэвидсон, Джеймс (2000). «Статистический анализ регрессионной модели». Эконометрическая теория . Оксфорд: Блэквелл. стр. 17–36. ISBN 0-631-17837-6.
Голдбергер, Артур (1991). «Классическая регрессия». Курс эконометрики . Кембридж: Издательство Гарвардского университета. С. 160–169 . ISBN 0-674-17544-1.
Тейл, Анри (1971). «Минимальные квадраты и стандартная линейная модель». Принципы эконометрики . Нью-Йорк: Джон Уайли и сыновья. стр. 101–162 . ISBN 0-471-85845-5.
внешняя ссылка
Самые ранние известные случаи использования некоторых математических слов: G (краткая история и объяснение названия)
Доказательство теоремы Гаусса-Маркова для множественной линейной регрессии (с использованием матричной алгебры)
Доказательство теоремы Гаусса-Маркова с использованием геометрии
втеМетод наименьших квадратов и регрессионный анализ
Вычислительная статистика
Наименьших квадратов
Линейный метод наименьших квадратов
Нелинейный метод наименьших квадратов
Метод наименьших квадратов с повторным взвешиванием