Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

В статистике количество степеней свободы - это количество значений в окончательном расчете статистики, которые могут изменяться. [1]

Количество независимых способов, которыми динамическая система может двигаться, не нарушая каких-либо ограничений, наложенных на нее, называется числом степеней свободы. Другими словами, количество степеней свободы можно определить как минимальное количество независимых координат, которые могут полностью определять положение системы.

Оценки статистических параметров могут основываться на различном количестве информации или данных. Количество независимых частей информации, которые используются для оценки параметра, называется степенями свободы. В общем, степени свободы оценки параметра равны количеству независимых баллов , входящих в оценку, за вычетом количества параметров, используемых в качестве промежуточных шагов при оценке самого параметра (в большинстве случаев дисперсия выборки имеет N  - 1 степень свободы, так как вычисляется из N случайных оценок минус единственный параметр, оцененный как промежуточный шаг, который является выборочным средним). [2]

С математической точки зрения, степени свободы - это количество измерений области случайного вектора или, по сути, количество «свободных» компонентов (сколько компонентов необходимо знать, прежде чем вектор будет полностью определен).

Этот термин чаще всего используется в контексте линейных моделей ( линейная регрессия , дисперсионный анализ ), где определенные случайные векторы ограничены лежать в линейных подпространствах , а количество степеней свободы является размерностью подпространства . Степени свободы также обычно связаны с квадратами длин (или «суммой квадратов» координат) таких векторов, а также с параметрами распределения хи-квадрат и других распределений, которые возникают в связанных задачах статистического тестирования.

Хотя вводные учебники могут вводить степени свободы в качестве параметров распределения или посредством проверки гипотез, именно основная геометрия определяет степени свободы и имеет решающее значение для правильного понимания концепции.

История [ править ]

Хотя основная концепция степеней свободы была признана еще в 1821 году в работе немецкого астронома и математика Карла Фридриха Гаусса , [3] его современное определение и использование было первым разработан английским статистиком Госсет в его 1908 Biometrika статье « Вероятная ошибка среднего », изданная под псевдонимом« Студент ». [4] Хотя Госсет на самом деле не использовал термин «степени свободы», он объяснил эту концепцию в ходе разработки того, что стало известно как t-распределение Стьюдента . Сам термин был популяризирован английским статистиком и биологом Рональдом Фишером , начиная с его работы 1922 года о квадратах хи.[5]

Обозначение [ править ]

В уравнениях типичный символ степеней свободы - ν (строчная греческая буква ню ). В тексте и таблицах обычно используется сокращение df. Р. А. Фишер использовал n для обозначения степеней свободы, но современное использование обычно оставляет n для размера выборки.

Случайных векторов [ править ]

Геометрически степени свободы можно интерпретировать как размерность определенных векторных подпространств. В качестве отправной точки предположим, что у нас есть выборка независимых нормально распределенных наблюдений,

Это можно представить как n- мерный случайный вектор :

Поскольку этот случайный вектор может лежать где угодно в n -мерном пространстве, он имеет n степеней свободы.

Теперь позвольте быть выборочным средним . Случайный вектор можно разложить как сумму выборочного среднего плюс вектор остатков:

Первый вектор в правой части ограничен, чтобы быть кратным вектору единиц, и единственная свободная величина равна . Следовательно, он имеет 1 степень свободы.

Второй вектор ограничен соотношением . Первые n  - 1 компонент этого вектора могут быть любыми. Однако, как только вы узнаете первые n  - 1 компонент, ограничение сообщит вам значение n- го компонента. Следовательно, этот вектор имеет n  - 1 степень свободы.

Математически первый вектор представляет собой ортогональную проекцию вектора данных по методу наименьших квадратов на подпространство, охватываемое вектором единиц. 1 степень свободы - это размерность этого подпространства. Второй вектор невязки является проекцией методом наименьших квадратов на ( n  - 1) -мерное ортогональное дополнение этого подпространства и имеет n  - 1 степень свободы.

В приложениях статистического тестирования часто напрямую интересуют не составляющие векторы, а их квадраты длин. В приведенном выше примере остаточная сумма квадратов равна

Если точки данных обычно распределены со средним значением 0 и дисперсией , то остаточная сумма квадратов имеет масштабированное распределение хи-квадрат (масштабируемое по коэффициенту ) с n  - 1 степенями свободы. Степени свободы, здесь параметр распределения, все еще можно интерпретировать как размерность лежащего в основе векторного подпространства.

Аналогично, статистика t- критерия для одной выборки ,

следует t- распределению Стьюдента с n  - 1 степенями свободы, когда гипотетическое среднее верно. Опять же, степени свободы возникают из остаточного вектора в знаменателе.

В моделях структурных уравнений [ править ]

Когда представлены результаты моделей структурных уравнений (SEM), они обычно включают один или несколько показателей общего соответствия модели, наиболее распространенным из которых является статистика χ 2 . Это составляет основу для других обычно публикуемых индексов. Хотя чаще всего интерпретируются именно эти другие статистические данные, степени свободы χ 2 имеют важное значение для понимания соответствия модели, а также природы самой модели.

Степени свободы в SEM вычисляются как разность между количеством уникальных частей информации, которые используются в качестве входных данных для анализа, иногда называемых известными, и количеством параметров, которые однозначно оцениваются, иногда называемых неизвестными. Например, в однофакторном подтверждающем факторном анализе с 4 элементами имеется 10 известных (шесть уникальных ковариаций среди четырех элементов и четыре дисперсии элементов) и 8 неизвестных (4 факторные нагрузки и 4 дисперсии ошибок) для 2 степеней вероятности. Свобода. Степени свободы важны для понимания соответствия модели, хотя бы по той или иной причине, при прочих равных, чем меньше степеней свободы, тем лучше будут показатели, такие как χ 2 .

Было показано, что степени свободы могут использоваться читателями статей, содержащих SEM, чтобы определить, действительно ли авторы этих статей сообщают правильную статистику соответствия модели. В организационных науках, например, почти половина статей, опубликованных в ведущих журналах, сообщают о степенях свободы, несовместимых с моделями, описанными в этих статьях, оставляя читателя гадать, какие модели были фактически протестированы. [6]

Остатков [ править ]

Обычный способ думать о степенях свободы - это количество независимых частей информации, доступных для оценки другой части информации. Более конкретно, количество степеней свободы - это количество независимых наблюдений в выборке данных, доступных для оценки параметра генеральной совокупности, из которой эта выборка взята. Например, если у нас есть два наблюдения, при вычислении среднего у нас есть два независимых наблюдения; однако при вычислении дисперсии у нас есть только одно независимое наблюдение, поскольку два наблюдения одинаково удалены от выборочного среднего.

При подгонке статистических моделей к данным векторы остатков должны лежать в пространстве меньшей размерности, чем количество компонентов в векторе. Этот меньший размер представляет собой количество степеней свободы ошибки , также называемых остаточными степенями свободы .

Пример

Пожалуй, самый простой пример - это. Предполагать

являются случайными величинами , каждая с ожидаемым значением ц , и пусть

быть «выборочным средним». Тогда величины

являются остатки , которые могут быть рассмотрены оценки этих ошибок X I  -  μ . Сумма остатков (в отличие от суммы ошибок) обязательно равна 0. Если кто-то знает значения любых n  - 1 остатков, можно таким образом найти последнее. Это означает, что они должны лежать в пространстве размерности n  - 1. Говорят, что существует n  - 1 степень свободы для ошибок.

Пример, который лишь немного менее прост, - это оценка методом наименьших квадратов a и b в модели.

где x i задан, но e i и, следовательно, Y i случайны. Позвольте и быть оценками наименьших квадратов a и b . Тогда остатки

ограничены пространством, определяемым двумя уравнениями

Один говорит, что существует n  - 2 степени свободы ошибки.

Notationally, заглавная буква Y используется в определении модели, в то время как в нижнем регистре у в определении остатков; это потому, что первые являются гипотетическими случайными величинами, а вторые - фактическими данными.

Мы можем обобщить это на множественную регрессию, включающую p параметров и ковариат (например, p  - 1 предикторов и одно среднее (= пересечение в регрессии)), и в этом случае стоимость в степенях свободы подгонки равна p , оставляя n - p степеней свободы на ошибки

В линейных моделях [ править ]

Демонстрация распределений t и хи-квадрат для задач с одним образцом выше является простейшим примером возникновения степеней свободы. Однако подобная геометрия и векторные разложения лежат в основе большей части теории линейных моделей , включая линейную регрессию и дисперсионный анализ . Здесь представлен явный пример, основанный на сравнении трех средних; более подробно геометрия линейных моделей обсуждается Кристенсеном (2002). [7]

Предположим, что независимые наблюдения проводятся для трех популяций , и . Ограничение тремя группами и равными размерами выборки упрощает обозначения, но идеи легко обобщаются.

Наблюдения можно разложить как

где - средние значения отдельных выборок, а - среднее значение всех 3 n наблюдений. В векторных обозначениях это разложение можно записать как

Вектор наблюдения, расположенный слева, имеет 3 n степеней свободы. В правой части первый вектор имеет одну степень свободы (или размерность) для общего среднего. Второй вектор зависит от трех случайных величин , и . Однако они должны быть равны 0 и поэтому ограничены; вектор, следовательно, должен лежать в двумерном подпространстве и иметь 2 степени свободы. Остальные 3 n  - 3 степени свободы находятся в остаточном векторе (состоящем из n  - 1 степеней свободы в каждой из популяций).

В дисперсионном анализе (ANOVA) [ править ]

В задачах статистического тестирования обычно интересуют не сами составляющие векторы, а их квадраты длин или сумма квадратов. Степени свободы, связанные с суммой квадратов, представляют собой степени свободы соответствующих составляющих векторов.

Приведенный выше пример с тремя популяциями является примером одностороннего дисперсионного анализа . Модель, или обработка, сумма квадратов - это квадрат длины второго вектора,

с 2 степенями свободы. Остаточная сумма квадратов, или ошибка, равна

с 3 ( n - 1) степенями свободы. Конечно, вводные книги по ANOVA обычно формулируют формулы без отображения векторов, но именно эта основная геометрия дает начало формулам SS и показывает, как однозначно определять степени свободы в любой данной ситуации.

При нулевой гипотезе об отсутствии разницы между средними значениями совокупности (и при условии, что стандартные предположения регулярности дисперсионного анализа удовлетворяются) суммы квадратов имеют масштабированные распределения хи-квадрат с соответствующими степенями свободы. Статистика F-критерия - это отношение после масштабирования по степеням свободы. Если нет разницы между популяциями, значит, это соотношение следует F -распределению с 2 и 3 n  - 3 степенями свободы.

В некоторых сложных настройках, таких как несбалансированные планы с разделением графиков, суммы квадратов больше не имеют масштабированного распределения хи-квадрат. Сравнение суммы квадратов со степенями свободы больше не имеет смысла, и в этих случаях программное обеспечение может сообщать об определенных дробных «степенях свободы». Такие числа не имеют подлинной интерпретации степеней свободы, а просто обеспечивают приблизительное распределение хи-квадрат для соответствующей суммы квадратов. Детали таких приближений выходят за рамки этой страницы.

В вероятностных распределениях [ править ]

Некоторые часто встречающиеся статистические распределения ( t Стьюдента , хи-квадрат , F ) имеют параметры, которые обычно называют степенями свободы . Эта терминология просто отражает то, что во многих приложениях, где встречаются эти распределения, параметр соответствует степеням свободы лежащего в основе случайного вектора, как в предыдущем примере ANOVA. Другой простой пример: если являются независимыми нормальными случайными величинами, статистика

следует распределению хи-квадрат с n  - 1 степенями свободы. Здесь степени свободы возникают из остаточной суммы квадратов в числителе и, в свою очередь, из n  - 1 степеней свободы лежащего в основе остаточного вектора .

При применении этих распределений к линейным моделям параметры степеней свободы могут принимать только целые значения. Базовые семейства распределений допускают дробные значения для параметров степеней свободы, которые могут возникнуть при более сложных применениях. Один набор примеров - это задачи, в которых используются приближения хи-квадрат, основанные на эффективных степенях свободы . В других приложениях, таких как моделирование данных с тяжелыми хвостами , в качестве эмпирической модели может использоваться at- или F- распределение. В этих случаях нет конкретной интерпретации степеней свободы для параметров распределения, даже если терминология может и дальше использоваться.

В нестандартной регрессии [ править ]

Многие нестандартные методы регрессии, в том числе регуляризованные методы наименьших квадратов (например, гребневая регрессия ), линейные сглаживания , сглаживающие сплайны и полупараметрическая регрессия , основаны не на обычных проекциях наименьших квадратов , а на регуляризованных ( обобщенных и / или штрафных) методах наименьших квадратов. , поэтому степени свободы, определенные в терминах размерности, обычно не используются для этих процедур. Однако эти процедуры по-прежнему линейны в наблюдениях, и подогнанные значения регрессии могут быть выражены в виде

где - вектор подобранных значений для каждого из исходных значений ковариации из подобранной модели, y - исходный вектор ответов, а H - матрица шляпы или, в более общем смысле, более гладкая матрица.

Для статистических выводов суммы квадратов все еще могут быть сформированы: сумма квадратов модели равна ; остаточная сумма квадратов равна . Однако, поскольку H не соответствует обычному методу наименьших квадратов (то есть не является ортогональной проекцией), эти суммы квадратов больше не имеют (масштабированных, нецентральных) распределений хи-квадрат и размерно определенных степеней -свободы бесполезны.

В эффективной степени свободы фиты может быть определена различными способами для реализации благости-о-приступа тестов , кросс-проверки , а также другие статистических выводы процедуры. Здесь можно различать эффективные степени свободы регрессии и остаточные эффективные степени свободы .

Эффективные степени свободы регрессии [ править ]

Для эффективных степеней свободы регрессии соответствующие определения могут включать след матрицы шляп [8] tr ( H ), след квадратичной формы матрицы шляпы tr ( H'H ), форму tr (2 H - H H ' ), или приближение Саттертуэйта , tr ( H'H ) 2 / tr ( H'HH'H ) . [9] В случае линейной регрессии матрица шляпы H равна X ( X  ' X ) −1 X', и все эти определения сводятся к обычным степеням свободы. Заметь

регрессионные (не остаточные) степени свободы в линейных моделях - это «сумма чувствительности подобранных значений по отношению к наблюдаемым значениям отклика» [10], то есть сумма баллов рычага .

Один из способов понять это - рассмотреть простую матрицу сглаживания, такую ​​как размытие по Гауссу , которая используется для уменьшения шума данных. В отличие от простой линейной или полиномиальной аппроксимации, вычисление эффективных степеней свободы сглаживающей функции непросто. В этих случаях важно оценить степени свободы, допускаемые матрицей, чтобы затем можно было использовать остаточные степени свободы для оценки статистических тестов, таких как .

Остаточные эффективные степени свободы [ править ]

Есть соответствующие определения остаточного эффективных степеней свободы (RedF), с Н заменен I  -  H . Например, если целью является оценка дисперсии ошибки, redf будет определен как tr (( I  -  H ) '( I  -  H )), а несмещенная оценка будет (с ),

или: [11] [12] [13] [14]

Последнее приближение, приведенное выше [12], снижает вычислительные затраты с O ( n 2 ) до O ( n ). В общем числитель будет минимизируемой целевой функцией; например, если матрица шляпы включает в себя ковариационную матрицу наблюдения, Σ, то становится .

Общие [ править ]

Обратите внимание, что, в отличие от исходного случая, допускаются нецелочисленные степени свободы, хотя значение обычно должно быть ограничено от 0 до n . [15]

Рассмотрим в качестве примера, к - ближайший сосед более гладкой, которая является средним значением к ближайшей измеренных значений в данной точке. Затем в каждой из n измеренных точек вес исходного значения линейной комбинации, которая составляет прогнозируемое значение, составляет всего 1 / k . Таким образом, след матрицы шляпы равен n / k . Таким образом, сглаживание стоит n / k эффективных степеней свободы.

В качестве другого примера рассмотрим существование почти повторяющихся наблюдений. Наивное применение классической формулы n - p привело бы к завышенной оценке степени свободы остатков, как если бы каждое наблюдение было независимым. Однако более реалистично матрица шляпы H = X ( X  'Σ −1 X ) −1 X' Σ −1 будет включать в себя ковариационную матрицу наблюдения Σ, указывающую на ненулевую корреляцию между наблюдениями.

Более общая формулировка эффективной степени свободы привела бы к более реалистичной оценке, например, дисперсии ошибки σ 2 , которая, в свою очередь, масштабирует апостериорное стандартное отклонение неизвестных параметров ; степень свободы также будет влиять на коэффициент расширения, необходимый для создания эллипса ошибок для данного уровня достоверности .

Другие формулировки [ править ]

Подобные понятия являются эквивалентной степенью свободы в непараметрической регрессии , [16] степень свободы сигнала в атмосферных исследованиях, [17] [18] и нецелая степень свободы в геодезии. [19] [20]

Остаточная сумма квадратов имеет обобщенное распределение хи-квадрат , и теория, связанная с этим распределением [21], предлагает альтернативный путь к ответам, приведенным выше. [ требуется дальнейшее объяснение ]

См. Также [ править ]

  • Хи-квадрат на степень свободы
  • Объединенные степени свободы
  • Репликация (статистика)
  • Размер образца
  • Статистическая модель
  • Дисперсия

Ссылки [ править ]

  1. ^ «Степени свободы» . Глоссарий статистических терминов . Анимационный софт . Проверено 21 августа 2008 .
  2. ^ Лейн, Дэвид М. «Степени свободы» . HyperStat Online . Статистические решения . Проверено 21 августа 2008 .
  3. Перейти ↑ Walker, HM (апрель 1940). «Степени свободы» (PDF) . Журнал педагогической психологии . 31 (4): 253–269. DOI : 10.1037 / h0054588 .
  4. Студент (март 1908 г.). «Вероятная ошибка среднего» . Биометрика . 6 (1): 1–25. DOI : 10.2307 / 2331554 . JSTOR 2331554 . 
  5. Перейти ↑ Fisher, RA (январь 1922 г.). «Об интерпретации χ2 из таблиц непредвиденных обстоятельств и вычислении P» . Журнал Королевского статистического общества . 85 (1): 87–94. DOI : 10.2307 / 2340521 . JSTOR 2340521 . 
  6. Перейти ↑ Cortina, JM, Green, JP, Keeler, KR, & Vandenberg, RJ (2017). Степени свободы в SEM: тестируем ли мы модели, которые, как мы заявляем, тестируют? Организационные методы исследования, 20 (3), 350-378.
  7. ^ Кристенсен, Рональд (2002). Плоские ответы на сложные вопросы: теория линейных моделей (Третье изд.). Нью-Йорк: Спрингер. ISBN 0-387-95361-2.
  8. ^ Тревор Хасти , Роберт Тибширани , Джером Х. Фридман (2009), Элементы статистического обучения: интеллектуальный анализ данных, вывод и прогнозирование , 2-е изд., 746 стр. ISBN 978-0-387-84857-0 , DOI : 10.1007 / 978-0-387-84858-7 , [1] (уравнение (5.16)) 
  9. ^ Фокс, J .; Sage Publications, inc; МУДРЕЦ. (2000). Непараметрическая простая регрессия: сглаживающие диаграммы рассеяния . Непараметрическая простая регрессия: сглаживающие диаграммы рассеяния. Публикации SAGE. п. 58. ISBN 978-0-7619-1585-0. Проверено 28 августа 2020 .
  10. ^ Йе, Дж. (1998), «Об измерении и корректировке результатов интеллектуального анализа данных и выбора модели», Журнал Американской статистической ассоциации , 93 (441), 120–131. JSTOR  2669609 (уравнение (7))
  11. ^ Clive погрузчик (1999), локальная регрессия и вероятность того , ISBN 978-0-387-98775-0 , DOI : 10.1007 / b98858 , (.. Э (2.18), р 30) 
  12. ^ a b Тревор Хасти, Роберт Тибширани (1990), Обобщенные аддитивные модели , CRC Press, (стр. 54) и (уравнение (B.1), стр. 305))
  13. ^ Саймон Н. Вуд (2006), Обобщенные аддитивные модели: введение в R , CRC Press, (уравнение (4,14), стр.172)
  14. ^ Дэвид Рупперт, MP Wand, RJ Carroll (2003), Полупараметрическая регрессия , Cambridge University Press (уравнение (3.28), стр. 82)
  15. ^ Джеймс С. Ходжес (2014) Богато параметризованные линейные модели , CRC Press. [2]
  16. ^ Питер Дж. Грин, Б. В. Сильверман (1994), Непараметрическая регрессия и обобщенные линейные модели: подход штрафа за грубость , CRC Press (уравнение (3.15), стр. 37)
  17. ^ Клайв Д. Роджерс (2000), Обратные методы атмосферного зондирования: теория и практика , World Scientific (уравнение (2.56), стр. 31)
  18. ^ Адриан Дойку, Томас Траутманн, Франц Шрайер (2010), Численная регуляризация для атмосферных обратных задач , Springer (уравнение (4.26), стр.114)
  19. ^ Д. Донг, Т. сельдь и Р. Кинг (1997), Оценка региональной деформации из комбинации космических и наземных геодезических данных, J. геодезии , 72 (4), 200-214, DOI : 10.1007 / s001900050161 . (Экв (27 ), стр.205)
  20. ^ Х. Тейл (1963), «Об использованиинеполной априорной информации в регрессионном анализе», Журнал Американской статистической ассоциации , 58 (302), 401–414 JSTOR  2283275 (уравнение (5.19) - (5.20))
  21. ^ Джонс, DA (1983) "Статистический анализ эмпирических моделей, подогнанных оптимизацией", Biometrika , 70 (1), 67–88

Дальнейшее чтение [ править ]

  • Бауэрс, Дэвид (1982). Статистика для экономистов . Лондон: Макмиллан. С. 175–178. ISBN 0-333-30110-2.
  • Эйзенхауэр, JG (2008). "Степени свободы". Статистика обучения . 30 (3): 75–78. DOI : 10.1111 / j.1467-9639.2008.00324.x .
  • Хорошо, Эй Джей (1973). «Что такое степени свободы?». Американский статистик . 27 (5): 227–228. DOI : 10.1080 / 00031305.1973.10479042 . JSTOR  3087407 .
  • Уокер, HW (1940). "Степени свободы". Журнал педагогической психологии . 31 (4): 253–269. DOI : 10.1037 / h0054588 . Транскрипция К. Олсена с опечатками

Внешние ссылки [ править ]

  • Yu, Chong-ho (1997), иллюстрирующие степени свободы с точки зрения размера выборки и размерности
  • Даллал, GE. (2003) Степени свободы