Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

В статистике , то объяснил сумму квадратов (ESS), в качестве альтернативы известный как модель суммы квадратов или суммы квадратов из - за регресса ( «ССР» - не следует путать с остаточной суммой квадратов RSS или суммы квадратов ошибок) , - величина, используемая для описания того, насколько хорошо модель, часто регрессионная , представляет моделируемые данные. В частности, объясненная сумма квадратов измеряет, насколько вариативны смоделированные значения, и сравнивается с общей суммой квадратов (TSS), которая измеряет, насколько вариативны наблюдаемые данные, и с остаточной суммой квадраты, который измеряет разброс ошибки между наблюдаемыми данными и смоделированными значениями.

Определение [ править ]

Объяснено сумма квадратов (ЕСС) представляет собой сумму квадратов отклонений прогнозируемых значений от среднего значения переменного отклика, в стандартной регрессионной модели - например, у я = + Ь 1 х 1 я + b 2 x 2 i + ... + ε i , где y i - i- е наблюдение переменной ответа , x ji - i- е наблюдение j- го объясняющая переменная , a и b j - коэффициенты , i индексирует наблюдения от 1 до n , а ε i - i-  е значение члена ошибки . В целом, чем больше ESS, тем лучше работает оценочная модель.

Если и - оценочные коэффициенты , то

- i-  е прогнозируемое значение переменной ответа. ESS тогда:

где значение, оцениваемое линией регрессии. [1]

В некоторых случаях (см. Ниже): общая сумма квадратов (TSS) =  объясненная сумма квадратов  (ESS)остаточная сумма квадратов ( RSS ).

Разбиение в простой линейной регрессии [ править ]

Следующее равенство, гласящее, что общая сумма квадратов (TSS) равна остаточной сумме квадратов (= SSE: сумма квадратов ошибок предсказания) плюс объясненная сумма квадратов (SSR: сумма квадратов из-за регрессии или объясненных сумма квадратов), как правило, верно в простой линейной регрессии:

Простой вывод [ править ]

Возведите обе стороны в квадрат и просуммируйте по всем i :

Вот как последний член выше равен нулю из простой линейной регрессии [2]

Так,

Следовательно,

Разбиение в общей обычной модели наименьших квадратов [ править ]

Общая регрессионная модель с n наблюдениями и k объяснителями, первый из которых представляет собой постоянный единичный вектор, коэффициент которого является пересечением регрессии, является

где y - вектор наблюдений зависимой переменной размера n × 1, каждый столбец матрицы X размера n × k - вектор наблюдений на одном из k объяснителей, - вектор истинных коэффициентов k × 1, а e - размер n × 1 вектор истинных основных ошибок. В обычный метод наименьших квадратов Оценщик IS

Остаточный вектор равен , поэтому остаточная сумма квадратов после упрощения равна

Обозначим как постоянный вектор, все элементы которого являются выборочным средним значений зависимой переменной в векторе y . Тогда общая сумма квадратов равна

Объясненная сумма квадратов, определяемая как сумма квадратов отклонений предсказанных значений от наблюдаемого среднего значения y , равна

Использование в этом и упрощение получения дает результат, что TSS = ESS + RSS тогда и только тогда, когда . Левая часть от этого умножается на сумму элементов y , а правая часть умножается на сумму элементов , поэтому условие состоит в том, что сумма элементов y равна сумме элементов , или, что эквивалентно что сумма ошибок предсказания (остатков) равна нулю. В этом можно убедиться, отметив хорошо известное свойство OLS, что вектор k × 1 : поскольку первый столбец X- вектор единиц, первый элемент этого вектора представляет собой сумму остатков и равен нулю. Это доказывает выполнение условия TSS = ESS + RSS .

В линейных терминах алгебры, мы имеем , , . Доказательство можно упростить, отметив это . Доказательство таково:

Таким образом,

что снова дает результат TSS = ESS + RSS , поскольку .

См. Также [ править ]

Заметки [ править ]

  1. ^ «Сумма квадратов - определение, формулы, регрессионный анализ» . Институт корпоративных финансов . Проверено 11 июня 2020 .
  2. ^ Менденхолл, Уильям (2009). Введение в вероятность и статистику (13-е изд.). Бельмонт, Калифорния: Брукс / Коул. п. 507. ISBN. 9780495389538.

Ссылки [ править ]

  • С. Е. Максвелл и HD Делани (1990), "Планирование экспериментов и анализ данных: перспектива сравнения моделей". Уодсворт. С. 289–290.
  • Г.А. Милликен и Д.Е. Джонсон (1984), "Анализ неаккуратных данных", Vol. Я: Спланированные эксперименты. Ван Ностранд Рейнхольд. С. 146–151.
  • Табачник Б.Г. и Фиделл Л.С. (2007), "Экспериментальный дизайн с использованием дисперсионного анализа". Даксбери. п. 220.
  • Табачник Б.Г. и Фиделл Л.С. (2007), "Использование многомерной статистики", 5-е изд. Pearson Education. С. 217–218.