Эта статья требует внимания специалиста по статистике . Пожалуйста , добавьте причину в или разговоре параметр для этого шаблона , чтобы объяснить проблему с статьей. WikiProject Statistics может помочь нанять эксперта. ( Сентябрь 2009 г. )
В статистике , то объяснил сумму квадратов (ESS), в качестве альтернативы известный как модель суммы квадратов или суммы квадратов из - за регресса ( «ССР» - не следует путать с остаточной суммой квадратов RSS или суммы квадратов ошибок) , - величина, используемая для описания того, насколько хорошо модель, часто регрессионная , представляет моделируемые данные. В частности, объясненная сумма квадратов измеряет, насколько вариативны смоделированные значения, и сравнивается с общей суммой квадратов (TSS), которая измеряет, насколько вариативны наблюдаемые данные, и с остаточной суммой квадраты, который измеряет разброс ошибки между наблюдаемыми данными и смоделированными значениями.
Объяснено сумма квадратов (ЕСС) представляет собой сумму квадратов отклонений прогнозируемых значений от среднего значения переменного отклика, в стандартной регрессионной модели - например, у я = + Ь 1 х 1 я + b 2 x 2 i + ... + ε i , где y i - i- е наблюдение переменной ответа , x ji - i- е наблюдение j- гообъясняющая переменная , a и b j - коэффициенты , i индексирует наблюдения от 1 до n , а ε i - i- е значение члена ошибки . В целом, чем больше ESS, тем лучше работает оценочная модель.
Разбиение в простой линейной регрессии [ править ]
Следующее равенство, гласящее, что общая сумма квадратов (TSS) равна остаточной сумме квадратов (= SSE: сумма квадратов ошибок предсказания) плюс объясненная сумма квадратов (SSR: сумма квадратов из-за регрессии или объясненных сумма квадратов), как правило, верно в простой линейной регрессии:
Разбиение в общей обычной модели наименьших квадратов [ править ]
Общая регрессионная модель с n наблюдениями и k объяснителями, первый из которых представляет собой постоянный единичный вектор, коэффициент которого является пересечением регрессии, является
где y - вектор наблюдений зависимой переменной размера n × 1, каждый столбец матрицы X размера n × k - вектор наблюдений на одном из k объяснителей, - вектор истинных коэффициентов k × 1, а e - размер n × 1 вектор истинных основных ошибок. В обычный метод наименьших квадратов Оценщик IS
Остаточный вектор равен , поэтому остаточная сумма квадратов после упрощения равна
Обозначим как постоянный вектор, все элементы которого являются выборочным средним значений зависимой переменной в векторе y . Тогда общая сумма квадратов равна
Объясненная сумма квадратов, определяемая как сумма квадратов отклонений предсказанных значений от наблюдаемого среднего значения y , равна
Использование в этом и упрощение получения дает результат, что TSS = ESS + RSS тогда и только тогда, когда . Левая часть от этого умножается на сумму элементов y , а правая часть умножается на сумму элементов , поэтому условие состоит в том, что сумма элементов y равна сумме элементов , или, что эквивалентно что сумма ошибок предсказания (остатков) равна нулю. В этом можно убедиться, отметив хорошо известное свойство OLS, что вектор k × 1 : поскольку первый столбец X- вектор единиц, первый элемент этого вектора представляет собой сумму остатков и равен нулю. Это доказывает выполнение условия TSS = ESS + RSS .
В линейных терминах алгебры, мы имеем , , . Доказательство можно упростить, отметив это . Доказательство таково:
Таким образом,
что снова дает результат TSS = ESS + RSS , поскольку .