Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску
Регрессия закона Окуня по методу наименьших квадратов . Поскольку линия регрессии не сильно пропускает ни одну из точек, R 2 регрессии относительно высок.
Сравнение оценки Тейла – Сена (черный) и простой линейной регрессии (синий) для набора точек с выбросами . Из-за множества выбросов ни одна из линий регрессии не соответствует данным хорошо, что измеряется тем фактом, что ни одна из них не дает очень высокого R 2 .

В статистике , то коэффициент детерминации , обозначенный R 2 или R 2 и выраженный «R квадрат», является доля дисперсии в зависимой переменной , которая является предсказуемым от независимой переменной (ов).

Это статистика, используемая в контексте статистических моделей , основной целью которых является прогнозирование будущих результатов или проверка гипотез на основе другой связанной информации. Он обеспечивает меру того, насколько хорошо наблюдаемые результаты воспроизводятся моделью, на основе доли общей вариации результатов, объясняемой моделью. [1] [2] [3]

Есть несколько определений R 2 , которые только иногда эквивалентны. Один класс таких случаев включает в себя , что из простой линейной регрессии , где R 2 используется вместо R 2 . Когда включается точка пересечения, тогда r 2 является просто квадратом выборочного коэффициента корреляции (т. Е. R ) между наблюдаемыми результатами и наблюдаемыми значениями предиктора. [4] Если включены дополнительные регрессоры , R 2 представляет собой квадрат коэффициента множественной корреляции.. В обоих случаях коэффициент детерминации обычно находится в диапазоне от 0 до 1.

Бывают случаи, когда вычислительное определение R 2 может давать отрицательные значения, в зависимости от используемого определения. Это может возникнуть, если прогнозы, которые сравниваются с соответствующими результатами, не были получены в результате процедуры подгонки модели с использованием этих данных. Даже если была использована процедура подгонки модели, R 2 все еще может быть отрицательным, например, когда линейная регрессия проводится без включения точки пересечения [5] или когда для подгонки данных используется нелинейная функция. [6] В случаях, когда возникают отрицательные значения, среднее значение данных обеспечивает лучшее соответствие результатам, чем значения подобранной функции, согласно этому конкретному критерию.

При оценке степени согласия смоделированных ( Y pred ) и измеренных ( Y obs ) значений нецелесообразно основывать это на R 2 линейной регрессии (т. Е. Y obs = m · Y pred + b ). R 2 квантифицирует степень любой линейной корреляции между Y набла и Y преда , в то время как для оценки совершенства-в-годен только один конкретных линейной корреляции следует принимать во внимание: У набли = 1 · Y пред + 0 (т.е. 1: 1 строка). [7][8]

Определения [ править ]


Чем лучше линейная регрессия (справа) соответствует данным по сравнению с простым средним (на левом графике), тем ближе значение к 1. Области синих квадратов представляют собой квадраты остатков по отношению к линейной регресс. Области красных квадратов представляют собой квадраты остатков относительно среднего значения.

Набор данных имеет n значений, отмеченных y 1 , ..., y n (вместе известных как y i или как вектор y = [ y 1 , ..., y n ] T ), каждое из которых связано с подобранным (или смоделированным) , или предсказанное) значение f 1 , ..., f n (известное как f i , или иногда ŷ i , как вектор f ).

Определим остатки как e i = y i - f i (образуя вектор e ).

Если - среднее значение наблюдаемых данных:

тогда изменчивость набора данных может быть измерена двумя формулами сумм квадратов :

  • Общая сумма квадратов (пропорционально дисперсии полученных данных):
  • Сумма квадратов остатков, также называемая остаточной суммой квадратов :

Наиболее общее определение коэффициента детерминации:

В лучшем случае смоделированные значения точно совпадают с наблюдаемыми, что приводит к и . Базовая модель, которая всегда предсказывает , будет иметь . Модели, которые имеют худшие прогнозы, чем этот базовый уровень, будут иметь отрицательный результат .

Связь с необъяснимой дисперсией [ править ]

В общем виде можно увидеть , что R 2 связан с долей необъяснимой дисперсии (FVU), поскольку второй член сравнивает необъяснимую дисперсию (дисперсию ошибок модели) с общей дисперсией (данных):

Как объяснено отклонение [ править ]

Предположим, что R 2 = 0,49. Это означает, что 49% изменчивости зависимой переменной было учтено, а остальные 51% изменчивости все еще не учтены. В некоторых случаях общая сумма квадратов равна сумме двух других сумм квадратов, определенных выше,

Если регрессионная сумма квадратов, также называемая объясненной суммой квадратов , определяется как:

тогда

См. Раздел Разбиение в общей модели OLS для вывода этого результата для одного случая, когда соотношение выполняется. Когда это отношение делает захват, приведенное выше определение R 2 эквивалентно

где n - количество наблюдений (наблюдений) по переменным.

В этой форме R 2 выражается как отношение объясненной дисперсии (дисперсия прогнозов модели, которая является SS reg / n ) к общей дисперсии (выборочная дисперсия зависимой переменной, которая равна SS tot / n ).

Такое разбиение суммы квадратов имеет место, например, когда значения модели ƒ i были получены с помощью линейной регрессии . Более мягкое достаточное условие гласит: Модель имеет вид

где q i - произвольные значения, которые могут зависеть или не зависеть от i или других свободных параметров (общий выбор q i  =  x i является лишь одним частным случаем), а оценки коэффициентов и получаются путем минимизации остаточной суммы квадратов .

Этот набор условий является важным и имеет ряд последствий для свойств подобранных остатков и смоделированных значений. В частности, в этих условиях:

Коэффициент корреляции в квадрате [ править ]

В линейной множественной регрессии методом наименьших квадратов с предполагаемым членом пересечения R 2 равняется квадрату коэффициента корреляции Пирсона между наблюдаемыми и смоделированными (предсказанными) значениями данных зависимой переменной.

В линейной регрессии по методу наименьших квадратов с перехватываемым членом и одним объяснителем это также равно квадрату коэффициента корреляции Пирсона зависимой переменной и независимой переменной.

Его не следует путать с коэффициентом корреляции между двумя оценками, определяемым как

где ковариация между двумя оценками коэффициентов, а также их стандартные отклонения получены из ковариационной матрицы оценок коэффициентов.

В более общих условиях моделирования, когда предсказанные значения могут быть сгенерированы из модели, отличной от линейной регрессии методом наименьших квадратов, значение R 2 может быть вычислено как квадрат коэффициента корреляции между исходными и смоделированными значениями данных. В этом случае значение не является непосредственно мерой того, насколько хороши смоделированные значения, а скорее мерой того, насколько хороший предиктор может быть построен на основе смоделированных значений (путем создания пересмотренного предиктора в форме α  +  βƒ i ). [ необходима цитата ] Согласно Эверитту (стр. 78), [9] это использование, в частности, определение термина «коэффициент детерминации»: квадрат корреляции между двумя (общими) переменными.

Интерпретация [ править ]

R 2 - это статистика, которая дает некоторую информацию о степени соответствия модели. В регрессии коэффициент детерминации R 2 является статистической мерой того, насколько хорошо прогнозы регрессии соответствуют реальным точкам данных. R 2 1 указывает на то, что предсказания регрессии идеально подходят данные.

Значения R 2 вне диапазона от 0 до 1 могут возникать, когда модель соответствует данным хуже, чем горизонтальная гиперплоскость. Это могло произойти, если была выбрана неправильная модель или по ошибке были применены бессмысленные ограничения. Если используется уравнение 1 Кволсета [10] (это уравнение используется чаще всего), R 2 может быть меньше нуля. Если используется уравнение 2 Квалсета, R 2 может быть больше единицы.

Во всех случаях, когда используется R 2 , предикторы вычисляются с помощью обычной регрессии наименьших квадратов : то есть путем минимизации SS res . В этом случае, R 2 увеличивается как число переменных в модели увеличивается ( R 2 является монотонно возрастающей с числом переменных , включенных-она никогда не будет уменьшаться). Это иллюстрирует недостаток одного из возможных вариантов использования R 2 , когда можно продолжать добавлять переменные ( регрессия кухонной мойки ) для увеличения R 2.ценить. Например, если кто-то пытается спрогнозировать продажи модели автомобиля по расходу бензина, цене и мощности двигателя, можно включить такие несущественные факторы, как первая буква названия модели или рост ведущего инженера, занимающегося проектированием. автомобиль, потому что R 2 никогда не будет уменьшаться при добавлении переменных и, вероятно, будет увеличиваться только благодаря случайности.

Это приводит к альтернативному подходу , глядя на скорректированном R 2 . Объяснение этой статистики почти такое же, как и у R 2, но ухудшает статистику, поскольку в модель включены дополнительные переменные. Для случаев, отличных от аппроксимации методом наименьших квадратов, статистику R 2 можно рассчитать, как указано выше, и она все еще может быть полезной мерой. Если фитинг с помощью взвешенных наименьших квадратов или обобщенных наименьших квадратов , альтернативные варианты R 2 могут быть вычислены , соответствующие этим статистическими системами, в то время как «сырые» R 2 может все еще быть полезным , если он более легко интерпретировать. Ценности дляR 2 можно рассчитать для любого типа прогнозной модели, которая не обязательно должна иметь статистическую основу.

В многомерной линейной модели [ править ]

Рассмотрим линейную модель с более чем одной независимой переменной вида

где для i- го случая - переменная отклика, - p регрессоров, и - средний член нулевой ошибки . Величины представляют собой неизвестные коэффициенты, значения которых оцениваются методом наименьших квадратов . Коэффициент детерминации R 2 является мерой глобального соответствия модели. В частности, R 2 представляет собой элемент [0, 1] и представляет собой долю изменчивости Y я , которые могут быть отнесены к некоторой линейной комбинации регрессоров ( объясняющие переменные ) в X . [11]

R 2 часто интерпретируется как доля вариации отклика «объяснено» с помощью регрессоров в модели. Таким образом, R 2  = 1 указывает, что подобранная модель объясняет всю изменчивость, в то время как R 2  = 0 указывает на отсутствие `` линейной '' зависимости (для прямой регрессии это означает, что модель прямой линии является постоянной линией (наклон = 0, точка пересечения =  ) между переменной ответа и регрессорами). Внутреннее значение, такое как R 2  = 0,7, можно интерпретировать следующим образом: «Семьдесят процентов дисперсии в переменной ответа можно объяснить независимыми переменными. Остальные тридцать процентов можно отнести к неизвестным скрытым переменным. или присущая изменчивость ".

Предупреждение, которое относится к R 2 , как и к другим статистическим описаниям корреляции и ассоциации, заключается в том, что « корреляция не подразумевает причинно-следственную связь ». Другими словами, хотя корреляции могут иногда давать ценные ключи к раскрытию причинно-следственных связей между переменными, ненулевая оценочная корреляция между двумя переменными сама по себе не свидетельствует о том, что изменение значения одной переменной приведет к изменениям в значениях переменных. другие переменные. Например, практика ношения спичек (или зажигалки) коррелирует с заболеваемостью раком легких, но ношение спичек не вызывает рак (в стандартном смысле слова «причина»).

В случае единственного регрессора, аппроксимируемого методом наименьших квадратов, R 2 является квадратом коэффициента корреляции произведение-момент Пирсона, связывающего регрессор и переменную отклика. В более общем смысле R 2 - это квадрат корреляции между построенным предиктором и переменной ответа. При более чем одном регрессоре R 2 можно назвать коэффициентом множественной детерминации .

Инфляция R 2 [ редактировать ]

В регрессии методом наименьших квадратов с использованием типичных данных R 2 , по крайней мере, слабо увеличивается с увеличением числа регрессоров в модели. Поскольку увеличение числа регрессоров увеличивает значение R 2 , R 2 сам по себе не может использоваться в качестве значимого сравнения моделей с очень разным количеством независимых переменных. Для значимого сравнения двух моделей можно выполнить F-тест на остаточной сумме квадратов , аналогичный F-тесту в причинности Грейнджера , хотя это не всегда уместно. Напоминая об этом, некоторые авторы обозначают R 2 через Rq 2 , где q - количество столбцов в X (количество пояснителей, включая константу).

Чтобы продемонстрировать это свойство, сначала напомним, что цель линейной регрессии наименьших квадратов

где X i - вектор-строка значений объясняющих переменных для случая i, а b - вектор-столбец коэффициентов соответствующих элементов X i .

Оптимальное значение цели немного меньше по мере того, как добавляются дополнительные объясняющие переменные и, следовательно, добавляются дополнительные столбцы (матрица пояснительных данных, i- я строка которой равна X i ) из-за того, что менее ограниченная минимизация приводит к оптимальной стоимости, которая составляет слабо меньше, чем делает более ограниченная минимизация. Учитывая предыдущий вывод и отмечая, что это зависит только от y , свойство неубывания R 2 следует непосредственно из определения выше.

Интуитивная причина того, что использование дополнительной независимой переменной не может снизить R 2, заключается в следующем: минимизация эквивалентна максимальному увеличению R 2 . Когда добавляется дополнительная переменная, у данных всегда есть возможность присвоить ей оценочный коэффициент, равный нулю, оставив прогнозируемые значения и R 2 без изменений. Единственный способ, которым задача оптимизации даст ненулевой коэффициент, - это улучшить R 2 .

Предостережения [ править ]

R 2 не указывает:

  • независимые переменные являются причиной изменений зависимой переменной ;
  • существует систематическая ошибка пропущенной переменной ;
  • использовалась правильная регрессия ;
  • выбран наиболее подходящий набор независимых переменных;
  • есть коллинеарности присутствует в данных по объясняющих переменных;
  • модель может быть улучшена путем использования преобразованных версий существующего набора независимых переменных;
  • есть достаточно данных, чтобы сделать твердый вывод.

Расширения [ править ]

Скорректированный R 2 [ править ]

Использование скорректированного R 2 (один общий нотации , произносится как «R - бар в квадрате», а другой является ) является попыткой учета для феномена R 2 автоматически и поддельно увеличивается , когда дополнительные объясняющие переменные добавляются в модель. Созданный Анри Тейлом , это модификация R 2, которая регулирует количество пояснительных терминов в модели ( ) относительно количества точек данных ( ). [12] Скорректированный R 2 определяется как

где p - общее количество независимых переменных в модели (не включая постоянный член), а n - размер выборки. Его также можно записать как:

где df t - степени свободы n  - 1 оценки дисперсии генеральной совокупности зависимой переменной, а df e - степени свободы n  -  p  - 1 оценки базовой дисперсии ошибки генеральной совокупности.

Скорректированный R 2 может быть отрицательным, и его значение всегда будет меньше или равно значению R 2 . В отличие от R 2 , скорректированный R 2 увеличивается только тогда, когда увеличение R 2 (из-за включения новой объясняющей переменной) больше, чем можно было бы ожидать увидеть случайно. Если набор объясняющих переменных с заранее определенной иерархией важности вводится в регрессию по одной, при каждом вычислении скорректированного R 2 , уровень, на котором скорректированный R 2 достигает максимума, а затем уменьшается, была бы регрессия с идеальной комбинацией наилучшего соответствия без лишних / ненужных терминов.

Скорректированный R 2 можно интерпретировать как несмещенную (или менее смещенную) оценку совокупности R 2 , тогда как наблюдаемая выборка R 2 является положительно смещенной оценкой значения совокупности. [13] Скорректированный R 2 более уместен при оценке соответствия модели (дисперсия в зависимой переменной, учитываемой независимыми переменными) и при сравнении альтернативных моделей на этапе выбора характеристик при построении модели. [13]

Принцип, лежащий в основе скорректированной статистики R 2, можно увидеть, переписав обычное R 2 как

где и - выборочные дисперсии оцененных остатков и зависимой переменной, соответственно, которые можно рассматривать как смещенные оценки дисперсий генеральной совокупности ошибок и зависимой переменной. Эти оценки заменены статистически несмещенными версиями: и .

Коэффициент частичной детерминации [ править ]

Коэффициент частичной детерминации можно определить как долю вариации, которая не может быть объяснена в сокращенной модели, но может быть объяснена предикторами, указанными в полной (er) модели. [14] [15] [16] Этот коэффициент используется для понимания того, могут ли один или несколько дополнительных предикторов быть полезными в более полностью определенной регрессионной модели.

Расчет для частичного R 2 является относительно простым после того, как две модели оценки и генерации ANOVA таблиц для них. Расчет для частичного R 2 IS

который аналогичен обычному коэффициенту детерминации:

Обобщая и разложения R 2 [17] [ править ]

Как объяснялось выше, эвристика выбора модели, такая как скорректированный критерий и F-тест, проверяет, достаточно ли увеличивается общая сумма, чтобы определить, следует ли добавить в модель новый регрессор. Если к модели добавлен регрессор, который сильно коррелирует с другими регрессорами, которые уже были включены, то итоговое значение вряд ли увеличится, даже если новый регрессор будет актуальным. В результате вышеупомянутые эвристики будут игнорировать соответствующие регрессоры, когда взаимная корреляция высока.

Геометрическое изображение .

В качестве альтернативы можно разложить обобщенную версию, чтобы количественно оценить релевантность отклонения от гипотезы. [17] Как показывает Хорнвег (2018), несколько оценок усадки - такие как байесовская линейная регрессия , гребневая регрессия и (адаптивное) лассо - используют это разложение, когда они постепенно сокращают параметры из неограниченных решений МНК в сторону предполагаемых значений. . Сначала определим модель линейной регрессии как

Предполагается, что матрица стандартизирована с Z-оценками и что вектор-столбец центрирован так, чтобы иметь нулевое среднее значение. Пусть вектор-столбец относится к предполагаемым параметрам регрессии, а вектор-столбец обозначает предполагаемые параметры. Затем мы можем определить

Значение 75% означает, что точность внутри выборки улучшается на 75%, если вместо предполагаемых значений используются решения, оптимизированные для данных . В частном случае, когда вектор нулей, мы снова получаем традиционное .

Индивидуальный эффект отклонения от гипотезы можно вычислить с помощью («R-внешний»). На этот раз матрица имеет вид

где . Сумма диагональных элементов ровно равна . Если регрессоры не коррелированы и представляют собой вектор нулей, то диагональный элемент просто соответствует значению между и . Когда регрессоры и коррелированы, может увеличиваться за счет уменьшения . В результате диагональные элементы могут быть меньше 0 и, в более исключительных случаях, больше 1. Чтобы справиться с такой неопределенностью, несколько оценщиков усадки неявно принимают средневзвешенное значение диагональных элементов, чтобы количественно оценить релевантность отклонения от предполагаемое значение. [17] Щелкните по лассо для примера.

R 2 в логистической регрессии [ править ]

В случае логистической регрессии , обычно подходящей по максимальной вероятности , есть несколько вариантов псевдо-R 2 .

Одним из них является обобщенной R 2 , первоначально предложенной Cox & Snell, [18] и независимо друг от друга Magee: [19]

где - вероятность модели только с пересечением, - вероятность оцениваемой модели (т. е. модели с заданным набором оценок параметров), а n - размер выборки. Его легко переписать на:

где D - тестовая статистика теста отношения правдоподобия .

Нагелькерке [20] отметил, что он обладает следующими свойствами:

  1. Это согласуется с классическим коэффициентом детерминации, когда оба могут быть вычислены;
  2. Его значение максимизируется оценкой максимального правдоподобия модели;
  3. Он асимптотически не зависит от размера выборки;
  4. Интерпретация - это доля вариации, объясняемая моделью;
  5. Значения находятся между 0 и 1, где 0 означает, что модель не объясняет никаких вариаций, а 1 означает, что она полностью объясняет наблюдаемые вариации;
  6. У него нет единицы.

Однако в случае логистической модели, где не может быть больше 1, R 2 находится между 0 и : таким образом, Нагелькерке предложил возможность определить масштабированный R 2 как R 2 / R 2 max . [21]

Сравнение с нормой остатков [ править ]

Иногда для указания степени соответствия используется норма остатков. Этот член рассчитывается как квадратный корень из суммы квадратов остатков :

Оба R 2 и норма невязки имеют свои относительные преимущества. Для анализа методом наименьших квадратов R 2 изменяется от 0 до 1, при этом большие числа указывают на лучшее соответствие, а 1 представляет собой идеальное соответствие. Норма остатков варьируется от 0 до бесконечности, при этом меньшие числа указывают на лучшее соответствие, а ноль указывает на идеальное соответствие. Одним из преимуществ и недостатков R 2 является то, что этот член нормализует значение. Если все значения y i умножить на константу, норма остатков также изменится на эту константу, но R 2останется прежним. В качестве базового примера для линейного метода наименьших квадратов, подходящего к набору данных:

R 2 = 0,998, а норма остатков = 0,302. Если все значения y умножаются на 1000 (например, при изменении префикса SI ), то R 2 остается прежним, но норма остатков = 302.

Другой однопараметрический индикатор соответствия - RMSE остатков или стандартное отклонение остатков. Это будет иметь значение 0,135 для приведенного выше примера, учитывая, что подгонка была линейной с непринужденным пересечением. [22]

История [ править ]

Создание коэффициента детерминации было приписано генетику Сьюоллу Райту и впервые было опубликовано в 1921 году [23].

См. Также [ править ]

  • Квартет анскомба
  • Необъяснимая доля дисперсии
  • Доброту соответствия
  • Коэффициент эффективности модели Нэша – Сатклиффа ( гидрологические приложения )
  • Коэффициент корреляции продукт-момент Пирсона
  • Пропорциональное снижение потерь
  • Проверка регрессионной модели
  • Среднеквадратичное отклонение
  • Пошаговая регрессия
  • t -тест H 0 : R 2 = 0. {\displaystyle H_{0}\colon R^{2}=0.}

Примечания [ править ]

  1. ^ Сталь, РГД; Торри, JH (1960). Принципы и процедуры статистики с особым акцентом на биологические науки . Макгроу Хилл .
  2. ^ Гланц, Стэнтон А .; Слинкер, Б.К. (1990). Учебник по прикладной регрессии и дисперсионному анализу . Макгроу-Хилл. ISBN 978-0-07-023407-9.
  3. ^ Draper, NR; Смит, Х. (1998). Прикладной регрессионный анализ . Wiley-Interscience. ISBN 978-0-471-17082-2.
  4. ^ Девор, Jay L. (2011). Вероятность и статистика для техники и наук (8-е изд.). Бостон, Массачусетс: обучение Cengage. С. 508–510. ISBN 978-0-538-73352-6.
  5. ^ Бартен, Антон П. (1987). «Коэффициент детерминации для регресса без постоянного срока». В Хеймансе, Ристо; Neudecker, Heinz (ред.). Практика эконометрики . Дордрехт: Клувер. С. 181–189. ISBN 90-247-3502-5.
  6. ^ Колин Кэмерон, А .; Виндмейер, Франк А.Г. (1997). «R-квадрат мера согласия для некоторых общих моделей нелинейной регрессии». Журнал эконометрики . 77 (2): 1790–2. DOI : 10.1016 / S0304-4076 (96) 01818-0 .
  7. ^ Легаты, DR; Маккейб, GJ (1999). «Оценка использования критериев« согласия »при валидации гидрологических и гидроклиматических моделей» . Водный ресурс. Res . 35 (1): 233–241. DOI : 10.1029 / 1998WR900018 .
  8. ^ Риттер, А .; Муньос-Карпена, Р. (2013). «Оценка эффективности гидрологических моделей: статистическая значимость для снижения субъективности в оценках согласия». Журнал гидрологии . 480 (1): 33–45. DOI : 10.1016 / j.jhydrol.2012.12.004 .
  9. ^ Everitt, BS (2002). Кембриджский статистический словарь (2-е изд.). ЧАШКА. ISBN 978-0-521-81099-9.
  10. ^ Kvalseth, Tarald О. (1985). «Предупреждение о R2». Американский статистик . 39 (4): 279–285. DOI : 10.2307 / 2683704 . JSTOR 2683704 . 
  11. ^ Вычисление скорректированного R2 для полиномиальных регрессий
  12. ^ Тейл, Анри (1961). Экономические прогнозы и политика . Голландия, Амстердам: Север. п. 213.
  13. ^ a b Ши, Гвовен (1 апреля 2008 г.). «Улучшенная оценка усадки квадрата коэффициента множественной корреляции и квадрата коэффициента перекрестной достоверности». Организационные методы исследования . 11 (2): 387–407. DOI : 10.1177 / 1094428106292901 . ISSN 1094-4281 . S2CID 55098407 .  
  14. ^ Ричард Андерсон-Спречер, « Сравнение моделей и R 2 », Американский статистик , том 48, выпуск 2, 1994, стр. 113–117.
  15. ^ (обобщено на максимальное правдоподобие ) NJD Nagelkerke, « Примечание об общем определении коэффициента детерминации », Biometrika , Vol. 78, No. 3. (сентябрь 1991 г.), стр. 691–692.
  16. ^ "R реализация коэффициента частичной детерминации"
  17. ^ a b c Хорнвег, Виктор (2018). «Часть II: Сохранение параметров фиксированными» . Наука: В стадии представления . Hoornweg Press. ISBN 978-90-829188-0-9.
  18. ^ Кокс, DD; Снелл, EJ (1989). Анализ двоичных данных (2-е изд.). Чепмен и Холл.
  19. Перейти ↑ Magee, L. (1990). « R 2 меры, основанные на совместных тестах значимости Вальда и отношения правдоподобия». Американский статистик . 44 . С. 250–3. DOI : 10.1080 / 00031305.1990.10475731 .
  20. ^ Nagelkerke, Нико JD (1992). Оценка максимального правдоподобия функциональных взаимосвязей, Pays-Bas . Конспект лекций по статистике. 69 . ISBN 978-0-387-97721-8.
  21. ^ Nagelkerke, NJD (1991). «Примечание об общем определении коэффициента детерминации». Биометрика . 78 (3): 691–2. DOI : 10.1093 / Biomet / 78.3.691 . JSTOR 2337038 . 
  22. ^ Веб-страница OriginLab, http://www.originlab.com/doc/Origin-Help/LR-Algorithm . Проверено 9 февраля, 2016.
  23. Райт, Сьюэлл (январь 1921 г.). «Корреляция и причинно-следственная связь». Журнал сельскохозяйственных исследований . 20 : 557–585.

Дальнейшее чтение [ править ]

  • Гуджарати, Дамодар Н .; Портер, Дон С. (2009). Основы эконометрики (Пятое изд.). Нью-Йорк: МакГроу-Хилл / Ирвин. С. 73–78. ISBN 978-0-07-337577-9.
  • Хьюз, Энн; Grawoig, Деннис (1971). Статистика: основа для анализа . Читает: Эддисон-Уэсли. С.  344–348 . ISBN 0-201-03021-7.
  • Кмента, Ян (1986). Элементы эконометрики (второе изд.). Нью-Йорк: Макмиллан. С.  240–243 . ISBN 978-0-02-365070-3.
  • Льюис-Бек, Майкл С .; Скалабан, Эндрю (1990). " R- квадрат: Прямой разговор". Политический анализ . 2 : 153–171. DOI : 10,1093 / панорамирование / 2.1.153 . JSTOR  23317769 .