Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску
Пример выборок из двух популяций с одинаковым средним значением, но разными дисперсиями. Красная совокупность имеет среднее значение 100 и дисперсию 100 (SD = 10), в то время как синяя совокупность имеет среднее значение 100 и дисперсию 2500 (SD = 50).

В теории вероятностей и статистике , дисперсия является ожиданием от квадрата отклонения от более случайной величины от ее среднего . Неформально он измеряет, насколько набор чисел отличается от их среднего значения. Дисперсия играет центральную роль в статистике, где некоторые идеи, которые ее используют, включают описательную статистику , статистический вывод , проверку гипотез , степень соответствия и выборку Монте-Карло . Дисперсия - важный инструмент в науке, где статистический анализ данных является обычным явлением. Дисперсия - это квадратстандартное отклонение , второй центральный момент из распределения , и ковариация случайных переменного с самими собой, и это часто представляется , или .

Определение [ править ]

Дисперсия случайной величины представляет собой ожидаемое значение квадратов отклонений от среднего значения из , :

Это определение включает случайные переменные, которые генерируются процессами, которые являются дискретными , непрерывными , нулевыми или смешанными. Дисперсию также можно рассматривать как ковариацию случайной величины с самой собой:

Дисперсия также эквивалентна второму кумулянту генерируемого распределения вероятностей . Дисперсия обычно обозначается как , или просто (произносится как « сигма в квадрате»). Выражение для дисперсии может быть расширено следующим образом:

Другими словами, дисперсия X равно среднее значение квадрата X минус квадрат среднего значения X . Это уравнение не следует использовать для вычислений с использованием арифметики с плавающей запятой , поскольку оно страдает от катастрофической отмены, если два компонента уравнения схожи по величине. Для других численно стабильных альтернатив см. Алгоритмы вычисления дисперсии .

Дискретная случайная величина [ править ]

Если генератор случайной величины является дискретным с вероятностью функции масс , то

или эквивалентно,

где - ожидаемое значение. То есть,

(Когда такая дискретная взвешенная дисперсия определяется весами, сумма которых не равна 1, то делится на сумму весов.)

Дисперсия набора равновероятных значений может быть записана как

где - среднее значение. То есть,

Дисперсия набора равновероятных значений может быть эквивалентно выражена без прямой ссылки на среднее значение в виде квадратов отклонений всех точек друг от друга: [1]

Абсолютно непрерывная случайная величина [ править ]

Если случайная величина имеет функцию плотности вероятности и является соответствующей кумулятивной функцией распределения , то

или эквивалентно,

где ожидаемое значение задается

В этих формулах интегралы по и являются интегралами Лебега и Лебега – Стилтьеса соответственно.

Если функция является интегрируема по Риману на каждом конечном отрезке , то

где интеграл - несобственный интеграл Римана .

Примеры [ править ]

Экспоненциальное распределение [ править ]

Экспоненциальное распределение с параметром Х является непрерывным распределением, плотность вероятности функции задается

на отрезке [0, ∞) . Его среднее значение можно показать как

Используя интегрирование по частям и используя уже рассчитанное ожидаемое значение, мы имеем:

Таким образом, дисперсия X определяется выражением

Честная смерть [ править ]

Честный шестигранный кубик может быть смоделирован как дискретная случайная величина X с результатами от 1 до 6, каждый с равной вероятностью 1/6. Ожидаемое значение X равно Следовательно, дисперсия X равна

Общая формула для дисперсии результата, X , в качестве п односторонний штампы является

Обычно используемые распределения вероятностей [ править ]

В следующей таблице перечислены дисперсии для некоторых часто используемых распределений вероятностей.

Свойства [ править ]

Основные свойства [ править ]

Дисперсия неотрицательна, потому что квадраты положительные или нулевые:

Дисперсия константы равна нулю.

И наоборот, если дисперсия случайной величины равна 0, то она почти наверняка постоянная. То есть всегда имеет одно и то же значение:

Дисперсия инвариантна по отношению к изменениям параметра местоположения . То есть, если ко всем значениям переменной добавить константу, дисперсия не изменится:

Если все значения масштабируются константой, дисперсия масштабируется квадратом этой константы:

Дисперсия суммы двух случайных величин определяется выражением

где есть ковариация .

В общем, для суммы случайных величин дисперсия становится:

Эти результаты приводят к дисперсии линейной комбинации как:

Если случайные величины таковы, что

тогда они называются некоррелированными . Из приведенного ранее выражения немедленно следует, что если случайные величины некоррелированы, то дисперсия их суммы равна сумме их дисперсий, или, выражаясь символически:

Поскольку независимые случайные величины всегда некоррелированы (см. Ковариация § Некоррелированность и независимость ), приведенное выше уравнение справедливо, в частности, когда случайные величины независимы. Таким образом, независимость достаточна, но не обязательна, чтобы дисперсия суммы равнялась сумме дисперсий.

Проблемы конечности [ править ]

Если распределение не имеет конечного ожидаемого значения, как в случае распределения Коши , тогда и дисперсия не может быть конечной. Однако некоторые распределения могут не иметь конечной дисперсии, несмотря на конечное ожидаемое значение. Примером является распределение Парето , индекс которого удовлетворяет

Сумма некоррелированных переменных (формула Биенайме) [ править ]

Одна из причин использования дисперсии вместо других мер дисперсии заключается в том, что дисперсия суммы (или разности) некоррелированных случайных величин является суммой их дисперсий:

Это утверждение, называемое формулой Биенайме [2], было открыто в 1853 году. [3] [4] Часто делается с более сильным условием, что переменные независимы , но некоррелированности достаточно. Таким образом, если все переменные имеют одинаковую дисперсию σ 2 , то, поскольку деление на n является линейным преобразованием, эта формула немедленно означает, что дисперсия их среднего значения равна

То есть дисперсия среднего уменьшается с увеличением n . Эта формула дисперсии среднего используется при определении стандартной ошибки выборочного среднего, которая используется в центральной предельной теореме .

Чтобы доказать исходное утверждение, достаточно показать, что

Общий результат следует тогда по индукции. Начиная с определения,

Используя линейность оператора математического ожидания и предположение о независимости (или некоррелированности) X и Y , это дополнительно упрощается следующим образом:

Сумма коррелированных переменных [ править ]

С корреляцией и фиксированным размером выборки [ править ]

В общем, дисперсия суммы n переменных является суммой их ковариаций :

(Примечание: второе равенство вытекает из того факта, что Cov ( X i , X i ) = Var ( X i ) .)

Здесь Cov (⋅, ⋅) - ковариация , которая равна нулю для независимых случайных величин (если она существует). Формула утверждает, что дисперсия суммы равна сумме всех элементов в ковариационной матрице компонентов. Следующее выражение эквивалентно утверждает, что дисперсия суммы - это сумма диагонали ковариационной матрицы плюс двойная сумма ее верхних треугольных элементов (или ее нижних треугольных элементов); это подчеркивает, что ковариационная матрица симметрична. Эта формула используется в теории альфы Кронбаха в классической теории тестов .

Таким образом, если переменные имеют одинаковую дисперсию σ 2, а средняя корреляция различных переменных равна ρ , то дисперсия их среднего значения равна

Это означает, что дисперсия среднего увеличивается с увеличением среднего значения корреляций. Другими словами, дополнительные коррелированные наблюдения не так эффективны, как дополнительные независимые наблюдения, для уменьшения неопределенности среднего . Более того, если переменные имеют единичную дисперсию, например, если они стандартизированы, то это упрощается до

Эта формула используется в формуле предсказания Спирмена – Брауна классической теории тестов. Это сходится к ρ, если n стремится к бесконечности, при условии, что средняя корреляция остается постоянной или также сходится. Итак, для дисперсии среднего значения стандартизованных переменных с равной корреляцией или сходящейся средней корреляцией мы имеем

Следовательно, дисперсия среднего значения большого числа стандартизованных переменных приблизительно равна их средней корреляции. Это проясняет, что выборочное среднее коррелированных переменных, как правило, не сходится к среднему значению генеральной совокупности, хотя закон больших чисел гласит, что выборочное среднее будет сходиться для независимых переменных.

Iid со случайным размером выборки [ править ]

Бывают случаи, когда образец берут, не зная заранее, сколько наблюдений будет приемлемым по тому или иному критерию. В таких случаях размер выборки N является случайной величиной, вариация которой добавляется к вариации X , так что,

Var (∑ X ) = E ( N ) Var ( X ) + Var ( N ) E 2 ( X ). [5]

Если N имеет распределение Пуассона , то E ( N ) = Var ( N ) с оценкой N = n . Таким образом, оценка Var (∑ X ) становится nS 2 X + n X 2, что дает

стандартная ошибка ( X ) = √ [( S 2 X + X 2 ) / n ].

Матричная запись дисперсии линейной комбинации [ править ]

Определите как вектор-столбец случайных величин и как вектор-столбец скаляров . Таким образом, является линейной комбинацией этих случайных величин, где обозначает транспонирование о . Кроме того, пусть будет ковариационная матрица из . Тогда дисперсия рассчитывается следующим образом: [6]

Это означает, что дисперсия среднего может быть записана как (с вектором-столбцом из единиц)

Взвешенная сумма переменных [ править ]

Из свойства масштабирования и формулы Биенайме, а также из свойства ковариантности Cov ( aXbY ) = ab Cov ( XY ) вместе следует, что

Это означает, что во взвешенной сумме переменных переменная с наибольшим весом будет иметь непропорционально большой вес в дисперсии итога. Например, если Х и Y являются некоррелированными и вес X в два раза больше веса Y , то вес дисперсии X будет в четыре раза больше веса дисперсии Y .

Выражение выше может быть расширено до взвешенной суммы нескольких переменных:

Произведение независимых переменных [ править ]

Если две переменные X и Y независимы , дисперсия их произведения определяется выражением [7]

Эквивалентно, используя основные свойства ожидания, он задается

Произведение статистически зависимых переменных [ править ]

В общем, если две переменные статистически зависимы, дисперсия их продукта определяется следующим образом:

Разложение [ править ]

Общая формула для разложения дисперсии или закона общей дисперсии : Если и - две случайные величины, и существует дисперсия , то

Условное математическое ожидание из дало , а условная дисперсия может быть понята следующим образом . Для любого конкретного значения y случайной величины  Y существует условное ожидание для события  Y  =  y . Эта величина зависит от конкретного значения  y ; это функция . Та же самая функция, оцениваемая по случайной величине Y, является условным ожиданием

В частности, если это дискретная случайная величина, принимающая возможные значения с соответствующими вероятностями , то в формуле для полной дисперсии первый член в правой части становится

где . Точно так же второй член в правой части становится

где и . Таким образом, общая дисперсия определяется как

Аналогичная формула применяется при дисперсионном анализе , где соответствующая формула

здесь относится к среднему квадрату. В линейном регрессионном анализе соответствующая формула имеет вид

Это также может быть получено из аддитивности дисперсий, поскольку общая (наблюдаемая) оценка представляет собой сумму прогнозируемой оценки и оценки ошибки, причем последние два не коррелируют.

Аналогичные разложения возможны для суммы квадратов отклонений (суммы квадратов, ):

Расчет из CDF [ править ]

Дисперсия генеральной совокупности для неотрицательной случайной величины может быть выражена в терминах кумулятивной функции распределения F, используя

Это выражение можно использовать для вычисления дисперсии в ситуациях, когда можно удобно выразить CDF, но не плотность .

Характеристика собственности [ править ]

Второй момент случайной величины достигает минимального значения, когда берется около первого момента (т. Е. Среднего) случайной величины, т . Е. И наоборот, если непрерывная функция удовлетворяет для всех случайных величин X , то она обязательно имеет вид , где a > 0 . То же верно и в многомерном случае. [8]

Единицы измерения [ править ]

В отличие от ожидаемого абсолютного отклонения, дисперсия переменной имеет единицы измерения, которые являются квадратом единиц самой переменной. Например, переменная, измеряемая в метрах, будет иметь отклонение в метрах в квадрате. По этой причине описание наборов данных через их стандартное отклонение или среднеквадратичное отклонение часто предпочтительнее, чем использование дисперсии. В примере с игральными костями стандартное отклонение составляет 2,9 ≈ 1,7 , что немного больше ожидаемого абсолютного отклонения 1,5.

Стандартное отклонение и ожидаемое абсолютное отклонение могут использоваться как индикатор «разброса» распределения. Стандартное отклонение более поддается алгебраическим манипуляциям, чем ожидаемое абсолютное отклонение, и вместе с дисперсией и ее обобщающей ковариацией часто используется в теоретической статистике; однако ожидаемое абсолютное отклонение имеет тенденцию быть более надежным, поскольку оно менее чувствительно к выбросам, возникающим из-за аномалий измерения или чрезмерно тяжелого распределения .

Аппроксимация дисперсии функции [ править ]

Метод дельты использует второй порядок Тейлор разложение для аппроксимации дисперсии в зависимости от одного или несколько случайных величин: см Тейлора разложения для моментов функций случайных величин . Например, приблизительная дисперсия функции одной переменной определяется выражением

при условии, что f дважды дифференцируема и что среднее и дисперсия X конечны.

Дисперсия населения и дисперсия выборки [ править ]

Реальные наблюдения, такие как измерения вчерашнего дождя в течение дня, обычно не могут быть полным набором всех возможных наблюдений, которые можно было бы сделать. Таким образом, дисперсия, вычисленная из конечного набора, в общем случае не будет соответствовать дисперсии, которая была бы рассчитана из полной совокупности возможных наблюдений. Это означает, что можно оценить среднее значение и дисперсию, которые были бы вычислены на основе всеведущего набора наблюдений, с использованием уравнения оценки . Оценка является функцией выборки из n наблюдений, взятых без систематической ошибки наблюдений из всей совокупности.потенциальных наблюдений. В этом примере этот образец будет набором фактических измерений вчерашних осадков с помощью доступных дождемеров в интересующей географии.

Простейшие оценки для среднего и дисперсии генеральной совокупности - это просто среднее и дисперсия выборки, выборочное среднее и (нескорректированная) выборочная дисперсия - это согласованные оценки (они сходятся к правильному значению по мере увеличения количества выборок), но могут быть улучшенным. Оценка дисперсии совокупности путем взятия дисперсии выборки в целом близка к оптимальной, но ее можно улучшить двумя способами. Проще всего, дисперсия выборки вычисляется как среднее квадратов отклонений от (выборочного) среднего, путем деления на n. Однако использование значений, отличных от n, улучшает оценку различными способами. Четыре общих значения знаменателя: n, n  - 1, n  + 1 и n  - 1,5: n - простейший (дисперсия совокупности выборки), n  - 1 устраняет смещение, n  + 1 минимизирует среднеквадратичную ошибку для нормального распределения, а n  - 1,5 в основном устраняет смещение. при объективной оценке стандартного отклонения для нормального распределения.

Во-первых, если всеведущее среднее значение неизвестно (и вычисляется как выборочное среднее), тогда выборочная дисперсия является смещенной оценкой : она недооценивает дисперсию в ( n  - 1) / n раз ; поправка на этот коэффициент (деление на n  - 1 вместо n ) называется поправкой Бесселя . Результирующая оценка является несмещенной и называется (скорректированной) выборочной дисперсией или несмещенной выборочной дисперсией . Например, когда n = 1, дисперсия отдельного наблюдения относительно выборочного среднего (самого), очевидно, равна нулю независимо от дисперсии генеральной совокупности. Если среднее значение определяется каким-либо другим способом, а не на основе тех же выборок, которые использовались для оценки дисперсии, тогда это смещение не возникает, и дисперсию можно безопасно оценить как дисперсию выборок относительно (независимо известного) среднего.

Во-вторых, дисперсия выборки обычно не минимизирует среднеквадратичную ошибку между дисперсией выборки и дисперсией генеральной совокупности. Исправление смещения часто усугубляет ситуацию: всегда можно выбрать масштабный коэффициент, который работает лучше, чем скорректированная дисперсия выборки, хотя оптимальный масштабный коэффициент зависит от избыточного эксцесса генеральной совокупности (см. Среднеквадратичная ошибка: дисперсия ) и вносит смещение. Это всегда состоит из уменьшения масштаба несмещенной оценки (деления на число больше n  - 1) и является простым примером оценки усадки : один «сжимает» несмещенную оценку до нуля. Для нормального распределения деление на n  + 1 (вместо n - 1 или n ) минимизирует среднеквадратичную ошибку. Однако результирующая оценка смещена и известна как смещенная вариация выборки .

Дисперсия населения [ править ]

В общем, дисперсия генеральной совокупности из конечной популяции размера N со значениями х я задается

где среднее значение по совокупности

Дисперсию совокупности также можно рассчитать с помощью

Это правда, потому что

Дисперсия совокупности соответствует дисперсии генерирующего распределения вероятностей. В этом смысле понятие совокупности может быть расширено до непрерывных случайных величин с бесконечной совокупностью.

Пример отклонения [ править ]

Во многих практических ситуациях истинная дисперсия совокупности неизвестна априори и должна быть каким-то образом вычислена. При работе с чрезвычайно большими популяциями невозможно подсчитать каждый объект в совокупности, поэтому вычисления должны выполняться на выборке из совокупности. [9] Выборочная дисперсия также может применяться для оценки дисперсии непрерывного распределения по выборке этого распределения.

Мы берем образец с заменой из п значений Y 1 , ...,  Y п от населения, где п  <  N , и оценить дисперсию на основе этого образца. [10] Непосредственный анализ дисперсии данных выборки дает среднее значение квадратов отклонений :

Здесь обозначает выборочное среднее значение :

Поскольку Y i выбираются случайным образом, оба и являются случайными величинами. Их ожидаемые значения могут быть оценены путем усреднения по ансамблю всех возможных выборок { Y i } размера n из совокупности. За это дает:

Следовательно, дается оценка дисперсии населения, которая смещена в раз . По этой причине это называется смещенной дисперсией выборки . Исправление этого смещения дает несмещенную дисперсию выборки , обозначенную :

Любой оценщик может называться просто выборкой дисперсии, если версия может быть определена контекстом. То же доказательство применимо и к выборкам, взятым из непрерывного распределения вероятностей.

Использование термина п  - 1, называется коррекции Бесселя , и он также используется в образце ковариации и стандартное отклонение выборки (квадратный корень из дисперсии). Квадратный корень является вогнутой функцией и, таким образом, вносит отрицательное смещение (по неравенству Дженсена ), которое зависит от распределения, и, таким образом, скорректированное стандартное отклонение выборки (с использованием поправки Бесселя) смещено. Несмещенная оценка стандартного отклонения представляет собой технически вовлечена проблема, хотя для нормального распределения , используя термин п  - 1,5 урожаев почти несмещенная оценку.

Несмещенная выборочная дисперсия является U-статистики для функции ƒ ( у 1у 2 ) = ( у 1  -  у 2 ) 2 /2, что означает , что оно получено путем усреднения 2-выборки статистики по 2-элементных подмножеств население.

Распределение выборочной дисперсии [ править ]

Распределение и кумулятивное распределение S 2 / σ 2 для различных значений ν = n - 1, когда y i являются независимыми, нормально распределенными.

Как функция случайных величин , дисперсия выборки сама по себе является случайной величиной, и ее распределение естественно изучать. В случае, когда Y i являются независимыми наблюдениями из нормального распределения , теорема Кохрана показывает, что s 2 следует масштабному распределению хи-квадрат : [11]

Как прямое следствие, следует, что

и [12]

Если Y i независимы и одинаково распределены, но не обязательно нормально распределены, то [13]

где κ - эксцесс распределения, а μ 4 - четвертый центральный момент .

Если условия закона больших чисел справедливы для квадратов наблюдений, S 2 является состоятельной оценкой из  сг 2 . Действительно, видно, что дисперсия оценки асимптотически стремится к нулю. Асимптотически эквивалентная формула была дана в Kenney and Keeping (1951: 164), Rose and Smith (2002: 264) и Weisstein (nd). [14] [15] [16]

Неравенство Самуэльсона [ править ]

Неравенство Самуэльсона является результатом, который устанавливает границы значений, которые могут принимать отдельные наблюдения в выборке, при условии, что были рассчитаны выборочное среднее и (смещенная) дисперсия. [17] Ценности должны находиться в установленных пределах

Связь с гармоническими и арифметическими средствами [ править ]

Было показано [18], что для выборки { y i } положительных действительных чисел

где y max - максимум выборки, A - среднее арифметическое, H - гармоническое среднее значение выборки и (смещенная) дисперсия выборки.

Эта оценка была улучшена, и известно, что дисперсия ограничена

где y min - минимум образца. [19]

Тесты на равенство дисперсий [ править ]

Проверка на равенство двух и более отклонений затруднительна. На тест F и критерий хи-квадрат отрицательно влияет ненормальность, и они не рекомендуются для этой цели.

Было предложено несколько непараметрический тестов: они включают в себя тест Barton-Давид-Ансари-Freund-Зигеля-Тьюки, то тест Каплун , тест настроения , то тест Klotz и тест Sukhatme . Тест Сухатме применяется к двум дисперсиям и требует, чтобы обе медианы были известны и равны нулю. Тесты Настроение, Клотца, Капона и Бартона – Дэвида – Ансари – Фройнда – Зигеля – Тьюки также применимы к двум дисперсиям. Они позволяют неизвестной медиане, но требуют, чтобы две медианы были равны.

Тест Лемана - это параметрический тест двух дисперсий. Известно несколько вариантов этого теста. Другие тесты равенства дисперсий включают тест Box , на тест-Box Андерсон и тест Moses .

Методы повторной выборки, которые включают бутстрап и складной нож , могут использоваться для проверки равенства дисперсий.

История [ править ]

Термин « дисперсия» был впервые введен Рональдом Фишером в его статье 1918 года «Корреляция между родственниками на основе предположения о менделевском наследовании» : [20]

Большой объем доступной статистики показывает нам, что отклонения человеческого измерения от его среднего очень точно следуют нормальному закону ошибок , и, следовательно, что изменчивость может быть равномерно измерена стандартным отклонением, соответствующим квадратному корню из среднего. квадратная ошибка . Когда есть две независимые причины изменчивости, способные приводить к однородному распределению популяции со стандартными отклонениями, и обнаруживается, что распределение, когда обе причины действуют вместе, имеет стандартное отклонение. Поэтому при анализе причин изменчивости желательно иметь дело с квадратом стандартного отклонения как мерой изменчивости. Назовем эту величину Дисперсией ...

Геометрическая визуализация дисперсии произвольного распределения (2, 4, 4, 4, 5, 5, 7, 9):
  1. Построено частотное распределение.
  2. Центроид распределения дает среднее значение.
  3. Для каждого значения формируется квадрат со сторонами, равными разнице каждого значения от среднего.
  4. Расположение квадратов в прямоугольник с одной стороной, равной количеству значений n , приводит к тому, что другая сторона представляет собой дисперсию распределения σ 2 .

Момент инерции [ править ]

Дисперсия распределения вероятности аналогична моменту инерции в классической механике соответствующего распределения массы вдоль линии относительно вращения вокруг ее центра масс. [ Править ] Именно из - за этой аналогии , что такие вещи , как дисперсия называются моменты из вероятностных распределений . [ необходимая цитата ] Ковариационная матрица связана с тензором момента инерции для многомерных распределений. Момент инерции облака из n точек с ковариационной матрицей равен [цитата необходима ]

Эта разница между моментом инерции в физике и статистике очевидна для точек, собранных вдоль линии. Предположим, что многие точки расположены близко к оси x и распределены вдоль нее. Ковариационная матрица может выглядеть как

То есть наибольшая разница в направлении x . Физики рассмотрит это иметь низкий момент о с х оси так , тензор о моменте инерции

Полувариантность [ править ]

Semivariance рассчитывается таким же образом , как и дисперсия , но только те наблюдения , которые попадают ниже среднего значения включаются в расчете:

Иногда его называют мерой риска ухудшения ситуации с инвестициями . Для асимметричных распределений полувариантность может предоставить дополнительную информацию, которой нет в дисперсии. [21]

О неравенствах, связанных с полувариантностью, см. Неравенство Чебышева § Полувариантности .

Обобщения [ править ]

Для сложных переменных [ править ]

Если есть скаляр комплекс значная случайная переменный, со значениями в том его дисперсия , где является комплексно сопряженным из этой дисперсии является реальным скаляром.

Для векторных случайных величин [ править ]

В виде матрицы [ править ]

Если это случайная величина с векторным значением , значения которой рассматриваются как вектор-столбец, то естественным обобщением дисперсии является то, где и является транспонированием, а также вектор-строка. Результатом является положительная полуопределенная квадратная матрица , обычно называемая матрицей дисперсии-ковариации (или просто ковариационной матрицей ).

Если это вектор- и -комплекснозначная случайная величина, со значениями в то ковариационная матрица является , где это сопряженное транспонирование из [ править ] Эта матрица также положительно полуопределенная и площади.

Как скаляр [ править ]

Другое обобщение дисперсии для векторных случайных величин , которое приводит к скалярному значению, а не к матрице, - это обобщенная дисперсия , определяющая ковариационная матрица. Можно показать, что обобщенная дисперсия связана с многомерным разбросом точек вокруг их среднего значения. [22]

Другое обобщение получается, если рассматривать евклидово расстояние между случайной величиной и ее средним значением. В результате получается след ковариационной матрицы.

См. Также [ править ]

  • Неравенство Бхатиа – Дэвиса
  • Коэффициент вариации
  • Гомоскедастичность
  • Меры статистической дисперсии
  • Неравенство Поповичу о дисперсиях

Типы дисперсии [ править ]

  • Корреляция
  • Отклонение расстояния
  • Объясненная дисперсия
  • Объединенная дисперсия

Ссылки [ править ]

  1. ^ Юли Чжан, Huaiyu Ву, Лей Ченг (июнь 2012). Некоторые новые формулы деформации о дисперсии и ковариации . Труды 4-й Международной конференции по моделированию, идентификации и контролю (ICMIC2012). С. 987–992.CS1 maint: uses authors parameter (link)
  2. ^ Лоэв, М. (1977) "Теория вероятностей", Тексты для выпускников по математике , том 45, 4-е издание, Springer-Verlag, стр. 12.
  3. ^ Bienaymé, I.-J. (1853) "Рассмотрение приложения де-ла-де-куверта Лапласа о вероятности использования метода движения", Comptes rendus de l'Académie des Sciences Paris , 37, p. 309–317; имеется цифровая копия [1]
  4. ^ Bienaymé, I.-J. (1867) «Рассмотрение аппликаций де-ла-де-де-куверт де-Лаплас по принципу вероятности использования метода», Journal de Mathématiques Pures et Appliquées, Série 2 , Tome 12, p. 158–167; имеется цифровая копия [2] [3]
  5. ^ Корнелл, младший, и Бенджамин, Калифорния, Вероятность, статистика и решения для инженеров-строителей, McGraw-Hill, NY, 1970, стр 178-9.
  6. ^ Джонсон, Ричард; Уичерн, Дин (2001). Прикладной многомерный статистический анализ . Прентис Холл. п. 76 . ISBN 0-13-187715-1.
  7. Перейти ↑ Goodman, Leo A. (декабрь 1960). «О точной дисперсии товаров». Журнал Американской статистической ассоциации . 55 (292): 708–713. DOI : 10.2307 / 2281592 . JSTOR 2281592 . 
  8. ^ Каган, А .; Шепп, Л.А. (1998). «Почему разница?». Статистические и вероятностные письма . 38 (4): 329–333. DOI : 10.1016 / S0167-7152 (98) 00041-8 .
  9. ^ Навиди, Уильям (2006) Статистика для инженеров и ученых , Макгроу-Хилл, стр.14.
  10. ^ Монтгомери, DC и Runger, GC (1994) Прикладная статистика и вероятность для инженеров , страница 201. John Wiley & Sons НьюЙорк
  11. ^ Найт К. (2000), Математическая статистика , Чепмен и Холл, Нью-Йорк. (предложение 2.11)
  12. ^ Каселла и Бергер (2002) Статистический вывод , пример 7.3.3, стр. 331 [ требуется полная ссылка ]
  13. ^ Чо, Ынчхун; Чо, Мун Юнг; Элтинг, Джон (2005) Дисперсия выборочной дисперсии от конечной совокупности. Международный журнал чистой и прикладной математики 21 (3): 387-394. http://www.ijpam.eu/contents/2005-21-3/10/10.pdf
  14. ^ Кенни, Джон Ф .; Хранение, ES (1951) Математика статистики. Часть вторая. 2-е изд. D. Van Nostrand Company, Inc. Принстон: Нью-Джерси. http://krishikosh.egranth.ac.in/bitstream/1/2025521/1/G2257.pdf
  15. ^ Роза, Колин; Смит, Мюррей Д. (2002) Математическая статистика с помощью Mathematica. Спрингер-Верлаг, Нью-Йорк. http://www.mathstatica.com/book/Mat Mathematical_Statistics_with_Mathematica.pdf
  16. ^ Вайсштейн, Эрик В. (nd) Выборочное распределение дисперсии. MathWorld - Интернет-ресурс Wolfram. http://mathworld.wolfram.com/SampleVarianceDistribution.html
  17. ^ Самуэльсон, Пол (1968). «Насколько девиантным вы можете быть?». Журнал Американской статистической ассоциации . 63 (324): 1522–1525. DOI : 10.1080 / 01621459.1968.10480944 . JSTOR 2285901 . 
  18. ^ Мерсер, А. МакД. (2000). «Оценки A – G, A – H, G – H и семейство неравенств типа Ки Фана с использованием общего метода». J. Math. Анальный. Appl . 243 (1): 163–173. DOI : 10,1006 / jmaa.1999.6688 .
  19. ^ Шарма, Р. (2008). «Еще несколько неравенств для среднего арифметического, гармонического среднего и дисперсии». Журнал математических неравенств . 2 (1): 109–114. CiteSeerX 10.1.1.551.9397 . DOI : 10.7153 / Jmi-02-11 . 
  20. ^ Рональд Фишер (1918) Корреляция между родственниками на предположении менделевского наследования
  21. ^ Фама, Юджин Ф .; Френч, Кеннет Р. (21 апреля 2010 г.). «Вопросы и ответы: полувариантность: лучший показатель риска?» . Фама / Французский форум .
  22. ^ Кочерлакота, S .; Кочерлакота, К. (2004). «Обобщенная дисперсия». Энциклопедия статистических наук . Интернет-библиотека Wiley. DOI : 10.1002 / 0471667196.ess0869 . ISBN 0471667196.