Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

В теории вероятностей , то закон общей дисперсии [1] или формула разложения дисперсии или условной дисперсия формул или закона повторных дисперсий также известный как права Евы , [2] утверждает , что если X и Y являются случайными величинами на то же вероятностном пространстве , и дисперсия из Y конечна, то

На языке, который, возможно, лучше известен статистикам, чем теоретикам вероятности, эти два термина являются «необъяснимым» и «объясненным» компонентами дисперсии соответственно (ср. Долю необъяснимой дисперсии , объясненную вариацию ). В актуарной науке , в частности в теории достоверности , первый компонент называется ожидаемым значением дисперсии процесса ( EVPV ), а второй - дисперсией гипотетических средних ( VHM ). [3] Эти два компонента также являются источником термина «закон Евы», от инициалов EV VE, означающих «ожидание дисперсии» и «дисперсия ожидания».

Существует общая формула разложения дисперсии для c  ≥ 2 компонентов (см. Ниже). [4] Например, с двумя обусловливающими случайными величинами:

что следует из закона полной условной дисперсии: [4]

Обратите внимание , что условное математическое ожидание E ( Y | X ) является случайной величиной в своем собственном праве, значение которого зависит от величины X . Обратите внимание, что условное ожидаемое значение Y для события X  =  x является функцией x (именно здесь становится важным соблюдение общепринятых и строго чувствительных к регистру обозначений теории вероятностей!). Если мы пишем E (  Y  |  X  =  x ) =  g ( x ), то случайная величина E ( Y | X )это просто g ( X ). Подобные комментарии относятся к условной дисперсии .

Один особый случай (аналогичный закону полного ожидания ) гласит, что если это раздел всего пространства результатов, т.е. эти события являются взаимоисключающими и исчерпывающими, то

В этой формуле первый компонент - это математическое ожидание условной дисперсии; два других компонента - это дисперсия условного ожидания.

Доказательство [ править ]

Закон полной дисперсии можно доказать с помощью закона полного ожидания . [5] Во-первых,

из определения дисперсии. Опять же, исходя из определения дисперсии и применения закона полного ожидания, мы имеем

Теперь мы перепишем условный второй момент Y в терминах его дисперсии и первого момента и применим закон полного математического ожидания с правой стороны:

Поскольку ожидание суммы - это сумма ожиданий, теперь можно перегруппировать условия:

Наконец, мы распознаем члены во втором наборе круглых скобок как дисперсию условного ожидания E [ Y  | X ]:

Разложение общей дисперсии применимо к динамическим системам [ править ]

Следующая формула показывает, как применить общую теоретико-мерную формулу разложения дисперсии [4] к стохастическим динамическим системам. Пусть Y ( t ) будет значением системной переменной в момент времени t . Предположим, у нас есть внутренние истории ( естественные фильтрации ) , каждая из которых соответствует истории (траектории) различного набора системных переменных. Коллекции не обязательно должны быть непересекающимися. Дисперсия Y ( t ) для всех моментов времени t может быть разложена  на c  ≥ 2 компонентов следующим образом:

Разложение не уникально. Это зависит от порядка кондиционирования при последовательном разложении.

Квадрат корреляции и объясненная (или информационная) вариация [ править ]

В случаях, когда ( YX ) таковы, что условное ожидаемое значение является линейным; т.е. в случаях, когда

из билинейности ковариантности следует, что

а также

и объясненный компонент дисперсии, деленный на общую дисперсию, представляет собой просто квадрат корреляции между Y и X ; т.е. в таких случаях

Один из примеров такой ситуации - когда ( X , Y ) имеют двумерное нормальное (гауссово) распределение.

В более общем смысле, когда условное ожидание E ( Y | X ) является нелинейной функцией от  X

[4]

который можно оценить как квадрат R из нелинейной регрессии Y по X , используя данные, полученные из совместного распределения ( X , Y ). Когда E ( Y | X ) имеет гауссово распределение (и является обратимой функцией от X ) или Y сам имеет (маргинальное) гауссово распределение, этот объясненный компонент вариации устанавливает нижнюю границу взаимной информации : [4]

Высшие моменты [ править ]

Аналогичный закон для третьего центрального момента μ 3 говорит

Для более высоких кумулянтов существует обобщение. См. Закон общей совокупности .

См. Также [ править ]

Ссылки [ править ]

  1. ^ Нил А. Вайс, Курс теории вероятностей , Аддисон – Уэсли, 2005 г., страницы 385–386.
  2. ^ Джозеф К. Блицштейн и Джессика Хванг: "Введение в вероятность"
  3. ^ Mahler, Howard C .; Дин, Кертис Гэри (2001). «Глава 8: Достоверность» (PDF) . В Актуарном обществе несчастных случаев (ред.). Основы актуарной науки о несчастных случаях (4-е изд.). Актуарное общество по несчастным случаям . С. 525–526. ISBN 978-0-96247-622-8. Проверено 25 июня 2015 года .
  4. ^ a b c d e Bowsher, CG и PS Swain, Определение источников вариаций и потока информации в биохимических сетях, PNAS 15 мая 2012 г. 109 (20) E1320-E1328.
  5. ^ Нил А. Вайс, Курс теории вероятностей , Аддисон – Уэсли, 2005 г., страницы 380–383.
  • Блицштейн, Джо. «Стат 110 Окончательный обзор (Закон Евы)» (PDF) . stat110.net . Гарвардский университет, статистический факультет . Проверено 9 июля 2014 .
  • Биллингсли, Патрик (1995). Вероятность и мера . Нью-Йорк, Нью-Йорк: ISBN John Wiley & Sons, Inc. 0-471-00710-2. (Проблема 34.10 (b))