В теории вероятностей , то закон общей дисперсии [1] или формула разложения дисперсии или условной дисперсия формул или закона повторных дисперсий также известный как права Евы , [2] утверждает , что если X и Y являются случайными величинами на то же вероятностном пространстве , и дисперсия из Y конечна, то
На языке, который, возможно, лучше известен статистикам, чем теоретикам вероятности, эти два термина являются «необъяснимым» и «объясненным» компонентами дисперсии соответственно (ср. Долю необъяснимой дисперсии , объясненную вариацию ). В актуарной науке , в частности в теории достоверности , первый компонент называется ожидаемым значением дисперсии процесса ( EVPV ), а второй - дисперсией гипотетических средних ( VHM ). [3] Эти два компонента также являются источником термина «закон Евы», от инициалов EV VE, означающих «ожидание дисперсии» и «дисперсия ожидания».
Существует общая формула разложения дисперсии для c ≥ 2 компонентов (см. Ниже). [4] Например, с двумя обусловливающими случайными величинами:
что следует из закона полной условной дисперсии: [4]
Обратите внимание , что условное математическое ожидание E ( Y | X ) является случайной величиной в своем собственном праве, значение которого зависит от величины X . Обратите внимание, что условное ожидаемое значение Y для события X = x является функцией x (именно здесь становится важным соблюдение общепринятых и строго чувствительных к регистру обозначений теории вероятностей!). Если мы пишем E ( Y | X = x ) = g ( x ), то случайная величина E ( Y | X )это просто g ( X ). Подобные комментарии относятся к условной дисперсии .
Один особый случай (аналогичный закону полного ожидания ) гласит, что если это раздел всего пространства результатов, т.е. эти события являются взаимоисключающими и исчерпывающими, то
В этой формуле первый компонент - это математическое ожидание условной дисперсии; два других компонента - это дисперсия условного ожидания.
Доказательство [ править ]
Закон полной дисперсии можно доказать с помощью закона полного ожидания . [5] Во-первых,
из определения дисперсии. Опять же, исходя из определения дисперсии и применения закона полного ожидания, мы имеем
Теперь мы перепишем условный второй момент Y в терминах его дисперсии и первого момента и применим закон полного математического ожидания с правой стороны:
Поскольку ожидание суммы - это сумма ожиданий, теперь можно перегруппировать условия:
Наконец, мы распознаем члены во втором наборе круглых скобок как дисперсию условного ожидания E [ Y | X ]:
Разложение общей дисперсии применимо к динамическим системам [ править ]
Следующая формула показывает, как применить общую теоретико-мерную формулу разложения дисперсии [4] к стохастическим динамическим системам. Пусть Y ( t ) будет значением системной переменной в момент времени t . Предположим, у нас есть внутренние истории ( естественные фильтрации ) , каждая из которых соответствует истории (траектории) различного набора системных переменных. Коллекции не обязательно должны быть непересекающимися. Дисперсия Y ( t ) для всех моментов времени t может быть разложена на c ≥ 2 компонентов следующим образом:
Разложение не уникально. Это зависит от порядка кондиционирования при последовательном разложении.
Квадрат корреляции и объясненная (или информационная) вариация [ править ]
В случаях, когда ( Y , X ) таковы, что условное ожидаемое значение является линейным; т.е. в случаях, когда
из билинейности ковариантности следует, что
а также
и объясненный компонент дисперсии, деленный на общую дисперсию, представляет собой просто квадрат корреляции между Y и X ; т.е. в таких случаях
Один из примеров такой ситуации - когда ( X , Y ) имеют двумерное нормальное (гауссово) распределение.
В более общем смысле, когда условное ожидание E ( Y | X ) является нелинейной функцией от X
который можно оценить как квадрат R из нелинейной регрессии Y по X , используя данные, полученные из совместного распределения ( X , Y ). Когда E ( Y | X ) имеет гауссово распределение (и является обратимой функцией от X ) или Y сам имеет (маргинальное) гауссово распределение, этот объясненный компонент вариации устанавливает нижнюю границу взаимной информации : [4]
Высшие моменты [ править ]
Аналогичный закон для третьего центрального момента μ 3 говорит
Для более высоких кумулянтов существует обобщение. См. Закон общей совокупности .
См. Также [ править ]
Ссылки [ править ]
- ^ Нил А. Вайс, Курс теории вероятностей , Аддисон – Уэсли, 2005 г., страницы 385–386.
- ^ Джозеф К. Блицштейн и Джессика Хванг: "Введение в вероятность"
- ^ Mahler, Howard C .; Дин, Кертис Гэри (2001). «Глава 8: Достоверность» (PDF) . В Актуарном обществе несчастных случаев (ред.). Основы актуарной науки о несчастных случаях (4-е изд.). Актуарное общество по несчастным случаям . С. 525–526. ISBN 978-0-96247-622-8. Проверено 25 июня 2015 года .
- ^ a b c d e Bowsher, CG и PS Swain, Определение источников вариаций и потока информации в биохимических сетях, PNAS 15 мая 2012 г. 109 (20) E1320-E1328.
- ^ Нил А. Вайс, Курс теории вероятностей , Аддисон – Уэсли, 2005 г., страницы 380–383.
- Блицштейн, Джо. «Стат 110 Окончательный обзор (Закон Евы)» (PDF) . stat110.net . Гарвардский университет, статистический факультет . Проверено 9 июля 2014 .
- Биллингсли, Патрик (1995). Вероятность и мера . Нью-Йорк, Нью-Йорк: ISBN John Wiley & Sons, Inc. 0-471-00710-2. (Проблема 34.10 (b))