В теории вероятностей цепное правило (также называемое общим правилом произведения ) позволяет вычислять любой член совместного распределения набора случайных величин, используя только условные вероятности . Правило полезно при изучении байесовских сетей , которые описывают распределение вероятностей в терминах условных вероятностей.
Цепное правило для событий [ править ] Два события [ править ] Цепное правило для двух случайных событий и говорит А {\ displaystyle A} B {\ displaystyle B}
п ( А ∩ B ) знак равно п ( B ∣ А ) ⋅ п ( А ) {\ Displaystyle P (A \ крышка B) = P (B \ mid A) \ cdot P (A)} .Это правило проиллюстрировано в следующем примере. В урне 1 есть 1 черный шар и 2 белых шара, а в урне 2 - 1 черный шар и 3 белых шара. Предположим, мы выбираем урну наугад, а затем выбираем мяч из этой урны. Пусть событие будет выбирать первую урну: . Пусть событие будет шансом выбрать белый шар. Вероятность выбрать белый шар, учитывая, что мы выбрали первую урну, составляет . Событием будет их пересечение: выбор первой урны и белого шара из нее. Вероятность можно найти с помощью цепного правила вероятности: А {\ displaystyle A} п ( А ) знак равно п ( А ¯ ) знак равно 1 / 2 {\ Displaystyle P (A) = P ({\ overline {A}}) = 1/2} B {\ displaystyle B} п ( B | А ) знак равно 2 / 3 {\ Displaystyle P (B | A) = 2/3} А ∩ B {\ displaystyle A \ cap B}
п ( А ∩ B ) знак равно п ( B ∣ А ) п ( А ) знак равно 2 / 3 × 1 / 2 знак равно 1 / 3 {\ Displaystyle \ mathrm {P} (A \ cap B) = \ mathrm {P} (B \ mid A) \ mathrm {P} (A) = 2/3 \ times 1/2 = 1/3} .Более двух событий [ править ] Для более чем двух событий правило цепочки распространяется на формулу А 1 , … , А п {\ Displaystyle A_ {1}, \ ldots, A_ {n}}
п ( А п ∩ … ∩ А 1 ) знак равно п ( А п | А п - 1 ∩ … ∩ А 1 ) ⋅ п ( А п - 1 ∩ … ∩ А 1 ) {\displaystyle \mathrm {P} (A_{n}\cap \ldots \cap A_{1})=\mathrm {P} (A_{n}|A_{n-1}\cap \ldots \cap A_{1})\cdot \mathrm {P} (A_{n-1}\cap \ldots \cap A_{1})} которые по индукции можно превратить в
P ( A n ∩ … ∩ A 1 ) = ∏ k = 1 n P ( A k | ⋂ j = 1 k − 1 A j ) {\displaystyle \mathrm {P} (A_{n}\cap \ldots \cap A_{1})=\prod _{k=1}^{n}\mathrm {P} \left(A_{k}\,{\Bigg |}\,\bigcap _{j=1}^{k-1}A_{j}\right)} .С четырьмя событиями ( ) цепное правило n = 4 {\displaystyle n=4}
P ( A 1 ∩ A 2 ∩ A 3 ∩ A 4 ) = P ( A 4 ∣ A 3 ∩ A 2 ∩ A 1 ) ⋅ P ( A 3 ∩ A 2 ∩ A 1 ) = P ( A 4 ∣ A 3 ∩ A 2 ∩ A 1 ) ⋅ P ( A 3 ∣ A 2 ∩ A 1 ) ⋅ P ( A 2 ∩ A 1 ) = P ( A 4 ∣ A 3 ∩ A 2 ∩ A 1 ) ⋅ P ( A 3 ∣ A 2 ∩ A 1 ) ⋅ P ( A 2 ∣ A 1 ) ⋅ P ( A 1 ) {\displaystyle {\begin{aligned}\mathrm {P} (A_{1}\cap A_{2}\cap A_{3}\cap A_{4})&=\mathrm {P} (A_{4}\mid A_{3}\cap A_{2}\cap A_{1})\cdot \mathrm {P} (A_{3}\cap A_{2}\cap A_{1})\\&=\mathrm {P} (A_{4}\mid A_{3}\cap A_{2}\cap A_{1})\cdot \mathrm {P} (A_{3}\mid A_{2}\cap A_{1})\cdot \mathrm {P} (A_{2}\cap A_{1})\\&=\mathrm {P} (A_{4}\mid A_{3}\cap A_{2}\cap A_{1})\cdot \mathrm {P} (A_{3}\mid A_{2}\cap A_{1})\cdot \mathrm {P} (A_{2}\mid A_{1})\cdot \mathrm {P} (A_{1})\end{aligned}}} Цепное правило для случайных величин [ править ] Две случайные величины [ править ] Для двух случайных величин , чтобы найти совместное распределение, мы можем применить определение условной вероятности, чтобы получить: X , Y {\displaystyle X,Y}
P ( X , Y ) = P ( X ∣ Y ) ⋅ P ( Y ) {\displaystyle \mathrm {P} (X,Y)=\mathrm {P} (X\mid Y)\cdot P(Y)} Более двух случайных величин [ править ] Рассмотрим индексированный набор случайных величин . Чтобы найти значение этого члена совместного распределения, мы можем применить определение условной вероятности, чтобы получить: X 1 , … , X n {\displaystyle X_{1},\ldots ,X_{n}}
P ( X n , … , X 1 ) = P ( X n | X n − 1 , … , X 1 ) ⋅ P ( X n − 1 , … , X 1 ) {\displaystyle \mathrm {P} (X_{n},\ldots ,X_{1})=\mathrm {P} (X_{n}|X_{n-1},\ldots ,X_{1})\cdot \mathrm {P} (X_{n-1},\ldots ,X_{1})} Повторение этого процесса с каждым последним термином создает продукт:
P ( ⋂ k = 1 n X k ) = ∏ k = 1 n P ( X k | ⋂ j = 1 k − 1 X j ) {\displaystyle \mathrm {P} \left(\bigcap _{k=1}^{n}X_{k}\right)=\prod _{k=1}^{n}\mathrm {P} \left(X_{k}\,{\Bigg |}\,\bigcap _{j=1}^{k-1}X_{j}\right)} С четырьмя переменными ( ) цепное правило дает следующий продукт условных вероятностей: n = 4 {\displaystyle n=4}
P ( X 4 , X 3 , X 2 , X 1 ) = P ( X 4 ∣ X 3 , X 2 , X 1 ) ⋅ P ( X 3 , X 2 , X 1 ) = P ( X 4 ∣ X 3 , X 2 , X 1 ) ⋅ P ( X 3 ∣ X 2 , X 1 ) ⋅ P ( X 2 , X 1 ) = P ( X 4 ∣ X 3 , X 2 , X 1 ) ⋅ P ( X 3 ∣ X 2 , X 1 ) ⋅ P ( X 2 ∣ X 1 ) ⋅ P ( X 1 ) {\displaystyle {\begin{aligned}\mathrm {P} (X_{4},X_{3},X_{2},X_{1})&=\mathrm {P} (X_{4}\mid X_{3},X_{2},X_{1})\cdot \mathrm {P} (X_{3},X_{2},X_{1})\\&=\mathrm {P} (X_{4}\mid X_{3},X_{2},X_{1})\cdot \mathrm {P} (X_{3}\mid X_{2},X_{1})\cdot \mathrm {P} (X_{2},X_{1})\\&=\mathrm {P} (X_{4}\mid X_{3},X_{2},X_{1})\cdot \mathrm {P} (X_{3}\mid X_{2},X_{1})\cdot \mathrm {P} (X_{2}\mid X_{1})\cdot \mathrm {P} (X_{1})\end{aligned}}} Шум, Дэвид А. (1994). Доказательные основы вероятностного рассуждения . Издательство Северо-Западного университета. п. 49. ISBN 978-0-8101-1821-8 . Клу, Генри Э. (2013). Статистика: Основы для исследований (3-е изд.). Психология Press. п. 149. ISBN. 978-1-134-92862-0 . Рассел, Стюарт Дж .; Норвиг, Питер (2003), Искусственный интеллект: современный подход (2-е изд.), Верхняя Сэдл-Ривер, Нью-Джерси: Prentice Hall, ISBN 0-13-790395-2 , п. 496.«Цепное правило вероятности» , developerWorks , 3 ноября 2012 г.