Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

В теории вероятностей , условная вероятность является мерой вероятности в качестве события , происходящего, при условии , что другое событие (по предположению, предположение, утверждение или доказательства) уже произошло. [1] Если интересующим событием является событие A, а событие B известно или предполагается, что оно произошло, «условная вероятность A при условии B » или «вероятность A при условии B » обычно записывается как P ( A | B ) , [2] [3] или иногда PB ( A )илиP ( A / B ). Например, вероятность того, что какой-либо конкретный человек кашляет в любой день, может составлять всего 5%. Но если мы знаем или предполагаем, что человек болен, то у него гораздо больше шансов кашлять. Например, условная вероятность того, что кто-то плохо себя чувствует, кашляет, может составлять 75%, и в этом случае у нас будетP (Кашель)= 5% иP (Кашель | Больной)= 75%.

Условная вероятность - одно из важнейших и фундаментальных понятий теории вероятностей. [4] Но условные вероятности могут быть довольно скользкими и могут потребовать осторожной интерпретации. [5] Например, между A и B не должно быть причинно-следственной связи , и они не должны возникать одновременно.

P ( A | B ) может быть равно P ( A ), а может и не быть (безусловная вероятность A ). Если P ( A | B ) = P ( A ) , то события A и B называются независимыми : в таком случае знание любого события не изменяет вероятность друг друга. P ( A | B ) (условная вероятность A для данного B ) обычно отличается от P ( B | A ). Например, если у человека лихорадка денге , у него может быть 90% -ная вероятность положительного результата теста на денге. В этом случае измеряется то, что если событие B («лихорадка денге») произошло, вероятность A ( тест положительный ) при условии, что B ( наличие лихорадки денге ) имеет место, составляет 90%: то есть P ( A | Б ) = 90%. В качестве альтернативы, если у человека положительный результат теста на денге, у него может быть только 15% шанс действительно заболеть этим редким заболеванием, потому что количество ложных положительных результатов теста может быть высоким. В этом случае измеряется вероятность события B (денге ) при условии, что произошло событие A ( тест положительный ): P ( B | A ) = 15%. Ошибочное приравнивание двух вероятностей может привести к различным ошибкам в рассуждении, таким как ошибка базовой ставки . Условные вероятности можно обратить с помощью теоремы Байеса .

Условные вероятности могут отображаться в таблице условных вероятностей .

Определение [ править ]

Иллюстрация условных вероятностей с помощью диаграммы Эйлера . Безусловная вероятность P ( A ) = 0,30 + 0,10 + 0,12 = 0,52. Однако условная вероятность P ( A | B 1 ) = 1, P ( A | B 2 ) = 0,12 ÷ (0,12 + 0,04) = 0,75 и P ( A | B 3 ) = 0.
На древовидной диаграмме вероятности ветвления зависят от события, связанного с родительским узлом. (Здесь верхние черты указывают на то, что событие не происходит.)
Круговая диаграмма Венна, описывающая условные вероятности

Привязка к событию [ править ]

Колмогоровское определение [ править ]

Даны два события A и B от сигма-полей в вероятностном пространстве, с безусловной вероятностью в Б быть больше нуля (т.е. Р ( В )> 0) , условная вероятность А данный B определена , чтобы быть фактором вероятности стыка событий A и B , и вероятности из B : [3] [6] [7]

где - вероятность того, что оба события A и B произойдут. Это можно представить как ограничение пространства выборки ситуациями, в которых встречается B. Логика, лежащая в основе этого уравнения, заключается в том, что если возможные исходы для A и B ограничены теми, в которых встречается B , этот набор служит новым пространством выборки.

Обратите внимание, что приведенное выше уравнение является определением, а не теоретическим результатом. Мы просто обозначают количество , как и назвать это условная вероятность А данного B .

Как аксиома вероятности [ править ]

Некоторые авторы, такие как де Финетти , предпочитают вводить условную вероятность как аксиому вероятности :

Хотя это математически эквивалентно, это может быть предпочтительнее с философской точки зрения; согласно основным интерпретациям вероятности , таким как субъективная теория , условная вероятность считается примитивной сущностью. Кроме того, эта «аксиома умножения» вводит симметрию с аксиомой суммирования для взаимоисключающих событий : [8]

Как вероятность условного события [ править ]

Условную вероятность можно определить как вероятность условного события . Гудман-Нгуен-Ван Фраассен условное событие может быть определена как

Можно показать, что

что соответствует колмогоровскому определению условной вероятности.

Условие на событии с нулевой вероятностью [ править ]

Если P ( B ) = 0 , то согласно определению P ( A | B ) не определено .

Наибольший интерес представляет случай случайной величины Y , обусловленной непрерывной случайной величиной X, приводящей к конкретному результату x . Событие имеет нулевую вероятность и, как таковое, не может быть обусловлено.

Вместо того, чтобы обусловливать, чтобы X был точно x , мы могли бы сделать условие, чтобы он был ближе, чем расстояние от x . Событие обычно имеет ненулевую вероятность и, следовательно, может быть обусловлено. Затем мы можем взять предел

Например, если две непрерывные случайные величины X и Y имеют совместную плотность , то по правилу Лопиталя :

В результате чего пределом является условным распределением вероятностей по У данного X и существует тогда , когда знаменатель, плотность вероятности , строго положителен.

Заманчиво определить неопределенную вероятность, используя этот предел, но это не может быть сделано согласованным образом. В частности, можно найти случайные величины X и W и значения x , w такие, что события и идентичны, но результирующие пределы не совпадают: [9]

Парадокс Бореля-Колмогорова демонстрирует это с геометрическим аргументом.

Условие на случайную переменную [ править ]

Пусть Х случайная величина и ее возможные результаты обозначены V . Например, если X представляет собой значение прокатанного кубика, то V - это набор . Предположим для презентации, что X - дискретная случайная величина, так что каждое значение в V имеет ненулевую вероятность.

Для значения x в V и события A условная вероятность равна . Письмо

для краткости, мы видим , что она является функцией двух переменных х и А .

Для фиксированного A мы можем сформировать случайную величину . Он представляет собой результат всякий раз , когда значение х из X наблюдается.

Таким образом, условную вероятность A для данного X можно рассматривать как случайную величину Y с результатами в интервале . Из закона полной вероятности , его ожидаемая величина равна безусловной вероятности из A .

Частичная условная вероятность [ править ]

Частичная условная вероятность - это вероятность события при условии, что каждое из условных событий произошло в степени (степень уверенности, степень опыта), которая может отличаться от 100%. Часто частичная условная вероятность имеет смысл, если условия проверяются в повторениях экспериментов соответствующей продолжительности . [10] Такая ограниченная частичная условная вероятность может быть определена как условно ожидаемое среднее возникновение события на испытательных стендах, длина которых соответствует всем спецификациям вероятности , то есть:

[10]

Исходя из этого, частичную условную вероятность можно определить как

где [10]

Обусловленность Джеффри [11] [12] - это частный случай частичной условной вероятности, в котором условные события должны образовывать раздел :

Пример [ править ]

Предположим, что кто-то тайно бросает два честных шестигранных кубика , и мы хотим вычислить вероятность того, что открытое значение первого кубика равно 2, учитывая информацию о том, что их сумма не больше 5.

  • Пусть D 1 будет значением, выпавшим на кубике 1.
  • Пусть D 2 будет значением, брошенным на кубике 2.

Вероятность того, что D 1  = 2

В таблице 1 показано пространство выборки из 36 комбинаций выпавших значений двух кубиков, каждая из которых встречается с вероятностью 1/36, с числами, отображаемыми в красных и темно-серых ячейках, как D 1 + D 2 .

D 1  = 2 ровно в 6 из 36 исходов; Таким образом , Р ( D 1 = 2) = 6 / 36  = 1 / 6 :

Вероятность того, что D 1  +  D 2  ≤ 5

Таблица 2 показывает , что D 1  +  D 2  ≤ 5 ровно 10 из 36 результатов, таким образом , P ( D 1  +  D 2  ≤ 5) = 10 / 36 :

Вероятность того, что D 1  = 2 при условии, что D 1  +  D 2  ≤ 5

Таблица 3 показывает, что для 3 из этих 10 исходов D 1  = 2.

Таким образом, условная вероятность Р ( D 1  = 2 |  D 1 + D 2  ≤ 5) = 3 / 10  = 0,3:

Здесь, в более раннем обозначении определения условной вероятности, обусловливающее событие B - это то, что D 1  +  D 2  ≤ 5, а событие A - это D 1  = 2. Как видно из таблицы.

Использовать в выводе [ править ]

В статистическом выводе условная вероятность - это обновление вероятности события на основе новой информации. [5] Новая информация может быть включена следующим образом: [1]

  • Пусть A , интересующее событие, находится в пространстве выборки , скажем ( X , P ).
  • Возникновение события A , если известно, что событие B произошло или произойдет, означает возникновение события A, поскольку оно ограничено B , т . Е.
  • Без информации о возникновении B информация о возникновении A была бы просто P ( A )
  • Вероятность А зная , что событие В имеет или будет иметь место, будет вероятность по отношению к P ( B ), вероятность того, что В произошло.
  • Это приводит к тому, когда Р ( В )> 0 и 0 в противном случае.

Этот подход приводит к вероятностной мере, которая согласуется с исходной вероятностной мерой и удовлетворяет всем аксиомам Колмогорова . Эта мера условной вероятности также могла быть результатом предположения, что относительная величина вероятности A по отношению к X будет сохранена по отношению к B (см. Формальный вывод ниже).

Формулировки «свидетельство» или «информация» обычно используются в байесовской интерпретации вероятности . Условное событие интерпретируется как свидетельство условного события. То есть P ( A ) - это вероятность A до учета свидетельства E , а P ( A | E ) - это вероятность A после учета свидетельства E или после обновления P ( A ). Это согласуется с частотной интерпретацией, которая является первым определением, данным выше.

Статистическая независимость [ править ]

События A и B считаются статистически независимыми, если

Если P ( B ) не равно нулю, то это эквивалентно утверждению, что

Аналогично, если P ( A ) не равно нулю, то

также эквивалентен. Несмотря на то, что полученные формы могут показаться более интуитивными, они не являются предпочтительным определением , как условные вероятности могут быть определены, а предпочтительное определение является симметричным A и B .

Независимые события против взаимоисключающих событий

Понятия взаимно независимых событий и взаимоисключающих событий раздельны и различны. В следующей таблице сравниваются результаты для двух случаев (при условии, что вероятность обусловливающего события не равна нулю).

Фактически, взаимоисключающие события не могут быть статистически независимыми (если только они оба не являются невозможными), поскольку знание того, что одно происходит, дает информацию о другом (в частности, что последнее, безусловно, не произойдет).

Распространенные заблуждения [ править ]

Эти заблуждения не следует путать с «условным заблуждением» Роберта К. Шоупа 1978 года , которое имеет дело с контрфактическими примерами, которые поднимают вопрос .

Предполагая, что условная вероятность того же размера, что и обратная [ править ]

Геометрическая визуализация теоремы Байеса. В таблице значения 2, 3, 6 и 9 дают относительные веса каждого соответствующего условия и случая. Цифры обозначают ячейки таблицы, участвующие в каждой метрике, вероятность - это доля каждой затененной цифры. Это показывает, что P (A | B) P (B) = P (B | A) P (A), т.е. P (A | B) =P (B | A) P (А)/P (B). Аналогичные рассуждения можно использовать, чтобы показать, что P (Ā | B) =P (B | Ā) P (Ā)/P (B) и Т. Д.

В общем случае нельзя предполагать, что P ( A | B ) ≈  P ( B | A ). Это может быть коварной ошибкой даже для тех, кто хорошо разбирается в статистике. [13] Связь между P ( A | B ) и P ( B | A ) дается теоремой Байеса :

То есть P ( A | B ) ≈ P ( B | A ), только если P ( B ) / P ( A ) ≈ 1, или, что то же самое, P ( A ) ≈  P ( B ).

Предполагая, что предельная и условная вероятности имеют одинаковый размер [ править ]

В общем случае нельзя предполагать, что P ( A ) ≈  P ( A | B ). Эти вероятности связаны законом полной вероятности :

где события образуют счетный раздел из .

Это заблуждение может возникнуть из-за систематической ошибки отбора . [14] Например, в контексте медицинской претензии, пусть S С быть событие , которое в осложнении (хроническое заболевание) S происходит вследствие обстоятельств (острого состояние) C . Пусть H будет событием, когда человек обращается за медицинской помощью. Предположим, что в большинстве случаев C не вызывает S (так что P ( S C ) низкий). Предположим также, что за медицинской помощью обращаются только в том случае, если S произошло из-за C. Таким образом, исходя из опыта пациентов, врач может ошибочно заключить, что P ( S C ) высокий. Фактическая вероятность, наблюдаемая врачом, равна P ( S C | H ).

Приоры с завышением или занижением [ править ]

Частичное или полное отсутствие учета априорной вероятности называется пренебрежением базовой ставкой . Обратное, недостаточное приспособление к априорной вероятности - это консерватизм .

Формальное происхождение [ править ]

Формально P ( A  |  B ) определяется как вероятность A согласно новой функции вероятности в пространстве выборки, так что результаты, не входящие в B, имеют вероятность 0 и что она согласуется со всеми исходными вероятностными мерами . [15] [16]

Пусть Ω - пространство выборок с элементарными событиями { ω }, и пусть P - вероятностная мера относительно σ-алгебры Ω. Предположим, нам сказали, что произошло событие B  ⊆ Ω. Новое распределение вероятностей (обозначенное условным обозначением) должно быть присвоено на { ω }, чтобы отразить это. Все события, не входящие в B, будут иметь нулевую вероятность в новом распределении. Для событий в B должны быть выполнены два условия: вероятность B равна единице, и относительные величины вероятностей должны быть сохранены. Первое требуется аксиомами вероятности, и последнее проистекает из того факта, что новая вероятностная мера должна быть аналогом P, в котором вероятность B равна единице - и , следовательно, каждое событие, не входящее в B , имеет нулевую вероятность. Следовательно, для некоторого масштабного коэффициента α новое распределение должно удовлетворять:

Подставляя 1 и 2 на 3, чтобы выбрать α :

Итак, новое распределение вероятностей

Теперь для общего события A ,

См. Также [ править ]

  • Теорема Байеса
  • Байесовская эпистемология
  • Парадокс Бореля – Колмогорова.
  • Цепное правило (вероятность)
  • Вероятности членства в классе
  • Условная независимость
  • Условное распределение вероятностей
  • Обусловленность (вероятность)
  • Совместное распределение вероятностей
  • Проблема Монти Холла
  • Попарно независимое распределение
  • Апостериорная вероятность
  • Обычная условная вероятность

Ссылки [ править ]

  1. ^ a b Gut, Аллан (2013). Вероятность: аспирантура (второе изд.). Нью-Йорк, штат Нью-Йорк: Спрингер. ISBN 978-1-4614-4707-8.
  2. ^ «Список вероятностных и статистических символов» . Математическое хранилище . 2020-04-26 . Проверено 11 сентября 2020 .
  3. ^ a b «Условная вероятность» . www.mathsisfun.com . Проверено 11 сентября 2020 .
  4. ^ Росс, Шелдон (2010). Первый курс вероятности (8-е изд.). Пирсон Прентис Холл. ISBN 978-0-13-603313-4.
  5. ^ а б Каселла, Джордж; Бергер, Роджер Л. (2002). Статистический вывод . Duxbury Press. ISBN 0-534-24312-6.
  6. ^ Колмогоров, Андрей (1956), Основы теории вероятностей , Челси
  7. ^ «Условная вероятность» . www.stat.yale.edu . Проверено 11 сентября 2020 .
  8. ^ Гиллис, Дональд (2000); «Философские теории вероятностей»; Рутледж; Глава 4 «Субъективная теория»
  9. Галь, Ярин. «Парадокс Бореля – Колмогорова» (PDF) .
  10. ^ a b c Драхейм, Дирк (2017). «Обобщенная условность Джеффри (частичная семантика частичной условности)» . Springer . Проверено 19 декабря 2017 года .
  11. ^ Джеффри, Ричард С. (1983), Логика принятия решений, 2-е издание , University of Chicago Press, ISBN 9780226395821
  12. ^ "Байесовская эпистемология" . Стэнфордская энциклопедия философии. 2017 . Проверено 29 декабря 2017 года .
  13. ^ Паулос, JA (1988) Неграмотность: математическая неграмотность и ее последствия , Хилл и Ван. ISBN 0-8090-7447-8 (стр. 63 и след. ) 
  14. ^ Томас Брюсс, F; Der Wyatt Earp Effekt; Spektrum der Wissenschaft; Март 2007 г.
  15. ^ Джордж Каселла и Роджер Л. Бергер (1990), Статистический вывод , Duxbury Press, ISBN 0-534-11958-1 (стр. 18 и след. ) 
  16. ^ Введение в вероятность Гринстеда и Снелла , стр. 134

Внешние ссылки [ править ]

  • Вайсштейн, Эрик В. «Условная вероятность» . MathWorld .
  • F. Thomas Bruss Der Wyatt-Earp-Effekt oder die betörende Macht kleiner Wahrscheinlichkeiten (на немецком языке), Spektrum der Wissenschaft (Немецкое издание журнала Scientific American), том 2, 110–113, (2007).
  • Визуальное объяснение условной вероятности