Независимость (теория вероятностей)


Независимость — фундаментальное понятие в теории вероятностей , а также в статистике и теории случайных процессов . Два события являются независимыми , статистически независимыми или стохастически независимыми [1] , если, неформально говоря, появление одного не влияет на вероятность появления другого или, что то же самое, не влияет на шансы . Аналогично две случайные величины являются независимыми, если реализация одной не влияет на распределение вероятностей другой.

При работе с наборами из более чем двух событий необходимо различать два понятия независимости. События называются попарно независимыми, если любые два события в коллекции независимы друг от друга, тогда как взаимная независимость (или коллективная независимость ) событий означает, неформально говоря, что каждое событие не зависит от любой комбинации других событий в коллекции. Аналогичное понятие существует для наборов случайных величин. Взаимная независимость подразумевает попарную независимость, но не наоборот. В стандартной литературе по теории вероятностей, статистике и случайным процессам независимость без дополнительных уточнений обычно относится к взаимной независимости.

Два события и независимы (часто пишутся как или , где последний символ часто также используется для обозначения условной независимости ) тогда и только тогда, когда их совместная вероятность равна произведению их вероятностей: [2] : p. 29  [3] : с. 10 

указывает на то, что два независимых события имеют общие элементы в своем пространстве выборки , поэтому они не являются взаимоисключающими (взаимоисключающие, если только ). Почему это определяет независимость, становится ясно, если переписать условные вероятности как вероятность, с которой событие произойдет, при условии, что событие произошло или предполагается, что оно произошло: