Убеждения зависят от доступной информации. Эта идея формализована в теории вероятностей путем обусловливания . Условные вероятности , условные ожидания и условные распределения вероятностей рассматриваются на трех уровнях: дискретные вероятности , функции плотности вероятности и теория меры . Условие приводит к неслучайному результату, если условие полностью указано; в противном случае, если условие оставлено случайным, результат кондиционирования также будет случайным.
Кондиционирование на дискретном уровне
Пример: Честная монета подбрасывается 10 раз; случайная величина Х представляет собой число головок в этих 10 бросков, а Y - количество голов в первые 3 бросков. Несмотря на то , что Y возникает прежде , чем X может случиться так, что кто - то знает X , но не Y .
Условная возможность
Учитывая, что X = 1, условная вероятность события Y = 0 равна
В более общем смысле,
Можно также рассматривать условную вероятность как случайную величину - функцию случайной величины X , а именно,
Ожидание этой случайной величины равно (безусловная) вероятность,
а именно,
который является примером закона полной вероятности
Таким образом, можно рассматривать как значение случайной величины соответствующий X = 1.С другой стороны, хорошо определен независимо от других возможных значений X .
Условное ожидание
Учитывая, что X = 1, условное ожидание случайной величины Y равно В более общем смысле,
(В этом примере это выглядит линейной функцией, но в целом она нелинейна.) Можно также рассматривать условное ожидание как случайную величину - функцию случайной величины X , а именно,
Математическое ожидание этой случайной величины равно (безусловному) математическому ожиданию Y ,
а именно,
или просто
который является примером закона полного ожидания
Случайная величина является лучшим показателем Y дал X . То есть сводит к минимуму среднеквадратичную ошибку.на классе всех случайных величин вида f ( X ). Этот класс случайных величин остается неизменным , если X заменить, скажем, с 2 X . Таким образом, Это не значит, что скорее, В частности, В более общем смысле, для каждой функции г , что один-к-одному на множестве всех возможных значений X . Значения X не имеют значения; имеет значение разбиение (обозначим его α X )
выборочного пространства Ω на непересекающиеся множества { X = x n }. (Здесь- все возможные значения X. ) Для произвольного разбиения α области Ω можно определить случайную величину E ( Y | α). Тем не менее, E (E ( Y | α)) = E ( Y ).
Условную вероятность можно рассматривать как частный случай условного ожидания. А именно, Р ( | Х ) = Е ( Y | X ) , если Y представляет собой индикатор из A . Следовательно, условная вероятность также зависит от разбиения α X, порожденного X, а не от самого X ; P ( A | g ( X )) = P ( A | X ) = P ( A | α), α = α X = α g ( X ) .
С другой стороны, обусловленность события B четко определена при условии, чтонезависимо от того, какой раздел может содержать B как одну из нескольких частей.
Условное распространение
При X = x условное распределение Y равно
для 0 ≤ y ≤ min (3, x ). Это гипергеометрическое распределение H ( x ; 3, 7) или, что то же самое, H (3; x , 10- x ). Соответствующее математическое ожидание 0,3 х , полученное по общей формуле
для H ( n ; R , W ) есть не что иное, как условное ожидание E ( Y | X = x ) = 0,3 x .
Рассматривая H ( X ; 3, 7) как случайное распределение (случайный вектор в четырехмерном пространстве всех мер на {0,1,2,3}), можно принять его математическое ожидание, получив безусловное распределение Y , - биномиальное распределение Bin (3, 0.5). Этот факт сводится к равенству
для y = 0,1,2,3; который является примером закона полной вероятности .
Кондиционирование на уровне плотностей
Пример . Точка сферы x 2 + y 2 + z 2 = 1 выбирается случайным образом в соответствии с n-сферой # Генерация точек на поверхности n-шара [1] Случайные величины X , Y , Z являются координатами случайной точки. Совместная плотность Х , Y , Z не существует (так как сфера нулевого объема), но совместная плотность х X , Y из X , Y существует,
(Плотность непостоянна из-за непостоянного угла между сферой и плоскостью .) Плотность X может быть вычислена путем интегрирования,
как ни странно, результат не зависит от x в (−1,1),
что означает, что X равномерно распределено на (−1,1). То же самое верно для Y и Z (и фактически для aX + bY + cZ, если a 2 + b 2 + c 2 = 1).
Пример . Другой способ расчета функции предельного распределения представлен ниже [2] [3]
Условная возможность
Расчет
Учитывая, что X = 0,5, условная вероятность события Y ≤ 0,75 является интегралом от условной плотности,
В более общем смысле,
для всех x и y таких, что −1 < x <1 (иначе знаменатель f X ( x ) обращается в нуль) и(в противном случае условная вероятность вырождается в 0 или 1). Можно также рассматривать условную вероятность как случайную величину - функцию случайной величины X , а именно,
Математическое ожидание этой случайной величины равно (безусловной) вероятности,
что является примером закона полной вероятности E (P ( A | X )) = P ( A ).
Интерпретация
Условная вероятность P ( Y ≤ 0,75 | X = 0,5) не может быть интерпретирована как P ( Y ≤ 0,75, X = 0,5) / P ( X = 0,5), поскольку последняя дает 0/0. Соответственно, P ( Y ≤ 0,75 | X = 0,5) не может быть интерпретировано с помощью эмпирических частот, поскольку точное значение X = 0,5 не имеет шансов появиться случайно, даже один раз в бесконечной последовательности независимых испытаний.
Условную вероятность можно интерпретировать как предел,
Условное ожидание
Условное математическое ожидание E ( Y | X = 0,5) не представляет особого интереса; он исчезает просто по симметрии. Более интересно вычислить E (| Z | | X = 0,5) при рассмотрении | Z | как функция X , Y :
В более общем смысле,
для −1 < x <1. Условное математическое ожидание можно также рассматривать как случайную величину - функцию случайной величины X , а именно,
Математическое ожидание этой случайной величины равно (безусловному) математическому ожиданию | Z |,
а именно,
который является примером закона полного ожидания E (E ( Y | X )) = E ( Y ).
Случайная величина E (| Z | | X ) - лучший предсказатель | Z | учитывая X . То есть он минимизирует среднеквадратичную ошибку E (| Z | - f ( X )) 2 на классе всех случайных величин вида f ( X ). Аналогично дискретному случаю E (| Z | | g ( X )) = E (| Z | | X ) для любой измеримой функции g , взаимно однозначной на (-1,1).
Условное распространение
При X = x условное распределение Y , заданное плотностью f Y | X = x (y), - (масштабированное) распределение arcsin; его кумулятивная функция распределения равна
для всех x и y таких, что x 2 + y 2 <1. Соответствующее ожидание h ( x , Y ) есть не что иное, как условное ожидание E ( h ( X , Y ) | X = x ). Смесь этих условных распределений, взятые для всех х ( в соответствии с распределением X ) является безусловным распределением Y . Этот факт сводится к равенствам
последнее является примером упомянутого выше закона полной вероятности .
Что не является условием
На дискретном уровне обусловливание возможно только в том случае, если условие имеет ненулевую вероятность (нельзя делить на ноль). На уровне плотностей обусловливание на X = x возможно, даже если P ( X = x ) = 0. Этот успех может создать иллюзию, что обусловливание всегда возможно. К сожалению, это не так по нескольким причинам, изложенным ниже.
Геометрическая интуиция: осторожность
Упомянутый выше результат P ( Y ≤ 0,75 | X = 0,5) = 5/6 геометрически очевиден в следующем смысле. Точки ( x , y , z ) сферы x 2 + y 2 + z 2 = 1, удовлетворяющие условию x = 0,5, представляют собой окружность y 2 + z 2 = 0,75 радиусана плоскости x = 0,5. На дуге выполняется неравенство y ≤ 0,75. Длина дуги составляет 5/6 длины круга, поэтому условная вероятность равна 5/6.
Это успешное геометрическое объяснение может создать иллюзию тривиальности следующего вопроса.
- Точка данной сферы выбирается случайным образом (равномерно). Учитывая, что точка лежит на данной плоскости, каково ее условное распределение?
Может показаться очевидным, что условное распределение должно быть равномерным на данной окружности (пересечении данной сферы и данной плоскости). Иногда это действительно так, но в целом это не так. В частности, Z распределяется равномерно на (-1, + 1) и не зависит от отношения Y / X , таким образом, P ( Z ≤ 0,5 | Y / X ) = 0,75. С другой стороны, на дуге окружности x 2 + y 2 + z 2 = 1, y = cx (для любого заданного c ) выполняется неравенство z ≤ 0.5 . Длина дуги составляет 2/3 длины круга. Однако условная вероятность составляет 3/4, а не 2/3. Это проявление классического парадокса Бореля. [4] [5]
Апелляции к симметрии могут ввести в заблуждение, если не формализованы как аргументы инвариантности.
- Поллард [6]
Другой пример. Случайное вращение в трехмерном пространстве происходит вращение случайного угла вокруг оси случайной. Геометрическая интуиция подсказывает, что угол не зависит от оси и распределен равномерно. Однако последнее неверно; малые значения угла менее вероятны.
Ограничивающая процедура
Для события B с нулевой вероятностью формула бесполезно, однако можно попробовать для подходящей последовательности событий B n с ненулевой вероятностью, такой что B n ↓ B (т. е. а также ). Один пример приведен выше . Еще два примера - Броуновский мост и Броуновская экскурсия .
В последних двух примерах закон полной вероятности не имеет значения, поскольку дано только одно событие (условие). В отличие от этого , в примере выше закона полной вероятности применяется , так как события Х = 0,5 входит в семейство событий X = х , где х пробегает (-1,1), и эти события являются разбиение вероятности космос.
Во избежание парадоксов (например , парадокса Бореля ) следует учитывать следующее важное различие. Если данное событие имеет ненулевую вероятность, то обусловливание его четко определено (независимо от любых других событий), как было отмечено выше . Напротив, если данное событие имеет нулевую вероятность, то обусловливание его некорректно определено, если не предоставлены дополнительные входные данные. Неправильный выбор этого дополнительного входа приводит к неправильным условным вероятностям (ожиданиям, распределениям). В этом смысле « концепция условной вероятности относительно изолированной гипотезы, вероятность которой равна 0, недопустима » ( Колмогоров . [6])
Дополнительным входом может быть (а) симметрия (группа инвариантности); (б) последовательность событий B n такая, что B n ↓ B , P ( B n )> 0; (c) раздел, содержащий данное событие. Теоретико-мерное обусловливание (ниже) исследует Случай (c), раскрывает его связь с (b) в целом и с (a), когда это применимо.
Некоторые события с нулевой вероятностью находятся вне досягаемости обусловленности. Пример: пусть X n - независимые случайные величины, равномерно распределенные на (0,1), а B - событие « X n → 0 при n → ∞»; как насчет P ( X n <0,5 | B )? Имеет тенденцию к 1 или нет? Другой пример: пусть X - случайная величина, равномерно распределенная на (0,1), а B - событие « X - рациональное число»; как насчет P ( X = 1 / n | B )? Единственный ответ: опять же,
понятие условной вероятности применительно к изолированной гипотезе, вероятность которой равна 0, недопустимо.
- Колмогоров [6]
Обусловленность на уровне теории меры
Пример . Пусть Y - случайная величина, равномерно распределенная на (0,1), и X = f ( Y ), где f - заданная функция. Ниже рассматриваются два случая: f = f 1 и f = f 2 , где f 1 - непрерывная кусочно-линейная функция.
и f 2 - функция Вейерштрасса .
Геометрическая интуиция: осторожность
При X = 0,75 возможны два значения Y : 0,25 и 0,5. Может показаться очевидным, что оба значения имеют условную вероятность 0,5 только потому, что одна точка соответствует другой точке. Однако это иллюзия; см. ниже.
Условная возможность
Условная вероятность P ( Y ≤ 1/3 | X ) может быть определена как лучший предсказатель индикатора.
учитывая X . То есть минимизирует среднеквадратичную ошибку E ( I - g ( X )) 2 на классе всех случайных величин вида g ( X ).
В случае f = f 1 соответствующая функция g = g 1 может быть вычислена явно, [подробности 1]
В качестве альтернативы может использоваться процедура ограничения,
дает тот же результат.
Таким образом, P ( Y ≤ 1/3 | X ) = g 1 ( X ). Математическое ожидание этой случайной величины равно (безусловной) вероятности E (P ( Y ≤ 1/3 | X )) = P ( Y ≤ 1/3), а именно,
что является примером закона полной вероятности E (P ( A | X )) = P ( A ).
В случае f = f 2 соответствующая функция g = g 2, вероятно, не может быть вычислена явно. Тем не менее он существует и может быть вычислен численно. Действительно, пространство L 2 (Ω) всех квадратично интегрируемых случайных величин является гильбертово пространство ; индикатор I - вектор этого пространства; а случайные величины вида g ( X ) являются (замкнутым, линейным) подпространством. Ортогональная проекция этого вектора в этом подпространстве хорошо определена. Его можно вычислить численно, используя конечномерные приближения к бесконечномерному гильбертову пространству.
Еще раз, математическое ожидание случайной величины P ( Y ≤ 1/3 | X ) = g 2 ( X ) равно (безусловной) вероятности E (P ( Y ≤ 1/3 | X )) = P ( Y ≤ 1/3), а именно
Однако подход, основанный на гильбертовом пространстве, рассматривает g 2 как класс эквивалентности функций, а не как отдельную функцию. Измеримость g 2 обеспечивается, но непрерывность (или даже интегрируемость по Риману ) - нет. Значение г 2 (0,5) определяется однозначно, поскольку точка 0.5 представляет собой атом распределения X . Остальные значения x не являются атомами, поэтому соответствующие значения g 2 ( x ) не определяются однозначно. Еще раз: « концепция условной вероятности по отношению к изолированной гипотезе, вероятность которой равна 0, недопустима » ( Колмогоров . [6])
В качестве альтернативы та же функция g (будь то g 1 или g 2 ) может быть определена как производная Радона – Никодима.
где меры μ, ν определены равенствами
для всех борелевских наборов То есть μ - (безусловное) распределение X , а ν - одна треть его условного распределения,
Оба подхода (через гильбертово пространство и через производную Радона – Никодима) рассматривают g как класс эквивалентности функций; две функции g и g ′ считаются эквивалентными, если g ( X ) = g ′ ( X ) почти наверное. Соответственно, условная вероятность P ( Y ≤ 1/3 | X ) рассматривается как класс эквивалентности случайных величин; как обычно, две случайные величины считаются эквивалентными, если они почти наверняка равны.
Условное ожидание
Условное ожидание может быть определен как лучший предсказатель Y данного X . То есть сводит к минимуму среднеквадратичную ошибку.на классе всех случайных величин вида h ( X ).
В случае f = f 1 соответствующая функция h = h 1 может быть вычислена явно, [подробности 2]
В качестве альтернативы может использоваться процедура ограничения,
дает тот же результат.
Таким образом, Ожидание этой случайной величины равно (безусловному) ожиданию, а именно,
который является примером закона полного ожидания
В случае f = f 2 соответствующая функция h = h 2, вероятно, не может быть вычислена явно. Тем не менее он существует и может быть вычислен численно так же, как g 2 выше, - как ортогональная проекция в гильбертовом пространстве. Закон полного математического ожидания выполняется, поскольку проекция не может изменить скалярное произведение на константу 1, принадлежащую подпространству.
В качестве альтернативы та же функция h (будь то h 1 или h 2 ) может быть определена как производная Радона – Никодима
где меры μ, ν определены равенствами
для всех борелевских наборов Здесь это ограниченное ожидание, не путать с условным ожиданием
Условное распространение
В случае f = f 1 условная кумулятивная функция распределения может быть вычислена явно, аналогично g 1 . Ограничивающая процедура дает:
что не может быть правильным, поскольку кумулятивная функция распределения должна быть непрерывной справа !
Этот парадоксальный результат объясняется теорией меры следующим образом. Для данного y соответствующийкорректно определен (через гильбертово пространство или производную Радона – Никодима) как класс эквивалентности функций (от x ). Рассматриваемая как функция y для данного x, она не определена, если не предоставлены дополнительные входные данные. А именно, функция (от x ) должна быть выбрана в каждом (или, по крайней мере, почти в каждом) классе эквивалентности. Неправильный выбор приводит к неправильным условным кумулятивным функциям распределения.
Правильный выбор можно сделать следующим образом. Первый,рассматривается только для рациональных чисел y . (Любое другое плотное счетное множество может использоваться с таким же успехом.) Таким образом, используется только счетное множество классов эквивалентности; все варианты выбора функций в этих классах взаимно эквивалентны, и соответствующая функция рационального y хорошо определена (почти для каждого x ). Во-вторых, функция расширяется от рациональных чисел до действительных чисел за счет непрерывности справа.
Обычно условное распределение определяется почти для всех x (в соответствии с распределением X ), но иногда результат является непрерывным по x , и в этом случае допустимы отдельные значения. В рассмотренном примере это так; правильный результат для x = 0,75,
показывает, что условное распределение Y при X = 0,75 состоит из двух атомов, при 0,25 и 0,5, с вероятностями 1/3 и 2/3 соответственно.
Точно так же условное распределение может быть вычислено для всех x в (0, 0,5) или (0,5, 1).
Значение x = 0,5 является атомом распределения X , таким образом, соответствующее условное распределение хорошо определено и может быть вычислено элементарными средствами (знаменатель не обращается в нуль); условное распределение Y при X = 0,5 равномерно на (2/3, 1). Теория меры приводит к тому же результату.
Смесь всех условных распределений является (безусловным) распределением Y .
Условное ожидание есть не что иное, как ожидание относительно условного распределения.
В случае f = f 2 соответствующиевероятно, нельзя рассчитать явно. Для данного y он хорошо определен (через гильбертово пространство или производную Радона – Никодима) как класс эквивалентности функций (от x ). Правильный выбор функций в этих классах эквивалентности может быть сделан, как указано выше; это приводит к правильным условным кумулятивным функциям распределения, таким образом, условным распределениям. В общем, условные распределения не обязательно должны быть атомарными или абсолютно непрерывными (или смесями обоих типов). Вероятно, в рассматриваемом примере они сингулярны (как и распределение Кантора ).
Еще раз, смесь всех условных распределений является (безусловным) распределением, а условное ожидание - это математическое ожидание относительно условного распределения.
Технические подробности
- ^ Доказательство:
- ^ Доказательство:
Смотрите также
- Условная возможность
- Условное ожидание
- Условное распределение вероятностей
- Совместное распределение вероятностей
- Парадокс Бореля
- Обычная условная вероятность
- Теорема дезинтеграции
- Закон полной дисперсии
- Закон полной совокупности
Заметки
- ^ «Mathematica / Uniform Spherical Distribution - Wikibooks, открытые книги для открытого мира» . en.wikibooks.org . Проверено 27 октября 2018 .
- ^ Бьюкенен, К .; Хафф, Г. Х. (июль 2011 г.). «Сравнение геометрически связанных случайных массивов в евклидовом пространстве». 2011 Международный симпозиум IEEE по антеннам и распространению радиоволн (APSURSI) : 2008–2011 гг. DOI : 10,1109 / APS.2011.5996900 . ISBN 978-1-4244-9563-4.
- ^ Бьюкенен, К .; Flores, C .; Wheeland, S .; Jensen, J .; Grayson, D .; Хафф, Г. (май 2017 г.). «Формирование диаграммы направленности для радиолокационных приложений с использованием случайных решеток с конусом по кругу». Конференция IEEE Radar 2017 : 0112–0117. DOI : 10.1109 / RADAR.2017.7944181 . ISBN 978-1-4673-8823-8.
- Перейти ↑ Pollard 2002 , Sect. 5.5, пример 17 на стр. 122.
- ^ Durrett 1996 , п. 4.1 (a), пример 1.6 на стр. 224.
- ^ a b c d Поллард 2002 , разд. 5.5, стр. 122.
Рекомендации
- Дарретт, Ричард (1996), Вероятность: теория и примеры (Второе изд.)
- Поллард, Дэвид (2002), Руководство пользователя по измерению теоретической вероятности , Cambridge University Press
- Драхейм, Дирк (2017) Обобщенная обусловленность Джеффри (Семантика частичной условности частичной условности) , Springer