Байесовская статистика


Байесовская статистика — теория в области статистики, основанная на байесовской интерпретации вероятности, когда вероятность отражает степень доверия событию, которая может измениться, когда будет собрана новая информация, в отличие от фиксированного значения, основанного на частотном подходе[1]. Степень доверия может основываться на априорных знаниях о событии, таких как результаты предыдущих экспериментов или личное доверие событию. Это отличается от ряда других интерпретаций вероятности[англ.], таких как частотная интерпретация, которая рассматривает вероятность как предел относительной частоты выпадения события после большого числа испытаний[2].

Байесовские статистические методы используют теорему Байеса для вычисления и обновления вероятностей после получения новых данных. Теорема Байеса описывает условную вероятность события на основе как данных, так и априорной информации или доверия событию или условий, связанных с событием. Например, в байесовском выводе теорему Байеса можно использовать для оценки параметра распределения вероятностей или статистической модели. Поскольку байесовская статистика трактует вероятность как степень доверия, теорема Байеса может прямо назначить распределение вероятности, которое даёт количественную оценку параметру или набору параметров[2].

Байесовская статистика названа именем Томаса Байеса, который сформулировал специальный случай теоремы Байеса в своей работе[англ.], опубликованной в 1763. В некоторых статьях, выпущенных от конца 1700-х годов до начала 1800-х, Пьер-Симон Лаплас развил байесовскую интерпретацию вероятности. Лаплас использовал методы, которые сейчас считаются байесовскими методами, для решения ряда статистических задач. Многие байесовские методы были разработаны более поздними авторами, но термин не использовался для описания таких методов до 1950-х годов. Большую часть XX века байесовские методы были нежелательными для большей части статистиков вследствие философских и практических соображений. Многие байесовские методы требуют больших вычислений и большинство методов, которые использовались в течение века, основывались на частотной интерпретации. Однако, с появлением мощных компьютеров и новых алгоритмов, таких как метод Монте-Карло для цепей Маркова, байесовские методы начинают с приходом XXI века использоваться с возрастающей интенсивностью[2][3].

Теорема Байеса является фундаментальной теоремой в байесовской статистике, так как она используется байесовскими методами для обновления вероятностей, которые являются степенью доверия, после получения новых данных. Если даны два события и , условная вероятность , при условии, что верно, выражается формулой[4]: