Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

В статистике использование байесовских факторов является байесовской альтернативой классической проверке гипотез . [1] [2] Сравнение байесовских моделей - это метод выбора моделей на основе байесовских факторов. Рассматриваемые модели являются статистическими . [3] Целью байесовского фактора является количественная оценка поддержки одной модели над другой, независимо от того, верны ли эти модели. [4] Техническое определение «поддержки» в контексте байесовского вывода приводится ниже.

Определение [ править ]

Байесовский фактор представляет собой отношение правдоподобия из предельной вероятности двух конкурирующих гипотез, как правило, нулевых и альтернативы. [5]

Апостериорная вероятность модель- М данных данных D дается теоремой Байеса :

Ключевой термин, зависящий от данных, представляет собой вероятность того, что некоторые данные получены в предположении модели M ; его правильная оценка - ключ к сравнению байесовских моделей.

Учитывая проблему выбора модели, в которой мы должны выбирать между двумя моделями на основе наблюдаемых данных D , правдоподобность двух разных моделей M 1 и M 2 , параметризованных векторами параметров модели и , оценивается с помощью байесовского фактора K, заданного к

Когда две модели равновероятны априори , так что байесовский фактор равен отношению апостериорных вероятностей M 1 и M 2 . Если вместо интеграла байесовского фактора используется вероятность, соответствующая оценке максимального правдоподобия параметра для каждой статистической модели, тогда тест становится классическим тестом отношения правдоподобия.. В отличие от теста отношения правдоподобия, это сравнение байесовской модели не зависит от какого-либо единственного набора параметров, поскольку оно интегрируется по всем параметрам в каждой модели (относительно соответствующих априорных значений). Однако преимущество использования байесовских факторов заключается в том, что оно автоматически и вполне естественно включает штраф за включение слишком большого количества структуры модели. [6] Таким образом, он защищает от переобучения . Для моделей, в которых явная версия вероятности недоступна или слишком дорогостоящая для численной оценки, приближенные байесовские вычисления могут использоваться для выбора модели в байесовской структуре [7] с оговоркой, что приближенные байесовские оценки байесовских факторов часто смещены. . [8]

Другие подходы:

  • рассматривать сравнение моделей как проблему принятия решения , вычисляя ожидаемое значение или стоимость каждого выбора модели;
  • использовать минимальную длину сообщения (MML).

Интерпретация [ править ]

Значение K > 1 означает, что M 1 более сильно поддерживается рассматриваемыми данными, чем M 2 . Обратите внимание, что классическая проверка гипотез дает предпочтительный статус одной гипотезы (или модели) («нулевая гипотеза») и рассматривает только доказательства против нее. Гарольд Джеффрис дал шкалу для интерпретации K : [9]

Во втором столбце приведены соответствующие веса свидетельств в децихартли (также известные как децибаны ); биты добавлены в третий столбец для ясности. Согласно IJ Good, изменение веса свидетельства на 1 децибан или 1/3 бита (т. Е. Изменение отношения шансов с эвенов до примерно 5: 4) примерно настолько тонко, насколько люди могут разумно воспринимать степень своей веры. в гипотезе повседневного использования. [10]

Альтернативная таблица, которую часто цитируют, предоставлена ​​Kass and Raftery (1995): [6]

Пример [ править ]

Предположим, у нас есть случайная переменная, которая приводит к успеху или неудаче. Мы хотим сравнить модель M 1, где вероятность успеха q = ½, и другую модель M 2, где q неизвестно, и мы берем априорное распределение для q , равномерное на [0,1]. Мы берем выборку из 200 и находим 115 успехов и 85 неудач. Вероятность рассчитывается по биномиальному распределению :

Таким образом, для M 1

тогда как для M 2 мы имеем

Соотношение тогда составляет 1,2, что «едва ли стоит упоминать», даже если оно очень незначительно указывает на M 1 .

Частотный критерий проверки гипотезы о М 1 (здесь рассматривается в качестве нулевой гипотезы ) произвел бы совершенно иной результат. Такой тест говорит, что M 1 следует отклонить на уровне значимости 5%, поскольку вероятность получения 115 или более успехов из выборки из 200, если q = ½, составляет 0,02, и как двусторонний тест получения цифры как крайнее значение, равное 115 или более высокое, составляет 0,04. Следует отметить , что 115 более чем на два стандартных отклонения от 100. Таким образом, в то время как частотный критерий проверки гипотезы даст значительные результатыпри уровне значимости 5% фактор Байеса вряд ли считает это крайним результатом. Обратите внимание, однако, что неоднородный априор (например, тот, который отражает тот факт, что вы ожидаете, что количество успехов и неудач будет одного порядка величины) может привести к байесовскому фактору, который больше согласуется с частотным. проверка гипотез.

Классический тест отношения правдоподобия позволил бы найти оценку максимального правдоподобия для q , а именно 115200 = 0,575, откуда

(а не усреднение по всем возможным q ). Это дает отношение правдоподобия 0,1 и указывает на M 2 .

M 2 является более сложной моделью, чем M 1, потому что у нее есть свободный параметр, который позволяет моделировать данные более точно. Способность Байес факторов принимать это во внимание , является причиной , почему вывод байесовского был выдвинут в качестве теоретического обоснования для и обобщений Оккама , уменьшая ошибку типа I . [11]

С другой стороны, современный метод относительного правдоподобия учитывает количество свободных параметров в моделях, в отличие от классического отношения правдоподобия. Метод относительного правдоподобия можно применить следующим образом. Модель M 1 имеет 0 параметров, поэтому ее значение AIC составляет 2 · 0 - 2 · ln (0,005956) = 10,2467. Модель M 2 имеет 1 параметр, поэтому ее значение AIC составляет 2 · 1 - 2 · ln (0,056991) = 7,7297. Следовательно, M 1 примерно exp ((7,7297 - 10,2467) / 2) = 0,284 раза вероятнее, чем M 2, чтобы минимизировать потерю информации. Таким образом, M 2 является немного предпочтительным, но M 1 нельзя исключать.

См. Также [ править ]

  • Информационный критерий Акаике
  • Приближенное байесовское вычисление
  • Байесовский информационный критерий
  • Информационный критерий отклонения
  • Парадокс Линдли
  • Минимальная длина сообщения
  • Выбор модели
Статистические соотношения
  • Соотношение шансов
  • Относительный риск

Ссылки [ править ]

  1. Перейти ↑ Goodman, S. (1999). «К научно обоснованной медицинской статистике. 1: Ошибка значения P». Ann Intern Med . 130 (12): 995–1004. DOI : 10.7326 / 0003-4819-130-12-199906150-00008 . PMID  10383371 . S2CID  7534212 .
  2. Перейти ↑ Goodman, S. (1999). «К доказательной медицинской статистике. 2: Байесовский фактор». Ann Intern Med . 130 (12): 1005–13. DOI : 10.7326 / 0003-4819-130-12-199906150-00019 . PMID 10383350 . 
  3. ^ Мори, Ричард Д .; Ромейн, Ян-Виллем; Рудер, Джеффри Н. (2016). «Философия байесовских факторов и количественная оценка статистических данных» . Журнал математической психологии . 72 : 6–18. DOI : 10.1016 / j.jmp.2015.11.001 .
  4. ^ Ly, Александр; Верхаген, Жозин; Вагенмейкерс, Эрик-Ян (2016). «Стандартные тесты гипотезы Байесовского фактора Гарольда Джеффриса: объяснение, расширение и применение в психологии». Журнал математической психологии . 72 : 19–32. DOI : 10.1016 / j.jmp.2015.06.004 .
  5. ^ Хорошо, Филипп; Хардин, Джеймс (23 июля 2012 г.). Распространенные ошибки в статистике (и как их избежать) (4-е изд.). Хобокен, Нью-Джерси: John Wiley & Sons, Inc., стр. 129–131. ISBN 978-1118294390.
  6. ^ a b Роберт Э. Касс и Адриан Э. Рэфтери (1995). «Байесовские факторы» (PDF) . Журнал Американской статистической ассоциации . 90 (430): 791. DOI : 10,2307 / 2291091 . JSTOR 2291091 .  
  7. ^ Тони, Т .; Штумпф, магистр здравоохранения (2009). «Выбор модели на основе моделирования для динамических систем в системах и популяционной биологии» (PDF) . Биоинформатика . 26 (1): 104–10. arXiv : 0911.1705 . DOI : 10.1093 / биоинформатики / btp619 . PMC 2796821 . PMID 19880371 .   
  8. ^ Роберт, CP; Ж. Корню; Дж. Марин и Н.С. Пиллаи (2011). «Отсутствие уверенности в выборе приближенной байесовской модели вычислений» . Труды Национальной академии наук . 108 (37): 15112–15117. Bibcode : 2011PNAS..10815112R . DOI : 10.1073 / pnas.1102900108 . PMC 3174657 . PMID 21876135 .  
  9. ^ Джеффрис, Гарольд (1998) [1961]. Теория вероятностей (3-е изд.). Оксфорд, Англия. п. 432. ISBN. 9780191589676.
  10. ^ Хорошо, Эй Джей (1979). «Исследования по истории вероятности и статистики. XXXVII Статистическая работа AM Тьюринга во Второй мировой войне». Биометрика . 66 (2): 393–396. DOI : 10.1093 / Biomet / 66.2.393 . Руководство по ремонту 0548210 . 
  11. ^ Заточка бритвы Оккама на байесовском ремне

Дальнейшее чтение [ править ]

  • Бернардо, Дж .; Смит, AFM (1994). Байесовская теория . Джон Вили. ISBN 0-471-92416-4.
  • Денисон, DGT; Холмс, CC; Маллик, Б.К .; Смит, AFM (2002). Байесовские методы нелинейной классификации и регрессии . Джон Вили. ISBN 0-471-49036-9.
  • Диенес, З. (2019). Как мне узнать, что предсказывает моя теория? Достижения в методах и практиках психологической науки https://doi.org/10.1177/2515245919876960
  • Дуда, Ричард О .; Харт, Питер Э .; Аист, Дэвид Г. (2000). «Раздел 9.6.5». Классификация паттернов (2-е изд.). Вайли. С. 487–489. ISBN 0-471-05669-3.
  • Гельман, А .; Carlin, J .; Stern, H .; Рубин, Д. (1995). Байесовский анализ данных . Лондон: Чепмен и Холл . ISBN 0-412-03991-5.
  • Джейнс, ET (1994), Теория вероятностей: логика науки , глава 24.
  • Ли, ПМ (2012). Байесовская статистика: введение . Вайли. ISBN 9781118332573.
  • Винклер, Роберт (2003). Введение в байесовский вывод и решение (2-е изд.). Вероятностный. ISBN 0-9647938-4-9.

Внешние ссылки [ править ]

  • BayesFactor - пакет R для вычисления байесовских факторов в общих исследовательских проектах.
  • Калькулятор байесовского фактора - онлайн-калькулятор информированных байесовских факторов
  • Калькуляторы байесовского фактора - веб-версия большей части пакета BayesFactor