Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

В статистике , байесовская линейная регрессия является подходом к линейной регрессии , в которой статистический анализ осуществляется в контексте вывода байесовского . Когда в регрессионной модели есть ошибки, которые имеют нормальное распределение , и если предполагается конкретная форма априорного распределения , доступны явные результаты для апостериорных вероятностных распределений параметров модели.

Настройка модели [ править ]

Рассмотрим стандартную линейную регрессионную задачу, в которой для нас указать среднее значение условного распределения в данном виде предиктора :

где - вектор, а - независимые и одинаково нормально распределенные случайные величины:

Это соответствует следующей функции правдоподобия :

Обычным методом наименьших квадратов раствор используют для оценки вектора коэффициентов с использованием Псевдообращение Мура-Пенроуза :

где - матрица плана , каждая строка которой является вектором предиктора ; и является столбцом -вектором .

Это частотный подход, предполагающий наличие достаточного количества измерений, чтобы сказать что-то значимое . В байесовском подходе данные дополняются дополнительной информацией в виде априорного распределения вероятностей . Априорное мнение о параметрах комбинируется с функцией правдоподобия данных согласно теореме Байеса, чтобы получить апостериорное мнение о параметрах и . Предварительная информация может принимать различные функциональные формы в зависимости от предметной области и информации, доступной априори .

С сопряженными априорными отношениями [ править ]

Сопряженное предшествующее распределение [ править ]

Для произвольного априорного распределения не может быть аналитического решения для апостериорного распределения . В этом разделе мы рассмотрим так называемое сопряженное априорное распределение, для которого апостериорное распределение может быть получено аналитически.

Предшествующая является сопряженной к этой функции правдоподобия , если она имеет такую же функциональную форму по отношению к и . Поскольку логарифм правдоподобия квадратичен по , логарифм правдоподобия переписывается так, что правдоподобие становится нормальным в . Написать

Вероятность теперь переписывается как

куда

где - количество коэффициентов регрессии.

Это предполагает форму для приора:

где - обратное гамма-распределение

В обозначениях, введенных в статье об обратном гамма-распределении , это плотность распределения с и с и в качестве предшествующих значений и , соответственно. Эквивалентно, это также может быть описано как масштабированное обратное распределение хи-квадрат ,

Кроме того, условная априорная плотность - это нормальное распределение ,

В обозначениях нормального распределения условное априорное распределение имеет вид

Апостериорное распространение [ править ]

С указанием предыдущего момента апостериорное распределение может быть выражено как

При некоторой перекомпоновке [1] апостериорное значение можно переписать так, чтобы апостериорное среднее вектора параметров можно было выразить в терминах оценки наименьших квадратов и априорного среднего , с силой априорного значения, обозначенной априорным матрица точности

Чтобы обосновать, что это действительно апостериорное среднее, квадратичные члены в экспоненте могут быть преобразованы в квадратичную форму в . [2]

Теперь апостериорное распределение можно выразить как нормальное распределение, умноженное на обратное гамма-распределение :

Следовательно, апостериорное распределение можно параметризовать следующим образом.

где два фактора соответствуют плотностям и распределениям, параметры которых задаются выражением

Это можно интерпретировать как байесовское обучение, при котором параметры обновляются в соответствии со следующими уравнениями.

Образец доказательства [ править ]

Модель доказательства есть вероятность данных , приведенных в модели . Он также известен как предельная вероятность и как априорная прогнозируемая плотность . Здесь, модель определяется с помощью функции правдоподобия и априорного распределения по параметрам, то есть . Свидетельства модели фиксируют одним числом, насколько хорошо такая модель объясняет наблюдения. Модельное свидетельство модели байесовской линейной регрессии, представленное в этом разделе, может быть использовано для сравнения конкурирующих линейных моделей путем сравнения байесовских моделей.. Эти модели могут различаться по количеству и значениям переменных-предикторов, а также по своим априорным значениям для параметров модели. Сложность модели уже учтена в свидетельстве модели, потому что она исключает параметры путем интегрирования по всем возможным значениям и .

Этот интеграл можно вычислить аналитически, и решение дается в следующем уравнении. [3]

Здесь обозначает гамма-функцию . Поскольку мы выбрали сопряженное априорное значение, предельное правдоподобие также можно легко вычислить, оценив следующее равенство для произвольных значений и .

Обратите внимание, что это уравнение - не что иное, как перестановка теоремы Байеса . Вставка формул для априорного, вероятностного и апостериорного значений и упрощение результирующего выражения приводит к аналитическому выражению, приведенному выше.

Другие случаи [ править ]

В общем, аналитический вывод апостериорного распределения может оказаться невозможным или непрактичным. Однако можно аппроксимировать апостериорную оценку с помощью приближенного метода байесовского вывода, такого как выборка Монте-Карло [4] или вариационный байесовский метод .

Частный случай называется регрессией гребня .

Аналогичный анализ может быть выполнен для общего случая многомерной регрессии, и частично он обеспечивает байесовскую оценку ковариационных матриц : см. Байесовскую многомерную линейную регрессию .

См. Также [ править ]

  • Линейная статистика Байеса
  • Регуляризованный метод наименьших квадратов
  • Тихоновская регуляризация
  • Выбор переменных шипа и плиты
  • Байесовская интерпретация регуляризации ядра

Примечания [ править ]

  1. ^ Промежуточные этапы этого вычисления можно найти у О'Хагана (1994) в начале главы, посвященной линейным моделям.
  2. ^ Промежуточные шаги приведены в Fahrmeir et al. (2009) на странице 188.
  3. ^ Промежуточные этапы этого вычисления можно найти у О'Хагана (1994) на странице 257.
  4. ^ Карлин и Луи (2008) и Гельман и др. (2003) объясняют, как использовать методы выборки для байесовской линейной регрессии.

Ссылки [ править ]

  • Коробка, ГЭП ; Тяо, GC (1973). Байесовский вывод в статистическом анализе . Вайли. ISBN 0-471-57428-7.
  • Карлин, Брэдли П.; Луи, Томас А. (2008). Байесовские методы анализа данных, третье издание . Бока-Ратон, Флорида: Чепмен и Холл / CRC. ISBN 1-58488-697-8.
  • Fahrmeir, L .; Кнейб, Т .; Ланг, С. (2009). Регресс. Modelle, Methoden und Anwendungen (второе изд.). Гейдельберг: Springer. DOI : 10.1007 / 978-3-642-01837-4 . ISBN 978-3-642-01836-7.
  • Форнальски KW; Парзыч Г .; Пылак М .; Satuła D .; Добжиньски Л. (2010). «Применение байесовских рассуждений и метода максимальной энтропии к некоторым задачам реконструкции» . Acta Physica Polonica . 117 (6): 892–899. DOI : 10.12693 / APhysPolA.117.892 .
  • Форнальский, Кшиштоф В. (2015). «Приложения робастного байесовского регрессионного анализа». Международный журнал науки о системах общества . 7 (4): 314–333. DOI : 10.1504 / IJSSS.2015.073223 .
  • Гельман, Андрей ; Карлин, Джон Б .; Стерн, Хэл С .; Рубин, Дональд Б. (2003). Байесовский анализ данных, второе издание . Бока-Ратон, Флорида: Чепмен и Холл / CRC. ISBN 1-58488-388-X.
  • Гольдштейн, Майкл; Wooff, Дэвид (2007). Линейная статистика, теория и методы Байеса . Вайли. ISBN 978-0-470-01562-9.
  • Минка, Томас П. (2001) Байесовская линейная регрессия , веб-страница исследования Microsoft
  • Росси, Питер Э .; Алленби, Грег М .; Маккалок, Роберт (2006). Байесовская статистика и маркетинг . Джон Вили и сыновья. ISBN 0470863676.
  • О'Хаган, Энтони (1994). Байесовский вывод . Продвинутая теория статистики Кендалла. (Первое изд.). Холстед. ISBN 0-340-52922-9.
  • Сивия, DS; Скиллинг, Дж. (2006). Анализ данных - байесовский учебник (второе изд.). Издательство Оксфордского университета.
  • Уолтер, Геро; Августин, Томас (2009). «Байесовская линейная регрессия - различные сопряженные модели и их (не) чувствительность к конфликту предшествующих данных» (PDF) . Технический отчет № 069, Статистический факультет Мюнхенского университета .

Внешние ссылки [ править ]

  • Байесовское оценивание линейных моделей (вики-книга по программированию на языке R) . Байесовская линейная регрессия , как реализуются в R .