Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

Байесовская сеть (также известная как сети Байеса , сети веры или принятие сеть ) является вероятностной графической моделью , которая представляет собой набор переменных и их условных зависимости через ориентированный ациклический граф (DAG). Байесовские сети идеально подходят для анализа произошедшего события и прогнозирования вероятности того, что любая из нескольких возможных известных причин была способствующим фактором. Например, байесовская сеть может представлять вероятностные отношения между болезнями и симптомами. Учитывая симптомы, сеть может использоваться для вычисления вероятности наличия различных заболеваний.

Эффективные алгоритмы могут выполнять логический вывод и обучение в байесовских сетях. Байесовские сети, моделирующие последовательности переменных ( например, речевые сигналы или белковые последовательности ), называются динамическими байесовскими сетями . Обобщения байесовских сетей, которые могут представлять и решать проблемы принятия решений в условиях неопределенности, называются диаграммами влияния .

Графическая модель [ править ]

Формально байесовские сети представляют собой ориентированные ациклические графы (DAG), узлы которых представляют переменные в байесовском смысле: они могут быть наблюдаемыми величинами, скрытыми переменными , неизвестными параметрами или гипотезами. Ребра представляют собой условные зависимости; узлы, которые не связаны (никакой путь не соединяет один узел с другим), представляют переменные, которые условно независимы друг от друга. Каждый узел связан с функцией вероятности, которая принимает в качестве входных данных определенный набор значений для родительских переменных узла и дает (в качестве выходных данных) вероятность (или распределение вероятностей, если применимо) переменной, представленной узлом. Например, еслиродительские узлы представляют собой логические переменные , тогда функция вероятности может быть представлена ​​таблицей записей, по одной записи для каждой из возможных родительских комбинаций. Подобные идеи могут быть применены к неориентированным и, возможно, циклическим графам, таким как сети Маркова .

Пример [ править ]

Простая байесовская сеть с таблицами условной вероятности

Два события могут вызвать намокание травы: активный дождеватель или дождь. Дождь напрямую влияет на использование спринклера (а именно, когда идет дождь, спринклер обычно не работает). Эту ситуацию можно смоделировать с помощью байесовской сети (показано справа). Каждая переменная имеет два возможных значения: T (истина) и F (ложь).

Функция совместной вероятности является:

где G = «Трава мокрая (истина / ложь)», S = «Дождеватель включен (истина / ложь)» и R = «Дождь (истина / ложь)».

Модель может ответить на вопросы о наличии причины при наличии эффекта (так называемая обратная вероятность), например: «Какова вероятность того, что идет дождь, учитывая, что трава мокрая?» с помощью формулы условной вероятности и суммирования всех мешающих переменных :

Используя разложение для совместной функции вероятности и условные вероятности из таблиц условной вероятности (CPT), указанных на диаграмме, можно оценить каждый член в суммах в числителе и знаменателе. Например,

Тогда численные результаты (с индексами соответствующих значений переменных) будут

Чтобы ответить на интервенционный вопрос, например, «Какова вероятность того, что пойдет дождь, если намочить траву?» ответ определяется функцией совместного распределения после вмешательства

полученный путем удаления фактора из распределения до вмешательства. Оператор do заставляет значение G быть истинным. На вероятность дождя не влияет действие:

Чтобы спрогнозировать влияние включения спринклера:

с удаленным термином , показывая, что действие влияет на траву, но не на дождь.

Эти прогнозы могут оказаться невозможными с учетом ненаблюдаемых переменных, как в большинстве задач оценки политики. Однако эффект действия все еще можно предсказать, когда будет удовлетворен критерий «черного хода». [1] [2] В нем говорится, что, если можно наблюдать набор узлов Z, что d- разделяет [3] (или блокирует) все обходные пути от X до Y, тогда

Путь обратно дверь одна , которая заканчивается со стрелкой в X . Наборы, удовлетворяющие критерию «черного хода», называются «достаточными» или «допустимыми». Например, множество Z  =  R является допустимым для прогнозирования эффекта S  =  T на G , поскольку Р д разъединителей с (только) обратно-двери путем S  ←  R  →  G . Однако, если S не соблюдается, никакой другой набор d не разделяет этот путь и эффект включения разбрызгивателя ( S  =  T ) на траве ( G) нельзя предсказать из пассивных наблюдений. В этом случае P ( G  | do ( S  =  T )) не «идентифицирован». Это отражает тот факт, что при отсутствии данных по вмешательству наблюдаемая зависимость между S и G обусловлена ​​причинной связью или является ложной (очевидная зависимость, возникающая из общей причины, R ). (см . парадокс Симпсона )

Чтобы определить, идентифицируется ли причинная связь из произвольной байесовской сети с ненаблюдаемыми переменными, можно использовать три правила « do -calculus» [1] [4] и проверить, можно ли удалить все do- члены из выражения этого отношения. , тем самым подтверждая, что желаемое количество можно оценить по частотным данным. [5]

Использование байесовской сети может сэкономить значительные объемы памяти за счет исчерпывающих таблиц вероятностей, если зависимости в совместном распределении редки. Например, наивный способ хранения условных вероятностей 10 двузначных переменных в виде таблицы требует места для хранения значений. Если ни одна из переменных не зависит от более чем трех родительских переменных, байесовское сетевое представление хранит не больше значений.

Одним из преимуществ байесовских сетей является то, что человеку интуитивно легче понять (разреженный набор) прямые зависимости и локальные распределения, чем полные совместные распределения.

Вывод и обучение [ править ]

Байесовские сети выполняют три основные задачи вывода:

Вывод ненаблюдаемых переменных [ править ]

Поскольку байесовская сеть представляет собой полную модель своих переменных и их взаимосвязей, ее можно использовать для ответа на вероятностные запросы о них. Например, сеть может использоваться для обновления информации о состоянии подмножества переменных, когда наблюдаются другие переменные ( переменные свидетельства ). Этот процесс вычисления апостериорного распределения переменных при наличии свидетельств называется вероятностным выводом. Апостериорная оценка дает универсальную статистику, достаточную для приложений обнаружения, при выборе значений для подмножества переменных, которые минимизируют некоторую ожидаемую функцию потерь, например вероятность ошибки решения. Таким образом, байесовскую сеть можно рассматривать как механизм автоматического применения теоремы Байеса. к сложным проблемам.

Наиболее распространенными методами точного вывода являются: исключение переменных , которое устраняет (путем интегрирования или суммирования) ненаблюдаемые переменные, не относящиеся к запросу, одну за другой путем распределения суммы по продукту; распространение дерева кликов , которое кэширует вычисления, чтобы можно было запросить сразу несколько переменных и быстро распространить новые свидетельства; и рекурсивное кондиционирование и поиск И / ИЛИ, которые допускают компромисс между пространством и временем и соответствуют эффективности исключения переменных, когда используется достаточно места. Все эти методы имеют сложность, которая экспоненциально зависит от ширины дерева сети . Наиболее распространенными алгоритмами приближенного вывода являются выборка по важности , стохастическийMCMC моделирование, устранение мини-ковш, распространение сдвинутой веры , обобщается распространение веры и вариационные методы .

Обучение параметрам [ править ]

Чтобы полностью определить байесовскую сеть и, таким образом, полностью представить совместное распределение вероятностей , необходимо определить для каждого узла X распределение вероятностей для X, обусловленное родителями X. Распределение X в зависимости от его родителей может иметь любую форму. Обычно работают с дискретными или гауссовскими распределениями, поскольку это упрощает вычисления. Иногда известны только ограничения на распределение; затем можно использовать принцип максимальной энтропии для определения единственного распределения, имеющего наибольшую энтропию с учетом ограничений. (Аналогично, в конкретном контекстединамической байесовской сети , условное распределение для временной эволюции скрытого состояния обычно задается, чтобы максимизировать скорость энтропии подразумеваемого стохастического процесса.)

Часто эти условные распределения включают параметры, которые неизвестны и должны быть оценены на основе данных, например, с помощью подхода максимального правдоподобия . Прямая максимизация правдоподобия (или апостериорной вероятности ) часто бывает сложной с учетом ненаблюдаемых переменных. Классическим подходом к этой проблеме является алгоритм максимизации ожидания , который чередует вычисление ожидаемых значений ненаблюдаемых переменных, обусловленных наблюдаемыми данными, с максимизацией полной вероятности (или апостериорной), предполагающей, что ранее вычисленные ожидаемые значения верны. В условиях умеренной регулярности этот процесс сходится к значениям максимального правдоподобия (или максимальным апостериорным) значениям параметров.

Более полно байесовский подход к параметрам состоит в том, чтобы рассматривать их как дополнительные ненаблюдаемые переменные и вычислять полное апостериорное распределение по всем узлам, обусловленное наблюдаемыми данными, а затем интегрировать параметры. Этот подход может быть дорогостоящим и вести к моделям больших размеров, что делает более понятными классические подходы к настройке параметров.

Структурное обучение [ править ]

В простейшем случае байесовская сеть определяется экспертом и затем используется для выполнения вывода. В других приложениях задача определения сети слишком сложна для человека. В этом случае структура сети и параметры локальных распределений должны быть изучены из данных.

Автоматическое изучение структуры графа байесовской сети (BN) - задача, решаемая в рамках машинного обучения . Основная идея восходит к алгоритму восстановления, разработанному Ребейном и Перлом [6], и основывается на различии между тремя возможными шаблонами, разрешенными в 3-узловом DAG:

Первые 2 представляют одинаковые зависимости ( и являются независимыми данными ) и, следовательно, неразличимы. Коллайдер, однако, можно однозначно идентифицировать, поскольку и являются незначительно независимыми, а все другие пары зависимы. Таким образом, хотя скелеты (графики без стрелок) этих трех триплетов идентичны, направление стрелок частично идентифицируется. То же самое различие применяется, когда и имеют общих родителей, за исключением того, что сначала нужно оговорить этих родителей. Были разработаны алгоритмы для систематического определения скелета нижележащего графа и последующего ориентирования всех стрелок, направление которых продиктовано наблюдаемой условной независимостью. [1][7] [8] [9]

Альтернативный метод структурного обучения использует поиск на основе оптимизации. Это требует функции подсчета очков и стратегии поиска. Общая функция оценки - это апостериорная вероятность структуры с учетом обучающих данных, таких как BIC или BDeu. Требование времени для исчерпывающего поиска, возвращающего структуру, которая максимизирует оценку, является суперэкспоненциальным по количеству переменных. Стратегия локального поиска вносит постепенные изменения, направленные на улучшение оценки структуры. Алгоритм глобального поиска, такой как цепь Маркова Монте-Карло, может избежать попадания в ловушку локальных минимумов . Friedman et al. [10] [11] обсудить использованиевзаимная информация между переменными и поиск структуры, которая максимизирует это. Они делают это, ограничивая набор родительских кандидатов k узлами и полностью просматривая их.

Особенно быстрый метод точного обучения BN - это преобразовать задачу в задачу оптимизации и решить ее с помощью целочисленного программирования . Ограничения ацикличности добавляются к целочисленной программе (IP) во время решения в виде секущих плоскостей . [12] Такой метод может обрабатывать задачи с количеством переменных до 100.

Чтобы справиться с проблемами с тысячами переменных, необходим другой подход. Один состоит в том, чтобы сначала выбрать один порядок, а затем найти оптимальную структуру BN по отношению к этому порядку. Это подразумевает работу над пространством поиска возможных порядков, что удобно, так как оно меньше пространства сетевых структур. Затем производится выборка и оценка нескольких заказов. Этот метод оказался лучшим из доступных в литературе при огромном количестве переменных. [13]

Другой метод состоит в сосредоточении внимания на подклассе разложимых моделей, для которых MLE имеют замкнутую форму. Тогда можно обнаружить непротиворечивую структуру для сотен переменных. [14]

Изучение байесовских сетей с ограниченной шириной дерева необходимо для обеспечения точного, управляемого вывода, поскольку сложность вывода в наихудшем случае экспоненциально зависит от ширины дерева k (согласно гипотезе экспоненциального времени). Тем не менее, как глобальное свойство графа, оно значительно увеличивает сложность процесса обучения. В этом контексте можно использовать K-дерево для эффективного обучения. [15]

Статистическое введение [ править ]

При заданных данных и параметре простой байесовский анализ начинается с априорной вероятности ( априорной ) и правдоподобия для вычисления апостериорной вероятности .

Часто априорное значение, в свою очередь, зависит от других параметров , которые не упоминаются в вероятности. Таким образом, априор должен быть заменен вероятностью , а априорный показатель для вновь введенных параметров требуется, что приводит к апостериорной вероятности.

Это простейший пример иерархической байесовской модели . [ требуется разъяснение ]

Процесс можно повторить; например, параметры могут, в свою очередь, зависеть от дополнительных параметров , для которых требуются собственные предварительные. В конце концов, процесс должен завершиться с приоритетами, которые не зависят от не упомянутых параметров.

Вводные примеры [ править ]

Учитывая измеренные величины, каждая из которых имеет нормально распределенные ошибки известного стандартного отклонения ,

Предположим, мы заинтересованы в оценке . Подход заключался бы в оценке с использованием подхода максимального правдоподобия ; поскольку наблюдения независимы, вероятность факторизуется, и оценка максимального правдоподобия просто

Однако, если количества связаны между собой, так что, например, индивидуум сам был взят из базового распределения, то эта взаимосвязь разрушает независимость и предлагает более сложную модель, например,

с ненадлежащими настоятелями , . Когда это идентифицированная модель (т. Е. Существует уникальное решение для параметров модели), и апостериорные распределения индивидуума будут иметь тенденцию перемещаться или сокращаться от оценок максимального правдоподобия к их общему среднему значению. Это сжатие - типичное поведение в иерархических байесовских моделях.

Ограничения по приору [ править ]

При выборе априорных значений в иерархической модели требуется некоторая осторожность, особенно в отношении масштабных переменных на более высоких уровнях иерархии, таких как переменная в примере. Обычные априорные значения, такие как априор Джеффри, часто не работают, потому что апостериорное распределение не поддается нормализации и оценки, сделанные путем минимизации ожидаемых потерь, будут недопустимыми .

Определения и понятия [ править ]

Было предложено несколько эквивалентных определений байесовской сети. Для следующего, пусть G = ( V , E ) быть ориентированный ациклический граф (DAG) , и пусть X = ( X v ), vV некоторое множество случайных величин , индексированных V .

Определение факторизации [ править ]

X является байесовской сетью по отношению к G, если ее совместная функция плотности вероятности (относительно меры произведения ) может быть записана как произведение отдельных функций плотности, обусловленных их родительскими переменными: [16]

где pa ( v ) - это множество родителей v (т.е. те вершины, которые указывают прямо на v через одно ребро).

Для любого множества случайных величин, вероятность любого члена совместного распределения может быть вычислена из условных вероятностей , используя правило цепи ( по заданной топологическое упорядочению из X ) следующим образом : [16]

Используя приведенное выше определение, это можно записать как:

Разница между этими двумя выражениями заключается в условной независимости переменных от любых их не-потомков, учитывая значения их родительских переменных.

Местная марковская собственность [ править ]

X является байесовской сетью по отношению к G, если она удовлетворяет локальному марковскому свойству : каждая переменная условно не зависит от своих не-потомков, учитывая ее родительские переменные: [17]

где de ( v ) - множество потомков, а V  \ de ( v ) - множество не потомков v .

Это можно выразить в терминах, аналогичных первому определению, как

Набор родителей является подмножеством множества не-потомков, потому что граф является ациклическим .

Разработка байесовских сетей [ править ]

Развитие байесовской сети часто начинается с создания DAG G такое , что X удовлетворяет местный марковским свойством по отношению к G . Иногда это причинный DAG. Условные распределения вероятностей каждой переменной с учетом его родители в G оцениваются. Во многих случаях, в частности , в том случае , когда переменные являются дискретными, если совместное распределение X является произведением этих условных распределений, то X является байесовской сети по отношению к G . [18]

Марковское одеяло [ править ]

Марковское узла является множеством узлов , состоящих из своих родителей, своих детей, а также любых других родителей своих детей. Одеяло Маркова делает узел независимым от остальной сети; совместное распределение переменных в марковском бланкете узла является достаточным знанием для вычисления распределения узла. X является байесовской сетью относительно G, если каждый узел условно независим от всех других узлов в сети, учитывая его марковское одеяло . [17]

г- разделение [ править ]

Это определение можно сделать более общим, определив «d» -разделение двух узлов, где d означает направленность. [1] Сначала мы определяем «d» -разделение трассы, а затем мы определяем «d» -разделение двух узлов в терминах этого.

Пусть P - тропа от узла u до v . Трасса - это свободный от петель, неориентированный (т. Е. Все направления краев игнорируются) путь между двумя узлами. Тогда P называется d- разделенным набором узлов Z, если выполняется одно из следующих условий:

  • P содержит (но не обязательно полностью) направленную цепочку, или , если средний узел m находится в Z ,
  • P содержит вилку,, такую, что средний узел m находится в Z , или
  • Р содержит перевернутую вилку (или коллайдер), таким образом, что средний узел м не находится в Z и ни один потомок м не находится в Z .

Узлы U и V являются d -разделенного от Z , если все маршруты между ними d -разделенными. Если u и v не разделены d, они d-связаны.

X - байесовская сеть относительно G, если для любых двух узлов u , v :

где Z - множество, которое d- разделяет u и v . (The одеяло Маркова является минимальным набором узлов , которые д разъединителей узла V от всех других узлов.)

Причинные сети [ править ]

Хотя байесовские сети часто используются для представления причинно-следственных связей, это не обязательно: направленное ребро от u до v не требует, чтобы X v причинно зависел от X u . Об этом свидетельствует тот факт, что байесовские сети на графах:

эквивалентны: то есть они предъявляют точно такие же требования условной независимости.

Причинная сеть - это байесовская сеть с требованием, чтобы отношения были причинными. Дополнительная семантика причинных сетей указывает, что если узел X активно находится в заданном состоянии x (действие, записанное как do ( X  =  x )), то функция плотности вероятности изменяется на функцию плотности вероятности, полученную путем разрезания ссылки от родителей X на X и установка X на вызванное значение x . [1] Используя эту семантику, можно предсказать влияние внешнего вмешательства на основании данных, полученных до вмешательства.

Сложность вывода и алгоритмы аппроксимации [ править ]

В 1990 году, работая в Стэнфордском университете над большими биоинформатическими приложениями, Купер доказал, что точный вывод в байесовских сетях NP-труден . [19] Этот результат побудил исследовать алгоритмы приближения с целью разработки удобного приближения к вероятностному выводу. В 1993 году Дагум и Луби доказали два удивительных результата о сложности аппроксимации вероятностного вывода в байесовских сетях. [20] Во- первых, они доказали , что не послушной детерминированный алгоритм не может аппроксимировать вероятностный вывод в пределах абсолютной погрешности ɛ  <1/2. Во-вторых, они доказали, что ни один поддающийся обработке рандомизированный алгоритмможно аппроксимировать вероятностный вывод в пределах абсолютной погрешности ɛ  <1/2 с доверительной вероятностью больше 1/2.

Примерно в то же время Рот доказал, что точный вывод в байесовских сетях на самом деле является # P-полным (и, таким образом, столь же сложен, как подсчет числа удовлетворяющих присваиваний формулы конъюнктивной нормальной формы (CNF) и этот приблизительный вывод в пределах коэффициента 2 n 1− ɛ для любого ɛ > 0, даже для байесовских сетей с ограниченной архитектурой, является NP-трудным. [21] [22]

С практической точки зрения, эти результаты сложности предполагают, что, хотя байесовские сети были богатым представлением для приложений ИИ и машинного обучения, их использование в больших реальных приложениях должно было сдерживаться либо топологическими структурными ограничениями, такими как наивные байесовские сети, либо ограничениями. от условных вероятностей. Алгоритм ограниченной дисперсии [23] был первым доказуемым алгоритмом быстрой аппроксимации для эффективной аппроксимации вероятностного вывода в байесовских сетях с гарантиями приближения ошибки. Этот мощный алгоритм требовал, чтобы небольшое ограничение на условные вероятности байесовской сети было отделено от нуля и единицы величиной 1 / p ( n ), где p ( n) был любым полиномом от числа узлов в сети  n .

Программное обеспечение [ править ]

Известное программное обеспечение для байесовских сетей включает:

  • Еще один семплер Гиббса (JAGS) - альтернатива WinBUGS с открытым исходным кодом. Использует выборку Гиббса.
  • OpenBUGS - разработка WinBUGS с открытым исходным кодом.
  • SPSS Modeler - коммерческое программное обеспечение, которое включает реализацию для байесовских сетей.
  • Stan (программное обеспечение) - Stan - это пакет с открытым исходным кодом для получения байесовского вывода с использованием семплера без разворота (NUTS), [24] вариант гамильтониана Монте-Карло.
  • PyMC3 - библиотека Python, реализующая встроенный предметно-ориентированный язык для представления байесовских сетей и различные семплеры (включая NUTS)
  • WinBUGS - одна из первых вычислительных реализаций семплеров MCMC. Больше не поддерживается.

История [ править ]

Термин байесовская сеть был введен Джудеей Перл в 1985 году, чтобы подчеркнуть: [25]

  • часто субъективный характер вводимой информации
  • использование условий Байеса как основы для обновления информации
  • различие между причинным и доказательным способами рассуждения [26]

В конце 1980 - х годов Перл Вероятностный Рассуждая в интеллектуальных системах [27] и неаполитанский «s Вероятностный Рассуждая экспертных систем [28] суммированы их свойства и установили их в качестве области исследования.

См. Также [ править ]

  • Байесовское программирование
  • Причинный вывод
  • Схема причинной петли
  • Дерево Чау – Лю
  • Вычислительный интеллект
  • Вычислительная филогенетика
  • Сеть глубоких убеждений
  • Теория Демпстера – Шейфера - обобщение теоремы Байеса.
  • Алгоритм ожидания – максимизации
  • Факторный график
  • Иерархическая временная память
  • Фильтр Калмана
  • Фреймворк прогнозирования памяти
  • Распределение смеси
  • Модель смеси
  • Наивный байесовский классификатор
  • Polytree
  • Слияние датчиков
  • Выравнивание последовательности
  • Структурное моделирование уравнение
  • Субъективная логика
  • Байесовская сеть переменного порядка

Примечания [ править ]

  1. ^ a b c d e Жемчуг, Иудея (2000). Причинность: модели, рассуждения и выводы . Издательство Кембриджского университета . ISBN 978-0-521-77362-1. OCLC  42291253 .
  2. ^ «Критерий задней двери» (PDF) . Проверено 18 сентября 2014 .
  3. ^ «г-разлука без слез» (PDF) . Проверено 18 сентября 2014 .
  4. Перейти ↑ Pearl J (1994). «Вероятностное исчисление действий» . В Лопес де Мантарас Р., Пул Д. (ред.). UAI'94 Труды Десятой международной конференции по неопределенности в искусственном интеллекте . Сан-Матео, Калифорния: Морган Кауфманн . С. 454–462. arXiv : 1302,6835 . Bibcode : 2013arXiv1302.6835P . ISBN 1-55860-332-8.
  5. ^ Shpitser I, J Pearl (2006). «Идентификация условных интервенционных распределений». В Dechter R, Richardson TS (ред.). Труды двадцать второй конференции по неопределенности в искусственном интеллекте . Корваллис, Орегон: AUAI Press. С. 437–444. arXiv : 1206.6876 .
  6. Перейти ↑ Rebane G, Pearl J (1987). «Восстановление причинных полидеревьев из статистических данных». Труды, 3-й семинар по неопределенности в AI . Сиэтл, Вашингтон. С. 222–228. arXiv : 1304.2736 .
  7. ^ Spirtes Р, Glymour С (1991). «Алгоритм быстрого восстановления разреженных причинных графов» (PDF) . Компьютерный обзор социальных наук . 9 (1): 62–72. DOI : 10.1177 / 089443939100900106 . S2CID 38398322 .  
  8. ^ Spirtes Р, Glymour CN, Scheines R (1993). Причинно-следственная связь, прогнозирование и поиск (1-е изд.). Springer-Verlag. ISBN 978-0-387-97979-3.
  9. Перейти ↑ Verma T, Pearl J (1991). «Эквивалентность и синтез причинных моделей» . В Bonissone P, Henrion M, Kanal LN, Lemmer JF (ред.). UAI '90 Труды шестой ежегодной конференции по неопределенности в искусственном интеллекте . Эльзевир. С. 255–270. ISBN 0-444-89264-8.
  10. Перейти ↑ Friedman N, Geiger D, Goldszmidt M (ноябрь 1997 г.). «Классификаторы байесовских сетей» . Машинное обучение . 29 (2–3): 131–163. DOI : 10,1023 / A: 1007465528199 .
  11. ^ Фридман N, M Linial, Нахман I, Пеер D (август 2000). «Использование байесовских сетей для анализа данных выражения». Журнал вычислительной биологии . 7 (3–4): 601–20. CiteSeerX 10.1.1.191.139 . DOI : 10.1089 / 106652700750050961 . PMID 11108481 .  
  12. ^ Cussens J (2011). «Байесовское сетевое обучение с режущими плоскостями» (PDF) . Труды 27-й Ежегодной конференции по неопределенности в искусственном интеллекте : 153–160. arXiv : 1202.3713 . Bibcode : 2012arXiv1202.3713C .
  13. ^ Scanagatta М, де Кампос CP, Corani G, Zaffalon M (2015). «Изучение байесовских сетей с тысячами переменных» . НИПС-15: Достижения в системах обработки нейронной информации . 28 . Curran Associates. С. 1855–1863.
  14. ^ Petitjean F, Уэбб Г.И., Николсон А.Е. (2013). Масштабирование лог-линейного анализа до данных большой размерности (PDF) . Международная конференция по интеллектуальному анализу данных. Даллас, Техас, США: IEEE.
  15. ^ М. Scanagatta, Г. Corani, CPдеКампос и М. Zaffalon. Изучение байесовских сетей с ограничением по ширине дерева с тысячами переменных. В NIPS-16: Достижения в системах обработки нейронной информации 29, 2016.
  16. ^ a b Russell & Norvig 2003 , стр. 496.
  17. ^ a b Russell & Norvig 2003 , стр. 499.
  18. ^ Неаполитанский RE (2004). Изучение байесовских сетей . Прентис Холл. ISBN 978-0-13-012534-7.
  19. Перейти ↑ Cooper GF (1990). «Вычислительная сложность вероятностного вывода с использованием байесовских сетей доверия» (PDF) . Искусственный интеллект . 42 (2–3): 393–405. DOI : 10.1016 / 0004-3702 (90) 90060-й .
  20. ^ Dagum Р , Лубы М (1993). «Аппроксимация вероятностного вывода в байесовских сетях доверия NP-трудна». Искусственный интеллект . 60 (1): 141–153. CiteSeerX 10.1.1.333.1586 . DOI : 10.1016 / 0004-3702 (93) 90036-б . 
  21. ^ Д. Рот, О твердости приближенных рассуждений , IJCAI (1993)
  22. ^ Д. Рот, О твердости приближенных рассуждений , Искусственный интеллект (1996)
  23. ^ Dagum Р , Лубы М (1997). «Оптимальный алгоритм приближения для байесовского вывода» . Искусственный интеллект . 93 (1-2): 1-27. CiteSeerX 10.1.1.36.7946 . DOI : 10.1016 / s0004-3702 (97) 00013-1 . Архивировано из оригинала на 2017-07-06 . Проверено 19 декабря 2015 . 
  24. ^ Хоффман, Мэтью Д .; Гельман, Андрей (2011). «Пробоотборник без разворота: адаптивная установка длины пути в гамильтониане Монте-Карло». arXiv : 1111.4246 . Bibcode : 2011arXiv1111.4246H . Cite journal requires |journal= (help)
  25. Перейти ↑ Pearl J (1985). Байесовские сети: модель самоактивирующейся памяти для доказательной аргументации (Технический отчет UCLA CSD-850017) . Материалы 7-й конференции Общества когнитивных наук, Калифорнийский университет, Ирвин, Калифорния. С. 329–334 . Проверено 1 мая 2009 .
  26. Перейти ↑ Bayes T , Price (1763). «Очерк решения проблемы в доктрине шансов» . Философские труды Королевского общества . 53 : 370–418. DOI : 10,1098 / rstl.1763.0053 .
  27. ^ Перл J (1988-09-15). Вероятностное мышление в интеллектуальных системах . Сан-Франциско, Калифорния: Морган Кауфманн . п. 1988. ISBN. 978-1558604797.
  28. ^ Неаполитанский RE (1989). Вероятностные рассуждения в экспертных системах: теория и алгоритмы . Вайли. ISBN 978-0-471-61840-9.

Ссылки [ править ]

  • Бен Гал I (2007). «Байесовские сети» (PDF) . В Ruggeri F, Kennett RS, Faltin FW (ред.). Страница поддержки . Энциклопедия статистики качества и надежности . Джон Вили и сыновья . DOI : 10.1002 / 9780470061572.eqr089 . ISBN 978-0-470-01861-3.
  • Бертч МакГрейн С (2011). Теория, которая не умрет . Нью-Хейвен: издательство Йельского университета .
  • Боргельт С., Круз Р. (март 2002 г.). Графические модели: методы анализа и интеллектуального анализа данных . Чичестер, Великобритания : Wiley . ISBN 978-0-470-84337-6.
  • Борсук М.Е. (2008). «Экологическая информатика: байесовские сети». В Jørgensen, Sven Erik , Fath, Brian (ред.). Энциклопедия экологии . Эльзевир. ISBN 978-0-444-52033-3.
  • Кастильо Э, Гутьеррес Дж. М., Хади А. С. (1997). «Изучение байесовских сетей». Экспертные системы и вероятностные сетевые модели . Монографии по информатике. Нью-Йорк: Springer-Verlag . С. 481–528. ISBN 978-0-387-94858-4.
  • Комли Дж. У., Доу Д. Л. (июнь 2003 г.). «Общие байесовские сети и асимметричные языки» . Труды 2-й Гавайской международной конференции по статистике и смежным областям .
  • Комли Дж. У., Доу Д. Л. (2005). «Минимальная длина сообщения и обобщенные байесовские сети с асимметричными языками» . В Grünwald PD, Myung IJ, Pitt MA (ред.). Достижения в минимальной длине описания: теория и приложения . Серия обработки нейронной информации. Кембридж, Массачусетс : Bradford Books ( MIT Press ) (опубликовано в апреле 2005 г.). С. 265–294. ISBN 978-0-262-07262-5.(В этом документе деревья решений помещаются во внутренние узлы байесовских сетей с использованием минимальной длины сообщения ( MML ).
  • Дарвиче А (2009). Моделирование и рассуждение с помощью байесовских сетей . Издательство Кембриджского университета . ISBN 978-0521884389.
  • Доу, Дэвид Л. (31 мая 2011 г.). «Гибридные байесовские сетевые графические модели, статистическая согласованность, инвариантность и уникальность» (PDF) . Философия статистики . Эльзевир. С.  901–982 . ISBN 9780080930961.
  • Фентон Н., Нил М.Э. (ноябрь 2007 г.). «Управление рисками в современном мире: приложения байесовских сетей» (PDF) . Отчет о передаче знаний Лондонского математического общества и Сети передачи знаний по промышленной математике . Лондон (Англия) : Лондонское математическое общество .
  • Фентон Н., Нил М.Э. (23 июля 2004 г.). «Объединение доказательств в анализе рисков с использованием байесовских сетей» (PDF) . Информационный бюллетень Клуба по критическим системам безопасности . 13 (4). Ньюкасл-апон-Тайн , Англия. С. 8–13. Архивировано из оригинального (PDF) 27 сентября 2007 года.
  • Гельман А, Карлин Дж.Б., Стерн Х.С., Рубин Д.Б. (2003). «Часть II: Основы байесовского анализа данных: Глава 5 Иерархические модели» . Байесовский анализ данных . CRC Press . С. 120–. ISBN 978-1-58488-388-3.
  • Хекерман, Дэвид (1 марта 1995 г.). «Учебник по обучению с байесовскими сетями» . В Иордании, Майкл Ирвин (ред.). Обучение в графических моделях . Адаптивные вычисления и машинное обучение. Кембридж, Массачусетс : MIT Press (опубликовано в 1998 г.). С. 301–354. ISBN 978-0-262-60032-3.
Также появляется как Хекерман, Дэвид (март 1997 г.). «Байесовские сети для интеллектуального анализа данных». Интеллектуальный анализ данных и обнаружение знаний . 1 (1): 79–119. DOI : 10,1023 / A: 1009730122752 . S2CID 6294315 . 
Более ранняя версия представлена ​​как Технический отчет MSR-TR-95-06 , Microsoft Research , 1 марта 1995 г. В статье рассматривается как параметрическое, так и структурное обучение в байесовских сетях.
  • Дженсен Ф.В., Нильсен ТД (6 июня 2007 г.). Байесовские сети и графы решений . Серия "Информатика и статистика" (2-е изд.). Нью-Йорк : Springer-Verlag . ISBN 978-0-387-68281-5.
  • Карими К., Гамильтон HJ (2000). «Нахождение временных отношений: причинно-следственные байесовские сети против C4. 5» (PDF) . Двенадцатый международный симпозиум по методологиям интеллектуальных систем .
  • Корб КБ, Николсон А.Е. (декабрь 2010 г.). Байесовский искусственный интеллект . CRC Computer Science & Data Analysis (2-е изд.). Чепмен и Холл ( CRC Press ). DOI : 10.1007 / s10044-004-0214-5 . ISBN 978-1-58488-387-6. S2CID  22138783 .
  • Ланн Д., Шпигельхальтер Д., Томас А., Бест Н. (ноябрь 2009 г.). «Проект BUGS: эволюция, критика и направления на будущее». Статистика в медицине . 28 (25): 3049–67. DOI : 10.1002 / sim.3680 . PMID  19630097 .
  • Нил М., Фентон Н., Портной М. (август 2005 г.). Гринберг, Майкл Р. (ред.). «Использование байесовских сетей для моделирования ожидаемых и непредвиденных операционных потерь» (PDF) . Анализ рисков . 25 (4): 963–72. DOI : 10.1111 / j.1539-6924.2005.00641.x . PMID  16268944 . S2CID  3254505 .
  • Перл Дж (сентябрь 1986 г.). «Слияние, распространение и структурирование в сетях убеждений». Искусственный интеллект . 29 (3): 241–288. DOI : 10.1016 / 0004-3702 (86) 90072-X .
  • Перл Дж (1988). Вероятностное мышление в интеллектуальных системах: сети правдоподобных выводов . Серия представлений и рассуждений (2-е изд.). Сан-Франциско, Калифорния : Морган Кауфманн . ISBN 978-0-934613-73-6.
  • Перл Дж. , Рассел С. (ноябрь 2002 г.). «Байесовские сети». В Арбибе М.А. (ред.). Справочник по теории мозга и нейронным сетям . Кембридж, Массачусетс : Bradford Books ( MIT Press ). С. 157–160. ISBN 978-0-262-01197-6.
  • Рассел, Стюарт Дж .; Норвиг, Питер (2003), Искусственный интеллект: современный подход (2-е изд.), Верхняя Сэдл-Ривер, Нью-Джерси: Prentice Hall, ISBN 0-13-790395-2.
  • Чжан Н.Л., Пул Д. (май 1994 г.). «Простой подход к вычислениям байесовской сети» (PDF) . Материалы десятой канадской конференции по искусственному интеллекту, проводимой раз в два года (AI-94). : 171–178. В этой статье представлено исключение переменных для сетей убеждений.

Дальнейшее чтение [ править ]

  • Конради С., Джофф Л. (01.07.2015). Байесовские сети и BayesiaLab - практическое введение для исследователей . Франклин, Теннесси: Байесовские США. ISBN 978-0-9965333-0-0.
  • Чарняк Э. (Зима 1991). «Байесовские сети без слез» (PDF) . Журнал AI .
  • Kruse R, Borgelt C, Klawonn F, Moewes C, Steinbrecher M, Held P (2013). Вычислительный интеллект - методологическое введение . Лондон: Springer-Verlag. ISBN 978-1-4471-5012-1.
  • Боргельт C, Steinbrecher M, Kruse R (2009). Графические модели - представления для обучения, рассуждений и интеллектуального анализа данных (второе изд.). Чичестер: Вайли. ISBN 978-0-470-74956-2.

Внешние ссылки [ править ]

  • Введение в байесовские сети и их современные приложения
  • Он-лайн учебник по байесовским сетям и вероятностям
  • Веб-приложение для создания байесовских сетей и запуска его методом Монте-Карло
  • Байесовские сети с непрерывным временем
  • Байесовские сети: объяснение и аналогия
  • Живое руководство по изучению байесовских сетей
  • Иерархическая модель Байеса для обработки неоднородности образцов в задачах классификации предоставляет модель классификации, учитывающую неопределенность, связанную с измерением повторяющихся образцов.
  • Иерархическая наивная байесовская модель для обработки неопределенности выборки показывает, как выполнять классификацию и обучение с непрерывными и дискретными переменными с реплицированными измерениями.