Jump to content

Байесовская сеть

(Перенаправлено из Байесовской сети )

( Байесовская сеть также известная как сеть Байеса , сеть Байеса , сеть убеждений или сеть решений ) — это вероятностная графическая модель , которая представляет набор переменных и их условных зависимостей через направленный ациклический граф (DAG). [1] Хотя это одна из нескольких форм причинной записи , причинные сети являются частными случаями байесовских сетей. Байесовские сети идеально подходят для анализа произошедшего события и прогнозирования вероятности того, что какая-либо из нескольких возможных известных причин стала способствующим фактором. Например, байесовская сеть может представлять вероятностные связи между заболеваниями и симптомами. Учитывая симптомы, сеть можно использовать для расчета вероятности наличия различных заболеваний.

Эффективные алгоритмы могут выполнять вывод и обучение в байесовских сетях. Байесовские сети, которые моделируют последовательности переменных ( например, речевые сигналы или последовательности белков ), называются динамическими байесовскими сетями . Обобщения байесовских сетей, которые могут представлять и решать проблемы принятия решений в условиях неопределенности, называются диаграммами влияния .

Графическая модель

[ редактировать ]

Формально байесовские сети представляют собой ориентированные ациклические графы (DAG), узлы которых представляют переменные в байесовском смысле: это могут быть наблюдаемые величины, скрытые переменные , неизвестные параметры или гипотезы. Каждое ребро представляет собой прямую условную зависимость. Любая пара узлов, которые не связаны между собой (т. е. никакой путь не соединяет один узел с другим), представляют собой переменные, условно независимые друг от друга. Каждый узел связан с функцией вероятности переменных узла , которая принимает в качестве входных данных определенный набор значений для родительских и выдает (в качестве выходных данных) вероятность (или распределение вероятностей, если применимо) переменной, представленной узлом. Например, если родительские узлы представляют Булевы переменные , то функция вероятности может быть представлена ​​таблицей записи, по одной записи для каждого из возможные родительские комбинации. Подобные идеи могут быть применены к неориентированным и, возможно, циклическим графам, таким как сети Маркова .

Простая байесовская сеть с таблицами условной вероятности

Давайте воспользуемся иллюстрацией, чтобы реализовать концепции байесовской сети. Предположим, мы хотим смоделировать зависимости между тремя переменными: разбрызгивателем (или, точнее, его состоянием — включен он или нет), наличием или отсутствием дождя и мокрой травой или нет. Обратите внимание, что два события могут привести к намоканию травы: активный разбрызгиватель или дождь. Дождь оказывает прямое влияние на использование разбрызгивателя (а именно, когда идет дождь, разбрызгиватель обычно не работает). Эту ситуацию можно смоделировать с помощью байесовской сети (показано справа). Каждая переменная имеет два возможных значения: T (истина) и F (ложь).

Совместная функция вероятности , согласно цепному правилу вероятности ,

где G = «Трава мокрая (верно/неверно)», S = «Разбрызгиватель включен (верно/неверно)», и R = «Дождь (верно/неверно)».

Модель может отвечать на вопросы о наличии причины при наличии эффекта (так называемая обратная вероятность), например: «Какова вероятность того, что идет дождь, учитывая, что трава мокрая?» используя формулу условной вероятности и суммируя все мешающие переменные :

Использование разложения для совместной функции вероятности и условных вероятностей из таблиц условных вероятностей (КПТ), указанных на схеме, можно оценить каждое слагаемое в суммах в числителе и знаменателе. Например,

Тогда числовые результаты (с индексами соответствующих значений переменных) будут

Чтобы ответить на интервенционный вопрос, например: «Какова вероятность того, что пойдет дождь, если мы намочим траву?» ответ определяется функцией совместного распределения после вмешательства

получается удалением множителя из распределения до вмешательства. Оператор do заставляет значение G быть истинным. На вероятность дождя действие не влияет:

Чтобы спрогнозировать последствия включения разбрызгивателя:

с термином удалено, показывая, что действие влияет на траву, но не на дождь.

Эти прогнозы могут оказаться неосуществимыми, учитывая ненаблюдаемые переменные, как это происходит в большинстве задач по оценке политики. Эффект от действия Однако все еще можно предсказать, если критерий «черного хода» удовлетворен. [2] [3] В нем говорится, что если можно наблюдать набор Z узлов, который d -разделяет [4] (или блокирует) все обходные пути от X до Y , затем

Обходной путь — это путь, который заканчивается стрелкой в ​​X . Множества, удовлетворяющие критерию «черной двери», называются «достаточными» или «допустимыми». Например, набор Z = R допустим для прогнозирования влияния S = T на G , потому что d -разделяет (единственный) черный путь S R G. R Однако, если S не наблюдается, никакое другое множество d- не отделяет этот путь, и эффект включения разбрызгивателя ( S = T ) на траву ( G ) не может быть предсказан на основе пассивных наблюдений. В этом случае P ( G | do( S = T )) не «идентифицирован». Это отражает тот факт, что при отсутствии интервенционных данных наблюдаемая зависимость между S и G обусловлена ​​причинно-следственной связью или является ложной.(кажущаяся зависимость, возникающая по общей причине, R ). (см. парадокс Симпсона )

Чтобы определить, идентифицируется ли причинная связь в произвольной байесовской сети с ненаблюдаемыми переменными, можно использовать три правила « исчисления ». [2] [5] и проверить, можно ли удалить все члены do из выражения этого отношения, тем самым подтвердив, что желаемую величину можно оценить на основе данных о частоте. [6]

Использование байесовской сети может сэкономить значительные объемы памяти при использовании исчерпывающих таблиц вероятностей, если зависимости в совместном распределении разрежены. Например, простой способ хранения условных вероятностей 10 двузначных переменных в виде таблицы требует места для хранения. ценности. Если локальное распределение ни одной переменной не зависит более чем от трех родительских переменных, представление байесовской сети сохраняет не более ценности.

Одним из преимуществ байесовских сетей является то, что человеку интуитивно легче понять (редкий набор) прямых зависимостей и локальных распределений, чем полные совместные распределения.

Вывод и обучение

[ редактировать ]

Байесовские сети выполняют три основные задачи вывода:

Вывод ненаблюдаемых переменных

[ редактировать ]

Поскольку байесовская сеть представляет собой полную модель своих переменных и их отношений, ее можно использовать для ответа на вероятностные запросы о них. Например, сеть можно использовать для обновления знаний о состоянии подмножества переменных, когда свидетельства наблюдаются другие переменные (переменные ). Этот процесс вычисления апостериорного распределения переменных с учетом доказательств называется вероятностным выводом. Апостериорный метод дает универсальную достаточную статистику для приложений обнаружения при выборе значений для подмножества переменных, которые минимизируют некоторую функцию ожидаемых потерь, например, вероятность ошибки решения. Таким образом, байесовскую сеть можно рассматривать как механизм автоматического применения теоремы Байеса к сложным задачам.

Наиболее распространенными методами точного вывода являются: исключение переменных , при котором исключаются (путем интегрирования или суммирования) ненаблюдаемые переменные, не относящиеся к запросу, одна за другой путем распределения суммы по произведению; распространение дерева кликов , которое кэширует вычисления, чтобы можно было запрашивать множество переменных одновременно и быстро распространять новые данные; а также рекурсивное кондиционирование и поиск И/ИЛИ, которые позволяют найти компромисс между пространством и временем и соответствуют эффективности исключения переменных при использовании достаточного пространства. сети Все эти методы имеют сложность, экспоненциальную в зависимости от ширины дерева . Наиболее распространенными алгоритмами приближенного вывода являются выборка по важности , стохастическое моделирование MCMC , исключение мини-ведра, циклическое распространение убеждений , обобщенное распространение убеждений и вариационные методы .

Изучение параметров

[ редактировать ]

Чтобы полностью определить байесовскую сеть и, таким образом, полностью представить совместное распределение вероятностей , необходимо указать для каждого узла X распределение вероятностей для X, от X. родителей зависящее Распределение X в зависимости от его родителей может иметь любую форму. Обычно работают с дискретными или гауссовскими распределениями , поскольку это упрощает расчеты. Иногда известны только ограничения на распространение; затем можно использовать принцип максимальной энтропии для определения единственного распределения, имеющего наибольшую энтропию с учетом ограничений. (Аналогично, в конкретном контексте динамической байесовской сети условное распределение временной эволюции скрытого состояния обычно задается для максимизации уровня энтропии подразумеваемого стохастического процесса.)

Часто эти условные распределения включают параметры, которые неизвестны и должны быть оценены на основе данных, например, с помощью подхода максимального правдоподобия . Прямая максимизация правдоподобия (или апостериорной вероятности ) часто является сложной задачей, учитывая ненаблюдаемые переменные. Классическим подходом к этой проблеме является алгоритм максимизации ожидания , который чередует вычисление ожидаемых значений ненаблюдаемых переменных, зависящих от наблюдаемых данных, с максимизацией полной вероятности (или апостериорной) при условии, что ранее вычисленные ожидаемые значения верны. В условиях умеренной регулярности этот процесс сходится к значениям максимального правдоподобия (или максимального апостериорного значения) для параметров.

Более полный байесовский подход к параметрам состоит в том, чтобы рассматривать их как дополнительные ненаблюдаемые переменные и вычислять полное апостериорное распределение по всем узлам при условии соблюдения наблюдаемых данных, а затем интегрировать параметры. Этот подход может быть дорогостоящим и привести к созданию моделей большой размерности, что делает классические подходы к настройке параметров более удобными.

Структурное обучение

[ редактировать ]

В простейшем случае байесовская сеть задается экспертом и затем используется для выполнения вывода. В других приложениях задача определения сети слишком сложна для людей. В этом случае структура сети и параметры локальных распределений должны быть изучены из данных.

Автоматическое изучение структуры графа байесовской сети (БС) — задача, решаемая в рамках машинного обучения . Основная идея восходит к алгоритму восстановления, разработанному Ребане и Перлом. [7] и основан на различии между тремя возможными шаблонами, разрешенными в трехузловой DAG:

Схемы соединений
Шаблон Модель
Цепь
Вилка
Коллайдер

Первые 2 представляют собой одни и те же зависимости ( и независимы с учетом ) и поэтому неотличимы. Однако коллайдер можно однозначно идентифицировать, поскольку и маргинально независимы, а все остальные пары зависимы. Таким образом, хотя скелеты (графики без стрелок) этих трех троек идентичны, направление стрелок частично можно определить. То же различие применяется, когда и иметь общих родителей, за исключением того, что нужно сначала поставить условие этим родителям. Были разработаны алгоритмы для систематического определения скелета базового графа и затем ориентации всех стрелок, направление которых диктуется наблюдаемыми условными независимостью. [2] [8] [9] [10]

Альтернативный метод структурного обучения использует поиск на основе оптимизации. Для этого требуется функция оценки и стратегия поиска. Распространенной оценочной функцией является апостериорная вероятность структуры с учетом обучающих данных, такой как BIC или BDeu. Требуемое время для исчерпывающего поиска, возвращающего структуру, которая максимизирует оценку, является суперэкспоненциальной по количеству переменных. Стратегия локального поиска вносит постепенные изменения, направленные на повышение оценки структуры. Алгоритм глобального поиска, такой как цепь Маркова Монте-Карло, может избежать попадания в ловушку локальных минимумов . Фридман и др. [11] [12] обсудите использование взаимной информации между переменными и поиск структуры, которая максимизирует это. Они делают это, ограничивая набор родительских кандидатов k узлами и осуществляя исчерпывающий поиск в нем.

Особенно быстрый метод точного обучения BN — представить задачу как задачу оптимизации и решить ее с помощью целочисленного программирования . В целочисленную программу (ИП) при решении добавляются ограничения ацикличности в виде секущих плоскостей . [13] Такой метод может решать задачи с числом переменных до 100.

Чтобы справиться с проблемами с тысячами переменных, необходим другой подход. Один из них — сначала выбрать один порядок, а затем найти оптимальную структуру BN относительно этого порядка. Это подразумевает работу над пространством поиска возможных упорядочений, что удобно, поскольку оно меньше пространства сетевых структур. Затем несколько заказов отбираются и оцениваются. Доказано, что этот метод является лучшим из доступных в литературе, когда количество переменных огромно. [14]

Другой метод заключается в сосредоточении внимания на подклассе разложимых моделей, для которых MLE имеет замкнутую форму. Тогда можно обнаружить непротиворечивую структуру для сотен переменных. [15]

Изучение байесовских сетей с ограниченной шириной дерева необходимо для обеспечения точного и удобного вывода, поскольку сложность вывода в наихудшем случае экспоненциальна по ширине дерева k (согласно гипотезе экспоненциального времени). Однако, будучи глобальным свойством графа, оно значительно усложняет процесс обучения. В этом контексте можно использовать K-дерево для эффективного обучения. [16]

Статистическое введение

[ редактировать ]

Данные данные и параметр простой байесовский анализ начинается с априорной вероятности ( prior ) и вероятность вычислить апостериорную вероятность .

Часто предшествующий зависит в свою очередь от других параметров которые не упомянуты в вероятности. Итак, предшествующий должна быть заменена вероятностью и предшествующий по вновь введенным параметрам требуется, что приводит к апостериорной вероятности

Это простейший пример иерархической модели Байеса .

Процесс может быть повторен; например, параметры может зависеть, в свою очередь, от дополнительных параметров , которые требуют своего собственного предварительного. В конце концов процесс должен завершиться, причем априорные значения не зависят от неупомянутых параметров.

Вводные примеры

[ редактировать ]

Учитывая измеренные величины каждый с нормально распределенными ошибками известного стандартного отклонения ,

Предположим, нас интересует оценка . Подход мог бы заключаться в оценке использование подхода максимального правдоподобия ; поскольку наблюдения независимы, вероятность факторизуется, а оценка максимального правдоподобия просто

Однако, если количества взаимосвязаны, так что, например, отдельные сами были взяты из базового распределения, то эти отношения разрушают независимость и предлагают более сложную модель, например,

с неподходящими приорами , . Когда , это идентифицированная модель (т.е. существует уникальное решение для параметров модели), а апостериорные распределения отдельных будут иметь тенденцию двигаться или отклоняться от оценок максимального правдоподобия к их общему среднему значению. Такое сокращение является типичным поведением иерархических моделей Байеса.

Ограничения на приоры

[ редактировать ]

Необходима некоторая осторожность при выборе априорных значений в иерархической модели, особенно в отношении масштабных переменных на более высоких уровнях иерархии, таких как переменная в примере. Обычные априоры, такие как априор Джеффриса, часто не работают, поскольку апостериорное распределение не будет нормализоваться, а оценки, сделанные путем минимизации ожидаемых потерь, будут недопустимы .

Определения и понятия

[ редактировать ]

Было предложено несколько эквивалентных определений байесовской сети. Для дальнейшего пусть G = ( V , E ) — ориентированный ациклический граф (DAG), и пусть X = ( X v ), v V — набор случайных величин, индексированных V .

Определение факторизации

[ редактировать ]

X является байесовской сетью относительно G, если ее совместная функция плотности вероятности (относительно меры произведения ) может быть записана как произведение отдельных функций плотности, зависящих от их родительских переменных: [17]

где pa( v ) — множество родительских вершин v (т. е. тех вершин, которые указывают непосредственно на v через одно ребро).

Для любого набора случайных величин вероятность любого члена совместного распределения может быть рассчитана на основе условных вероятностей с использованием цепного правила (с учетом топологического порядка X ) следующим образом: [17]

Используя приведенное выше определение, это можно записать так:

Разница между двумя выражениями заключается в условной независимости переменных от любых их не-потомков, учитывая значения их родительских переменных.

Местная марковская собственность

[ редактировать ]

X является байесовской сетью относительно G, если она удовлетворяет локальному марковскому свойству : каждая переменная условно независима от своих непотомков, учитывая ее родительские переменные: [18]

где de( v ) — набор потомков, а V \ de( v ) — набор непотомков v .

Это можно выразить в терминах, аналогичных первому определению, как

Множество родителей является подмножеством множества не-потомков, поскольку граф является ациклическим .

Структура предельной независимости

[ редактировать ]

В общем, изучение байесовской сети на основе данных, как известно, является NP-сложной задачей . [19] Частично это связано с комбинаторным взрывом перечисления DAG по мере увеличения числа переменных. Тем не менее, представление о базовой байесовской сети можно получить из данных за полиномиальное время, сосредоточив внимание на ее структуре предельной независимости. [20] : в то время как заявления об условной независимости распределения, смоделированного байесовской сетью, кодируются DAG (в соответствии с факторизацией и марковскими свойствами, указанными выше), его заявления о маргинальной независимости — заявления об условной независимости, в которых обусловливающее множество пусто — кодируются простой неориентированный граф со специальными свойствами, такими как равные пересечения и числа независимости .

Разработка байесовских сетей

[ редактировать ]

Разработка байесовской сети часто начинается с создания DAG G, , что X удовлетворяет локальному марковскому свойству относительно G. такого Иногда это причинная DAG. условные распределения вероятностей каждой переменной с учетом ее родителей в G. Оцениваются Во многих случаях, в частности в случае, когда переменные дискретны, если совместное распределение является произведением этих условных распределений, то X является байесовской сетью относительно G. X [21]

Марковское одеяло

[ редактировать ]

Марковское одеяло узла — это множество узлов, состоящее из его родителей, его детей и любых других родителей его детей. Одеяло Маркова делает узел независимым от остальной сети; совместное распределение переменных в марковском бланкете узла является достаточным знанием для расчета распределения узла. X является байесовской сетью относительно G , если каждый узел условно независим от всех других узлов сети с учетом его марковского бланкета . [18]

г -разделение

[ редактировать ]

Это определение можно сделать более общим, определив «d»-разделение двух узлов, где d означает направление. [2] Сначала мы определяем «d»-разделение следа, а затем с его точки зрения определим «d»-разделение двух узлов.

Пусть P — путь от узла u до v . Трасса — это ненаправленный путь без петель (т. е. все направления ребер игнорируются) между двумя узлами. Тогда P говорят, что d -разделен набором узлов Z, если выполняется любое из следующих условий:

  • P содержит (но не обязательно должен быть полностью) направленную цепь, или , такой, что средний узел m находится в Z ,
  • P содержит вилку, , такой, что средний узел m находится в Z , или
  • P содержит перевернутую вилку (или коллайдер), , так что средний узел m не находится в Z и ни один потомок m не находится в Z .

Узлы u и v Z d -разделены , если все маршруты между ними d -разделены. Если u и v не d-разделены, они d-связны.

X является байесовской сетью относительно G , если для любых двух узлов u , v :

где Z — множество, которое d -разделяет u и v . ( Марковское одеяло — это минимальный набор узлов, который d -отделяет узел v от всех остальных узлов.)

Причинно-следственные сети

[ редактировать ]

Хотя байесовские сети часто используются для представления причинно-следственных связей, это не обязательно так: направленное ребро от u до v не требует, чтобы X v был причинно зависим от X u . Об этом свидетельствует тот факт, что байесовские сети на графиках:

эквивалентны: то есть они предъявляют одни и те же требования условной независимости.

Причинная сеть — это байесовская сеть с требованием, чтобы отношения были причинными. Дополнительная семантика причинных сетей определяет, что если узел X активно приводится в заданное состояние x (действие, записанное как do( X = x )), то функция плотности вероятности меняется на функцию плотности вероятности сети, полученной путем разрезания ссылки от родителей X к X и установка X в вызванное значение x . [2] Используя эту семантику, можно предсказать влияние внешнего вмешательства на основе данных, полученных до вмешательства.

Сложность вывода и алгоритмы аппроксимации

[ редактировать ]

В 1990 году, работая в Стэнфордском университете над крупными биоинформационными приложениями, Купер доказал, что точный вывод в байесовских сетях NP-труден . [22] Этот результат побудил к исследованию алгоритмов аппроксимации с целью разработки удобного приближения к вероятностному выводу. В 1993 году Пол Дагам и Майкл Луби доказали два удивительных результата о сложности аппроксимации вероятностного вывода в байесовских сетях. [23] Во-первых, они доказали, что ни один послушный детерминированный алгоритм не может аппроксимировать вероятностный вывод с точностью до абсолютной ошибки ɛ < 1/2. Во-вторых, они доказали, что ни один управляемый рандомизированный алгоритм не может аппроксимировать вероятностный вывод с точностью до абсолютной ошибки ɛ < 1/2 с доверительной вероятностью больше 1/2.

Примерно в то же время Рот доказал, что точный вывод в байесовских сетях на самом деле #P-полный (и, следовательно, так же сложен, как подсчет количества удовлетворяющих присвоений формулы конъюнктивной нормальной формы (КНФ)) и что аппроксимационный вывод в пределах множителя 2 н 1- е для любого ɛ > 0, даже для байесовских сетей с ограниченной архитектурой, является NP-трудной. [24] [25]

С практической точки зрения эти результаты по сложности показали, что, хотя байесовские сети являются богатым представлением приложений искусственного интеллекта и машинного обучения, их использование в крупных реальных приложениях должно ограничиваться либо топологическими структурными ограничениями, такими как наивные байесовские сети, либо ограничениями. об условных вероятностях. Алгоритм ограниченной дисперсии [26] разработанный Дагумом и Луби, был первым доказуемым алгоритмом быстрой аппроксимации, позволяющим эффективно аппроксимировать вероятностный вывод в байесовских сетях с гарантиями аппроксимации ошибок. Этот мощный алгоритм требовал небольшого ограничения на условные вероятности байесовской сети, которые должны быть отделены от нуля и единицы на где был любой полином от количества узлов в сети, .

Программное обеспечение

[ редактировать ]

Известное программное обеспечение для байесовских сетей включает:

  • Просто еще один сэмплер Гиббса (JAGS) — альтернатива WinBUGS с открытым исходным кодом. Использует выборку Гиббса.
  • OpenBUGS — разработка WinBUGS с открытым исходным кодом.
  • SPSS Modeler – коммерческое программное обеспечение, включающее реализацию байесовских сетей.
  • Stan (программное обеспечение) — Stan — это пакет с открытым исходным кодом для получения байесовского вывода с использованием сэмплера No-U-Turn (NUTS), [27] вариант гамильтониана Монте-Карло.
  • PyMC — библиотека Python, реализующая встроенный предметно-ориентированный язык для представления байесовских сетей и различные сэмплеры (включая NUTS).
  • WinBUGS — одна из первых вычислительных реализаций сэмплеров MCMC. Больше не поддерживается.

Термин «байесовская сеть» был придуман Джудеей Перл в 1985 году, чтобы подчеркнуть: [28]

  • часто субъективный характер входной информации
  • использование байесовского кондиционирования как основы для обновления информации
  • различие между причинным и доказательным способами рассуждения [29]

В конце 1980-х годов Перл «Вероятностное рассуждение в интеллектуальных системах» [30] и рассуждения Неаполитана вероятностные в экспертных системах [31] обобщил их свойства и определил их как область исследования.

См. также

[ редактировать ]

Примечания

[ редактировать ]
  1. ^ Руджери, Фабрицио; Кенетт, Рон С.; Фалтин, Фредерик В., ред. (14 декабря 2007 г.). Энциклопедия статистики качества и надежности (1-е изд.). Уайли. п. 1. дои : 10.1002/9780470061572.eqr089 . ISBN  978-0-470-01861-3 .
  2. ^ Перейти обратно: а б с д и Перл, Иудея (2000). Причинность: модели, рассуждения и выводы . Издательство Кембриджского университета . ISBN  978-0-521-77362-1 . OCLC   42291253 .
  3. ^ «Критерий черного хода» (PDF) . Проверено 18 сентября 2014 г.
  4. ^ «Д-Разлука без слез» (PDF) . Проверено 18 сентября 2014 г.
  5. ^ Перл Дж (1994). «Вероятностное исчисление действий» . В Лопес де Мантарас Р., Пул Д. (ред.). UAI'94 Материалы Десятой международной конференции «Неопределенность в искусственном интеллекте» . Сан-Матео, Калифорния: Морган Кауфманн . стр. 454–462. arXiv : 1302.6835 . Бибкод : 2013arXiv1302.6835P . ISBN  1-55860-332-8 .
  6. ^ Шпицер И, Перл Дж (2006). «Идентификация условных интервенционных распределений». В Дехтер Р., Ричардсон Т.С. (ред.). Материалы двадцать второй конференции по неопределенности в искусственном интеллекте . Корваллис, Орегон: AUAI Press. стр. 437–444. arXiv : 1206.6876 .
  7. ^ Ребане Дж., Перл Дж. (1987). «Восстановление причинных полидеревьев по статистическим данным». Материалы 3-го семинара по неопределенности в ИИ . Сиэтл, Вашингтон. стр. 222–228. arXiv : 1304.2736 . {{cite book}}: CS1 maint: отсутствует местоположение издателя ( ссылка )
  8. ^ Спиртес П., Глимур С. (1991). «Алгоритм быстрого восстановления разреженных причинных графов» (PDF) . Компьютерный обзор социальных наук . 9 (1): 62–72. CiteSeerX   10.1.1.650.2922 . дои : 10.1177/089443939100900106 . S2CID   38398322 .
  9. ^ Спиртес П., Глимур К.Н., Шайнс Р. (1993). Причинно-следственная связь, прогнозирование и поиск (1-е изд.). Спрингер Верлаг. ISBN  978-0-387-97979-3 .
  10. ^ Верма Т., Перл Дж (1991). «Эквивалентность и синтез причинных моделей» . В Бониссоне П., Хенрионе М., Канале Л.Н., Леммере Дж.Ф. (ред.). UAI '90 Материалы шестой ежегодной конференции по неопределенности в искусственном интеллекте . Эльзевир. стр. 255–270. ISBN  0-444-89264-8 .
  11. ^ Фридман Н., Гейгер Д., Гольдшмидт М. (ноябрь 1997 г.). «Байесовские сетевые классификаторы» . Машинное обучение . 29 (2–3): 131–163. дои : 10.1023/А:1007465528199 .
  12. ^ Фридман Н., Линиал М., Нахман И., Пеер Д. (август 2000 г.). «Использование байесовских сетей для анализа данных о выражениях». Журнал вычислительной биологии . 7 (3–4): 601–20. CiteSeerX   10.1.1.191.139 . дои : 10.1089/106652700750050961 . ПМИД   11108481 .
  13. ^ Кассенс Дж. (2011). «Обучение байесовской сети с помощью секущих плоскостей» (PDF) . Материалы 27-й ежегодной конференции по неопределенности в искусственном интеллекте : 153–160. arXiv : 1202.3713 . Бибкод : 2012arXiv1202.3713C .
  14. ^ Сканагатта М., де Кампос С.П., Корани Г., Заффалон М. (2015). «Изучение байесовских сетей с тысячами переменных» . NIPS-15: Достижения в области нейронных систем обработки информации . Том. 28. Карран Ассошиэйтс. стр. 1855–1863.
  15. ^ Петижан Ф., Уэбб Дж.И., Николсон А.Е. (2013). Масштабирование лог-линейного анализа для многомерных данных (PDF) . Международная конференция по интеллектуальному анализу данных. Даллас, Техас, США: IEEE.
  16. ^ М. Сканагатта, Дж. Корани, К. П. де Кампос и М. Заффалон. Изучение байесовских сетей, ограниченных по ширине дерева, с тысячами переменных. В NIPS-16: Достижения в области нейронных систем обработки информации, 29, 2016 г.
  17. ^ Перейти обратно: а б Рассел и Норвиг 2003 , с. 496.
  18. ^ Перейти обратно: а б Рассел и Норвиг 2003 , с. 499.
  19. ^ Чикеринг, Дэвид М.; Хеккерман, Дэвид; Мик, Кристофер (2004). «Обучение байесовских сетей на большой выборке NP-сложно» (PDF) . Журнал исследований машинного обучения . 5 : 1287–1330.
  20. ^ Делигеоргаки, Данай; Маркхэм, Алекс; Мишра, Пратик; Солус, Лиам (2023). «Комбинаторные и алгебраические взгляды на структуру предельной независимости байесовских сетей». Алгебраическая статистика . 14 (2): 233–286. arXiv : 2210.00822 . дои : 10.2140/astat.2023.14.233 .
  21. ^ Неаполитанский RE (2004). Изучение байесовских сетей . Прентис Холл. ISBN  978-0-13-012534-7 .
  22. ^ Купер Г.Ф. (1990). «Вычислительная сложность вероятностного вывода с использованием байесовских сетей убеждений» (PDF) . Искусственный интеллект . 42 (2–3): 393–405. дои : 10.1016/0004-3702(90)90060-д . S2CID   43363498 .
  23. ^ Дагум П. , Луби М. (1993). «Аппроксимация вероятностного вывода в байесовских сетях убеждений NP-трудна». Искусственный интеллект . 60 (1): 141–153. CiteSeerX   10.1.1.333.1586 . дои : 10.1016/0004-3702(93)90036-б .
  24. ^ Д. Рот, О сложности приближенных рассуждений , IJCAI (1993).
  25. ^ Д. Рот, О сложности приближенных рассуждений , Искусственный интеллект (1996).
  26. ^ Дагум П. , Луби М. (1997). «Оптимальный алгоритм приближения для байесовского вывода» . Искусственный интеллект . 93 (1–2): 1–27. CiteSeerX   10.1.1.36.7946 . дои : 10.1016/s0004-3702(97)00013-1 . Архивировано из оригинала 6 июля 2017 г. Проверено 19 декабря 2015 г.
  27. ^ Хоффман, Мэтью Д.; Гельман, Эндрю (2011). «Пробоотборник без разворота: адаптивная установка длины пути в гамильтоновом методе Монте-Карло». arXiv : 1111.4246 [ stat.CO ].
  28. ^ Перл Дж (1985). Байесовские сети: модель самоактивируемой памяти для доказательного рассуждения (Технический отчет Калифорнийского университета в Лос-Анджелесе CSD-850017) . Материалы 7-й конференции Общества когнитивных наук, Калифорнийский университет, Ирвин, Калифорния. стр. 329–334 . Проверено 1 мая 2009 г.
  29. ^ Байес Т. , Прайс (1763). «Очерк решения проблемы учения о шансах» . Философские труды Королевского общества . 53 : 370–418. дои : 10.1098/rstl.1763.0053 .
  30. ^ Перл Дж (15 сентября 1988 г.). Вероятностные рассуждения в интеллектуальных системах . Сан-Франциско, Калифорния: Морган Кауфманн . п. 1988. ISBN  978-1-55860-479-7 .
  31. ^ Неаполитанский RE (1989). Вероятностные рассуждения в экспертных системах: теория и алгоритмы . Уайли. ISBN  978-0-471-61840-9 .
Более ранняя версия опубликована под названием Microsoft Research , 1 марта 1995 г. Статья посвящена изучению как параметров, так и структур в байесовских сетях.

Дальнейшее чтение

[ редактировать ]
[ редактировать ]
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 9329ee7c2a8a8a1073261386f2a8fbcd__1720765320
URL1:https://arc.ask3.ru/arc/aa/93/cd/9329ee7c2a8a8a1073261386f2a8fbcd.html
Заголовок, (Title) документа по адресу, URL1:
Bayesian network - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)