Предварительная вероятность
Часть серии на |
Байесовская статистика |
---|
![]() |
Задняя = вероятность × предыдущие доказательства |
Фон |
Модель здания |
Заднее приближение |
Оценки |
Доказательства приближения |
Оценка модели |
Предыдущим распределением вероятности неопределенной величины, часто называемой предыдущим , является предполагаемое распределение вероятности до принятия некоторых доказательств. Например, предыдущим может быть распределение вероятностей, представляющее относительные пропорции избирателей, которые будут голосовать за конкретного политика на будущих выборах. Неизвестное количество может быть параметром модели или скрытой переменной , а не наблюдаемой переменной .
В байесовской статистике правило Байеса предписывает, как обновить предварительную информацию с новой информацией для получения апостериорного распределения вероятностей , которое представляет собой условное распределение неопределенной величины, учитывая новые данные. Исторически, выбор априоров часто ограничивался сопряженным семейством данной функции правдоподобия , поскольку это приведет к тому, что он приведет к проведенной задней части той же семьи. Однако широко распространенная доступность методов Markov Chain Monte Carlo сделала это менее чем за беспокойство.
Есть много способов построить предварительное распределение. [ 1 ] В некоторых случаях предыдущий может быть определен из прошлой информации, такой как предыдущие эксперименты. Приор также может быть вызван из чисто субъективной оценки опытного эксперта. [ 2 ] [ 3 ] [ 4 ] Когда не доступна информация, неинформативное предыдущее может быть принято в соответствии с принципом безразличия . [ 5 ] [ 6 ] В современных приложениях априоры также часто выбираются за их механические свойства, такие как регуляризация и выбор функций . [ 7 ] [ 8 ] [ 9 ]
Предыдущие распределения параметров модели часто зависят от собственных параметров. Неопределенность в отношении этих гиперпараметров , в свою очередь, может быть выражена в виде гиперприорских распределений вероятностей. Например, если кто -то использует бета -распределение для моделирования распределения параметра P распределения Бернулли , то:
- P является параметром базовой системы (распределение Бернулли) и
- α и β являются параметрами предыдущего распределения (бета -распределение); Следовательно, гипер параметры.
В принципе, априоры могут быть разложены на многие условные уровни распределений, так называемые иерархические априоры . [ 10 ]
Информативные априоры
[ редактировать ]Информативный предыдущий выражает конкретную, определенную информацию о переменной. Примером является предварительное распределение температуры в полдень завтра. Разумный подход заключается в том, чтобы сделать предыдущее нормальное распределение с ожидаемым значением , равным сегодняшней температуре, с дисперсией, равной повседневной дисперсии атмосферной температуры, или распределение температуры за тот день года.
Этот пример имеет свойство общего со многими априорными, а именно: апостериорная от одной проблемы (сегодняшняя температура) становится предварительной для другой проблемы (температура завтрашнего дня); Предварительные доказательства, которые уже были приняты во внимание, являются частью предыдущего и, как накапливается больше доказательств, апостериор определяется в значительной степени доказательствами, а не каким-либо первоначальным предположением, при условии, что первоначальное предположение признало возможность того, что такое доказательства предложение. Термины «предыдущие» и «задние», как правило, относятся к конкретному данному или наблюдению.
Сильный приоритет
[ редактировать ]Сильным ранее является предыдущее предположение, теория, концепция или идея, на которой после принятия новой информации основано текущее предположение, теория, концепция или идея. [ Цитация необходима ] Сильный предыдущий - это тип информативного ранее, в котором информация, содержащаяся в предыдущем распределении, доминирует в информации, содержащейся в анализируемых данных. Байесовский анализ объединяет информацию, содержащуюся в предыду, с извлеченной из данных для получения заднего распределения , которое в случае «сильного предварительного» будет мало изменено по сравнению с предыдущим распределением.
Слабо информативные априоры
[ редактировать ]Слабо информативный предыдущий выражает частичную информацию о переменной, направляя анализ к решениям, которые соответствуют существующим знаниям без чрезмерного ограничения результатов и предотвращая экстремальные оценки. Примером является установка предыдущего распределения для температуры в полдень завтра в Сент -Луисе, чтобы использовать нормальное распределение со средним 50 градусами по Фаренгейту и стандартным отклонениям 40 градусов, что очень свободно ограничивает температуру до диапазона (10 градусов, 90 градусы) с небольшой вероятностью быть ниже -30 градусов или выше 130 градусов. Цель слабо информативного предыдущего - это регуляризация , то есть для того, чтобы сделать выводы в разумном диапазоне.
Неинформативные априоры
[ редактировать ]Неинформативное , плоское выражает или диффузное предварительное выражение неопределенную или общую информацию о переменной. [ 5 ] Термин «неинформативное предыдущее» является чем -то вроде неправильного. Такое предыдущее также может быть названо не очень информативным или объективным предварительным , т. Е. Один из них, который не выявлен субъективно.
Неинформативные априоры могут выражать «объективную» информацию, такую как «переменная положительная» или «переменная меньше, чем какой -то предел». Самое простое и старое правило для определения неинформативного предыдущего- принцип безразличия , который присваивает равные вероятности всем возможностям. В задачах оценки параметров использование неинформативного предыдущего обычно дает результаты, которые не слишком отличаются от традиционного статистического анализа, поскольку функция вероятности часто дает больше информации, чем неинформативное предварительное.
Некоторые попытки были предприняты при обнаружении априорных вероятностей , т.е. распределения вероятностей в некотором смысле логически требуется характер своего состояния неопределенности; Это предмет философских противоречий, когда байесовцы примерно разделены на две школы: «объективные байесовские», которые считают, что такие априоры существуют во многих полезных ситуациях, и «субъективные байесовские», которые считают, что на практике обычно представляют субъективные суждения, что мнение не может быть строго оправданным (Williamson 2010). Возможно, самые сильные аргументы для объективного байесанизма были даны Эдвином Т. Джейнсом , основанным главным образом на последствиях симметрии и на принципе максимальной энтропии.
В качестве примера априори, из -за Jaynes (2003), рассмотрим ситуацию, в которой можно было спрятать мяч под одной из трех чашек, A, B или C, но никакой другой информации о его местоположении не доступно. Полем В этом случае предыдущий равномерный p ( a ) = p ( b ) = p ( c ) = 1/3, кажется, интуитивно похож на единственный разумный выбор. Более формально мы видим, что проблема остается прежней, если мы обменяемся этикетками («A», «B» и «C») чашек. Поэтому было бы странно выбирать предыдущий, для которого перестановка ярлыков приведет к изменению наших прогнозов о том, в каком чаше будет найдена мяч; Униформа -ранее - единственный, который сохраняет эту инвариантность. Если кто -то принимает этот принцип инвариантности, то можно увидеть, что униформа предшествует логически правильным, прежде чем представлять это состояние знания. Это предварительное «объективное» в смысле правильного выбора представлять конкретное состояние знания, но это не объективно в смысле быть независимой от наблюдателя особенности мира: на самом деле мяч существует под определенной чашкой , и имеет смысл говорить о вероятностях в этой ситуации, если есть наблюдатель с ограниченными знаниями о системе. [ 11 ]
В качестве более спорного примера Jaynes опубликовал аргумент, основанный на инвариантности предыдущего при изменении параметров, которые предполагают, что предыдущим представляющим полную неопределенность в отношении вероятности должна быть предварительная Paldane −1 (1 - P ) −1 . [ 12 ] Пример Джейнса - это найти химическое вещество в лаборатории и спрашивать, будет ли оно раствориться в воде в повторных экспериментах. Haldane Prior [ 13 ] дает больше всего наибольшего веса и , указывая, что выборка будет либо растворяться каждый раз, либо никогда не растворять, с одинаковой вероятностью. Однако, если кто -то наблюдал образцы химического вещества для растворения в одном эксперименте, а не растворять в другом эксперименте, это это предварительное обновление обновляется до равномерного распределения на интервале [0, 1]. Это получается путем применения теоремы Байеса к набору данных, состоящему из одного наблюдения за растворением, и одного из не растворяющихся, используя приведенный выше предыдущий. Haldane Wror является ненадлежащим предварительным распределением (что означает, что он имеет бесконечную массу). Гарольд Джеффрис разработал систематический способ проектирования неинформативных априоров, например, Jeffreys Prior P −1/2 (1 - P ) −1/2 Для случайной переменной Бернулли.
Возможно, априоры могут быть построены, которые пропорциональны мере HAAR, если пространство параметров x несет естественную групповую структуру , которая оставляет инвариантно наше байесовское состояние знаний. [ 12 ] Это можно рассматривать как обобщение принципа инвариантности, используемого для оправдания единого предварительного предыдущего над тремя чашками в примере выше. Например, в физике мы можем ожидать, что эксперимент даст те же результаты независимо от нашего выбора происхождения системы координат. Это вызывает групповую структуру группы перевода на x , которая определяет предварительную вероятность как постоянную неправомерную приоритету . Аналогичным образом, некоторые измерения естественным образом инвариантны к выбору произвольной шкалы (например, используются ли сантиметры или дюймы, физические результаты должны быть равны). В таком случае масштабная группа является естественной групповой структурой, а соответствующий предыдущий на x пропорционален 1/ x . Иногда важно, используем ли мы левую инвариантную или правую инвариантную меру HAAR. Например, левые и правые инвариантные меры HAAR в аффинной группе не равны. Бергер (1985, стр. 413) утверждает, что правая инвариантная мера HAAR является правильным выбором.
Другая идея, отстаиваемая Эдвином Т. Джейнсом , состоит в том, чтобы использовать принцип максимальной энтропии (maxent). Мотивация состоит в том, что энтропия Шеннона распределения вероятностей измеряет объем информации, содержащейся в распределении. Чем больше энтропия, тем меньше информации предоставляется распределением. Таким образом, максимизируя энтропию по сравнению с подходящим набором распределений вероятностей на x , можно найти распределение, которое является наименее информативным в том смысле, что он содержит наименьшее количество информации, соответствующей ограничениям, которые определяют набор. Например, максимальная энтропия предшествующей в дискретном пространстве, учитывая только то, что вероятность нормализована до 1, является предварительным, который присваивает равную вероятность каждому состоянию. А в непрерывном случае максимальная энтропия, учитывая, что плотность нормализуется со средним ноль и единичной дисперсией является стандартным нормальным распределением . Принцип минимальной перекрестной энтропии обобщает максимум в случае «обновления» произвольного предварительного распределения с подходящими ограничениями в смысле максимальной энтропии.
Связанная идея, эталонные априоры , была представлена Хосе-Мигелем Бернардо . Здесь идея состоит в том, чтобы максимизировать ожидаемую Kullback -Lebler дивергенцию задних распределений по сравнению с предыдущим. Это максимизирует ожидаемую апостериорную информацию о X, когда предыдущая плотность составляет p ( x ); Таким образом, в некотором смысле, p ( x ) является «наименее информативным» ранее о X. Справочный ранее определяется в асимптотическом пределе, т.е. можно рассматривать предел априоров, полученных таким образом, как количество точек данных идет в бесконечность Полем В настоящем случае дивергенция KL между предыдущим и задним распределением определяется
Здесь, является достаточной статистикой для некоторого параметра Полем Внутренний интеграл - это дивергенция KL между задней частью и ранее распределения и результат - среднее значение по всем значениям Полем Разделение логарифма на две части, отменив порядок интегралов во второй части и отмечая, что не зависит от доходность
Внутренний интеграл во второй части - это интеграл. плотности сустава Полем Это маргинальное распределение , так что у нас есть
Теперь мы используем концепцию энтропии, которая в случае распределений вероятностей является отрицательным ожидаемым значением логарифма массы вероятности или функции плотности или Использование этого в последнем уравнении
Слова, KL - это отрицательное ожидаемое значение. энтропия условно на плюс маргинальная (т.е. безусловная) энтропия Полем В ограничивающем случае, когда размер выборки имеет тенденцию к бесконечности, теорема Бернштейна-фон Мизес утверждает, что распределение условное на данном наблюдаемом значении нормально с дисперсией, равной взаимной информации о рыбаке в «истинном» значении Полем Энтропия функции нормальной плотности равна половине логарифма где является дисперсией распределения. В этом случае где является произвольно большим размером выборки (к которому пропорциональна информация о рыбаке) и это «истинное» значение. Поскольку это не зависит от Это может быть выведено из интеграла, и, поскольку этот интеграл находится в пределах вероятности, он равняется одному. Следовательно, мы можем написать асимптотическую форму KL как где пропорционален (асимптотически большому) размеру выборки. Мы не знаем ценность Полем Действительно, сама идея идет вразрез с философией байесовского вывода, в которой «истинные» значения параметров заменяются предыдущими и задними распределениями. Итак, мы удаляем заменив его на и принять ожидаемое значение обычной энтропии, которую мы получаем путем умножения на и интеграция Полем Это позволяет нам комбинировать сходные логарифмы
Это квази-KL дивергенция («квази» в том смысле, что квадратный корень информации о рыбаке может быть ядром ненадлежащего распределения). Из -за знака минус мы должны минимизировать это, чтобы максимизировать дивергенцию KL, с которой мы начали. Минимальное значение последнего уравнения происходит, когда два распределения в аргументе логарифма, неправомерные или нет, не расходятся. Это, в свою очередь, происходит, когда предыдущее распределение пропорционально квадратному корню информации о рыболовной информации о вероятности функции. Следовательно, в случае единого параметра эталонные априоры и Priors Jeffreys идентичны, хотя у Jeffreys совершенно другое обоснование.
Справочные априоры часто являются объективным предварительным выбором в многомерных задачах, поскольку другие правила (например, правило Джеффриса ) могут привести к априорам с проблематичным поведением. [ Уточнение требовалось, что Jeffreys Wrior связан с дивергенцией KL? ]
Объективные предыдущие распределения также могут быть получены из других принципов, таких как информация или теория кодирования (см. Например, минимальная длина описания ) или частая статистика (так называемые признаки вероятности ). [ 14 ] Такие методы используются в теории индуктивного вывода Соломоноффа . Построение объективных априоров была недавно введена в биоинформатике, и специально вывод в биологии систем рака, где размер выборки ограничен и огромное количество предыдущих знаний имеется . В этих методах либо критерий, основанный на теории информации, такой как дивергенция KL или функция логарифмического правдоподобия для бинарных контролируемых проблем обучения [ 15 ] и проблемы модели смеси. [ 16 ]
Философские проблемы, связанные с неинформативными априорами, связаны с выбором соответствующей метрики или шкалы измерений. Предположим, мы хотим, чтобы ранее для бега бегуна, который нам неизвестен. Мы могли бы указать, скажем, нормальное распределение как предыдущее для его скорости, но в качестве альтернативы мы могли бы указать нормальный предыдущий на время, которое он принимает, чтобы завершить 100 метров, что пропорционально взаимному первым предыдущим. Это очень разные априоры, но неясно, что должно быть предпочтительным. Jaynes Метод трансформации может ответить на этот вопрос в некоторых ситуациях. [ 17 ]
Аналогичным образом, если бы попросили оценить неизвестную долю между 0 и 1, мы могли бы сказать, что все пропорции одинаково вероятно, и использовать равномерное предварительное. В качестве альтернативы мы могли бы сказать, что все порядки на пропорцию в равной степени вероятно, Логарифмический Приор , который является единообразным ранее на логарифме пропорции. пытается Предыдущий Jeffreys решить эту проблему, вычисляя предыдущую, которая выражает ту же убеждение, независимо от того, какая метрика используется. Jeffreys Wror для неизвестной доли P равен P −1/2 (1 - P ) −1/2 , который отличается от рекомендации Джейнса.
Приоры, основанные на понятиях алгоритмической вероятности, используются в индуктивном выводе в качестве основы для индукции в очень общих условиях.
Практические проблемы, связанные с неинформативными априорами, включают требование, чтобы заднее распределение было правильным. Обычные неинформативные априоры на непрерывных, неограниченных переменных являются неправильными. Это не должно быть проблемой, если заднее распределение является правильным. Другая важная проблема заключается в том, что если неинформативное предыдущее предыдущее можно использовать , т.е. со многими различными наборами данных, он должен обладать хорошими частыми свойствами. Обычно байесовская не заботится о таких проблемах, но это может быть важно в этой ситуации. Например, можно было бы правила решения , основанного на заднем распределении допустимого допустимого в соответствии с принятой функцией потерь. К сожалению, приемлемости часто трудно проверить, хотя некоторые результаты известны (например, Berger and Strawderman 1996). Проблема особенно острая с иерархическими байесами ; Обычные априоры (например, Jeffreys 'Prior) могут дать крайне недопустимые правила принятия решений, если они используются на более высоких уровнях иерархии.
Неправильные априоры
[ редактировать ]Пусть события быть взаимоисключающим и исчерпывающим. Если теорема Байеса написана как Тогда ясно, что тот же результат будет получен, если все предыдущие вероятности ( a i ) и p ( j p ) будут умножены на данную постоянную; То же самое было бы верно для непрерывной случайной величины . Если суммирование в знаменателе сходится, апостериорные вероятности все равно будут суммироваться (или интегрировать) до 1, даже если предыдущие значения этого не делают, и поэтому приоры, возможно, потребуется только указать в правильной пропорции. Принимая эту идею дальше, во многих случаях сумма или интеграл предыдущих значений, возможно, даже не нуждаются в конечной, чтобы получить разумные ответы для апостериорных вероятностей. Если это так, предварительный приход называется ненадлежащим предварительным . Тем не менее, заднее распределение не должно быть надлежащим распределением, если предыдущий является ненадлежащим. [ 18 ] Это ясно из случая, когда событие не зависит от всех A J. B
Статистики иногда используют ненадлежащие априоры в качестве неинформативных априоров . [ 19 ] Например, если им нужно предварительное распределение для среднего и дисперсии случайной величины, они могут предположить, что P ( m , v ) ~ 1/ v (для V > 0), что предполагает, что любое значение для среднего является «одинаково Вероятно, и что значение для положительной дисперсии становится «менее вероятным» в обратной пропорции к его значению. Многие авторы (Lindley, 1973; De Groot, 1937; Kass and Wasserman, 1996) [ Цитация необходима ] ПРЕДУПРЕЖДЕНИЕ против опасности чрезмерного интерпретации этих априоров, так как они не являются плотностью вероятности. Единственная актуальность, которую они имеют, обнаружена в соответствующей задней части, если она четко определена для всех наблюдений. ( Haldane Wror является типичным контрпримером. [ нужно разъяснения ] [ Цитация необходима ] )
Напротив, функции вероятности не необходимы интегрировать, и функция правдоподобия, которая равномерно 1, соответствует отсутствию данных (все модели одинаково вероятно, не учитывая данные): правило Байеса умножается на предыдущее на вероятность и Пустой продукт - это только постоянная вероятность 1. Однако, не начиная с предварительного распределения вероятности, не в конечном итоге получает распределение в апостериорной вероятности и, таким образом, не может интегрировать или вычислять ожидаемое ценности или потеря. См. Функцию вероятности § Неинтегрируемость для деталей.
Примеры
[ редактировать ]Примеры неправильных априоров включают:
- Единое распределение по бесконечному интервалу (т. Е. Пол-линии или всей реальной линии).
- Бета (0,0), бета-распределение для α = 0, β = 0 (равномерное распределение по шкале log-odds ).
- Логарифмический ранее на положительных реальных (равномерное распределение по шкале журнала ). [ Цитация необходима ]
Эти функции, интерпретируемые как равномерные распределения, также могут быть интерпретированы как функция правдоподобия в отсутствие данных, но не являются надлежащими априорами.
Предварительная вероятность статистической механики
[ редактировать ]Хотя в байесовской статистике предшествующая вероятность используется для представления первоначальных убеждений о неопределенном параметре, в статистической механике априорная вероятность используется для описания начального состояния системы. [ 20 ] Классическая версия определяется как соотношение количества элементарных событий (например, количество раз, когда выбили, к общему количеству событий - и они считаются исключительно дедуктивными, т.е. без каких -либо экспериментов. В случае кубика, если мы посмотрим на это на столе, не бросая его, каждое элементарное событие дедуктивно рассуждается, чтобы иметь одинаковую вероятность - тем самым вероятность каждого результата воображаемого броска (идеального) матрица или просто подсчета Количество лиц составляет 1/6. Каждое лицо матрица появляется с одинаковой вероятностью - достоверность является мерой, определенной для каждого элементарного события. Результат отличается, если мы бросаем матрицу двадцать раз и спрашиваем, сколько раз (из 20) номер 6 появляется на верхней части. В этом случае время вступает в игру, и у нас есть другой тип вероятности в зависимости от времени или количества раз, когда кубик бросает. С другой стороны, априорная вероятность не зависит от времени - вы можете посмотреть на кубик на столе, пока хотите, не касаясь ее, и вы выводите вероятность, что число 6 на верхней поверхности - 1/6 Полем
В статистической механике, например, газа, содержащегося в конечном объеме , оба пространственные координаты и координаты импульса отдельных элементов газа (атомы или молекулы) конечны в фазовом пространстве, охватываемом этими координатами. По аналогии с случаем матрицы, априорная вероятность здесь (в случае континуума) пропорциональна элементу объема фазового пространства. разделен на , и это количество стоящих волн (т.е. состояния) в нем, где это диапазон переменной и это диапазон переменной (Здесь для простоты, рассматриваемой в одном измерении). В 1 размер (длина ) это число или статистический вес или априорное взвешивание Полем В обычных 3 измерениях (том. ) соответствующее число может быть рассчитано как . [ 21 ] Чтобы понять эту величину как предоставление ряда состояний в квантовой (т.е. волновой) механике, вспомните, что в квантовой механике каждая частица связана с вещественной волной, которая является решением уравнения Шредёнгера. В случае свободных частиц (энергии ) как у газа в коробке объема Такая волна явно где целые числа. Количество разных ценности и, следовательно, состояния в регионе между Затем обнаруживается Рассматривая область, охваченную этими точками. Более того, с учетом отношения неопределенности , которое в 1 пространственном измерении Эти состояния неотличимы (т.е. эти штаты не несут метки). Важным следствием является результат, известный как теорема Лиувиля , то есть независимость от этого элемента объема фазового пространства и, следовательно, априорная вероятность. Зависимость от этой величины от времени будет означать известную информацию о динамике системы и, следовательно, не будет априорной вероятностью. [ 22 ] Таким образом, регион При дифференциации по времени дает нуль (с помощью уравнений Гамильтона): громкость в момент времени это то же самое, что в моменты нуля. Описывает это также как сохранение информации.
В полной квантовой теории один имеет аналогичный закон о сохранении. В этом случае область фазового пространства заменяется подпространством пространства состояний, выраженных с точки зрения проекционного оператора и вместо вероятности в фазовом пространстве у кого -то есть плотность вероятности где это размерность подпространства. Закон о сохранении в этом случае выражается единицей S-матрицы . В любом случае, соображения предполагают закрытую изолированную систему. Эта закрытая изолированная система - система с (1) фиксированной энергией и (2) фиксированное количество частиц в (c) состояние равновесия. Если рассматривать огромное количество копий этой системы, можно получить то, что называется микроканоническим ансамблем . Именно для этой системы один постулирует в квантовой статистике «фундаментальный постулат равных априорных вероятностей изолированной системы». Это говорит о том, что изолированная система в равновесии занимает каждое из своих доступных состояний с одинаковой вероятностью. Таким образом, этот фундаментальный постулат позволяет нам приравнять априорную вероятность дегенерации системы, т.е. к количеству различных состояний с одинаковой энергией.
Пример
[ редактировать ]Следующий пример иллюстрирует априорную вероятность (или априорное взвешивание) в (а) классических и (б) квантовых контекстах.
- Классическая априорная вероятность
Рассмотрим энергию вращения диатомной молекулы с моментом инерции I в сферических полярных координатах (это означает Выше здесь ), Т.е. А -Поджат для постоянного E и это эллипс области Интегрируясь и Общий объем фазового пространства, покрытого постоянной энергией и, следовательно, классическое априорное взвешивание в диапазоне энергии является
- (объем фазового пространства в ) минус (объем фазового пространства у ) дается
- Quantum априорная вероятность
Предполагая, что количество квантовых состояний в диапазоне для каждого направления движения дается, по элементу, в зависимости от фактора , количество состояний в диапазоне энергии, как видно при (а) Для вращающейся диатомной молекулы. Из волновой механики известно, что уровни энергии вращающаяся диатомная молекула дается Каждый такой уровень составляет (2n+1)-распределенная дегенерация. Оценка получает Таким образом, по сравнению с Выше можно обнаружить, что приблизительное количество состояний в диапазоне DE определяется дегенерацией, т.е. Таким образом, априорное взвешивание в классическом контексте (а) соответствует априорному взвешиванию здесь в квантовом контексте (б). В случае одномерного простого гармонического генератора естественной частоты соответственно находит: (а) и (б) (без вырождения). Таким образом, в квантовой механике априорная вероятность фактически является мерой дегенерации , то есть количество состояний, имеющих одинаковую энергию.
В случае атома водорода или кулоновского потенциала (где оценка объема фазового пространства для постоянной энергии более сложна), знает, что квантовая механическая вырождение является с Полем Таким образом в этом случае .
Априорные функции вероятности и распределения
[ редактировать ]В статистической механике (см. Любую книгу), которая получает так называемые функции распределения Для различной статистики. В случае статистики Ферми -Дирака и статистики Бозе -Эйнштейна эти функции соответственно Эти функции получены для (1) системы в динамическом равновесии (т.е. в устойчивых, равномерных условиях) с (2) общим (и огромным) количеством частиц (Это условие определяет постоянную ) и (3) общая энергия , т.е. с каждым из частицы, имеющие энергию Полем Важным аспектом в выводе является учета неотличимости частиц и состояний в квантовой статистике, то есть частицы и состояния не имеют метки. В случае фермионов, таких как электроны, подчиняясь принципу Паули (только одна частица на состояние или ни один из них не допустил), следовательно, есть Таким образом является мерой доли состояний, фактически занятых электронами в энергии и температура Полем С другой стороны, априорная вероятность является мерой количества доступных волновых механических состояний. Следовательно С постоянна в однородных условиях (столько частиц, как поток из элемента объема, также постоянно течет, так что ситуация в элементе кажется статической), т.е. независимо от времени , и также не зависит от времени Как показано ранее, мы получаем Выражая это уравнение с точки зрения его частичных производных, можно получить уравнение транспорта Больцмана . Как координаты и т.д. появляются здесь внезапно? Выше упоминания не было сделано из электрических или других полей. Таким образом, без таких полей мы имеем распределение Ферми-Дирака, как указано выше. Но с такими присутствующими областями у нас есть дополнительная зависимость .
Смотрите также
[ редактировать ]Примечания
[ редактировать ]- ^ Роберт, Кристиан (1994). «От предыдущей информации до предыдущих распределений». Байесовский выбор . Нью -Йорк: Спрингер. С. 89–136. ISBN 0-387-94296-3 .
- ^ Шалонер, Кэтрин (1996). «Выявление предыдущих распределений». В Берри, Дональд А.; Stangl, Dalene (Eds.). Байесовская биостатистика . Нью -Йорк: Марсель Деккер. С. 141–156. ISBN 0-8247-9334-X .
- ^ Миккола, Петрус; и др. (2023). «Предварительное выявление знаний: прошлое, настоящее и будущее». Байесовский анализ . Предстоящий. doi : 10.1214/23-ba1381 . HDL : 11336/183197 . S2CID 244798734 .
- ^ Иказатти, Алехандро; Abril-pla, oriol; Klami, Arto; Мартин, Освальдо А. (сентябрь 2023 г.). «Прелизация: инструмент для предварительного выявления» . Журнал программного обеспечения с открытым исходным кодом . doi : 10.21105/joss.05499 .
- ^ Jump up to: а беременный Zellner, Arnold (1971). «Предыдущие распределения, чтобы представлять« знание мало » ». Введение в байесовский вывод в эконометрике . Нью -Йорк: Джон Уайли и сыновья. С. 41–53. ISBN 0-471-98165-6 .
- ^ Прайс, Гарольд Дж.; Мэнсон, Эллисон Р. (2001). «Неинформативные априоры для теоремы Байеса». AIP Conf. Прокурор 617 : 379–391. doi : 10.1063/1.1477060 .
- ^ Пиконен, Джухо; Ehratari, AKI (2017). регуляризация и регуляризация Страницы 11 (2): 5018–5 Arxiv : 1707.01694 . doi : 10.1214/17- EJS137SI
- ^ Симпсон, Даниэль; и др. (2017). «Штратная сложность компонента модели: принципиальный, практический подход к созданию априоров». Статистическая наука . 32 (1): 1–28. Arxiv : 1403.4630 . doi : 10.1214/16-STS576 . S2CID 88513041 .
- ^ Фортуин, Винсент (2022). «Приоры в байесовском глубоком обучении: обзор». Международный статистический обзор . 90 (3): 563–591. doi : 10.1111/insr.12502 . HDL : 20.500.11850/547969 . S2CID 234681651 .
- ^ Конгдон, Питер Д. (2020). «Методы регрессии с использованием иерархических априоров». Байесовские иерархические модели (2 -е изд.). Boca Raton: CRC Press. С. 253–315. ISBN 978-1-03-217715-1 .
- ^ Флоренс, Жан-Пьер; Мучарт, Майкл; Ролин, Жан-Мари (1990). «Аргументы инвариантности в байесовской статистике». Обращение экономических решений: игры, эконометрика и оптимизация . Северная Голландия. С. 351–367. ISBN 0-444-88422-х .
- ^ Jump up to: а беременный Джейнс, Эдвин Т. (сентябрь 1968 г.). «Предыдущие вероятности» (PDF) . IEEE транзакции по системной науке и кибернетике . 4 (3): 227–241. doi : 10.1109/tssc.1968.300117 .
- ^ Этот ранее был предложен JBS Haldane в «Примечании к обратной вероятности», математические разбирательства Кембриджского философского общества 28, 55–61, 1932, doi : 10.1017/s0305004100010495 . См. Также J. Haldane, «Точность наблюдаемых значений небольших частот», Biometrika, 35: 297–300, 1948, Doi : 10.2307/2332350 , JSTOR 2332350 .
- ^ Датта, Гаури Санкар; Mukerjee, Rahul (2004). Приорации о вероятности: асимптотики более высокого порядка . Спрингер. ISBN 978-0-387-20329-4 .
- ^ Эсфахани, MS; Dougherty, ER (2014). «Включение знаний о биологическом пути в строительство априоров для оптимальной байесовской классификации - журналов и журнала IEEE». IEEE/ACM транзакции по вычислительной биологии и биоинформатике . 11 (1): 202–18. doi : 10.1109/tcbb.2013.143 . PMID 26355519 . S2CID 10096507 .
- ^ Болуки, Шахин; Эсфахани, Мохаммад Шахрох; Цянь, Сяонинг; Догерти, Эдвард Р (декабрь 2017 г.). «Включение биологических предварительных знаний для байесовского обучения с помощью максимальных знаний, основанных на знаниях,» . BMC Bioinformatics . 18 (S14): 552. DOI : 10.1186/S12859-017-1893-4 . ISSN 1471-2105 . PMC 5751802 . PMID 29297278 .
- ^ Jaynes (1968), стр. 17, см. Также Jaynes (2003), глава 12. Обратите внимание, что глава 12 не доступна в онлайн -препринте, но может быть предварительно просмотрено через Google Books.
- ^ Dawid, Ap; Камень, м.; Zidek, JV (1973). «Парадоксы маргинализации в байесовском и структурном выводе». Журнал Королевского статистического общества . Серия B (методологический). 35 (2): 189–233. JSTOR 2984907 .
- ^ Кристенсен, Рональд; Джонсон, Уэсли; Бранскм, Адам; Хансон, Тимоти Э. (2010). Байесовские идеи и анализ данных: введение для ученых и статистиков . Хобокен: CRC Press. п. 69. ISBN 9781439894798 .
- ^ IBA, Y. (1989). «Байесовская статистика и статистическая механика». В Такаяме, Х. (ред.). Кооперативная динамика в сложных физических системах . Серия Springer в синергетике. Тол. 43. Берлин: Спрингер. С. 235–236. doi : 10.1007/978-3-642-74554-6_60 . ISBN 978-3-642-74556-0 .
- ^ Мюллер-Кирстен, HJW (2013). Основы статистической физики (2 -е изд.). Сингапур: World Scientific. Глава 6.
- ^ Бен-Найм, А. (2007). Энтропия демистифицирована . Сингапур: World Scientific.
Ссылки
[ редактировать ]- Bauwens, Luc; Любрано, Мишель; Ричард, Жан-Франсуа (1999). «Предыдущая плотность регрессионной модели». Байесовский вывод в динамических эконометрических моделях . Издательство Оксфордского университета. С. 94–128. ISBN 0-19-877313-7 .
- Рубин, Дональд Б.; Гелман, Эндрю ; Джон Б. Карлин; Стерн, Хэл (2003). Байесовский анализ данных (2 -е изд.). Бока Ратон: Чепмен и Холл/КРК. ISBN 978-1-58488-388-3 Полем МР 2027492 .
- Бергер, Джеймс О. (1985). Статистическая теория решений и байесовский анализ . Берлин: Springer-Verlag. ISBN 978-0-387-96098-2 Полем MR 0804611 .
- Бергер, Джеймс О.; Strawderman, William E. (1996). «Выбор иерархических априоров: приемлемость в оценке нормальных средств» . Анналы статистики . 24 (3): 931–951. doi : 10.1214/aos/1032526950 . MR 1401831 . ZBL 0865.62004 .
- Бернардо, Хосе М. (1979). «Справочные апостериорные распределения для байесовского вывода». Журнал Королевского статистического общества, серия б . 41 (2): 113–147. JSTOR 2985028 . MR 0547240 .
- Джеймс О. Бергер ; Хосе М. Бернардо ; Dongchu Sun (2009). «Формальное определение эталонных априоров». Анналы статистики . 37 (2): 905–938. Arxiv : 0904.0156 . BIBCODE : 2009ARXIV0904.0156B . doi : 10.1214/07-AOS587 . S2CID 3221355 .
- Джейнс, Эдвин Т. (2003). Теория вероятности: логика науки . Издательство Кембриджского университета. ISBN 978-0-521-59271-0 .
- Уильямсон, Джон (2010). «Обзор Bruno di Finetti. Философские лекции по вероятности» (PDF) . Философия математика . 18 (1): 130–135. doi : 10.1093/philmat/nkp019 . Архивировано из оригинала (PDF) 2011-06-09 . Получено 2010-07-02 .
Внешние ссылки
[ редактировать ]- Priordb совместная база данных моделей и их априоров