Jump to content

Условная вероятность

(Перенаправлено из «Условная вероятность »)

В теории вероятностей условная вероятность — это мера вероятности при возникновения события условии, что уже известно, что другое событие (по предположению, презумпции, утверждению или свидетельству) произошло. [1] Этот конкретный метод основан на том, что событие A происходит в некоторой связи с другим событием B. В этой ситуации событие A можно проанализировать с помощью условной вероятности относительно B. Если интересующее событие — это A , а событие B известно или предполагается, что оно произошло, «условная вероятность A при условии B » или «вероятность A при условии B » обычно записывается как P( A | B ) [2] или иногда P B ( A ) . Это также можно понимать как долю вероятности B, которая пересекается с A, или отношение вероятностей обоих событий к случаю «данного» события (сколько раз происходит A, а не не предполагается, что B произошло): . [3]

Например, вероятность того, что у какого-либо человека в любой день будет кашель, может составлять всего 5%. Но если мы знаем или предполагаем, что человек болен, то вероятность того, что он будет кашлять, гораздо выше. Например, условная вероятность того, что кто-то нездоров (больной) кашляет, может составлять 75%, и в этом случае мы будем иметь P(Кашель) = 5% и P(Кашель | Больной) = 75%. Хотя в этом примере существует связь между A и B , такая связь или зависимость между A и B не является обязательной, и они не должны возникать одновременно.

P( A | B ) равным P( A ) , т. е. безусловной вероятности или абсолютной вероятности A может быть равным или не . Если P( A | B ) = P( A ) , то события A и B называются независимыми : в таком случае знание о любом событии не меняет вероятность друг друга. P( A | B ) (условная вероятность A при условии B ) обычно отличается от P( B | A ) . Например, если у человека лихорадка денге , вероятность того, что у него будет положительный результат теста на это заболевание, может составлять 90%. В этом случае измеряется то, что если событие B ( заболевание лихорадкой денге ) произошло, вероятность события A ( проверенного как положительное ) при условии, что произошло событие B, составляет 90%, просто записывая P( A | B ) = 90%. С другой стороны, если у человека положительный результат теста на лихорадку денге, у него может быть только 15% вероятность того, что он действительно заболеет этим редким заболеванием из-за высокого уровня ложноположительных результатов . В этом случае вероятность события B ( заболевание лихорадкой денге ) при условии, что событие A ( положительный результат теста ) произошло, составляет 15% или P( B | A ) = 15%. Теперь должно быть очевидно, что ошибочное приравнивание двух вероятностей может привести к различным ошибкам в рассуждениях, что обычно проявляется в ошибки базовой ставки .

Хотя условные вероятности могут предоставить чрезвычайно полезную информацию, часто предоставляется или находится под рукой ограниченная информация. Поэтому может быть полезно обратить вспять или преобразовать условную вероятность с помощью теоремы Байеса : . [4] Другой вариант — отобразить условные вероятности в таблице условных вероятностей, чтобы пролить свет на взаимосвязь между событиями.

Определение

[ редактировать ]
Иллюстрация условных вероятностей с помощью диаграммы Эйлера . Безусловная вероятность P( A ) = 0,30 + 0,10 + 0,12 = 0,52. Однако условная вероятность P ( A | B 1 ) = 1, P ( A | B 2 ) = 0,12 ÷ (0,12 + 0,04) = 0,75 и P( A | B 3 ) = 0.
На древовидной диаграмме вероятности ветвления зависят от события, связанного с родительским узлом. (Здесь верхняя черта указывает на то, что событие не происходит.)
Круговая диаграмма Венна, описывающая условные вероятности

Кондиционирование по событию

[ редактировать ]

Учитывая два события A и B из сигма-поля вероятностного пространства, при этом безусловная вероятность B B больше нуля (т. е. P( B ) > 0) , условная вероятность A условии при ( ) — вероятность того, что событие A произойдет, если событие B произошло или предполагается, что событие произошло. [5] Предполагается, что A представляет собой набор всех возможных результатов эксперимента или случайного исследования с ограниченным или сокращенным пространством выборки. Условную вероятность можно найти как частное вероятности совместного пересечения событий А и В , то есть, , вероятность того, что и B встречаются вместе, и вероятность B A : [2] [6] [7]

.

Для выборочного пространства, состоящего из исходов с равной вероятностью, вероятность события А понимается как отношение числа исходов в А к числу всех исходов в выборочном пространстве. Тогда под этим уравнением понимается доля множества множеству Б. к Обратите внимание, что приведенное выше уравнение является определением, а не просто теоретическим результатом. Обозначим величину как и назовем это «условной вероятностью А при условии В ».

Как аксиома вероятности

[ редактировать ]

Некоторые авторы, например де Финетти , предпочитают вводить условную вероятность как аксиому вероятности :

.

Это уравнение для условной вероятности, хотя оно и эквивалентно математически, интуитивно может быть проще для понимания. Его можно интерпретировать как «вероятность возникновения B , умноженная на вероятность возникновения A , при условии, что B произошло, равна вероятности возникновения A и B вместе, хотя и не обязательно произойдет в одно и то же время». Кроме того, это может быть предпочтительным с философской точки зрения; Согласно основным интерпретациям вероятности , таким как субъективная теория , условная вероятность считается примитивной сущностью. Более того, это «правило умножения» может оказаться практически полезным при вычислении вероятности и вводит симметрию с аксиомой суммирования для формулы Пуанкаре:

Таким образом, уравнения можно объединить, чтобы найти новое представление:

Как вероятность условного события

[ редактировать ]

Условную вероятность можно определить как вероятность условного события. . Условное событие Гудмана -Нгуена-Ван Фраассена можно определить как:

, где и представляют состояния или элементы A или B. [8]

Можно показать, что

что соответствует определению условной вероятности Колмогорова. [9]

Обусловливание событием с нулевой вероятностью

[ редактировать ]

Если , то по определению является неопределенным .

Наибольший интерес представляет случай случайной величины Y , обусловленной непрерывной случайной величиной X, приводящей к определенному результату x . Событие имеет нулевую вероятность и, как таковая, не может быть обусловлена.

Вместо того, чтобы обуславливать X равным точно x , мы могли бы поставить условие, что оно ближе, чем расстояние. вдали от х . Событие обычно будет иметь ненулевую вероятность и, следовательно, может быть обусловлено.Тогда мы можем взять предел

( 1 )

Например, если две непрерывные случайные величины X и Y имеют общую плотность , то по правилу Лопиталя и интегральному правилу Лейбница при дифференцировании по :

Результирующий предел представляет собой условное распределение вероятностей при Y условии X и существует, когда знаменатель, плотность вероятности , является строго положительным.

Соблазнительно определить неопределенную вероятность используя предел ( 1 ), но это невозможно сделать последовательным образом. В частности, можно найти случайные величины X и W и значения x , w такие, что события и идентичны, но результирующие пределы не являются:

Парадокс Бореля-Колмогорова демонстрирует это с помощью геометрического аргумента.

Условие на дискретной случайной величине

[ редактировать ]

Пусть X — дискретная случайная величина, а ее возможные результаты обозначаются V . Например, если X представляет значение брошенной игральной кости, то V — это множество . Предположим для наглядности, что X — дискретная случайная величина, так что каждое значение в V имеет ненулевую вероятность.

Для значения x в V и события A условная вероятностьдается .Письмо

короче, мы видим, что это функция двух переменных x и A. :

Для фиксированного A мы можем сформировать случайную величину . Он представляет собой результат значение x из X. всякий раз, когда наблюдается

Таким образом, условную вероятность A при условии X можно рассматривать как случайную величину Y с результатами в интервале . По закону полной вероятности равно безусловной вероятности А. его ожидаемое значение

Частичная условная вероятность

[ редактировать ]

Частичная условная вероятность речь идет о вероятности события учитывая, что каждое из событий условия произошло в какой-то степени (степень веры, степень опыта), которая может отличаться от 100%. С точки зрения частотности, частичная условная вероятность имеет смысл, если условия проверяются в повторениях эксперимента соответствующей длины. . [10] Такой -ограниченную частичную условную вероятность можно определить как условно ожидаемое среднее возникновение события. на стендах длиной которые соответствуют всем характеристикам вероятности , то есть:

[10]

Исходя из этого, частичную условную вероятность можно определить как

где [10]

Условность Джеффри [11] [12] является особым случаем частичной условной вероятности, в которой события условия должны образовывать раздел :

Предположим, что кто-то тайно бросает два справедливых шестигранных игральных кубика , и мы хотим вычислить вероятность того, что выпавшее на лицевой стороне первое из них будет равно 2, учитывая информацию о том, что их сумма не превышает 5.

Вероятность того, что D 1 = 2

В таблице 1 показано выборочное пространство из 36 комбинаций выпавших значений двух игральных костей, каждая из которых встречается с вероятностью 1/36, при этом числа, отображаемые в красных и темно-серых ячейках, равны D 1 + D 2 .

D 1 = 2 ровно в 6 из 36 исходов; таким образом, P ( D 1 = 2) = 6 36  =  1 6 :

Таблица 1
+ DД2
1 2 3 4 5 6
Д 1 1 2 3 4 5 6 7
2 3 4 5 6 7 8
3 4 5 6 7 8 9
4 5 6 7 8 9 10
5 6 7 8 9 10 11
6 7 8 9 10 11 12

Вероятность того, что D 1 + D 2 ≤ 5

Таблица 2 показывает, что D 1 + D 2 ≤ 5 ровно для 10 из 36 исходов, таким образом, P ( D 1 + D 2 ≤ 5) = 10 36 :

Таблица 2
+ DД2
1 2 3 4 5 6
Д 1 1 2 3 4 5 6 7
2 3 4 5 6 7 8
3 4 5 6 7 8 9
4 5 6 7 8 9 10
5 6 7 8 9 10 11
6 7 8 9 10 11 12

Вероятность того, что D 1 = 2 при условии, что D 1 + D 2 ≤ 5

Таблица 3 показывает, что для 3 из этих 10 исходов D 1 = 2.

Таким образом, условная вероятность P( D 1 = 2 | D 1 + D 2 ≤ 5) = 3 10  = 0.3:

Таблица 3
+ DД2
1 2 3 4 5 6
Д 1 1 2 3 4 5 6 7
2 3 4 5 6 7 8
3 4 5 6 7 8 9
4 5 6 7 8 9 10
5 6 7 8 9 10 11
6 7 8 9 10 11 12

Здесь, в более ранних обозначениях определения условной вероятности, обусловливающее событие B — это D 1 + D 2 ≤ 5, а событие A — это D 1 = 2. Мы имеем как видно в таблице.

Использование в выводе

[ редактировать ]

В статистическом выводе условная вероятность — это обновление вероятности события на основе новой информации. [13] Новая информация может быть включена следующим образом: [1]

  • Пусть A , интересующее событие, находится в выборочном пространстве , скажем ( X , P ).
  • Возникновение события A, зная, что событие B произошло или произойдет, означает возникновение A, поскольку оно ограничено B , т.е. .
  • Без знания о возникновении B информация о возникновении A была бы просто P ( A )
  • Вероятность того, что А знает, что событие Б произошло или произойдет, будет вероятностью относительно P ( B ) — вероятность того, что событие B произошло.
  • Это приводит к всякий раз, когда P ( B ) > 0 и 0 в противном случае.

В результате этого подхода получается вероятностная мера, согласующаяся с исходной вероятностной мерой и удовлетворяющая всем аксиомам Колмогорова . Эта условная вероятностная мера также могла бы возникнуть в результате предположения, что относительная величина вероятности A по отношению к X будет сохранена по отношению к B (см. Формальный вывод ниже).

Слова «доказательства» или «информация» обычно используются в байесовской интерпретации вероятности . Обусловливающее событие интерпретируется как свидетельство обусловленного события. То есть P ( A ) — это вероятность A до учета свидетельства E , а P ( A | E ) — это вероятность A после учета свидетельств E или после обновления P ( A ). Это согласуется с частотной интерпретацией, которая является первым определением, данным выше.

При передаче кода Морзе существует определенная вероятность того, что полученная «точка» или «тире» окажется ошибочной. Зачастую это воспринимается как вмешательство в передачу сообщения. Поэтому важно при отправке «точки» учитывать, например, вероятность того, что «точка» была получена. Это представлено: В азбуке Морзе соотношение точек и тире в момент отправки составляет 3:4, поэтому вероятность появления «точки» и «тире» равна . Если предположить, что вероятность того, что точка будет передана как тире, равна 1/10, а вероятность того, что тире будет передана как точка, также равна 1/10, то для расчета можно использовать правило Байеса. .

Сейчас, можно рассчитать:

[14]

Статистическая независимость

[ редактировать ]

События A и B считаются статистически независимыми , если вероятность пересечения A и B равна произведению вероятностей A и B:

Если P ( B ) не равно нулю, то это эквивалентно утверждению, что

Аналогично, если P ( A ) не равно нулю, то

также эквивалентно. поскольку условные вероятности могут быть неопределенными, а предпочтительное определение симметрично относительно A и B. Хотя производные формы могут показаться более интуитивными, они не являются предпочтительным определением , Независимость не относится к непересекающемуся событию. [15]

Следует также отметить, что для пары независимых событий [AB] и события C пара определяется как условно независимая, если произведение истинно: [16]

Эта теорема может быть полезна в приложениях, где наблюдается множество независимых событий.

Независимые события против взаимоисключающих событий

Понятия взаимонезависимых событий и взаимоисключающих событий являются отдельными и различными. В следующей таблице сравниваются результаты для двух случаев (при условии, что вероятность события кондиционирования не равна нулю).

Если статистически независимы Если взаимоисключающие
0
0
0

В действительности взаимоисключающие события не могут быть статистически независимыми (если только оба они невозможны), поскольку знание о том, что одно происходит, дает информацию о другом (в частности, о том, что последнее заведомо не произойдет).

Распространенные заблуждения

[ редактировать ]
Эти заблуждения не следует путать с «условной ошибкой» Роберта К. Шопа 1978 года , в которой рассматриваются контрфактические примеры, вызывающие вопросы .

Предполагая, что условная вероятность имеет размер, аналогичный ее обратной величине.

[ редактировать ]
Геометрическая визуализация теоремы Байеса. В таблице значения 2, 3, 6 и 9 обозначают относительные веса каждого соответствующего условия и случая. Цифры обозначают ячейки таблицы, участвующие в каждой метрике, причем вероятность представляет собой долю каждой заштрихованной цифры. Это показывает, что P(A|B) P(B) = P(B|A) P(A), т.е. P(A|B) = P(B|A) P(A) / P(B) . Аналогичные рассуждения можно использовать, чтобы показать, что P(Ā|B) = P(B|Ā) P(Ā) / P(B) и т. д.

В общем случае нельзя предполагать, что P ( A | B ) ≈ P ( B | A ). Это может быть коварной ошибкой даже для тех, кто хорошо знаком со статистикой. [17] Связь между P ( A | B ) и P ( B | A ) определяется теоремой Байеса :

То есть P( A | B ) ≈ P( B | A ) только в том случае, если P ( B )/ P ( A ) ≈ 1 или, что то же самое, P ( A ) ≈ P ( B ).

Предполагая, что предельные и условные вероятности имеют одинаковый размер.

[ редактировать ]

В общем случае нельзя предполагать, что P ( A ) ≈ P ( A | B ). Эти вероятности связаны законом полной вероятности :

где события счетное разбиение образуют .

Эта ошибка может возникнуть из-за предвзятости отбора . [18] Например, в контексте медицинского заявления пусть SC последствие будет событием, когда ( хроническое заболевание) S возникает вследствие обстоятельства (острое состояние C. ) Пусть H — событие, когда человек обращается за медицинской помощью. Предположим, что в большинстве случаев C не вызывает S (так что P ( SC ) низкое). Предположим также, что за медицинской помощью обращаются только в том случае, если произошло из-за C. S Поэтому, исходя из опыта пациентов, врач может ошибочно заключить, что ( SC ) P высокое. Фактическая вероятность, наблюдаемая врачом, равна ( SC | P H ) .

Избыточный или недостаточный вес априорных показателей

[ редактировать ]

Частичный или полный неучет априорной вероятности называется пренебрежением базовой ставкой . Обратная ситуация – недостаточная корректировка априорной вероятности – это консерватизм .

Формальный вывод

[ редактировать ]

Формально P ( A | B ) определяется как вероятность A в соответствии с новой функцией вероятности в выборочном пространстве, такая, что результаты, не входящие в B, имеют вероятность 0 и согласуются со всеми исходными вероятностными мерами . [19] [20]

Пусть Ω — дискретное выборочное пространство с элементарными событиями { ω }, и пусть P — вероятностная мера относительно σ-алгебры Ω. Предположим, нам сообщили, что событие B ⊆ Ω произошло. Чтобы отразить это, новое распределение вероятностей (обозначенное условным обозначением) должно быть назначено { ω }. Все события, которых нет в B, будут иметь нулевую вероятность в новом распределении. Для событий в B должны соблюдаться два условия: вероятность B равна единице и относительные величины вероятностей должны сохраняться. Первое требуется аксиомами вероятности , а второе вытекает из того факта, что новая вероятностная мера должна быть аналогом P , в котором вероятность B равна единице - и поэтому каждое событие, которое не находится в B , имеет нулевая вероятность. Следовательно, для некоторого масштабного коэффициента α новое распределение должно удовлетворять:

Подставляя 1 и 2 в 3, чтобы выбрать α :

Итак, новое вероятностей распределение

Теперь об общем событии А :

См. также

[ редактировать ]
  1. ^ Перейти обратно: а б Гут, Аллан (2013). Вероятность: аспирантура (второе изд.). Нью-Йорк, штат Нью-Йорк: Спрингер. ISBN  978-1-4614-4707-8 .
  2. ^ Перейти обратно: а б «Условная вероятность» . www.mathsisfun.com . Проверено 11 сентября 2020 г.
  3. ^ Декинг, Фредерик Мишель; Краайкамп, Корнелис; Лопухаа, Хендрик Пауль; Местер, Людольф Эрвин (2005). «Современное введение в теорию вероятности и статистику » Тексты Спрингера в статистике : 26. doi : 10.1007/1-84628-168-7 . ISBN  978-1-85233-896-1 . ISSN   1431-875X .
  4. ^ Декинг, Фредерик Мишель; Краайкамп, Корнелис; Лопухаа, Хендрик Пауль; Местер, Людольф Эрвин (2005). «Современное введение в теорию вероятности и статистику » Тексты Спрингера в статистике : 25–40. дои : 10.1007/ 1-84628-168-7 ISBN  978-1-85233-896-1 . ISSN   1431-875X .
  5. ^ Райхл, Линда Элизабет (2016). «2.3 Вероятность». Современный курс статистической физики (4-е исправленное и обновленное изд.). ВИЛИ-ВЧ. ISBN  978-3-527-69049-7 .
  6. ^ Колмогоров, Андрей (1956), Основы теории вероятностей , Челси.
  7. ^ «Условная вероятность» . www.stat.yale.edu . Проверено 11 сентября 2020 г.
  8. ^ Фламинио, Томмазо; Годо, Луис; Хосни, Хайкел (01 сентября 2020 г.). «Бульевы алгебры кондиционалов, вероятностей и логики» . Искусственный интеллект . 286 : 103347. arXiv : 2006.04673 . дои : 10.1016/j.artint.2020.103347 . ISSN   0004-3702 . S2CID   214584872 .
  9. ^ Ван Фраассен, Бас К. (1976), Харпер, Уильям Л.; Хукер, Клиффорд Алан (ред.), «Вероятности кондиционалов» , «Основы теории вероятностей, статистических выводов и статистических теорий науки: Том I. Основы и философия эпистемических применений теории вероятностей» , Серия Университета Западного Онтарио по философии Наука, Дордрехт: Springer Нидерланды, стр. 261–308, номер документа : 10.1007/978-94-010-1853-1_10 , ISBN.  978-94-010-1853-1 , получено 4 декабря 2021 г.
  10. ^ Перейти обратно: а б с Драхейм, Дирк (2017). «Обобщенная кондиционализация Джеффри (частая семантика частичной кондиционализации)» . Спрингер . Проверено 19 декабря 2017 г.
  11. ^ Джеффри, Ричард К. (1983), Логика решения, 2-е издание , University of Chicago Press, ISBN  9780226395821
  12. ^ «Байесовская эпистемология» . Стэнфордская энциклопедия философии. 2017 . Проверено 29 декабря 2017 г.
  13. ^ Казелла, Джордж; Бергер, Роджер Л. (2002). Статистический вывод . Даксбери Пресс. ISBN  0-534-24312-6 .
  14. ^ «Условная вероятность и независимость» (PDF) . Проверено 22 декабря 2021 г.
  15. ^ Таймс, Хенк (2012). Понимание вероятности (3-е изд.). Кембридж: Издательство Кембриджского университета. дои : 10.1017/cbo9781139206990 . ISBN  978-1-107-65856-1 .
  16. ^ Пфайффер, Пол Э. (1978). Условная независимость в прикладной теории вероятности . Бостон, Массачусетс: Биркхойзер Бостон. ISBN  978-1-4612-6335-7 . OCLC   858880328 .
  17. ^ Паулос, Дж. А. (1988) Неумение считать: математическая неграмотность и ее последствия , Хилл и Ван. ISBN   0-8090-7447-8 (стр. 63 и далее )
  18. ^ Ф. Томас Брюсс Эффект Вятта-Эрпа или соблазнительная сила малых вероятностей (на немецком языке), Spectrum of Science (немецкое издание журнала Scientific American), Том 2, 110–113, (2007).
  19. ^ Джордж Казелла и Роджер Л. Бергер (1990), Статистический вывод , Duxbury Press, ISBN   0-534-11958-1 (стр. 18 и далее )
  20. ^ Введение Гринстеда и Снелла в вероятность , с. 134
[ редактировать ]
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 455d04adbe8d85e9b92eece4f2f4b052__1722922320
URL1:https://arc.ask3.ru/arc/aa/45/52/455d04adbe8d85e9b92eece4f2f4b052.html
Заголовок, (Title) документа по адресу, URL1:
Conditional probability - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)