Теория вероятности

Из Википедии, бесплатной энциклопедии

Теория вероятностей или исчисление вероятностей — это раздел математики, изучающий вероятность . Хотя существует несколько различных интерпретаций вероятности , теория вероятностей рассматривает это понятие строгим математическим способом, выражая его через набор аксиом . Обычно эти аксиомы формализуют вероятность в терминах вероятностного пространства , которое присваивает меру , принимающую значения от 0 до 1, называемую вероятностной мерой , набору результатов, называемому выборочным пространством . Любое указанное подмножество выборочного пространства называется событием .

Центральные предметы теории вероятностей включают дискретные и непрерывные случайные величины , распределения вероятностей и случайные процессы (которые обеспечивают математические абстракции недетерминированных или неопределенных процессов или измеряемых величин , которые могут либо возникать единично, либо развиваться с течением времени случайным образом). Хотя невозможно точно предсказать случайные события, можно многое сказать об их поведении. Двумя основными результатами теории вероятностей, описывающими такое поведение, являются закон больших чисел и центральная предельная теорема .

В качестве математической основы статистики теория вероятностей важна для многих видов человеческой деятельности, связанных с количественным анализом данных. [1] Методы теории вероятностей также применимы к описанию сложных систем при условии лишь частичного знания их состояния, как в статистической механике или последовательной оценке . двадцатого века Великим открытием физики стала вероятностная природа физических явлений на атомных масштабах, описанная в квантовой механике . [2]

История вероятностей [ править ]

Современная математическая теория вероятностей уходит своими корнями в попытки проанализировать азартные игры Джероламо Кардано в шестнадцатом веке, а также Пьера Ферма и Блеза Паскаля в семнадцатом веке (например, « проблема очков »). [3] Христиан Гюйгенс опубликовал книгу на эту тему в 1657 году. [4] В 19 веке то, что считается классическим определением вероятности, было завершено Пьером Лапласом . [5]

Первоначально теория вероятностей рассматривала в основном дискретные события, а ее методы были преимущественно комбинаторными . В конце концов, аналитические соображения вынудили включить непрерывные в теорию переменные.

Кульминацией этого стала современная теория вероятностей, основанная на основах, заложенных Андреем Николаевичем Колмогоровым . Колмогоров объединил понятие выборочного пространства , введенное Рихардом фон Мизесом , и теорию меры и представил свою систему аксиом теории вероятностей в 1933 году. Это стало в основном бесспорной аксиоматической основой современной теории вероятностей; но существуют альтернативы, такие как принятие Бруно де Финетти конечной, а не счетной аддитивности . [6]

Лечение [ править ]

В большинстве введений в теорию вероятностей дискретные распределения вероятностей и непрерывные распределения вероятностей рассматриваются отдельно. Рассмотрение вероятности, основанное на теории меры, охватывает дискретное, непрерывное, сочетание этих двух и многое другое.

Мотивация [ править ]

Рассмотрим эксперимент , который может привести к ряду результатов. Набор всех результатов называется выборочным пространством эксперимента. Набор мощности выборочного пространства (или, что то же самое, пространства событий) формируется путем рассмотрения всех различных наборов возможных результатов. Например, бросок честной кости дает один из шести возможных результатов. Одна совокупность возможных результатов соответствует получению нечетного числа. Таким образом, подмножество {1,3,5} является элементом набора мощности выборочного пространства бросков игральных костей. Эти коллекции называются событиями . В данном случае {1,3,5} — это событие, когда на игральной кости выпадает некоторое нечетное число. Если результаты, которые действительно происходят, попадают в данное событие, говорят, что это событие произошло.

Вероятность — это способ присвоения каждому «событию» значения от нуля до единицы с требованием, чтобы событие состояло из всех возможных результатов (в нашем примере событие {1,2,3,4,5,6}). присвоить значение, равное единице. Чтобы квалифицироваться как распределение вероятностей , присвоение значений должно удовлетворять требованию: если вы посмотрите на набор взаимоисключающих событий (событий, которые не содержат общих результатов, например, события {1,6}, {3} и { 2,4} являются взаимоисключающими), вероятность того, что любое из этих событий произойдет, определяется суммой вероятностей событий. [7]

Вероятность того, что произойдет любое из событий {1,6}, {3} или {2,4}, равна 5/6. Это то же самое, что сказать, что вероятность события {1,2,3,4,6} равна 5/6. Это событие предполагает возможность выпадения любого числа, кроме пяти. Взаимно исключающее событие {5} имеет вероятность 1/6, а событие {1,2,3,4,5,6} имеет вероятность 1, то есть абсолютную достоверность.

При расчетах по результатам эксперимента необходимо, чтобы всем этим элементарным событиям был присвоен номер. Это делается с помощью случайной величины . Случайная величина — это функция, которая присваивает каждому элементарному событию в выборочном пространстве действительное число . Эту функцию обычно обозначают заглавной буквой. [8] В случае с игральными костями присвоение числа определенным элементарным событиям можно выполнить с помощью функции идентичности . Это не всегда работает. Например, при подбрасывании монеты возможны два результата: «орёл» и «решка». В этом примере случайная величина X может присвоить результату «орёл» число «0» ( ) и к исходу «решка» выпадет цифра «1» ( ).

вероятностей Дискретные распределения

Распределение Пуассона дискретное распределение вероятностей.

Дискретная теория вероятностей имеет дело с событиями, которые происходят в счетных выборочных пространствах.

Примеры: бросание игральных костей , эксперименты с колодами карт , случайное блуждание и подбрасывание монет .

Классическое определение : Первоначально вероятность возникновения события определялась как количество случаев, благоприятствующих событию, по отношению к общему числу возможных исходов в равновероятном пространстве выборки: см. Классическое определение вероятности .

Например, если событием является «появление четного числа при броске игральной кости», вероятность определяется выражением , поскольку 3 лица из 6 имеют четные номера и каждое лицо имеет одинаковую вероятность появления.

Современное определение : Современное определение начинается с конечного или счетного набора , называемого выборочным пространством , которое относится к множеству всех возможных результатов в классическом смысле, обозначаемому . При этом предполагается, что для каждого элемента , внутреннее значение «вероятности» прилагается, который удовлетворяет следующим свойствам:

То есть функция вероятности f ( x ) находится между нулем и единицей для каждого значения x в выборочном пространстве Ω , а сумма f ( x ) по всем значениям x в выборочном пространстве Ω равна 1. Событие определяется как любое подмножество пространства выборки . Вероятность события определяется как

Таким образом, вероятность всего выборочного пространства равна 1, а вероятность нулевого события равна 0.

Функция Сопоставление точки выборочного пространства со значением «вероятности» называется функцией массы вероятности, сокращенно pmf .

вероятностей распределения Непрерывные

Нормальное распределение , непрерывное распределение вероятностей

Теория непрерывной вероятности имеет дело с событиями, которые происходят в непрерывном выборочном пространстве.

Классическое определение : Классическое определение терпит неудачу при столкновении с непрерывным случаем. См. парадокс Бертрана .

Современное определение : Если выборочное пространство случайной величины X представляет собой набор действительных чисел ( ) или его подмножество, тогда функция, называемая кумулятивной функцией распределения ( CDF ) существует, определяется . То есть F ( x ) возвращает вероятность того, что X будет меньше или равно x .

CDF обязательно удовлетворяет следующим свойствам.

  1. монотонно неубывающая , непрерывная справа функция;

Случайная величина Говорят, что распределение вероятностей непрерывно, если соответствующая CDF является непрерывным. Если абсолютно непрерывна , т. е. ее производная существует, и интегрирование производной снова дает нам CDF, тогда говорят, что случайная величина X имеет функцию плотности вероятности ( PDF ) или просто плотность

Для набора , вероятность того, что случайная величина X находится в является

Если PDF-файл существует, это можно записать как

В то время как PDF существует только для непрерывных случайных величин, CDF существует для всех случайных величин (включая дискретные случайные величины), которые принимают значения в

Эти концепции можно обобщить для многомерных случаев на и другие непрерывные пространства выборки.

-мерная Теоретико теория вероятностей

Полезность теоретико-мерной трактовки вероятности состоит в том, что она объединяет дискретный и непрерывный случаи и делает различие вопросом о том, какая мера используется. Более того, он охватывает распределения, которые не являются ни дискретными, ни непрерывными, ни смесью того и другого.

Примером таких распределений может быть сочетание дискретного и непрерывного распределений — например, случайная величина, равная 0 с вероятностью 1/2 и принимающая случайное значение из нормального распределения с вероятностью 1/2. Его все еще можно изучить в некоторой степени, считая, что у него есть PDF-файл , где – дельта - функция Дирака .

Другие распределения могут даже не быть смешанными, например, распределение Кантора не имеет положительной вероятности для какой-либо отдельной точки и не имеет плотности. Современный подход к теории вероятностей решает эти проблемы, используя теорию меры для определения вероятностного пространства :

Учитывая любой набор (также называемое выборочным пространством ) и σ-алгебра на этом мера определено на называется вероятностной мерой , если

Если является борелевской σ-алгеброй на множестве действительных чисел, то существует единственная вероятностная мера на для любого CDF, и наоборот. Говорят, что мера, соответствующая CDF, индуцирована CDF . Эта мера совпадает с pmf для дискретных переменных и PDF для непрерывных переменных, что делает теоретико-мерный подход свободным от ошибок.

Вероятность набора в σ-алгебре определяется как

где интегрирование ведется по мере индуцированный

Наряду с обеспечением лучшего понимания и унификации дискретных и непрерывных вероятностей, теоретико-мерный подход также позволяет нам работать с вероятностями вне , как в теории случайных процессов . Например, для изучения броуновского движения вероятность определяется в пространстве функций.

Когда удобно работать с доминирующей мерой, теорема Радона-Никодима используется для определения плотности как производной Радона-Никодима интересующего распределения вероятностей относительно этой доминирующей меры. Дискретные плотности обычно определяются как производная по счетной мере по множеству всех возможных результатов. Плотности для абсолютно непрерывных распределений обычно определяются как эта производная по мере Лебега . Если теорему можно доказать в этой общей ситуации, она справедлива как для дискретных, так и для непрерывных распределений, а также для других; для дискретных и непрерывных распределений отдельные доказательства не требуются.

вероятностей распределения Классические

Определенные случайные величины очень часто встречаются в теории вероятностей, поскольку они хорошо описывают многие естественные или физические процессы. Поэтому их распределения приобрели особое значение в теории вероятностей. Некоторыми фундаментальными дискретными распределениями являются дискретное равномерное распределение , распределение Бернулли , биномиальное , отрицательное биномиальное , распределение Пуассона и геометрическое распределение . Важные непрерывные распределения включают непрерывное равномерное , нормальное , экспоненциальное , гамма- и бета-распределения .

Сходимость случайных величин [ править ]

В теории вероятностей существует несколько понятий сходимости случайных величин . Они перечислены ниже в порядке силы, т. е. любое последующее понятие сходимости в списке подразумевает сходимость по всем предыдущим понятиям.

Слабая сходимость
Последовательность случайных величин сходится слабо к случайной величине если их соответствующие CDF сходятся сходится к CDF из , где бы является непрерывным . Слабую сходимость также называют сходимостью по распределению .
Наиболее распространенные сокращенные обозначения:
Сходимость по вероятности
Последовательность случайных величин говорят, что он сходится к случайной величине по вероятности , если для любого ε > 0.
Наиболее распространенные сокращенные обозначения:
Сильная конвергенция
Последовательность случайных величин говорят, что он сходится к случайной величине сильно , если . Сильная конвергенция также известна как почти уверенная конвергенция .
Наиболее распространенные сокращенные обозначения:

Как видно из названий, слабая сходимость слабее сильной. Фактически, сильная сходимость подразумевает сходимость по вероятности, а сходимость по вероятности предполагает слабую сходимость. Обратные утверждения не всегда верны.

Закон больших чисел [ править ]

Общая интуиция подсказывает, что если честную монету подбросить много раз, то примерно в половине случаев она выпадет орлом , а в другой половине — решкой . Кроме того, чем чаще подбрасывается монета, тем больше вероятность того, что отношение количества орлов к числу решок приблизится к единице. Современная теория вероятностей предлагает формальную версию этой интуитивной идеи, известной как закон больших чисел . Этот закон примечателен тем, что он не предполагается в основах теории вероятностей, а вытекает из этих основ в виде теоремы. Поскольку он связывает теоретически полученные вероятности с их фактической частотой возникновения в реальном мире, закон больших чисел считается столпом истории статистической теории и имеет широкое влияние. [9]

Закон больших чисел (LLN) гласит, что выборочное среднее

последовательности величин независимых и одинаково распределенных случайных сходится к их общему ожиданию (ожидаемому значению) , при условии, что ожидание конечно.

Именно разные формы сходимости случайных величин разделяют слабый и сильный закон больших чисел. [10]

Слабый закон: для
Сильный закон: для

Из LLN следует, что если событие вероятности p наблюдается неоднократно в ходе независимых экспериментов, отношение наблюдаемой частоты этого события к общему числу повторений сходится к p .

Например, если являются независимыми случайными величинами Бернулли, принимающими значения 1 с вероятностью p и 0 с вероятностью 1- p , тогда для всех я , чтобы сходится к p почти наверняка .

предельная теорема Центральная

Центральная предельная теорема (ЦПТ) объясняет повсеместное появление нормального распределения в природе, и эта теорема, по словам Дэвида Уильямса, «является одним из величайших результатов математики». [11]

Теорема утверждает, что среднее значение многих независимых и одинаково распределенных случайных величин с конечной дисперсией стремится к нормальному распределению независимо от распределения, за которым следуют исходные случайные величины. Формально пусть быть независимыми случайными величинами со средним значением и дисперсия Тогда последовательность случайных величин

сходится по распределению к стандартной нормальной случайной величине.

Для некоторых классов случайных величин классическая центральная предельная теорема работает довольно быстро, как показано в теореме Берри–Эссеена . Например, распределения с конечными первым, вторым и третьим моментами из экспоненциального семейства ; с другой стороны, для некоторых случайных величин типа « тяжелый хвост» и «толстый хвост » он работает очень медленно или может не работать вообще: в таких случаях можно использовать Обобщенную центральную предельную теорему (GCLT).

См. также [ править ]

Списки [ править ]

Ссылки [ править ]

Цитаты [ править ]

  1. ^ Выводы на основе данных
  2. ^ «Квантовая логика и теория вероятностей» . Стэнфордская энциклопедия философии . 10 августа 2021 г.
  3. ^ ЛАЙТНЕР, ДЖЕЙМС Э. (1991). «Краткий взгляд на историю вероятности и статистики» . Учитель математики . 84 (8): 623–630. дои : 10.5951/MT.84.8.0623 . ISSN   0025-5769 . JSTOR   27967334 .
  4. ^ Гринстед, Чарльз Миллер; Джеймс Лори Снелл. "Введение". Введение в вероятность . стр. VII.
  5. ^ Дастон, Лоррейн Дж. (1980). «Вероятностное ожидание и рациональность в классической теории вероятностей» . История Математики . 7 (3): 234–260. дои : 10.1016/0315-0860(80)90025-7 .
  6. ^ « Происхождение и наследие Колмогоровского «Грундбегрифа» Гленна Шафера и Владимира Вовка» (PDF) . Проверено 12 февраля 2012 г.
  7. ^ Росс, Шелдон (2010). Первый курс теории вероятности (8-е изд.). Пирсон Прентис Холл. стр. 26–27. ISBN  978-0-13-603313-4 . Проверено 28 февраля 2016 г.
  8. ^ Бэйн, Ли Дж.; Энгельхардт, Макс (1992). Введение в вероятность и математическую статистику (2-е изд.). Бельмонт, Калифорния : Брукс/Коул. п. 53. ИСБН  978-0-534-38020-5 .
  9. ^ «Leithner & Co Pty Ltd – Стоимостное инвестирование, риск и управление рисками – Часть I» . Leithner.com.au. 15 сентября 2000 г. Архивировано из оригинала 26 января 2014 г. Проверено 12 февраля 2012 г.
  10. ^ Деккинг, Мишель (2005). «Глава 13: Закон больших чисел». Современное введение в вероятность и статистику: понимание почему и как . Библиотечный Бытие. Лондон: Спрингер. стр. 180–194. ISBN  978-1-85233-896-1 .
  11. ^ Дэвид Уильямс , «Вероятность с мартингалами», Кембридж, 1991/2008 г.

Источники [ править ]

Первый крупный трактат, сочетающий исчисление с теорией вероятностей, первоначально на французском языке: Théorie Analytique des Probabilités .
Английский перевод Натана Моррисона появился под названием « Основы теории вероятностей» (Челси, Нью-Йорк) в 1950 году, а второе издание - в 1956 году.
Живое введение в теорию вероятностей для начинающих.