Независимые и одинаково распределенные случайные величины
В теории вероятностей и статистике совокупность случайных величин является независимой и одинаково распределенной, если каждая случайная величина имеет такое же распределение вероятностей, как и другие, и все они взаимно независимы . [1] Это свойство обычно обозначается сокращенно iid , iid или IID . IID был впервые определен в статистике и находит применение в различных областях, таких как интеллектуальный анализ данных и обработка сигналов .
Введение
[ редактировать ]Статистика обычно имеет дело со случайными выборками. Случайную выборку можно рассматривать как набор объектов, выбранных случайным образом. Более формально, это «последовательность независимых, одинаково распределенных (IID) случайных точек данных».
Другими словами, термины «случайная выборка» и IID являются синонимами. В статистике типичным термином является « случайная выборка », но в теории вероятности чаще говорят « IID ».
- Идентичное распределение означает отсутствие общих тенденций — распределение не колеблется, и все элементы выборки взяты из одного и того же распределения вероятностей .
- Независимость означает, что все элементы выборки являются независимыми событиями. Другими словами, они никак не связаны друг с другом; [2] знание значения одной переменной не дает информации о значении другой, и наоборот.
Приложение
[ редактировать ]Независимые и одинаково распределенные случайные величины часто используются в качестве допущения, что имеет тенденцию упрощать лежащую в основе математику. в практических приложениях статистического моделирования это предположение может быть, а может и не быть реалистичным. Однако [3]
Предположение iid также используется в центральной предельной теореме , которая утверждает, что распределение вероятностей суммы (или среднего) переменных iid с конечной дисперсией приближается к нормальному распределению . [4]
Предположение iid часто возникает в контексте последовательностей случайных величин. Тогда «независимый и одинаково распределенный» означает, что элемент последовательности не зависит от случайных величин, которые были до него. Таким образом, последовательность iid отличается от последовательности Маркова , где распределение вероятностей для n- й случайной величины является функцией предыдущей случайной величины в последовательности (для последовательности Маркова первого порядка). Последовательность iid не подразумевает, что вероятности для всех элементов выборочного пространства или пространства событий должны быть одинаковыми. [5] Например, повторные броски нагруженных игральных костей дадут последовательность, которая является iid, несмотря на то, что результаты являются предвзятыми.
В обработке сигналов и изображений понятие преобразования в iid подразумевает две спецификации: часть «id» и часть «i». часть:
идентификатор . – Уровень сигнала должен быть сбалансирован по оси времени.
я . – Спектр сигнала должен быть сглажен, т.е. преобразован посредством фильтрации (например, деконволюции ) в сигнал белого шума (т.е. в сигнал, в котором все частоты присутствуют одинаково).
Определение
[ редактировать ]Определение двух случайных величин
[ редактировать ]Предположим, что случайные величины и определены для принятия значений в . Позволять и быть распределения кумулятивными функциями и соответственно, и обозначим их совместную кумулятивную функцию распределения через .
Две случайные величины и тогда одинаково распределены и только тогда, когда [6] .
Две случайные величины и независимы когда тогда и только тогда, . (См. далее Независимость (теория вероятностей) § Две случайные величины .)
Две случайные величины и являются iid , если они независимы и одинаково распределены, т. е. тогда и только тогда, когда
( Уравнение 1 ) |
Определение для более чем двух случайных величин
[ редактировать ]Это определение естественным образом распространяется на более чем две случайные величины. Мы говорим, что случайные величины являются iid, если они независимы (см. далее Независимость (теория вероятностей) § Более двух случайных величин ) и одинаково распределены, т. е. тогда и только тогда, когда
( Уравнение 2 ) |
где обозначает совместную кумулятивную функцию распределения .
Определение независимости
[ редактировать ]В теории вероятностей два события, и , называются независимыми тогда и только тогда, когда . В дальнейшем это сокращение от .
Предположим, что в эксперименте есть два события: и . Если , есть возможность . Как правило, возникновение влияет на вероятность — это называется условной вероятностью. Кроме того, только при возникновении не влияет на возникновение , есть .
Примечание: Если и , затем и являются взаимонезависимыми, которые не могут быть установлены одновременно с взаимно несовместимыми; то есть независимость должна быть совместимой, а взаимное исключение должно быть взаимосвязанным.
Предполагать , , и это три события. Если , , , и удовлетворены, то события , , и являются взаимно независимыми.
Более общее определение состоит в том, что существуют события, . Если вероятности событий произведения для любого события равны произведению вероятностей каждого события, то события независимы друг от друга.
Примеры
[ редактировать ]Пример 1
[ редактировать ]Последовательность результатов вращений честного или нечестного колеса рулетки равна id . Одним из следствий этого является то, что если шарик рулетки приземляется на «красное», например, 20 раз подряд, то следующее вращение с вероятностью не больше и не меньше будет «черным», чем при любом другом вращении (см. заблуждение игрока ). .
Пример 2
[ редактировать ]Подбросьте монету 10 раз и запишите, сколько раз монета упадет орлом.
- Независимый — каждый результат приземления не влияет на другой результат, что означает, что 10 результатов независимы друг от друга.
- Одинаково распределено . Независимо от того, является ли монета честной (вероятность 1/2 орла) или нечестной, пока одна и та же монета используется для каждого подбрасывания, каждый подброс будет иметь ту же вероятность, что и каждый другой подброс.
Такая последовательность двух возможных результатов также называется процессом Бернулли .
Пример 3
[ редактировать ]Бросьте кубик 10 раз и запишите, сколько раз результат равен 1.
- Независимый – каждый результат броска кубика не влияет на следующий, что означает, что 10 результатов независимы друг от друга.
- Одинаково распределено . Независимо от того, является ли кубик честным или взвешенным, каждый бросок будет иметь ту же вероятность, что и любой другой бросок. Напротив, бросок 10 разных кубиков, некоторые из которых имеют вес, а некоторые нет, не приведет к получению iid-переменных.
Пример 4
[ редактировать ]Выберите карту из стандартной колоды карт, содержащей 52 карты, затем поместите карту обратно в колоду. Повторите это 52 раза. Запишите количество появившихся королей.
- Независимый – каждый результат карты не влияет на следующий, что означает, что 52 результата независимы друг от друга. Напротив, если каждая вытянутая карта не попадает в колоду, это повлияет на последующие взятия (вытягивание одного короля сделает вытягивание второго короля менее вероятным), и результат не будет независимым.
- Одинаково распределено . После вытягивания из него одной карты каждый раз вероятность появления короля равна 4/52, что означает, что вероятность каждый раз одинакова.
Обобщения
[ редактировать ]Многие результаты, которые были впервые доказаны в предположении, что случайные величины являются iid . было показано, что это верно даже при более слабом предположении о распределении .
Сменные случайные величины
[ редактировать ]Наиболее общим понятием, которое разделяет основные свойства переменных iid, являются заменяемые случайные величины , введенные Бруно де Финетти . [ нужна ссылка ] Заменяемость означает, что, хотя переменные не могут быть независимыми, будущие ведут себя как прошлые — формально любое значение конечной последовательности столь же вероятно, как и любая перестановка этих значений — совместное распределение вероятностей инвариантно относительно симметричной группы .
Это дает полезное обобщение — например, выборка без замены не является независимой, но ее можно заменить.
Процесс Леви
[ редактировать ]В стохастическом исчислении переменные iid рассматриваются как с дискретным временем процесс Леви : каждая переменная показывает, насколько она изменяется от одного момента времени к другому. Например, последовательность испытаний Бернулли интерпретируется как процесс Бернулли .
Это можно обобщить, включив в него процессы Леви с непрерывным временем , и многие процессы Леви можно рассматривать как пределы переменных iid - например, процесс Винера является пределом процесса Бернулли.
В машинном обучении
[ редактировать ]Машинное обучение использует огромные объемы доступных в настоящее время данных для получения более быстрых и точных результатов. [7] Для эффективного обучения моделей машинного обучения крайне важно использовать исторические данные, поддающиеся широкому обобщению. Если данные обучения не отражают общую ситуацию, эффективность модели на новых, невидимых данных может быть неточной.
Гипотеза iid . , или независимая и одинаково распределенная, позволяет значительно сократить количество отдельных случаев, необходимых в обучающей выборке
Это предположение упрощает математические вычисления максимизации. В задачах оптимизации предположение о независимом и идентичном распределении упрощает вычисление функции правдоподобия. Ввиду предположения независимости функцию правдоподобия можно выразить как:
- .
Чтобы максимизировать вероятность наблюдаемого события, применяется лог-функция для максимизации параметра . В частности, он вычисляет:
- ,
где
- .
Компьютеры очень эффективны при выполнении многократного сложения, но не так эффективны при выполнении умножения. Такое упрощение повышает эффективность вычислений. Логарифмическое преобразование в процессе максимизации преобразует многие показательные функции в линейные.
Есть две основные причины, почему эта гипотеза практически полезна с центральной предельной теоремой:
- Даже если выборка представляет собой сложное негауссово распределение, ее можно хорошо аппроксимировать, поскольку центральная предельная теорема позволяет упростить ее до гауссова распределения. Для большого количества наблюдаемых выборок «сумма многих случайных величин будет иметь примерно нормальное распределение».
- Вторая причина заключается в том, что точность модели зависит от простоты и репрезентативной способности модели, а также от качества данных. Простота устройства облегчает интерпретацию и масштабирование, а репрезентативная мощность и масштабируемость повышают точность модели. Например, в глубокой нейронной сети каждый нейрон является простым, но мощным в представлении, слой за слоем, фиксируя более сложные функции для повышения точности модели.
См. также
[ редактировать ]Ссылки
[ редактировать ]- ^ Клаузет, Аарон (2011). «Краткое руководство по распределениям вероятностей» (PDF) . Институт Санта-Фе . Архивировано из оригинала (PDF) 20 января 2012 г. Проверено 29 ноября 2011 г.
- ^ Стефани (11 мая 2016 г.). «Статистика IID: независимое и одинаково распределенное определение и примеры» . Статистика Как сделать . Проверено 9 декабря 2021 г.
- ^ Хэмпель, Франк (1998), «Слишком сложна статистика?», Canadian Journal of Statistics , 26 (3): 497–513, doi : 10.2307/3315772 , hdl : 20.500.11850/145503 , JSTOR 3315772 , S2CID 53117661 (§ 8).
- ^ Блюм, младший; Чернов, Х.; Розенблатт, М.; Тейчер, Х. (1958). «Центральные предельные теоремы для взаимозаменяемых процессов» . Канадский математический журнал . 10 : 222–229. дои : 10.4153/CJM-1958-026-0 . S2CID 124843240 .
- ^ Обложка, ТМ; Томас, Дж. А. (2006). Элементы теории информации . Уайли-Интерсайенс . стр. 57–58. ISBN 978-0-471-24195-9 .
- ^ Казелла и Бергер 2002 , Теорема 1.5.10.
- ^ «Что такое машинное обучение? Определение» . Эксперт.ай . 05.05.2020 . Проверено 16 декабря 2021 г.
Дальнейшее чтение
[ редактировать ]- Казелла, Джордж ; Бергер, Роджер Л. (2002), Статистический вывод , Расширенная серия Даксбери