Jump to content

Независимые и одинаково распределенные случайные величины

Диаграмма, показывающая равномерное распределение. Точки сюжета разбросаны случайным образом, без какой-либо закономерности или кластеров.
Диаграмма, показывающая равномерное распределение

В теории вероятностей и статистике совокупность случайных величин является независимой и одинаково распределенной, если каждая случайная величина имеет такое же распределение вероятностей, как и другие, и все они взаимно независимы . [1] Это свойство обычно обозначается сокращенно iid , iid или IID . IID был впервые определен в статистике и находит применение в различных областях, таких как интеллектуальный анализ данных и обработка сигналов .

Введение [ править ]

Статистика обычно имеет дело со случайными выборками. Случайную выборку можно рассматривать как набор объектов, выбранных случайным образом. Более формально, это «последовательность независимых, одинаково распределенных (IID) случайных точек данных».

Другими словами, термины «случайная выборка» и IID являются синонимами. В статистике типичным термином является « случайная выборка », но в теории вероятности чаще говорят « IID ».

  • Идентичное распределение означает отсутствие общих тенденций — распределение не колеблется, и все элементы выборки взяты из одного и того же распределения вероятностей .
  • Независимость означает, что все элементы выборки являются независимыми событиями. Другими словами, они никак не связаны друг с другом; [2] знание значения одной переменной не дает информации о значении другой, и наоборот.

Приложение [ править ]

Независимые и одинаково распределенные случайные величины часто используются в качестве допущения, что имеет тенденцию упрощать лежащую в основе математику. в практических приложениях статистического моделирования это предположение может быть, а может и не быть реалистичным. Однако [3]

Предположение iid также используется в центральной предельной теореме , которая утверждает, что распределение вероятностей суммы (или среднего) переменных iid с конечной дисперсией приближается к нормальному распределению . [4]

Предположение iid часто возникает в контексте последовательностей случайных величин. Тогда «независимый и одинаково распределенный» означает, что элемент последовательности не зависит от случайных величин, которые были до него. Таким образом, последовательность iid отличается от последовательности Маркова , где распределение вероятностей для n- й случайной величины является функцией предыдущей случайной величины в последовательности (для последовательности Маркова первого порядка). Последовательность iid не подразумевает, что вероятности для всех элементов выборочного пространства или пространства событий должны быть одинаковыми. [5] Например, повторные броски нагруженных игральных костей дадут последовательность, которая является iid, несмотря на то, что результаты являются предвзятыми.

В обработке сигналов и изображений понятие преобразования в iid подразумевает две спецификации: часть «id» и часть «i». часть:

идентификатор . – Уровень сигнала должен быть сбалансирован по оси времени.

я . – Спектр сигнала должен быть сглажен, т.е. преобразован посредством фильтрации (например, деконволюции ) в сигнал белого шума (т.е. в сигнал, в котором все частоты присутствуют одинаково).

Определение [ править ]

Определение двух случайных величин [ править ]

Предположим, что случайные величины и определены для принятия значений в . Позволять и быть распределения кумулятивными функциями и соответственно, и обозначим их совместную кумулятивную функцию распределения через .

Две случайные величины и тогда одинаково распределены и только тогда, когда [6] .

Две случайные величины и независимы когда тогда и только тогда, . (См. далее Независимость (теория вероятностей) § Две случайные величины .)

Две случайные величины и являются iid , если они независимы и одинаково распределены, т. е. тогда и только тогда, когда

( Уравнение 1 )

Определение для более чем двух случайных величин [ править ]

Это определение естественным образом распространяется на более чем две случайные величины. Мы говорим, что случайные величины являются iid, если они независимы (см. далее Независимость (теория вероятностей) § Более двух случайных величин ) и одинаково распределены, т. е. тогда и только тогда, когда

УРАВНЕНИЕ
( Уравнение 2 )

где обозначает совместную кумулятивную функцию распределения .

независимости Определение

В теории вероятностей два события, и , называются независимыми тогда и только тогда, когда . В дальнейшем это сокращение от .

Предположим, что в эксперименте есть два события: и . Если , есть возможность . Как правило, возникновение влияет на вероятность — это называется условной вероятностью. Кроме того, только при возникновении не влияет на возникновение , есть .

Примечание: Если и , затем и являются взаимонезависимыми, которые не могут быть установлены одновременно с взаимно несовместимыми; то есть независимость должна быть совместимой, а взаимное исключение должно быть взаимосвязанным.

Предполагать , , и это три события. Если , , , и удовлетворены, то события , , и являются взаимно независимыми.

Более общее определение состоит в том, что существуют события, . Если вероятности событий произведения для любого события равны произведению вероятностей каждого события, то события независимы друг от друга.

Примеры [ править ]

Пример 1 [ править ]

Последовательность результатов вращений честного или нечестного колеса рулетки равна id . Одним из следствий этого является то, что если шарик рулетки приземляется на «красное», например, 20 раз подряд, то следующее вращение с вероятностью не больше и не меньше будет «черным», чем при любом другом вращении (см. заблуждение игрока ). .

Пример 2 [ править ]

Подбросьте монету 10 раз и запишите, сколько раз монета упадет орлом.

  1. Независимый — каждый результат приземления не влияет на другой результат, что означает, что 10 результатов независимы друг от друга.
  2. Одинаково распределено . Независимо от того, является ли монета честной (вероятность 1/2 орла) или нечестной, пока одна и та же монета используется для каждого подбрасывания, каждый подброс будет иметь ту же вероятность, что и каждый другой подброс.

Такая последовательность двух возможных результатов также называется процессом Бернулли .

Пример 3 [ править ]

Бросьте кубик 10 раз и запишите, сколько раз результат равен 1.

  1. Независимый – каждый результат броска кубика не влияет на следующий, что означает, что 10 результатов независимы друг от друга.
  2. Одинаково распределено . Независимо от того, является ли кубик честным или взвешенным, каждый бросок будет иметь ту же вероятность, что и любой другой бросок. Напротив, бросок 10 разных кубиков, некоторые из которых имеют вес, а некоторые нет, не приведет к получению iid-переменных.

Пример 4 [ править ]

Выберите карту из стандартной колоды карт, содержащей 52 карты, затем поместите карту обратно в колоду. Повторите это 52 раза. Запишите количество появившихся королей.

  1. Независимый – каждый результат карты не влияет на следующий, что означает, что 52 результата независимы друг от друга. Напротив, если каждая вытянутая карта не попадает в колоду, это повлияет на последующие взятия (вытягивание одного короля сделает вытягивание второго короля менее вероятным), и результат не будет независимым.
  2. Одинаково распределено . После вытягивания из него одной карты каждый раз вероятность появления короля равна 4/52, что означает, что вероятность каждый раз одинакова.

Обобщения [ править ]

Многие результаты, которые были впервые доказаны в предположении, что случайные величины являются iid . было показано, что это верно даже при более слабом предположении о распределении .

Сменные случайные величины [ править ]

Наиболее общим понятием, которое разделяет основные свойства переменных iid, являются заменяемые случайные величины , введенные Бруно де Финетти . [ нужна ссылка ] Заменяемость означает, что, хотя переменные не могут быть независимыми, будущие ведут себя как прошлые — формально любое значение конечной последовательности столь же вероятно, как и любая перестановка этих значений — совместное распределение вероятностей инвариантно относительно симметричной группы .

Это дает полезное обобщение — например, выборка без замены не является независимой, но ее можно заменить.

Процесс Леви [ править ]

В стохастическом исчислении переменные iid рассматриваются как с дискретным временем процесс Леви : каждая переменная показывает, насколько она изменяется от одного момента времени к другому. Например, последовательность испытаний Бернулли интерпретируется как процесс Бернулли .

Это можно обобщить, включив в него процессы Леви с непрерывным временем , и многие процессы Леви можно рассматривать как пределы переменных iid - например, процесс Винера является пределом процесса Бернулли.

В машинном обучении [ править ]

Машинное обучение использует полученные в настоящее время огромные объемы данных для получения более быстрых и точных результатов. [7] Для обучения моделей машинного обучения необходимы исторические данные с всеобъемлющей обобщаемостью. Если полученные данные обучения не отражают общую ситуацию, то эффективность модели машинного обучения на новых, невидимых данных может быть неточной.

Через иид . Согласно гипотезе, количество отдельных случаев в обучающей выборке можно значительно сократить.

Это предположение делает максимизацию очень простой для математического расчета. Соблюдение предположения о независимом и одинаковом распределении в математике упрощает расчет функции правдоподобия в задачах оптимизации. Ввиду предположения независимости функцию правдоподобия можно записать следующим образом:

.

Чтобы максимизировать вероятность наблюдаемого события, возьмите лог-функцию и максимизируйте параметр θ . То есть вычислить:

,

где

.

Компьютер очень эффективен для вычисления многократного сложения, но неэффективен для вычисления умножения. Это упрощение является основной причиной повышения вычислительной эффективности. Это логарифмическое преобразование также находится в процессе максимизации, превращая многие экспоненциальные функции в линейные.

По двум причинам эту гипотезу легко использовать в практических приложениях .

  1. Даже если выборка получена из более сложного негауссова распределения, она также может хорошо аппроксимироваться, поскольку ее можно упростить от центральной предельной теоремы до распределения Гаусса. Для большого количества наблюдаемых выборок «сумма многих случайных величин будет иметь примерно нормальное распределение».
  2. Вторая причина заключается в том, что точность модели зависит от простоты и репрезентативной способности модели, а также от качества данных. Поскольку простота единицы облегчает ее интерпретацию и масштабирование, репрезентативная мощность и масштабирование единицы повышают точность модели. Как и в глубокой нейронной сети, каждый нейрон очень прост, но обладает высокой репрезентативной способностью, слой за слоем, чтобы представлять более сложные функции для повышения точности модели.

См. также [ править ]

Ссылки [ править ]

  1. ^ Клаузет, Аарон (2011). «Краткое руководство по распределениям вероятностей» (PDF) . Институт Санта-Фе . Архивировано из оригинала (PDF) 20 января 2012 г. Проверено 29 ноября 2011 г.
  2. ^ Стефани (11 мая 2016 г.). «Статистика IID: независимое и одинаково распределенное определение и примеры» . Статистика Как сделать . Проверено 9 декабря 2021 г.
  3. ^ Хэмпель, Франк (1998), «Слишком сложна статистика?», Canadian Journal of Statistics , 26 (3): 497–513, doi : 10.2307/3315772 , hdl : 20.500.11850/145503 , JSTOR   3315772 , S2CID   53117661 (§ 8).
  4. ^ Блюм, младший; Чернов, Х.; Розенблатт, М.; Тейчер, Х. (1958). «Центральные предельные теоремы для взаимозаменяемых процессов» . Канадский математический журнал . 10 : 222–229. дои : 10.4153/CJM-1958-026-0 . S2CID   124843240 .
  5. ^ Обложка, ТМ; Томас, Дж. А. (2006). Элементы теории информации . Уайли-Интерсайенс . стр. 57–58. ISBN  978-0-471-24195-9 .
  6. ^ Казелла и Бергер 2002 , Теорема 1.5.10.
  7. ^ «Что такое машинное обучение? Определение» . Эксперт.ай . 05.05.2020 . Проверено 16 декабря 2021 г.

Дальнейшее чтение [ править ]

Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: d68a3fdb6f54bcc7a7e555b4a066020c__1718637300
URL1:https://arc.ask3.ru/arc/aa/d6/0c/d68a3fdb6f54bcc7a7e555b4a066020c.html
Заголовок, (Title) документа по адресу, URL1:
Independent and identically distributed random variables - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)