Jump to content

Нормальное распределение

Нормальное распределение
Функция плотности вероятности
Красная кривая — стандартное нормальное распределение .
Кумулятивная функция распределения
Обозначения
Параметры = среднее ( местоположение )
= дисперсия (квадратичная шкала )
Поддерживать
PDF
CDF
Квантиль
Иметь в виду
медиана
Режим
Дисперсия
БЕЗУМНЫЙ
асимметрия
Избыточный эксцесс
Энтропия
МГФ
CF
Информация о Фишере

Расхождение Кульбака – Лейблера
Ожидаемый дефицит [1]

В теории вероятностей и статистике нормальное распределение или распределение Гаусса — это тип непрерывного распределения вероятностей для вещественной случайной величины . Общий вид его функции плотности вероятности : Параметр среднее или математическое ожидание распределения (а также его медиана и мода ), а параметр это дисперсия . Стандартное отклонение распределения равно . Случайная величина с распределением Гаусса называется нормально распределенной и называется нормальным отклонением .

Нормальные распределения важны в статистике и часто используются в естественных и социальных науках для представления действительных случайных величин , распределение которых неизвестно. [2] [3] Их важность частично обусловлена ​​центральной предельной теоремой . Он утверждает, что при некоторых условиях среднее значение многих выборок (наблюдений) случайной величины с конечным средним значением и дисперсией само по себе является случайной величиной, распределение которой сходится к нормальному распределению по мере увеличения количества выборок. Следовательно, физические величины, которые, как ожидается, будут суммой многих независимых процессов, таких как ошибки измерения , часто имеют распределение, близкое к нормальному. [4]

Более того, гауссовы распределения обладают некоторыми уникальными свойствами, которые ценны в аналитических исследованиях. Например, любая линейная комбинация фиксированного набора независимых нормальных отклонений является нормальным отклонением. Многие результаты и методы, такие как распространение неопределенности и метод наименьших квадратов. [5] подгонка параметров может быть получена аналитически в явной форме, когда соответствующие переменные имеют нормальное распределение.

Нормальное распределение иногда неофициально называют колоколообразной кривой . [6] Однако многие другие распределения имеют колоколообразную форму (например, распределение Коши , Стьюдента распределение и логистическое распределение). Другие имена см. в разделе «Именование» .

Одномерное распределение вероятностей обобщено для векторов многомерного нормального распределения и для матриц матричного нормального распределения .

Определения

[ редактировать ]

Стандартное нормальное распределение

[ редактировать ]

Простейший случай нормального распределения известен как стандартное нормальное распределение или единичное нормальное распределение . Это особый случай, когда и , и он описывается этой функцией плотности вероятности (или плотностью): Переменная имеет среднее значение 0, а дисперсию и стандартное отклонение 1. Плотность имеет свой пик в и точки перегиба в и .

Хотя приведенная выше плотность чаще всего известна как стандартное нормальное распределение, некоторые авторы использовали этот термин для описания других версий нормального распределения. Карл Фридрих Гаусс , например, однажды определил стандартную норму как который имеет дисперсию 1/2, и Стивен Стиглер [7] однажды определил стандартную норму как который имеет простую функциональную форму и дисперсию

Общее нормальное распределение

[ редактировать ]

Каждое нормальное распределение является версией стандартного нормального распределения, область действия которого расширена в раз. (стандартное отклонение), а затем переводится на (среднее значение):

Плотность вероятности должна быть масштабирована по формуле так что интеграл по-прежнему равен 1.

Если является стандартным нормальным отклонением , тогда будет иметь нормальное распределение с ожидаемым значением и стандартное отклонение . Это эквивалентно утверждению, что стандартное нормальное распределение можно масштабировать/растягивать в несколько раз. и сдвинут на чтобы получить другое нормальное распределение, называемое . И наоборот, если это нормальное отклонение от параметров и , тогда это распределение можно масштабировать и сдвигать по формуле чтобы преобразовать его к стандартному нормальному распределению. Эту вариацию также называют стандартизированной формой .

Обозначения

[ редактировать ]

Плотность вероятности стандартного распределения Гаусса (стандартное нормальное распределение с нулевым средним и единичной дисперсией) часто обозначается греческой буквой. ( фи ). [8] Альтернативная форма греческой буквы фи. , также используется довольно часто.

Нормальное распределение часто называют или . [9] Таким образом, когда случайная величина обычно распределяется со средним значением и стандартное отклонение , можно написать

Альтернативные параметризации

[ редактировать ]

Некоторые авторы выступают за использование точности как параметр, определяющий ширину распределения, вместо стандартного отклонения или дисперсия . Точность обычно определяется как величина, обратная дисперсии, . [10] Тогда формула распределения примет вид

Утверждается, что этот выбор имеет преимущества при численных расчетах, когда очень близко к нулю и упрощает формулы в некоторых контекстах, например, при байесовском выводе переменных с многомерным нормальным распределением .

Альтернативно, величина, обратная стандартному отклонению может быть определена как точность , и в этом случае выражение нормального распределения становится

По мнению Стиглера, эта формулировка выгодна тем, что она гораздо проще и легче запоминается, а также имеет простые приближенные формулы для квантилей распределения.

Нормальные распределения образуют экспоненциальное семейство с натуральными параметрами. и и естественная статистика x и x 2 . Параметрами двойного ожидания для нормального распределения являются η 1 = µ и η 2 = µ. 2 + р 2 .

Кумулятивная функция распределения

[ редактировать ]

Кумулятивная функция распределения (CDF) стандартного нормального распределения, обычно обозначаемая заглавной греческой буквой. ( фи ) — интеграл

Функция ошибки

[ редактировать ]

Соответствующая функция ошибки дает вероятность случайной величины с нормальным распределением среднего значения 0 и дисперсией 1/2, попадающими в диапазон . То есть:

Эти интегралы не могут быть выражены через элементарные функции, и их часто называют специальными функциями . Однако известно множество численных приближений; см . ниже подробнее .

Эти две функции тесно связаны, а именно

Для общего нормального распределения с плотностью , иметь в виду и дисперсия кумулятивная функция распределения равна

Дополнение стандартной нормальной функции кумулятивного распределения, , часто называют Q-функцией , особенно в технических текстах. [11] [12] Он дает вероятность того, что значение стандартной нормальной случайной величины превысит : . Другие определения слова -функции, все из которых являются простыми преобразованиями , также иногда используются. [13]

График распределения стандартной нормальной кумулятивной функции имеет 2-кратную вращательную симметрию вокруг точки (0,1/2); то есть, . Его первообразную (неопределенный интеграл) можно выразить следующим образом:

Кумулятивную функцию распределения стандартного нормального распределения можно расширить путем интегрирования по частям в ряд:

где обозначает двойной факториал .

Асимптотическое разложение кумулятивной функции распределения при больших x также можно получить с помощью интегрирования по частям. Дополнительную информацию см. в разделе Функция ошибки#Асимптотическое расширение . [14]

Быстрое приближение к кумулятивной функции распределения стандартного нормального распределения можно найти с помощью аппроксимации рядом Тейлора:

Рекурсивные вычисления с разложением в ряд Тейлора

[ редактировать ]

Рекурсивный характер семейство производных можно использовать для легкого построения быстро сходящегося разложения в ряд Тейлора с использованием рекурсивных записей о любой точке известного значения распределения, :

где:

Использование ряда Тейлора и метода Ньютона для обратной функции

[ редактировать ]

Применение вышеприведенного разложения в ряд Тейлора состоит в использовании метода Ньютона для обратного вычисления. То есть, если у нас есть значение кумулятивной функции распределения , , но не знаю, какой x необходим для получения , мы можем использовать метод Ньютона, чтобы найти x, и использовать приведенное выше разложение в ряд Тейлора, чтобы минимизировать количество вычислений. Метод Ньютона идеально подходит для решения этой проблемы, поскольку первая производная , которое является интегралом нормального стандартного распределения, является нормальным стандартным распределением и легко доступно для использования в решении метода Ньютона.

Для решения выберите известное приближенное решение, , к желаемому . может быть значением из таблицы распределения или интеллектуальной оценкой, за которой следует вычисление используя любые необходимые средства для вычислений. Используйте это значение и разложение в ряд Тейлора, приведенное выше, для минимизации вычислений.

Повторяйте следующий процесс до тех пор, пока разница между вычисленными и желаемое , который мы назовем , ниже выбранной приемлемо малой ошибки, например 10 −5 , 10 −15 , и т. д.:

где

это из решения ряда Тейлора с использованием и

Когда повторные вычисления сходятся к ошибке ниже выбранного приемлемо малого значения, x будет значением, необходимым для получения желаемой стоимости, .

Стандартное отклонение и охват

[ редактировать ]
Для нормального распределения значения менее одного стандартного отклонения от среднего составляют 68,27% набора; при этом два стандартных отклонения от среднего составляют 95,45%; и три стандартных отклонения составляют 99,73%.

Около 68% значений, полученных из нормального распределения, находятся в пределах одного стандартного отклонения σ от среднего значения; около 95% значений лежат в пределах двух стандартных отклонений; и около 99,7% находятся в пределах трех стандартных отклонений. [6] Этот факт известен как правило 68–95–99,7 (эмпирическое) , или правило 3-х сигм .

Точнее, вероятность того, что нормальное отклонение лежит в диапазоне между и дается До 12 значащих цифр значения для являются: [ нужна ссылка ]

ОЭИС
1 0.682 689 492 137 0.317 310 507 863
3 .151 487 187 53
ОЭИС : A178647
2 0.954 499 736 104 0.045 500 263 896
21 .977 894 5080
ОЭИС : A110894
3 0.997 300 203 937 0.002 699 796 063
370 .398 347 345
ОЭИС : A270712
4 0.999 936 657 516 0.000 063 342 484
15 787 .192 7673
5 0.999 999 426 697 0.000 000 573 303
1 744 277 .893 62
6 0.999 999 998 027 0.000 000 001 973
506 797 345 .897

Для больших , можно использовать приближение .

Квантильная функция

[ редактировать ]

Квантильная функция распределения является обратной кумулятивной функции распределения. Квантильная функция стандартного нормального распределения называется пробит-функцией и может быть выражена через обратную функцию ошибки : Для нормальной случайной величины со средним и дисперсия , функция квантиля равна Квантиль стандартного нормального распределения обычно обозначается как . Эти значения используются при проверке гипотез , построении доверительных интервалов и графиков Q–Q . Обычная случайная величина превысит с вероятностью , и будет лежать вне интервала с вероятностью . В частности, квантиль составляет 1,96 ; следовательно, нормальная случайная величина будет лежать вне интервала только в 5% случаев.

В следующей таблице приведены квантиль такой, что будет лежать в диапазоне с заданной вероятностью . Эти значения полезны для определения интервала допуска для выборочных средних и других статистических оценок с нормальным (или асимптотически нормальным) распределением. [15] В следующей таблице показаны , нет как определено выше.

 
0.80 1.281 551 565 545 0.999 3.290 526 731 492
0.90 1.644 853 626 951 0.9999 3.890 591 886 413
0.95 1.959 963 984 540 0.99999 4.417 173 413 469
0.98 2.326 347 874 041 0.999999 4.891 638 475 699
0.99 2.575 829 303 549 0.9999999 5.326 723 886 384
0.995 2.807 033 768 344 0.99999999 5.730 728 868 236
0.998 3.090 232 306 168 0.999999999 6.109 410 204 869

Для маленьких , функция квантиля имеет полезное асимптотическое разложение [ нужна ссылка ]

Характеристики

[ редактировать ]

Нормальное распределение — единственное распределение, кумулянты которого помимо первых двух (т. е. кроме среднего и дисперсии ) равны нулю. Это также непрерывное распределение с максимальной энтропией для заданного среднего значения и дисперсии. [16] [17] Гири показал, предполагая, что среднее значение и дисперсия конечны, что нормальное распределение является единственным распределением, в котором среднее значение и дисперсия, рассчитанные на основе набора независимых выборок, независимы друг от друга. [18] [19]

Нормальное распределение является подклассом эллиптических распределений . Нормальное распределение симметрично относительно своего среднего значения и не равно нулю на всей реальной линии. По существу, она может оказаться неподходящей моделью для переменных, которые по своей сути являются положительными или сильно искаженными, например, вес человека или цена акции . Такие переменные могут быть лучше описаны другими распределениями, такими как логарифмически нормальное распределение или распределение Парето .

Значение нормального распределения практически равно нулю, когда значение находится более чем на несколько стандартных отклонений от среднего значения (например, разброс в три стандартных отклонения покрывает все, кроме 0,27% общего распределения). Следовательно, это может быть неподходящая модель, когда ожидается значительная доля выбросов (значений, которые отклоняются на много стандартных отклонений от среднего значения), а методы наименьших квадратов и другие методы статистического вывода , которые оптимальны для нормально распределенных переменных, часто становятся крайне ненадежными при их применении. к таким данным. В таких случаях следует предположить более тяжелое распределение и применить соответствующие надежные статистические методы вывода .

Распределение Гаусса принадлежит к семейству стабильных распределений , которые являются аттракторами сумм независимых, одинаково распределенных распределений, независимо от того, конечны ли среднее значение или дисперсия. За исключением гауссова распределения, которое является предельным случаем, все стабильные распределения имеют тяжелые хвосты и бесконечную дисперсию. Это одно из немногих распределений, которые стабильны и имеют функции плотности вероятности, которые могут быть выражены аналитически (остальные распределения — это распределение Коши и распределение Леви) .

Симметрии и производные

[ редактировать ]

Нормальное распределение с плотностью (иметь в виду и дисперсия ) имеет следующие свойства:

  • Оно симметрично относительно точки которая одновременно является модой , медианой и средним значением распределения. [20]
  • Он унимодальный : его первая производная положительна при отрицательный для и ноль только при
  • Площадь, ограниченная кривой и -ось равна единице (т.е. равна единице).
  • Его первая производная
  • Его вторая производная
  • Его плотность имеет две точки перегиба (где вторая производная равно нулю и меняет знак), расположенное на одно стандартное отклонение от среднего значения, а именно на и [20]
  • Его плотность логарифмически вогнутая . [20]
  • Его плотность бесконечно дифференцируема и даже сверхгладкая второго порядка. [21]

Кроме того, плотность стандартного нормального распределения (т.е. и ) также имеет следующие свойства:

  • Его первая производная
  • Его вторая производная
  • В более общем смысле, его n- я производная равна где n -й (вероятностный) полином Эрмита . [22]
  • Вероятность того, что нормально распределенная переменная с известными и находится в определенном наборе, можно вычислить, используя тот факт, что дробь имеет стандартное нормальное распределение.

Простые и абсолютные моменты переменной ожидаемые значения и , соответственно. Если ожидаемое значение из равен нулю, эти параметры называются центральными моментами; в противном случае эти параметры называются нецентральными моментами. Обычно нас интересуют только моменты целого порядка. .

Если имеет нормальное распределение, нецентральные моменты существуют и конечны для любого действительная часть которого больше −1. Для любого неотрицательного целого числа , простыми центральными моментами являются: [23] Здесь обозначает двойной факториал , то есть произведение всех чисел из до 1, которые имеют ту же четность, что и

Центральные абсолютные моменты совпадают с простыми моментами для всех четных порядков, но отличны от нуля для нечетных порядков. Для любого неотрицательного целого числа

Последняя формула справедлива и для любых нецелых чисел. Когда среднее простой и абсолютный моменты могут быть выражены через вырожденные гипергеометрические функции и [24]

Эти выражения остаются действительными, даже если не является целым числом. См. также обобщенные полиномы Эрмита .

Заказ Нецентральный момент Центральный момент
1
2
3
4
5
6
7
8

Ожидание при условии, что лежит в интервале дается где и соответственно — плотность и кумулятивная функция распределения . Для это известно как обратное соотношение Миллса . Обратите внимание, что выше плотность из используется вместо стандартной нормальной плотности, как в обратном соотношении Миллса, поэтому здесь мы имеем вместо .

Преобразование Фурье и характеристическая функция

[ редактировать ]

нормальной Преобразование Фурье плотности со средним и дисперсия является [25]

где это мнимая единица . Если среднее , первый множитель равен 1, а преобразование Фурье, помимо постоянного множителя, представляет собой нормальную плотность в частотной области со средним значением 0 и дисперсией . В частности, стандартное нормальное распределение является собственной функцией преобразования Фурье.

В теории вероятностей преобразование Фурье распределения вероятностей действительной случайной величины. тесно связана с характеристической функцией этой переменной, которая определяется как ожидаемое значение , как функция действительной переменной ( частотный параметр преобразования Фурье). Это определение можно аналитически распространить на переменную с комплексным значением. . [26] Связь между обоими такова:

Функции, генерирующие момент и кумулянт

[ редактировать ]

Момент -производящая функция действительной случайной величины ожидаемое значение , как функция действительного параметра . Для нормального распределения с плотностью , иметь в виду и дисперсия , производящая функция момента существует и равна

Кумулянтная производящая функция представляет собой логарифм производящей функции момента, а именно

Поскольку это квадратичный полином от отличны от нуля только первые два кумулянта , а именно среднее и дисперсия .

Некоторые авторы предпочитают вместо этого работать с E[ e ИТХ ] = и яцт - п 2 т 2 /2 и ln E[ e ИТХ ] = iμt - 1 / 2 σ 2 т 2 .

Оператор и класс Штейна

[ редактировать ]

В методе Штейна оператор Штейна и класс случайной величины являются и класс всех абсолютно непрерывных функций .

Предел нулевой дисперсии

[ редактировать ]

В пределе , когда стремится к нулю, плотность вероятности в конце концов стремится к нулю при любом , но растет неограниченно, если , а его интеграл остается равным 1. Следовательно, нормальное распределение нельзя определить как обычную функцию, когда .

Однако можно определить нормальное распределение с нулевой дисперсией как обобщенную функцию ; в частности, как дельта-функция Дирака переведено в смысле , то есть Его кумулятивная функция распределения тогда представляет собой ступенчатую функцию Хевисайда, переведенную через среднее значение , а именно

Максимальная энтропия

[ редактировать ]

Из всех распределений вероятностей по действительным числам с заданным конечным средним значением и конечная дисперсия , нормальное распределение тот, у которого максимальная энтропия . [27] Чтобы увидеть это, позвольте быть непрерывной случайной величиной с плотностью вероятности . Энтропия определяется как [28] [29] [30]

где считается равным нулю всякий раз, когда . Этот функционал можно максимизировать при условии, что распределение правильно нормализовано и имеет заданное среднее значение и дисперсию, с помощью вариационного исчисления . функция с тремя множителями Лагранжа Определена :

При максимальной энтропии небольшое изменение о создам вариацию о что равно 0:

Поскольку это должно выполняться для любых малых , множитель должно быть равно нулю, и решение для дает:

Ограничения Лагранжа, которые правильно нормализован и имеет указанное среднее значение, а дисперсия удовлетворяется тогда и только тогда, когда , , и выбираются так, что Энтропия нормального распределения равно который не зависит от среднего .

Другие объекты недвижимости

[ редактировать ]
  1. Если характеристическая функция какой-то случайной величины имеет форму в окрестности нуля, где является многочленом , то теорема Марцинкевича (названная в честь Юзефа Марцинкевича ) утверждает, что может быть не более чем квадратичным многочленом, и, следовательно, является нормальной случайной величиной. [31] Следствием этого результата является то, что нормальное распределение является единственным распределением с конечным числом (двумя) ненулевых кумулянтов .
  2. Если и если они совместно нормальны и некоррелированы , то они независимы . Требование, чтобы и должно быть совместно нормальным, это важно; без этого имущество не сохраняется. [32] [33] [доказательство] Для ненормальных случайных величин некоррелированность не означает независимости.
  3. Расхождение Кульбака – Лейблера одного нормального распределения из другого дается: [34] Расстояние Хеллингера между одинаковыми распределениями равно
  4. Информационная матрица Фишера для нормального распределения относительно и диагональна и имеет вид
  5. Сопряженное априорное значение нормального распределения является еще одним нормальным распределением. [35] В частности, если являются идентификаторами и предшествующий , то апостериорное распределение для оценки будет
  6. Семейство нормальных распределений не только образует экспоненциальное семейство (EF), но фактически образует естественное экспоненциальное семейство (NEF) с квадратичной функцией дисперсии ( NEF-QVF ). Многие свойства нормальных распределений обобщаются на свойства распределений NEF-QVF, распределений NEF или распределений EF в целом. Распределения NEF-QVF включают 6 семейств, включая распределения Пуассона, гамма, биномиальные и отрицательные биномиальные, в то время как многие из распространенных семейств, изучаемых в области вероятности и статистики, представляют собой NEF или EF.
  7. В информационной геометрии семейство нормальных распределений образует статистическое многообразие с постоянной кривизной. . Это же семейство плоско относительно (±1)-связностей и . [36]
  8. Если распределяются по , затем . Обратите внимание, что здесь не предполагается независимость. [37]
[ редактировать ]

Центральная предельная теорема

[ редактировать ]
По мере увеличения количества дискретных событий функция начинает напоминать нормальное распределение.
Сравнение функций плотности вероятности, на сумму справедливые шестигранные игральные кости, показывающие их сходимость к нормальному распределению с увеличением , в соответствии с центральной предельной теоремой. На правом нижнем графике сглаженные профили предыдущих графиков масштабируются, накладываются и сравниваются с нормальным распределением (черная кривая).

Центральная предельная теорема утверждает, что при определенных (довольно распространенных) условиях сумма многих случайных величин будет иметь примерно нормальное распределение. Точнее, где являются независимыми и одинаково распределенными случайными величинами с одинаковым произвольным распределением, нулевым средним значением и дисперсией. и это ихсреднее масштабирование по Тогда, как увеличивается, распределение вероятностей будет стремиться к нормальному распределению с нулевым средним и дисперсией .

Теорему можно распространить на переменные которые не являются независимыми и/или неодинаково распределенными, если на степень зависимости и моменты распределений наложены определенные ограничения.

Многие тестовые статистики , баллы и оценки, встречающиеся на практике, содержат в себе суммы определенных случайных величин, и еще больше оценок можно представить в виде сумм случайных величин за счет использования функций влияния . Центральная предельная теорема подразумевает, что эти статистические параметры будут иметь асимптотически нормальное распределение.

Центральная предельная теорема также подразумевает, что некоторые распределения могут быть аппроксимированы нормальным распределением, например:

  • Биномиальное распределение примерно нормально со средним значением и дисперсия для больших и для не слишком близко к 0 или 1.
  • Распределение Пуассона с параметром примерно нормально со средним значением и дисперсия , для больших значений . [38]
  • Распределение хи -квадрат примерно нормально со средним значением и дисперсия , для большого .
  • Стьюдента t-распределение примерно нормально со средним значением 0 и дисперсией 1, когда большой.

Достаточно ли точны эти приближения, зависит от цели, для которой они необходимы, и скорости сходимости к нормальному распределению. Обычно такие аппроксимации менее точны в хвостах распределения.

Общая верхняя оценка погрешности аппроксимации в центральной предельной теореме дается теоремой Берри–Эссеена , улучшения аппроксимации даются разложениями Эджворта .

Эту теорему можно также использовать для обоснования моделирования суммы многих источников однородного шума как гауссова шума . См . AWGN .

Операции и функции обычных переменных

[ редактировать ]
а: Плотность вероятности функции нормальной переменной с и . б: Плотность вероятности функции двух нормальных переменных и , где , , , , и . c: Тепловая карта совместной плотности вероятности двух функций двух коррелирующих нормальных переменных. и , где , , , , и . d: Плотность вероятности функции из 4 стандартных нормальных переменных iid. Они рассчитываются численным методом трассировки лучей. [39]

Плотность вероятности , кумулятивное распределение и обратное кумулятивное распределение любой функции одной или нескольких независимых или коррелированных нормальных переменных можно вычислить с помощью численного метода трассировки лучей. [39] ( код Матлаба ). В следующих разделах мы рассмотрим некоторые особые случаи.

Операции с одной нормальной переменной

[ редактировать ]

Если распределяется нормально со средним значением и дисперсия , затем

Операции над двумя независимыми нормальными переменными
[ редактировать ]
  • Если и две независимые нормальные случайные величины со средними значениями , и отклонения , , то их сумма также будут нормально распределены, [доказательство] со средним и дисперсия .
  • В частности, если и являются независимыми нормальными отклонениями с нулевым средним значением и дисперсией , затем и также независимы и нормально распределены, с нулевым средним значением и дисперсией . Это частный случай поляризационного тождества . [40]
  • Если , представляют собой два независимых нормальных отклонения со средним значением и дисперсия , и , — произвольные действительные числа, то переменная также обычно распределяется со средним значением и дисперсия . Отсюда следует, что нормальное распределение устойчиво (с показателем ).
  • Если , являются нормальными распределениями, то их нормализованное среднее геометрическое это нормальное распределение с и (см. здесь визуализацию).
Операции над двумя независимыми стандартными нормальными переменными
[ редактировать ]

Если и две независимые стандартные нормальные случайные величины со средним значением 0 и дисперсией 1, тогда

Операции с несколькими независимыми нормальными переменными

[ редактировать ]
  • Любая линейная комбинация независимых нормальных отклонений является нормальным отклонением.
  • Если являются независимыми стандартными нормальными случайными величинами, то сумма их квадратов имеет распределение хи-квадрат с степени свободы
  • Если являются независимыми нормально распределенными случайными величинами со средними значениями и отклонения , то их выборочное среднее не зависит от выборочного стандартного отклонения , [42] что можно продемонстрировать с помощью теоремы Басу или теоремы Кокрена . [43] Отношение этих двух величин будет иметь t-распределение Стьюдента с степени свободы:
  • Если , являются независимыми стандартными нормальными случайными величинами, то отношение их нормированных сумм квадратов будет иметь F-распределение с ( n , m ) степенями свободы: [44]

Операции с несколькими коррелирующими нормальными переменными

[ редактировать ]
  • Квадратичная форма нормального вектора, т.е. квадратичная функция из нескольких независимых или коррелирующих нормальных переменных, является обобщенной переменной хи-квадрат .

Действия над функцией плотности

[ редактировать ]

Расщепленное нормальное распределение наиболее четко определяется с точки зрения объединения масштабированных участков функций плотности различных нормальных распределений и изменения масштаба плотности для интегрирования в одну. Усеченное нормальное распределение получается в результате изменения масштаба части одной функции плотности.

Бесконечная делимость и теорема Крамера

[ редактировать ]

Для любого положительного целого числа , любое нормальное распределение со средним и дисперсия это распределение суммы независимые нормальные отклонения, каждое со средним значением и дисперсия . Это свойство называется бесконечной делимостью . [45]

И наоборот, если и являются независимыми случайными величинами и их сумма имеет нормальное распределение, то оба и должны быть нормальные отклонения. [46]

Этот результат известен как теорема Крамера о разложении и эквивалентен утверждению, что свертка двух распределений является нормальной тогда и только тогда, когда оба распределения нормальны. Теорема Крамера подразумевает, что линейная комбинация независимых негауссовских переменных никогда не будет иметь точно нормальное распределение, хотя и может приближаться к нему сколь угодно близко. [31]

Теорема Бернштейна

[ редактировать ]

Теорема Бернштейна утверждает, что если и независимы и и также независимы, то и X , и Y обязательно должны иметь нормальное распределение. [47] [48]

В более общем смысле, если являются независимыми случайными величинами, то две различные линейные комбинации и будет независимым тогда и только тогда, когда все нормальные и , где обозначает дисперсию . [47]

Расширения

[ редактировать ]

Понятие нормального распределения, являющегося одним из наиболее важных распределений в теории вероятностей, вышло далеко за рамки стандартных рамок одномерного (то есть одномерного) случая (случай 1). Все эти расширения также называются нормальными или гауссовскими законами, поэтому существует определенная двусмысленность в названиях.

Случайная величина X имеет нормальное распределение, состоящее из двух частей, если она имеет распределение

где µ — среднее значение, а σ 1 2 и σ 2 2 — это дисперсии распределения слева и справа от среднего значения соответственно.

Были определены среднее значение, дисперсия и третий центральный момент этого распределения. [49]

где E( X ), V( X ) и T( X ) — среднее значение, дисперсия и третий центральный момент соответственно.

Одним из основных практических применений закона Гаусса является моделирование эмпирических распределений множества различных случайных величин, встречающихся на практике. В таком случае возможным расширением будет более богатое семейство распределений, имеющее более двух параметров и, следовательно, способное более точно соответствовать эмпирическому распределению. Примеры таких расширений:

  • Распределение Пирсона — семейство вероятностных распределений с четырьмя параметрами, которые расширяют нормальный закон, включив в него различные значения асимметрии и эксцесса.
  • Обобщенное нормальное распределение , также известное как экспоненциальное степенное распределение, допускает хвосты распределения с более толстыми или более тонкими асимптотическим поведением.

Статистический вывод

[ редактировать ]

Оценка параметров

[ редактировать ]

Часто мы не знаем параметров нормального распределения, но вместо этого хотим их оценить . То есть иметь образец от нормального населения, мы хотели бы узнать примерные значения параметров и . Стандартным подходом к этой проблеме является метод максимального правдоподобия , который требует максимизации логарифмической функции правдоподобия : Взяв производные по и и решение полученной системы условий первого порядка дает оценки максимального правдоподобия :

Затем заключается в следующем:

Выборочное среднее

[ редактировать ]

Оценщик называется выборочным средним , поскольку оно является средним арифметическим всех наблюдений. Статистика является полным и достаточным для , и, следовательно, по теореме Лемана–Шеффе , — это несмещенная оценка равномерно минимальной дисперсии (UMVU). [50] В конечных выборках оно распределяется нормально: Дисперсия этой оценки равна µμ -элементу обратной информационной матрицы Фишера . Это означает, что оценка эффективна для конечной выборки . Практическое значение имеет тот факт, что ошибка стандартная пропорционально , то есть, если кто-то хочет уменьшить стандартную ошибку в 10 раз, необходимо увеличить количество точек в выборке в 100 раз. Этот факт широко используется при определении размеров выборки для опросов общественного мнения и числа испытания в моделировании Монте-Карло .

С точки зрения асимптотической теории , является непротиворечивым , то есть сходится по вероятности к как . Оценка также асимптотически нормальна , что является простым следствием того факта, что она нормальна в конечных выборках:

Выборочная дисперсия

[ редактировать ]

Оценщик называется выборочной дисперсией , поскольку это дисперсия выборки ( ). На практике вместо . Эта другая оценка обозначается , а также называется выборочной дисперсией , что представляет собой определенную неоднозначность в терминологии; его квадратный корень называется выборочным стандартным отклонением . Оценщик отличается от имея ( n − 1) вместо n в знаменателе (так называемая поправка Бесселя ): Разница между и становится пренебрежимо малым для n больших . Однако в конечных выборках мотивация использования заключается в том, что это несмещенная оценка основного параметра , тогда как является предвзятым. Кроме того, по теореме Лемана–Шеффе оценка является равномерно несмещенной минимальной дисперсией ( UMVU ), [50] что делает его «лучшим» оценщиком среди всех несмещенных. Однако можно показать, что смещенная оценка лучше, чем с точки зрения критерия среднеквадратической ошибки (MSE). В конечных выборках оба и имеют масштабированное распределение хи-квадрат с ( n - 1) степенями свободы: Первое из этих выражений показывает, что дисперсия равно , что немного больше, чем σσ -элемент обратной информационной матрицы Фишера . Таким образом, не является эффективной оценкой , и более того, поскольку является UMVU, мы можем заключить, что эффективная оценка конечной выборки для не существует.

Применяя асимптотическую теорию, обе оценки и непротиворечивы, то есть сходятся по вероятности к как размер выборки . Обе оценки также асимптотически нормальны: В частности, обе оценки асимптотически эффективны для .

Доверительные интервалы

[ редактировать ]

По теореме Кокрена для нормальных распределений выборочное среднее и выборочная дисперсия s 2 независимы , а это означает , не дает никакой выгоды что рассмотрение их совместного распределения . Существует также обратная теорема: если в выборке выборочное среднее и выборочная дисперсия независимы, то выборка должна иметь нормальное распределение. Независимость между и s можно использовать для построения так называемой t-статистики : Эта величина t имеет t-распределение Стьюдента с ( n − 1) степенями свободы и является вспомогательной статистикой (независимой от значения параметров). Инвертирование распределения этой t -статистики позволит нам построить доверительный интервал для μ ; [51] аналогично, инвертируя χ 2 распределение статистики s 2 даст нам доверительный интервал для σ 2 : [52] где t k,p и χ   2
k,p
 
квантили p ые - t- и χ 2 -распределения соответственно. Эти доверительные интервалы имеют доверительный уровень 1 − α , что означает, что истинные значения μ и σ 2 выходят за пределы этих интервалов с вероятностью (или уровнем значимости ) α . На практике люди обычно принимают α = 5% , что приводит к доверительным интервалам 95%.

Приближенные формулы можно вывести из асимптотических распределений и с 2 : Приближенные формулы становятся справедливыми при больших значениях n более удобны для ручного расчета, поскольку стандартные нормальные квантили и /2 не зависят от n . В частности, наиболее популярное значение α = 5% приводит к | г 0,025 | = 1,96 .

Тесты на нормальность

[ редактировать ]

Критерии нормальности оценивают вероятность того, что данный набор данных { x 1 , ..., x n } имеет нормальное распределение. Обычно нулевая гипотеза H 0 заключается в том, что наблюдения распределяются нормально с неопределенным средним значением µ и дисперсией σ. 2 , по сравнению с альтернативой H a , что распределение является произвольным. Для решения этой проблемы было разработано множество тестов (более 40). Наиболее известные из них представлены ниже:

Диагностические графики более интуитивно привлекательны, но в то же время субъективны, поскольку они полагаются на неформальное человеческое суждение при принятии или отклонении нулевой гипотезы.

  • График Q–Q , также известный как график нормальной вероятности или график ранки , представляет собой график отсортированных значений из набора данных в сравнении с ожидаемыми значениями соответствующих квантилей из стандартного нормального распределения. То есть это график точки вида (Φ −1 ( p k ), x ( k ) ), где точки построения p k равны p k = ( k α )/( n + 1 − 2 α ), а α — константа корректировки, которая может принимать любое значение от 0 до 1. Если нулевая гипотеза верна, нанесенные точки должны примерно лежать на прямой линии.
  • График P-P - аналогичен графику Q-Q, но используется гораздо реже. Этот метод заключается в нанесении точек (Φ( z ( k ) ), p k ), где . Для нормально распределенных данных этот график должен лежать на линии под углом 45° между (0, 0) и (1, 1).

Тесты на соответствие :

Моментные тесты :

Тесты, основанные на эмпирической функции распределения :

Байесовский анализ нормального распределения

[ редактировать ]

Байесовский анализ нормально распределенных данных осложняется множеством различных возможностей, которые можно учитывать:

Формулы для случаев нелинейной регрессии обобщены в сопряженной предыдущей статье.

Сумма двух квадратичных дробей

[ редактировать ]
Скалярная форма
[ редактировать ]

Следующая вспомогательная формула полезна для упрощения уравнений апостериорного обновления, которые в противном случае становятся довольно утомительными.

Это уравнение переписывает сумму двух квадратичных дробей по x, расширяя квадраты, группируя члены по x и дополняя квадрат . Обратите внимание на следующие сложные постоянные коэффициенты, связанные с некоторыми терминами:

  1. Фактор имеет форму средневзвешенного значения y и z .
  2. Это показывает, что этот фактор можно рассматривать как результат ситуации, когда обратные величины a и b складываются напрямую, поэтому, чтобы объединить сами a и b , необходимо совершать возвратно-поступательные движения, складывать и снова возвращать результат, чтобы вернуться в оригинальные агрегаты. Именно такую ​​операцию выполняет среднее гармоническое , поэтому неудивительно, что составляет половину среднего значений a b и . гармонического
Векторная форма
[ редактировать ]

Аналогичную формулу можно записать для суммы двух векторных квадратиков: Если x , y , z — векторы длины k , а A и B симметричные , обратимые матрицы размера , затем

где

Форма x A x называется квадратичной формой и является скаляром : Другими словами, он суммирует все возможные комбинации произведений пар элементов из x с отдельным коэффициентом для каждой. Кроме того, поскольку , только сумма имеет значение для любых недиагональных элементов A , и нет потери общности, если предположить, A симметричен что . Более того, если A симметричен, то форма

Сумма отличий от среднего

[ редактировать ]

Еще одна полезная формула выглядит следующим образом: где

С известной дисперсией

[ редактировать ]

Для набора iid нормально распределенных точек данных X размера n , где каждая отдельная точка x следует с известной дисперсией σ 2 , сопряженное априорное распределение также имеет нормальное распределение.

Это можно показать проще, переписав дисперсию как точность , т. е. используя τ = 1/σ. 2 . Тогда, если и мы действуем следующим образом.

Во-первых, функция правдоподобия (используя приведенную выше формулу для суммы отличий от среднего):

Далее действуем следующим образом:

В приведенном выше выводе мы использовали приведенную выше формулу для суммы двух квадратичных дробей и исключили все постоянные факторы, не включающие µ . Результатом является ядро ​​нормального распределения со средним значением и точность , то есть

Это можно записать как набор байесовских уравнений обновления апостериорных параметров с точки зрения априорных параметров:

То есть объединить n точек данных с общей точностью (или, что то же самое, с общей дисперсией n / σ 2 ) и среднее значение значений , получить новую общую точность, просто добавив общую точность данных к предыдущей общей точности, и сформировать новое среднее значение через взвешенное по точности среднее значение , т.е. средневзвешенное среднее значение данных и априорное среднее значение, каждое из которых взвешено по соответствующая общая точность. Это имеет логический смысл, если рассматривать точность как показатель достоверности наблюдений: в распределении апостериорного среднего каждый из входных компонентов взвешивается по его достоверности, а достоверность этого распределения представляет собой сумму отдельных достоверностей. . (Для интуитивного понимания этого сравните выражение «целое больше суммы своих частей». Кроме того, учтите, что знание апостериорного происходит из комбинации знаний априорного и правдоподобия. , поэтому вполне логично, что мы более уверены в нем, чем в любом из его компонентов.)

удобнее проводить байесовский анализ сопряженных априорных значений Приведенная выше формула показывает, почему с точки зрения точности для нормального распределения. Апостериорная точность представляет собой просто сумму априорной точности и точности правдоподобия, а апостериорное среднее вычисляется посредством взвешенного по точности среднего значения, как описано выше. Те же самые формулы можно записать с точки зрения дисперсии, выполняя возвратно-поступательные движения со всеми точностью, что приводит к более уродливым формулам.

С известным средним значением

[ редактировать ]

Для набора iid нормально распределенных точек данных X размера n , где каждая отдельная точка x следует с известным средним значением ц сопряженное априорное значение имеет дисперсии обратное гамма-распределение или масштабированное обратное распределение хи-квадрат . Они эквивалентны, за исключением того, что имеют разные параметризации . Хотя обратная гамма используется чаще, для удобства мы используем масштабированный обратный хи-квадрат. Приор для σ 2 заключается в следующем:

Функция правдоподобия , приведенная выше, записанная через дисперсию, равна:

где

Затем:

Вышеупомянутое также представляет собой масштабированное обратное распределение хи-квадрат, где

или эквивалентно

Если провести повторную параметризацию с точки зрения обратного гамма-распределения , результат будет следующим:

С неизвестным средним значением и неизвестной дисперсией

[ редактировать ]

Для набора iid нормально распределенных точек данных X размера n , где каждая отдельная точка x следует с неизвестным средним значением µ и неизвестной дисперсией σ 2 , комбинированное (многомерное) сопряженное априорное значение помещается над средним значением и дисперсией, состоящее из нормального обратного гамма-распределения .Логически это происходит следующим образом:

  1. Из анализа случая с неизвестным средним значением, но известной дисперсией, мы видим, что уравнения обновления включают в себя достаточную статистику, рассчитанную на основе данных, состоящих из среднего значения точек данных и общей дисперсии точек данных, вычисленных, в свою очередь, на основе известной дисперсии. разделить на количество точек данных.
  2. Из анализа случая с неизвестной дисперсией, но известным средним значением, мы видим, что уравнения обновления включают достаточную статистику по данным, состоящую из количества точек данных и суммы квадратичных отклонений .
  3. Имейте в виду, что значения апостериорного обновления служат априорным распределением при обработке дальнейших данных. Таким образом, мы должны логически думать о наших априорных значениях с точки зрения только что описанной достаточной статистики, сохраняя при этом в максимально возможной степени ту же семантику.
  4. Чтобы справиться со случаем, когда и среднее значение, и дисперсия неизвестны, мы могли бы разместить независимые априорные значения над средним значением и дисперсией с фиксированными оценками среднего среднего значения, общей дисперсии, количества точек данных, используемых для вычисления априорной дисперсии, и суммы квадратичных отклонений. . Однако обратите внимание, что в действительности общая дисперсия среднего значения зависит от неизвестной дисперсии, а сумма квадратов отклонений, которая входит в априорную дисперсию (по-видимому), зависит от неизвестного среднего значения. На практике последняя зависимость относительно не важна: сдвиг фактического среднего значения смещает сгенерированные точки на равную величину, и в среднем квадраты отклонений останутся прежними. Однако это не относится к общей дисперсии среднего значения: по мере увеличения неизвестной дисперсии общая дисперсия среднего будет пропорционально увеличиваться, и мы хотели бы уловить эту зависимость.
  5. Это предполагает, что мы создаем условное априорное значение среднего значения для неизвестной дисперсии с гиперпараметром, указывающим среднее значение псевдонаблюдений , связанных с априорным значением, и другим параметром, указывающим количество псевдонаблюдений. Это число служит параметром масштабирования дисперсии, позволяя контролировать общую дисперсию среднего значения относительно фактического параметра дисперсии. Априорное значение дисперсии также имеет два гиперпараметра: один определяет сумму квадратов отклонений псевдонаблюдений, связанных с априорным, а другой еще раз указывает количество псевдонаблюдений. Каждый из априорных значений имеет гиперпараметр, определяющий количество псевдонаблюдений, и в каждом случае он контролирует относительную дисперсию этого априорного значения. Они задаются как два отдельных гиперпараметра, так что дисперсию (т. е. достоверность) двух априорных значений можно контролировать отдельно.
  6. Это немедленно приводит к нормальному обратному гамма-распределению , которое является продуктом двух только что определенных распределений с использованием сопряженных априорных значений ( обратное гамма-распределение по дисперсии и нормальное распределение по среднему значению, зависящее от дисперсии) и с теми же четырьмя только что определенными параметрами.

Априоры обычно определяются следующим образом:

Уравнения обновления могут быть выведены и выглядят следующим образом:

К соответствующему количеству псевдонаблюдений добавляется количество реальных наблюдений. Новый средний гиперпараметр снова представляет собой средневзвешенное значение, на этот раз взвешенное по относительному количеству наблюдений. Наконец, обновление для аналогичен случаю с известным средним значением, но в этом случае сумма квадратов отклонений берется относительно среднего значения наблюдаемых данных, а не истинного среднего значения, и в результате необходимо добавить новый член взаимодействия, чтобы позаботиться о дополнительный источник ошибок, возникающий из-за отклонения между априорным и средним значением данных.

Доказательство

Предыдущие распределения

Таким образом, совместным приором является

Функция правдоподобия из приведенного выше раздела с известной дисперсией:

Записав это в терминах дисперсии, а не точности, мы получаем: где

Следовательно, апостериорное (опуская гиперпараметры как обуславливающие факторы):

Другими словами, апостериорное распределение имеет вид произведения нормального распределения по раз обратное гамма-распределение по , с параметрами, такими же, как приведенные выше уравнения обновления.

Возникновение и применение

[ редактировать ]

Возникновение нормального распределения в практических задачах можно условно разделить на четыре категории:

  1. Точно нормальные распределения;
  2. Приблизительно нормальные законы, например, когда такое приближение оправдано центральной предельной теоремой ; и
  3. Распределения моделируются как нормальные: нормальное распределение представляет собой распределение с максимальной энтропией для заданного среднего значения и дисперсии.
  4. Проблемы регрессии – нормальное распределение обнаруживается после того, как систематические эффекты были достаточно хорошо смоделированы.

Точная нормальность

[ редактировать ]
Основное состояние квантового гармонического осциллятора имеет распределение Гаусса.

Некоторые величины в физике распределяются нормально, как это впервые продемонстрировал Джеймс Клерк Максвелл . Примеры таких величин:

  • Функция плотности вероятности основного состояния квантового гармонического осциллятора .
  • Положение частицы, испытывающей диффузию . Если изначально частица находится в конкретной точке (то есть ее распределение вероятностей — дельта-функция Дирака ), то по истечении времени t ее местоположение описывается нормальным распределением с дисперсией t , которое удовлетворяет уравнению диффузии  . Если начальное местоположение задано некоторой функцией плотности то плотность в момент времени t представляет собой свертку g , и нормальной функции плотности вероятности.

Приблизительная нормальность

[ редактировать ]

Приблизительно нормальное распределение встречается во многих ситуациях, как это объясняется центральной предельной теоремой . Когда результат создается множеством небольших эффектов, действующих аддитивно и независимо , его распределение будет близко к нормальному. Нормальное приближение не будет действительным, если эффекты действуют мультипликативно (а не аддитивно) или если существует одно внешнее влияние, которое имеет значительно большую величину, чем остальные эффекты.

Предполагаемая нормальность

[ редактировать ]
Гистограмма ширины чашелистика Iris versicolor Фишера из набора данных о цветах Iris с наложенным наиболее подходящим нормальным распределением.

Я могу лишь признать появление нормальной кривой – лапласовой кривой ошибок – весьма ненормальным явлением. В некоторых дистрибутивах он примерно приближается к ; по этой причине, а также ввиду его прекрасной простоты, мы, возможно, можем использовать его в качестве первого приближения, особенно в теоретических исследованиях.

Существуют статистические методы эмпирической проверки этого предположения; см. выше раздел «Тестирование нормальности» .

  • В биологии логарифмы (после разделения на мужские различных переменных имеют тенденцию иметь нормальное распределение, то есть они имеют тенденцию иметь логарифмически нормальное распределение и женские субпопуляции), в том числе примеры:
    • Меры размера живой ткани (длина, высота, площадь кожи, вес); [53]
    • Длина в придатков инертных (волос, когтей, ногтей, зубов) биологических особей направлении роста ; предположительно, под эту категорию подпадает и толщина древесной коры;
    • Определенные физиологические измерения, такие как артериальное давление взрослых людей.
  • В финансах, в частности в модели Блэка-Шоулза , изменения логарифма обменных курсов, индексов цен и индексов фондового рынка считаются нормальными (эти переменные ведут себя как сложные проценты , а не как простые проценты, и поэтому являются мультипликативными). Некоторые математики, такие как Бенуа Мандельброт, утверждали, что лог-распределения Леви с тяжелыми хвостами были бы более подходящей моделью, в частности, для анализа обвалов фондового рынка . Использование предположения о нормальном распределении в финансовых моделях также подвергалось критике со стороны Нассима Николаса Талеба в его работах.
  • Ошибки измерений в физических экспериментах часто моделируются нормальным распределением. Такое использование нормального распределения не означает, что предполагается, что ошибки измерения имеют нормальное распределение; скорее, использование нормального распределения дает наиболее консервативные прогнозы, возможные при условии знания только среднего значения и дисперсии ошибок. [54]
  • При стандартизированном тестировании результаты могут иметь нормальное распределение, выбирая количество и сложность вопросов (как в тесте IQ ) или преобразуя необработанные результаты теста в выходные баллы, подгоняя их к нормальному распределению. Например, традиционный диапазон SAT 200–800 основан на нормальном распределении со средним значением 500 и стандартным отклонением 100.
Подобрано кумулятивное нормальное распределение октябрьских осадков, см. подгонку распределения.

Методологические проблемы и экспертная оценка

[ редактировать ]

Джон Иоаннидис утверждал , что использование нормально распределенных стандартных отклонений в качестве стандартов для проверки результатов исследований оставляет непроверенными фальсифицируемые предсказания о явлениях, которые обычно не распределяются. Сюда относятся, например, явления, которые возникают только при наличии всех необходимых условий и одно не может быть заменено другим путем сложения, и явления, которые не распределены случайным образом. Иоаннидис утверждает, что проверка, ориентированная на стандартное отклонение, создает ложную видимость достоверности гипотез и теорий, в которых некоторые, но не все фальсифицируемые прогнозы нормально распределены, поскольку часть фальсифицируемых прогнозов, против которых имеются доказательства, может, а в некоторых случаях, находится в ненормально распределенные части диапазона фальсифицируемых предсказаний, а также безосновательное отклонение гипотез, для которых ни одно из фальсифицируемых предсказаний обычно не распределяется так, как если бы они были нефальсифицируемы, тогда как на самом деле они делают фальсифицируемые предсказания. Иоаннидис утверждает, что многие случаи принятия взаимоисключающих теорий как подтвержденные исследовательскими журналами вызваны неспособностью журналов принять эмпирические фальсификации предсказаний с ненормально распределенным распределением, а не потому, что взаимоисключающие теории верны, чего они не могут сделать. быть, хотя две взаимоисключающие теории могут быть как неправильными, так и третья правильной. [56]

Вычислительные методы

[ редактировать ]

Генерация значений из нормального распределения

[ редактировать ]
Бобовую машину — устройство, изобретенное Фрэнсисом Гальтоном , можно назвать первым генератором нормальных случайных величин. Эта машина состоит из вертикальной доски с чередующимися рядами булавок. Маленькие шарики падают сверху, а затем случайным образом отскакивают влево или вправо, попадая в кегли. Шары собираются в контейнеры внизу и располагаются в форме, напоминающей кривую Гаусса.

В компьютерном моделировании, особенно в приложениях метода Монте-Карло , часто желательно генерировать значения, которые имеют нормальное распределение. Все перечисленные ниже алгоритмы генерируют стандартные нормальные отклонения, поскольку N ( µ , σ 2 ) может быть сгенерирован как X = µ + σZ , где Z — стандартная нормаль. Все эти алгоритмы полагаются на наличие генератора случайных чисел U, способного генерировать однородные случайные величины.

  • Самый простой метод основан на свойстве преобразования интеграла вероятности : если U распределено равномерно на (0,1), то Φ −1 ( U ) будет иметь стандартное нормальное распределение. Недостатком этого метода является то, что он основан на вычислении пробит-функции Φ −1 , что невозможно сделать аналитически. Некоторые приближенные методы описаны у Харта (1968) и в статье erf . Вичура предлагает быстрый алгоритм вычисления этой функции с точностью до 16 знаков после запятой. [57] который используется R для вычисления случайных величин нормального распределения.
  • Простой в программировании приближенный подход , основанный на центральной предельной теореме, заключается в следующем: сгенерируйте 12 равномерных отклонений U (0,1), сложите их все и вычтите 6 – полученная случайная величина будет иметь примерно стандартное нормальное распределение. По правде говоря, распределение будет Ирвина-Холла , которое представляет собой 12-секционное полиномиальное приближение одиннадцатого порядка к нормальному распределению. Это случайное отклонение будет иметь ограниченный диапазон (-6, 6). [58] Обратите внимание, что при истинно нормальном распределении только 0,00034% всех выборок выходят за пределы ±6σ.
  • Метод Бокса – Мюллера использует два независимых случайных числа U и V распределенных , равномерно по (0,1). Тогда две случайные величины X и Y оба будут иметь стандартное нормальное распределение и будут независимыми . Эта формулировка возникает потому, что для двумерного нормального случайного вектора ( X , Y ) квадрат нормы X 2 + И 2 будет иметь распределение хи-квадрат с двумя степенями свободы, которое представляет собой легко генерируемую экспоненциальную случайную величину, соответствующую величине −2 ln( U ) в этих уравнениях; и угол равномерно распределен по кругу, выбранному случайной величиной V .
  • представляет Полярный метод Марсальи собой модификацию метода Бокса – Мюллера, которая не требует вычисления функций синуса и косинуса. В этом методе U и V извлекаются из равномерного (−1,1) распределения, а затем S = U 2 + V 2 вычисляется. Если S больше или равно 1, метод начинается заново, в противном случае две величины возвращаются. Опять же, X и Y — независимые стандартные нормальные случайные величины.
  • Метод отношений [59] это метод отказа. Алгоритм действует следующим образом:
    • Сгенерируйте два независимых равномерных отклонения U и V ;
    • Вычислить X = 8/ e ( V - 0,5)/ U ;
    • Необязательно: если X 2 ≤ 5 − 4 е 1/4 Затем вы принимаете X и завершаете алгоритм;
    • Необязательно: если X 2 ≥ 4 е −1.35 / U + 1,4, затем отклоняем X и начинаем заново с шага 1;
    • Если Х 2 ≤ −4 ln U, тогда примите X , иначе начните алгоритм заново.
    Два дополнительных шага позволяют в большинстве случаев избежать вычисления логарифма на последнем шаге. Эти шаги можно значительно улучшить [60] так что логарифм вычисляется редко.
  • Алгоритм зиккурата [61] быстрее, чем преобразование Бокса-Мюллера, но при этом является точным. Примерно в 97% всех случаев он использует только два случайных числа: одно случайное целое и одно случайное равномерное, одно умножение и проверку if. Лишь в 3% случаев, когда комбинация этих двух факторов выходит за рамки «ядра зиккурата» (своего рода отбраковочная выборка с использованием логарифмов), приходится использовать экспоненту и более однородные случайные числа.
  • Целочисленную арифметику можно использовать для выборки из стандартного нормального распределения. [62] Этот метод точен в том смысле, что он удовлетворяет условиям идеального приближения ; [63] т. е. это эквивалентно выборке действительного числа из стандартного нормального распределения и округлению его до ближайшего представимого числа с плавающей запятой.
  • Также есть расследование [64] в связь между быстрым преобразованием Адамара и нормальным распределением, поскольку преобразование использует только сложение и вычитание, и согласно центральной предельной теореме случайные числа практически из любого распределения будут преобразованы в нормальное распределение. В этом отношении серию преобразований Адамара можно комбинировать со случайными перестановками, чтобы превратить произвольные наборы данных в нормально распределенные данные.

Численные аппроксимации нормальной кумулятивной функции распределения и нормальной функции квантиля

[ редактировать ]

Стандартная функция нормального кумулятивного распределения широко используется в научных и статистических вычислениях.

Значения Φ( x ) могут быть очень точно аппроксимированы различными методами, такими как численное интегрирование , ряд Тейлора , асимптотический ряд и цепные дроби . В зависимости от желаемого уровня точности используются различные приближения.

  • Зелен и Северо (1964) дают аппроксимацию Φ( x ) для x > 0 с абсолютной ошибкой | ε ( Икс ) | < 7,5·10 −8 (алгоритм 26.2.17 ): где φ ( x ) — стандартная нормальная функция плотности вероятности, а b 0 = 0,2316419, b 1 = 0,319381530, b 2 = -0,356563782, b 3 = 1,781477937, b 4 = -1,821255978, b 5 = 1,330274429.
  • Харт (1968) перечисляет несколько десятков аппроксимаций – с помощью рациональных функций, с экспонентами или без них – для функция erfc() . Его алгоритмы различаются по степени сложности и получаемой точности: максимальная абсолютная точность составляет 24 цифры. Алгоритм Уэста (2009) сочетает в себе алгоритм Харта 5666 с аппроксимацией цепной дроби в хвосте, чтобы обеспечить быстрый алгоритм вычислений с точностью до 16 цифр.
  • Коди (1969), вспомнив, что решение Hart68 не подходит для erf, дает решение как для erf, так и для erfc с максимальной границей относительной ошибки с помощью рационального приближения Чебышева .
  • Марсалья (2004) предложил простой алгоритм. [примечание 1] на основе разложения в ряд Тейлора для вычисления Φ( x ) с произвольной точностью. Недостатком этого алгоритма является сравнительно медленное время расчета (например, для вычисления функции с точностью до 16 знаков при x = 10 требуется более 300 итераций ).
  • Научная библиотека GNU вычисляет значения стандартной нормальной кумулятивной функции распределения, используя алгоритмы Харта и аппроксимации с помощью полиномов Чебышева .
  • Диа (2023) предлагает следующее приближение с максимальной относительной погрешностью менее по абсолютной величине: за и для ,

Шор (1982) представил простые аппроксимации, которые могут быть включены в модели стохастической оптимизации инженерных и эксплуатационных исследований, такие как проектирование надежности и анализ запасов. Обозначая p = Φ( z ) , простейшим приближением для функции квантиля является:

Это приближение дает для z максимальную абсолютную ошибку 0,026 (для 0,5 ≤ p ≤ 0,9999 , что соответствует 0 ≤ z ≤ 3,719 ). Для p < 1/2 замените p на 1 − p и поменяйте знак. Другое приближение, несколько менее точное, — это однопараметрическое приближение:

Последнее послужило для получения простой аппроксимации интеграла потерь нормального распределения, определяемого формулой

Это приближение особенно точно для правого дальнего хвоста (максимальная ошибка 10 −3 для z≥1,4). Высокоточные аппроксимации кумулятивной функции распределения, основанные на методологии моделирования отклика (RMM, Shore, 2011, 2012), показаны в Shore (2005).

Еще несколько приближений можно найти по адресу: Функция ошибки#Приближение элементарными функциями . В частности, небольшая относительная ошибка во всей области для кумулятивной функции распределения и функция квантиля также достигается с помощью явно обратимой формулы Сергея Виницкого в 2008 году.

Разработка

[ редактировать ]

Некоторые авторы [65] [66] приписывают заслугу открытия нормального распределения де Муавра , который в 1738 г. [примечание 2] опубликовал во втором издании своей «Доктрины шансов» исследование коэффициентов разложения биномиального ( a + b ) н . Де Муавр доказал, что средний член этого расширения имеет приблизительную величину , и что «Если m или 1 / 2 n — бесконечно большая Величина, то логарифм отношения, которое Член, отстоящий от середины на Интервал , имеет к среднему Члену, равен ." [67] Хотя эту теорему можно интерпретировать как первое неясное выражение нормального закона вероятности, Стиглер указывает, что сам де Муавр не интерпретировал свои результаты как нечто большее, чем приближенное правило для биномиальных коэффициентов, и, в частности, у де Муавра не было концепции функция плотности вероятности. [68]

Карл Фридрих Гаусс открыл нормальное распределение в 1809 году как способ рационализации метода наименьших квадратов .

В 1823 году Гаусс опубликовал свою монографию « Theoria Combinis Observeum erroribus minimis obnoxiae », где, среди прочего, он вводит несколько важных статистических понятий, таких как метод наименьших квадратов , метод максимального правдоподобия и нормальное распределение . Гаусс использовал M , M , M ", ... для обозначения измерений некоторой неизвестной величины V и искал наиболее вероятную оценку этой величины: ту, которая максимизирует вероятность φ ( M V ) · φ ( M ′ V ) · φ ( M » − V ) · ... получения наблюдаемых экспериментальных результатов. В его обозначениях φΔ — функция плотности вероятности ошибок измерения величины Δ. Не зная, что представляет собой функция φ , Гаусс требует, чтобы его метод сводился к известному ответу: среднему арифметическому измеренных величин. [примечание 3] Исходя из этих принципов, Гаусс показывает, что единственным законом, который рационализирует выбор среднего арифметического в качестве оценки параметра местоположения, является нормальный закон ошибок: [69] где h - «мера точности наблюдений». Используя этот нормальный закон в качестве общей модели ошибок в экспериментах, Гаусс формулирует то, что сейчас известно как нелинейный взвешенный метод наименьших квадратов . [70]

Пьер-Симон Лаплас доказал центральную предельную теорему в 1810 году, подтвердив важность нормального распределения в статистике.

Хотя Гаусс был первым, кто предложил закон нормального распределения, Лаплас внес значительный вклад. [примечание 4] Именно Лаплас впервые поставил задачу объединения нескольких наблюдений в 1774 году. [71] хотя его собственное решение привело к распределению Лапласа . Именно Лаплас первым вычислил значение интеграла e т 2  dt = π в 1782 году, что обеспечивает константу нормализации нормального распределения. [72] Наконец, именно Лаплас в 1810 году доказал и представил академии фундаментальную центральную предельную теорему , подчеркивавшую теоретическую важность нормального распределения. [73]

Интересно отметить, что в 1809 году американский математик ирландского происхождения Роберт Адрейн опубликовал два проницательных, но ошибочных вывода нормального закона вероятности, одновременно и независимо от Гаусса. [74] Его работы оставались по большей части незамеченными научным сообществом, пока в 1871 году их не эксгумировал Аббе . [75]

В середине XIX века Максвелл продемонстрировал, что нормальное распределение является не только удобным математическим инструментом, но может встречаться и в природных явлениях: [76] Число частиц, скорость которых, разрешенная в определенном направлении, лежит между x и x + dx, равна

Сегодня эта концепция обычно известна на английском языке как нормальное распределение или распределение Гаусса . Другие менее распространенные названия включают распределение Гаусса, распределение Лапласа-Гаусса, закон ошибок, закон возможности ошибок, второй закон Лапласа и закон Гаусса.

Сам Гаусс, по-видимому, придумал этот термин в отношении «нормальных уравнений», используемых в его приложениях, причем «нормальный» имеет техническое значение «ортогональный», а не «обычный». [77] Однако к концу XIX века некоторые авторы [примечание 5] начал использовать название «нормальное распределение », где слово «нормальный» использовалось как прилагательное – этот термин теперь рассматривается как отражение того факта, что это распределение считалось типичным, распространенным – и, следовательно, нормальным. Пирс (один из этих авторов) однажды определил понятие «нормальности» следующим образом: «...«норма» — это не среднее (или какое-либо другое среднее значение) того, что происходит на самом деле, а то, что произойдет в долгосрочной перспективе. при определенных обстоятельствах». [78] Примерно на рубеже 20-го века Пирсон популяризировал термин «нормальный» для обозначения этого распределения. [79]

Много лет назад я назвал кривую Лапласа-Гаусса нормальной кривой, это название, хотя оно и избегает международного вопроса о приоритете, имеет тот недостаток, что заставляет людей поверить, что все другие распределения частот в том или ином смысле являются «ненормальными».

Кроме того, именно Пирсон первым записал распределение в терминах стандартного отклонения σ в современных обозначениях. Вскоре после этого, в 1915 году, Фишер добавил в формулу нормального распределения параметр местоположения, выразив его так, как он пишется сейчас:

Термин «стандартное нормальное», обозначающий нормальное распределение с нулевым средним значением и единичной дисперсией, стал широко использоваться примерно в 1950-х годах, появившись в популярных учебниках П. Г. Хоэля (1947) « Введение в математическую статистику» и А. М. Муда (1950) « Введение в математическую статистику ». Теория статистики . [80]

См. также

[ редактировать ]

Примечания

[ редактировать ]
  1. ^ Например, этот алгоритм приведен в статье Язык программирования Bc .
  2. ^ Де Муавр впервые опубликовал эти результаты в 1733 году в брошюре «Приближение суммы биномиальных членов ( a + b )». n в Seriem Expansi , предназначенный только для частного обращения. Но только в 1738 году он обнародовал свои результаты. Оригинальная брошюра переиздавалась несколько раз, см., например, Walker (1985) .
  3. ^ «Было принято считать аксиомой гипотезу о том, что если какая-либо величина была определена путем нескольких прямых наблюдений, выполненных при одинаковых обстоятельствах и с одинаковой тщательностью, то среднее арифметическое наблюдаемых значений дает наиболее вероятное значение, если не строго, но, по крайней мере, почти так, чтобы всегда было безопаснее придерживаться его». — Гаусс (1809 , раздел 177)
  4. ^ «Мой обычай называть кривую кривой Гаусса-Лапласа или нормальной кривой спасает нас от пропорционального распределения заслуг открытия между двумя великими астрономами-математиками». цитата Пирсона (1905 , стр. 189)
  5. ^ Помимо тех, которые здесь специально упомянуты, такое использование встречается в работах Пирса , Гальтона ( Galton (1889 , глава V)) и Lexis ( Lexis (1878) , Rohrbasser & Véron (2003) ) c. 1875. [ нужна ссылка ]
  1. ^ Нортон, Мэтью; Хохлов, Валентин; Урясев, Стэн (2019). «Расчет CVaR и bPOE для распространенных распределений вероятностей с применением для оптимизации портфеля и оценки плотности» (PDF) . Анналы исследования операций . 299 (1–2). Спрингер: 1281–1315. arXiv : 1811.11301 . дои : 10.1007/s10479-019-03373-1 . S2CID   254231768 . Проверено 27 февраля 2023 г.
  2. ^ Нормальное распределение , Энциклопедия психологии Гейла
  3. ^ Казелла и Бергер (2001 , стр. 102)
  4. ^ Лион, А. (2014). Почему нормальные распределения нормальны? , Британский журнал философии науки.
  5. ^ Хорхе, Носедаль; Стефан, Дж. Райт (2006). Численная оптимизация (2-е изд.). Спрингер. п. 249. ИСБН  978-0387-30303-1 .
  6. ^ Jump up to: а б «Нормальное распределение» . www.mathsisfun.com . Проверено 15 августа 2020 г.
  7. ^ Стиглер (1982)
  8. ^ Гальперин, Хартли и Хоэл (1965 , пункт 7)
  9. ^ Макферсон (1990 , стр. 110)
  10. ^ Бернардо и Смит (2000 , стр. 121)
  11. ^ Скотт, Клейтон; Новак, Роберт (7 августа 2003 г.). «Q-функция» . Связи .
  12. ^ Барак, Охад (6 апреля 2006 г.). «Функция Q и функция ошибки» (PDF) . Тель-Авивский университет. Архивировано из оригинала (PDF) 25 марта 2009 г.
  13. ^ Вайсштейн, Эрик В. «Функция нормального распределения» . Математический мир .
  14. ^ Абрамовиц, Милтон ; Стегун, Ирен Энн , ред. (1983) [июнь 1964 г.]. «Глава 26, уравнение 26.2.12» . Справочник по математическим функциям с формулами, графиками и математическими таблицами . Серия «Прикладная математика». Том. 55 (Девятое переиздание с дополнительными исправлениями десятого оригинального издания с исправлениями (декабрь 1972 г.); первое изд.). Вашингтон, округ Колумбия; Нью-Йорк: Министерство торговли США, Национальное бюро стандартов; Дуврские публикации. п. 932. ИСБН  978-0-486-61272-0 . LCCN   64-60036 . МР   0167642 . LCCN   65-12253 .
  15. ^ Ваарт, А.В. ван дер (13 октября 1998 г.). Асимптотическая статистика . Издательство Кембриджского университета. дои : 10.1017/cbo9780511802256 . ISBN  978-0-511-80225-6 .
  16. ^ Обложка, Томас М.; Томас, Джой А. (2006). Элементы теории информации . Джон Уайли и сыновья. п. 254 . ISBN  9780471748816 .
  17. ^ Пак, Сон Ю.; Бера, Анил К. (2009). «Модель условной гетероскедастичности с максимальной энтропией авторегрессии» (PDF) . Журнал эконометрики . 150 (2): 219–230. CiteSeerX   10.1.1.511.9750 . doi : 10.1016/j.jeconom.2008.12.014 . Архивировано из оригинала (PDF) 7 марта 2016 года . Проверено 2 июня 2011 г.
  18. ^ Гири RC (1936) Распределение «коэффициента Стьюдента для ненормальных выборок». Приложение к журналу Королевского статистического общества 3 (2): 178–184.
  19. ^ Лукач, Евгений (март 1942 г.). «Характеристика нормального распределения». Анналы математической статистики . 13 (1): 91–93. дои : 10.1214/AOMS/1177731647 . ISSN   0003-4851 . JSTOR   2236166 . МР   0006626 . Збл   0060.28509 . Викиданные   Q55897617 .
  20. ^ Jump up to: а б с Патель и Рид (1996 , [2.1.4])
  21. ^ Из (1991 , стр. 1258)
  22. ^ Патель и Рид (1996 , [2.1.8])
  23. ^ Папулис, Афанасий. Вероятность, случайные величины и случайные процессы (4-е изд.). п. 148.
  24. ^ Винкельбауэр, Андреас (2012). «Моменты и абсолютные моменты нормального распределения». arXiv : 1209.4340 [ math.ST ].
  25. ^ Брик (1995 , стр. 23)
  26. ^ Брик (1995 , стр. 24)
  27. ^ Обложка и Томас (2006 , стр. 254)
  28. ^ Уильямс, Дэвид (2001). Взвешивание шансов: курс вероятности и статистики (перепечатано под ред.). Кембридж [ua]: Cambridge Univ. Нажимать. стр. 197–199 . ISBN  978-0-521-00618-7 .
  29. ^ Смит, Хосе М. Бернардо; Адриан Ф.М. (2000). Байесовская теория (Переиздание). Чичестер [ua]: Уайли. стр. 209 , 366. ISBN.  978-0-471-49464-5 . {{cite book}}: CS1 maint: несколько имен: список авторов ( ссылка )
  30. ^ О'Хаган, А. (1994) Продвинутая теория статистики Кендалла, Том 2B, Байесовский вывод , Эдвард Арнольд. ISBN   0-340-52922-9 (раздел 5.40)
  31. ^ Jump up to: а б Брык (1995 , стр. 35)
  32. ^ UIUC, Лекция 21. Многомерное нормальное распределение , 21.6: «Индивидуально гауссово против совместно гауссово».
  33. ^ Эдвард Л. Мельник и Аарон Тененбейн, «Неверные спецификации нормального распределения», The American Statistician , том 36, номер 4, ноябрь 1982 г., страницы 372–373
  34. ^ «Кульбак Лейблер (KL) Расстояние двух нормальных (гауссовских) распределений вероятностей» . Allisons.org . 5 декабря 2007 года . Проверено 3 марта 2017 г.
  35. ^ Джордан, Майкл И. (8 февраля 2010 г.). «Stat260: Байесовское моделирование и вывод: сопряженный априор для нормального распределения» (PDF) .
  36. ^ Амари и Нагаока (2000)
  37. ^ «Ожидание максимума гауссовских случайных величин» . Математический обмен стеками . Проверено 7 апреля 2024 г.
  38. ^ «Нормальное приближение к распределению Пуассона» . Stat.ucla.edu . Проверено 3 марта 2017 г.
  39. ^ Jump up to: а б Дас, Абхранил (2021). «Метод интеграции и классификации нормальных распределений» . Журнал видения . 21 (10): 1. arXiv : 2012.14331 . дои : 10.1167/jov.21.10.1 . ПМЦ   8419883 . ПМИД   34468706 .
  40. ^ Брик (1995 , стр. 27)
  41. ^ Вайсштейн, Эрик В. «Нормальное распределение продукции» . Математический мир . wolfram.com.
  42. ^ Лукач, Евгений (1942). «Характеристика нормального распределения» . Анналы математической статистики . 13 (1): 91–3. дои : 10.1214/aoms/1177731647 . ISSN   0003-4851 . JSTOR   2236166 .
  43. ^ Басу, Д.; Лаха, Р.Г. (1954). «О некоторых характеристиках нормального распределения». Санкхья . 13 (4): 359–62. ISSN   0036-4452 . JSTOR   25048183 .
  44. ^ Леманн, Э.Л. (1997). Проверка статистических гипотез (2-е изд.). Спрингер. п. 199. ИСБН  978-0-387-94919-2 .
  45. ^ Патель и Рид (1996 , [2.3.6])
  46. ^ Галамбос и Симонелли (2004 , Теорема 3.5)
  47. ^ Jump up to: а б Лукач и Кинг (1954)
  48. ^ Куайн, член парламента (1993). «О трёх характеристиках нормального распределения» . Вероятность и математическая статистика . 14 (2): 257–263.
  49. ^ Джон, С. (1982). «Трехпараметрическое двухчастное нормальное семейство распределений и его аппроксимация». Коммуникации в статистике – теория и методы . 11 (8): 879–885. дои : 10.1080/03610928208828279 .
  50. ^ Jump up to: а б Кришнамурти (2006 , стр. 127)
  51. ^ Кришнамурти (2006 , стр. 130)
  52. ^ Кришнамурти (2006 , стр. 133)
  53. ^ Хаксли (1932)
  54. ^ Джейнс, Эдвин Т. (2003). Теория вероятностей: логика науки . Издательство Кембриджского университета. стр. 592–593. ISBN  9780521592710 .
  55. ^ Остербан, Роланд Дж. (1994). «Глава 6: Частотный и регрессионный анализ гидрологических данных» (PDF) . В Ритземе, Хенк П. (ред.). Принципы и применение дренажа, Публикация 16 (второе исправленное издание). Вагенинген, Нидерланды: Международный институт мелиорации и улучшения земель (ILRI). стр. 175–224. ISBN  978-90-70754-33-4 .
  56. ^ Почему большинство опубликованных результатов исследований ложны, Джон П.А. Иоаннидис, 2005 г.
  57. ^ Вичура, Майкл Дж. (1988). «Алгоритм AS241: Процентные точки нормального распределения». Прикладная статистика . 37 (3): 477–84. дои : 10.2307/2347330 . JSTOR   2347330 .
  58. ^ Джонсон, Коц и Балакришнан (1995 , уравнение (26.48))
  59. ^ Киндерман и Монахан (1977)
  60. ^ Лева (1992)
  61. ^ Марсалья и Цанг (2000)
  62. ^ Карни (2016)
  63. ^ Монахан (1985 , раздел 2)
  64. ^ Уоллес (1996)
  65. ^ Джонсон, Коц и Балакришнан (1994 , стр. 85)
  66. ^ Ле Кам и Ло Ян (2000 , стр. 74)
  67. ^ Де Муавр, Авраам (1733), Следствие I - см. Уокер (1985 , стр. 77).
  68. ^ Стиглер (1986 , стр. 76)
  69. ^ Гаусс (1809 , раздел 177)
  70. ^ Гаусс (1809 , раздел 179)
  71. ^ Лаплас (1774 , Задача III)
  72. ^ Пирсон (1905 , стр. 189)
  73. ^ Стиглер (1986 , стр. 144)
  74. ^ Стиглер (1978 , стр. 243)
  75. ^ Стиглер (1978 , стр. 244)
  76. ^ Максвелл (1860 , стр. 23)
  77. ^ Джейнс, Эдвин Дж.; Теория вероятностей: Логика науки , Гл. 7 .
  78. ^ Пирс, Чарльз С. (ок. 1909 г.), Сборник статей, т. 6, параграф 327.
  79. ^ Краскал и Стиглер (1997) .
  80. ^ «Самое раннее использование... (Входная стандартная нормальная кривая)» .
  81. ^ Сунь, Цзинчао; Конг, Майинг; Пал, Субхадип (22 июня 2021 г.). «Модифицированное полунормальное распределение: свойства и эффективная схема выборки» . Коммуникации в статистике – теория и методы . 52 (5): 1591–1613. дои : 10.1080/03610926.2021.1934700 . ISSN   0361-0926 . S2CID   237919587 .

Источники

[ редактировать ]
[ редактировать ]
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 24d03701c9a703a0eb5993e2d6877d81__1720980960
URL1:https://arc.ask3.ru/arc/aa/24/81/24d03701c9a703a0eb5993e2d6877d81.html
Заголовок, (Title) документа по адресу, URL1:
Normal distribution - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)