Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

В теории вероятностей , в нормальном (или гауссовой или Гаусса или Лапласа-Гаусса ) распределение представляет собой тип непрерывного распределения вероятностей для вещественной случайной величины . Общий вид его функции плотности вероятности :

Параметр - это среднее или математическое ожидание распределения (а также его медиана и мода ), а параметр - его стандартное отклонение . [1] дисперсия распределения является . [2] Случайная величина с гауссовым распределением называется нормально распределенной и называется нормальным отклонением .

Нормальные распределения важны в статистике и часто используются в естественных и социальных науках для представления случайных величин с действительными значениями , распределения которых неизвестны. [3] [4] Их важность частично объясняется центральной предельной теоремой . В нем говорится, что при некоторых условиях среднее из многих выборок (наблюдений) случайной величины с конечным средним значением и дисперсией само по себе является случайной величиной, распределение которой сходится к нормальному распределению по мере увеличения числа выборок. Следовательно, физические величины, которые, как ожидается, будут суммой многих независимых процессов, таких как ошибки измерения, часто имеют распределения, которые почти нормальны. [5]

Более того, гауссовские распределения обладают некоторыми уникальными свойствами, которые ценны для аналитических исследований. Например, любая линейная комбинация фиксированного набора нормальных отклонений является нормальным отклонением. Многие результаты и методы, такие как распространение неопределенности и аппроксимация параметров методом наименьших квадратов , могут быть получены аналитически в явной форме, когда соответствующие переменные распределены нормально.

Нормальное распределение иногда неофициально называют кривой колокола . [6] Однако многие другие распределения имеют форму колокола (например, распределение Коши , t Стьюдента и логистические распределения).

Определения [ править ]

Стандартное нормальное распределение [ править ]

Самый простой случай нормального распределения известен как стандартное нормальное распределение . Это особый случай, когда и , и он описывается этой функцией плотности вероятности : [1]

Здесь коэффициент гарантирует, что общая площадь под кривой равна единице. [примечание 1] Фактор в показателе степени гарантирует, что распределение имеет единичную дисперсию (т. е. дисперсию, равную единице), и, следовательно, также единичное стандартное отклонение. Эта функция симметрична относительно точки , где она достигает своего максимального значения и имеет точки перегиба в и .

Авторы расходятся во мнениях относительно того, какое нормальное распределение следует называть "стандартным". Карл Фридрих Гаусс , например, определил стандартную нормаль как имеющую дисперсию . То есть:

С другой стороны, Стивен Стиглер [7] идет еще дальше, определяя стандартную нормаль как имеющую дисперсию :

Общее нормальное распределение [ править ]

Каждое нормальное распределение является версией стандартного нормального распределения, область значений которого была растянута на фактор (стандартное отклонение), а затем переведена на (среднее значение):

Плотность вероятности должна быть увеличена так, чтобы интеграл по-прежнему равнялся 1.

Если это стандартное нормальное отклонение , тогда будет нормальное распределение с ожидаемым значением и стандартным отклонением . Это эквивалентно тому, что "стандартное" нормальное распределение можно масштабировать / растягивать в раз и сдвигать, чтобы получить другое нормальное распределение, называемое . И наоборот, если это нормальное отклонение с параметрами и , то это распределение можно масштабировать и сдвигать с помощью формулы, чтобы преобразовать его в «стандартное» нормальное распределение. Эту разновидность также называют стандартизированной формой .

Обозначение [ править ]

Плотность вероятности стандартного распределения Гаусса (стандартное нормальное распределение с нулевым средним и единичной дисперсией) часто обозначается греческой буквой ( фи ). [8] Альтернативная форма греческой буквы фи, также используется довольно часто. [1]

Нормальное распределение часто называют или . [1] [9] Таким образом, когда случайная величина нормально распределена со средним значением и стандартным отклонением , можно написать

Альтернативные параметризации [ править ]

Некоторые авторы рекомендуют использовать точность в качестве параметра, определяющего ширину распределения, вместо отклонения или дисперсии . Точность обычно определяется как величина, обратная дисперсии . [10] Тогда формула распределения принимает вид

Утверждается, что этот выбор имеет преимущества в численных вычислениях, когда он очень близок к нулю, и упрощает формулы в некоторых контекстах, таких как байесовский вывод переменных с многомерным нормальным распределением .

В качестве альтернативы, величина, обратная стандартному отклонению, может быть определена как точность , и в этом случае выражение нормального распределения становится

По словам Стиглера, такая формулировка выгодна из-за гораздо более простой и легко запоминающейся формулы, а также простых приближенных формул для квантилей распределения.

Нормальные распределения образуют экспоненциальное семейство с природными параметрами и , природной статистикой х и х 2 . Параметры двойного ожидания для нормального распределения: η 1 = μ и η 2 = μ 2 + σ 2 .

Кумулятивная функция распределения [ править ]

Кумулятивная функция распределения (CDF) стандартного нормального распределения, обычно обозначаемой с заглавной греческой буквой ( фи ), [1] является неотъемлемой

Связанная функция ошибок дает вероятность случайной величины с нормальным распределением среднего 0 и дисперсией 1/2, попадающими в диапазон . То есть: [1]

Эти интегралы не могут быть выражены в терминах элементарных функций, и их часто называют специальными функциями . Однако известно много численных приближений; подробнее см. ниже .

Эти две функции тесно связаны, а именно:

Для общего нормального распределения с плотностью , средним значением и отклонением кумулятивная функция распределения имеет вид

Дополнение к стандартному нормальному CDF, часто называют Q-функцией , особенно в технических текстах. [11] [12] Это дает вероятность того, что значение стандартной нормальной случайной переменной будет превышать : . Иногда используются и другие определения -функции, которые представляют собой простые преобразования . [13]

График стандартного нормального КОРА имеет 2-кратную поворотную симметрию вокруг точки (0,1 / 2); то есть . Его первообразная (неопределенный интеграл) может быть выражена следующим образом:

CDF стандартного нормального распределения может быть расширен путем интеграции по частям в ряд:

где обозначает двойной факториал .

Асимптотическое разложение ВПР при больших х также может быть получена с помощью интегрирования по частям. Для получения дополнительной информации см. Функция ошибки # Асимптотическое расширение . [14]


Быстрое приближение к CDF стандартного нормального распределения можно найти с помощью приближения ряда Тейлора:

Стандартное отклонение и охват [ править ]

Для нормального распределения значения менее одного стандартного отклонения от среднего составляют 68,27% от набора; два стандартных отклонения от среднего составляют 95,45%; и три стандартных отклонения составляют 99,73%.

Около 68% значений, взятых из нормального распределения, находятся в пределах одного стандартного отклонения σ от среднего; около 95% значений находятся в пределах двух стандартных отклонений; и около 99,7% находятся в пределах трех стандартных отклонений. [6] Этот факт известен как правило 68-95-99,7 (эмпирическое) или правило трех сигм .

Точнее, вероятность того, что нормальное отклонение находится в диапазоне между и определяется выражением

Для 12 значащих цифр значения : [15]

Для больших можно использовать приближение .

Функция квантиля [ править ]

Функция квантиля из распределения является обратной кумулятивной функцией распределения. Функция квантиля стандартного нормального распределения называется пробит-функцией и может быть выражена через обратную функцию ошибок :

Для нормальной случайной величины со средним значением и дисперсией функция квантиля имеет вид

Квантиль стандартного нормального распределения обычно обозначается как . Эти значения используются при проверке гипотез , построении доверительных интервалов и графиков QQ . Нормальная случайная величина превысит с вероятностью , и будет лежать вне интервала с вероятностью . В частности, квантиль составляет 1,96 ; поэтому нормальная случайная величина будет лежать вне интервала только в 5% случаев.

В следующей таблице приведен такой квантиль , который с заданной вероятностью будет лежать в диапазоне . Эти значения полезны для определения интервала допуска для выборочных средних и других статистических оценок с нормальным (или асимптотически нормальным) распределением: [16] [17] ПРИМЕЧАНИЕ: в следующей таблице показаны значения , отличные от указанных выше.

Для малых функция квантили имеет полезное асимптотическое разложение

Свойства [ править ]

Нормальное распределение - единственное распределение, кумулянты которого за пределами первых двух (т. Е. Кроме среднего и дисперсии ) равны нулю. Это также непрерывное распределение с максимальной энтропией для указанного среднего значения и дисперсии. [18] [19] Гири показал, предполагая, что среднее значение и дисперсия конечны, что нормальное распределение является единственным распределением, в котором среднее и дисперсия, вычисленные из набора независимых выборок, не зависят друг от друга. [20] [21]

Нормальное распределение является подклассом эллиптических распределений . Нормальное распределение симметрично относительно своего среднего значения и не равно нулю по всей действительной прямой. Как таковая, она может не подходить для переменных, которые по своей природе положительны или сильно искажены, таких как вес человека или цена акции . Такие переменные могут быть лучше описаны другими распределениями, такими как логнормальное распределение или распределение Парето .

Значение нормального распределения практически равно нулю, когда значение находится более чем на несколько стандартных отклонений от среднего (например, разброс в три стандартных отклонения покрывает все, кроме 0,27% от общего распределения). Следовательно, эта модель может быть неподходящей, если ожидается значительная часть выбросов - значений, которые лежат на многих стандартных отклонениях от среднего - а метод наименьших квадратов и другие методы статистического вывода , оптимальные для нормально распределенных переменных, часто становятся крайне ненадежными при применении. к таким данным. В таких случаях следует предполагать более тяжелое распределение и применять соответствующие надежные методы статистического вывода .

Гауссово распределение принадлежит к семейству стабильных распределений, которые являются аттракторами сумм независимых одинаково распределенных распределений, независимо от того, конечны ли среднее значение или дисперсия. За исключением гауссова, который является предельным случаем, все стабильные распределения имеют тяжелые хвосты и бесконечную дисперсию. Это один из немногих дистрибутивов, которые стабильны и имеют функции плотности вероятности , которые могут быть выражены аналитически, остальные на распределение Коши и распределение Леви .

Симметрии и производные [ править ]

Нормальное распределение с плотностью (среднее и стандартное отклонение ) имеет следующие свойства:

  • Он симметричен относительно точки, которая одновременно является модой , медианой и средним значением распределения. [22]
  • Он унимодален : его первая производная положительна при отрицательном при и равна нулю только при
  • Площадь под кривой и над осью равна единице (т.е. равна единице).
  • Его первая производная
  • Его плотность имеет две точки перегиба (где вторая производная равна нулю и меняет знак), расположенных на одно стандартное отклонение от среднего, а именно в и [22]
  • Его плотность бревенчато-вогнутая . [22]
  • Его плотность бесконечно дифференцируема , даже сверхгладкая порядка 2. [23]

Кроме того, плотность стандартного нормального распределения (т.е. и ) также имеет следующие свойства:

  • Его первая производная
  • Его вторая производная
  • В более общем смысле , ее п - й производная , где есть п - й (вероятностник) полином Эрмита . [24]
  • Вероятность того, что нормально распределенная переменная с известным и находится в конкретном наборе, может быть рассчитана с использованием того факта, что дробь имеет стандартное нормальное распределение.

Моменты [ править ]

Простой и абсолютный моменты переменной - это ожидаемые значения и , соответственно. Если ожидаемое значение из равно нулю, то эти параметры называются центральными моментами . Обычно нас интересуют только моменты с целым порядком .

Если имеет нормальное распределение, эти моменты существуют и конечны для любого , действительная часть которого больше -1. Для любого неотрицательного целого числа простыми центральными моментами являются: [25]

Здесь обозначает двойной факториал , то есть произведение всех чисел от до 1, имеющих ту же четность, что и

Центральные абсолютные моменты совпадают с простыми моментами для всех четных порядков, но отличны от нуля для нечетных порядков. Для любого неотрицательного целого числа

Последняя формула действительна также для любого нецелого числа, когда среднее значение простого и абсолютного моментов может быть выражено в терминах конфлюэнтных гипергеометрических функций и [ необходима ссылка ]

Эти выражения остаются действительными, даже если не является целым числом. См. Также обобщенные многочлены Эрмита .

Ожидание обусловлено событием, которое находится в интервале , определяется выражением

где и соответственно - плотность и кумулятивная функция распределения . Для этого известно как отношение обратного Миллса . Следует отметить , что выше, плотность от используются вместо стандартной нормальной плотности , как и в обратной пропорции Миллс, поэтому здесь мы имеем вместо .

Преобразование Фурье и характеристическая функция [ править ]

Преобразование Фурье нормальной плотности со средним значением и стандартным отклонением равно [26]

где - мнимая единица . Если среднее значение , первый коэффициент равен 1, а преобразование Фурье, помимо постоянного коэффициента, представляет собой нормальную плотность в частотной области со средним значением 0 и стандартным отклонением . В частности, стандартное нормальное распределение является собственной функцией преобразования Фурье.

В теории вероятностей, преобразование Фурье распределения вероятностей вещественной случайной величины тесно связана с характеристической функции этой переменной, которая определяется как ожидаемое значение в качестве функции действительного переменного (на частотный параметр преобразование Фурье). Это определение может быть аналитически расширено до переменной со сложным значением . [27] Связь между ними такова:

Функции генерации момента и кумулянта [ править ]

Функция создания момента реальной случайной величины - это ожидаемое значение как функция действительного параметра . Для нормального распределения с плотностью , средним значением и отклонением производящая функция момента существует и равна

Функция генерирования кумулянта представляет собой логарифм порождающей функции момента, а именно :

Поскольку это квадратичный многочлен от , только первые два кумулянта отличны от нуля, а именно среднее значение  и дисперсия  .

Оператор и класс Штейна [ править ]

В рамках метода Штейна оператор Штейна и класс случайной величины являются и классом всех абсолютно непрерывных функций .

Предел нулевой дисперсии [ править ]

В пределе, когда стремится к нулю, плотность вероятности в конечном итоге стремится к нулю в любом , но неограниченно растет, если , в то время как ее интеграл остается равным 1. Следовательно, нормальное распределение не может быть определено как обычная функция, когда .

Однако можно определить нормальное распределение с нулевой дисперсией как обобщенную функцию ; в частности, поскольку "дельта-функция" Дирака, переведенная средним значением , то есть ее CDF является тогда ступенчатой ​​функцией Хевисайда, переведенной средним значением , а именно

Максимальная энтропия [ править ]

Из всех распределений вероятностей для вещественных чисел с указанным средним и дисперсией  нормальное распределение - это распределение с максимальной энтропией . [28] Если это непрерывная случайная величина с плотностью вероятности , то энтропия определяется как [29] [30] [31]

где всегда понимается равным нулю . Этот функционал можно максимизировать, при условии, что распределение правильно нормализовано и имеет заданную дисперсию, с помощью вариационного исчисления . Определена функция с двумя множителями Лагранжа :

где пока рассматривается как некоторая функция плотности со средним значением и стандартным отклонением .

При максимальной энтропии небольшое изменение около приведет к изменению около 0:

Так как это должно выполняться для любого малого , член в скобках должен быть равен нулю, а решение для доходности:

Использование уравнений связи для решения и дает плотность нормального распределения:

Энтропия нормального распределения равна


Другие свойства [ править ]

  1. Если характеристическая функция некоторой случайной величины имеет вид , где - многочлен , то теорема Марцинкевича (названная в честь Юзефа Марцинкевича ) утверждает, что она может быть не более чем квадратичным многочленом и, следовательно, является нормальной случайной величиной. [32] Следствием этого результата является то, что нормальное распределение является единственным распределением с конечным числом (двумя) ненулевых кумулянтов .
  2. Если и это совместно нормально и некоррелированы , то они независимы . Требование, что и должны быть вместе нормальными, является существенным; без него собственность не удерживается. [33] [34] [доказательство] Для ненормальных случайных величин некоррелированность не означает независимости.
  3. Кульбак-Либлер дивергенции одного нормального распределения от другого определяется по формуле: [35]

    Расстояние Хеллингера между одинаковыми распределениями равно

  4. Информационная матрица Фишера для нормального распределения диагоналей и имеет вид
  5. Конъюгат до средней величины нормального распределения является еще одним нормальным распределением. [36] В частности, если iid и предшествующее , то апостериорное распределение для оценки будет
  6. Семейство нормальных распределений не только образует экспоненциальное семейство (EF), но фактически образует естественное экспоненциальное семейство (NEF) с квадратичной функцией дисперсии ( NEF-QVF ). Многие свойства нормальных распределений обобщаются на свойства распределений NEF-QVF, распределений NEF или распределений EF в целом. Распределения NEF-QVF состоят из 6 семейств, включая пуассоновское, гамма, биномиальное и отрицательное биномиальное распределение, в то время как многие из общих семейств, изучаемых в области вероятности и статистики, являются NEF или EF.
  7. В информационной геометрии , семейство нормальных распределений образует статистическое многообразие с постоянной кривизной . Это же семейство является плоским относительно (± 1) -связности ∇ и . [37]

Связанные дистрибутивы [ править ]

Центральная предельная теорема [ править ]

По мере увеличения количества дискретных событий функция начинает напоминать нормальное распределение
Сравнение функций плотности вероятности для суммы справедливых 6-сторонних игральных костей, чтобы показать их сходимость к нормальному распределению с увеличением , в соответствии с центральной предельной теоремой. На нижнем правом графике сглаженные профили предыдущих графиков масштабируются, накладываются друг на друга и сравниваются с нормальным распределением (черная кривая).

Центральная предельная теорема утверждает, что при определенных (довольно общих) условиях сумма многих случайных величин будет иметь приблизительно нормальное распределение. В частности, где - независимые и одинаково распределенные случайные величины с одинаковым произвольным распределением, нулевым средним и дисперсией, а их среднее значение масштабируется с помощью

Затем, по мере увеличения, распределение вероятностей будет стремиться к нормальному распределению с нулевым средним и дисперсией .

Теорема может быть распространена на переменные , которые не являются независимыми и / или неодинаково распределенными, если наложены определенные ограничения на степень зависимости и моменты распределений.

Многие тестовые статистические данные , оценки и оценщики, встречающиеся на практике, содержат в себе суммы определенных случайных величин, и даже больше оценщиков могут быть представлены в виде сумм случайных величин с помощью функций влияния . Центральная предельная теорема подразумевает, что эти статистические параметры будут иметь асимптотически нормальные распределения.

Центральная предельная теорема также подразумевает, что некоторые распределения могут быть аппроксимированы нормальным распределением, например:

  • Биномиальное распределение является приблизительно нормальным со средним и дисперсией для больших и не слишком близко к 0 или 1.
  • Распределение Пуассона с параметром приблизительно нормально со средним значением и дисперсией для больших значений . [38]
  • Распределение хи-квадрат примерно нормальное со средним значением и дисперсией для больших .
  • Распределение Стьюдента приблизительно нормально со средним значением 0 и дисперсией 1, когда оно велико.

Достаточно ли точность этих приближений зависит от цели, для которой они нужны, и скорости сходимости к нормальному распределению. Обычно такие приближения менее точны в хвостах распределения.

Общая оценка сверху ошибки приближения в центральной предельной теореме дается теоремой Берри – Эссеена , улучшения приближения даются разложениями Эджворта .

Эту теорему также можно использовать для обоснования моделирования суммы многих однородных источников шума как гауссовского шума. См. AWGN .

Операции и функции обычных переменных [ править ]

a: Плотность вероятности функции нормальной переменной с и . б: плотность вероятности функции двух нормальных переменных и , где , , , , и . C: Тепловая карта совместной плотности вероятности двух функций двух коррелированных нормальных переменных и , где , , , , и . Они вычисляются с помощью численного метода сканирования лучей. [39]

Плотность вероятности , кумулятивное распределение и обратное кумулятивное распределение любой функции одной или нескольких независимых или коррелированных нормальных переменных можно вычислить с помощью численного метода сканирования лучей [39] ( код Matlab ). В следующих разделах мы рассмотрим некоторые частные случаи.

Операции с одной нормальной переменной [ править ]

Если X распределен нормально со средним μ и дисперсией σ 2 , то

  • , для любых действительных чисел и также имеет нормальное распределение, со средним и стандартным отклонением . То есть семейство нормальных распределений замкнуто относительно линейных преобразований.
  • Экспонента X распределена логнормально : e X ~ ln ( N ( μ , σ 2 )) .
  • Абсолютное значение X имеет сложенное нормальное распределение : | X | ~ N f ( μ , σ 2 ) . Если μ = 0, это называется полунормальным распределением .
  • Абсолютное значение нормированных остатков, | X - μ | / σ , имеет распределение хи с одной степенью свободы: | X - μ | / σ ~ .
  • Квадрат X / σ имеет нецентральное распределение хи-квадрат с одной степенью свободы: X 2 / σ 2 ~ ( μ 2 / σ 2 ) . Если μ = 0, распределение называется просто хи-квадрат .
  • Логарифмическая вероятность нормальной переменной - это просто логарифм ее функции плотности вероятности :

Поскольку это масштабированный и сдвинутый квадрат стандартной нормальной переменной, он распределяется как масштабированная и сдвинутая переменная хи-квадрат .

  • Распределение переменной X, ограниченное интервалом [ a , b ], называется усеченным нормальным распределением .
  • ( X - μ ) −2 имеет распределение Леви с положением 0 и масштабом σ −2 .
Операции над двумя независимыми нормальными переменными [ править ]
  • Если и две независимые нормальные случайные величины, с помощью , и стандартные отклонения , , то их сумма также будет нормально распределена, [доказательство] со средним значением и дисперсией .
  • В частности, если и являются независимыми нормальными отклонениями с нулевым средним и дисперсией , то и также являются независимыми и нормально распределенными, с нулевым средним и дисперсией . Это частный случай поляризационного тождества . [40]
  • Если , две независимые нормальные величины с средним и отклонением , и , произвольные действительные числа, то переменная

также нормально распределяется со средним значением и отклонением . Отсюда следует, что нормальное распределение устойчиво (с показателем степени ).

Операции над двумя независимыми стандартными нормальными переменными [ править ]

Если и - две независимые стандартные нормальные случайные величины со средним 0 и дисперсией 1, то

  • Их сумма и разность имеют нормальное распределение с нулевым средним и дисперсией два: .
  • Их произведение следует распределению Произведения [41] с функцией плотности, где - модифицированная функция Бесселя второго рода . Это распределение симметрично относительно нуля, неограниченно при и имеет характеристическую функцию .
  • Их отношение следует стандартное распределение Коши : .
  • Их евклидова норма имеет распределение Рэлея .

Операции с несколькими независимыми нормальными переменными [ править ]

  • Любая линейная комбинация независимых нормальных отклонений является нормальным отклонением.
  • Если являются независимыми стандартными нормальными случайными величинами, то сумма их квадратов имеет распределение хи-квадрат со степенями свободы
  • Если не зависит нормально распределенный случайные величины с помощью и дисперсии , то их выборочные средний не зависит от образца стандартного отклонения , [42] , которая может быть продемонстрирована с использованием теоремы Баса или теоремы Кохрена . [43] Отношение этих двух величин будет иметь t-распределение Стьюдента со степенями свободы:
  • Если , являются независимыми стандартными нормальными случайными величинами, то отношение их нормализованных сумм квадратов будет иметь F-распределение с ( n , m ) степенями свободы: [44]

Операции с несколькими коррелированными нормальными переменными [ править ]

  • Квадратичная форма нормального вектора, т.е. квадратичной функцией нескольких независимых или коррелируют нормальных переменных, является обобщенный критерий хи-квадрат с переменной.

Операции с функцией плотности [ править ]

Нормальное распределение раскола наиболее непосредственно определяются в терминах присоединения масштабируемых секций функций плотности различных нормальных распределений и масштабировании плотности интеграции в один. Усечен нормальное распределение результатов от перемасштабирования сечения функции одной плотности.

Бесконечная делимость и теорема Крамера [ править ]

Для любого положительного целого числа любое нормальное распределение со средним значением и дисперсией является распределением суммы независимых нормальных отклонений, каждое из которых имеет среднее значение и дисперсию . Это свойство называется бесконечной делимостью . [45]

И наоборот, если и являются независимыми случайными величинами и их сумма имеет нормальное распределение, то обе и должны иметь нормальные отклонения. [46]

Этот результат известен как теорема разложения Крамера и эквивалентен утверждению, что свертка двух распределений нормальна тогда и только тогда, когда оба нормальны. Теорема Крамера подразумевает, что линейная комбинация независимых негауссовских переменных никогда не будет иметь точно нормального распределения, хотя она может приближаться к нему сколь угодно близко. [32]

Теорема Бернштейна [ править ]

Теорема утверждает Бернштейн , что если и независимы и и также независимы, то оба X и Y должны обязательно иметь нормальное распределение. [47] [48]

В более общем смысле, если являются независимыми случайными величинами, то две различные линейные комбинации и будут независимыми тогда и только тогда, когда все они нормальны и , где обозначает дисперсию . [47]

Расширения [ править ]

Понятие нормального распределения, являющегося одним из наиболее важных распределений в теории вероятностей, было расширено далеко за пределы стандартных рамок одномерного (то есть одномерного) случая (случай 1). Все эти расширения также называются нормальными или гауссовскими законами, поэтому существует определенная двусмысленность в названиях.

  • Многомерное нормальное распределение описывает гауссов закон в K - мерном евклидовом пространстве . Вектор XR K является многомерный-нормально распределены , если любая линейная комбинация из его компонентов Σk
    j = 1
    a j X j
    имеет (одномерное) нормальное распределение. Дисперсия X является K × K симметричная положительно определенная матрица  V . Многомерное нормальное распределение - это частный случай эллиптических распределений . Таким образом, его локусы изоплотности в случае k = 2 являются эллипсами, а в случае произвольного k - эллипсоидами .
  • Исправленное распределение Гаусса - это исправленная версия нормального распределения со всеми отрицательными элементами, сброшенными на 0
  • Комплексное нормальное распределение имеет дело с комплексными нормальными векторами. Сложное вектор XC к называется нормальным , если обе его реальная и мнимая компоненты совместно обладают 2 K - мерное многомерное нормальное распределение. Ковариационная структура X описывается двумя матрицами: в дисперсии матрицы Г, и отношение матрицы  C .
  • Матричное нормальное распределение описывает случай нормально распределенных матриц.
  • Гауссовские процессы - это нормально распределенные случайные процессы . Их можно рассматривать как элементы некоторого бесконечномерного гильбертова пространства  H и, таким образом, являются аналогами многомерных нормальных векторов для случая k = ∞ . Случайный элемент чН называется нормальной , если для любой константы H скалярного произведения ( , ч ) имеет (однофакторное) нормальное распределение. Структура дисперсии такого гауссовского случайного элемента может быть описана в терминах линейного ковариационного оператора K: H → H . Несколько гауссовских процессов стали достаточно популярными, чтобы иметь свои собственные имена:
    • Броуновское движение ,
    • Броуновский мост ,
    • Процесс Орнштейна – Уленбека .
  • Гауссовское q-распределение - это абстрактная математическая конструкция, которая представляет собой « q-аналог » нормального распределения.
  • д-Gaussian является аналогом распределения гауссовой, в том смысле , что оно максимизирует энтропию Tsallis , и один тип распределения Tsallis . Обратите внимание, что это распределение отличается от гауссовского q-распределения выше.

Случайная величина X имеет нормальное распределение, состоящее из двух частей, если она имеет распределение

где μ - среднее значение, а σ 1 и σ 2 - стандартные отклонения распределения слева и справа от среднего значения соответственно.

Были определены среднее значение, дисперсия и третий центральный момент этого распределения [49]

где E ( X ), V ( X ) и T ( X ) - среднее значение, дисперсия и третий центральный момент соответственно.

Одним из основных практических применений закона Гаусса является моделирование эмпирических распределений многих различных случайных величин, встречающихся на практике. В таком случае возможным расширением было бы более богатое семейство распределений, имеющее более двух параметров и, следовательно, способное более точно соответствовать эмпирическому распределению. Примеры таких расширений:

  • Распределение Пирсона - семейство четырехпараметрических распределений вероятностей, которые расширяют нормальный закон, чтобы включить различные значения асимметрии и эксцесса.
  • Обобщенное нормальное распределение , также известное как экспоненциальное распределение мощности, позволяет хвосты распределения с толще или тоньше асимптотиком.

Статистический вывод [ править ]

Оценка параметров [ править ]

Часто бывает так, что мы не знаем параметров нормального распределения, а вместо этого хотим их оценить . То есть, имея выборку из нормальной генеральной совокупности, мы хотели бы узнать приблизительные значения параметров и . Стандартный подход к этой проблеме - метод максимального правдоподобия , который требует максимизации логарифмической функции правдоподобия :

Взяв производные по и и решив получившуюся систему условий первого порядка, мы получим оценки максимального правдоподобия :

Среднее значение [ править ]

Оценщик называется выборочным средним , так как это среднее арифметическое всех наблюдений. Статистика является полной и достаточной для , и, следовательно, по теореме Лемана – Шеффе , для несмещенной оценки с равномерно минимальной дисперсией (UMVU). [50] В конечных выборках распределяется нормально:

Дисперсия этой оценки равна μμ -элементу обратной информационной матрицы Фишера . Это означает, что оценка эффективна для конечных выборок . Из практическое значение имеет тот факт , что стандартная ошибка из пропорционально , то есть, если кто -то желает уменьшить стандартную ошибку с коэффициентом 10, необходимо увеличить число точек в образце на коэффициент 100. Этот факт широко используется при определении размеров выборки для опросов общественного мнения и количества испытаний при моделировании Монте-Карло .

С точки зрения асимптотической теории , является последовательным , то есть, она сходится по вероятности к а . Оценка также является асимптотически нормальной , что является простым следствием того факта, что она нормальна в конечных выборках:

Пример отклонения [ править ]

Оценщик называется дисперсией выборки , поскольку это дисперсия выборки ( ). На практике часто вместо . Эта другая оценка обозначается и также называется выборочной дисперсией , что представляет определенную двусмысленность в терминологии; его квадратный корень называется стандартным отклонением выборки . Оценка отличается от наличия ( n - 1) вместо  n в знаменателе (так называемая поправка Бесселя ):

Разница между и становится пренебрежимо малой при большом п ' с. Однако в конечных выборках мотивация использования заключается в том, что это несмещенная оценка базового параметра , тогда как она является смещенной. Кроме того, по теореме Лемана – Шеффе оценка является несмещенной с равномерной минимальной дисперсией (UMVU) [50], что делает ее «лучшей» оценкой среди всех несмещенных оценок. Однако можно показать , что смещенная оценка «лучше» , чем в терминах среднеквадратичной ошибки (MSE) критерия. В конечных выборках оба и имеют масштабированное распределение хи-квадрат.с ( n - 1) степенями свободы:

Первое из этих выражений показывает, что дисперсия равна , что немного больше, чем σσ -элемент обратной информационной матрицы Фишера . Таким образом, не является эффективной оценкой для , и, более того, поскольку это UMVU, мы можем сделать вывод, что эффективная оценка с конечной выборкой для не существует.

Применяя асимптотическую теорию, обе оценки и согласованы, то есть они сходятся по вероятности к размеру выборки . Обе оценки также являются асимптотически нормальными:

В частности, обе оценки асимптотически эффективны при .

Доверительные интервалы [ править ]

По теореме Кохрен , для нормальных распределений выборочной средней и выборочная дисперсия s 2 являются независимыми , а это означает , что не может быть никакого выигрыша при рассмотрении их совместного распределения . Существует также обратная теорема: если в выборке среднее значение выборки и дисперсия выборки независимы, тогда выборка должна быть получена из нормального распределения. Независимость между и s может использоваться для построения так называемой t-статистики :

Эта величина t имеет t-распределение Стьюдента с ( n - 1) степенями свободы, и это вспомогательная статистика (не зависящая от значений параметров). Обращение распределения этой t- статистики позволит нам построить доверительный интервал для μ ; [51] аналогично, инвертирование распределения χ 2 статистики s 2 даст нам доверительный интервал для σ 2 : [52]

где t k, p и χ 2
к, п
 
являются р - я квантилей из т - и χ 2 -распределений соответственно. Эти доверительные интервалы имеют уровень достоверности 1 - α , что означает, что истинные значения μ и σ 2 выходят за пределы этих интервалов с вероятностью (или уровнем значимости ) α . На практике люди обычно принимают α = 5% , что дает 95% доверительный интервал. Приближенные формулы на изображении выше были получены из асимптотических распределений и s 2. Приближенные формулы становятся действительными для больших значений n и более удобны для ручного расчета, поскольку стандартные нормальные квантили z α / 2 не зависят от n . В частности, наиболее популярное значение α = 5% приводит к | z 0,025 | = 1,96 .

Тесты нормальности [ править ]

Тесты нормальности оценивают вероятность того, что данный набор данных { x 1 , ..., x n } получен из нормального распределения. Обычно нулевая гипотеза H 0 состоит в том, что наблюдения распределены нормально с неопределенным средним μ и дисперсией σ 2 , в отличие от альтернативы H a, что распределение является произвольным. Для решения этой проблемы было разработано множество тестов (более 40), наиболее известные из них описаны ниже:

Диагностические графики более интуитивно привлекательны, но в то же время субъективны, поскольку они полагаются на неформальное человеческое суждение, чтобы принять или отклонить нулевую гипотезу.

  • График QQ , также известный как график нормальной вероятности или график ранжирования, представляет собой график отсортированных значений из набора данных против ожидаемых значений соответствующих квантилей из стандартного нормального распределения. То есть это график точки вида (Φ −1 ( p k ), x ( k ) ), где точки построения p k равны p k  = ( k  -  α ) / ( n  + 1 - 2 α ) и α - константа настройки, которая может принимать значения от 0 до 1. Если нулевая гипотеза верна, нанесенные на график точки должны приблизительно лежать на прямой линии.
  • График PP - похож на график QQ, но используется гораздо реже. Этот метод состоит в построении точек (Φ ( z ( k ) ), p k ), где . Для нормально распределенных данных этот график должен лежать на линии под углом 45 ° между (0, 0) и (1, 1).

Тесты согласия :

Моментные тесты :

  • К-квадрат Д'Агостино
  • Тест Жарка – Бера
  • Тест Шапиро-Уилка : он основан на том факте, что линия на графике QQ имеет наклон σ . Тест сравнивает оценку этого наклона методом наименьших квадратов со значением выборочной дисперсии и отклоняет нулевую гипотезу, если эти две величины значительно различаются.

Тесты на основе эмпирической функции распределения :

  • Тест Андерсона – Дарлинга
  • Тест Лиллиефорса (адаптация теста Колмогорова – Смирнова )

Байесовский анализ нормального распределения [ править ]

Байесовский анализ нормально распределенных данных осложняется множеством различных возможностей, которые можно рассмотреть:

  • Либо среднее значение, либо дисперсия, либо ни то, ни другое нельзя считать фиксированной величиной.
  • Когда дисперсия неизвестна, анализ может быть выполнен непосредственно с точки зрения дисперсии или с точки зрения точности , обратной дисперсии. Причина, по которой формулы выражаются с точки зрения точности, заключается в том, что анализ большинства случаев упрощается.
  • Необходимо рассматривать как одномерные, так и многомерные случаи.
  • На неизвестные переменные могут быть помещены либо сопряженные, либо неправильные априорные распределения .
  • Дополнительный набор случаев имеет место в байесовской линейной регрессии , где в базовой модели предполагается, что данные имеют нормальное распределение, а нормальные априорные значения помещаются в коэффициенты регрессии . Результирующий анализ аналогичен базовым случаям независимых одинаково распределенных данных.

Формулы для случаев нелинейной регрессии обобщены в сопряженной предыдущей статье.

Сумма двух квадратичных [ править ]

Скалярная форма [ править ]

Следующая вспомогательная формула полезна для упрощения уравнений апостериорного обновления, которые в противном случае становятся довольно утомительными.

Это уравнение переписывает сумму двух квадратов по x , расширяя квадраты, группируя члены по x и завершая квадрат . Обратите внимание на следующие моменты о сложных постоянных факторах, связанных с некоторыми терминами:

  1. Фактор имеет форму взвешенного среднего по у и г .
  2. Это показывает, что этот фактор можно рассматривать как результат ситуации, когда величины, обратные величине a и b, складываются напрямую, поэтому, чтобы объединить сами a и b , необходимо возвращать, складывать и возвращать результат снова, чтобы вернуться в оригинальные единицы. Это именно та операция, которую выполняет среднее гармоническое значение , поэтому неудивительно, что оно составляет половину гармонического среднего значения a и b .
Векторная форма [ править ]

Аналогичная формула может быть записана на сумму два векторных квадратичные: Если х , у , г являются векторами длиной к , а и В являются симметричными , обратимыми матрицами размера , то

куда

Обратите внимание, что форма xA x называется квадратичной формой и является скаляром :

Другими словами, он суммирует все возможные комбинации произведений пар элементов из x с отдельным коэффициентом для каждого. Кроме того, поскольку для любых недиагональных элементов A имеет значение только сумма , и можно без потери общности предположить, что A является симметричным . Кроме того, если A симметрична, то форма

Сумма отличий от среднего [ править ]

Еще одна полезная формула выглядит следующим образом:

куда

С известной дисперсией [ править ]

Для набора iid нормально распределенных точек данных X размера n, где каждая отдельная точка x следует с известной дисперсией σ 2 , сопряженное предварительное распределение также нормально распределено.

Это можно легче показать, переписав дисперсию как точность , т. Е. Используя τ = 1 / σ 2 . Тогда если и поступим следующим образом.

Во-первых, функция правдоподобия (используя приведенную выше формулу для суммы отличий от среднего):

Затем действуем следующим образом:

В приведенном выше выводе мы использовали приведенную выше формулу для суммы двух квадратичных величин и исключили все постоянные множители, не включающие  μ . Результатом является ядро нормального распределения со средним значением и точностью , т. Е.

Это может быть записано в виде набора уравнений байесовского обновления для апостериорных параметров в терминах априорных параметров:

То есть, чтобы объединить n точек данных с общей точностью (или, что эквивалентно, с общей дисперсией n / σ 2 ) и средним значением , получить новую общую точность, просто добавив общую точность данных к предыдущей общей точности, и сформировать новое среднее значение с помощью взвешенного с высокой точностью среднего , т. е. средневзвешенногосреднего значения данных и предыдущего среднего, каждое из которых взвешено по соответствующей общей точности. Это имеет логический смысл, если считается, что точность указывает на достоверность наблюдений: в распределении апостериорного среднего каждый из входных компонентов взвешивается по своей достоверности, а достоверность этого распределения является суммой индивидуальных достоверностей. . (Чтобы понять это, сравните выражение «целое больше (или нет) суммы его частей». Кроме того, учтите, что знание апостериорного происходит из комбинации знания априорного и вероятностного , поэтому имеет смысл, что мы более уверены в нем, чем в любом из его компонентов.)

Выше формула показывает , почему это более удобно делать байесовский анализ из сопряженных априорий для нормального распределения с точкой зрения точности. Апостериорная точность - это просто сумма априорной точности и вероятности, а апостериорное среднее вычисляется посредством взвешенного с точностью до среднего, как описано выше. Те же формулы могут быть записаны в терминах дисперсии, взаимно меняя все точности, давая более уродливые формулы

С известным средним значением [ править ]

Для набора IID нормально распределенной точек данных X размера п , где каждая отдельная точка х следует с известным средним ц, то сопряженная до из дисперсии имеет гамма - распределение обратной или ее масштабируется обратного распределения хи-квадрат . Они эквивалентны, за исключением того, что имеют разные параметризации . Хотя чаще используется обратная гамма, для удобства мы используем масштабированный обратный хи-квадрат. Априор для σ 2 выглядит следующим образом:

Функция правдоподобия сверху, записанная в терминах дисперсии, имеет следующий вид:

куда

Потом:

Вышеупомянутое также является масштабированным обратным распределением хи-квадрат, где

или эквивалентно

Повторная параметризация с точки зрения обратного гамма-распределения дает следующий результат:

С неизвестным средним значением и неизвестной дисперсией [ править ]

Для набора iid нормально распределенных точек данных X размера n, где каждая отдельная точка x следует с неизвестным средним μ и неизвестной дисперсией σ 2 , комбинированное (многомерное) сопряженное предварительное значение помещается над средним и дисперсией, состоящее из нормального-обратного -гамма-распределение . Логически это происходит следующим образом:

  1. Из анализа случая с неизвестным средним, но известной дисперсией, мы видим, что уравнения обновления включают в себя достаточную статистику, вычисленную из данных, состоящих из среднего значения точек данных и общей дисперсии точек данных, вычисленной, в свою очередь, из известной дисперсии. деленное на количество точек данных.
  2. Из анализа случая с неизвестной дисперсией, но известным средним, мы видим, что уравнения обновления включают достаточную статистику по данным, состоящим из количества точек данных и суммы квадратов отклонений .
  3. Имейте в виду, что значения апостериорного обновления служат в качестве предварительного распределения при обработке дальнейших данных. Таким образом, мы должны логически думать о наших априорных значениях в терминах только что описанной достаточной статистики с максимально возможной сохранением той же семантики.
  4. Чтобы справиться со случаем, когда и среднее, и дисперсия неизвестны, мы могли бы разместить независимые априорные значения над средним и дисперсией с фиксированными оценками среднего среднего, общей дисперсии, количеством точек данных, используемых для вычисления априорной дисперсии, и суммой квадратов отклонений. . Обратите внимание, однако, что на самом деле общая дисперсия среднего зависит от неизвестной дисперсии, а сумма квадратов отклонений, которые входят в дисперсию до (кажется), зависит от неизвестного среднего. На практике последняя зависимость относительно не важна: сдвиг фактического среднего сдвигает сгенерированные точки на равную величину, и в среднем квадраты отклонений останутся прежними. Однако это не относится к общей дисперсии среднего: по мере увеличения неизвестной дисперсии общая дисперсия среднего будет пропорционально увеличиваться,и мы хотели бы зафиксировать эту зависимость.
  5. Это говорит о том, что мы создаем условную априорность среднего для неизвестной дисперсии с гиперпараметром, определяющим среднее значение псевдонаблюдений.связанный с предыдущим, и другой параметр, определяющий количество псевдонаблюдений. Это число служит параметром масштабирования дисперсии, позволяя контролировать общую дисперсию среднего значения относительно фактического параметра дисперсии. Априор для дисперсии также имеет два гиперпараметра, один из которых определяет сумму квадратов отклонений псевдонаблюдений, связанных с априорными наблюдениями, а другой, опять же, указывает количество псевдонаблюдений. Обратите внимание, что каждый из априорных значений имеет гиперпараметр, определяющий количество псевдонаблюдений, и в каждом случае это контролирует относительную дисперсию этого априорного значения. Они представлены как два отдельных гиперпараметра, так что дисперсию (также известную как достоверность) двух априорных значений можно контролировать отдельно.
  6. Это немедленно приводит к нормальному-обратному-гамма-распределению , которое является продуктом двух только что определенных распределений с использованием сопряженных априорных значений ( обратное гамма-распределение по дисперсии и нормальное распределение по среднему, обусловленное дисперсией) и с теми же четырьмя только что определенными параметрами.

Приоры обычно определяются следующим образом:

Уравнения обновления могут быть выведены и выглядеть следующим образом:

Соответствующие количества псевдонаблюдений добавляют к ним количество фактических наблюдений. Новый средний гиперпараметр снова является средневзвешенным, на этот раз взвешенным по относительному количеству наблюдений. Наконец, обновление для аналогично случаю с известным средним, но в этом случае сумма квадратов отклонений берется по отношению к среднему значению наблюдаемых данных, а не истинному среднему, и в результате требуется новый «член взаимодействия». быть добавленным, чтобы позаботиться о дополнительном источнике ошибок, возникающем из-за отклонения между предыдущим и средним значением данных.

[Доказательство]

Предыдущие распределения

Следовательно, совместный приор

Функция правдоподобия из приведенного выше раздела с известной дисперсией:

Записывая это в терминах дисперсии, а не точности, мы получаем:

куда

Следовательно, апостериорная (исключение гиперпараметров как обусловливающих факторов):

Другими словами, апостериорное распределение имеет форму произведения нормального распределения по p ( μ  |  σ 2 ) на обратное гамма-распределение по p2 ) с параметрами, такими же, как приведенные выше уравнения обновления.

Возникновение и применение [ править ]

Возникновение нормального распределения в практических задачах можно условно разделить на четыре категории:

  1. Точно нормальные распределения;
  2. Приблизительно нормальные законы, например, когда такое приближение оправдано центральной предельной теоремой ; и
  3. Распределения смоделированы как нормальные - нормальное распределение - это распределение с максимальной энтропией для данного среднего значения и дисперсии.
  4. Проблемы регрессии - нормальное распределение находится после достаточно хорошего моделирования систематических эффектов.

Точная нормальность [ править ]

Основное состояние квантового гармонического осциллятора имеет гауссово распределение .

Некоторые величины в физике распределены нормально, как впервые продемонстрировал Джеймс Клерк Максвелл . Примеры таких количеств:

  • Функция плотности вероятности основного состояния в квантовом гармоническом осцилляторе .
  • Положение частицы, которая испытывает диффузию . Если изначально частица находится в определенной точке (то есть ее распределение вероятностей является дельта-функцией Дирака ), то после времени t ее местоположение описывается нормальным распределением с дисперсией t , которое удовлетворяет уравнению диффузии  . Если начальное местоположение задается некоторой функцией плотности , то плотность в момент времени т является сверткой из г и нормальный PDF.

Приблизительная нормальность [ править ]

Приблизительно нормальные распределения встречаются во многих ситуациях, как это объясняется центральной предельной теоремой . Когда результатом является множество небольших эффектов, действующих аддитивно и независимо , его распределение будет близко к нормальному. Нормальное приближение будет недействительным, если эффекты действуют мультипликативно (а не аддитивно) или если существует единичное внешнее влияние, которое имеет значительно большую величину, чем остальные эффекты.

  • В задачах подсчета, где центральная предельная теорема включает приближение от дискретного к континуальному и где участвуют бесконечно делимые и разложимые распределения, такие как
    • Биномиальные случайные величины , связанные с переменными двоичного ответа;
    • Случайные величины Пуассона , связанные с редкими событиями;
  • Тепловое излучение имеет распределение Бозе – Эйнштейна на очень коротких временных масштабах и нормальное распределение на более длительных временных масштабах в соответствии с центральной предельной теоремой.

Предполагаемая нормальность [ править ]

Гистограмма ширины чашелистиков для Iris versicolor из набора данных о цветках Fisher's Iris с наложенным наиболее подходящим нормальным распределением.

Я могу признать появление нормальной кривой - кривой ошибок Лапласа - очень ненормальным явлением. В некоторых дистрибутивах он приблизительно равен; по этой причине и из-за его прекрасной простоты мы, вероятно, можем использовать его в качестве первого приближения, особенно в теоретических исследованиях.

-  Пирсон (1901)

Существуют статистические методы для эмпирической проверки этого предположения, см. Выше раздел « Проверка нормальности ».

  • В биологии , то логарифм различных переменных , как правило, имеют нормальное распределение, то есть, они , как правило, имеют логарифмически нормальное распределение (после разделения на мужских / женских субпопуляций), с примерами в том числе:
    • Меры размера живой ткани (длина, рост, площадь кожи, вес); [53]
    • Длина из инертных придатки (волосы, когти, ногти, зубы) биологических образцов, в направлении роста ; предположительно толщина коры дерева также попадает в эту категорию;
    • Определенные физиологические измерения, такие как артериальное давление у взрослых людей.
  • В финансах, в частности в модели Блэка – Шоулза , изменения логарифма обменных курсов, индексов цен и индексов фондового рынка считаются нормальными (эти переменные ведут себя как сложные проценты , а не как простые проценты, и поэтому являются мультипликативными). Некоторые математики , такие как Бенуа Мандельброт утверждал , что лог-Леви распределения , который обладает тяжелыми хвостами бы более подходящей моделью, в частности , для анализа на фондовом рынке аварий . Использование предположения о нормальном распределении в финансовых моделях также подвергалось критике со стороны Нассима Николаса Талеба в его работах.
  • Ошибки измерения в физических экспериментах часто моделируются нормальным распределением. Такое использование нормального распределения не означает, что предполагается, что ошибки измерения имеют нормальное распределение, скорее, использование нормального распределения дает наиболее консервативные прогнозы из возможных, учитывая только знание о среднем значении и дисперсии ошибок. [54]
  • В стандартизированном тестировании результаты могут иметь нормальное распределение, либо путем выбора количества и сложности вопросов (как в тесте IQ ), либо путем преобразования исходных результатов теста в «выходные» баллы путем подгонки их к нормальному распределению. Например, традиционный диапазон SAT 200–800 основан на нормальном распределении со средним значением 500 и стандартным отклонением 100.
Подгонка кумулятивного нормального распределения к осадкам в октябре, см. Подбор распределения
  • Многие оценки выводятся из нормального распределения, включая процентильные ранги («процентили» или «квантили»), эквиваленты нормальной кривой , станины , z-значения и T-баллы. Кроме того, некоторые поведенческие статистические процедуры предполагают, что баллы распределяются нормально; например, t-тесты и ANOVA . Классификация по кривой колокольчика присваивает относительные оценки на основе нормального распределения баллов.
  • В гидрологии распределение долгосрочного речного стока или осадков, например, месячных и годовых сумм, часто считается практически нормальным в соответствии с центральной предельной теоремой . [55] Синяя картинка, сделанная с помощью CumFreq , иллюстрирует пример подгонки нормального распределения к ранжированным дождевым осадкам в октябре, показывающим пояс уверенности 90% на основе биномиального распределения . Данные об осадках представлены в виде графиков позиций как часть кумулятивного частотного анализа .

Вычислительные методы [ править ]

Генерация значений из нормального распределения [ править ]

Фасоли машину , устройство изобретено Фрэнсис Гальтон , можно назвать первым генератором нормальных случайных величин. Эта машина состоит из вертикальной доски с чередующимися рядами штырей. Маленькие шарики падают сверху, а затем случайным образом отскакивают влево или вправо, ударяясь о кегли. Шары собираются в бункеры внизу и располагаются в виде узора, напоминающего кривую Гаусса.

В компьютерном моделировании, особенно в приложениях метода Монте-Карло , часто желательно генерировать значения с нормальным распределением. Все перечисленные ниже алгоритмы генерируют стандартные нормальные отклонения, поскольку N ( μ, σ2
)
может быть сгенерировано как X = μ + σZ , где Z - стандартная нормаль. Все эти алгоритмы полагаются на наличие генератора случайных чисел U, способного генерировать однородные случайные величины.

  • Самый простой метод основан на свойстве интегрального преобразования вероятностей : если U распределен равномерно на (0,1), то Φ −1 ( U ) будет иметь стандартное нормальное распределение. Недостатком этого метода является то, что он основан на вычислении пробит-функции Φ −1 , что не может быть выполнено аналитически. Некоторые приблизительные методы описаны в Hart (1968) и в статье erf . Вичура дает быстрый алгоритм вычисления этой функции с точностью до 16 знаков после запятой [56], который используется R для вычисления случайных величин нормального распределения.
  • Простой в программировании приближенный подход, основанный на центральной предельной теореме , заключается в следующем: сгенерируйте 12 однородных отклонений U (0,1), сложите их все и вычтите 6 - получившаяся случайная величина будет иметь приблизительно стандартное нормальное распределение. По правде говоря, это распределение будет Ирвина – Холла , которое представляет собой 12-секционное полиномиальное приближение одиннадцатого порядка к нормальному распределению. Это случайное отклонение будет иметь ограниченный диапазон (−6, 6). [57]
  • В методе Бокса – Мюллера используются два независимых случайных числа U и V, равномерно распределенных на (0,1). Тогда две случайные величины X и Y
оба будут иметь стандартное нормальное распределение и будут независимыми . Эта формулировка возникает потому, что для двумерного нормального случайного вектора ( X , Y ) квадрат нормы X 2 + Y 2 будет иметь распределение хи-квадрат с двумя степенями свободы, которое является легко генерируемой экспоненциальной случайной величиной, соответствующей величине −2ln ( U ) в этих уравнениях; и угол распределяется равномерно по кругу, выбранный случайной величины V .
  • Полярный метод Marsaglia является модификацией метода Бокса-Мюллера , который не требует вычисления синуса и косинуса. В этом методе U и V извлекаются из равномерного (-1,1) распределения, а затем вычисляется S = U 2 + V 2 . Если S больше или равно 1, то метод начинается заново, в противном случае две величины
возвращаются. Опять же, X и Y - независимые стандартные нормальные случайные величины.
  • Метод отношения [58] является методом отклонения. Алгоритм работает следующим образом:
    • Создайте два независимых равномерных отклонения U и V ;
    • Вычислить X = 8 / e ( V - 0,5) / U ;
    • Необязательно: если X 2 ≤ 5 - 4 e 1/4 U, тогда принять X и завершить алгоритм;
    • Необязательно: если X 2 ≥ 4 e −1,35 / U + 1,4, тогда отклонить X и начать с шага 1;
    • Если X 2 ≤ −4 ln U, тогда примите X , в противном случае начните алгоритм заново.
Два необязательных шага позволяют в большинстве случаев избежать вычисления логарифма на последнем шаге. Эти шаги можно значительно улучшить [59], так что логарифм редко вычисляется.
  • Алгоритм зиккурат [60] быстрее , чем преобразование Бокса-Мюллера и до сих пор точно. Примерно в 97% всех случаев он использует только два случайных числа, одно случайное целое и одно случайное равномерное, одно умножение и if-тест. Только в 3% случаев, когда комбинация этих двух выходит за пределы «ядра зиккурата» (разновидность выборки отклонения с использованием логарифмов), необходимо использовать экспоненты и более однородные случайные числа.
  • Целочисленную арифметику можно использовать для выборки из стандартного нормального распределения. [61] Этот метод точен в том смысле, что он удовлетворяет условиям идеального приближения ; [62] т.е. это эквивалентно выборке действительного числа из стандартного нормального распределения и округлению его до ближайшего представимого числа с плавающей запятой.
  • Также проводится некоторое исследование [63] связи между быстрым преобразованием Адамара и нормальным распределением, так как преобразование использует только сложение и вычитание, и по центральной предельной теореме случайные числа из почти любого распределения будут преобразованы в нормальное распределение. В этом отношении серию преобразований Адамара можно комбинировать со случайными перестановками, чтобы превратить произвольные наборы данных в нормально распределенные данные.

Численные приближения для нормального CDF и нормальной функции квантиля [ править ]

Стандартный нормальный CDF широко используется в научных и статистических вычислениях.

Значения Φ ( x ) могут быть очень точно аппроксимированы различными методами, такими как численное интегрирование , ряды Тейлора , асимптотические ряды и непрерывные дроби . В зависимости от желаемого уровня точности используются разные приближения.

  • Зелен и Северо (1964) дают приближение для Φ ( x ) для x> 0 с абсолютной ошибкой | ε ( x ) | <7,5 · 10 −8 (алгоритм 26.2.17 ):
    где ϕ ( x ) - стандартная нормальная PDF, а b 0 = 0,2316419, b 1 = 0,319381530, b 2 = −0,356563782, b 3 = 1,781477937, b 4 = −1,821255978, b 5 = 1,330274429.
  • Харт (1968) перечисляет несколько десятков приближений - с помощью рациональных функций, с экспонентами или без них - для функции erfc () . Его алгоритмы различаются по степени сложности и получаемой точности с максимальной абсолютной точностью до 24 цифр. Алгоритм Уэста (2009) объединяет алгоритм 5666 Харта с приближением непрерывной дроби в хвосте, чтобы обеспечить алгоритм быстрых вычислений с точностью до 16 цифр.
  • Коди (1969), вспомнив, что решение Hart68 не подходит для erf, дает решение как для erf, так и для erfc с максимальной относительной погрешностью с помощью рационального приближения Чебышева .
  • Марсаглия (2004) предложил простой алгоритм [примечание 2], основанный на разложении в ряд Тейлора.
    для вычисления Φ ( x ) с произвольной точностью. Недостатком этого алгоритма является сравнительно медленное время вычисления (например, требуется более 300 итераций для вычисления функции с точностью до 16 знаков при x = 10 ).
  • GNU Scientific Library вычисляет значения стандартного нормального КОРА , используя алгоритмы и приближение Харта с полиномами Чебышева .

Шор (1982) ввел простые аппроксимации, которые могут быть включены в модели стохастической оптимизации инженерных и операционных исследований, такие как проектирование надежности и анализ запасов. Обозначая p = Φ (z), самое простое приближение для функции квантиля:

Это приближение обеспечивает для z максимальную абсолютную ошибку 0,026 (для 0,5 ≤  p  ≤ 0,9999, что соответствует 0 ≤  z  ≤ 3,719). Если p  <1/2, замените p на 1 -  p и измените знак. Другое приближение, несколько менее точное, - это однопараметрическое приближение:

Последний служил для получения простой аппроксимации интеграла потерь нормального распределения, определяемого формулой

Это приближение особенно точно для правого дальнего хвоста (максимальная ошибка 10 −3 для z≥1,4). Высокоточные приближения для CDF, основанные на методологии моделирования отклика (RMM, Shore, 2011, 2012), показаны в Shore (2005).

Еще несколько приближений можно найти по адресу: Функция ошибок # Приближение с элементарными функциями . В частности, небольшая относительная ошибка во всей области для CDF, а также для функции квантиля достигается с помощью явно обратимой формулы Сергея Виницкого в 2008 году.

История [ править ]

Развитие [ править ]

Некоторые авторы [64] [65] приписывают открытие нормального распределения де Муавру , который в 1738 г. [примечание 3] опубликовал во втором издании своей « Доктрины шансов » исследование коэффициентов в биноме. расширение из ( + б ) п . Муавр доказал , что средний термин в этом разложении имеет приблизительную величину , и что «если м или ½ п быть некоторое количество бесконечно велики, то логарифм отношения, которым срок отстоит от середины отрезка л , имеют к среднему сроку,. " [66] Хотя эту теорему можно интерпретировать как первое неясное выражение нормального вероятностного закона, Стиглер указывает, что сам де Муавр не интерпретировал свои результаты как нечто большее, чем приближенное правило для биномиальных коэффициентов, и в частности de Муавру не хватало концепции функции плотности вероятности [67].

Карл Фридрих Гаусс открыл нормальное распределение в 1809 году как способ рационализировать метод наименьших квадратов .

В 1809 году Гаусс опубликовал свою монографию « Theoria motus corporum coelestium in sectionibus conicis solem ambientium », где, среди прочего, он вводит несколько важных статистических концепций, таких как метод наименьших квадратов , метод максимального правдоподобия и нормальное распределение . Гаусс использовал M , M , M ′ ′, ... для обозначения измерений некоторой неизвестной величины  V и искал «наиболее вероятную» оценку этой величины: ту, которая максимизирует вероятность φ ( M  -  V) · Φ ( M ′  -  V ) · φ ( M ′ ′ -  V ) · ... получения наблюдаемых экспериментальных результатов. В его обозначениях φΔ - это вероятностный закон ошибки измерения величины Δ. Не зная, что такое функция φ , Гаусс требует, чтобы его метод сводился к хорошо известному ответу: среднему арифметическому измеренных значений. [примечание 4] Исходя из этих принципов, Гаусс демонстрирует, что единственный закон, который рационализирует выбор среднего арифметического в качестве оценки параметра местоположения, - это нормальный закон ошибок: [68]

где h - «мера точности наблюдений». Используя этот нормальный закон в качестве общей модели ошибок в экспериментах, Гаусс формулирует то, что теперь известно как метод нелинейных взвешенных наименьших квадратов (NWLS). [69]

Пьер-Симон Лаплас доказал центральную предельную теорему в 1810 году, закрепив важность нормального распределения в статистике.

Хотя Гаусс был первым, кто предложил закон нормального распределения, Лаплас внес существенный вклад. [примечание 5] Именно Лаплас первым поставил задачу объединения нескольких наблюдений в 1774 г. [70], хотя его собственное решение привело к распределению Лапласа . Это был Лаплас , который первый вычислил значение из интеграла ∫ е - т 2  дт = √ л в 1782 году, обеспечивая постоянные нормализации для нормального распределения. [71] Наконец, именно Лаплас в 1810 году доказал и представил Академии фундаментальную центральную предельную теорему., что подчеркивает теоретическую важность нормального распределения. [72]

Интересно отметить, что в 1809 году ирландский математик Адрейн опубликовал два вывода нормального вероятностного закона одновременно и независимо от Гаусса. [73] Его работы оставались в значительной степени незамеченными научным сообществом, пока в 1871 году они не были «заново открыты» Аббе . [74]

В середине XIX века Максвелл продемонстрировал, что нормальное распределение - это не только удобный математический инструмент, но также может иметь место в природных явлениях: [75] «Число частиц, скорость которых при разрешении в определенном направлении лежит между x и x  +  dx - это

Именование [ править ]

С момента своего появления нормальное распределение было известно под множеством разных названий: закон ошибки, закон легкости ошибок, второй закон Лапласа, закон Гаусса и т. Д. Сам Гаусс, по-видимому, ввел термин со ссылкой на «нормальные уравнения» участвуют в его приложениях, причем нормальный имеет свое техническое значение ортогонального, а не «обычного». [76] Однако к концу 19 века некоторые авторы [примечание 6] начали использовать название нормальное распределение., где слово «нормальный» использовалось как прилагательное - термин теперь рассматривается как отражение того факта, что это распределение считалось типичным, обычным - и, следовательно, «нормальным». Пирса (один из этих авторов) однажды определил «нормальный» , таким образом:»...„нормальный“не средний (или любой другой вид среднего) , что на самом деле происходит, но что бы , в конечном счете, происходит при определенных обстоятельствах ". [77] Примерно на рубеже 20-го века Пирсон популяризировал термин « нормальный» как обозначение этого распределения. [78]

Много лет назад я назвал кривую Лапласа – Гаусса нормальной кривой, что, хотя и позволяет избежать международного вопроса о приоритете, имеет тот недостаток, что заставляет людей поверить в то, что все другие распределения частот в том или ином смысле являются «ненормальными».

-  Пирсон (1920)

Кроме того, именно Пирсон первым написал распределение в терминах стандартного отклонения σ в современных обозначениях. Вскоре после этого, в 1915 году, Фишер добавил параметр местоположения к формуле нормального распределения, выразив его так, как это пишется сейчас:

Термин «стандартное нормальное», обозначающий нормальное распределение с нулевым средним и единичной дисперсией, вошел в широкое употребление примерно в 1950-х годах, появившись в популярных учебниках П.Г. Хоэля (1947) « Введение в математическую статистику » и AM Mood (1950) ». Введение в теорию статистики ». [79]

См. Также [ править ]

  • Распределение Бейтса - аналогично распределению Ирвина – Холла, но с масштабированием обратно в диапазон от 0 до 1
  • Проблема Беренса – Фишера - давняя проблема проверки того, имеют ли две нормальные выборки с разными дисперсиями одинаковые средние значения;
  • Расстояние Бхаттачарьи - метод, используемый для разделения смесей нормальных распределений
  • Теорема Эрдеша – Каца о возникновении нормального распределения в теории чисел.
  • Размытие по Гауссу - свертка , в которой в качестве ядра используется нормальное распределение
  • Нормально распределенный и некоррелированный не означает независимого
  • Взаимное нормальное распределение
  • Соотношение нормальное распределение
  • Стандартный нормальный стол
  • Лемма Штейна
  • Субгауссово распределение
  • Сумма нормально распределенных случайных величин
  • Распределение Твиди - нормальное распределение является членом семейства моделей экспоненциальной дисперсии Твиди.
  • Обернутое нормальное распределение - нормальное распределение, примененное к круговой области
  • Z-тест - с использованием нормального распределения

Примечания [ править ]

  1. ^ Для доказательства см. Гауссовский интеграл .
  2. ^ Например, этот алгоритм приведен в статье язык программирования Bc .
  3. Де Муавр впервые опубликовал свои открытия в 1733 году в брошюре «Approximatio ad Summam Terminorum Binomii ( a + b ) n in Seriem Expansi», предназначенной только для частного обращения. Но только в 1738 году он сделал свои результаты общедоступными. Оригинальная брошюра переиздавалась несколько раз, см., Например, Walker (1985) .
  4. ^ «Было принято считать аксиомой гипотезу о том, что если какая-либо величина была определена несколькими прямыми наблюдениями, сделанными при одних и тех же обстоятельствах и с одинаковой тщательностью, то среднее арифметическое наблюдаемых значений дает наиболее вероятное значение, если не строго, но по крайней мере почти так, чтобы всегда было наиболее безопасно придерживаться его ". - Гаусс (1809 , раздел 177)
  5. ^ "Мой обычай называть эту кривую кривой Гаусса-Лапласа или нормальной кривой избавляет нас отразделениядостоинств открытия между двумя великими астрономами-математиками". цитата из Пирсона (1905 , с. 189)
  6. ^ Помимо специально упомянутых здесь, такое использование встречается в работах Пирса , Гальтона ( Galton (1889 , глава V)) и Lexis ( Lexis (1878) , Rohrbasser & Véron (2003) ) c. 1875. [ необходима цитата ]

Ссылки [ править ]

Цитаты [ править ]

  1. ^ a b c d e f "Список вероятностных и статистических символов" . Математическое хранилище . 26 апреля 2020 . Проверено 15 августа 2020 года .
  2. ^ Вайсштейн, Эрик В. «Нормальное распределение» . mathworld.wolfram.com . Проверено 15 августа 2020 года .
  3. ^ Нормальное распространение , Энциклопедия психологии Гейла
  4. Casella & Berger (2001 , стр.102)
  5. Перейти ↑ Lyon, A. (2014). Почему нормальные распределения нормальны? , Британский журнал философии науки.
  6. ^ a b «Нормальное распределение» . www.mathsisfun.com . Проверено 15 августа 2020 года .
  7. Стиглер (1982)
  8. Halperin, Hartley & Hoel (1965 , пункт 7)
  9. McPherson (1990 , стр.110)
  10. Бернардо и Смит (2000 , стр.121)
  11. ^ Скотт, Клейтон; Новак, Роберт (7 августа 2003 г.). «Q-функция» . Связи .
  12. Барак, Охад (6 апреля 2006 г.). «Функция Q и функция ошибок» (PDF) . Тель-Авивский университет. Архивировано из оригинального (PDF) 25 марта 2009 года.
  13. ^ Вайсштейн, Эрик В. «Нормальная функция распределения» . MathWorld .
  14. ^ Абрамовиц, Милтон ; Стегун, Ирен Энн , ред. (1983) [июнь 1964]. «Глава 26, уравнение 26.2.12» . Справочник по математическим функциям с формулами, графиками и математическими таблицами . Прикладная математика. 55 (Девятое переиздание с дополнительными исправлениями, десятое оригинальное издание с исправлениями (декабрь 1972 г.); первое изд.). Вашингтон, округ Колумбия; Нью-Йорк: Министерство торговли США, Национальное бюро стандартов; Dover Publications. п. 932. ISBN 978-0-486-61272-0. LCCN  64-60036 . Руководство по ремонту  0167642 . LCCN  65-12253 .
  15. ^ "Вольфрам | Альфа: вычислительная машина знаний" . Wolframalpha.com . Проверено 3 марта 2017 года .
  16. ^ "Вольфрам | Альфа: вычислительная машина знаний" . Wolframalpha.com .
  17. ^ "Вольфрам | Альфа: вычислительная машина знаний" . Wolframalpha.com . Проверено 3 марта 2017 года .
  18. ^ Обложка, Томас М .; Томас, Джой А. (2006). Элементы теории информации . Джон Уайли и сыновья. п. 254 .
  19. ^ Park, Sung Y .; Бера, Анил К. (2009). "Модель условной гетероскедастичности авторегрессии максимальной энтропии" (PDF) . Журнал эконометрики . 150 (2): 219–230. CiteSeerX 10.1.1.511.9750 . DOI : 10.1016 / j.jeconom.2008.12.014 . Архивировано из оригинального (PDF) 7 марта 2016 года . Проверено 2 июня 2011 года .  
  20. Geary RC (1936) Распределение коэффициента «Стьюдента» для ненормальных выборок ». Приложение к Журналу Королевского статистического общества 3 (2): 178–184
  21. Лукач, Евгений (март 1942 г.). «Характеристика нормального распределения». Анналы математической статистики . 13 (1): 91–93. DOI : 10.1214 / АОМ / 1177731647 . ISSN 0003-4851 . JSTOR 2236166 . MR 0006626 . Zbl 0060.28509 . Викиданные Q55897617 .     
  22. ^ a b c Патель и Рид (1996 , [2.1.4])
  23. Fan (1991 , стр. 1258)
  24. Patel & Read (1996 , [2.1.8])
  25. ^ Папулиса, Афанасий. Вероятность, случайные величины и случайные процессы (4-е изд.). п. 148.
  26. ^ БРИКа (1995 , стр. 23)
  27. ^ БРИКа (1995 , стр. 24)
  28. Обложка и Томас (2006 , с. 254)
  29. ^ Уильямс, Дэвид (2001). Взвешивание шансов: курс вероятности и статистики (перепечатано. Ред.). Кембридж [ua]: Cambridge Univ. Нажмите. стр.  197 -199. ISBN 978-0-521-00618-7.
  30. ^ Смит, Хосе М. Бернардо; Адриан FM (2000). Байесовская теория (Переиздание ред.). Чичестер [ua]: Уайли. стр.  209 , 366. ISBN 978-0-471-49464-5.
  31. ^ О'Хаган, A. (1994) Кендалла Современная теория статистики, Vol 2B, байесовский Умозаключение , Эдвард Арнольд. ISBN 0-340-52922-9 (Раздел 5.40) 
  32. ^ Б БРИКа (1995 , стр. 35)
  33. ^ UIUC, Лекция 21. Многомерное нормальное распределение , 21.6: «Индивидуально гауссовский против совместно гауссовского».
  34. ^ Эдвард Л. Мельник и Аарон Тененбейн, «Ошибочные спецификации нормального распределения», Американский статистик , том 36, номер 4 ноября 1982 г., страницы 372–373
  35. ^ "Расстояние Кульбака-Лейблера (KL) двух нормальных (гауссовских) распределений вероятностей" . Allisons.org . 5 декабря 2007 . Проверено 3 марта 2017 года .
  36. Джордан, Майкл I. (8 февраля 2010 г.). «Stat260: Байесовское моделирование и вывод: сопряженный приоритет для нормального распределения» (PDF) .
  37. Амари и Нагаока (2000)
  38. ^ "Нормальное приближение к распределению Пуассона" . Stat.ucla.edu . Проверено 3 марта 2017 года .
  39. ^ а б Дас, Абхранил (2020). «Метод интеграции и классификации нормальных распределений». arXiv : 2012.14331 .
  40. ^ БРИКа (1995 , стр. 27)
  41. ^ Weisstein, Эрик В. «Нормальное распределение продукта» . MathWorld . wolfram.com.
  42. ^ Лукач, Евгений (1942). «Характеристика нормального распределения» . Анналы математической статистики . 13 (1): 91–3. DOI : 10.1214 / АОМ / 1177731647 . ISSN 0003-4851 . JSTOR 2236166 .  
  43. ^ Басу, Д .; Лаха, Р.Г. (1954). «О некоторых характеристиках нормального распределения». Санкхья . 13 (4): 359–62. ISSN 0036-4452 . JSTOR 25048183 .  
  44. Перейти ↑ Lehmann, EL (1997). Проверка статистических гипотез (2-е изд.). Springer. п. 199. ISBN 978-0-387-94919-2.
  45. Patel & Read (1996 , [2.3.6])
  46. ^ Галамбос и Симонелли (2004 , теорема 3.5)
  47. ^ a b Лукач и Кинг (1954)
  48. Перейти ↑ Quine, MP (1993). «О трех характеристиках нормального распределения» . Вероятность и математическая статистика . 14 (2): 257–263.
  49. ^ Джон, S (1982). «Трехпараметрическое двухкомпонентное нормальное семейство распределений и его подгонка». Коммуникации в статистике - теория и методы . 11 (8): 879–885. DOI : 10.1080 / 03610928208828279 .
  50. ^ a b Кришнамурти (2006 , с. 127)
  51. Кришнамурти (2006 , с. 130)
  52. Кришнамурти (2006 , с. 133)
  53. Хаксли (1932)
  54. ^ Джейнс, Эдвин Т. (2003). Теория вероятностей: логика науки . Издательство Кембриджского университета. С. 592–593. ISBN 9780521592710.
  55. ^ Oosterbaan, Roland J. (1994). «Глава 6: Частотный и регрессионный анализ гидрологических данных» (PDF) . В Ритземе, Хенк П. (ред.). Принципы дренажа и их применение, Публикация 16 (второе пересмотренное издание). Вагенинген, Нидерланды: Международный институт мелиорации и улучшения земель (ILRI). С. 175–224. ISBN  978-90-70754-33-4.
  56. ^ Wichura, Michael J. (1988). «Алгоритм AS241: процентные точки нормального распределения». Прикладная статистика . 37 (3): 477–84. DOI : 10.2307 / 2347330 . JSTOR 2347330 . 
  57. ^ Джонсон, Коц и Балакришнан (1995 , уравнение (26,48))
  58. ^ Киндерман & Монахан (1977)
  59. ^ Лева (1992)
  60. ^ Марсалья и Цанг (2000)
  61. ^ Карни (2016)
  62. ^ Монахан (1985 , раздел 2)
  63. ^ Уоллес (1996)
  64. Джонсон, Коц и Балакришнан (1994 , стр. 85)
  65. Ле Кам и Ло Ян (2000 , стр.74)
  66. De Moivre, Abraham (1733), Следствие I - см. Walker (1985 , p. 77)
  67. Стиглер (1986 , с. 76)
  68. ^ Гаусс (1809 , раздел 177)
  69. ^ Гаусс (1809 , раздел 179)
  70. ^ Лаплас (1774 , проблема III)
  71. ^ Пирсон (1905 , стр.189)
  72. Стиглер (1986 , стр.144)
  73. Стиглер (1978 , с. 243)
  74. Стиглер (1978 , с. 244)
  75. ^ Максвелл (1860 , стр.23)
  76. ^ Джейнс, Эдвин Дж .; Теория вероятностей: логика науки , глава 7
  77. Пирс, Чарльз С. (ок. 1909 г., MS), Сборник статей против 6, параграф 327.
  78. ^ Крускала и Стиглер (1997)
  79. ^ "Самые ранние виды использования ... (запись СТАНДАРТНАЯ НОРМАЛЬНАЯ КРИВАЯ)" .

Источники [ править ]

  • Олдрич, Джон; Миллер, Джефф. «Раннее использование символов в теории вероятностей и статистике» .
  • Олдрич, Джон; Миллер, Джефф. «Самые ранние известные применения некоторых слов математики» .В частности, записи для «колоколообразная и колоколообразная кривая» , «нормальный (распределение)» , «гауссовский» и «ошибка, закон ошибки, теория ошибок и т. Д.» .
  • Амари, Шун-ичи; Нагаока, Хироши (2000). Методы информационной геометрии . Издательство Оксфордского университета. ISBN 978-0-8218-0531-2.
  • Бернардо, Хосе М .; Смит, Адриан FM (2000). Байесовская теория . Вайли. ISBN 978-0-471-49464-5.
  • Bryc, Влодзимеж (1995). Нормальное распределение: характеристики с приложениями . Springer-Verlag. ISBN 978-0-387-97990-8.
  • Казелла, Джордж; Бергер, Роджер Л. (2001). Статистический вывод (2-е изд.). Даксбери. ISBN 978-0-534-24312-8.
  • Коди, Уильям Дж. (1969). "Рациональные приближения Чебышева для функции ошибок" . Математика вычислений . 23 (107): 631–638. DOI : 10.1090 / S0025-5718-1969-0247736-4 .
  • Обложка, Томас М .; Томас, Джой А. (2006). Элементы теории информации . Джон Уайли и сыновья.
  • де Муавр, Авраам (1738). Доктрина шансов . ISBN 978-0-8218-2103-9.
  • Фань, Цзяньцин (1991). «Об оптимальных скоростях сходимости для непараметрических задач деконволюции» . Летопись статистики . 19 (3): 1257–1272. DOI : 10.1214 / AOS / 1176348248 . JSTOR  2241949 .
  • Гальтон, Фрэнсис (1889). Естественное наследование (PDF) . Лондон, Великобритания: Ричард Клей и сыновья.
  • Галамбос, Янош; Симонелли, Итало (2004). Произведения случайных величин: приложения к задачам физики и арифметическим функциям . Марсель Деккер, Inc. ISBN 978-0-8247-5402-0.
  • Гаусс, Кароло Фридерико (1809). Theoria motvs corporvm coelestivm in sectionibvs conicis Solem ambientivm [ Теория движения небесных тел, движущихся вокруг Солнца в конических сечениях ] (на латыни). Английский перевод .
  • Гулд, Стивен Джей (1981). Ошибочное измерение человека (первое изд.). WW Нортон. ISBN 978-0-393-01489-1.
  • Гальперин, Макс; Хартли, Герман О .; Хоэль, Пол Г. (1965). «Рекомендуемые стандарты для статистических символов и обозначений. Комитет COPSS по символам и обозначениям». Американский статистик . 19 (3): 12–14. DOI : 10.2307 / 2681417 . JSTOR  2681417 .
  • Харт, Джон Ф .; и другие. (1968). Компьютерные приближения . Нью-Йорк, Нью-Йорк: ISBN John Wiley & Sons, Inc. 978-0-88275-642-4.
  • "Нормальное распределение" , Энциклопедия математики , EMS Press , 2001 [1994]CS1 maint: ref=harv (link)
  • Herrnstein, Ричард Дж .; Мюррей, Чарльз (1994). Кривая Белла: интеллект и классовая структура в американской жизни . Свободная пресса . ISBN 978-0-02-914673-6.
  • Хаксли, Джулиан С. (1932). Проблемы относительного роста . Лондон. ISBN 978-0-486-61114-3. OCLC  476909537 .
  • Джонсон, Норман Л .; Коц, Самуэль; Балакришнан, Нараянасвами (1994). Непрерывные одномерные распределения, Том 1 . Вайли. ISBN 978-0-471-58495-7.
  • Джонсон, Норман Л .; Коц, Самуэль; Балакришнан, Нараянасвами (1995). Непрерывные одномерные распределения, Том 2 . Вайли. ISBN 978-0-471-58494-0.
  • Карни, CFF (2016). «Выборка точно из нормального распределения». Транзакции ACM на математическом ПО . 42 (1): 3: 1–14. arXiv : 1303,6257 . DOI : 10.1145 / 2710016 . S2CID  14252035 .
  • Киндерман, Альберт Дж .; Монахан, Джон Ф. (1977). «Компьютерная генерация случайных величин с использованием отношения равномерных отклонений». Транзакции ACM на математическом ПО . 3 (3): 257–260. DOI : 10.1145 / 355744.355750 . S2CID  12884505 .
  • Кришнамурти, Калимуту (2006). Справочник статистических распределений с приложениями . Чепмен и Холл / CRC. ISBN 978-1-58488-635-8.
  • Крускал, Уильям Х .; Стиглер, Стивен М. (1997). Спенсер, Брюс Д. (ред.). Нормативная терминология: «нормальный» в статистике и других местах . Статистика и государственная политика. Издательство Оксфордского университета. ISBN 978-0-19-852341-3.
  • Лаплас, Пьер-Симон де (1774 г.). "Mémoire sur la probabilité desasons par les événements" . Mémoires de l'Académie Royale des Sciences de Paris (Savants étrangers), Tome 6 : 621–656.Перевод Стивена М. Стиглера в статистике 1 (3), 1986: JSTOR  2245476 .
  • Лаплас, Пьер-Симон (1812). Théorie Аналитической probabilités [ Аналитическая теория вероятностей ].
  • Ле Кам, Люсьен; Ло Ян, Грейс (2000). Асимптотика в статистике: некоторые основные понятия (второе изд.). Springer. ISBN 978-0-387-95036-5.
  • Лева, Джозеф Л. (1992). «Быстрый нормальный генератор случайных чисел» (PDF) . Транзакции ACM на математическом ПО . 18 (4): 449–453. CiteSeerX  10.1.1.544.5806 . DOI : 10.1145 / 138351.138364 . S2CID  15802663 . Архивировано из оригинального (PDF) 16 июля 2010 года.
  • Лексис, Вильгельм (1878). "Sur la durée normale de la vie humaine et sur la théorie de la stabilité des rapports statistiques". Анналы международной демографии . Париж. II : 447–462.
  • Лукач, Евгений; Кинг, Эдгар П. (1954). «Свойство нормального распределения» . Анналы математической статистики . 25 (2): 389–394. DOI : 10.1214 / АОМ / 1177728796 . JSTOR  2236741 .
  • Макферсон, Глен (1990). Статистика в научных исследованиях: основы, применение и интерпретация . Springer-Verlag. ISBN 978-0-387-97137-7.
  • Марсалья, Джордж ; Цанг, Вай Ван (2000). «Метод зиккурата для генерации случайных величин» . Журнал статистического программного обеспечения . 5 (8). DOI : 10,18637 / jss.v005.i08 .
  • Марсалья, Джордж (2004). «Оценка нормального распределения» . Журнал статистического программного обеспечения . 11 (4). DOI : 10,18637 / jss.v011.i04 .
  • Максвелл, Джеймс Клерк (1860). «V. Иллюстрации к динамической теории газов. - Часть I: О движениях и столкновениях идеально упругих сфер». Философский журнал . Серия 4. 19 (124): 19–32. DOI : 10.1080 / 14786446008642818 .
  • Монахан, Дж. Ф. (1985). «Точность генерации случайных чисел» . Математика вычислений . 45 (172): 559–568. DOI : 10.1090 / S0025-5718-1985-0804945-X .
  • Патель, Джагдиш К .; Прочтите, Кэмпбелл Б. (1996). Справочник по нормальному распределению (2-е изд.). CRC Press. ISBN 978-0-8247-9342-5.
  • Пирсон, Карл (1901). "На прямых и плоскостях, наиболее приближенных к системам точек в пространстве" (PDF) . Философский журнал . 6. 2 (11): 559–572. DOI : 10.1080 / 14786440109462720 .
  • Пирсон, Карл (1905). « ' Das Fehlergesetz und seine Verallgemeinerungen durch Fechner und Pearson'. Реплика» . Биометрика . 4 (1): 169–212. DOI : 10.2307 / 2331536 . JSTOR  2331536 .
  • Пирсон, Карл (1920). «Записки по истории корреляции» . Биометрика . 13 (1): 25–45. DOI : 10.1093 / Biomet / 13.1.25 . JSTOR  2331722 .
  • Рорбассер, Жан-Марк; Верон, Жак (2003). «Вильгельм Лексис: нормальная продолжительность жизни как выражение« природы вещей » » . Население . 58 (3): 303–322. DOI : 10.3917 / pope.303.0303 .
  • Шор, H (1982). «Простые приближения для обратной кумулятивной функции, функции плотности и интеграла потерь нормального распределения». Журнал Королевского статистического общества. Серия C (Прикладная статистика) . 31 (2): 108–114. DOI : 10.2307 / 2347972 . JSTOR  2347972 .
  • Шор, H (2005). «Точные приближения на основе RMM для CDF нормального распределения». Коммуникации в статистике - теория и методы . 34 (3): 507–513. DOI : 10,1081 / STA-200052102 . S2CID  122148043 .
  • Шор, H (2011). «Методология моделирования отклика». ПРОВОДА Comput Stat . 3 (4): 357–372. DOI : 10.1002 / wics.151 .
  • Шор, H (2012). «Оценка моделей методологии моделирования отклика». ПРОВОДА Comput Stat . 4 (3): 323–333. DOI : 10.1002 / wics.1199 .
  • Стиглер, Стивен М. (1978). «Математическая статистика в ранних государствах» . Летопись статистики . 6 (2): 239–265. DOI : 10.1214 / AOS / 1176344123 . JSTOR  2958876 .
  • Стиглер, Стивен М. (1982). «Скромное предложение: новый стандарт для нормального». Американский статистик . 36 (2): 137–138. DOI : 10.2307 / 2684031 . JSTOR  2684031 .
  • Стиглер, Стивен М. (1986). История статистики: измерение неопределенности до 1900 года . Издательство Гарвардского университета. ISBN 978-0-674-40340-6.
  • Стиглер, Стивен М. (1999). Статистика в таблице . Издательство Гарвардского университета. ISBN 978-0-674-83601-3.
  • Уокер, Хелен М. (1985). "Де Муавр о законе нормальной вероятности" (PDF) . В Смит, Дэвид Юджин (ред.). Справочник по математике . Дувр. ISBN 978-0-486-64690-9.
  • Уоллес, CS (1996). «Быстрые псевдослучайные генераторы для нормальных и экспоненциальных переменных». Транзакции ACM на математическом ПО . 22 (1): 119–127. DOI : 10.1145 / 225545.225554 . S2CID  18514848 .
  • Вайсштейн, Эрик В. «Нормальное распределение» . MathWorld .
  • Запад, Грэм (2009). «Лучшие приближения к кумулятивным нормальным функциям» (PDF) . Журнал Wilmott : 70–76.
  • Зелен, Марвин; Северо, Норман К. (1964). Вероятностные функции (глава 26) . Справочник по математическим функциям с формулами, графиками и математическими таблицами , Абрамовиц, М .; и Стегун, И. А .: Национальное бюро стандартов. Нью-Йорк, Нью-Йорк: Дувр. ISBN 978-0-486-61272-0.

Внешние ссылки [ править ]

  • "Нормальное распределение" , Энциклопедия математики , EMS Press , 2001 [1994]
  • Калькулятор нормального распределения , более мощный калькулятор