В теории вероятностей и статистике , в многомерном нормальном распределении , многофакторное распределение Гаусса , или совместного нормального распределении является обобщением одномерного ( одномерного ) нормального распределения для более высоких размерностей . Одно определение состоит в том, что случайный вектор называется нормально распределенным k -вариантом, если каждая линейная комбинация его k компонентов имеет одномерное нормальное распределение. Его важность определяется главным образом многомерной центральной предельной теоремой.. Многомерное нормальное распределение часто используется для описания, по крайней мере приблизительно, любого набора (возможно) коррелированных вещественных случайных величин, каждая из которых группируется вокруг среднего значения.
Функция плотности вероятности Множество точек выборки из многомерного нормального распределения с а также , показанный вместе с эллипсом 3-сигма, двумя граничными распределениями и двумя одномерными гистограммами. | |||
Обозначение | |||
---|---|---|---|
Параметры | μ ∈ R k - расположение Σ ∈ R k × k - ковариация ( положительная полуопределенная матрица ) | ||
Служба поддержки | x ∈ μ + span ( Σ ) ⊆ R k | ||
существует только тогда , когда Σ является положительно определенной | |||
Иметь в виду | μ | ||
Режим | μ | ||
Дисперсия | Σ | ||
Энтропия | |||
MGF | |||
CF | |||
Расхождение Кульбака-Лейблера | см. ниже |
Определения
Обозначения и параметризация
Многомерное нормальное распределение k -мерного случайного вектора можно записать в следующих обозначениях:
или сделать это явно известно , что X является к - мерным,
с k -мерным вектором среднего
а также ковариационная матрица
такой, что Обратной ковариационной матрицы называется точностью матрицы, обозначенная.
Стандартный нормальный случайный вектор
Настоящий случайный вектор называется стандартным нормальным случайным вектором, если все его компоненты независимы, и каждая из них является нормально распределенной случайной величиной с единичной дисперсией, т. е. если для всех . [1] : стр. 454
Центрированный нормальный случайный вектор
Настоящий случайный вектор называется центрированным нормальным случайным вектором, если существует детерминированный матрица такой, что имеет то же распределение, что и где стандартный нормальный случайный вектор с составные части. [1] : стр. 454
Нормальный случайный вектор
Настоящий случайный вектор называется нормальным случайным вектором, если существует случайный-вектор , который является стандартным нормальным случайным вектором, a -вектор , а матрица , такое что . [2] : с. 454 [1] : с. 455
Формально:
Здесь ковариационная матрица является.
В вырожденном случае, когда ковариационная матрица сингулярна , соответствующее распределение не имеет плотности; подробности см. в разделе ниже . Этот случай часто встречается в статистике ; например, в распределении вектора остатков в обычной регрессии наименьших квадратов . Вв целом не независимы; их можно рассматривать как результат применения матрицы к набору независимых гауссовских переменных .
Эквивалентные определения
Следующие определения эквивалентны определению, данному выше. Случайный вектор имеет многомерное нормальное распределение, если оно удовлетворяет одному из следующих эквивалентных условий.
- Каждая линейная комбинация его компонентов нормально распределяется . То есть для любого постоянного вектора, случайная величина имеет одномерное нормальное распределение, где одномерное нормальное распределение с нулевой дисперсией представляет собой точечную массу на своем среднем значении.
- Есть k- вектори симметричная положительно полуопределенная матрица , Таким образом, что характеристическая функция из является
Сферическое нормальное распределение можно охарактеризовать как уникальное распределение, в котором компоненты независимы в любой ортогональной системе координат. [3] [4]
Функция плотности
Невырожденный случай
Многомерное нормальное распределение называется невырожденным, если симметричная ковариационная матрица является положительно определенной . В этом случае распределение имеет плотность [5]
где является вещественным k -мерным вектор-столбцом иявляется определяющим фактором в, также известная как обобщенная дисперсия . Вышеприведенное уравнение сводится к уравнению одномерного нормального распределения, если это матрица (т.е. одно действительное число).
Кругосимметричная версия комплексного нормального распределения имеет несколько иную форму.
Каждое геометрическое место изоплотности - геометрическое место точек в k -мерном пространстве, каждая из которых дает одно и то же конкретное значение плотности - является эллипсом или его многомерным обобщением; следовательно, многомерная нормаль является частным случаем эллиптических распределений .
Количество известно как расстояние Махаланобиса , которое представляет собой расстояние до контрольной точки от среднего . Обратите внимание, что в случае, когда, распределение сводится к одномерному нормальному распределению, а расстояние Махаланобиса сокращается до абсолютного значения стандартной оценки . См. Также « Интервал» ниже.
Двумерный случай
В 2-мерном неособом случае () функция плотности вероятности вектора является:
где является корреляция между а также и где а также . В таком случае,
В двумерном случае первое эквивалентное условие для многомерного восстановления нормальности можно сделать менее строгим, поскольку достаточно проверить, что счетное количество различных линейных комбинаций а также нормальны, чтобы заключить, что вектор двумерно нормально. [6]
Двумерные локусы изоплотности, нанесенные на -плоскость - эллипсы , главные оси которых определяются собственными векторами ковариационной матрицы(большой и малый полудиаметры эллипса равны квадратному корню из упорядоченных собственных значений).
В качестве абсолютного значения параметра корреляции увеличивается, эти локусы сжимаются к следующей линии:
Это потому, что это выражение с (где sgn - функция знака ) заменяется на, Является наилучшим линейным несмещенным предсказанием о учитывая стоимость . [7]
Вырожденный случай
Если ковариационная матрица не является полным рангом, то многомерное нормальное распределение вырождено и не имеет плотности. Точнее, он не имеет плотности относительно k -мерной меры Лебега (которая является обычной мерой, предполагаемой в курсах вероятностей на уровне исчисления). Говорят, что только случайные векторы, распределения которых абсолютно непрерывны относительно меры, имеют плотности (относительно этой меры). Говоря о плотностях, но избегая теоретико-мерных сложностей, может быть проще ограничить внимание подмножеством координат такая, что ковариационная матрица для этого подмножества положительно определена; тогда другие координаты можно рассматривать как аффинную функцию этих выбранных координат. [ необходима цитата ]
Таким образом, чтобы иметь смысл говорить о плотностях в единичных случаях, мы должны выбрать другую базовую меру. Используя теорему о дезинтеграции, мы можем определить ограничение меры Лебега на-мерное аффинное подпространство где поддерживается гауссово распределение, т. е. . По этой мере распределение имеет плотность следующего мотива:
где - обобщенное обратное, а det * - псевдодетерминант . [8]
Кумулятивная функция распределения
Понятие кумулятивной функции распределения (cdf) в размерности 1 может быть расширено двумя способами на многомерный случай на основе прямоугольных и эллипсоидальных областей.
Первый способ - определить cdf случайного вектора как вероятность того, что все компоненты меньше или равны соответствующим значениям в векторе : [9]
Хотя нет закрытой формы для , существует ряд алгоритмов, которые оценивают его численно . [9] [10]
Другой способ - определить cdf как вероятность того, что образец находится внутри эллипсоида, определяемая его расстоянием Махаланобиса от гауссиана, прямое обобщение стандартного отклонения. [11] Для вычисления значений этой функции существуют замкнутые аналитические формулы [11] следующим образом.
Интервал
Интервал для многомерного нормального распределения дает область , состоящую из тех векторов х , удовлетворяющей
Здесь это -мерный вектор, это известный -мерный средний вектор, известная ковариационная матрица и- функция квантиля для вероятностииз распределения хи-квадрат сстепени свободы. [12] Когдавыражение определяет внутреннюю часть эллипса, а распределение хи-квадрат упрощается до экспоненциального распределения со средним значением, равным двум (коэффициент равен половине).
Дополнительная кумулятивная функция распределения (хвостовое распределение)
Комплементарная интегральная функция распределения (CCDF) или хвост распределение определяются как. Когда, то ccdf можно записать как вероятность максимума зависимых гауссовских переменных: [13]
Хотя простой замкнутой формулы для вычисления ccdf не существует, максимум зависимых гауссовских переменных можно точно оценить с помощью метода Монте-Карло . [13] [14]
Характеристики
Вероятность в разных сферах
Содержание вероятности многомерной нормали в квадратичной области, определяемой формулой (где матрица, вектор, и является скаляром), который актуален для байесовской классификации / теории принятия решений с использованием гауссовского дискриминантного анализа, задается обобщенным распределением хи-квадрат . [15] Вероятностное содержание в любой общей области, определяемой (где является общей функцией) может быть вычислено с использованием численного метода трассировки лучей [15] ( код Matlab ).
Высшие моменты
В к - го порядка моменты по х определяются
где r 1 + r 2 + ⋯ + r N = k .
В к центральным моментам го порядка являются следующими
- Если k нечетное, μ 1,…, N ( x - μ ) = 0 .
- Если k четно с k = 2 λ , то
где сумма берется по всем распределениям множества на λ (неупорядоченных) пар. То есть для k- го (= 2 λ = 6) центрального момента суммируются произведения λ = 3 ковариаций (математическое ожидание μ принимается равным 0 из соображений экономии):
Это дает члены суммы (15 в приведенном выше случае), каждое из которых является произведением λ (в данном случае 3) ковариаций. Для моментов четвертого порядка (четыре переменные) есть три члена. Для моментов шестого порядка имеется 3 × 5 = 15 членов, а для моментов восьмого порядка - 3 × 5 × 7 = 105 членов.
Затем ковариации определяются заменой членов списка соответствующими членами списка, состоящего из r 1 единиц, затем r 2 двоек и т. д. Чтобы проиллюстрировать это, рассмотрим следующий случай центрального момента 4-го порядка:
где ковариация X i и X j . С помощью описанного выше метода сначала находят общий случай для k- го момента с k различными переменными X ,, а затем это упрощается соответственно. Например, для, можно положить X i = X j и использовать тот факт, что.
Функции вектора нормали
Квадратичная форма нормального вектора, (где матрица, вектор, и является скаляром), является обобщенной переменной хи-квадрат . [15]
Если является общей скалярной функцией вектора нормали, его функция плотности вероятности , кумулятивная функция распределения и обратная кумулятивная функция распределения могут быть вычислены с помощью численного метода трассировки лучей ( код Matlab ). [15]
Функция правдоподобия
Если известны среднее значение и ковариационная матрица, логарифмическая вероятность наблюдаемого вектора это просто логарифм функции плотности вероятности :
- ,
Циклически симметричный вариант нецентрального комплексного случая, когда вектор комплексных чисел, будет
то есть с сопряженным транспонированием (обозначенным) заменяя обычное транспонирование (обозначено). Это немного отличается от реального случая, потому что циркулярно-симметричная версия комплексного нормального распределения имеет немного другую форму для нормировочной постоянной .
Аналогичное обозначение используется для множественной линейной регрессии . [16]
Поскольку логарифмическая вероятность вектора нормали является квадратичной формой вектора нормали, она распределяется как обобщенная переменная хи-квадрат . [15]
Дифференциальная энтропия
Дифференциальная энтропия многомерного нормального распределения [17]
где столбцы обозначают определитель матрицы, а k - размерность векторного пространства.
Дивергенция Кульбака – Лейблера.
Кульбак-Либлер дивергенции от к , для неособых матриц Σ 1 и Σ 0 : [18]
где - размерность векторного пространства.
Логарифм должен быть принят к базовым е , так как два члена следующих логарифм сами base- х логарифмы выражений , которые являются либо факторами функции плотности или иначе возникают естественным образом . Таким образом, уравнение дает результат, измеренный в нац . Разделение всего выражения выше на log e 2 дает расхождение в битах .
Когда ,
Взаимная информация
Взаимный обмен информацией о распределении является частным случаем дивергенции Кульбака-Лейблера , в котором - полное многомерное распределение и является продуктом одномерных маргинальных распределений. В обозначениях раздела о расхождении Кульбака – Лейблера этой статьиявляется диагональной матрицей с диагональными элементами, а также . Итоговая формула для взаимной информации:
где является корреляционная матрица построена из. [ необходима цитата ]
В двумерном случае взаимная информация выражается следующим образом:
Совместная нормальность
Нормально распределенный и независимый
Если а также нормально распределены и независимы , это означает, что они «совместно нормально распределены», т. е. парадолжно иметь многомерное нормальное распределение. Однако пара совместно нормально распределенных переменных не обязательно должна быть независимой (будет так, только если некоррелированы, ).
Две нормально распределенные случайные величины не обязательно должны быть одновременно двумерными нормальными.
Тот факт, что две случайные величины а также оба имеют нормальное распределение, это не означает, что пара имеет совместное нормальное распределение. Простым примером является тот, в котором X имеет нормальное распределение с ожидаемым значением 0 и дисперсией 1, и если а также если , где . Подобные контрпримеры существуют для более чем двух случайных величин. В общем, они сводятся к смешанной модели . [ необходима цитата ]
Корреляции и независимость
В общем, случайные величины могут быть некоррелированными, но статистически зависимыми. Но если случайный вектор имеет многомерное нормальное распределение, то любые две или более его компоненты, которые не коррелируют, независимы . Это означает, что любые два или более его компонентов, которые попарно независимы , независимы. Но, как было отмечено чуть выше, это не правда , что две случайные величины, которые ( по отдельности , незначительно) нормально распределенные и некоррелированных независимы.
Условные распределения
Если N -мерный x разбивается следующим образом
и соответственно μ и Σ разбиваются следующим образом
тогда распределение x 1, обусловленное x 2 = a, является многомерным нормальным ( x 1 | x 2 = a ) ~ N ( μ , Σ ), где
и ковариационная матрица
- [19]
Эта матрица является дополнением Шура к Σ 22 в Σ . Это означает, что для вычисления условной ковариационной матрицы нужно инвертировать общую ковариационную матрицу, отбрасывать строки и столбцы, соответствующие переменным, на которые устанавливаются условия, а затем инвертировать обратно, чтобы получить условную ковариационную матрицу. Здесьявляется обобщенным обратным к.
Обратите внимание, что знание того, что x 2 = a, изменяет дисперсию, хотя новая дисперсия не зависит от конкретного значения a ; возможно, что более удивительно, среднее значение сдвинуто на; сравните это с ситуацией незнания значения a , и в этом случае x 1 будет иметь распределение.
Интересный факт, полученный для доказательства этого результата, заключается в том, что случайные векторы а также независимы.
Матрица Σ 12 Σ 22 −1 известна как матрица коэффициентов регрессии .
Двумерный случай
В двумерном случае, когда x разбивается на а также , условное распределение дано это [20]
где является коэффициент корреляции между а также .
Двумерное условное ожидание
В общем случае
Условное ожидание X 1 при X 2 :
Доказательство: результат получается путем вычисления математического ожидания условного распределения. выше.
В центрированном случае с единичными отклонениями
Условное ожидание X 1 при X 2 равно
и условная дисперсия
таким образом, условная дисперсия не зависит от x 2 .
Условное ожидание X 1 при условии, что X 2 меньше / больше z : [21] : 367
где окончательное соотношение здесь называется обратным соотношением Миллса .
Доказательство: последние два результата получены с использованием результата , чтобы
- а затем используя свойства математического ожидания усеченного нормального распределения .
Маржинальные распределения
Чтобы получить маргинальное распределение по подмножеству многомерных нормальных случайных величин, нужно только отбросить нерелевантные переменные (переменные, которые нужно исключить) из среднего вектора и ковариационной матрицы. Доказательство этого следует из определений многомерных нормальных распределений и линейной алгебры. [22]
Пример
Пусть X = [ X 1 , X 2 , X 3 ] - многомерные нормальные случайные величины с вектором среднего μ = [ μ 1 , μ 2 , μ 3 ] и ковариационной матрицей Σ (стандартная параметризация для многомерных нормальных распределений). Тогда совместное распределение X ′ = [ X 1 , X 3 ] является многомерным нормальным со средним вектором μ ′ = [ μ 1 , μ 3 ] и ковариационной матрицей.
Аффинное преобразование
Если Y = C + ВХ является аффинное преобразование изгде c - этовектор констант, а B - константаматрица, то Y имеет многомерное нормальное распределение с математическим ожиданием c + Bμ и дисперсией BΣB T, т. е.. В частности, любое подмножество X i имеет маргинальное распределение, которое также является многомерным нормальным. Чтобы убедиться в этом, рассмотрим следующий пример: чтобы извлечь подмножество ( X 1 , X 2 , X 4 ) T , используйте
который напрямую извлекает желаемые элементы.
Другое следствие состоит в том, что распределение Z = b · X , где b - постоянный вектор с тем же числом элементов, что и X, а точка указывает скалярное произведение , является одномерным гауссовским с. Этот результат следует с использованием
Обратите внимание, как положительная определенность Σ означает, что дисперсия скалярного произведения должна быть положительной.
Аффинное преобразование X , такие как 2 X не является такой же , как сумма двух независимых реализаций из X .
Геометрическая интерпретация
Контуры равноплотности неособого многомерного нормального распределения представляют собой эллипсоиды (т.е. линейные преобразования гиперсфер ) с центром в среднем. [23] Следовательно, многомерное нормальное распределение является примером класса эллиптических распределений . Направления главных осей эллипсоидов задаются собственными векторами ковариационной матрицы. Квадраты относительных длин главных осей задаются соответствующими собственными значениями.
Если Σ = UΛU T = UΛ 1/2 ( UΛ 1/2 ) T - собственное разложение, где столбцы U являются единичными собственными векторами, а Λ - диагональная матрица собственных значений, то мы имеем
Более того, U можно выбрать в качестве матрицы вращения , поскольку инвертирование оси не влияет на N (0, Λ ), но инвертирование столбца меняет знак определителя U. Распределение N ( μ , Σ ) фактически представляет собой N (0, I ), масштабированное на Λ 1/2 , повернутое на U и переведенное на μ .
И наоборот, любой выбор μ , матрицы U полного ранга и положительных диагональных элементов Λ i приводит к неособому многомерному нормальному распределению. Если какой - либо Л я равен нулю , а U является квадратной, в результате ковариационная матрица UΛU Т является сингулярным . Геометрически это означает, что каждый контурный эллипсоид бесконечно тонкий и имеет нулевой объем в n -мерном пространстве, так как по крайней мере одна из главных осей имеет нулевую длину; это вырожденный случай .
«Радиус вокруг истинного среднего значения в двумерной нормальной случайной величине, переписанный в полярных координатах (радиус и угол), следует распределению Хойта ». [24]
В одном измерении вероятность найти образец нормального распределения в интервале составляет примерно 68,27%, но в более высоких измерениях вероятность найти образец в области эллипса стандартного отклонения ниже. [25]
Размерность | Вероятность |
---|---|
1 | 0,6827 |
2 | 0,3935 |
3 | 0,1987 |
4 | 0,0902 |
5 | 0,0374 |
6 | 0,0144 |
7 | 0,0052 |
8 | 0,0018 |
9 | 0,0006 |
10 | 0,0002 |
Статистические выводы
Оценка параметров
Получение оценки максимального правдоподобия ковариационной матрицы многомерного нормального распределения несложно.
Короче говоря, функция плотности вероятности (PDF) многомерной нормали имеет вид
а оценка ML ковариационной матрицы по выборке из n наблюдений равна
которая является просто выборкой ковариационной матрицы . Это предвзятая оценка , ожидание которой
Несмещенная ковариация выборки
- (матричная форма; I - матрица идентичности, J - матрица единиц)
Информационная матрица Фишера для оценки параметров многомерного нормального распределения имеет замкнутую форму выражения. Это можно использовать, например, для вычисления границы Крамера – Рао для оценки параметров в этой настройке. См. Дополнительную информацию в информации Fisher .
Байесовский вывод
В статистических байесовском , то сопряженных до среднего вектора является еще одним многомерным нормальным распределением, и конъюгат до ковариационной матрицы является распределение обратного Уишарт . Предположим, что было сделано n наблюдений.
и что был назначен сопряженный априор, где
где
а также
Затем [ необходима ссылка ]
где
Многомерные тесты на нормальность
Тесты многомерной нормальности проверяют заданный набор данных на сходство с многомерным нормальным распределением . Нулевая гипотеза является то , что набор данных аналогичен нормальному распределению, поэтому при достаточно малом р -значение означает отсутствие нормальных данных. Многовариантные тесты нормальности включают тест Кокса – Смолла [26] и адаптацию Смита и Джейна [27] теста Фридмана – Рафски, созданного Ларри Рафски и Джеромом Фридманом . [28]
Тест Мардиа [29] основан на многомерных расширениях мер асимметрии и эксцесса . Для выборки { x 1 , ..., x n } k -мерных векторов мы вычисляем
При нулевой гипотезе многомерной нормальности статистика A будет иметь приблизительно распределение хи-квадрат с1/6⋅ k ( k + 1) ( k + 2) степеней свободы, и B будет приблизительно стандартным нормальным N (0,1).
Статистика эксцесса Мардии искажена и очень медленно сходится к предельному нормальному распределению. Для образцов среднего размера, параметры асимптотического распределения статистики эксцесса модифицируются [30] Для малых выборочных тестов () используются эмпирические критические значения. Таблицы критических значений для обеих статистик даны Ренчером [31] для k = 2, 3, 4.
Тесты Мардиа аффинно-инвариантны, но непротиворечивы. Например, многомерный тест асимметрии несовместим с симметричными ненормальными альтернативами. [32]
Тест BHEP [33] вычисляет норму разницы между эмпирической характеристической функцией и теоретической характеристической функцией нормального распределения. Вычисление нормы выполняется в L 2 ( ц ) пространство квадратично интегрируемых функций по отношению к гауссовой весовой функции. Статистика теста
Предельное распределение этой тестовой статистики представляет собой взвешенную сумму случайных величин хи-квадрат [33], однако на практике удобнее вычислять выборочные квантили, используя моделирование Монте-Карло. [ необходима цитата ]
Доступен подробный обзор этих и других процедур тестирования. [34]
Классификация на многомерные нормальные классы
Гауссовский дискриминантный анализ
Предположим, что наблюдения (которые являются векторами) предположительно происходят из одного из нескольких многомерных нормальных распределений с известными средними значениями и ковариациями. Тогда любое данное наблюдение может быть отнесено к тому распределению, из которого оно имеет наибольшую вероятность возникновения. Эта процедура классификации называется гауссовским дискриминантным анализом. Эффективность классификации, то есть вероятности различных результатов классификации и общая ошибка классификации, могут быть вычислены с помощью численного метода трассировки лучей [15] ( код Matlab ).
Вычислительные методы
Получение значений из распределения
Широко используемый метод построения (выборки) случайного вектора x из N- мерного многомерного нормального распределения со средним вектором μ и ковариационной матрицей Σ работает следующим образом: [35]
- Найдите любую вещественную матрицу A такую, что A A T = Σ . Когда Σ положительно определена, то разложение Холецкого обычно используется, и расширенная форма этого разложения всегда можно использовать (как ковариационная матрица может быть только положительным полуопределенная) в обоих случаях подходящая матрица получается. Альтернативой является использование матрицы A = UΛ ½ , полученный из спектрального разложения Е = UΛU -1 из Е . Первый подход является более простым в вычислительном отношении, но матрицы A меняются для разных порядков элементов случайного вектора, в то время как последний подход дает матрицы, которые связаны простым переупорядочением. Теоретически оба подхода дают одинаково хорошие способы определения подходящей матрицы A , но есть различия во времени вычисления.
- Пусть z = ( z 1 ,…, z N ) T - вектор, компоненты которого являются N независимыми стандартными нормальными переменными (которые могут быть сгенерированы, например, с помощью преобразования Бокса – Маллера ).
- Пусть x равно μ + Az . Он имеет желаемое распределение благодаря свойству аффинного преобразования.
Смотрите также
- Chi распределение , то PDF из 2-нормы (или евклидовой норме ) многовариантного нормально распределенного вектора ( с центром в нуле).
- Комплексное нормальное распределение , применение двумерного нормального распределения
- Copula , для определения модели гауссовой или нормальной копулы.
- Многомерное t-распределение , которое является еще одним широко используемым сферически-симметричным многомерным распределением.
- Расширение многомерного устойчивого распределения многомерного нормального распределения, когда индекс (показатель в характеристической функции) находится между нулем и двумя.
- Расстояние Махаланобиса
- Распределение Уишарта
- Матричное нормальное распределение
Рекомендации
- ^ a b c Лапидот, Амос (2009). Фонд цифровых коммуникаций . Издательство Кембриджского университета. ISBN 978-0-521-19395-5.
- ^ Gut, Аллан (2009). Промежуточный курс вероятности . Springer. ISBN 978-1-441-90161-3.
- ^ Кац, М. (1939). «Об характеристике нормального распределения». Американский журнал математики . 61 (3): 726–728. DOI : 10.2307 / 2371328 . JSTOR 2371328 .
- ^ Синз, Фабиан; Гервинн, Себастьян; Бетге, Матиас (2009). «Характеристика p-обобщенного нормального распределения». Журнал многомерного анализа . 100 (5): 817–820. DOI : 10.1016 / j.jmva.2008.07.006 .
- ↑ Саймон Джей Ди Принс (июнь 2012 г.). Компьютерное зрение: модели, обучение и выводы . Издательство Кембриджского университета. 3.7: «Многомерное нормальное распределение».
- ^ Hamedani, GG; Тата, MN (1975). «Об определении двумерного нормального распределения из распределений линейных комбинаций переменных». Американский математический ежемесячник . 82 (9): 913–915. DOI : 10.2307 / 2318494 . JSTOR 2318494 .
- ^ Вятт, Джон (26 ноября 2008 г.). «Линейная оценка наименьшей среднеквадратичной ошибки» (PDF) . Конспект лекций по прикладной вероятности . Архивировано из оригинального (PDF) 10 октября 2015 года . Проверено 23 января 2012 года .
- ^ Рао, CR (1973). Линейный статистический вывод и его приложения . Нью-Йорк: Вили. С. 527–528. ISBN 0-471-70823-2.
- ^ а б Ботев, З.И. (2016). «Нормальный закон при линейных ограничениях: моделирование и оценка через минимаксный наклон». Журнал Королевского статистического общества, Series B . 79 : 125–148. arXiv : 1603.04166 . Bibcode : 2016arXiv160304166B . DOI : 10.1111 / rssb.12162 . S2CID 88515228 .
- ^ Генз, Алан (2009). Вычисление многомерных нормальных и t-вероятностей . Springer. ISBN 978-3-642-01689-9.
- ^ a b Бенсимхун Майкл, N- мерная кумулятивная функция и другие полезные факты о гауссианах и нормальной плотности (2006)
- ^ Сиотани, Минору (1964). «Терпимость регионов для многомерного нормального населения» (PDF) . Летопись Института статистической математики . 16 (1): 135–153. DOI : 10.1007 / BF02868568 . S2CID 123269490 .
- ^ а б Ботев З.И. Mandjes, M .; Риддер, А. (6–9 декабря 2015 г.). «Хвостовое распределение максимума коррелированных гауссовских случайных величин». Зимняя симуляционная конференция 2015 г. (WSC) . Хантингтон-Бич, Калифорния, США: IEEE. С. 633–642. DOI : 10,1109 / WSC.2015.7408202 . ISBN 978-1-4673-9743-8.
- ^ Адлер, Р.Дж.; Blanchet, J .; Лю Дж. (7–10 декабря 2008 г.). «Эффективное моделирование хвостовых вероятностей гауссовских случайных полей». Зимняя конференция по моделированию 2008 г. (WSC) . Майами, Флорида, США: IEEE. С. 328–336. DOI : 10,1109 / WSC.2008.4736085 . ISBN 978-1-4244-2707-9.CS1 maint: дата и год ( ссылка )
- ^ Б с д е е г ч I Дас, Абхранил (2020). «Метод интеграции и классификации нормальных распределений». arXiv : 2012.14331 [ stat.ML ].
- ^ Тонг, Т. (2010) Множественная линейная регрессия: MLE и его результаты по распределению, заархивированные 16.06.2013 в WebCite , Примечания к лекциям
- ^ Гохале, ДВ; Ahmed, NA; Res, BC; Пискатауэй, штат Нью-Джерси (май 1989 г.). «Энтропийные выражения и их оценки для многомерных распределений». IEEE Transactions по теории информации . 35 (3): 688–692. DOI : 10.1109 / 18.30996 .
- ^ Дучи, Дж. "Выводы для линейной алгебры и оптимизации" (PDF) : 13. Цитировать журнал требует
|journal=
( помощь ) - ^ Итон, Моррис Л. (1983). Многомерная статистика: подход векторного пространства . Джон Уайли и сыновья. С. 116–117. ISBN 978-0-471-02776-8.
- ^ Дженсен, Дж (2000). Статистика для инженеров-нефтяников и геологов . Амстердам: Эльзевир. п. 207.
- ^ Маддала, GS (1983). Ограниченные зависимые и качественные переменные в эконометрике . Издательство Кембриджского университета. ISBN 0-521-33825-5.
- ^ Алгебраическое вычисление предельного распределения показано здесь http://fourier.eng.hmc.edu/e161/lectures/gaussianprocess/node7.html . Здесь представлено гораздо более короткое доказательство https://math.stackexchange.com/a/3832137.
- ^ Николаус Хансен (2016). «Стратегия развития CMA: Учебное пособие» (PDF) . arXiv : 1604.00772 . Bibcode : 2016arXiv160400772H . Архивировано из оригинального (PDF) 31 марта 2010 года . Проверено 7 января 2012 .
- ^ Даниэль Волльшлегер. «Дистрибутив Хойта (документация для пакета R 'shotGroups' версии 0.6.2)» .[ постоянная мертвая ссылка ]
- ^ Ван, Бин; Ши, Вэньчжун; Мяо, Зеланг (13 марта 2015 г.). Роккини, Дуччо (ред.). "Доверительный анализ эллипса стандартных отклонений и его расширение в многомерное евклидово пространство" . PLOS ONE . 10 (3): e0118537. Bibcode : 2015PLoSO..1018537W . DOI : 10.1371 / journal.pone.0118537 . ISSN 1932-6203 . PMC 4358977 . PMID 25769048 .
- ^ Кокс, Д.Р .; Маленький, Нью-Джерси (1978). «Тестирование многомерной нормальности». Биометрика . 65 (2): 263. DOI : 10,1093 / Biomet / 65.2.263 .
- ^ Смит, ИП; Джайн, АК (1988). «Тест для определения многомерной нормальности набора данных». IEEE Transactions по анализу шаблонов и машинному анализу . 10 (5): 757. DOI : 10,1109 / 34,6789 .
- ^ Фридман, JH; Рафский, LC (1979). "Многомерные обобщения двухвыборочных критериев Вальда – Вольфовица и Смирнова" . Летопись статистики . 7 (4): 697. DOI : 10,1214 / AOS / 1176344722 .
- ^ Мардия, К.В. (1970). «Меры многомерной асимметрии и эксцесса с приложениями». Биометрика . 57 (3): 519–530. DOI : 10.1093 / Biomet / 57.3.519 .
- ^ Rencher (1995), стр 112-113.
- ^ Rencher (1995), стр 493-495.
- ^ Baringhaus, L .; Хенце, Н. (1991). «Предельные распределения для мер многомерной асимметрии и эксцесса на основе прогнозов». Журнал многомерного анализа . 38 : 51–69. DOI : 10.1016 / 0047-259X (91) 90031-V .
- ^ а б Baringhaus, L .; Хенце, Н. (1988). «Последовательный тест на многомерную нормальность, основанный на эмпирической характеристической функции». Метрика . 35 (1): 339–348. DOI : 10.1007 / BF02613322 . S2CID 122362448 .
- ^ Хенце, Норберт (2002). «Инвариантные тесты на многомерную нормальность: критический обзор». Статистические статьи . 43 (4): 467–506. DOI : 10.1007 / s00362-002-0119-6 . S2CID 122934510 .
- ^ Нежный, JE (2009). Вычислительная статистика . Статистика и вычисления. Нью-Йорк: Спрингер. С. 315–316. DOI : 10.1007 / 978-0-387-98144-4 . ISBN 978-0-387-98143-7.
Литература
- Ренчер, AC (1995). Методы многомерного анализа . Нью-Йорк: Вили.
- Тонг, Ю.Л. (1990). Многомерное нормальное распределение . Серии Спрингера в статистике. Нью-Йорк: Springer-Verlag. DOI : 10.1007 / 978-1-4613-9655-0 . ISBN 978-1-4613-9657-4.