Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

В теории вероятностей и статистике , гауссовский процесс представляет собой случайный процесс (совокупность случайных величин , индексированных по времени или в пространстве), таким образом, что каждый конечный набор этих случайных величин имеет многомерное нормальное распределение , то есть каждая конечная линейная комбинация из них , как правило , распределены. Распределение гауссовского процесса - это совместное распределение всех этих (бесконечного множества) случайных величин, и как таковое, это распределение по функциям с непрерывной областью, например временем или пространством.

Алгоритм машинного обучения, который включает в себя гауссовский процесс, использует ленивое обучение и меру сходства между точками ( функция ядра ), чтобы предсказать значение невидимой точки на основе данных обучения. Прогноз - это не только оценка для этой точки, но и информация о неопределенности - это одномерное распределение Гаусса. [1] Для прогнозирования с несколькими выходами используются многомерные гауссовские процессы [2] [3] , для которых многомерное распределение Гаусса является предельным распределением в каждой точке.

Для некоторых функций ядра матричная алгебра может использоваться для вычисления прогнозов с использованием техники кригинга . Когда используется параметризованное ядро, программное обеспечение оптимизации обычно используется для соответствия гауссовской модели процесса.

Концепция гауссовских процессов названа в честь Карла Фридриха Гаусса, потому что она основана на понятии гауссова распределения ( нормального распределения ). Гауссовские процессы можно рассматривать как бесконечномерное обобщение многомерных нормальных распределений.

Гауссовские процессы полезны при статистическом моделировании , поскольку они обладают свойствами, унаследованными от нормального распределения. Например, если случайный процесс моделируется как гауссовский процесс, распределения различных производных величин могут быть получены явно. Такие величины включают в себя среднее значение процесса за определенный период времени и ошибку в оценке среднего значения с использованием значений выборки за небольшой набор времен. Хотя точные модели часто плохо масштабируются по мере увеличения объема данных, были разработаны несколько методов аппроксимации , которые часто сохраняют хорошую точность, резко сокращая время вычислений.

Определение [ править ]

Непрерывное время стохастический процесс является гауссовым тогда и только тогда , когда для любого конечного множества из индексов в множестве индексов

- многомерная гауссова случайная величина . [4] Это то же самое, что сказать, что каждая линейная комбинация имеет одномерное нормальное (или гауссово) распределение.

Используя характеристические функции случайных величин, свойство Гаусса может быть сформулировано следующим образом: является гауссовским тогда и только тогда, когда для каждого конечного набора индексов существуют действительные значения , при этом следующее равенство выполняется для всех

.

где обозначает такую мнимую единицу , что .

Можно показать, что числа и являются ковариациями и средними значениями переменных в процессе. [5]

Дисперсия [ править ]

Дисперсия гауссовского процесса конечна в любой момент формально [6] : с. 515

.

Стационарность [ править ]

Для общих стохастических процессов стационарность в строгом смысле подразумевает стационарность в широком смысле, но не каждый стационарный случайный процесс в широком смысле является стационарным в строгом смысле. Однако для гауссовского случайного процесса эти две концепции эквивалентны. [6] : с. 518

Гауссовский случайный процесс является стационарным в строгом смысле слова тогда и только тогда, когда он стационарен в широком смысле.

Пример [ править ]

Есть явное представление для стационарных гауссовских процессов. [7] Простым примером этого представления является

где и - независимые случайные величины со стандартным нормальным распределением .

Ковариационные функции [ править ]

Ключевым фактом гауссовских процессов является то, что они могут быть полностью определены их статистикой второго порядка. [8] Таким образом, если предполагается, что гауссовский процесс имеет нулевое среднее значение, определение ковариационной функции полностью определяет поведение процесса. Важно отметить, что неотрицательная определенность этой функции делает возможным ее спектральное разложение с использованием разложения Карунена – Лоэва . Основные аспекты, которые могут быть определены с помощью ковариационной функции, - это стационарность , изотропность , гладкость и периодичность процесса . [9] [10]

Стационарность относится к поведению процесса относительно разделения любых двух точек и . Если процесс стационарный, он зависит от их разделения, а если нестационарный - от фактического положения точек и . Например, частный случай процесса Орнштейна-Уленбека , A Броуновское движение процесс, находится в неподвижном состоянии .

Если процесс зависит только от евклидова расстояния (а не от направления) между и , то процесс считается изотропным. Процесс, который одновременно является стационарным и изотропным, считается однородным ; [11] на практике эти свойства отражают различия (или, скорее, их отсутствие) в поведении процесса с учетом местоположения наблюдателя.

В конечном итоге гауссовские процессы переводятся как априорные функции, и гладкость этих априорных значений может быть индуцирована ковариационной функцией. [9] Если мы ожидаем, что для «близких» входных точек и соответствующих им выходных точек, а также для «ближайших», то предположение о непрерывности присутствует. Если мы хотим учесть значительное смещение, мы могли бы выбрать более грубую ковариационную функцию. Крайними примерами такого поведения являются ковариационная функция Орнштейна – Уленбека и квадрат экспоненты, где первая никогда не дифференцируема, а вторая бесконечно дифференцируема.

Периодичность - это создание периодических закономерностей в поведении процесса. Формально это достигается отображением входных данных в двумерный вектор .

Обычные ковариационные функции [ править ]

Влияние выбора различных ядер на априорное распределение функций гауссовского процесса. Слева - квадрат экспоненциального ядра. Середина - броуновская. Правая квадратичная.

Существует ряд общих ковариационных функций: [10]

  • Постоянный :
  • Линейный:
  • белый гауссов шум:
  • Квадрат экспоненты:
  • Орнштейн – Уленбек:
  • Матерн:
  • Периодический:
  • Рациональный квадратичный:

Вот . Параметром является характерная длина масштаба процесса (практически, «как близко» две точки , и должны быть значительно влияют друг на друга), является Кронекера и стандартное отклонение флуктуаций шума. Кроме того, это модифицированная функция Бесселя порядка и является гамма - функция оценивается в . Важно отметить, что сложная ковариационная функция может быть определена как линейная комбинация других более простых ковариационных функций для включения различных представлений о имеющемся наборе данных.

Ясно, что выводимые результаты зависят от значений гиперпараметров (например, и ), определяющих поведение модели. Популярным вариантом является предоставление максимальных апостериорных оценок (MAP) с некоторыми выбранными априорными. Если априор очень близок к однородному, это то же самое, что максимизировать предельную вероятность процесса; маргинализация осуществляется по наблюдаемым значениям процесса . [10] Этот подход также известен как максимальное правдоподобие II , максимизация доказательств или эмпирический байесовский метод . [12]

Непрерывность [ править ]

Для гауссовского процесса, непрерывность по вероятности эквивалентна среднеквадратичной непрерывности , [13] : 145 и непрерывности с вероятностью единица эквивалентна непрерывности образца . [14] : 91 «Гауссовские процессы разрывны в неподвижных точках». Последнее подразумевает, но не подразумевает непрерывность вероятности. Непрерывность по вероятности имеет место тогда и только тогда, когда среднее значение и автоковариация являются непрерывными функциями. Напротив, непрерывность выборки была сложной задачей даже для стационарных гауссовских процессов (как, вероятно, впервые заметил Андрей Колмогоров.), и более сложный для более общих процессов. [15] : Разд. 2.8 [16] : 69,81 [17] : 80 [18] Как обычно, под непрерывным процессом с образцом понимается процесс, допускающий непрерывную модификацию образца .[19] : 292 [20] : 424

Стационарный футляр [ править ]

Для стационарного гауссовского процесса некоторые условия на его спектр достаточны для непрерывности образца, но не являются необходимыми. Необходимое и достаточное условие, иногда называемое теоремой Дадли-Фернике, включает функцию, определенную формулой

(правая часть не зависит от в силу стационарности). Непрерывность по вероятности эквивалентна непрерывности at. Когда сходимость к (as ) слишком медленная, непрерывность выборки может быть нарушена. Имеет значение сходимость следующих интегралов:

эти два интеграла равны согласно интегрированию путем подстановки . Первое подынтегральное выражение не должно быть ограничено, так как, таким образом, интеграл может сходиться ( ) или расходиться ( ). Взяв, например, большой, то есть маленький, получаем, когда и когда. В этих двух случаях функция увеличивается, но обычно это не так. Кроме того, условие

  существует такое, что монотонно на

не следует из непрерывности и очевидных отношений (для всех ) и

Теорема 1.   Пусть непрерывна и удовлетворяет Тогда условие необходимо и достаточно для выборочной непрерывности

Немного истории. [20] : 424 Достаточность была объявлена Ксавьером Ферником в 1964 году, но первое доказательство было опубликовано Ричардом М. Дадли в 1967 году. [19] : Теорема 7.1 Необходимость была доказана Майклом Б. Маркусом и Лоуренсом Шеппом в 1970 году [21]. ] : 380

Существуют образцы непрерывных процессов , которые нарушают условие. Пример, найденный Маркусом и Шеппом [21] : 387 - случайный лакунарный ряд Фурье

где - независимые случайные величины со стандартным нормальным распределением ; частоты - это быстрорастущая последовательность; и коэффициенты удовлетворяют . Последнее соотношение почти наверняка влечет откуда , что обеспечивает почти наверное равномерную сходимость ряда Фурье и выборочную непрерывность

Автокорреляция случайного лакунарного ряда Фурье

Его автоковариационная функция

нигде не монотонна (см. рисунок), как и соответствующая функция

Броуновское движение как интеграл гауссовских процессов [ править ]

Винера процесс ( так называемое броуновское движение) является интегралом от белого шума обобщенного гауссовского процесса . Он не стационарный , но имеет стационарные приращения.

Процесс Орнштейна – Уленбека - это стационарный гауссовский процесс.

Броуновский мост (подобно процесс Орнштейна-Уленбек) пример гауссовского процесса, приращения не являются независимыми .

Дробное броуновское движение является гауссовым процессом, ковариационной функция является обобщением , что процесс Винер.

Закон нуля или единицы Дрисколла [ править ]

Закон нуля или единицы Дрисколла - это результат, характеризующий выборочные функции, генерируемые гауссовским процессом.

Позвольте быть средним нулевым гауссовским процессом с неотрицательно определенной ковариационной функцией . Позвольте быть воспроизводящим ядром гильбертова пространство с положительно определенным ядром .

потом

,

где и - ковариационные матрицы всех возможных пар точек, следует

.

Более того,

подразумевает

. [22]

Это имеет важные последствия, когда , как

.

Таким образом, почти все выборочные пути гауссовского процесса с нулевым средним и положительно определенным ядром будут лежать вне гильбертова пространства .

Гауссовские процессы с линейными ограничениями [ править ]

Для многих приложений, представляющих интерес, уже даны некоторые уже существующие знания о системе. Рассмотрим, например, случай, когда выход гауссова процесса соответствует магнитному полю; здесь реальное магнитное поле ограничено уравнениями Максвелла, и было бы желательно включить это ограничение в формализм гауссовского процесса, поскольку это, вероятно, улучшило бы точность алгоритма.

Метод включения линейных ограничений в гауссовские процессы уже существует: [23]

Рассмотрим (векторнозначную) выходную функцию, которая, как известно, подчиняется линейному ограничению (т. Е. Является линейным оператором)

Тогда ограничение может быть выполнено, выбрав , где моделируется как гауссовский процесс, и найдя st

Учитывая и используя тот факт, что гауссовские процессы замкнуты относительно линейных преобразований, гауссовский процесс для подчинения ограничению становится

Следовательно, линейные ограничения могут быть закодированы в среднее значение и ковариационную функцию гауссовского процесса.

Приложения [ править ]

Пример регрессии (прогнозирования) гауссовского процесса по сравнению с другими моделями регрессии. [24]

Гауссовский процесс может использоваться как априорное распределение вероятностей по функциям в байесовском выводе . [10] [25] С учетом любого набором N точек в нужной области ваших функций, взять многомерный Гаусс которого ковариационную матрица параметров является матрица Грама ваших N точек с некоторым требуемым ядром , и образецот этого гауссовского. Для решения задачи прогнозирования с несколькими выходами была разработана регрессия гауссовского процесса для векторнозначной функции. В этом методе строится «большая» ковариация, которая описывает корреляции между всеми входными и выходными переменными, взятыми в N точках в желаемой области. [26] Этот подход был подробно разработан для матричнозначных гауссовских процессов и обобщен на процессы с «более тяжелыми хвостами», такие как процессы Стьюдента . [3]

Вывод непрерывных значений с помощью априорного гауссовского процесса известен как регрессия гауссовского процесса или кригинг ; Расширение регрессии гауссовского процесса на несколько целевых переменных известно как кокригинг . [27] Таким образом, гауссовские процессы полезны как мощный инструмент нелинейной многомерной интерполяции . Гауссовская регрессия процесса может быть дополнительно расширена для решения задач обучения как в контролируемых (например, вероятностная классификация [10] ), так и в неконтролируемых (например, множественное обучение [8] ) структурах обучения.

Гауссовские процессы также могут быть использованы, например, в контексте смешения моделей экспертов. [28] [29] Основное обоснование такой структуры обучения состоит в предположении, что данное отображение не может быть хорошо охвачено одной моделью гауссовского процесса. Вместо этого пространство наблюдения разделено на подмножества, каждое из которых характеризуется различной функцией отображения; каждый из них изучается через различные компоненты гауссовского процесса в постулируемой смеси.

Прогнозирование гауссовского процесса или кригинг [ править ]

Гауссовский процесс регрессии (прогноз) с квадратом экспоненциального ядра. Левый график взят из предыдущего распределения функций. Середина - это рисунки сзади. Справа - средний прогноз с заштрихованным одним стандартным отклонением.

При рассмотрении общей задачи регрессии гауссовского процесса (кригинга) предполагается, что для гауссовского процесса, наблюдаемого в координатах , вектор значений представляет собой всего лишь одну выборку из многомерного гауссовского распределения размерности, равной количеству наблюдаемых координат . Следовательно, в предположении распределения с нулевым средним,, где - ковариационная матрица между всеми возможными парами для данного набора гиперпараметров θ . [10] Таким образом, логарифмическая предельная вероятность составляет:

и максимизация этой предельной вероятности по отношению к θ обеспечивает полную спецификацию гауссовского процесса f . Здесь можно вкратце отметить, что первый член соответствует штрафному члену за неспособность модели соответствовать наблюдаемым значениям, а второй член - штрафному члену, который увеличивается пропорционально сложности модели. После задания θ прогнозирование ненаблюдаемых значений в координатах x * сводится только к извлечению выборок из прогнозного распределения, где апостериорная средняя оценка A определяется как

а апостериорная оценка дисперсии B определяется как:

где - ковариация между новой координатой оценки x * и всеми другими наблюдаемыми координатами x для данного вектора гиперпараметров θ , и определены, как и раньше, и - это дисперсия в точке x *, продиктованная θ . Важно отметить, что практически апостериорная средняя оценка («точечная оценка») представляет собой просто линейную комбинацию наблюдений ; аналогичным образом дисперсия фактически не зависит от наблюдений . Известным узким местом в прогнозировании гауссовского процесса является то, что вычислительная сложность вывода и оценки правдоподобия кубична по количеству точек |x |, и поэтому может стать невозможным для больших наборов данных. [9] Работы с разреженными гауссовскими процессами, которые обычно основаны на идее построения репрезентативного набора для данного процесса f , пытаются обойти эту проблему. [30] [31] Метод кригинга может использоваться на латентном уровне нелинейной модели смешанных эффектов, чтобы вызвать скрытый кригинг. [32]

Байесовские нейронные сети как гауссовские процессы [ править ]

Байесовские нейронные сети - это особый тип байесовской сети, который является результатом вероятностной обработки моделей глубокого обучения и искусственных нейронных сетей и присвоения их параметрам предварительного распределения . Вычисления в искусственных нейронных сетях обычно организованы в последовательные слои искусственных нейронов . Количество нейронов в слое называется шириной слоя. По мере увеличения ширины слоя многие байесовские нейронные сети сводятся к гауссовскому процессу с замкнутой формой.композиционное ядро. Этот гауссовский процесс называется гауссовским процессом нейронной сети (NNGP). Он позволяет более эффективно оценивать прогнозы байесовских нейронных сетей и предоставляет аналитический инструмент для понимания моделей глубокого обучения .

Вычислительные проблемы [ править ]

В практических приложениях гауссовские модели процессов часто оцениваются на сетке, приводящей к многомерным нормальным распределениям. Использование этих моделей для прогнозирования или оценки параметров с использованием максимального правдоподобия требует оценки многомерной гауссовой плотности, которая включает в себя вычисление детерминанта и обратной матрицы ковариационной матрицы. Обе эти операции имеют кубическую вычислительную сложность, что означает, что даже для сеток небольшого размера обе операции могут иметь непомерно высокие вычислительные затраты. Этот недостаток привел к развитию методов множественной аппроксимации .

См. Также [ править ]

  • Линейная статистика Байеса
  • Байесовская интерпретация регуляризации
  • Кригинг
  • Гауссово свободное поле
  • Процесс Гаусса – Маркова
  • Кригинг с градиентным усилением (GEK)
  • Студенческий t-процесс

Ссылки [ править ]

  1. ^ «Инновация Platypus: простое введение в гауссовские процессы (отличный инструмент для моделирования данных)» . 2016-05-10.
  2. ^ Чен, Зексун; Fan, Jun; Ван, Куо (2020). «Замечания о многомерном гауссовском процессе». arXiv : 2010.09830 [ math.ST ].
  3. ^ а б Чен, Зексун; Ван, Бо; Горбань, Александр Н. (2019). «Многомерная гауссова регрессия и процесс Стьюдента для прогнозирования с несколькими выходами» . Нейронные вычисления и приложения . 32 (8): 3005–3028. arXiv : 1703.04455 . DOI : 10.1007 / s00521-019-04687-8 .
  4. ^ Маккей, Дэвид, JC (2003). Теория информации, выводы и алгоритмы обучения (PDF) . Издательство Кембриджского университета . п. 540. ISBN  9780521642989. Распределение вероятностей функции - это гауссовский процесс, если для любого конечного набора точек плотность является гауссовской.
  5. Перейти ↑ Dudley, RM (1989). Реальный анализ и вероятность . Уодсворт и Брукс / Коул.
  6. ↑ a b Амос Лапидот (8 февраля 2017 г.). Фонд цифровых коммуникаций . Издательство Кембриджского университета. ISBN 978-1-107-17732-1.
  7. ^ Кац, М .; Зигерт, AJF (1947). «Явное представление стационарного гауссовского процесса» . Анналы математической статистики . 18 (3): 438–442. DOI : 10.1214 / АОМ / 1177730391 .
  8. ^ a b Бишоп, CM (2006). Распознавание образов и машинное обучение . Springer . ISBN 978-0-387-31073-2.
  9. ^ a b c Барбер, Дэвид (2012). Байесовское мышление и машинное обучение . Издательство Кембриджского университета . ISBN 978-0-521-51814-7.
  10. ^ Б с д е е Rasmussen, CE; Уильямс, CKI (2006). Гауссовские процессы для машинного обучения . MIT Press . ISBN 978-0-262-18253-9.
  11. ^ Гриммет, Джеффри; Дэвид Стирзакер (2001). Вероятность и случайные процессы . Издательство Оксфордского университета . ISBN 978-0198572220.
  12. ^ Сигер, Маттиас (2004). «Гауссовские процессы для машинного обучения». Международный журнал нейронных систем . 14 (2): 69–104. CiteSeerX 10.1.1.71.1079 . DOI : 10.1142 / s0129065704001899 . PMID 15112367 .  
  13. Перейти ↑ Dudley, RM (1975). «Гауссовский процесс и подходы к нему» (PDF) . Материалы Международного конгресса математиков . 2 . С. 143–146.
  14. Перейти ↑ Dudley, RM (1973). «Примерные функции гауссовского процесса». Анналы вероятности . 1 (1): 66–103. DOI : 10.1007 / 978-1-4419-5821-1_13 . ISBN 978-1-4419-5820-4.
  15. ^ Талагран, Мишель (2014). Верхние и нижние оценки случайных процессов: современные методы и классические задачи . Ergebnisse der Mathematik und ihrer Grenzgebiete. 3. Фольге / Серия современных математических обзоров. Спрингер, Гейдельберг. ISBN 978-3-642-54074-5.
  16. ^ Леду, Мишель (1994). «Изопериметрия и гауссовский анализ». Конспект лекций по математике . 1648 . Спрингер, Берлин. С. 165–294. DOI : 10.1007 / BFb0095676 . ISBN 978-3-540-62055-6.
  17. ^ Адлер, Роберт Дж. (1990). «Введение в непрерывность, экстремумы и связанные темы для общих гауссовских процессов». Конспект лекций-Серия монографий . Институт математической статистики. 12 : i – 155. JSTOR 4355563 . 
  18. ^ Берман, Симеон М. (1992). «Рецензия на: Адлер 1990 'Введение в преемственность ... ' ». Математические обзоры . Руководство по ремонту 1088478 . 
  19. ^ а б Дадли, RM (1967). «Размеры компактных подмножеств гильбертова пространства и непрерывность гауссовских процессов». Журнал функционального анализа . 1 (3): 290–330. DOI : 10.1016 / 0022-1236 (67) 90017-1 .
  20. ^ a b Маркус, МБ; Шепп, Лоуренс А. (1972). «Пример поведения гауссовских процессов» . Труды шестого симпозиума в Беркли по математической статистике и вероятности, т. II: теория вероятностей . Univ. Калифорния, Беркли. С. 423–441.
  21. ^ a b Маркус, Майкл Б.; Шепп, Лоуренс А. (1970). «Непрерывность гауссовских процессов» . Труды Американского математического общества . 151 (2): 377–391. DOI : 10,1090 / s0002-9947-1970-0264749-1 . JSTOR 1995502 . 
  22. ^ Дрисколл, Майкл Ф. (1973). "Воспроизводящее ядро ​​структура гильбертова пространства выборочных траекторий гауссовского процесса". Zeitschrift für Wahrscheinlichkeitstheorie und Verwandte Gebiete . 26 (4): 309–316. DOI : 10.1007 / BF00534894 . ISSN 0044-3719 . S2CID 123348980 .  
  23. ^ Джидлинг, Карл; Вальстрём, Никлас; Уиллс, Адриан; Шен, Томас Б. (19 сентября 2017 г.). «Линейно ограниченные гауссовские процессы». arXiv : 1703.00787 [ stat.ML ].
  24. ^ В документации для scikit-learn также есть похожие примеры .
  25. ^ Лю, Вт .; Principe, JC; Хайкин, С. (2010). Адаптивная фильтрация ядра: всестороннее введение . Джон Вили . ISBN 978-0-470-44753-6. Архивировано из оригинала на 2016-03-04 . Проверено 26 марта 2010 .
  26. ^ Альварес, Маурисио А .; Росаско, Лоренцо; Лоуренс, Нил Д. (2012). «Ядра для векторных функций: обзор» (PDF) . Основы и тенденции в машинном обучении . 4 (3): 195–266. DOI : 10.1561 / 2200000036 . S2CID 456491 .  
  27. Перейти ↑ Stein, ML (1999). Интерполяция пространственных данных: некоторые теории кригинга . Springer .
  28. ^ Platanios, Emmanouil A .; Хатзис, Сотириос П. (2014). "Условная гетероскедастичность смеси гауссовских процессов". IEEE Transactions по анализу шаблонов и машинному анализу . 36 (5): 888–900. DOI : 10.1109 / TPAMI.2013.183 . PMID 26353224 . S2CID 10424638 .  
  29. ^ Chatzis, Sotirios P. (2013). «Скрытая переменная гауссовская модель процесса с априорными процессами Питмана – Йорка для мультиклассовой классификации». Нейрокомпьютеры . 120 : 482–489. DOI : 10.1016 / j.neucom.2013.04.029 .
  30. ^ Смола, AJ; Шёллькопф Б. (2000). «Аппроксимация разреженной жадной матрицы для машинного обучения». Труды семнадцатой международной конференции по машинному обучению : 911–918. CiteSeerX 10.1.1.43.3153 . 
  31. ^ Csato, L .; Оппер, М. (2002). «Редкие онлайн-гауссовские процессы». Нейронные вычисления . 14 (3): 641–668. CiteSeerX 10.1.1.335.97 13 . DOI : 10.1162 / 089976602317250933 . PMID 11860686 . S2CID 11375333 .   
  32. Ли, Се Юн; Маллик, Бани (2021). «Байесовское иерархическое моделирование: применение к результатам добычи в сланцах Игл Форд в Южном Техасе» . Санкхья Б . DOI : 10.1007 / s13571-020-00245-8 .

Внешние ссылки [ править ]

  • Веб-сайт гауссовских процессов, включая текст гауссовских процессов Расмуссена и Вильямса для машинного обучения
  • Мягкое введение в гауссовские процессы
  • Обзор гауссовских случайных полей и корреляционных функций
  • Эффективное обучение с подкреплением с использованием гауссовских процессов

Программное обеспечение [ править ]

  • GPML: комплексный набор инструментов Matlab для регрессии и классификации GP
  • STK: небольшой (Matlab / Octave) набор инструментов для кригинга и моделирования GP
  • Модуль кригинга в фреймворке UQLab (Matlab)
  • Функция Matlab / Octave для стационарных гауссовских полей
  • Yelp MOE - механизм оптимизации черного ящика, использующий процесс обучения по Гауссу
  • ooDACE - гибкий объектно-ориентированный набор инструментов Kriging Matlab.
  • GPstuff - набор инструментов гауссовского процесса для Matlab и Octave
  • GPy - фреймворк гауссовских процессов в Python
  • GSTools - набор инструментов для геостатистики, включая регрессию гауссовского процесса, написанный на Python.
  • Демонстрация интерактивной регрессии гауссовского процесса
  • Базовая библиотека процессов Гаусса, написанная на C ++ 11
  • scikit-learn - библиотека машинного обучения для Python, которая включает регрессию и классификацию гауссовских процессов.
  • [1] - Набор инструментов Kriging (KriKit) разработан в Институте био- и геонаук 1 (IBG-1) Forschungszentrum Jülich (FZJ).

Видеоуроки [ править ]

  • Основы гауссовского процесса Дэвида Маккея
  • Обучение с помощью гауссовских процессов Карла Эдварда Расмуссена
  • Байесовский вывод и гауссовские процессы Карла Эдварда Расмуссена