Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску
Единичная реализация трехмерного броуновского движения для времен 0 ≤ t ≤ 2. Броуновское движение обладает марковским свойством, поскольку перемещение частицы не зависит от ее прошлых перемещений.

В теории вероятностей и статистике термин « марковское свойство» относится к свойству случайного процесса без памяти . Он назван в честь русского математика Андрея Маркова . [1] Термин сильное марковское свойство аналогично марковскому свойству, за исключением того, что значение слова «присутствует» определяется в терминах случайной величины, известной как время остановки .

Термин « марковское предположение» используется для описания модели, в которой предполагается наличие марковского свойства, например скрытой марковской модели .

Марковская сеть простирается это свойство для двух или более измерений или случайных величин , определенных для взаимосвязанной сети пунктов. [2] Примером модели для такого поля является модель Изинга .

Случайный процесс с дискретным временем, удовлетворяющий свойству Маркова, известен как цепь Маркова .

Введение [ править ]

Случайный процесс обладает свойством Маркова, если условное распределение вероятностей будущих состояний процесса (обусловленное как прошлыми, так и настоящими значениями) зависит только от настоящего состояния; то есть, учитывая настоящее, будущее не зависит от прошлого. Процесс с этим свойством называется марковским или марковским . Самый известный марковский процесс - это цепь Маркова . Броуновское движение - еще один хорошо известный марковский процесс.

История [ править ]

Определение [ править ]

Позвольте быть вероятностным пространством с фильтрацией для некоторого ( полностью упорядоченного ) набора индексов ; и пусть будет измеримым пространством . -Значная стохастический процесс , выполненный с возможностью фильтрации называется обладает марковским свойством , если для каждого и каждый с ,

[3]

В случае, когда - дискретное множество с дискретной сигма-алгеброй и , это можно переформулировать следующим образом:

Альтернативные формулировки [ править ]

В качестве альтернативы марковское свойство можно сформулировать следующим образом.

для всех и измеримы и ограничены. [4]

Сильное марковское свойство [ править ]

Предположим, что это случайный процесс на вероятностном пространстве с естественной фильтрацией . Тогда для любого момента остановки на , мы можем определить

.

Тогда , как говорят, имеет сильное свойство Маркова , если для каждого момента остановки , кондиционированного на мероприятии , мы имеем , что для каждого , независимо от дано .

Сильное марковское свойство влечет за собой обычное марковское свойство, поскольку, взяв время остановки , можно вывести обычное марковское свойство. [5]


В прогнозировании [ править ]

В областях прогнозного моделирования и вероятностного прогнозирования марковское свойство считается желательным, поскольку оно может позволить обосновать и разрешить проблему, которую в противном случае невозможно было бы решить из-за ее трудноразрешимости . Такая модель известна как модель Маркова .

Примеры [ править ]

Предположим, что в урне находятся два красных шара и один зеленый шар. Один мяч был разыгран вчера, один мяч был разыгран сегодня, и последний мяч будет разыгран завтра. Все розыгрыши проходят «без замены».

Предположим, вы знаете, что сегодняшний мяч был красным, но у вас нет информации о вчерашнем мяче. Вероятность того, что завтрашний мяч будет красным, равна 1/2. Это потому, что у этого случайного эксперимента остались только два результата:

С другой стороны, если вы знаете, что и сегодняшние, и вчерашние шары были красными, то завтра вы гарантированно получите зеленый шар.

Это несоответствие показывает, что распределение вероятностей для завтрашнего цвета зависит не только от текущей стоимости, но также зависит от информации о прошлом. Этот случайный процесс наблюдаемых цветов не обладает свойством Маркова. Используя тот же эксперимент, описанный выше, если выборку «без замены» изменить на выборку «с заменой», процесс наблюдаемых цветов будет иметь марковское свойство. [6]

Применение свойства Маркова в обобщенном виде - это вычисления методом Монте-Карло с цепью Маркова в контексте байесовской статистики .

См. Также [ править ]

  • Причинное условие Маркова
  • Уравнение Чепмена – Колмогорова.
  • Гистерезис
  • Марковское одеяло
  • Цепь Маркова
  • Марковский процесс принятия решений
  • Марковская модель

Ссылки [ править ]

  1. Перейти ↑ Markov, AA (1954). Теория алгоритмов . [Перевод Жака Шорр-Кона и сотрудников PST] Выходные данные Москва, Академия наук СССР, 1954 [Иерусалим, Израильская программа научных переводов, 1961; можно получить в Управлении технических служб Министерства торговли США ] Добавлен перевод трудов Математического института АН СССР на русский язык, т. 42. Первоначальное название: Теория алгоритмов . [QA248.M2943 Библиотека Дартмутского колледжа. Министерство торговли США, Управление технических услуг, номер OTS 60-51085.]
  2. ^ Dodge, Yadolah . (2006) Оксфордский словарь статистических терминов , Oxford University Press . ISBN  0-19-850994-4
  3. ^ Дарретт, Рик . Вероятность: теория и примеры . Четвертое издание. Издательство Кембриджского университета , 2010.
  4. ^ Эксендал, Бернт К. (2003). Стохастические дифференциальные уравнения: введение с приложениями . Спрингер, Берлин. ISBN 3-540-04758-1.
  5. ^ Этье, Стюарт Н. и Курц, Томас Г. Марковские процессы: характеризация и сходимость . Ряд Уилли в теории вероятностей и математической статистики, 1986 г. (см. Стр. 158)
  6. ^ «Пример случайного процесса, не обладающего марковским свойством» . Обмен стеками . Проверено 7 июля 2020 .