Из Википедии, свободной энциклопедии
Перейти к навигации Перейти к поиску

В математике марковский процесс принятия решений ( MDP ) - это стохастический процесс управления с дискретным временем . Он обеспечивает математическую основу для моделирования принятия решений в ситуациях, когда результаты частично случайны, а частично находятся под контролем лица, принимающего решения. MDP полезны для изучения задач оптимизации, решаемых с помощью динамического программирования . MDP были известны по крайней мере еще в 1950-х годах; [1] основная часть исследований марковских процессов принятия решений стала результатом книги Рональда Ховарда 1960 года « Динамическое программирование и марковские процессы» . [2] Они используются во многих дисциплинах, включая робототехнику , автоматическое управление , экономику и производство . Название MDP происходит от русского математика Андрея Маркова, поскольку они являются продолжением цепей Маркова .

На каждом временном шаге процесс находится в некотором состоянии , и лицо, принимающее решение, может выбрать любое действие , доступное в состоянии . На следующем временном шаге процесс реагирует случайным переходом в новое состояние и дает лицу, принимающему решение, соответствующее вознаграждение .

Вероятность того, что процесс переходит в новое состояние зависит от выбранного действия. В частности, он задается функцией перехода состояния . Таким образом, следующее состояние зависит от текущего состояния и действий лица, принимающего решение . Но данное и условно не зависит от всех предыдущих состояний и действий; другими словами, переходы состояний MDP удовлетворяют свойству Маркова .

Марковские процессы принятия решений являются продолжением цепей Маркова ; разница заключается в добавлении действий (предоставление возможности выбора) и поощрений (мотивация). И наоборот, если для каждого состояния существует только одно действие (например, «ожидание») и все вознаграждения одинаковы (например, «ноль»), процесс принятия решения Маркова сводится к цепи Маркова.

Определение [ править ]

Пример простой MDP с тремя состояниями (зеленые кружки) и двумя действиями (оранжевые кружки) с двумя наградами (оранжевые стрелки).

Марковский процесс принятия решений представляет собой 4- кратный кортеж , где

  • представляет собой набор состояний называется пространством состояний ,
  • - это набор действий, называемый пространством действий (альтернативно, это набор действий, доступных из состояния ),
  • это вероятность того, что действие в состоянии во времени приведет к состоянию во времени ,
  • это немедленное вознаграждение (или ожидаемое немедленное вознаграждение), полученное после перехода из состояния в состояние в результате действия

Пространства состояний и действий могут быть конечными или бесконечными, например набор действительных чисел . Некоторые процессы со счетно бесконечными пространствами состояний и действий могут быть сведены к процессам с конечными пространствами состояний и действий. [3]

Цель оптимизации [ править ]

Цель марковского процесса принятия решений - найти хорошую «политику» для лица, принимающего решения: функцию, которая определяет действие, которое лицо, принимающее решения, выберет, находясь в состоянии . Как только процесс принятия решения Маркова таким образом объединяется с политикой, это фиксирует действие для каждого состояния, и результирующая комбинация ведет себя как цепь Маркова (поскольку действие, выбранное в состоянии , полностью определяется матрицей перехода Маркова и сводится к ней) .

Цель состоит в том, чтобы выбрать политику , которая максимизирует некоторую кумулятивную функцию случайных вознаграждений, обычно ожидаемую дисконтированную сумму на потенциально бесконечном горизонте:

   (где мы выбираем , т.е. действия, заданные политикой). И ожидание возобладает

где - удовлетворяющий коэффициент дисконтирования , который обычно близок к 1 (например, для некоторой ставки дисконтирования r). Более низкий коэффициент дисконтирования побуждает лиц, принимающих решения, предпочесть принятие мер заранее, а не откладывать их на неопределенный срок.

Политика, которая максимизирует указанную выше функцию, называется оптимальной политикой и обычно обозначается . Конкретный MDP может иметь несколько различных оптимальных политик. Благодаря марковскому свойству можно показать, что оптимальная политика является функцией текущего состояния, как предполагалось выше.

Модели симуляторов [ править ]

Во многих случаях трудно точно представить распределения вероятностей перехода ,,. В таких случаях симулятор может использоваться для неявного моделирования MDP путем предоставления выборок из распределений переходов. Одной из распространенных форм неявной модели MDP является симулятор эпизодической среды, который можно запустить из начального состояния и получить последующее состояние и вознаграждение каждый раз, когда он получает входное действие. Таким образом могут создаваться траектории состояний, действий и вознаграждений, часто называемые эпизодами .

Другой формой симулятора является генеративная модель , одношаговый симулятор, который может генерировать образцы следующего состояния и вознаграждать за любое состояние и действие. [4] (Обратите внимание, что это значение отличается от термина « генеративная модель» в контексте статистической классификации.) В алгоритмах , которые выражаются с помощью псевдокода , часто используется для представления генеративной модели. Например, выражение может обозначать действие выборки из генеративной модели, где и - текущее состояние и действие, а иновое состояние и награда. По сравнению с эпизодическим симулятором, генеративная модель имеет то преимущество, что она может предоставлять данные из любого состояния, а не только из тех, которые встречаются на траектории.

Эти классы моделей образуют иерархию информационного содержания: явная модель тривиально дает генеративную модель посредством выборки из распределений, а повторное применение генеративной модели дает эпизодический симулятор. В обратном направлении можно изучать только приблизительные модели с помощью регрессии . Тип модели, доступной для конкретного MDP, играет важную роль в определении подходящих алгоритмов решения. Например, для алгоритмов динамического программирования , описанных в следующем разделе, требуется явная модель, а для поиска по дереву Монте-Карло требуется генеративная модель (или эпизодический симулятор, который можно скопировать в любом состоянии), тогда как для большинства методов обучения с подкреплением алгоритмы требуют только эпизодического симулятора.

Алгоритмы [ править ]

Решения для MDP с конечными состояниями и пространствами действий можно найти с помощью различных методов, таких как динамическое программирование . Алгоритмы в этом разделе применяются к MDP с конечными пространствами состояний и действий и явно заданными вероятностями перехода и функциями вознаграждения, но основные концепции могут быть расширены для обработки других классов проблем, например, с использованием аппроксимации функций .

Стандартное семейство алгоритмов для вычисления оптимальных политик для MDP с конечным состоянием и действием требует хранения для двух массивов, индексированных по состоянию: значение , которое содержит реальные значения, и политика , которая содержит действия. В конце алгоритма будет содержать решение и дисконтированную сумму вознаграждений, которые будут получены (в среднем), следуя этому решению из состояния .

Алгоритм состоит из двух шагов: (1) обновление значения и (2) обновление политики, которые повторяются в некотором порядке для всех состояний до тех пор, пока не перестанут происходить дальнейшие изменения. Оба рекурсивно обновляют новую оценку оптимальной политики и значения состояния, используя более старую оценку этих значений.

Их порядок зависит от варианта алгоритма; их также можно сделать для всех состояний сразу или для каждого состояния, и чаще для одних состояний, чем для других. Пока ни одно состояние не исключено навсегда из любого из шагов, алгоритм в конечном итоге придет к правильному решению. [5]

Известные варианты [ править ]

Итерация значения [ править ]

В итерации значений ( Bellman 1957 ), которую также называют обратной индукцией , функция не используется; вместо этого значение вычисляется внутри всякий раз, когда это необходимо. Подстановка вычисления в вычисление дает объединенный шаг [ требуется дальнейшее объяснение ] :

где - номер итерации. Итерация значения начинается с и как предположение функции значения . Затем он выполняет итерацию, многократно вычисляя для всех состояний , пока не сойдется с левой частью, равной правой части (которая является « уравнением Беллмана » для этой проблемы [ требуется пояснение ] ). Статья Ллойда Шепли 1953 года о стохастических играх включала в качестве частного случая метод итераций значений для MDP [6], но это было признано только позже. [7]

Повторение политики [ править ]

В итерации политики ( Howard 1960 ) первый шаг выполняется один раз, а затем второй шаг повторяется до тех пор, пока он не сойдется. Затем снова выполняется первый шаг и так далее.

Вместо повторения второго шага до сходимости его можно сформулировать и решить как набор линейных уравнений. Эти уравнения просто получаются путем составления на втором этапе уравнения. [ требуется пояснение ] Таким образом, повторение второго шага до сходимости можно интерпретировать как решение линейных уравнений с помощью релаксации (итерационный метод)

Преимущество этого варианта в том, что существует определенное условие остановки: когда массив не изменяется в процессе применения шага 1 ко всем состояниям, алгоритм завершается.

Итерация политики обычно медленнее, чем итерация значения для большого количества возможных состояний.

Измененная итерация политики [ править ]

В итерации модифицированной политики ( van Nunen 1976 ; Puterman & Shin 1978 ) первый шаг выполняется один раз, а затем второй шаг повторяется несколько раз. [8] [9] Затем снова выполняется первый шаг и так далее.

Приоритетное подметание [ править ]

В этом варианте шаги предпочтительно применяются к состояниям, которые в некотором роде важны - будь то на основе алгоритма (в последнее время произошли большие изменения в этих состояниях или вокруг них) или на основе использования (эти состояния находятся рядом с начальным состоянием или иным образом представляющих интерес для человека или программы, использующей алгоритм).

Расширения и обобщения [ править ]

Марковский процесс принятия решений - это стохастическая игра только с одним игроком.

Частичная наблюдаемость [ править ]

Приведенное выше решение предполагает, что состояние известно, когда необходимо предпринять действия; в противном случае невозможно рассчитать. Когда это предположение неверно, проблема называется частично наблюдаемым марковским процессом принятия решений или POMDP.

Большой прогресс в этой области был сделан Бернетасом и Катехакисом в статье «Оптимальные адаптивные политики для марковских процессов принятия решений». [10] В этой работе класс адаптивных политик, которые обладают свойствами равномерно максимальной скорости сходимости для общего ожидаемого вознаграждения за конечный горизонт, был построен в предположениях конечного состояния пространств действия и неприводимости закона перехода. Эти политики предписывают, что выбор действий в каждом состоянии и в каждый период времени должен основываться на показателях, которые представляют собой инфляцию правой части уравнений оптимальности расчетного среднего вознаграждения.

Обучение с подкреплением [ править ]

Обучение с подкреплением использует MDP, где вероятность или вознаграждение неизвестны. [11]

Для этой цели полезно определить дополнительную функцию, которая соответствует выполнению действия и последующему его оптимальному продолжению (или в соответствии с той политикой, которая у вас есть в настоящее время):

Хотя эта функция также неизвестна, опыт во время обучения основан на парах (вместе с результатом ; то есть «Я был в состоянии, я пытался сделать, и получилось»). Таким образом, у человека есть массив, и он использует опыт для его непосредственного обновления. Это известно как Q-обучение .

Обучение с подкреплением может решать марковские процессы принятия решений без явной спецификации переходных вероятностей; значения вероятностей перехода необходимы в итерациях значения и политики. В обучении с подкреплением вместо явного указания вероятностей переходов доступ к вероятностям перехода осуществляется через симулятор, который обычно перезапускается много раз из однородно случайного начального состояния. Обучение с подкреплением также можно комбинировать с аппроксимацией функций для решения задач с очень большим количеством состояний.

Обучающие автоматы [ править ]

Еще одно применение процесса MDP в теории машинного обучения называется обучающимися автоматами. Это также один из типов обучения с подкреплением, если среда является стохастической. Обзор первой статьи по детально обучающимся автоматам был проведен Нарендрой и Татхачаром (1974), которые изначально были явно описаны как конечные автоматы . [12]Подобно обучению с подкреплением, алгоритм обучающихся автоматов также имеет преимущество в решении проблемы, когда вероятность или вознаграждение неизвестны. Разница между обучающими автоматами и Q-обучением заключается в том, что в первом методе не сохраняется память о Q-значениях, но напрямую обновляется вероятность действия, чтобы найти результат обучения. Обучающиеся автоматы - это обучающая схема со строгим доказательством сходимости. [13]

В теории обучающих автоматов стохастический автомат состоит из:

  • набор x возможных входов,
  • множество Φ = {Φ 1 , ..., Φ s } возможных внутренних состояний,
  • набор α = {α 1 , ..., α r } возможных выходов или действий при r  ≤  s ,
  • вектор вероятности начального состояния p (0) = ≪ p 1 (0), ..., p s (0) ≫,
  • вычислимая функция , которая после каждого временного шага т генерирует р ( т  + 1) из р ( т ), текущий входной сигнал и текущее состояние, и
  • функция G : Φ → α, которая генерирует выходные данные на каждом временном шаге.

Состояния такого автомата соответствуют состояниям « марковского процесса с дискретными параметрами ». [14] На каждом временном шаге t  = 0,1,2,3, ... автомат считывает входные данные из своей среды, обновляет P ( t ) до P ( t  + 1) с помощью A , случайным образом выбирает состояние-преемник. согласно вероятностям P ( t  + 1) и выдает соответствующее действие. Среда автомата, в свою очередь, считывает действие и отправляет автомату следующий ввод. [13]

Теоретико-категориальная интерпретация [ править ]

Помимо вознаграждения, марковский процесс принятия решений можно понять с точки зрения теории категорий . А именно, пусть обозначим свободный моноид с порождающим множеством A . Пусть Dist обозначать категорию Клейсли из монады Жири . Тогда функтор кодирует оба множества S состояний и функция вероятности Р .

Таким образом, марковские процессы принятия решений могут быть обобщены от моноидов (категорий с одним объектом) до произвольных категорий. Можно назвать результат в процесс принятия решений Маркова контекстно-зависимые , так как переход от одного объекта к другому в изменении набора доступных действий и набор возможных состояний. [ необходима цитата ]

Марковский процесс принятия решений в непрерывном режиме [ править ]

В процессах принятия решений Маркова с дискретным временем решения принимаются через дискретные интервалы времени. Однако для процессов принятия решений Маркова с непрерывным временем решения могут приниматься в любое время по выбору лица, принимающего решения. По сравнению с марковскими процессами принятия решений с дискретным временем, марковские процессы принятия решений с непрерывным временем могут лучше моделировать процесс принятия решений для системы, которая имеет непрерывную динамику , то есть динамика системы определяется уравнениями в частных производных (PDE).

Определение [ править ]

Чтобы обсудить марковский процесс принятия решений в непрерывном времени, мы введем два набора обозначений:

Если пространство состояний и пространство действий конечны,

  • : Государственное пространство;
  • : Пространство действий;
  • : , функция скорости перехода;
  • : , функция вознаграждения.

Если пространство состояний и пространство действий непрерывны,

  • : пространство состояний;
  • : пространство возможного контроля;
  • : , функция скорости перехода;
  • : , функция коэффициента вознаграждения такая, что , где - функция вознаграждения, которую мы обсуждали в предыдущем случае.

Проблема [ править ]

Подобно процессам Маркова с дискретным временем, в процессах Маркова с непрерывным временем мы хотим найти оптимальную политику или управление, которые могли бы дать нам оптимальное ожидаемое интегрированное вознаграждение:

где

Формулировка линейного программирования [ править ]

Если пространство состояний и пространство действий конечны, мы могли бы использовать линейное программирование для поиска оптимальной политики, что было одним из первых применявшихся подходов. Здесь мы рассматриваем только эргодическую модель, что означает, что наша MDP с непрерывным временем становится эргодической марковской цепью с непрерывным временем при стационарной политике . В соответствии с этим предположением, хотя лицо, принимающее решение, может принять решение в любое время в текущем состоянии, оно не может получить больше, если предпримет более одного действия. Им лучше действовать только в то время, когда система переходит из текущего состояния в другое. При некоторых условиях (подробнее см. Следствие 3.14 о марковских процессах принятия решений с непрерывным временем ), если наша функция оптимального значенияне зависит от состояния , мы будем иметь следующее неравенство:

Если существует функция , то будет наименьшая, удовлетворяющая приведенному выше уравнению. Чтобы найти , мы могли бы использовать следующую модель линейного программирования:

  • Первичная линейная программа (P-LP)
  • Двойная линейная программа (D-LP)

является допустимым решением D-LP, если не является родным и удовлетворяет ограничениям в задаче D-LP. Допустимое решение D-LP называется оптимальным решением, если

для всех посильно решение D-LP. Найдя оптимальное решение , мы можем использовать его для разработки оптимальных политик.

Уравнение Гамильтона – Якоби – Беллмана [ править ]

В MDP с непрерывным временем, если пространство состояний и пространство действий непрерывны, оптимальный критерий может быть найден путем решения уравнения в частных производных Гамильтона – Якоби – Беллмана (HJB) . Чтобы обсудить уравнение HJB, нам нужно переформулировать нашу проблему

- функция конечного вознаграждения, - это вектор состояния системы, - это вектор управления системой, который мы пытаемся найти. показывает, как вектор состояния изменяется с течением времени. Уравнение Гамильтона – Якоби – Беллмана выглядит следующим образом:

Мы могли бы решить уравнение, чтобы найти оптимальное управление , которое могло бы дать нам функцию оптимального значения

Заявление [ править ]

Марковские процессы принятия решений с непрерывным временем находят применение в системах массового обслуживания , эпидемических процессах и демографических процессах .

Альтернативные обозначения [ править ]

Терминология и обозначения для MDP полностью не определены. Есть два основных потока: один фокусируется на проблемах максимизации из таких контекстов, как экономика, используя термины действие, вознаграждение, ценность и вызов коэффициента скидки, или , в то время как другой фокусируется на проблемах минимизации из инженерии и навигации [ необходима ссылка ] , используя контроль сроков, стоимости, оставшейся стоимости и фактор дисконтирования . Кроме того, различаются обозначения вероятности перехода.

Кроме того, вероятность перехода иногда пишется , или, реже,

Ограниченные марковские процессы принятия решений [ править ]

Марковские процессы принятия решений с ограничениями (CMDP) являются расширениями марковских процессов принятия решений (MDP). Между MDP и CMDP есть три фундаментальных различия. [15]

  • После применения действия вместо одного возникает несколько затрат.
  • CMDP решаются только с помощью линейных программ , а динамическое программирование не работает.
  • Окончательная политика зависит от начального состояния.

Существует ряд приложений для CMDP. Недавно он был использован в сценариях планирования движения в робототехнике. [16]

См. Также [ править ]

  • Вероятностные автоматы
  • Квантовые конечные автоматы
  • Частично наблюдаемый марковский процесс принятия решений
  • Динамическое программирование
  • Уравнение Беллмана в приложениях к экономике.
  • Уравнение Гамильтона – Якоби – Беллмана.
  • Оптимальный контроль
  • Рекурсивная экономика
  • Проблема овец мабиногиона
  • Стохастические игры
  • Q-обучение

Ссылки [ править ]

  1. ^ Беллман, Р. (1957). «Марковский процесс принятия решений» . Журнал математики и механики . 6 (5): 679–684. JSTOR  24900506 .
  2. ^ Ховард, Рональд А. (1960). Динамическое программирование и марковские процессы (PDF) . MIT Press.
  3. ^ Врубель, А. (1984). «О марковских моделях решений с конечным каркасом». Математические методы исследования операций (ЗОР) . 28 (февраль): 17–27. DOI : 10.1007 / bf01919083 . S2CID 2545336 . 
  4. ^ Кирнс, Майкл; Мансур, Ишай; Нг, Эндрю (2002). "Алгоритм разреженной выборки для почти оптимального планирования в больших марковских процессах принятия решений" . Машинное обучение . 49 (193–208): 193–208. DOI : 10,1023 / A: 1017932429737 .
  5. ^ Обучение с подкреплением: теория и реализация на Python . Пекин: China Machine Press. 2019. стр. 44. ISBN 9787111631774.
  6. ^ Шепли, Ллойд (1953). «Стохастические игры» . Труды Национальной академии наук Соединенных Штатов Америки . 39 (10): 1095–1100. Bibcode : 1953PNAS ... 39.1095S . DOI : 10.1073 / pnas.39.10.1095 . PMC 1063912 . PMID 16589380 .  
  7. ^ Kallenberg, Lodewijk (2002). «Конечные состояния и МДП действия». В Feinberg, Eugene A .; Шварц, Адам (ред.). Справочник по марковским процессам принятия решений: методы и приложения . Springer. ISBN 978-0-7923-7459-6.
  8. ^ Путерман, ML; Шин, MC (1978). "Модифицированные алгоритмы итерации политики для дисконтированных марковских задач решения". Наука управления . 24 (11): 1127–1137. DOI : 10.1287 / mnsc.24.11.1127 .
  9. van Nunen, JAE E (1976). «Набор методов последовательного приближения для дисконтированных марковских задач решения. Z». Исследование операций . 20 (5): 203–208. DOI : 10.1007 / bf01920264 . S2CID 5167748 . 
  10. ^ Burnetas, AN; Катехакис, Миннесота (1997). «Оптимальные адаптивные политики для марковских процессов принятия решений». Математика исследования операций . 22 (1): 222. DOI : 10.1287 / moor.22.1.222 .
  11. ^ Shoham, Y .; Пауэрс, Р .; Гренагер, Т. (2003). «Многоагентное обучение с подкреплением: критический обзор» (PDF) . Технический отчет, Стэнфордский университет : 1–13 . Проверено 12 декабря 2018 .
  12. ^ Нарендра, KS ; Thathachar, MAL (1974). «Обучающие автоматы - обзор». IEEE Transactions по системам, человеку и кибернетике . SMC-4 (4): 323–334. CiteSeerX 10.1.1.295.2280 . DOI : 10.1109 / TSMC.1974.5408453 . ISSN 0018-9472 .  
  13. ^ а б Нарендра, Кумпати С .; Татхачар, Мандаям А.Л. (1989). Обучающие автоматы: Введение . Прентис Холл. ISBN 9780134855585.
  14. ^ Нарендра & Thathachar 1974 , с.325 ушел.
  15. ^ Альтман, Эйтан (1999). Ограниченные марковские процессы принятия решений . 7 . CRC Press.
  16. ^ Feyzabadi, S .; Карпин, С. (18–22 августа 2014 г.). «Планирование пути с учетом рисков с использованием марковских процессов принятия решений с иерархическими ограничениями» . Наука и техника в области автоматизации (CASE) . Международная конференция IEEE. С. 297, 303.

Дальнейшее чтение [ править ]

  • Bellman., RE (2003) [1957]. Динамическое программирование (Дувр, мягкая обложка, ред.). Принстон, Нью-Джерси: Издательство Принстонского университета. ISBN 978-0-486-42809-3.
  • Бертсекас, Д. (1995). Динамическое программирование и оптимальное управление . 2 . МА: Афина.
  • Дерман, К. (1970). Конечные марковские процессы принятия решений . Академическая пресса.
  • Файнберг, EA; Шварц, А., ред. (2002). Справочник по марковским процессам принятия решений . Бостон, Массачусетс: Клувер. ISBN 9781461508052.
  • Guo, X .; Эрнандес-Лерма, О. (2009). Марковские процессы принятия решений с непрерывным временем . Стохастическое моделирование и прикладная вероятность. Springer. ISBN 9783642025464.
  • Мейн, СП (2007). Методы управления сложными сетями . Издательство Кембриджского университета. ISBN 978-0-521-88441-9. Архивировано из оригинального 19 июня 2010 года.Приложение содержит сокращенное «Meyn & Tweedie» . Архивировано из оригинального 18 декабря 2012 года.
  • Путерман., М.Л. (1994). Марковские процессы принятия решений . Вайли.
  • Росс, С.М. (1983). Введение в стохастическое динамическое программирование (PDF) . Академическая пресса.
  • Саттон, РС; Барто, AG (2017). Обучение с подкреплением: Введение . Кембридж, Массачусетс: MIT Press.
  • Tijms., HC (2003). Первый курс стохастических моделей . Вайли. ISBN 9780470864289.

Внешние ссылки [ править ]

  • Научиться решать марковские процессы принятия решений по Сатиндеру П. Сингх