Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

Частично наблюдаемый марковский процесс принятия решения ( POMDP ) представляет собой обобщение решения марковского процесса (MDP). POMDP моделирует процесс принятия решения агентом, в котором предполагается, что динамика системы определяется MDP, но агент не может напрямую наблюдать за базовым состоянием. Вместо этого он должен поддерживать распределение вероятностей по набору возможных состояний на основе набора наблюдений и вероятностей наблюдений, а также лежащего в основе MDP.

Структура POMDP достаточно универсальна, чтобы моделировать множество реальных последовательных процессов принятия решений. Приложения включают проблемы навигации роботов, техническое обслуживание машин и планирование в условиях неопределенности в целом. Общая структура марковских процессов принятия решений с несовершенной информацией была описана Карлом Йоханом Остромом в 1965 году [1] в случае дискретного пространства состояний и в дальнейшем изучена в сообществе исследователей операций, где была придумана аббревиатура POMDP. Позднее он был адаптирован для задач искусственного интеллекта и автоматизированного планирования по Лесли P Каелблинг и Майкл Л. Литтмана . [2]

Точное решение POMDP дает оптимальное действие для каждого возможного убеждения по состояниям мира. Оптимальное действие максимизирует (или минимизирует) ожидаемое вознаграждение (или стоимость) агента на возможно бесконечном горизонте. Последовательность оптимальных действий известна как оптимальная политика агента для взаимодействия со своим окружением.

Определение [ править ]

Формальное определение [ править ]

POMDP с дискретным временем моделирует отношения между агентом и его средой. Формально POMDP представляет собой набор из 7 элементов , где

  • это набор состояний,
  • это набор действий,
  • - набор условных вероятностей перехода между состояниями,
  • это функция вознаграждения.
  • это набор наблюдений,
  • - набор условных вероятностей наблюдения, а
  • коэффициент дисконтирования.

В каждый период времени окружающая среда находится в каком-то состоянии . Агент выполняет действие , в результате которого среда с вероятностью переходит в состояние . В то же время агент получает наблюдение, которое с вероятностью зависит от нового состояния окружающей среды , и от только что предпринятого действия . Наконец, агент получает вознаграждение в размере . Затем процесс повторяется. Цель состоит в том, чтобы агент выбирал действия на каждом временном шаге, которые максимизируют его ожидаемое будущее дисконтированное вознаграждение:, где - вознаграждение, заработанное в данный момент . Фактор скидки определяет, насколько немедленное вознаграждение предпочтительнее более отдаленного вознаграждения. Когдаагент заботится только о том, какое действие принесет наибольшую ожидаемую немедленную награду; когда агент заботится о максимальном увеличении ожидаемой суммы будущих вознаграждений.

Обсуждение [ править ]

Поскольку агент не наблюдает напрямую за состоянием окружающей среды, агент должен принимать решения в условиях неопределенности истинного состояния окружающей среды. Однако, взаимодействуя с окружающей средой и получая наблюдения, агент может обновить свое мнение об истинном состоянии, обновив распределение вероятностей текущего состояния. Следствием этого свойства является то, что оптимальное поведение часто может включать в себя действия (сбор информации), которые предпринимаются исключительно потому, что они улучшают оценку агентом текущего состояния, тем самым позволяя ему принимать более обоснованные решения в будущем.

Поучительно сравнить приведенное выше определение с определением марковского процесса принятия решений . MDP не включает набор наблюдений, потому что агент всегда точно знает текущее состояние среды. В качестве альтернативы, MDP можно переформулировать как POMDP, установив набор наблюдений равным набору состояний и определив условные вероятности наблюдения для детерминированного выбора наблюдения, которое соответствует истинному состоянию.

Обновление убеждений [ править ]

После выполнения действия и наблюдения агенту необходимо обновить свое мнение о состоянии, в котором может (или нет) находиться окружающая среда. Поскольку состояние является марковским (по предположению), поддержание веры в состояния требует исключительно знания предыдущих состояние убеждений, предпринятые действия и текущее наблюдение. Обозначена операция . Ниже мы описываем, как рассчитывается это обновление убеждений.

Достигнув , агент с вероятностью наблюдает . Позвольте быть вероятностным распределением по пространству состояний . обозначает вероятность того, что окружающая среда находится в состоянии . Учитывая , то после принятия мер и наблюдения ,

где - нормирующая постоянная с .

Вера MDP [ править ]

Марковское состояние убеждений позволяет сформулировать POMDP как марковский процесс принятия решений, в котором каждое убеждение является состоянием. Таким образом, результирующая MDP убеждения будет определена в непрерывном пространстве состояний (даже если «исходный» POMDP имеет конечное число состояний: есть бесконечные состояния доверия (in ), потому что существует бесконечное количество распределений вероятностей по состояниям (of )). [2]

Формально убеждение MDP определяется как кортеж, в котором

  • - это набор состояний убеждений по состояниям POMDP,
  • - тот же конечный набор действий, что и для исходного POMDP,
  • функция перехода в состояние доверия,
  • - функция вознаграждения по состояниям убеждений,
  • - коэффициент дисконтирования, равный исходному POMDP.

Из них и нужно вывести исходный POMDP. является

где - значение, полученное в предыдущем разделе, и

Функция вознаграждения MDP убеждений ( ) - это ожидаемое вознаграждение от функции вознаграждения POMDP по распределению состояний убеждений:

.

Убеждение MDP больше не является частично наблюдаемым, поскольку в любой момент времени агент знает свое убеждение и, в более широком смысле, состояние MDP убеждения.

Политика и функция ценностей [ править ]

В отличие от «исходной» POMDP (где каждое действие доступно только из одного состояния), в соответствующей MDP убеждений все состояния убеждений разрешают все действия, поскольку у вас (почти) всегда есть некоторая вероятность полагать, что вы находитесь в любом (исходном) состоянии. Таким образом, определяет действие для любого убеждения .

Здесь предполагается, что цель состоит в том, чтобы максимизировать ожидаемое общее дисконтированное вознаграждение на бесконечном горизонте. Когда определяется стоимость, целью становится минимизация ожидаемой стоимости.

Ожидаемое вознаграждение за политику, исходящую из убеждений , определяется как

где коэффициент дисконтирования. Оптимальная политика достигается за счет оптимизации долгосрочного вознаграждения.

где изначальное убеждение.

Оптимальная политика, обозначенная как , дает наивысшее ожидаемое значение вознаграждения для каждого состояния убеждений, компактно представленное функцией оптимального значения . Эта функция цены является решением уравнения оптимальности Беллмана :

Для POMDP с конечным горизонтом функция оптимального значения является кусочно-линейной и выпуклой. [3] Его можно представить как конечный набор векторов. В формулировке с бесконечным горизонтом можно произвольно аппроксимировать конечный набор векторов , форма которого остается выпуклой. Итерация значений применяет обновление динамического программирования для постепенного улучшения значения до сходимости к функции оптимального значения и сохраняет ее кусочную линейность и выпуклость. [4] Повышая ценность, мы неявно улучшаем политику. Другой метод динамического программирования, называемый итерацией политики, вместо этого явно представляет и улучшает политику. [5] [6]

Планирование в POMDP [ править ]

Планирование в POMDP вообще неразрешимо . Однако некоторые параметры были определены как разрешимые (см. Таблицу 2 в [7], воспроизведенную ниже). Были рассмотрены разные цели. Цели Büchi определяются автоматами Büchi . Достижимость - это пример состояния Бюхи (например, достижение хорошего состояния, в котором все роботы находятся дома). Объективы coBüchi соответствуют трассам, которые не удовлетворяют заданному условию Büchi (например, не достигают плохого состояния, в котором погиб какой-то робот). Цели паритета определяются через паритетные игры ; они позволяют ставить сложные задачи таким образом, чтобы достичь хорошего состояния каждые 10 временных шагов. Цель может быть достигнута:

  • почти наверняка, то есть вероятность достижения цели равна 1;
  • положительный, то есть вероятность достижения цели строго больше 0;
  • количественный, то есть вероятность достижения цели больше заданного порога.

Мы также рассматриваем случай конечной памяти, в котором агент является конечным автоматом, и общий случай, в котором агент имеет бесконечную память.

Примерные решения POMDP [ править ]

На практике POMDP часто трудно решить с помощью вычислений , поэтому специалисты по информатике разработали методы, приближающие решения для POMDP. [8]

Сеточные алгоритмы [9] содержат один метод приближенного решения. В этом подходе функция ценности вычисляется для набора точек в пространстве убеждений, а интерполяция используется для определения оптимального действия, которое необходимо предпринять для других обнаруженных состояний убеждений, которые не входят в набор точек сетки. В более поздних работах используются методы выборки, методы обобщения и использование структуры проблемы, а решение POMDP распространилось на большие области с миллионами состояний. [10] [11] Например, адаптивные сетки и точечные методы выбирают случайные достижимые точки доверия, чтобы ограничить планирование соответствующими областями в пространстве убеждений. [12] [13] Уменьшение размерности с помощью PCAтакже был исследован. [14]

Использует [ редактировать ]

POMDP можно использовать для моделирования многих видов реальных проблем. Известные применения включают использование POMDP при лечении пациентов с ишемической болезнью сердца, [15] вспомогательные технологии для людей с деменцией, [10] [11] сохранение находящихся под угрозой исчезновения и трудных для обнаружения суматранских тигров [16] и самолетов. избежание столкновения. [17]

Ссылки [ править ]

  1. ^ Åström, KJ (1965). «Оптимальное управление марковскими процессами при неполной информации о состоянии» . Журнал математического анализа и приложений . 10 : 174–205. DOI : 10.1016 / 0022-247X (65) 90154-X .
  2. ^ a b Kaelbling, LP, Littman, ML, Cassandra, AR (1998). «Планирование и действия в частично наблюдаемых стохастических областях». Искусственный интеллект . 101 (1–2): 99–134. DOI : 10.1016 / S0004-3702 (98) 00023-X .CS1 maint: multiple names: authors list (link)
  3. ^ Sondik, EJ (1971). Оптимальное управление частично наблюдаемыми марковскими процессами (кандидатская диссертация). Стэндфордский Университет.
  4. ^ Smallwood, RD, Sondik, EJ ( , 1973). «Оптимальное управление частично наблюдаемыми марковскими процессами принятия решений на конечном горизонте». Исследование операций . 21 (5): 1071–88. DOI : 10.1287 / opre.21.5.1071 .CS1 maint: multiple names: authors list (link)
  5. ^ Sondik, EJ (1978). «Оптимальное управление частично наблюдаемыми марковскими процессами на бесконечном горизонте: дисконтированная стоимость». Исследование операций . 26 (2): 282–304. DOI : 10.1287 / opre.26.2.282 .
  6. ^ Хансен, Э. (1998). «Решение POMDP путем поиска в политическом пространстве». Труды Четырнадцатой Международной конференции по неопределенности в искусственном интеллекте (UAI-98) . arXiv : 1301,7380 .
  7. ^ a b c d e Чаттерджи, Кришненду; Хмелик, Мартин; Траколь, Матье (2016-08-01). «Что разрешимо относительно частично наблюдаемых марковских процессов принятия решений с ω-регулярными целями» . Журнал компьютерных и системных наук . 82 (5): 878–911. DOI : 10.1016 / j.jcss.2016.02.009 . ISSN 0022-0000 . 
  8. ^ Hauskrecht, М. (2000). «Аппроксимации функции цены для частично наблюдаемых марковских процессов принятия решений» . Журнал исследований искусственного интеллекта . 13 : 33–94. DOI : 10.1613 / jair.678 .
  9. ^ Лавджой, W. (1991). «Вычислительно допустимые границы для частично наблюдаемых марковских процессов принятия решений». Исследование операций . 39 : 162–175. DOI : 10.1287 / opre.39.1.162 .
  10. ^ a b Джесси Хои; Аксель фон Бертольди; Паскаль Попар; Алекс Михайлидис (2007). «Помощь людям с деменцией во время мытья рук с использованием частично наблюдаемого марковского процесса принятия решений». Proc. Международная конференция по системам компьютерного зрения (ICVS) . DOI : 10,2390 / biecoll-icvs2007-89 .
  11. ^ a b Джесси Хои; Паскаль Попар; Аксель фон Бертольди; Тэмми Крейг; Крейг Бутилье; Алекс Михайлидис. (2010). «Автоматическая помощь в мытье рук для людей с деменцией с использованием видео и частично наблюдаемого процесса принятия решений Маркова». Компьютерное зрение и понимание изображений (CVIU) . 114 (5): 503–519. CiteSeerX 10.1.1.160.8351 . DOI : 10.1016 / j.cviu.2009.06.008 . 
  12. ^ Pineau, J., Гордон, Г., Thrun, S. (август 2003). «Итерация значений на основе точек: постоянный алгоритм для POMDP» (PDF) . Международная объединенная конференция по искусственному интеллекту (IJCAI). Акапулько, Мексика . С. 1025–32. CS1 maint: multiple names: authors list (link)
  13. ^ Hauskrecht, М. (1997). «Инкрементальные методы вычисления границ в частично наблюдаемых марковских процессах принятия решений». Труды 14-й Национальной конференции по искусственному интеллекту (AAAI). Провиденс, Род-Айленд . С. 734–739. CiteSeerX 10.1.1.85.8303 . 
  14. ^ Рой, Николас ; Гордон, Джеффри (2003). «Экспоненциальный семейный PCA для сжатия убеждений в POMDP» (PDF) . Достижения в системах обработки нейронной информации .
  15. ^ Hauskrecht, М., Фрейзер, H. (2000). «Планирование лечения ишемической болезни сердца с частично наблюдаемыми марковскими процессами принятия решений». Искусственный интеллект в медицине . 18 (3): 221–244. DOI : 10.1016 / S0933-3657 (99) 00042-1 . PMID 10675716 . CS1 maint: multiple names: authors list (link)
  16. ^ Chadès, И. Макдональд-Madden, Е. Маккарти, MA, Wintle, Б., Linkie, М., Possingham, HP (16 сентября 2008). «Когда прекратить управление или обследование скрытых видов, находящихся под угрозой исчезновения» . Proc. Natl. Акад. Sci. США . 105 (37): 13936–40. Bibcode : 2008PNAS..10513936C . DOI : 10.1073 / pnas.0805265105 . PMC 2544557 . PMID 18779594 .  CS1 maint: multiple names: authors list (link)
  17. ^ Kochenderfer, Mykel J. (2015). «Оптимизированное предотвращение столкновений в воздухе» . Принятие решений в условиях неопределенности . MIT Press.

Внешние ссылки [ править ]

  • Страницы POMDP Тони Кассандры с учебником, примерами проблем, смоделированных как POMDP, и программным обеспечением для их решения.
  • pomdp: Решатель для частично наблюдаемых марковских процессов принятия решений (POMDP) пакет R, обеспечивающий интерфейс для решателя POMDP Тони Кассандры.
  • zmdp , решатель POMDP Трея Смита
  • APPL , быстрый точечный решатель POMDP
  • SPUDD , решатель MDP с факторизованной структурой (PO), использующий алгебраические диаграммы решений (ADD).
  • pyPOMDP , набор инструментов (PO) MDP (симулятор, решатель, обучающийся, читатель файлов) для Python от Оливер Столлманн и Бастиан Мигге
  • Конечные контроллеры, использующие функцию Branch-and-Bound для точного решения POMDP для политик ограниченного размера
  • POMDPs.jl , интерфейс для определения и решения MDP и POMDP в Julia с различными решателями.