Soluções eficientes para processos de decisão markovianos baseadas em alcançabilidade e bissimulações estocásticas

Planejamento em inteligência artificial é a tarefa de determinar ações que satisfaçam um dado objetivo. Nos problemas de planejamento sob incerteza, as ações podem ter efeitos probabilísticos. Esses problemas são modelados como Processos de Decisão Markovianos (Markov Decision Processes - MDPs...

Full description

Bibliographic Details
Main Author: Felipe Martins dos Santos
Other Authors: Leliane Nunes de Barros
Language:Portuguese
Published: Universidade de São Paulo 2013
Subjects:
Online Access:http://www.teses.usp.br/teses/disponiveis/45/45134/tde-12022014-140538/
id ndltd-IBICT-oai-teses.usp.br-tde-12022014-140538
record_format oai_dc
spelling ndltd-IBICT-oai-teses.usp.br-tde-12022014-1405382019-01-21T23:21:23Z Soluções eficientes para processos de decisão markovianos baseadas em alcançabilidade e bissimulações estocásticas Efficient solutions to Markov decision processes based on reachability and stochastic bisimulations Felipe Martins dos Santos Leliane Nunes de Barros Fabio Gagliardi Cozman Felipe Werndl Trevizan Análise de Alcançabilidade Bissimulação Estocástica Planejamento Probabilístico Processo de Decisão Markoviano Markov Decision Processes Probabilistic Planning Reachability Analysis Stochastic Bisimulation Planejamento em inteligência artificial é a tarefa de determinar ações que satisfaçam um dado objetivo. Nos problemas de planejamento sob incerteza, as ações podem ter efeitos probabilísticos. Esses problemas são modelados como Processos de Decisão Markovianos (Markov Decision Processes - MDPs), modelos que permitem o cálculo de soluções ótimas considerando o valor esperado de cada ação em cada estado. Contudo, resolver problemas grandes de planejamento probabilístico, i.e., com um grande número de estados e ações, é um enorme desafio. MDPs grandes podem ser reduzidos através da computação de bissimulações estocásticas, i.e., relações de equivalência sobre o conjunto de estados do MDP original. A partir das bissimulações estocásticas, que podem ser exatas ou aproximadas, é possível obter um modelo abstrato reduzido que pode ser mais fácil de resolver do que o MDP original. No entanto, para problemas de alguns domínios, a computação da bissimulação estocástica sobre todo o espaço de estados é inviável. Os algoritmos propostos neste trabalho estendem os algoritmos usados para a computação de bissimulações estocásticas para MDPs de forma que elas sejam computadas sobre o conjunto de estados alcançáveis a partir de um dado estado inicial, que pode ser muito menor do que o conjunto de estados completo. Os resultados experimentais mostram que é possível resolver problemas grandes de planejamento probabilístico com desempenho superior às técnicas conhecidas de bissimulação estocástica. Planning in artificial intelligence is the task of finding actions to reach a given goal. In planning under uncertainty, the actions can have probabilistic effects. This problems are modeled using Markov Decision Processes (MDPs), models that enable the computation of optimal solutions considering the expected value of each action when applied in each state. However, to solve big probabilistic planning problems, i.e., those with a large number of states and actions, is still a challenge. Large MDPs can be reduced by computing stochastic bisimulations, i.e., equivalence relations over the original MDP states. From the stochastic bisimulations, that can be exact or approximated, it is possible to get an abstract reduced model that can be easier to solve than the original MDP. But, for some problems, the stochastic bisimulation computation over the whole state space is unfeasible. The algorithms proposed in this work extend the algorithms that are used to compute stochastic bisimulations for MDPs in a way that they can be computed over the reachable set of states with a given initial state, which can be much smaller than the complete set of states. The empirical results show that it is possible to solve large probabilistic planning problems with better performance than the known techniques of stochastic bisimulation. 2013-12-09 info:eu-repo/semantics/publishedVersion info:eu-repo/semantics/masterThesis http://www.teses.usp.br/teses/disponiveis/45/45134/tde-12022014-140538/ por info:eu-repo/semantics/openAccess Universidade de São Paulo Ciência da Computação USP BR reponame:Biblioteca Digital de Teses e Dissertações da USP instname:Universidade de São Paulo instacron:USP
collection NDLTD
language Portuguese
sources NDLTD
topic Análise de Alcançabilidade
Bissimulação Estocástica
Planejamento Probabilístico
Processo de Decisão Markoviano
Markov Decision Processes
Probabilistic Planning
Reachability Analysis
Stochastic Bisimulation
spellingShingle Análise de Alcançabilidade
Bissimulação Estocástica
Planejamento Probabilístico
Processo de Decisão Markoviano
Markov Decision Processes
Probabilistic Planning
Reachability Analysis
Stochastic Bisimulation
Felipe Martins dos Santos
Soluções eficientes para processos de decisão markovianos baseadas em alcançabilidade e bissimulações estocásticas
description Planejamento em inteligência artificial é a tarefa de determinar ações que satisfaçam um dado objetivo. Nos problemas de planejamento sob incerteza, as ações podem ter efeitos probabilísticos. Esses problemas são modelados como Processos de Decisão Markovianos (Markov Decision Processes - MDPs), modelos que permitem o cálculo de soluções ótimas considerando o valor esperado de cada ação em cada estado. Contudo, resolver problemas grandes de planejamento probabilístico, i.e., com um grande número de estados e ações, é um enorme desafio. MDPs grandes podem ser reduzidos através da computação de bissimulações estocásticas, i.e., relações de equivalência sobre o conjunto de estados do MDP original. A partir das bissimulações estocásticas, que podem ser exatas ou aproximadas, é possível obter um modelo abstrato reduzido que pode ser mais fácil de resolver do que o MDP original. No entanto, para problemas de alguns domínios, a computação da bissimulação estocástica sobre todo o espaço de estados é inviável. Os algoritmos propostos neste trabalho estendem os algoritmos usados para a computação de bissimulações estocásticas para MDPs de forma que elas sejam computadas sobre o conjunto de estados alcançáveis a partir de um dado estado inicial, que pode ser muito menor do que o conjunto de estados completo. Os resultados experimentais mostram que é possível resolver problemas grandes de planejamento probabilístico com desempenho superior às técnicas conhecidas de bissimulação estocástica. === Planning in artificial intelligence is the task of finding actions to reach a given goal. In planning under uncertainty, the actions can have probabilistic effects. This problems are modeled using Markov Decision Processes (MDPs), models that enable the computation of optimal solutions considering the expected value of each action when applied in each state. However, to solve big probabilistic planning problems, i.e., those with a large number of states and actions, is still a challenge. Large MDPs can be reduced by computing stochastic bisimulations, i.e., equivalence relations over the original MDP states. From the stochastic bisimulations, that can be exact or approximated, it is possible to get an abstract reduced model that can be easier to solve than the original MDP. But, for some problems, the stochastic bisimulation computation over the whole state space is unfeasible. The algorithms proposed in this work extend the algorithms that are used to compute stochastic bisimulations for MDPs in a way that they can be computed over the reachable set of states with a given initial state, which can be much smaller than the complete set of states. The empirical results show that it is possible to solve large probabilistic planning problems with better performance than the known techniques of stochastic bisimulation.
author2 Leliane Nunes de Barros
author_facet Leliane Nunes de Barros
Felipe Martins dos Santos
author Felipe Martins dos Santos
author_sort Felipe Martins dos Santos
title Soluções eficientes para processos de decisão markovianos baseadas em alcançabilidade e bissimulações estocásticas
title_short Soluções eficientes para processos de decisão markovianos baseadas em alcançabilidade e bissimulações estocásticas
title_full Soluções eficientes para processos de decisão markovianos baseadas em alcançabilidade e bissimulações estocásticas
title_fullStr Soluções eficientes para processos de decisão markovianos baseadas em alcançabilidade e bissimulações estocásticas
title_full_unstemmed Soluções eficientes para processos de decisão markovianos baseadas em alcançabilidade e bissimulações estocásticas
title_sort soluções eficientes para processos de decisão markovianos baseadas em alcançabilidade e bissimulações estocásticas
publisher Universidade de São Paulo
publishDate 2013
url http://www.teses.usp.br/teses/disponiveis/45/45134/tde-12022014-140538/
work_keys_str_mv AT felipemartinsdossantos solucoeseficientesparaprocessosdedecisaomarkovianosbaseadasemalcancabilidadeebissimulacoesestocasticas
AT felipemartinsdossantos efficientsolutionstomarkovdecisionprocessesbasedonreachabilityandstochasticbisimulations
_version_ 1718905477215027200