Soluções eficientes para processos de decisão markovianos baseadas em alcançabilidade e bissimulações estocásticas
Planejamento em inteligência artificial é a tarefa de determinar ações que satisfaçam um dado objetivo. Nos problemas de planejamento sob incerteza, as ações podem ter efeitos probabilísticos. Esses problemas são modelados como Processos de Decisão Markovianos (Markov Decision Processes - MDPs...
Main Author: | |
---|---|
Other Authors: | |
Language: | Portuguese |
Published: |
Universidade de São Paulo
2013
|
Subjects: | |
Online Access: | http://www.teses.usp.br/teses/disponiveis/45/45134/tde-12022014-140538/ |
id |
ndltd-IBICT-oai-teses.usp.br-tde-12022014-140538 |
---|---|
record_format |
oai_dc |
spelling |
ndltd-IBICT-oai-teses.usp.br-tde-12022014-1405382019-01-21T23:21:23Z Soluções eficientes para processos de decisão markovianos baseadas em alcançabilidade e bissimulações estocásticas Efficient solutions to Markov decision processes based on reachability and stochastic bisimulations Felipe Martins dos Santos Leliane Nunes de Barros Fabio Gagliardi Cozman Felipe Werndl Trevizan Análise de Alcançabilidade Bissimulação Estocástica Planejamento Probabilístico Processo de Decisão Markoviano Markov Decision Processes Probabilistic Planning Reachability Analysis Stochastic Bisimulation Planejamento em inteligência artificial é a tarefa de determinar ações que satisfaçam um dado objetivo. Nos problemas de planejamento sob incerteza, as ações podem ter efeitos probabilísticos. Esses problemas são modelados como Processos de Decisão Markovianos (Markov Decision Processes - MDPs), modelos que permitem o cálculo de soluções ótimas considerando o valor esperado de cada ação em cada estado. Contudo, resolver problemas grandes de planejamento probabilístico, i.e., com um grande número de estados e ações, é um enorme desafio. MDPs grandes podem ser reduzidos através da computação de bissimulações estocásticas, i.e., relações de equivalência sobre o conjunto de estados do MDP original. A partir das bissimulações estocásticas, que podem ser exatas ou aproximadas, é possível obter um modelo abstrato reduzido que pode ser mais fácil de resolver do que o MDP original. No entanto, para problemas de alguns domínios, a computação da bissimulação estocástica sobre todo o espaço de estados é inviável. Os algoritmos propostos neste trabalho estendem os algoritmos usados para a computação de bissimulações estocásticas para MDPs de forma que elas sejam computadas sobre o conjunto de estados alcançáveis a partir de um dado estado inicial, que pode ser muito menor do que o conjunto de estados completo. Os resultados experimentais mostram que é possível resolver problemas grandes de planejamento probabilístico com desempenho superior às técnicas conhecidas de bissimulação estocástica. Planning in artificial intelligence is the task of finding actions to reach a given goal. In planning under uncertainty, the actions can have probabilistic effects. This problems are modeled using Markov Decision Processes (MDPs), models that enable the computation of optimal solutions considering the expected value of each action when applied in each state. However, to solve big probabilistic planning problems, i.e., those with a large number of states and actions, is still a challenge. Large MDPs can be reduced by computing stochastic bisimulations, i.e., equivalence relations over the original MDP states. From the stochastic bisimulations, that can be exact or approximated, it is possible to get an abstract reduced model that can be easier to solve than the original MDP. But, for some problems, the stochastic bisimulation computation over the whole state space is unfeasible. The algorithms proposed in this work extend the algorithms that are used to compute stochastic bisimulations for MDPs in a way that they can be computed over the reachable set of states with a given initial state, which can be much smaller than the complete set of states. The empirical results show that it is possible to solve large probabilistic planning problems with better performance than the known techniques of stochastic bisimulation. 2013-12-09 info:eu-repo/semantics/publishedVersion info:eu-repo/semantics/masterThesis http://www.teses.usp.br/teses/disponiveis/45/45134/tde-12022014-140538/ por info:eu-repo/semantics/openAccess Universidade de São Paulo Ciência da Computação USP BR reponame:Biblioteca Digital de Teses e Dissertações da USP instname:Universidade de São Paulo instacron:USP |
collection |
NDLTD |
language |
Portuguese |
sources |
NDLTD |
topic |
Análise de Alcançabilidade
Bissimulação Estocástica Planejamento Probabilístico Processo de Decisão Markoviano Markov Decision Processes Probabilistic Planning Reachability Analysis Stochastic Bisimulation |
spellingShingle |
Análise de Alcançabilidade
Bissimulação Estocástica Planejamento Probabilístico Processo de Decisão Markoviano Markov Decision Processes Probabilistic Planning Reachability Analysis Stochastic Bisimulation Felipe Martins dos Santos Soluções eficientes para processos de decisão markovianos baseadas em alcançabilidade e bissimulações estocásticas |
description |
Planejamento em inteligência artificial é a tarefa de determinar ações que satisfaçam um dado objetivo. Nos problemas de planejamento sob incerteza, as ações podem ter efeitos probabilísticos. Esses problemas são modelados como Processos de Decisão Markovianos (Markov Decision Processes - MDPs), modelos que permitem o cálculo de soluções ótimas considerando o valor esperado de cada ação em cada estado. Contudo, resolver problemas grandes de planejamento probabilístico, i.e., com um grande número de estados e ações, é um enorme desafio. MDPs grandes podem ser reduzidos através da computação de bissimulações estocásticas, i.e., relações de equivalência sobre o conjunto de estados do MDP original. A partir das bissimulações estocásticas, que podem ser exatas ou aproximadas, é possível obter um modelo abstrato reduzido que pode ser mais fácil de resolver do que o MDP original. No entanto, para problemas de alguns domínios, a computação da bissimulação estocástica sobre todo o espaço de estados é inviável. Os algoritmos propostos neste trabalho estendem os algoritmos usados para a computação de bissimulações estocásticas para MDPs de forma que elas sejam computadas sobre o conjunto de estados alcançáveis a partir de um dado estado inicial, que pode ser muito menor do que o conjunto de estados completo. Os resultados experimentais mostram que é possível resolver problemas grandes de planejamento probabilístico com desempenho superior às técnicas conhecidas de bissimulação estocástica.
===
Planning in artificial intelligence is the task of finding actions to reach a given goal. In planning under uncertainty, the actions can have probabilistic effects. This problems are modeled using Markov Decision Processes (MDPs), models that enable the computation of optimal solutions considering the expected value of each action when applied in each state. However, to solve big probabilistic planning problems, i.e., those with a large number of states and actions, is still a challenge. Large MDPs can be reduced by computing stochastic bisimulations, i.e., equivalence relations over the original MDP states. From the stochastic bisimulations, that can be exact or approximated, it is possible to get an abstract reduced model that can be easier to solve than the original MDP. But, for some problems, the stochastic bisimulation computation over the whole state space is unfeasible. The algorithms proposed in this work extend the algorithms that are used to compute stochastic bisimulations for MDPs in a way that they can be computed over the reachable set of states with a given initial state, which can be much smaller than the complete set of states. The empirical results show that it is possible to solve large probabilistic planning problems with better performance than the known techniques of stochastic bisimulation.
|
author2 |
Leliane Nunes de Barros |
author_facet |
Leliane Nunes de Barros Felipe Martins dos Santos |
author |
Felipe Martins dos Santos |
author_sort |
Felipe Martins dos Santos |
title |
Soluções eficientes para processos de decisão markovianos baseadas em alcançabilidade e bissimulações estocásticas
|
title_short |
Soluções eficientes para processos de decisão markovianos baseadas em alcançabilidade e bissimulações estocásticas
|
title_full |
Soluções eficientes para processos de decisão markovianos baseadas em alcançabilidade e bissimulações estocásticas
|
title_fullStr |
Soluções eficientes para processos de decisão markovianos baseadas em alcançabilidade e bissimulações estocásticas
|
title_full_unstemmed |
Soluções eficientes para processos de decisão markovianos baseadas em alcançabilidade e bissimulações estocásticas
|
title_sort |
soluções eficientes para processos de decisão markovianos baseadas em alcançabilidade e bissimulações estocásticas |
publisher |
Universidade de São Paulo |
publishDate |
2013 |
url |
http://www.teses.usp.br/teses/disponiveis/45/45134/tde-12022014-140538/ |
work_keys_str_mv |
AT felipemartinsdossantos solucoeseficientesparaprocessosdedecisaomarkovianosbaseadasemalcancabilidadeebissimulacoesestocasticas AT felipemartinsdossantos efficientsolutionstomarkovdecisionprocessesbasedonreachabilityandstochasticbisimulations |
_version_ |
1718905477215027200 |