Processos Markovianos de Decisão com Probablilidades Imprecisas Uma das extensões de Planejamento Clássico da Inteligência Artificial é o planejamento para ações com efeitos probabilísticos cujo problema pode se reduzir a encontrar uma política ótima para um MDP (Markovian Decision Process). Um processo markoviano de decisão com probabilidades imprecisas - MDPIP - é uma extensão do MDP, no qual existe imprecisão nas probabilidades de transição. Nun MDPIP existe um conjunto de distribuições de probabilidades de transição entre dois estados, definidas por um conjunto de inequações lineares. Formalmente, a definição de um MDPIP segue a definição dada para um MDP acrescida de conjuntos condicionais credais K(s'|s,a) válidos e representáveis apenas por inequações lineares que expressam todas as possíveis distribuições de probabilidades P(s'|s,a). Uma das dificuldades de se determinar políticas ótimas para um MDPIP é que, em aplicações reais, a representação do modelo de transição de estados é exponencial no número de variáveis de estado. Nesse seminário, será definida uma representação "fatorada" para MDPIPs com base no conceito de rede credal dinâmica (uma generalização do conceito de redes Bayesianas), como uma forma de se obter uma representação compacta do modelo de transição de estados de um MDPIP. A idéia é que para cada variável de estado e para cada configuração de seus pais, será associado um conjunto de densidades de probabilidade (no lugar de uma simples densidade, como nas redes Bayesianas). Será mostrado ainda como problemas de planejamento com probabilidades imprecisas podem ser descritos na linguagem PDDL (planning domain definition language).