TrabalhosGratuitos.com - Trabalhos, Monografias, Artigos, Exames, Resumos de livros, Dissertações
Pesquisar

Estratégias Aproximativas

Relatório de pesquisa: Estratégias Aproximativas. Pesquise 861.000+ trabalhos acadêmicos

Por:   •  29/8/2014  •  Relatório de pesquisa  •  1.707 Palavras (7 Páginas)  •  245 Visualizações

Página 1 de 7

. Estratégias Aproximativas

O objetivo desta seção é discutir alguns esquemas aproximativos adotados para simplificar o problema (2). A solução ótima gerada pelo problema modificado é uma solução quasi-ótima para o problema original. Como será visto à frente, a capacidade de adaptabilidade de uma estratégia aproximativa é a garantia de soluções subótimas mais próximas do ótimo global. Basicamente pode-se destacar quatro tipos de aproximações para a classe de problemas do tipo definido em (2), a saber (KLEINDORFER, 1978):

i) Aproximações do Critério e da Dinâmica do Sistema: em geral, adota-se as séries de Taylor para eliminar características não-lineares existentes nas funções de custo e nas equações do sistema dinâmico. Em particular, linearizações de funções são introduzidas via aproximações de primeira ordem enquanto que funções quadráticas o são via aproximações de segunda ordem. É interessante observar que este tipo de estratégia viabiliza o uso de técnicas de programação linear e quadrática, muito empregadas na prática.

ii)Discretização do Espaço das Variáveis de Decisão: as técnicas de discretização são estratégias adotadas para converter problemas estocásticos seqüenciais complexos, como o proposto em (2), em uma seqüência de subproblemas mais simples, com um número finito (contável) de estados, controle e perturbações. O algoritmo de programação dinâmica é usuário deste tipo de aproximação. É importante observar que quando os espaços das variáveis envolvidas estão restritos a conjuntos finitos, a técnica de discretização conduz a bons resultados, principalmente quando o passo de discretização (Dp) é muito pequeno, algo próximo de zero (BERTESEKAS, 1995). Entretanto, neste caso sempre existirá um compromisso na escolha do Dp. De fato, valores muito pequenos de Dp, embora conduzam a soluções mais refinadas, podem ser a causa de uma possível instabilidade numérica do algoritmo, além de envolver um alto custo computacional. Por outro lado, para valores muito altos de D p, a solução gerada pode apresentar-se distorcida em relação à solução ótima malha-fechada. Neste sentido, encontrar um valor de compromisso para Dp é uma atividade importante nesta estratégia (BERTESEKAS, 1995).

iii) Regras de Decisão Lineares: neste caso a idéia é desenvolver uma estrutura funcional simples para representar a política de controle do sistema. Por exemplo, pode-se assumir que esta política depende linearmente das medidas de estado. Neste caso, pode-se utilizar um ganho ótimo linear que, quando excitado por medidas de estado observadas do sistema, forneça uma política de decisão a ser aplicada ao sistema. Em geral, este tipo de estratégia é utilizada conjuntamente com a solução de um problema equivalente a (2), porém essencialmente determinístico. Na subseção 7.4 discute-se o procedimento Parcialmente em Malha-Fechada (PMF) usuário desta estratégia. Outros detalhes sobre regras de decisão são encontrados em HAX & CANDEA (1984) e HAY & HOLT (1975).

iv)Aproximações no Uso da Informação Disponível: este tipo de aproximação diz respeito ao modo como a estratégia de controle, a ser adotada, utiliza as informações observadas a partir do processo físico. Resumidamente pode-se citar 4 estratégias, que dão origem a dezenas de outras:

Estratégia Malha-Fechada (EMF): neste tipo de estratégia, procura-se preservar a natureza estocástica do problema, desenvolvendo para isto uma lei de controle que considera todas as informações disponíveis sobre as variáveis de decisão que compõem o sistema dinâmico. Estas informações são utilizadas para gerar uma política ótima malha-fechada como solução do problema. Em problemas de controle estocástico com restrições, como o formulado em (2), somente soluções numéricas são possíveis de ser encontradas, a partir da aplicação do Princípio da Otimalidade (BERTESEKAS, 1995). Neste caso, uma solução ótima malha-fechada para (2) pode ser obtida via algoritmo de programação dinâmica estocástica.

Estratégia Malha-Aberta (EMA): neste caso, tem-se um problema essencialmente determinístico, geralmente definido fixando a variável de perturbação em um valor previamente conhecido (por exemplo, quando a demanda por produtos é fixada nas previsões de vendas ou em médias mensais previamente extraídas de históricos de vendas). Como conseqüência, o operador esperança matemática relacionado com o custo e os operadores probabilísticos das restrições de chance perdem sentido na formulação (2) e o problema estocástico torna-se um problema essencialmente determinístico. Deste modo, quaisquer métodos aplicáveis da programação matemática podem ser utilizados como técnica de solução. Duas situações podem ocorrer no emprego desta estratégia, a saber: (b.1) Estratégia Malha-Aberta Sem-Observações (MASO): nesta estratégia, o controle considera as informações disponíveis somente no período inicial do horizonte de tempo (i.e., k=0), quaisquer outras informações observadas nos períodos subseqüentes são completamente ignoradas. Note-se que neste tipo de estratégia o problema determinístico é resolvido de uma única vez, ou seja, em um único estágio. Portanto, este problema é não-seqüencial (ou seja, estático) e (b.2) Estratégia Malha-Aberta Com Observações (MACO): idêntica à estratégia da situação anterior, só que neste caso as observações disponíveis ao longo dos períodos são empregadas na solução do problema. Isto significa que para um dado período k, tão logo seja observada uma nova medida do estado (nível de estoque) do sistema, esta será utilizada como condição inicial na solução do problema determinístico dentro do horizonte de planejamento [k, N]. O problema, neste caso, é resolvido num total de N vezes. Exemplo de um procedimento que emprega esta estratégia é o "Naive Feedback Controller" (NFC) que será analisado na subseção 7.3.

Estratégia do Modelo Estatisticamente-Equivalente (EME): esta estratégia adota as informações estatísticas relacionadas ao processo dinâmico estocástico (1) com objetivo de reduzir a complexidade do problema. A função distribuição de probabilidade associada ao processo (1) é geralmente empregada no processo de simplificação do problema estocástico (2). Assumindo-se, por exemplo, (1) como sendo um processo Gaussiano, pode-se resumir toda a informação estatística necessária ao processo de simplificação de (2), exatamente, na evolução temporal do primeiro e segundo momento estatístico (ou seja, média e variância de (1)). Assim, com esta informação conhecida ao longo do tempo pode-se converter

...

Baixar como (para membros premium)  txt (12 Kb)  
Continuar por mais 6 páginas »
Disponível apenas no TrabalhosGratuitos.com