Paola Geovanna Patzi Aquino Condições de Otimalidade para Problemas de Controle Ótimo Minimax Tese de Doutorado Pós-Graduação em Matemática São José do Rio Preto 2019 Paola Geovanna Patzi Aquino Condições de Otimalidade para Problemas de Controle Ótimo Minimax Tese apresentada como parte dos requisitos para obtenção do t́ıtulo de Doutor em Matemática, junto ao Programa de Pós-Graduação em Ma- temática, do Instituto de Biociências, Letras e Ciências Exatas da Universidade Estadual Pau- lista “Júlio de Mesquita Filho”, Câmpus de São José do Rio Preto. Financiadora: CAPES Orientador: Prof. Dr. Geraldo Nunes Silva São José do Rio Preto 2019 A657c Aquino, Paola Geovanna Patzi Condições de otimalidade para problemas de controle ótimo minimax / Paola Geovanna Patzi Aquino. -- São José do Rio Preto, 2019 116 f. : il. Tese (doutorado) - Universidade Estadual Paulista (Unesp), Instituto de Biociências Letras e Ciências Exatas, São José do Rio Preto Orientador: Geraldo Nunes Silva 1. Matemática aplicada. 2. Teoria do controle. 3. Otimização (Matemática). 4. Equações de Hamilton-Jacobi. 5. Princípios de máximo (Matemática). I. Título. Sistema de geração automática de fichas catalográficas da Unesp. Biblioteca do Instituto de Biociências Letras e Ciências Exatas, São José do Rio Preto. Dados fornecidos pelo autor(a). Essa ficha não pode ser modificada. Paola Geovanna Patzi Aquino Condições de Otimalidade para Problemas de Controle Ótimo Minimax Tese apresentada como parte dos requisitos para obtenção do t́ıtulo de Doutor em Matemática, junto ao Programa de Pós-Graduação em Ma- temática, do Instituto de Biociências Letras e Ciências Exatas da Universidade Estadual Pau- lista “Júlio de Mesquita Filho”, Campus de São José do Rio Preto. Financiadora: CAPES Comissão Examinadora Prof. Dr. Geraldo Nunes Silva UNESP - São José do Rio Preto Orientador Prof. Dr. Valeriano Antunes de Oliveira UNESP - São José do Rio Preto Profa. Dra. Andréa Cristina Prokopczyk Arita UNESP - São José do Rio Preto Profa. Dra. Lucelina Batista Santos UFPR - Curitiba Prof. Dr. Eduardo Fontoura Costa USP - São Carlos São José do Rio Preto, 22 de março de 2019. Aos meus amados pais, Vitaliano (in memorian) e Juana. Aos meus queridos irmãos, Juan José, Luis e Lizeth. Dedico. Agradecimentos Primeiramente, agradeço a Deus, por me proteger, cuidar, iluminar, guiar-me ao longo de meu caminho e por me dar a força para superar os obstáculos e as dificuldades que surgiram em minha vida. Ao meu pai Vitaliano (in memoriam), que não pode estar presente neste momento da minha vida, muito obrigada por todo o apoio e o amor que me deste em vida, por me ensinar a não desanimar e não ceder diante de nada. Saudades eternas!. À minha mãe Juana por me dar apoio incondicional e incentivo nas horas dif́ıceis. Amo muito você! Aos meus irmãos Juan José, Luis e Lizeth pelo carinho, apoio, força e amor incondi- cional que me deram durante todo este tempo. Obrigada por suas palavras de incentivo quando eu mais precisava. Ao meu orientador Prof. Dr. Geraldo Nunes Silva, por todos os sábios conselhos que me deu, pelo tempo e paciência que teve para mim durante meu trabalho. Agradeço a todos os meus professores da graduação, mestrado e doutorado. Em especial, agradeço ao meu Professor Rolando Condori pelas palavras de encorajamento para continuar, apesar dos momentos dif́ıceis que passei na minha vida. Agradeço aos colegas de pós-graduação, em especial aos da“salinha”do Departamento de Matemática Aplicada. Agradeço a minhas amigas brasileiras Tatiane e Nathalia, por sua linda amizade, por compartilhar tantas vivências. Vou sinter muita saudade de vocês! O presente trabalho foi realizado com apoio da Coordenação de Aperfeiçoamento de Pessoal de Nı́vel Superior - Brasil (CAPES) - Código de Financiamento 001, à qual agradeço. Resumo Neste trabalho consideramos problemas de controle minimax em que as funções en- volvidas dependem de parâmetros desconhecidos. Essa dependência aparece tanto na dinâmica, quanto na função custo, e minimizamos com respeito aos controles a maximi- zação da função de custo em relação aos parâmetros. O trabalho é dividido em duas partes principais. Na primeira fornecemos condições necessárias e suficientes de otimalidade para problemas de controle minimax sem restri- ções, usando a teoria de Programação Dinâmica via equações de Hamilton-Jacobi-Bellman (HJB). Caracterizamos a função de valor do problema minimax como o máximo de fun- ções de valor de problemas parametrizados sobre o conjunto de parâmetros e mostramos que a função de valor é solução da equação HJB. Na segunda parte, consideramos problemas de controle ótimo minimax com restri- ções de igualdade e desigualdade, para o qual proporcionamos condições necessárias de otimalidade no sentido do Prinćıpio do Máximo (de Pontryagin). Palavras-chave: controle ótimo minimax, equações de Hamilton-Jacobi-Bellman, função de valor, análise não suave, Prinćıpio do Máximo. Abstract In this work we consider minimax control problems in which the functions involved depend on unknown parameters. This dependence appears in both the dynamics and the cost function and we minimize over the controls the maximization of the cost function in relation to the parameters. The work is divided in two main parts. In the first one we provide necessary and sufficient conditions of optimality for unconstrained minimax optimal control problems using the theory of Dynamic Programming via Hamilton-Jacobi-Bellman (HJB) equations. We characterize the value function of the minimax problem as the maximum of value functions of parametrized problem on the parameter set and show that the value function is solution of the HJB equation. In the second part we consider minimax optimal control problems with equality and inequality restrictions, for which we provide necessary conditions of optimality in the sense of Pontryagin’s Maximum Principle. Keywords: minimax optimal control, Hamilton-Jacobi-Bellman equations, value function, nonsmooth analysis, Maximum Principle. Lista de Śımbolos L1([S, T ];Rp) Espaço das funções integráveis de [S, T ] a Rp. L∞([S, T ];Rp) Espaço das funções essencialmente limitadas de [S, T ] a Rp. |x| Norma Euclideana de x. B Bola unitária fechada centrada no origem no espaço Euclideano. B(x, r) Bola fechada de centro x e raio r no espaço Euclideano. dC(x) Distância Euclideana de x ao conjunto C. C(X,M) Espaço de funções cont́ınuas. C(A) Espaço de funções continuas de valores reais sobre A. C∗(A) Dual topológico de C(A). domf Domı́nio (efetivo) de f . epif Eṕıgrafo de f . GrF Gráfico de F . NP C (x) Cone normal proximal a C em x. NC(x) Cone normal limite a C em x. ∂Pf(x) Subdiferencial proximal de f em x. ∂Lf(x) Subdiferencial limite de f em x. suppµ Suporte da medida µ. bdyC Fronteira de C. intC Interior de C. C Clausura ou fecho de C. W 1,1([S, T ];Rp) Espaço das funções absolutamente cont́ınuas de [S, T ] a Rp. Γ : Ω ⇒ Rn Multifunção de Ω no espaço de subconjuntos de Rn. meas{D} Medida do conjunto D. xi C→ x xi → x e xi ∈ C, para todo i. xi f→ x xi → x e f(xi)→ f(x), para todo i. coA Envoltório convexo do conjunto A. ∇f(x) Vetor gradiente de f em x. q.t.p. quase todo punto. HJB Hamilton-Jacobi-Bellman. Sumário 1 Introdução p. 11 2 Preliminares p. 18 2.1 Multifunções . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . p. 18 2.2 Inclusões Diferenciais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . p. 21 2.3 Análise não suave . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . p. 23 2.4 Monotonicidade de Inclusões Diferenciais . . . . . . . . . . . . . . . . . . p. 24 2.5 Programação Dinâmica . . . . . . . . . . . . . . . . . . . . . . . . . . . . p. 26 2.6 Prinćıpio do Máximo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . p. 30 3 Existência de trajetórias ótimas para problemas de controle p. 32 3.1 Existência de trajetórias para inclusões diferenciais . . . . . . . . . . . . p. 32 3.1.1 Sistemas de Controle . . . . . . . . . . . . . . . . . . . . . . . . . p. 36 3.1.2 Existência de uma famı́lia de trajetórias . . . . . . . . . . . . . . p. 37 3.2 Existência de uma famı́lia de trajetórias ótimas . . . . . . . . . . . . . . p. 42 3.2.1 Problemas de Controle Ótimo Minimax . . . . . . . . . . . . . . . p. 44 4 Equações de Hamilton-Jacobi-Bellman para problemas de controle ótimo minimax p. 51 4.1 Definições . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . p. 51 4.2 Condições Necessárias para o problema (P) . . . . . . . . . . . . . . . . . p. 53 4.2.1 Caso de um conjunto de parâmetros finito . . . . . . . . . . . . . p. 53 4.2.2 Caso de um conjunto de parâmetros infinito . . . . . . . . . . . . p. 57 4.2.3 Demonstração do Teorema 4.2.1 . . . . . . . . . . . . . . . . . . . p. 59 4.3 Condições suficientes para o problema (P) . . . . . . . . . . . . . . . . . p. 68 4.4 Função de Valor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . p. 69 5 Condições necessárias de otimalidade para problemas de controle ótimo minimax com restrições de igualdade e desigualdade p. 81 5.1 Definições . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . p. 82 5.2 Qualificações de Restrições . . . . . . . . . . . . . . . . . . . . . . . . . . p. 84 5.2.1 Condição tipo Posto Completo . . . . . . . . . . . . . . . . . . . . p. 84 5.2.2 Condição tipo Mangasarian-Fromowitz . . . . . . . . . . . . . . . p. 84 5.3 Resultados Auxiliares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . p. 85 5.4 Condições necessárias para o problema (PR) . . . . . . . . . . . . . . . . p. 87 5.4.1 Caso em que A é um conjunto finito . . . . . . . . . . . . . . . . p. 88 5.4.2 Caso em que A é um conjunto infinito . . . . . . . . . . . . . . . p. 94 5.4.3 Demonstração do Teorema 5.4.2 . . . . . . . . . . . . . . . . . . . p. 98 6 Considerações Finais p. 109 Referências Bibliográficas p. 110 Anexo A p. 113 A.1 Algumas Definições . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . p. 113 A.2 Resultados Auxiliares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . p. 115 11 1 Introdução Neste trabalho consideramos o seguinte problema de controle ótimo (P )  Minimizar max α∈A g(x(T ;α), α) s.a funções mensuráveis u : [S, T ]→ Rm tal que u(t) ∈ Ω(t) q.t.p. t ∈ [S, T ] e arcos {x(.;α) : [S, T ]→ Rn | α ∈ A} tal que, para cada α ∈ A ẋ(t;α) = f(t, x(t, α), u(t), α), q.t.p. t ∈ [S, T ] x(S, α) = x0. Aqui (A, ρA) é um espaço métrico abstrato, Rk denota o espaço Euclideano k− di- mensional, f : [S, T ]×Rn×Rm×A → Rn e g : Rn×A → R são funções dadas, x0 ∈ Rn, Ω(t) ⊂ Rm, S ≤ t ≤ T , é um conjunto dependente do tempo. A otimização de sistemas dinâmicos, onde o critério de avaliação é o valor máximo de uma função, é um problema de ocorrência frequente na tecnologia, economia e indústria. Este problema aparece, em particular, quando se deseja minimizar o desvio máximo de trajetórias controladas em relação a uma dada trajetória como modelo. Os problemas do tipo minimax diferem daqueles normalmente considerados na literatura de controle ótimo, onde um custo cumulativo é minimizado. Observe que esta formulação do problema leva em conta as incertezas dos parâmetros tanto na função custo quanto nas restrições do sistema de controle. A minimização é tomada no cenário do pior caso, considerando todos os parâmetros posśıveis, ou seja, minimizamos os controles admisśıveis ou fact́ıveis enquanto maximizamos os parâmetros definidos. Este problema foi recentemente abordado na literatura em [39], onde R. B. Vinter ob- tém condições necessárias de otimalidade na forma do Prinćıpio do Máximo. Os resultados de Vinter são estendidos por Karamzin et. al. em [18], onde fornecem condições necessá- 1 Introdução 12 rias para problemas de controle ótimo minimax com restrições de estado. No entanto, a teoria desenvolvida pelos trabalhos anteriormente citados fornecem condições necessárias para a otimização de um processo de controle, i.e., o processo de controle candidato a mı́nimo deve satisfazer um conjunto de condições principais. Para que as condições associadas ao prinćıpio de máximo sejam suficientes para a otimização dos processos, é necessário impor algum tipo de convexidade (generalizada) ao problema, que geralmente não são verificáveis na prática. Assim, outra abordagem, que é agora amplamente usada, é a Programação Dinâmica introduzida por Bellman em [4] e mais tarde desenvolvida por outros autores. No entanto, até onde sabemos, não existe uma teoria de programação dinâmica adequada desenvolvida para problemas de controle minimax com as formulações apresentadas aqui. Por isso propusemos: a) obter condições necessárias e suficientes para o problema (P ) usando a teoria de programação dinâmica ligada às equações de Hamilton-Jacobi- Bellman (HJB). E além disso b) fornecer condições de otimalidade na forma do Prinćıpio do Máximo de Pontryagin para o problema (P) introduzindo também restrições mistas no estado e no controle estendendo a teoria realizada em [18] e [39]. A seguir contextualizamos cada parte. Com relação à teoria de HJB para problemas de controle ótimo minimax, existe pouca literatura, entre eles podemos citar Di Marco e González [20, 21, 22]. No entanto, Di Marco e González consideram a minimização realizada sobre a maximização da função custo em relação à variável tempo e não há dependência de parâmetros nas funções envolvidas. Assim os problemas minimax são diferentes dos tratados nesta Tese e não podem ser comparados. Um caso particular do problema de controle minimax (P ) é quando o conjunto de parâmetros A é unitário. Nessa situação, obtemos o problema de controle a seguir, para o qual a teoria de Hamilton-Jacobi está bem estabelecida, (P ′)  Minimizar g(x(T )) s.a. funções mensuráveis u : [S, T ]→ Rm tal que u(t) ∈ Ω(t) q.t.p. t ∈ [S, T ] e arcos x : [S, T ]→ Rn tal que ẋ(t) = f(t, x(t), u(t)), q.t.p. t ∈ [S, T ] x(0) = x0. A função de valor para este problema é definida como o ı́nfimo do problema parametrizado 1 Introdução 13 (P ′t,z), i.e., V (t, z) := inf(P ′t,z) para todo (t, z) ∈ [S, T ]× Rn, onde (P ′t,z)  Minimizar g(x(T )) ẋ(s) = f(s, x(s), u(s)), q.t.p. s ∈ [t, T ] x(t) = z. Uma função diferenciável φ é solução da equação de Hamilton-Jacobi-Bellman (HJB) se: φt(t, z) + inf u∈Ω(t) φx(t, z) · f(t, z, u) = 0, ∀(t, z) ∈ [S, T ]× Rn, φ(T, z) = g(z), ∀z ∈ Rn. Se a função de valor fosse continuamente diferenciável, V seria a única solução da equação de HJB. Mas nem sempre a função de valor é continuamente diferenciável. Assim vários autores apresentam conceitos que chamam de solução adequada para a equação de HJB. Por exemplo, Crandall e Lions [11] introduziram no inicio do ano 1980 o conceito de soluções de viscosidade e mostraram que a função de valor é a única solução de viscosidade para a equação Hamilton-Jacobi na classe de funções uniformemente cont́ınuas. Em seu trabalho, a derivada é substitúıda por superdiferenciais e subdiferenciais, que coincidem com a derivada usual quando ela existe. Outros tipos de soluções cont́ınuas, como soluções de Dini, Soluções Proximais, podem ser encontradas em [7] ou [38]. Por exemplo, (a seguinte definição encontra-se no Caṕıtulo 2) φ é uma solução proximal da equação de HJB se: para todo (t, z) ∈ ([S, T ]× Rn) ∩ domφ, tal que ∂Pφ(t, z) 6= ∅ , tem-se ξ + inf u η · f(t, z, u) = 0 para cada (ξ, η) ∈ ∂Pφ(t, z), (1.1) φ(T, z) = g(z) para cada z ∈ Rn. (1.2) Aqui ∂Pφ(t, z) denota a subdiferencial proximal de φ em (t, z). Em [10] é introduzida a conhecida solução generalizada envolvendo a noção de gradientes generalizados. O gradi- ente generalizado coincide com a derivada quando a função é estritamente diferenciável. O enfoque utilizado em [10] permite uma técnica de verificação mesmo quando a equação HJB não possui uma solução clássica. A referência [15] fornece uma comparação entre as soluções de viscosidade e as soluções generalizadas e mostra que uma função localmente Lipschitz é uma solução de viscosidade da equação HJB se, e somente se, a função é uma solução generalizada. Em [16] os autores caracterizam a função de valor para problemas de controle ótimo tipo Bolza com restrições de estado, como a única solução semicont́ınua 1 Introdução 14 das equações de Hamilton-Jacobi-Bellman. No entanto, independentemente do tipo de solução, é sempre posśıvel, sob hipóteses adequadas, provar que a função de valor V é uma solução da equação HJB. A função φ é chamada função de verificação se as equações (1.1)-(1.2) satisfizerem apenas as desigualdades “≥” e “≤”, respectivamente. Aqui fornecemos condições necessá- rias e suficientes para o problema (P ), no sentido da existência de funções de verificação, vinculadas às subdiferenciais proximais e subdiferenciais limite, veja [7] e [38]. Permiti- remos que o conjunto de parâmetros A seja um espaço métrico compacto arbitrário. A presença de um número infinito de elementos em A é a principal fonte de dificuldade na derivação das condições de otimalidade para problemas de controle ótimo minimax. Quando A é um conjunto finito o problema pode ser escrito como um problema de con- trole ótimo padrão, ao qual aplicamos técnicas já conhecidas de programação dinâmica e obtemos os resultados desejados para posteriormente poder tratar o problema geral de controle ótimo minimax. A importância de lidar primeiro o caso finito é que o problema de controle geral, cujo conjunto A é um espaço métrico compacto, pode ser aproximado por problemas com conjuntos finitos Ai. Em seguida, com uma análise de convergência adequada os resultados são fornecidos para o problema geral. Utilizando a mesma técnica de aproximação, obtemos condições necessárias de otima- lidade no sentido do Prinćıpio do Máximo (de Pontryagin) para problemas de controle ótimo minimax com restrições de igualdade e desigualdade (PR)  Minimizar max α∈A g(x(T ;α), α) s.a u : [S, T ]→ Rku , v : [S, T ]→ Rkv tais que v(t) ∈ V (t) q.t.p. t ∈ [S, T ] e arcos {x(·;α) : [S, T ]→ Rn|α ∈ A} tais que, para cada α ∈ A ẋ(t;α) = f(t, x(t, α), u(t), v(t), α), q.t.p. t ∈ [S, T ] 0 = b(t, x(t, α), u(t), v(t), α) 0 ≥ l(t, x(t, α), u(t), v(t), α) x(S, α) = x0 x(T, α) ∈ C(α). Aqui g : Rn×A → R , (f, b, l) : [S, T ]×Rn×Rku×Rkv×A → Rn×Rmb×Rml , são funções dadas, V (t) ⊂ Rkv para todo t ∈ [S, T ] é um conjunto dependente do tempo, C(α) ⊂ Rn é um conjunto fechado e x0 ∈ Rn, com m := mb +ml, k := ku + kv e k ≥ m. As condições necessárias de otimização são utilizadas para encontrar o melhor controle posśıvel para levar um sistema dinâmico de um estado para outro satisfazendo as restri- 1 Introdução 15 ções. O Prinćıpio do Máximo para o problema (P̃ ) no caso suave foi formulado em 1956 pelo matemático russo Lev Semenovich Pontryagin e sua prova é dada por Boltyanskii; veja [5, 34]. Depois o prinćıpio foi generalizado para dados não suaves (veja, por exemplo [7, 38]). O problema (PR) colocado dessa forma, onde A é um conjunto unitário, tem sido foco de atenção por muitos anos (veja, por exemplo, [17], [23], [26], [27], [28], [29], [30], [31], [32], [36], [37]). Em [29], Pinho, Vinter e Zheng proporcionam condições necessárias para este tipo de problemas quando o conjunto A é unitário, com suposições essenciais sobre os dados, a saber, uma condição de convexidade e outra de interioridade. Em [17, 23, 26, 28, 30, 31] as condições necessárias para problemas com restrições são fornecidas supondo que certa matriz F (t), a saber, a matriz Jacobiana das restrições com respeito ao controle, tenha posto completo no sentido que detF (t)F (t)> ≥ L para quase todo t ∈ [S, T ] e para algum L > 0. Por exemplo, em [17, 23], a condição de posto completo é imposta na matriz Υ1(t) = ( bu(t, x̄(t), w̄(t)) lu(t, x̄(t), w̄(t)) ) = ( ∇ub(t, x̄(t), ū(t), v̄(t)) ∇ul(t, x̄(t), ū(t), v̄(t)) ) . Em [26] a condição de posto completo é imposta na matriz Υ2(t) = ( ∇ub(t, x̄(t), ū(t), v̄(t)) ∇ul Ib(t)(t, x̄(t), ū(t), v̄(t)) ) , onde Ib(t) = {i ∈ {1, ...,ml} | li(t, x̄(t), ū(t), v̄(t)) ≥ −b} e ∇ul Ib(t)(t, x̄(t), ū(t), v̄(t)) de- nota a matriz que obtemos depois de remover de ∇ul(t, x̄(t), ū(t), v̄(t)) todas as linhas de ı́ndice i /∈ Ib(t). Também pode-se ver em [27] e [30] que esta condição é dada na matriz Υ3(t) = ( ∇ub(t, x̄(t), ū(t), v̄(t)) 0 ∇ul(t, x̄(t), ū(t), v̄(t)) diag{−li(t, x̄(t), ū(t), v̄(t))}i∈{1,...,ml} ) . Em [30], os autores mostram que a condição de posto completo imposta nas matrizes acima estão relacionadas entre si e são suficientes para que a matriz F (t) = ( ∇ub(t, x̄(t), ū(t), v̄(t)) ∇ul Ia(t)(t, x̄(t), ū(t), v̄(t)) ) tenha posto completo. Onde Ia(t) = {i ∈ {1, ...,ml} | li(t, x̄(t), ū(t), v̄(t)) = 0}. Um outro enfoque pode ser encontrado em [32], onde são fornecidas condições neces- sárias supondo uma hipótese tipo Mangasarian-Fromowitz. Na referência [33], se estuda este tipo de problemas no caso em que as restrições mistas são não suaves. 1 Introdução 16 Para obtermos as condições necessárias para o nosso problema (PR), vamos impor hi- póteses de regularidade nas restrições de igualdade e desigualdade, a saber, duas condições tipo posto completo e uma condição tipo Mangasarian-Fromowitz. Permitiremos dados não suaves e expressaremos condições necessárias em termos de subdiferenciais limite e outras construções de análise não suave. Enfatizamos que o fato de assumir que A é um espaço métrico arbitrário e compacto é a caracteŕıstica mais significativa de nossa análise. O presente trabalho está organizado da seguinte forma: No Caṕıtulo 2 serão apresentadas algumas definições e resultados importantes sobre: multifunções, inclusões diferenciais e análise não suave que serão utilizados em todo o desenvolvimento do trabalho. Na Seção 2.5, apresentaremos a teoria de Programação Dinâmica introduzida por R. Bellman (função de valor e as equações de HJB). Na Seção 2.6, será descrito o Principio do Máximo de Pontryagin para o caso não suave. No Caṕıtulo 3 serão apresentados resultados novos para inclusões diferenciais que dependem de parâmetros. Na Seção 3.2 se proporcionará condições sobre os dados para que uma inclusão diferencial, que depende de parâmetros, possua ou admita soluções. Na Seção 3.3 mostraremos, que sobre uma hipótese de convexidade na inclusão diferencial, um problema de controle que depende de parâmetros tem trajetórias mı́nimas, finalmente será mostrado que problemas de controle minimax onde todos os dados dependem de um vetor de parâmetros desconhecido possui processos fact́ıveis ótimos. No Caṕıtulo 4, Seção 4.2, forneceremos condições necessárias e suficientes de oti- malidade, via as equações de HJB para o problema (P), o resultado será proporcionado pela introdução de um novo subdiferencial que depende de parâmetros. Na Seção 4.3 definiremos a função de valor para problemas de controle ótimo minimax e mostraremos que a função de valor é Lipschitz, e pode ser escrito como o máximo de funções de va- lor de um problema parametrizado, além de mostrar que é solução da equação de HJB. Generalizando o conceito de função de valor para problemas de controle ótimo padrão. O Caṕıtulo 5 está dedicado aos problemas de controle minimax com restrições mis- tas. Na Seção 5.2 introduzimos hipóteses de regularidade nas restrições do problema (PR), a saber, duas condições de restrições tipo posto completo e uma condição de res- trição tipo Mangasarian-Fromowitz. Na primeira parte da Seção 5.4 proporcionarmos condições necessárias para o problema (PR) quando o conjunto A é finito. Seguidamente apresentaremos um exemplo minimax onde o conjunto A é um intervalo e mostraremos que o Prinćıpio do Máximo obtido deixa de ser válido quando A é um conjunto infinito, o que deixa expĺıcita a necessidade de obter novas condições necessárias para quando A 1 Introdução 17 seja um espaço métrico arbitrário. Finalmente nesta mesma seção mostramos o resultado principal do Caṕıtulo 5, condições necessárias para problemas de controle minimax com restrições, quando A seja um espaço métrico arbitrário. Enfatizamos que os nossos resultados (inéditos) estão enunciados na Tese sem re- ferências enquanto que os resultados existentes na literatura estarão referenciados para conveniência do leitor. 18 2 Preliminares Neste caṕıtulo revisamos conceitos e resultados importantes sobre multifunções, in- clusões diferenciais e análise não suave requeridos em nosso trabalho, que podem ser encontrados em [7, 9, 38], além de algumas notações que utilizaremos ao longo do texto. O espaço vetorial L1([S, T ];Rp) denota o conjunto das funções integráveis e L∞([S, T ];Rp) denota o espaço das funções essencialmente limitadas de [S, T ] a Rp, respectivamente. 2.1 Multifunções Nesta seção elencamos definições e resultados básicos que possui a teoria de multifun- ções, cuja referência base é [38]. Veja também [1, 6, 7]. Uma multifunção D : X ⊂ Rm ⇒ Rn é uma aplicação de X a subconjuntos de Rn, isto é, para cada x ∈ X, D(x) é um subconjunto de Rn. Dizemos que D é fechada, compacta, convexa e não vazia se para cada x ∈ X o conjunto D(x) tem essa propriedade. O gráfico de uma multifunção D : X ⇒ Rn é denotado por GrD, GrD := {(x, y) ∈ X × Rn | y ∈ D(x)}. Definição 2.1.1. Seja F : Rm ⇒ Rn uma multifunção. 1. F é semicont́ınua superiormente em x se, dado qualquer ε > 0, existe δ > 0 tal que |x′ − x| < δ implica F (x′) ⊂ F (x) + εB. 2. F é localmente Lipschitz desde que cada ponto x admite uma vizinhança U = U(x) 2.1 Multifunções 19 e uma constante positiva K = K(x) tal que, para quaisquer x1, x2 ∈ U , F (x2) ⊆ F (x1) +K|x1 − x2|B. Definição 2.1.2. Sejam S um conjunto não vazio e F uma famı́lia de subconjuntos de S. Um par (S,F) é um espaço mensurável se F é uma σ−álgebra, isto é, F satisfaz 3 condições: i) ∅, S ∈ F; ii) se E ∈ F então Ec ∈ F; iii) se E1, E2, ... ∈ F, então ∞⋃ k=1 Ek ∈ F. Qualquer conjunto da σ−álgebra F é chamado de conjunto mensurável ou F mensu- rável. Definição 2.1.3 (Multifunções mensuráveis). Uma multifunção Γ : X ⊂ Rm ⇒ Rn é dita ser mensurável se, para cada subconjunto aberto C de Rn, o conjunto{ x ∈ X : Γ(x) ∩ C 6= ∅ } é mensurável. Fixemos um subconjunto de Lebesgue I ⊂ R. Denotamos por L os subconjuntos de Borel de I ⊂ R. Se X = I então Γ : I ⇒ Rn será dita multifunção L mensurável. Denotaremos como Bk os subconjuntos Borel de Rk. Definição 2.1.4. Seja uma multifunção Γ : I ⇒ Rk. Diz-se que uma função x : I → Rk é uma seleção mensurável de Γ se: i) x é Lebesgue mensurável; ii) x(t) ∈ Γ(t) q.t.p. t ∈ I. Definição 2.1.5. A integral de Γ sobre o intervalo I = [S, T ] é o conjunto∫ I Γ := {∫ T S γ(t)dt : γ(·) é seleção mensurável para Γ } . Teorema 2.1.1. [38, Teorema 2.3.7] Considere uma multifunção Γ : I ⇒ Rn e defina D := {t ∈ I : Γ(t) 6= ∅}. Suponha que Γ é fechado. Então as seguintes afirmacões são equivalentes. 2.1 Multifunções 20 (a) Γ é uma multifunção L mensurável. (b) GrΓ é um conjunto L × Bn mensurável. (c) D é um subconjunto de Lebesgue de I e existe uma sequência {γk : D → Rn} de funções Lebesgue mensuráveis tal que Γ(t) = ∞⋃ k=1 {γk(t)}, para todo t ∈ D. (2.1) A representação da multifunção (2.1) em termos de funções mensuráveis é chamada de Representação de Castaing de Γ. O teorema a seguir, conhecido como Teorema de Seleção Mensurável de Aumann, pode ser encontrado em [6, 38, 40]. Teorema 2.1.2. [38, Teorema de Seleção Mensurável de Aumann] Seja Γ : I ⇒ Rk uma multifunção não vazia. Suponha que GrΓ é L × Bk mensurável. Então Γ tem seleção mensurável. Proposição 2.1.1. [38, Proposição 2.3.4] Considere uma função φ : I ×Rn ×Rm → Rk satisfazendo as seguintes hipóteses: a) φ(t, ·, u) é cont́ınua para cada (t, u) ∈ I × Rm; b) φ(·, x, ·) é L × Bm mensurável para cada x ∈ Rn. Então, para qualquer função Lebesgue mensurável x : I → Rn, a aplicação (t, u) 7→ φ(t, x(t), u) é L × Bm mensurável. Teorema 2.1.3. [38, Teorema 2.3.14] Considere uma função g : I × Rk → R e uma multifunção Γ : I ⇒ Rk. Suponha que g(·, u) é Lebesgue mensurável para cada u ∈ Rk, g(t, ·) é cont́ınua para cada t ∈ I e Γ é uma multifunção mensurável. Defina η : I → R ∪ {−∞} como η(t) = inf γ∈Γ(t) g(t, γ) para t ∈ I. Então η é uma função Lebesgue mensurável. Além disso, se definimos I ′ := {t ∈ I : inf γ∈Γ(t) g(t, γ′) = g(t, γ) para algum γ ∈ Γ(t)}, 2.2 Inclusões Diferenciais 21 então I ′ é um conjunto Lebesgue mensurável e existe uma função mensurável γ : I ′ → Rk tal que η(t) = g(t, γ(t)) q.t.p. t ∈ I ′. 2.2 Inclusões Diferenciais Nesta seção daremos o conceito de inclusões diferenciais como também alguns teoremas de existência de soluções. Uma trajetória para a multifunção F : [S, T ] × Rn ⇒ Rn é uma função x(·) ∈ W 1,1([S, T ];Rn) tal que, para quase todo t ∈ [S, T ], nos temos ẋ(t) ∈ F (t, x(t)) q.t.p. t ∈ [S, T ]. (2.2) A inclusão (2.2) é dita ser uma inclusão diferencial. Teorema 2.2.1. [38, Teorema de Existência de Filippov Generalizado] Seja Ω um conjunto aberto em [S, T ] × Rn. Tome F : Ω ⇒ Rn, um arco y ∈ W 1,1([S, T ];Rn), um ponto ξ ∈ Rn e ε ∈ (0,+∞) ∪ {+∞} tal que T (y, ε) ⊂ Ω. Suponha que: i) F (t, x′) é um conjunto fechado não vazio para todo (t, x′) ∈ T (y, ε) ⊂ Ω e F é L × Bn mensurável; ii) Existe k ∈ L1 tal que F (t, x′) ⊂ F (t, x′′) + k(t)|x′ − x′′|B, ∀x′, x′′ ∈ y(t) + εB, q.t.p. t ∈ [S, T ]. Suponha também que exp (∫ T S k(t)dt )( |ξ − y(S)|+ ∫ T S inf { |η − ẏ(t)| : η ∈ F (t, y(t)) }) ≤ ε. Então, existe uma trajetória x de F satisfazendo x(S) = ξ tal que ‖x− y‖L∞ ≤ ε. Para mais detalhes sobre o seguinte teorema veja [7, Teorema 1.11] ou [38, Teorema 2.5.3]. Teorema 2.2.2. [38, Teorema de Compacidade das trajetórias] Tome um subcon- junto relativamente aberto Ω ⊂ [S, T ] × Rn e uma multifunção F : Ω ⇒ Rn. Suponha que, para alguma multifunção fechada X : [S, T ] ⇒ Rn tal que GrX ⊂ Ω, as seguintes hipóteses são satisfeitas: 2.2 Inclusões Diferenciais 22 i) F é uma multifunção fechada, convexa, não vazia e L × Bn mensurável. ii) Para cada t ∈ [S, T ], o gráfico de F (t, ·) restrito a X(t) é fechado. Considere uma sequência {xi} de funções absolutamente cont́ınuas sobre [S, T ], uma sequência {ri} em L1([S, T ];R) tal que ‖ri‖L1 → 0 quando i → ∞, e uma sequência {Ai} de subconjuntos mensuráveis de [S, T ] tal que meas(Ai) → |T − S| quando i → ∞. Suponha que: iv) Grxi ⊂ GrX para todo i; v) {ẋi} é uma sequência de funções uniformemente integravelmente limitadas em [S, T ] e {xi(S)} é uma sequência limitada; vi) existe c ∈ L1 tal que F (t, xi(t)) ⊂ c(t)B para quase todo t ∈ Ai e para i = 1, .... Suponha, além disso que ẋi(t) ∈ F (t, xi(t)) + ri(t)B q.t.p. t ∈ Ai. Então, ao longo de alguma subsequência xi → x uniformemente e ẋi → ẋ fracamente em L1 para algum x ∈ W 1,1([S, T ];Rn) satisfazendo ẋ(t) ∈ F (t, x(t)) q.t.p. t ∈ [S, T ]. Proposição 2.2.1. [38, Proposição 2.6.1] Seja Ω um conjunto aberto em [S, T ] × Rn. Tome F : Ω ⇒ Rn, X : [S, T ] ⇒ Rn tal que GrX ⊂ Ω, um conjunto fechado C ⊂ Rn×Rn e R(X,C) := {x ∈ C([S, T ];Rn) : x é uma trajetória de F , x(t) ∈ X(t) para todo t ∈ [S, T ] e (x(S), x(T )) ∈ C}. Suponha que i) F é fechado e L × Bn mensurável; ii) para cada t ∈ [S, T ], o gráfico de F (t, ·) restrito a X(t) é fechado; iii) existem α ∈ L1 e β ∈ L1 tais que F (t, x) ⊂ ( α(t)|x|+ β(t) ) B para todo (t, x) ∈ GrX; iv) X(s) é limitado para algum s ∈ [S, T ] ou um dos seguintes conjuntos C0 := {x0 ∈ Rn : (x0, x1) ∈ C para algum x1 ∈ Rn}, 2.3 Análise não suave 23 C1 := {x1 ∈ Rn : (x0, x1) ∈ C para algum x0 ∈ Rn} é limitado. v) F (t, x) é convexo para todo (t, x) ∈ GrX. Então, R(X,C) é compacto. 2.3 Análise não suave Nesta seção apresentaremos construções básicas e resultados de análise não suave, utilizadas na Tese, tais como ser: o cone normal proximal, o cone normal limite e os subdiferenciais associados a estes cones. Dado um conjunto fechado C ⊂ Rk e um ponto x ∈ C, o cone normal proximal a C em x, denotado por NP C (x), é o conjunto NP C (x) := { p ∈ Rk | ∃M > 0 tal que p · (y − x) ≤M |y − x|2 , ∀y ∈ C } . O cone normal limite a C em x, denotado por NC(x), é o conjunto NC(x) := { p ∈ Rk | Existem xi C→ x, pi → p tais que pi ∈ NP C (xi), para todo i } . Tome uma função f : Rn → R ∪ {+∞} e um ponto x ∈ domf . Aqui, domf é o conjunto domf = {y ∈ Rn | f(y) < +∞} e epif é o conjunto epif := {(x, y) ∈ Rn×R | f(x) ≤ y}. O subdiferencial proximal ∂Pf(x) de f : Rn → R ∪ {+∞} no ponto x ∈ domf é o conjunto ∂Pf(x) := {η | (η,−1) ∈ NP epif (x, f(x))}. O subdiferencial limite ∂f(x) de f : Rn → R ∪ {+∞} no ponto x ∈ domf é o conjunto ∂Lf(x) := {η | (η,−1) ∈ Nepif (x, f(x))}. O subdiferencial limite é um conjunto fechado. Proposição 2.3.1. [38, Proposição 4.4.2] Sejam uma função Lipschitz f : Rk → R e pontos x ∈ Rk e ξ ∈ Rk. Então, as seguintes afirmacões são equivalentes: (i) ξ ∈ ∂Pf(x); (ii) existe M > 0 tal que ξ · (y − x) ≤ f(y)− f(x) +M |y − x|2, para todo y ∈ Rk. 2.4 Monotonicidade de Inclusões Diferenciais 24 Proposição 2.3.2. [38, Proposição 4.7.1] Sejam f : Rk → R ∪ {+∞} uma função semicont́ınua inferiormente e um ponto x ∈ Rk. Suponha que f é Lipschitz em uma vizinhança de x, com constante de Lipschitz K. Então, ∂f(x) é não vazio e ∂Lf(x) ⊂ KB. Proposição 2.3.3. [38, Teorema 4.6.2] Sejam uma função semicont́ınua inferiormente f : Rk → R ∪ {+∞} e pontos x ∈domf e ξ ∈ Rk. Então, as seguintes condições são equivalentes: i) ξ ∈ ∂Lf(x); ii) existem xi f→ x e ξi → ξ com ξi ∈ ∂Pf(xi). Proposição 2.3.4 (Regra do Máximo). [38, Teorema 5.5.2] Sejam fi : Rn → R, i = 1, ..,m, funções localmente Lipschitz, e x̄ ∈ Rn. Defina f(x) = max 1≤i≤m fi(x) e Λ := {λ = (λ1, ..., λm) ∈ Rm | λi ≥ 0, m∑ i=1 λi = 1}. Então ∂Lf(x̄) ⊂ { ∂L ( m∑ i=1 λifi ) (x̄) | λ ∈ Λ, e λi = 0 se fi(x̄) < f(x̄) } . Seja dC : Rn → [0,∞) a distância entre o ponto x ∈ Rn e um conjunto, isto é, dC(x) = inf a∈C |x − a|. Esta é uma função Lipschitz com constante de Lipschitz 1. Em termos de subdiferencial, o envoltório convexo do cone normal limite satisfaz o seguinte coNC(x) = { ⋃ λ≥0 λ∂dC(x) } . Para mais detalhes ver [7] ou [38]. 2.4 Monotonicidade de Inclusões Diferenciais Seja F(Rn) o espaço das funções semicont́ınuas inferiormente (s.c.i.) de valores reais. Seja um intervalo (t0, t1), onde t0 = −∞ e/ou t1 = ∞, e seja uma multifunção F : (t0, t1)× Rn ⇒ Rn com ẋ(t) ∈ F (t, x(t)). Definição 2.4.1. Seja ϕ ∈ F((t0, t1)×Ω), onde Ω é um subconjunto aberto de Rn. O par (ϕ, F ) é fracamente decrescente sobre (t0, t1) × Ω se, para qualquer τ ∈ (t0, t1) e α ∈ Ω, existe uma trajetória x sobre [τ, t1), com x(τ) = α, tal que ϕ(t, x(t)) ≤ ϕ(τ, x(τ)) = ϕ(τ, α), para todo t ∈ [τ, b], 2.4 Monotonicidade de Inclusões Diferenciais 25 onde [τ, b] é qualquer subintervalo de [τ, t1) sobre o qual x(t) permanece em Ω. Se a definição acima mantém-se para toda trajetória x, então (ϕ, F ) diz-se ser forte- mente decrescente sobre (t0, t1)× Ω. Definição 2.4.2. O sistema (ϕ, F ) é fortemente crescente sobre (t0, t1) × Ω desde que, para qualquer intervalo [a, b] contido em (t0, t1) e para qualquer trajetória x de F em [a, b], para o qual x(t) ∈ Ω para todo [a, b], temos ϕ(t, x(t)) ≤ ϕ(b, x(b)) = ϕ(τ, α), para todo t ∈ [a, b]. Esta propriedade de crescimento forte é equivalente a requerer que a função t 7→ ϕ(t, x(t)) seja crescente sobre [a, b] quando x é uma trajetória em algum intervalo [a, b] ⊂ (t0, t1) para o qual x(t) permanece em Ω. Definição 2.4.3. O hamiltoniano inferior h e hamiltoniano superior H correspondentes a F tem um papel importante e são definidas como h : [S, T ]× Rn × Rn → R dada por h(t, x, p) = inf v∈F (t,x) 〈p, v〉 H : [S, T ]× Rn × Rn → R dada por H(t, x, p) = sup v∈F (t,x) 〈p, v〉. Na continuação, apresentamos algumas caracterizações de monotonicidade em termos das funções hamiltonianas. Proposição 2.4.1. [7, p.219] Seja ϕ ∈ F ( (t0, t1)× Ω ) e suponha que as seguintes hipó- teses são satisfeitas: i) Para cada (t, x), F (t, x) é um conjunto não vazio, compacto e convexo. ii) F é semicont́ınua superiormente. iii) Para algumas constantes positivas γ e c, e todo (t, x), v ∈ F (t, x) =⇒ |v| ≤ γ|x|+ c. Então a) (ϕ, F ) é fracamente decrescente sobre (t0, t1)× Ω se, e somente se, θ + h(t, x, ζ) ≤ 0, ∀(θ, ζ) ∈ ∂Pϕ(t, x),∀(t, x) ∈ (t0, t1)× Ω. 2.5 Programação Dinâmica 26 b) Se F é localmente Lipschitz, então (ϕ, F ) é fortemente decrescente sobre (t0, t1) × Ω se, e somente se, θ +H(t, x, ζ) ≤ 0, ∀(θ, ζ) ∈ ∂Pϕ(t, x),∀(t, x) ∈ (t0, t1)× Ω. c) Se F é localmente Lipschitz, então (ϕ, F ) é fortemente crescente sobre (t0, t1)×Ω se, e somente se, θ + h(t, x, ζ) ≥ 0, ∀(θ, ζ) ∈ ∂Pϕ(t, x),∀(t, x) ∈ (t0, t1)× Ω. 2.5 Programação Dinâmica A teoria de Programação Dinâmica foi introduzida por R. Bellman1, quem contribuiu com resultados importantes para a matemática básica e aplicada. Em 1946 defendeu sua tese sobre equações diferenciais em Princeton. Em 1950, começou seu trabalho na corporação RAND 2, é nesse peŕıodo que elabora a chamada teoria da Programação Di- nâmica, uma das suas contribuições mais significativas para a matemática aplicada. Em [3], Bellman explica que a teoria foi criada para lidar com problemas matemáticos que surgem no que ele chamou de processos de decisão em múltiplos estágios (multi-stage decision processes), processos que consistem em um sistema f́ısico cujo estado a qualquer momento é determinado por um conjunto de quantidades, parâmetros de estado ou va- riáveis de estado que podem ser prescritos de antemão e nos quais são tomadas decisões que afetam o estado do sistema. Uma sucessão de decisões é chamada de poĺıtica e um está interessado em encontrar uma poĺıtica ótima para um critério atribúıdo. A idéia básica da teoria é considerar uma poĺıtica ótima como aquela que determina a decisão requerida em cada momento em termos do estado atual do sistema, essa idéia foi for- mulada por Bellman no chamado Prinćıpio de Otimalidade, que é enunciado da seguinte forma: “Uma poĺıtica ótima tem a propriedade de que qualquer que seja o estado inicial e as decisões iniciais, as decisões subsequentes devem constituir uma poĺıtica ótima em relação ao estado resultante das primeiras decisões”. No artigo citado [3], Bellman ex- plica a formulação matemática desse prinćıpio em quatro contextos diferentes, a saber: determinista discreto, estocástico discreto, infinito estocástico e cont́ınuo determińıstico. A metodologia da Programação Dinâmica entra de maneira natural na teoria do controle ótimo e, em particular, no Prinćıpio do Máximo. 1Richard Ernest Bellman, matemático norteamericano, (1920-1984). 2Research ANd Development, uma corporação sem fins lucrativos dedicada à investigação de poĺıticas públicas de desenvolvimento. 2.5 Programação Dinâmica 27 Considere o seguinte problema de controle ótimo (P1)  Minimizar g(x(T )) s.a. funções u : [S, T ]→ Rm, tais que u(t) ∈ Ω(t) q.t.p. t ∈ [S, T ] e trajetórias x : [S, T ]→ Rn, satisfazendo ẋ(s) = f(s, x(s), u(s)), q.t.p. t ∈ [t, T ] x(S) = x0, (2.3) onde g : Rn → R e f : [S, T ]× Rn × Rm → Rn são funções dadas, x0 ∈ Rn e Ω(t) ⊂ Rm, S ≤ t ≤ T , é um conjunto dependente do tempo. Um processo de controle fact́ıvel é o par (u, x), onde u : [S, T ] → Rm é uma função mensurável satisfazendo u(t) ∈ Ω(t) e x é uma solução da equação diferencial ẋ(t) = f(t, x(t), u(t)) com a condição inicial x(S) = x0. Um processo de controle fact́ıvel (ū, x̄) é dito ser ótimo global (local) se g(x(T )) ≥ g(x̄(T )) para todo processo fact́ıvel (u, x). No segundo caso são considerados apenas os processos de controle numa vizinhança dada. Para qualquer função cont́ınua x : [a, b]→ Rn e δ > 0, definamos o conjunto T (x, δ), chamado de δ-tubo ao redor de x, como T (x, δ) := {(t, y) ∈ [a, b]× Rn | t ∈ [a, b], |y − x(t)| ≤ δ}. Definição 2.5.1 (Função de verificação). Uma função φ : T (x̄, δ) → R ∪ {+∞} é chamada função de verificação local semicont́ınua para o processo (x̄, ū) (com parâmetro δ > 0) se φ é semicont́ınua inferiormente e satisfaz as seguintes condições: i) Para cada (t, x) ∈ T (x̄, δ) tal que ∂Pφ(t, x) é não vazio tem-se η0 + min u η1 · f(t, x, u) ≥ 0, ∀(η0, η1) ∈ ∂Pφ(t, x). ii) φ(T, x) ≤ g(x) para todo x ∈ Rn, iii) φ(T, x) = lim inf t↑T x′→x φ(t′, x′) para todo x ∈ x̄(T ) + δB, iv) φ(S, x0) = g(x̄(T )). A seguinte proposição pode ser encontrada em [38, Proposição 12.4.3], mas no sentido de multifunções. 2.5 Programação Dinâmica 28 Proposição 2.5.1. Seja um (ū, x̄) um processo satisfazendo as restrições do problema (P1). Suponha que, para algum ε > 0, temos: 1. f cont́ınua em todos seus argumentos; 2. existe c > 0 tal que |f(t, x, u)| ≤ c, ∀(t, x) ∈ T (x̄, ε) e u ∈ Ω(t); 3. f(t, ·, u) é localmente Lipschitz para todo (t, u) ∈ [S, T ]× Ω(t); 4. o conjunto F (t, x) := {f(t, x, u) : u ∈ Ω(t)} é convexo; 5. g é semicont́ınua sobre x̄(T ) + εB; 6. a multifunção Ω : [S, T ] ⇒ Rm é Borel mensurável e compacta. Então: a) Se existe uma função de verificação local semicont́ınua para o processo (ū, x̄), então (ū, x̄) é um processo mı́nimo local forte para (P1). Reciprocamente b) Suponha que (ū, x̄) é um processo mı́nimo local forte para (P1) e que |g(·)| é limitada sobre x̄(T ) + εB. Então existe uma função de verificação local semicont́ınua para o processo (ū, x̄). Definição 2.5.2 (Função de Valor). Definamos a função de valor do problema (P1) como sendo a função V : [S, T ]× Rn → R tal que, para cada (t, x) ∈ [S, T ]× Rn, V (t, x) é definida como sendo o ı́nfimo custo do problema (Pt,x)  Minimizar g(y(T )) s.a. funções u : [t, T ]→ Rm, tais que u(t) ∈ Ω(t) e trajetórias y : [t, T ]→ Rn, satisfazendo ẏ(s) = f(s, y(s), u(s)), q.t.p. t ∈ [t, T ] y(t) = x. V (t, x) = inf u { g(y(T )) : ẏ(s) = f(s, y(s), u(s)), y(t) = x } . Com condição terminal V (T, x) = g(x), para todo x ∈ Rn. O v́ınculo entre o problema de controle ótimo (P1) e a equação de HJB é a função de valor. A seguinte proposição demonstra que a função de valor é solução da equação de Hamilton Jacobi Bellmann, no caso que a função V seja diferenciável. 2.5 Programação Dinâmica 29 Proposição 2.5.2. [38, Proposição 1.6.2] Suponha que a função valor V é de classe C1 nas variáveis (t, x). Então V resolve a equação diferencial parcial não linear Vt(t, x) + inf u∈U {Vx(t, x) · f(t, x, u)} = 0, (2.4) com condição terminal V (T, x) = g(x), ∀x ∈ Rn. O exemplo a seguir pode ser resolvido sem ferramentas matemáticas especiais, no entanto, é interessante ver a resposta dada pelas condições necessárias via a equação de HJB. Exemplo 2.5.1. Pretende-se desenhar uma curva x(t) que comece em x(0) = 0, cuja inclinação máxima seja 1 e que atinga a altura máxima para t = T. O problema pode ser formulado como um problema de controle ótimo com dinâmica ẋ(t) = u(t), x(0) = 0 e Ω(t) = [0, 1] e funcional de custo g(x(T )) = −x(T ), como segue: Minimizar − x(T ) sujeita a: ẋ(t) = u(t) x(0) = 0 u ∈ [0, 1]. Resolvendo, temos que a função de valor é dada por: V (t, y) = t− T − y, a qual satisfaz V (T, y) = T − T − y = −y = g(y), ∀y ∈ R. Temos que: Vt(t, y) = 1 e Vy(t, y) = −1, sabemos que a função de valor satisfaz a equação HJB Vt(t, y) + min u∈Ω(t) { ∇xV (t, y) · f(t, y, u) } = 0. Suponha que (ū, x̄) é um processo minimizante então V (0, 0) = −T = g(x̄(T )) = −x̄(T ), Vt(t, x̄(t)) + min u∈Ω(t) { ∇xV (t, x̄(t)) · f(t, x̄(t), u) } = 0 (2.5) a equação (2.5) nos proporciona ūot = 1, assim x̄(t) = t é a trajetória ótima. Pode ser demonstrado, ver [2], que, sob a hipótese de que V seja de classe C2 pode-se 2.6 Prinćıpio do Máximo 30 derivar as condições necessárias do Prinćıpio do Máximo usando soluções de viscosidade da equação de Hamilton-Jacobi-Bellman. 2.6 Prinćıpio do Máximo O Prinćıpio do Máximo da teoria de controle ótimo foi uma resposta matemática ao desafio colocado pelas ciências aeroespaciais e engenharia nas décadas dos anos cinquenta e sessenta do século passado. O Prinćıpio do Máximo foi anunciado em 1956, pelo grupo de pesquisadores do Instituto de Matemática de Moscou Steklov na antiga União Sovié- tica. O grupo encabeçado por Pontryagin incluiu, a seus estudantes V. Boltyanski e R. Gamkrelidze além do jovem pesquisador E. Mishchenko. Tendo feito contribuições relevantes para a topologia algébrica, Pontryagin decidiu dedicar os últimos anos de sua vida à matemática aplicada. A partir de 1952, Pontrya- gin decidiu mudar seu caminho de pesquisa para tópicos mais aplicados e iniciou um seminário sobre a teoria das oscilações, no qual a teoria do controle ótimo e o Prinćıpio do Máximo encontram suas origens. No ano de 1955, através de Mishchenko, o equipe entra em contato com um acadêmico ligado ao exército e sua pesquisa é orientada mais ao estudo de trajetórias ótimas e ao problema da interceptação espacial. Os esforços de pesquisa do grupo de Steklov produziram resultados que foram refletidos numa série de publicações. Pontryagin teve a oportunidade de apresentar os resultados de sua equipe no Congresso Internacional de Matemáticos, em Edimburgo, em 1958, tempo em que a prova do Prinćıpio do Máximo já tinha sido conclúıda, e no primeiro Congresso da IFAC (International Federation of Automatic Control) em 1960 em Moscou. Posteriormente, Boltyanski esclareceu que o Prinćıpio do Máximo é apenas uma condição necessária. Por outro lado, Gamkrelidze, provou que, para o caso linear, a condição do Prinćıpio do Máximo é necessária e suficiente. A seguir apresentamos as condições necessárias de otimalidade para o problema (P1). A proposição abaixo é uma generalização do Prinćıpio do Máximo suave formulado por Pontryagin. Proposição 2.6.1. [38, Prinćıpio do Máximo não suave] Seja (ū, x̄) mı́nimo local para (P1). Suponha que, para algum δ > 0, as seguintes hipóteses são satisfeitas. a) Para x fixo, f(·, x, ·) é L × Bm mensurável. Existe uma função L × Bm mensurável 2.6 Prinćıpio do Máximo 31 k : [S, T ]× Rm → R tais que t→ k(t, ū(t)) é integrável e, q.t.p. t ∈ [S, T ], |f(t, x, u)− f(t, x′, u)| ≤ k(t, u)|x− x′| para todo x, x′ ∈ x̄(t) + δB e u ∈ Ω(t). b) GrΩ é um conjunto L × Bm mensurável; c) g é localmente Lipschitz. Então existe um arco p ∈ W 1,1([S, T ];Rn) e λ ≥ 0 tais que i) Condição de não trivialidade: (p, λ) 6= (0, 0); ii) Equação Adjunta: −ṗ(t) ∈ co∂xH(t, x̄(t), p(t), ū(t)), q.t.p. iii) Condição de Máximo: H(t, x̄(t), p(t), ū(t)) = max u∈U(t) H(t, x̄(t), p(t), u), q.t.p iv) Condição de Transversalidade e Condição de Fronteira: (p(S),−p(T )) ∈ λ∂g(x̄(S), x̄(T )) +NC(x̄(S), x̄(T )). Nesta Tese proporcionamos condições necessárias na forma do Prinćıpio do Máximo para problemas mais gerais do que (P1), a saber, um problema com restrições de igualdade e desigualdade, custo e dinâmica não suaves onde todos os dados dependem de parâmetros; o qual será abordado no Caṕıtulo 5. 32 3 Existência de trajetórias ótimas para problemas de controle Os problemas de controle ótimo tem sido amplamente estudados (ver [7],[8],[38]). As condições para que um problema de controle possua existência de trajetórias ótimas estão bem estabelecidas na literatura e, neste caṕıtulo, proporcionaremos condições para que uma inclusão diferencial, que depende de parâmetros, possua ou admita soluções. Existe uma literatura ampla sobre inclusões diferenciais, onde a atenção concentra- se em inclusões diferenciais envolvendo multifunções que são Lipschitz cont́ınuas com respeito ao estado (ver [1] e [12]). Alguns resultados tais como: O Teorema de Seleção de Filippov e o Teorema de Compacidade de Trajetórias (ver [7] e [38]) são importantes para estabelecer a existência de processos ótimos sob uma hipótese de convexidade no conjunto de velocidades, para problemas de controle ótimo. Vinculados a esta teoria de inclusões diferenciais estão Tonelli, Young, Filippov, Gramkrelidze, Roxin entre outros. Quando a inclusão diferencial depende de parâmetros, a teoria existente não é mais aplicável para garantir a existência de soluções. Neste caṕıtulo, proporcionaremos novas condições para garantir a existência de trajetórias ótimas para problemas de controle minimax quando o conjunto de parâmetros está em um espaço métrico compacto. 3.1 Existência de trajetórias para inclusões diferen- ciais Seja A := (A, ρA(·, ·)) um espaço métrico compacto. A seguir, enunciaremos uma proposição cuja prova é uma adaptação de [38, Proposição 2.3.6]. Denotaremos como BA os subconjuntos Borel de A. 3.1 Existência de trajetórias para inclusões diferenciais 33 Proposição 3.1.1. Considere uma função g : I × Rm ×A → Rk. Suponha que g(·, ·, α) é L × Bm mensurável para cada α ∈ A e g(t, u, ·) é cont́ınua para cada (t, u) ∈ I × Rm. Então, g é L × Bm × BA mensurável. Demonstração. Como A é um espaço métrico compacto, ele possui um subconjunto enu- merável denso em A. Seja {αi}∞i=1 um conjunto enumerável de elementos em A. Para cada inteiro positivo k, definimos gk(t, u, α) = g(t, u, αj), para cada (t, u, α) ∈ I × Rm ×A, onde o j satisfaz a seguinte relação: ρ(αj, α) ≤ 1 k e ρ(αi, α) > 1 k para i = 1, ..., j − 1. Por hipótese g(t, u, ·) é cont́ınua, logo gk(t, u, α)→ g(t, u, α) quando k →∞. Mostremos que gk é L×Bm×BA mensurável para cada k. De fato, para qualquer conjunto aberto V ⊂ Rk, temos g−1 k (V ) = { (t, u, α) ∈ I × Rm ×A : gk(t, u, α) ∈ V } = ∞⋃ j=1 { (t, u, α) ∈ I × Rm ×A : g(t, u, αj) ∈ V, ρ(α, αj) ≤ 1 k e ρ(αi, α) > 1 k para i = 1, ..., j − 1}. Assim temos g−1 k (V ) = ∞⋃ j=1 ({ (t, u) ∈ I × Rm : g(t, u, αj) ∈ V } × { α ∈ A : ρ(α, αj) ≤ 1 k e ρ(αi, α) > 1 k para i = 1, ..., j − 1 }) , note que este último conjunto é L× Bm ×BA mensurável pois é a união de conjuntos da forma A×B com A ∈ L × Bm e B ∈ BA. � Proposição 3.1.2. Considere uma função φ : I × Rn × Rm ×A → Rk, satisfazendo i) existe uma constante K > 0 tal que |φ(t, x, u, α)− φ(t, x′, u, α)| ≤ K|x− x′|, 3.1 Existência de trajetórias para inclusões diferenciais 34 para todo x, x′ ∈ Rn, u ∈ Rm e α ∈ A; ii) φ(t, x, u, ·) é cont́ınua para cada (t, x, u) ∈ I × Rn × Rm; iii) φ(·, x, ·, α) é L × Bm mensurável para cada (x, α) ∈ Rn ×A. Se, para cada α ∈ A, x(·, α) : I → Rn é L mensurável e α 7→ x(t, α) é cont́ınua para cada t ∈ I, então (t, u, α) 7→ φ(t, x(t, α), u, α) é L × Bm × BA mensurável. Demonstração. Seja ϕα(t, x, u) := φ(t, x, u, α) para cada α ∈ A. Pelo item (iii) temos que ϕα(·, x, ·) é L × Bm mensurável. Como para cada α ∈ A, xα := x(·, α) : I → Rn é L mensurável, segue de Proposição 2.1.1 que (t, u) 7→ ϕα(t, xα(t), u) é L × Bm mensurável. Vejamos que a aplicação α 7→ ϕα(t, xα(t), u) é cont́ınua. Sejam α, α′ ∈ A tais que α → α′. Como α 7→ x(t, α) é cont́ınua para cada t ∈ I, temos x(t, α)→ x(t, α′) para cada t ∈ I. Disto e de (ii), obtemos φ(t, x, u, α)→ φ(t, x, u, α′) para cada (t, x, u). Assim, pela desigualdade triangular, a Lipschitz continuidade em x e a continuidade em α, temos |ϕα(t, xα(t), u)− ϕα′(t, xα′(t), u)| = |φ(t, xα(t), u, α)− φ(t, xα′(t), u, α′)| ≤ |φ(t, xα(t), u, α)− φ(t, xα′(t), u, α)|+ |φ(t, xα′(t), u, α)− φ(t, xα′(t), u, α′)| ≤ K|xα(t)− xα′(t)|+ |φ(t, xα′(t), u, α)− φ(t, xα′(t), u, α′)|. Consequentemente, |ϕα(t, xα(t), u)− ϕα′(t, xα′(t), u)| → 0 quando α→ α′. Com isto temos mostrado a continuidade em A. Finalmente, usando a Proposição 3.1.1, obtemos (t, u, α) 7→ ϕα(t, xα(t), u, α) = φ(t, x(t, α), u, α) é L × Bm × BA mensurável. � 3.1 Existência de trajetórias para inclusões diferenciais 35 A seguinte proposição será de muita utilidade na teoria de controle ótimo. Proposição 3.1.3. Considere uma função g : [S, T ] × Rm ×A → R e uma multifunção Γ : [S, T ] ⇒ Rm tais que: i) g(·, u, α) é L mensurável para cada (u, α) ∈ Rm ×A e g(t, ·, ·) é cont́ınua em Rm ×A para cada t; ii) Γ é fechada, não vazia e L mensurável. Então, η : [S, T ]×A → R dada por η(t, α) = sup u∈Γ(t) g(t, u, α) é uma função L × BA mensurável. Demonstração. A prova da Proposição 3.1.3 é uma consequência do Teorema 2.1.3 e a aplicação da Proposição 3.1.1. � Seja F : I × Rn × A ⇒ Rm uma multifunção não vazia. Definamos a multifunção hamiltoniana H : I × Rn × Rm ×A → R por H(t, x, p, α) = sup{p · v : v ∈ F (t, x, α)}. Proposição 3.1.4. Consideremos uma multifunção F : I×Rn×A⇒ Rm fechada. Valem as seguintes propriedades: i) Fixe (t, x, α) ∈ domF . Se existe c > 0 tal que F (t, x, α) ⊂ cB, então |H(t, x, p, α)| ≤ c|p| para cada p ∈ Rm e |H(t, x, p, α)−H(t, x, p′, α)| ≤ c|p− p′| para cada p, p′ ∈ Rm. ii) Se existe θ : [0,∞)→ [0,∞) tal que lims↓0 θ(s) = 0 e para quaisquer α, α′ ∈ A,∫ T S F (t, x, α) ⊆ ∫ T S F (t, x, α′) + θ(ρA(α, α′))B, para todo x ∈ Rn, t ∈ [S, T ], então lim α→α′ ∫ T S H(t, x, p, α)dt = ∫ T S H(t, x, p, α′)dt. 3.1 Existência de trajetórias para inclusões diferenciais 36 iii) Sejam as famı́lias de funções mensuráveis {x(·, α) : I → Rn : α ∈ A}, {p(·, α) : I → Rm : α ∈ A} tais que as funções α 7→ x(t, α), α 7→ p(t, α) são cont́ınuas. Suponha que F é L × Bn × BA mensurável. Então, (t, α) 7→ H(t, x(t, α), p(t, α), α) é L × BA mensurável. Proposição 3.1.5. Sejam A um espaço métrico compacto, U : I ⇒ Rm uma multifunção não vazia e uma função g : I × Rm ×A → Rn, satisfazendo: i) GrU é L × Bm mensurável; ii) Dado α ∈ A, a função g(·, ·, α) é L × Bm mensurável. Então, para qualquer famı́lia de funções mensuráveis {v(·, α) : I → Rn | α ∈ A}, a multifunção U ′ : I ⇒ Rm definida por U ′(t) := {u ∈ U(t) : g(t, u, α) = v(t, α), para todo α ∈ A} tem gráfico L × Bm mensurável. Se U ′(t) 6= ∅, então U ′ tem seleção mensurável. Demonstração. Seja ϕα(t, u) = g(t, u, α)− v(t, α), para cada α ∈ A. Notemos que, dado α ∈ A, o conjunto ϕ−1 α ({0}) = {(t, u) ∈ [S, T ]×Rm : ϕα(t, u) = 0} é L×Bm mensurável. Como A é um espaço métrico compacto, então contém um subconjunto I ⊆ A enu- merável denso em A. Assim, ⋂ α∈I ϕ −1 α ({0}) é L × Bm mensurável. Logo, GrU ′ = GrU ∩ (⋂ α∈I ϕ−1 α ({0}) ) é L × Bm mensurável. Além disso, se U ′(t) 6= ∅, então, pelo Teorema 2.1.2 (Teorema de seleção de Aumann), U ′ tem seleção mensurável. � 3.1.1 Sistemas de Controle Considere o sistema de controle{ ẋ(t, α) = f(t, x(t, α), u(t), α), q.t.p. t ∈ [S, T ] para cada α ∈ A, u(t) ∈ Ω(t), q.t.p. t ∈ [S, T ]. (3.1) 3.1 Existência de trajetórias para inclusões diferenciais 37 Definição 3.1.1. Um processo de controle (u, {x(·;α) | α ∈ A}) consiste de uma função mensurável u : [S, T ] → Rm satisfazendo u(t) ∈ Ω(t) q.t.p. t ∈ [S, T ] e uma famı́lia {x(·;α) ∈ W 1,1([S, T ];Rn) | α ∈ A, } de arcos satisfazendo (3.1), para cada α ∈ A. Se o processo de controle (u, {x(·;α) | α ∈ A}) satisfaz (3.1), então {x(·, α) | α ∈ A} satisfaz a seguinte inclusão dinâmica ẋ(t, α) ∈ { f(t, x(t, α), u, α) | u ∈ Ω(t) } , ∀α ∈ A e q.t.p. t ∈ [S, T ]. (3.2) Proposição 3.1.6. Considere uma função f : [S, T ] × Rn × Rm × A → Rn e uma multifunção Ω : [S, T ] ⇒ Rm. Suponha que A1) f(t, ·, u, ·) é cont́ınua em (x, α) e f(·, x, ·, α) L × Bm mensurável para cada (x, α), A2) Ω não vazia, fechada e L mensurável. Se {x(·, α) ∈ W 1,1([S, T ];Rn) | α ∈ A} satisfaz (3.2), então existe uma seleção mensurável de Ω tal que o processo de controle (u, {x(·;α) | α ∈ A}) satisfaz (3.1). Demonstração. Seja α ∈ A, consideremos g(t, u, α) = f(t, x(t, α), u, α) e v(t, α) = ẋ(t, α). Assim definida, a função g(·, ·, α) é L × Bm mensurável para cada α ∈ A. E sendo Ω não vazia, fechada e L mensurável, temos pela Proposição 3.1.5 que existe uma função mensurável u : I → Rm satisfazendo u(t) ∈ Ω(t) q.t.p. tal que f(t, x(t, α), u(t), α) = ẋ(t, α) para cada α ∈ A. Portanto (u, {x(·;α) | α ∈ A}) é um processo de controle para o sistema (3.1). � 3.1.2 Existência de uma famı́lia de trajetórias Fixe um intervalo [S, T ] e um subconjunto relativamente aberto Ω ⊆ [S, T ]×Rn. Para todo t ∈ [S, T ], definimos Ωt := {x : (t, x) ∈ Ω}. Definamos, para cada α ∈ A, a função ΥFα(y(·, α)) := ∫ T S ζFα(t, y(t, α), ẏ(t, α), α)dt, onde ζFα(t, x, v, α) = inf{|η − v| : η ∈ F (t, x, α)}. O seguinte teorema mostra a existência de uma famı́lia de trajetórias. 3.1 Existência de trajetórias para inclusões diferenciais 38 Teorema 3.1.1. Seja Ω um subconjunto relativamente aberto de [S, T ]×Rn. Sejam uma multifunção F : Ω×A ⇒ Rn, uma famı́lia de arcos {y(·, α) ∈ W 1,1([S, T ];Rn) | α ∈ A}, um ponto ξ ∈ Rn e um ε ∈ (0,+∞) ∪ {+∞} tal que T (y(·;α), ε) ⊂ Ω, para todo α ∈ A. Suponha que: i) A multifunção (t, x, α) 7→ F (t, x, α) é L × Bn × BA mensurável; ii) para cada α ∈ A, F (t, x, α) é fechado e não vazio; iii) existem funções integráveis k : [S, T ]→ R e φ : [S, T ]→ R tais que F (t, x, α) ⊆ F (t, y, α) + k(t)|x− y|B e F (t, x, α) ⊆ φ(t)B para todo x, y ∈ y(t, α) + εB, q.t.p. t ∈ [S, T ] e α ∈ A; iv) existe θ : [0,∞)→ [0,∞) tal que lim s↓0 θ(s) = 0 e, para todo α, α′ ∈ A, ∫ T S F (t, x, α) ⊆ ∫ T S F (t, x, α′) + θ(ρA(α, α′))B, para todo x ∈ y(t, α) + εB, t ∈ [S, T ]; v) Suponha também que K ( |ξ − y(S, α)|+ ∫ T S ζFα(t, y(t, α), ẏ(t, α), α)dt ) ≤ ε, (3.3) para cada α ∈ A, onde K := exp ( ∫ T S k(t)dt ) . Então, existe uma famı́lia de trajetórias {x(·, α) | α ∈ A}, x(S, α) = ξ, tal que ‖x(·, α)− y(·, α)‖ ≤ |x(S, α)− y(S, α)|+ ∫ T S |ẋ(t, α)− ẏ(t, α)|dt ≤ K ( |ξ − y(S, α)|+ ∫ T S ζFα(t, y(t, α), ẏ(t, α), α)dt ) , para cada α ∈ A. Além disso, para cada t ∈ [S, T ], x(t, ·) : A → Rn é cont́ınua. Se ε = +∞ nas hipóteses acima, T (y, ε) e εB são interpretadas como [S, T ] × Rn e Rn, respectivamente e a condição (3.3) é requerida ser finita. Demonstração. Sejam α0 ∈ A arbitrário e uma sequência {αk} ⊂ A tal que αk → α0. Definamos Fk(t, x) = F (t, x, αk) e F0(t, x) = F (t, x, α0), e seja yk(t) = y(t, αk) e y0(t) = 3.1 Existência de trajetórias para inclusões diferenciais 39 y(t, α0) . Assim, temos uma sequência de arcos yk ∈ W 1,1([S, T ];Rn). Então, pelo Teorema 2.2.1 (Teorema de Existência de Filippov), para cada k, existe uma trajetória zk para Fk, isto é, żk(t) ∈ Fk(t, zk(t)) tal que zk(S) = ξ e ‖yk − zk‖ ≤ ε. Por outro lado, da hipótese (iv), obtemos∫ t S żk(s)ds ∈ ∫ T S Fk(s, zk(s)) = ∫ T S F (s, zk(s), αk) ⊂ ∫ T S F (s, zk(s), α0)ds+ θ(ρ(αk, α0))B = ∫ T S F0(s, zk(s))ds+ ( 1 T − S ∫ T S θ(ρ(αk, α0))ds ) B. Logo, żk(t) ∈ F0(t, zk(t)) + 1 T − S θ(ρ(αk, α0))B. Pelo Teorema 2.2.2 (Teorema de Compacidade das trajetórias), existe uma trajetória w tal que zk → w, żk → ẇ (3.4) e ẇ(t) ∈ F0(t, w(t)). Ou seja, ẇ(t) ∈ F (t, w(t), α0) e w(S) = ξ. Também, temos żk(t) ∈ F0(t, zk(t)) + 1 T − S θ(ρ(αk, α0))B ⊂ F0(t, y0(t)) + 1 T − S θ(ρ(αk, α0))B + kf (t)|zk(t)− y0(t)|B, onde existe uma seleção mensurável η ∈ F0(t, y0(t)) tal que |żk(t)− η| ≤ 1 T − S θ(ρ(αk, α0)) + kf (t)|zk(t)− y0(t)|. (3.5) Fazendo uso da Desigualdade triangular, resulta |żk(t)− ẏ0(t)| ≤ |żk(t)− η|+ |η − ẏ0(t)|. (3.6) Substituindo (3.5) em (3.6) obtemos |żk(t)− ẏ0(t)| ≤ 1 T − S θ(ρ(αk, α0)) + kf (t)|zk(t)− y0(t)|+ |η − ẏ0(t)|. 3.1 Existência de trajetórias para inclusões diferenciais 40 Tomando o ı́nfimo sobre η ∈ F0(t, y0(t)) na última desigualdade, temos |żk(t)− ẏ0(t)| ≤ 1 T − S ( θ(ρ(αk, α0)) ) + kf (t)|zk(t)− y0(t)|+ ζF (t, y0(t), ẏ0(t), α0). (3.7) Logo, |zk(t)− y0(t)| ≤ |zk(S)− y0(S)|+ ∫ T S |żk(t)− ẏ0(t)|dt ≤ |zk(S)− y0(S)|+ ∫ T S ( 1 T − S θ(ρ(αk, α0)) + kf (t)|zk(t)− y0(t)|+ ζF (t, y0(t), ẏ0(t), α0) ) dt. Assim, pela Desigualdade de Gronwall, obtemos |zk(t)− y0(t)| ≤ exp (∫ T S k(t)dt )( |ξ − y0(S)|+ ∫ T S ζF (t, y0(t), ẏ0(t), α0)dt ) + exp (∫ T S k(t)dt ) θ(ρ(αk, α0)). Usando (3.3), segue |zk(t)− y0(t)| ≤ ε+ exp (∫ T S k(t)dt ) θ(ρ(αk, α0)). (3.8) Logo, pela Desigualdade triangular, (3.4) e (3.8), temos que |y0(t)− w(t)| ≤ |y0(t)− zk(t)|+ |zk(t)− w(t)| ≤ ε+ exp (∫ T S k(t)dt ) θ(ρ(αk, α0)) + |zk(t)− w(t)|. Agora fazendo k →∞, tem-se |y(t, α0)− w(t, α0)| ≤ ε. Finalmente, |w(·, αk)− w(·, α0)| ≤ |w(·, αk)− y(·, αk)|+ |y(·, αk)− z(·, αk)|+ |z(·, αk)− w(·, α0)| ≤ ε+ ε, mostrando a continuidade da trajetória em A. � Como uma consequência do teorema anterior, temos o seguinte resultado: Corolário 3.1.1. Sejam uma função f : [S, T ] × Rn × A → Rn, uma famı́lia de arcos {y(·, α) ∈ W 1,1([S, T ];Rn) | α ∈ A}, ε ∈ (0,∞) ∪ {+∞} e um ponto ξ ∈ Rn. (Se ε = +∞, então T (y(·, α), ε) e εB são interpretados como [S, T ]×Rn e Rn, respectivamente). 3.1 Existência de trajetórias para inclusões diferenciais 41 Suponha que: i) f(·, x, ·) é L × BA mensurável para cada x ∈ Rn; ii) existem funções kf e cf integráveis tais que, |f(s, x, α)− f(s, x′, α)| ≤ kf (s)|x− x′| e |f(s, x, α)| ≤ cf (s), para todo x, x′ ∈ y(s, α) + εB e α ∈ A, q.t.p. s ∈ [S, T ]; iii) existe θ : [0,+∞)→ [0,+∞) tal que lim s→0 θ(s) = 0 e, dados α, α′ ∈ A, ∫ T S sup x∈y(t)+εB |f(s, x, α)− f(s, x, α′)|ds ≤ θ(ρA(α, α′)). Aqui temos considerado ‖f(·, ·, α)‖ = ∫ T S sup x∈y(t)+εB |f(t, x, α)|dt. iv) Suponha que K ( |ξ − y(S, α)|+ ∫ T S |ẏ(t, α)− f(t, y(t, α), α)|dt ) ≤ ε, (3.9) para cada α ∈ A, onde K := exp ( ∫ T S k(t)dt ) . Então, para cada α ∈ A, existe uma única solução para a equação diferencial ordinária ẋ(t, α) = f(t, x(t, α), α), q.t.p. t ∈ [S, T ], (3.10) x(S, α) = ξ, (3.11) satisfazendo ‖x(·, α)− y(·, α)‖ ≤ |x(S, α)− y(S, α)|+ ∫ T S |ẋ(t, α)− ẏ(t, α)|dt ≤ k ( |ξ − y(S, α)|+ ∫ T S |ẏ(t, α)− f(t, y(t, α), α)|dt ) . Além disso, para cada t ∈ [S, T ], x(t, ·) : A → Rn é cont́ınua. Demonstração. A existência de uma famı́lia de soluções para a equação diferencial or- dinária (3.10) é uma consequência imediata do Teorema 3.1.1. Para mostrar a unici- dade, suponhamos que existam duas soluções x(·, α) e x′(·, α) para a equação diferen- cial (3.10) satisfazendo ‖x′(·, α) − y(·, α)‖ < ε e ‖x′′(·, α) − y(·, α)‖ < ε. Definamos, 3.2 Existência de uma famı́lia de trajetórias ótimas 42 z(t, α) := ‖x′(·, α)− x′′(·, α)‖. Logo, |ż(t, α)| = |f(t, x′(t, α), α)− f(t, x′′(t, α), α)| ≤ k(t)|x′(t, α)− x′′(t, α)| = k(t)|z(t, α)|. Usando a Desigualdade de Gronwall, segue que z(·, α) = 0. Assim, x′(·, α) = x′′(·, α) para cada α ∈ A, mostrando a unicidade das soluções. � 3.2 Existência de uma famı́lia de trajetórias ótimas Considere um subconjunto relativamente aberto Ω ⊂ [S, T ] × Rn, uma multifunção F : Ω × A ⇒ Rn, uma famı́lia de multifunções fechadas {Xα : [S, T ] ⇒ Rn} com a propriedade que GrXα ⊂ Ω, para todo α ∈ A, e uma famı́lia {C(α) ⊂ Rn × Rn | α ∈ A} de conjuntos fechados. Definamos, para cada α ∈ A, RFα(Xα, C(α)) := { x(·, α) ∈ C([S, T ];Rn) : x(·, α) é uma trajetória de F (·, ·, α), x(t, α) ∈ Xα(t),∀t ∈ [S, T ], e (x(S, α), x(T, α)) ∈ C(α) } . Proposição 3.2.1. Tomemos Ω, F e, para cada α ∈ A, C(α), Xα como acima. Suponha as condições i)− ii) do Teorema 3.1.1, além de iii’) Para cada t ∈ [S, T ], o gráfico de F (t, ·, α) restrito a Xα(t) é fechado para todo α ∈ A; iv’) existem γ, β ∈ L1 tais que F (t, x, α) ⊆ ( γ(t)|x|+ β(t) ) B para todo (t, x) ∈ GrXα, para todo α ∈ A. v’) Xα(s) é limitada para algum s ∈ [S, T ] ou um dos seguintes conjuntos Cα 0 := {x0 ∈ Rn : (x0, x1) ∈ C(α) para algum x1 ∈ Rn}, Cα 1 := {x1 ∈ Rn : (x0, x1) ∈ C(α) para algum x0 ∈ Rn} é limitado; 3.2 Existência de uma famı́lia de trajetórias ótimas 43 vi’) existe θ : [0,∞)→ [0,∞) tal que lims↓0 θ(s) = 0 e, para todo α, α′ ∈ A∫ T S F (t, x, α) ⊆ ∫ T S F (t, x, α′) + θ(ρA(α, α′))B, para todo (t, x) ∈ GrXα, t ∈ [S, T ]. Suponha também que para cada α ∈ A, F (t, x, α) é convexo, para todo (t, x) ∈ GrXα. Então, RFα(Xα, C(α)) é compacto com respeito à topologia da convergência uniforme para cada α ∈ A. Demonstração. Consideremos y(t, α) = (x(t, α), α), para cada α ∈ A. Assim, ẏ(t, α) = (ẋ(t, α), 0). Logo, ẏ(t, α) ∈ F (t, y(t, α))× {0} = G(t, y(t, α)). Definamos G(t, y) = F (t, x, α)× {0}, onde y = (x, α). Pode-se verificar que a multifunção G satisfaz as hipóteses da Proposição 2.2.1, para cada α ∈ A. Assim, o resultado segue. Destacamos, a seguir, a validade da seguinte propriedade: • Para cada t ∈ [S, T ], o gráfico de G(t, ·) restrito a Y (t) = Xα(t) × A ⊂ Rn × A é fechado. Sejam y = (x, α) e z = (u, v). Se (z, y) ∈ GrG, então existe (zi, yi) ∈ GrG tal que (zi, yi) → (z, y), onde zi = (ui, vi) e yi = (xi, αi), logo, pela definição de gráfico, temos que zi ∈ G(t, yi) = F (t, xi, αi) × {0} dáı, ui ∈ F (t, xi, αi) e vi = 0. Pela hipótese (vi′), temos ∫ T S F (t, xi, αi)dt ⊂ ∫ T S F (t, xi, α)dt+ θ(ρ(αi, α))B. Então, para cada i, existe ηi ∈ F (t, xi, α) tal que∫ T S |ui − ηi|dt ≤ θ(ρ(αi, α)). Agora , fazendo i → ∞, temos que ηi → u. Como (ηi, xi) ∈ GrF (t, ·, α) e GrF (t, ·, α) é fechado por causa da hipótese (iii′), temos que (u, x) ∈ GrF (t, ·, α) e v = 0. Assim, (u, v) ∈ F (t, x, α)×{0} = G(t, y), isto é (z, y) ∈ GrG(t, ·), mostrando queG é fechada. � 3.2 Existência de uma famı́lia de trajetórias ótimas 44 Observação 3.2.1. Para que esta propriedade seja válida, precisamos da hipóteses vi′). Por tanto a inclusão de (vi′) é primordial no caso quando a multifunção F depende de parâmetros. Agora podemos fornecer condições para a existência de soluções para um problema ótimo minimax. 3.2.1 Problemas de Controle Ótimo Minimax Consideremos o seguinte problema de otimização minimax (Q)  Minimize max α∈A g(x(S;α), x(T ;α), α) s.a arcos {x(.;α) : [S, T ]→ Rn | α ∈ A} tal que, para cada α ∈ A ẋ(t;α) ∈ F (t, x(t, α), α) q.t.p. t ∈ [S, T ], x(t, α) ∈ Xα(t) para todo t ∈ [S, T ], (x(S;α), x(T, α)) ∈ C(α), onde g : Rn × Rn ×A → R é cont́ınua e g(·, ·, α) é Lipschitz em Rn × Rn. Uma famı́lia {x(·, α) ∈ W 1,1([S, T ];Rn) | α ∈ A} de arcos satisfazendo, para cada α ∈ A, ẋ(t, α) ∈ F (t, x(t, α), α) q.t.p. t ∈ [S, T ], x(t, α) ∈ Xα(t) para todo t ∈ [S, T ], (x(S, α), x(T, α)) ∈ C(α) é chamada de famı́lia de trajetórias fact́ıveis ou admisśıveis. A famı́lia {x̄(·, α) ∈ W 1,1([S, T ];Rn) | α ∈ A} é uma trajetória ótima de (Q), se {x̄(·, α) ∈ W 1,1([S, T ];Rn) | α ∈ A} é uma trajetória admisśıvel de (Q) e max α∈A g(x̄(S;α), x̄(T ;α), α) ≤ max α∈A g(x(S;α), x(T ;α), α), para qualquer trajetória {x(·, α) ∈ W 1,1([S, T ];Rn) | α ∈ A}. Proposição 3.2.2. Tome Ω, F,Xα e C(α) para cada α ∈ A como previamente descritos. Suponha que as hipóteses da Proposição 3.2.1 são válidas e além disso, vii) Para cada α ∈ A, F (t, x, α) é convexo para todo (t, x) ∈ GrXα; viii) para cada α ∈ A, o conjunto RFα(Xα, C(α)) é não vazio. 3.2 Existência de uma famı́lia de trajetórias ótimas 45 Então, o problema (Q) tem mı́nimo. Demonstração. Seja a = inf Q. Como, para cada α ∈ A, o conjunto RFα(Xα, C(α)) é não vazio, seja {xi(·, α) | α ∈ A} uma sequência de trajetórias fact́ıveis para o problema (Q) tal que lim i→∞ max α∈A g(xi(S, α), xi(T, α), α) = a. Como RFα(Xα, C(α)) é um conjunto compacto, para cada α ∈ A, esta sequência possui subsequência convergente, isto é, para cada α ∈ A, existe uma subsequência xik(·, α) de xi(·, α) e uma trajetória x̄(·, α) de F (·, ·, α) tal que xik(·, α)→ x̄(·, α), onde x̄(t, α) ∈ Xα(t) e (x̄(S, α), x̄(T, α)) ∈ C(α). Logo, para cada α ∈ A, x̄(·, α) é trajetória fact́ıvel. Dáı, a = lim i→∞ max α∈A g(xik(S, α), xik(T, α), α) = max α∈A g(x̄(S, α), x̄(T, α), α) ≥ a. Assim, max α∈A g(x̄(S, α), x̄(T, α), α) = inf Q. Portanto, {x̄(·, α) | α ∈ A} é uma famı́lia de trajetórias ótimas para o problema (Q). � A Proposição 3.2.2 é uma base fundamental para fornecer condições de existência de processos ótimos para problemas de controle ótimo minimax. Consideremos o problema de controle ótimo minimax (P ′)  Minimizar max α∈A g(x(T ;α), α) s.a funções mensuráveis u : [S, T ]→ Rm tais que u(t) ∈ Ω(t) q.t.p. t ∈ [S, T ] e arcos {x(.;α) : [S, T ]→ Rn | α ∈ A} tais que, para todo α ∈ A ẋ(t;α) = f(t, x(t, α), u(t), α), q.t.p. t ∈ [S, T ], x(S, α) = x0, x(T, α) ∈ C(α). Tomemos funções f : [S, T ]×Rn×Rm×A → Rn e g : Rn×A → R, um vetor x0 ∈ Rn, um conjunto dependente do tempo Ω(t) ⊂ Rm, S ≤ t ≤ T , e uma famı́lia de conjuntos fechados {C(α) ⊂ Rn | α ∈ A}. Definição 3.2.1. Uma função de controle fact́ıvel é uma função mensurável u : [S, T ]→ Rm satisfazendo que u(t) ∈ Ω(t) q.t.p. t ∈ [S, T ]. 3.2 Existência de uma famı́lia de trajetórias ótimas 46 Um processo de controle (u, {x(·;α) | α ∈ A}) compreende uma função de controle fact́ıvel u e uma famı́lia {x(·;α) ∈ W 1,1([S, T ];Rn) | α ∈ A} de arcos satisfazendo, para cada α ∈ A, { ẋ(t;α) = f(t, x(t, α), u(t), α), q.t.p. t ∈ [S, T ], x(S, α) = x0. (3.12) Um processo de controle é fact́ıvel se (u, {x(·;α) | α ∈ A}) satisfaz x(T, α) ∈ C(α), para todo α ∈ A. Um processo fact́ıvel (ū, {x̄(·;α) | α ∈ A}) é dito ótimo ou mı́nimo, se se max α∈A g(x(T ;α), α) ≥ max α∈A g(x̄(T ;α), α), para todo processo fact́ıvel (u, {x(·;α) | α ∈ A}). Corolário 3.2.1. Suponhamos que f, g satisfazem as seguintes condições: H1) A função f(·, x, ·, ·) é L × Bm × BA mensurável para cada x ∈ Rn. H2) Existem funções kf e cf integráveis tais que, para cada α ∈ A, |f(s, x, u, α)− f(s, x′, u, α)| ≤ kf (s)|x− x′| e |f(s, x, u, α)| ≤ cf (s), para todo x, x′ ∈ Rn, u ∈ Ω(s) q.t.p. s ∈ [S, T ]. H3) Existe θ : [0,+∞)→ [0,+∞) tal que lim s→0 θ(s) = 0 e, para todo α, α′ ∈ A, ∫ T S sup u∈Ω(s) |f(s, x, u, α)− f(s, x, u, α′)|ds ≤ θ(ρA(α, α′)), ∀x ∈ Rn. H4) A multifunção Ω : [S, T ] ⇒ Rm tem gráfico Borel mensurável. H5) Para cada α ∈ A, o conjunto F (s, x, α) := {f(s, x, u, α) : u ∈ Ω(s)} é fechado e convexo, para cada (s, x) ∈ [S, T ]× Rn. Se o problema (P ′) tem um processo fact́ıvel (u, {x(·;α) | α ∈ A}), então existe um pro- cesso fact́ıvel ótimo (ū, {x̄(·;α) | α ∈ A}) para o problema (P ′). Demonstração. Seja (u, {x(·;α) | α ∈ A}) um processo fact́ıvel do problema (P ′), então 3.2 Existência de uma famı́lia de trajetórias ótimas 47 {x(·, α) | α ∈ A} é trajetória fact́ıvel para o problema Minimizar max α∈A g(x(T ;α), α) s.a arcos {x(.;α) : [S, T ]→ Rn | α ∈ A} tais que, para todo α ∈ A ẋ(t;α) ∈ {f(t, x(t, α), u(t), α) | u(t) ∈ Ω(t)}, x(S, α) = x0. Logo, pela Proposição 3.2.2, o problema acima tem uma famı́lia de trajetórias fact́ıveis ótimas {x̄(·, α) | α ∈ A}, a qual satisfaz{ ˙̄x(t;α) ∈ {f(t, x̄(t, α), u(t), α) | u(t) ∈ Ω(t)}, x̄(S, α) = x0 e max α∈A g(x̄(T ;α), α) ≤ max α∈A g(x(T ;α), α), para todo {x(·, α) | α ∈ A}. Usando a Proposição 3.1.5, existe uma função mensurável ū : [S, T ]→ Rm tal que ū(t) ∈ Ω(t) satisfazendo{ ˙̄x(t;α) = f(t, x̄(t, α), ū(t), α) x̄(S, α) = x0. Assim, (ū, {x̄(·;α) | α ∈ A}) é um processo fact́ıvel ótimo do problema (P ′), concluindo a prova do corolário. � O seguinte lema mostra a continuidade das trajetórias com relação ao parâmetro α ∈ A. Lema 3.2.1. Seja (u, {x(·;α) | α ∈ A}) um processo de controle. Se as hipóteses H1)-H5) são válidas e a função g é cont́ınua e g(·, α) é Lipschitz com constante de Lipschitz kg, para todo α ∈ A. então: i) A função α 7→ x(s, α), para todo s ∈ [t, T ], satisfaz |x(s, α)− x(s, α′)| ≤ e ∫ s t kf (τ)dτω(ρA(α, α′)), ∀α, α′ ∈ A. ii) lim α→α′ |x(s, α)− x(s, α′)| = 0 e lim α→α′ |g(x(T, α), α)− g(x(T, α′), α′)| = 0. Demonstração. Seja (u, {x(·;α) | α ∈ A}) um processo fact́ıvel dado. Mostremos i). Se- 3.2 Existência de uma famı́lia de trajetórias ótimas 48 jam α, α′ ∈ A. Assim, |x(s, α)− x(s, α′)| = ∣∣∣ ∫ s t [f(τ, x(τ, α), u(τ), α)− f(τ, x(τ, α′), u(τ), α′)]dτ ∣∣∣ ≤ ∫ s t |f(τ, x(τ, α), u(τ), α)− f(τ, x(τ, α), u(τ), α′)|dτ + ∫ s t |f(τ, x(τ, α), u(τ), α′)− f(τ, x(τ, α′), u(τ), α′)|dτ ≤ ω(ρA(α, α′)) + ∫ s t kf (τ)|x(τ, α)− x(τ, α′)|dτ, onde a última desigualdade segue de (H3) e (H4). Pelo Lema de Gronwall segue que |x(s, α)− x(s, α′)| ≤ ω(ρA(α, α′))e ∫ s t kf (τ)dτ , ∀s ∈ [t, T ]. Agora mostremos ii). De i) segue a continuidade da função α 7→ x(s, α), para todo s ∈ [t, T ]. Defina y : A → Rn como y(α) = x(T, α) e considere a seguinte aplicação g ◦ (y × id) : A y×id−→ Rn ×A g−→ R α 7−→ (y(α), α) 7−→ g(y(α), α) = g(x(T, α), α). Como y, id e g são cont́ınuas emA, segue que a função composta g◦(y×id) é cont́ınua. � Seja ∆ : Rk × Rk → R dada por ∆(u, u′) = ∫ T t |u(τ)− u′(τ)|dτ uma métrica sobre U(t). O lema seguinte reúne alguns fatos úteis sobre a dependência das trajetórias em relação aos controles e parâmetros. Lema 3.2.2. Para qualquer δ > 0, podem ser escolhidos um subconjunto finito à ⊂ A e ρ > 0 tais que: i) sup u∈U(t) sup α∈A inf α′∈à ‖x(·;α, u)− x(·;α′, u)‖ < δ; ii) sup α∈A { ‖x(·;α, u)− x(·;α, u′)‖ : u, u′ ∈ U(t),∆(u, u′) < ρ } < δ. Demonstração. Para todo u ∈ U(t) e cada α ∈ A existe uma única trajetória x(·; t, z, u, α) que satisfaz (3.12). 3.2 Existência de uma famı́lia de trajetórias ótimas 49 i) Dado δ > 0, tome δ′ = δ L , onde L := exp ( ∫ s t kf (τ)dτ ) . Como lim s→0 ω(s) = 0, existe δ′′ > 0 tal que, para s ∈ [0,∞), |s| < δ′′, tem-se |ω(s)| < δ′. Sendo A compacto, existe um conjunto finito à = {α1, ..., αN} tal que A = ⋃ j=1 B(αj, δ ′′) e assim, para cada α ∈ A, existe α′ ∈ à ⊂ A tal que ρA(α, α′) < δ′′. Do Lema 3.2.1(i) temos |x(s, α, u)− x(s, α′, u)| ≤ ω(ρ(α, α′)) exp (∫ s t kf (τ)dτ ) < δ′ · L = δ. Logo, segue que inf α′∈à ‖x(·, α, u)− x(·, α′, u)‖ < δ, ∀α ∈ A e ∀u ∈ U(t), portanto, sup u∈U(t) sup α∈A inf α′∈à ‖x(·, α, u)− x(·, α′, u)‖ < δ. ii) Para cada α ∈ A, seja uk → u e seja x(·, uk, α) := xk(·, α) uma sequência de traje- tórias da equação diferencial ordinária (3.12). Temos que {ẋk} é uma sequência de funções uniformemente integráveis limitadas sobre [t, T ] e {xk(t, α)} = z uma sequência limitada. Assim, pelo Critério de Dunfort- Pettis (Teorema A.2.2), existe uma subsequência de {ẋk}, ainda denotada por {ẋk}, de modo que (nós não relabelamos) que ẋk(·, α)→ v fracamente em L1 para algum v ∈ L1. Definimos, para s ∈ [t, T ], x̄(s, α) := z + ∫ s t v(τ)dτ. Assim, ẋk(·, α)→ ˙̄x(·, α) fracamente em L1 e xk(·, α)→ x̄(·, α) uniformemente. Também temos pelo Critério de Dunford-Pettis (Teorema A.2.2) que, para todo δ > 0, existe ρ > 0 tal que means(D) < ρ onde D = {τ | uk(τ) 6= u(τ)} ⊂ [t, T ] e ẋk(·, α) ∈ L1 temos ∫ D | ˙̄x(τ, α)| < δ. Vejamos que ∣∣∣ ∫ T t [ f(τ, xk(τ, α), uk(τ), α)− f(τ, x̄(τ, α), u(τ), α) ] dτ ∣∣∣→ 0. 3.2 Existência de uma famı́lia de trajetórias ótimas 50 Para isso note que∣∣∣ ∫ T t [ f(τ, xk(τ, α), uk(τ), α)− f(τ, x̄(τ, α), u(τ), α) ]∣∣∣dτ ≤ ∫ T t |f(τ, xk(τ, α), uk(τ), α)− f(τ, x̄(τ, α), uk(τ), α)|dτ + ∫ T t |f(τ, x̄(τ, α), uk(τ), α)− f(τ, x̄(τ, α), u(τ), α)|dτ ≤ ∫ T t kf (τ)|xk(τ, α)− x̄(τ, α)|dτ + ∫ [t,T ]\D |f(τ, x̄(τ, α), uk(τ), α)− f(τ, x̄(τ, α), u(τ), α)|dτ + ∫ D |f(τ, x̄(τ, α), uk(τ), α)− f(τ, x̄(τ, α), u(τ), α)|dτ. Logo, ∫ s t f(τ, xk(τ, α), uk(τ), α)dτ → ∫ s t f(τ, x̄(τ, α), u(τ), α)dτ, xk(s, α) = z + ∫ s t f(τ, xk(τ, α), uk(τ), α)dτ → z + ∫ s t f(τ, x̄(τ, α), u(τ), α)dτ. Assim, para cada α ∈ A, x̄(·, α) é solução de ẋ(s, α) = f(s, x, u, α) com condição inicial x(t, α) = z, e como x(·, α) é a única solução do sistema mencionado, pela unicidade do limite temos x̄(·, α) = x(·, α). Desse modo xk(s, α) = z + ∫ s t f(τ, xk(τ, α), uk(τ), α)dτ → z + ∫ s t f(τ, x(τ, α), u(τ), α)dτ. Consequentemente temos ‖x(·, uk, α)− x(·, u, α)‖ → 0 quando uk → u, o que termina a prova de ii). � Neste caṕıtulo mostramos a existência de trajetórias para inclusões diferenciais que dependem de parâmetros (Teorema 3.1.1), isto foi feito sob certas hipóteses sobre os dados. Também mostramos a existência de trajetórias ótimas para um problema de controle minimax (Proposição 3.2.1). 51 4 Equações de Hamilton-Jacobi-Bellman para problemas de controle ótimo minimax Neste caṕıtulo seram apresentadas as condições necessárias e suficientes de otimalidade para problemas de controle ótimo minimax, utilizando a teoria de Programação Dinâmica via as equações de Hamilton-Jacobi-Bellman. Também será mostrado que a função de valor do problema (P ) é o máximo de funções de valor de problemas parametrizados sobre um conjunto de parâmetros, resultado que leva a satisfazer que a função de valor é solução da equação de HJB. Sejam t ∈ [S, T ] e z ∈ Rn. Consideremos o seguinte problema de controle ótimo minimax (Pt,z)  Minimizar max α∈A g(x(T ;α), α) s.a funções mensuráveis u : [t, T ]→ Rm tais que u(s) ∈ Ω(s) q.t.p. s ∈ [t, T ] e arcos {x(.;α) : [t, T ]→ Rn | α ∈ A} tais que, para todo α ∈ A ẋ(s;α) = f(s, x(s, α), u(s), α), q.t.p. s ∈ [t, T ], x(t, α) = z. Fixemos um espaço métrico compacto (A, ρA(·, ·)). Tomemos funções f : [S, T ] × Rn × Rm × A → Rn e g : Rn × A → R, um conjunto dependente do tempo Ω(t) ⊂ Rm, S ≤ t ≤ T . 4.1 Definições Definição 4.1.1. Uma função de controle fact́ıvel é uma função mensurável u : [t, T ]→ Rm satisfazendo u(s) ∈ Ω(s) q.t.p. s ∈ [t, T ]. O conjunto de funções de controle fact́ıveis 4.1 Definições 52 é escrito como U(t). E simplesmente como U quando t = S. Um processo de controle fact́ıvel (u, {x(·;α) | α ∈ A}) compreende uma função de controle fact́ıvel u e uma famı́lia {x(·;α) ∈ W 1,1([t, T ];Rn) | α ∈ A} de arcos satisfazendo, para cada α ∈ A, { ẋ(s;α) = f(s, x(s, α), u(s), α), q.t.p. s ∈ [t, T ], x(t, α) = z. (4.1) O processo de controle é fact́ıvel, pois não temos restrições de estado e nem restrições mistas envolvendo estado e controle. O processo de controle fact́ıvel será referido neste trabalho por processo fact́ıvel, apenas. Um processo fact́ıvel (ū, {x̄(·;α) | α ∈ A}) é um ótimo, ou mı́nimo, se max α∈A g(x(T ;α), α) ≥ max α∈A g(x̄(T ;α), α) para todo processo fact́ıvel (u, {x(·;α) | α ∈ A}). Um processo fact́ıvel (ū, {x̄(·;α) | α ∈ A}) é um mı́nimo local quando existir ε > 0 tal que max α∈A g(x(T ;α), α) ≥ max α∈A g(x̄(T ;α), α) para todo processo fact́ıvel (u, {x(·;α) | α ∈ A}) satisfazendo ‖x(., α)− x̄(.;α)‖W 1,1 ≤ ε para todo α ∈ A. Um processo fact́ıvel (ū, {x̄(·;α) | α ∈ A}) é um mı́nimo local forte quando existir ε > 0 tal que max α∈A g(x(T ;α), α) ≥ max α∈A g(x̄(T ;α), α) para todo processo fact́ıvel (u, {x(·;α) | α ∈ A}) satisfazendo ‖x(., α)− x̄(.;α)‖L∞ ≤ ε para todo α ∈ A. Dado u ∈ U(t), denotemos a famı́lia de trajetórias correspondentes a u como {x(·, u, α)}. Consideremos as seguintes hipóteses, onde (ū, {x̄(·;α) | α ∈ A}) é um processo de controle fact́ıvel e δ > 0: H1) A função f é cont́ınua em todos seus argumentos. 4.2 Condições Necessárias para o problema (P) 53 H2) Existe uma função integrável kf e C > 0 tais que |f(s, x, u, α)− f(s, x′, u, α)| ≤ kf (s)|x− x′| e |f(s, x, u, α)| ≤ C para todo x, x′ ∈ x̄(s, α) + δB, u ∈ Ω(s) e α ∈ A, q.t.p. s ∈ [S, T ]. H3) Existe ω : [0,+∞)→ [0,+∞) tal que lim s→0 ω(s) = 0 e, para todo α, α′ ∈ A, ∫ T S sup u∈Ω(s) |f(s, x, u, α)− f(s, x, u, α′)|ds ≤ ω(ρA(α, α′)), ∀x ∈ x̄(s, α) + δB. H4) A multifunção Ω : [S, T ] ⇒ Rm tem valores compactos e gráfico Borel mensurável. H5) A função g é cont́ınua e g(·, α) é Lipschitz com constante de Lipschitz kg, para todo α ∈ A. H6) Para cada α ∈ A, o conjunto F (s, x, α) := {f(s, x, u, α) : u ∈ Ω(s)} é convexo, para cada (s, x) ∈ [S, T ]× Rn. Se δ =∞, então, nas hipóteses acima, δB é interpretado como Rn. No sistema de controle (4.1), dados uma função de controle, um parâmetro α ∈ A e uma condição inicial as condições acima garantem a existência e unicidade de trajetórias para o sistema de controle. O Teorema 3.1.1 e a Proposição 3.1.5 garantem a existência de processos fact́ıveis para o sistema de controle (4.1) mas, para este fato, não precisamos que F (s, x, α) seja convexo. A convexidade de F (s, x, α) é para garantir a existência de processos ótimos, ou mı́nimos, o que é devido à Proposição 3.2.2. Na seguinte seção obte- remos condições necessárias, via a equação de Hamilton-Jacobi-Bellman, para problemas de controle ótimo minimax. 4.2 Condições Necessárias para o problema (P) 4.2.1 Caso de um conjunto de parâmetros finito Nesta seção, trabalhemos no caso de um conjunto de parâmetros finito. Seja A = {α1, α2, ..., αN}. Suponhamos que (ū, {x̄(·;α) | α ∈ A}) é um mı́nimo local forte para o problema de controle ótimo minimax (P ) e, para algum δ > 0, são satisfeitas as hipóteses H2), H4), H6) e 4.2 Condições Necessárias para o problema (P) 54 H1’) A função f(., x, ., α) é L × Bm mensurável para cada (x, α) ∈ Rn ×A. H5’) A função g é limitada e g(·, α) é Lipschitz com constante de Lipschitz kg > 0, para todo α ∈ A. Definimos o Hamiltoniano minimizado por h(s, x, p, α) := min u∈Ω(s) p · f(s, x, u, α). Seja x̄ = col{x̄(·;α1), x̄(·;α2), ..., x̄(·;αN)} a coleção de trajetórias correspondentes a ū. Logo, temos que (ū, x̄) é um mı́nimo local forte para o problema de controle ótimo (P̃ ) (P̃ )  Minimizar g̃(x(1)) s.a u(·) satisfazendo ẋ(s) = f̃(s, x(s), u(s)), q.t.p. s ∈ [S, T ], x(S) = x0, u(s) ∈ Ω(s) q.t.p. s ∈ [S, T ], onde x = col{x1, x2, ..., xn}, f̃(s, x, u) = col{f(s, xi, u, αi)}Ni=1, x̃0 = col{x0, x0, ..., x0}, g̃(x) = max i g(x(.;αi), αi), xi ∈ Rn, i = 1, ..., N. Como (ū, x̄) é mı́nimo local forte de (P̃ ), escolhamos ε′ ∈ (0, δ) tal que ‖x(·)− x̄(·)‖ ≤ ε′. Devido a Proposição 2.5.1, existe uma função localmente Lipschitz, Φ : T (x̄(·), ε) → R (com ε ∈ (0, ε′)) tal que, para cada (t, z̃) ∈ T (x̄, ε), ∂PΦ(t, z̃) 6= ∅ e ξ + min u η · f̃(t, x̃, u) ≥ 0 para todo (ξ, η) ∈ ∂PΦ(t, z̃), (4.2) Φ(T, y) ≤g̃(y) para todo y ∈ x̄(T ) + εB, (4.3) Φ(S, x0) =g̃(x̄(T )). (4.4) Seja z ∈ x̄(t, α)+εB, para todo t ∈ [S, T ] e todo α ∈ A, definamos as seguintes aplicações, ij : Rn → Rn ×Rn × ...×Rn como ij(a) = (z, z, ...a, ..., z), para cada j = 1, 2, ..., N , onde a está na j−ésima posição. Denotemos φj = Φ ◦ (id× ij). Afirmação 4.2.1. As funções φj são localmente Lipschitz sobre T (x̄(·, αj), ε) e, se (aj, bj) ∈ 4.2 Condições Necessárias para o problema (P) 55 ∂Pφj(s, a), então aj + min u bj · f(s, a, u, αj) ≥ 0, ∀j = 1, ..., N. De fato, sejam (s, a), (s′, a′) ∈ T (x̄(·, αj), ε), |φj(s, a)− φj(s′, a′)| = |Φ(s, z, .., a, ...z)− Φ(s′, z, ..., a′, ..., z)| ≤ kΦ|(s− s′, a− a′)| = kΦ|(s, a)− (s′, a′)|. Dado (aj, bj) ∈ ∂Pφj(s, a), segue da Proposição 2.3.1 que, existe Mj > 0 tal que (aj, bj)((s ′, a′)−(s, a)) ≤ φj(s ′, a′)−φj(s, a)+Mj|(s′, a′)−(s, a)|2, ∀(s′, a′) ∈ T (x̄(·, αj), ε). Logo, por definição das φj, temos (aj, 0,.., bj, .., 0) · ((s′, z, .., a′, .., z)− (s, z, .., a, ..z)) ≤ Φ(s′, z, .., a′, .., z)− Φ(s, z, .., a, ..z) +Mj|(s′, z, .., a′, .., z)− (s, z, .., a, .., z)|2. Assim, (aj, (0, .., bj, .., 0)) ∈ ∂PΦ(s, z, .., a, ..z). Então, de (4.2), segue que aj + min u bj · f(s, a, u, αj) ≥ 0, ∀j = 1, ..., N. Observação 4.2.1. Note que cada φj satisfaz φj(t, z) = Φ(t, z, ..., z), para todo (t, z) ∈ T (x̄(·, αj), ε). Em particular, para (t, z) = (S, x0), temos φj(S, x0) = Φ(S, x0, ..., x0) = max α∈A g(x̄(T, α), α). Assim, para todo (t, z) ∈ ⋂ j T (x̄(·, αj), ε), definamos a seguinte aplicação ϕ(t, z) = max 1≤j≤N φj(t, z), a qual é localmente Lipschitz e satisfaz ϕ(S, x0) = max 1≤i≤N g(x̄(T, αi), αi), ϕ(T, z) ≤ max 1≤i≤N g(z, αi). Denotemos φ(t, z, αi) := φi(t, z). 4.2 Condições Necessárias para o problema (P) 56 Definamos como B = {α ∈ A | max α′∈A g(x̄(T, α′), α′) = g(x̄(T, α), α)} e B(t, z) = {α ∈ A | max α′∈A φ(t, z, α′) = φ(t, z, α)}. Logo, pela regra do máximo (Proposição 2.3.4), temos ∂Lϕ(t, z) ⊂ { N∑ i=1 βi∂ Lφ(t, z, αi) : βi ≥ 0, ∑ βi = 1, e βi = 0 se αi /∈ B(t, z) } . (4.5) Definamos a seguinte medida de probabilidade Λ = N∑ i=1 βiδαi , a qual satisfaz suppΛ ⊂ B(t, z). Se α ∈ suppΛ, neste caso α = αi para algum i tal que Λ(αi) = βi > 0. Observação 4.2.2. Para qualquer subconjunto E de A, P (E) significa a coleção de me- didas de probabilidade de Radon suportadas sobre E. De (4.5) segue que ∂Lϕ(t, z) ⊂ {∫ A ∂Lφ(t, z, α)Λ(dα) : Λ ∈ P [B(t, z)] } . (4.6) A cada (ξ, η) ∈ ∂Lϕ(t, z) corresponde uma aplicação α 7→ (ξα, ηα) ∈ ∂Lφ(t, z, α) e Λ ∈ P [B(t, z)] tal que, para cada (v1, v2) ∈ [S, T ]× Rn, temos〈 (ξ, η), (v1, v2) 〉 = ∫ A 〈 (ξα, ηα), (v1, v2) 〉 Λ(dα). Também sabemos que ξi + min u { ηi · f(t, z, u, αi) } ≥ 0, ∀(ξi, ηi) ∈ ∂Lφi(t, z),∀i = 1, ..., N, i.e, ξ + min u η · f(t, z, u, α) = ∫ A (ξα + h(t, z, ηα, u, α))dΛ(α) ≥ 0. Definamos ∂0φ(t, z, α) =  ∂Lφ(t, z, α), se φ(t, z, α) = max α′∈A φ(t, z, α′), ∅, caso contrário. Como é para todo (t, z), em particular, para (S, x0) temos que existe uma medida tal que suppΛ ⊂ B e φ(S, x0, α) = g(x̄(T, α), α), Λ− q.t.p. α ∈ A. 4.2 Condições Necessárias para o problema (P) 57 Assim, temos a seguinte proposição. Proposição 4.2.1. Seja (ū, {x̄(·;α) | α ∈ A}) um mı́nimo local forte para (P ). Su- ponha que A é um conjunto finito e, para algum δ > 0, são satisfeitas as hipóteses H1′), H2), H4), H5) e H6′). Então existe uma famı́lia de funções localmente Lipschitz limitadas uniformemente (com parâmetro ε > 0), {φ(·, ·, α) : T (x̄(·, α), ε) → R | α ∈ A} para, (ū, {x̄(·;α) | α ∈ A}), tal que ϕ(t, z) = max α∈A φ(t, z, α) satisfaz: ϕ(T, z) ≤ max α∈A g(z, α), ∀α ∈ A, z ∈ x̄(T, α) + εB, ϕ(S, x0) = max α∈A g(x̄(T, α), α). Além disso, para todo (t, z) ∈ ⋂ α∈A T (x̄(·, α), ε) e para todo (ξ, η) ∈ ∂Lϕ(t, z), tem-se ξ + h(t, z, η, α) = ∫ A (ξα + h(t, z, ηα, α))dΛ(α) ≥ 0, para alguma medida de probabilidade Λ ∈ C∗(A) e uma famı́lia {(ξα, ηα) | α ∈ A} tal que (ξα, ηα) ∈ ∂0φ(t, z, α) para Λ−q.t.p. α ∈ A. O conjunto ∂0φ(t, z, α) pode estar vazio a menos que α esteja ativo no sentido de nossas observações anteriores. Observação 4.2.3. Como A é um conjunto finito, a aplicação α 7→ φ(t, z, α) é cont́ınua, para todo (t, z) ∈ [S, T ]× Rn. 4.2.2 Caso de um conjunto de parâmetros infinito Para obter resultados para este caso, o primeiro a trabalhar foi o caso em que o conjunto A de parâmetros é finito. A idéia de prova é a seguinte, aproximamos o espaço métrico compacto A por conjuntos finitos Ai e então com uma análise de convergência os resultados são dados para o problema geral. Para o caso em que o conjunto de parâmetros é qualquer espaço métrico compacto, a situação é muito mais complexa; as técnicas do limite se quebram quando A é infinito. Pois a multifunção ∂0φ(t, z, ·) pode não ter convexidade requeridas para a obtenção do limite. E é conveniente definir um novo tipo de gradiente, um que leve em consideração variações nos parâmetros. Precisamos substituir ∂0φ(t, z, ·) por um conjunto maior. Desse modo, incorporamos 4.2 Condições Necessárias para o problema (P) 58 a ∂0φ(t, z, ·) uma famı́lia de multifunções {∂δφ(t, z, ·) | δ ≥ 0} definidas como segue: Para qualquer δ ≥ 0 e α ∈ A, definamos ∂δφ(t, z, α) =  ∂Lφ(t, z, α), se φ(t, z, α) ≥ max α′∈A φ(t, z, α′)− δ, ∅, caso contrário. Denotemos por ∂[A]φ(t, z, α) o seguinte conjunto ∂[A]φ(t, z, α) := ⋂ δ>0 co ⋃ α′∈B(α,δ) ∂δφ(t, z, α′), (4.7) em que co denota o envoltório convexo fechado forte. Isto é realizado de tal forma que a nova subdiferencial tenha gráfico fechado e valores convexos. Denotemos T(x̄(·), ε) := ⋂ α∈A T (x̄(·, α), ε). Teorema 4.2.1. Seja (ū, {x̄(·;α) | α ∈ A}) um mı́nimo local forte para o problema de controle ótimo geral (P ). Para algum δ > 0, suponha que as hipóteses H1)-H6) são satisfeitas. Suponha também que g é limitada. Então existe uma famı́lia de funções localmente Lipschitz (com parâmetro ε > 0), {φ(·, ·, α) : T(x̄(·), ε) ⊂ [S, T ] × Rn → R | α ∈ A}, tal que α 7→ φ(t, z, α) é cont́ınua para cada (t, z) ∈ [S, T ]× Rn. Além disso, ϕ(t, z) = max α∈A φ(t, z, α) satisfaz ϕ(T, z) ≤ max α∈A g(z, α), ϕ(S, x0) = max α∈A g(x̄(T, α), α). E para todo (ξ, η) ∈ ∂Lϕ(t, z) tem-se ξ + h(t, z, η, α) = ∫ A (ξα + h(t, z, ηα, α))dΛ(α) ≥ 0, (4.8) para alguma medida de probabilidade de Radon Λ ∈ C∗(A) e uma famı́lia {(ξα, ηα) | α ∈ A} tal que (ξα, ηα) ∈ ∂[A]φ(t, z, α) Λ− q.t.p. α ∈ A. Chamaremos de função de “truncamento” à função trδ : Rn → Rn, definida como trδ(ξ) := { ξ, se |ξ| ≤ δ, ξ |ξ|δ, se |ξ| > δ. 4.2 Condições Necessárias para o problema (P) 59 Observação 4.2.4. Com as hipóteses assim fornecidas a aplicação (t, α) 7→ min u∈Ω(t) η · f(t, x, u, α) é L × BA mensurável, isto pela Proposição 3.1.3. Também, devido a H2), a função f é Λ−integrável e como |ξα| ≤ k, |ηα| ≤ k, onde k é a constante de Lipschitz de φ(·, ·, α), para cada α ∈ A, segue que ξα e ηα são Λ−integráveis. Assim, a condição hamiltoniana (4.8) no teorema esta bem definida. 4.2.3 Demonstração do Teorema 4.2.1 Sem perda de generalidade, podemos substituir H2), H3) e H5) por hipóteses mais fortes, onde δ = +∞, isto é, as hipóteses mantém-se para todo x, x′ ∈ Rn, não necessari- amente na bola. Isso sempre pode ser feito pela substituição de f e g por (t, x, u, α) 7→ f(t, x̄(t, α)+trδ(x−x̄(t, α)), u, α) e (x, α) 7→ g(x̄(t, α)+trδ(x−x̄(t, α)), α). A propriedade que x̄ é um minimizador local forte é preservada com estas modificações sobre os dados. É consequência das hipóteses, fortalecidas dessa maneira, que a cada u ∈ U e α ∈ A, corresponde uma única trajetória (sobre [S, T ] com estado inicial x0), a qual denotamos por x(·;α, u). Seja ∆ : Rn × Rn → R uma métrica sobre U , definida por: ∆(u1, u2) := ∫ T S |u1(t)− u2(t)|dt. Sendo (ū, x̄) um mı́nimo local forte, existe ε > 0 tal que max α∈A g(x(T ;α), α) ≥ max α∈A g(x̄(T ;α), α), para todo processo fact́ıvel (u, {x(·;α) | α ∈ A}) satisfazendo ‖x(·, α) − x̄(t, α)‖ ≤ ε. Tomemos uma sequência εi ↓ 0, εi ∈ (0, ε). Sem perda de generalidade, suponha que max α∈A g(x̄(T ;α), α) = 0. Seja {αi}∞i=1 um subconjunto enumerável denso em A. Desde que A é compacto, para cada i, existe N = N(i) tal que max α∈AN g(x(T ;α), α) ≥ max α∈A g(x̄(T ;α), α)− ε2i , (4.9) onde AN = {α1, · · · , αN} pode ser escolhido tal que AN ⊂ AN+1. 4.2 Condições Necessárias para o problema (P) 60 Definamos para cada i, Ji : U → R como Ji(u) = max α∈AN g(x(T ;α, u), α) + ε2i . Assim definido Ji(u) ≥ 0, para todo u, e Ji(ū) = max α∈AN g(x̄(T ;α), α) + ε2i = ε2i . Também temos, Ji(ū) ≤ inf Ji(u) + ε2i , ∀i. Aplicando o Teorema de Ekeland (Teorema A.2.1) para cada i, existe ui ∈ U tal que ∆(ui, ū) ≤ εi e Ji(u) + εi∆(u, ui) ∣∣∣ u=ui = inf u∈U {Ji(u) + εi∆(u, ui)}. Assim, obtemos as seguintes condições: i)Ji(u) + εi∆(ui, u) ∣∣∣ u=ui = inf u∈U {Ji(u) + εi∆(u, ui)}, ii) Ji(ui) > 0, iii) ∆(ui, ū)→ 0 quando i→∞, e escrevemos {xi(·;α) | α ∈ AN} para as trajetórias correspondentes a ui. As propriedades acima podem ser expressas em termos da teoria de controle, como segue. Para cada i, ( ui, {xi(·;αk) | k = 1, 2, ..., N} ) é um mı́nimo para o problema de controle ótimo (Pi)  Minimizar max α∈AN g(x(T ;α), α) + εi ∫ T S |u(t)− ui(t)|dt s.a funções mensuráveis u : [S, T ]→ Rm tais que u(t) ∈ Ω(t) q.t.p. t ∈ [S, T ] e arcos {x(.;α1), x(.;α2), ..., x(.;αN), } tais que, para todo k = 1, 2, ..., N, ẋ(t;αk) = f(t, x(t, αk), u(t), αk) q.t.p. t ∈ [S, T ], x(S, αk) = x0. Também temos que ui → ū com respeito a ∆-métrica e x(·;ui, α) → x̄(·, α), para todo α ∈ A, quando i→∞, isto pelo Lema 3.2.2. Da Proposição 4.2.1 (caso finito), temos que existe uma famı́lia {φi(·, ·, α) : T(xi(·), δi)→ R | α ∈ AN} de funções localmente Lipschitz (com parâmetro δi ↓ 0), tal que ϕi(t, z) = max α∈AN φi(t, z, α) (4.10) 4.2 Condições Necessárias para o problema (P) 61 satisfaz ϕi(T, z) ≤ max α∈AN g(z, α) + εi ∫ T S |u(t)− ui(t)|dt, (4.11) ϕi(S, x0) = max α∈AN g(xi(T, α), α), (4.12) e, para todo (ξi, ηi) ∈ ∂Lϕi(t, z), tem-se ξi + h(t, z, ηi, u, α) = ∫ AN (ξiα + h(t, z, ηiα, u, α))dΛi(α) ≥ 0, isto é, ∫ AN (ξiα + min u {ηiα · f(t, x, u, α)− εi|u− ui(t)|})dΛi(α) ≥ 0, para alguma medida de probabilidade de Radon Λi com suppΛi ⊂ Bi(t, z) e uma famı́lia {(ξiα, ηiα) | α ∈ A} tal que (ξiα, η i α) ∈ ∂0φi(t, z, α) Λi − q.t.p. α ∈ AN , onde ∂0φi(t, z, α) =  ∂Lφi(t, z, α), se φi(t, z, α) = max α′∈AN φi(t, z, α ′), ∅, caso contrário. De (4.12) temos max α∈AN g(xi(T, α), α) ≥ max α∈A g(x(T, ui, α), α)− δi. Assim, lim i→∞ ϕi(S, x0) = lim i→∞ max α∈AN g(xi(T, α), α) ≥ lim i→∞ max α∈A g(x(T, ui, α), α)− δi = max α∈A g(x(T, ū, α), α) = max α∈A g(x̄(T, α), α). Portanto, lim i→∞ ϕi(S, x0) = max α∈A g(x̄(T, α), α). Tomando o limite em (4.11) quando i→∞ obtemos lim i→∞ ϕi(T, z) ≤ max α∈A g(z, α). 4.2 Condições Necessárias para o problema (P) 62 Note também que, se (t, z) ∈ ⋂ α∈AN T (xi(·, α), δi), então (t, z) ∈ ⋂ α∈A T (x̄(·, α), ε). De fato, observe a seguinte desigualdade |z − x̄(t, α)| ≤ |z − xi(t, α)|+ |xi(t, α)− x(t, ui, α)|+ |x(t, ui, α)− x̄(t, α)| ≤ δi + δi + ε. Fazendo i→∞ obtemos |z − x̄(t, α)| ≤ ε. Também sabemos que α 7→ φi(t, z, α) é cont́ınua para α ∈ AN . Pelo Teorema de Tietze, para cada AN , existe uma extensão cont́ınua α 7→ φ̃i(t, z, α) tal que φ̃i(t, z, α) = φi(t, z, α) para todo α ∈ AN . Lema 4.2.1. φ̃i(·, ·, α) é Lipschitz para cada α ∈ A. Demonstração. De fato, sejam (t, z), (t′, z′) ∈ T (x̄(·, α); ε) ⊂ [S, T ] × Rn , pela compaci- dade de A, para cada i, existe αi ∈ AN tal que αi → α. Assim, |φ̃i(t, z, α)− φ̃i(t′, z′, α)| = lim i→∞ |φ̃i(t, z, αi)− φ̃i(t′, z′, αi)| = lim i→∞ |φi(t, z, αi)− φi(t′, z′, αi)| ≤ lim i→∞ k|(t, z)− (t′, z′)| = k|(t, z)− (t′, z′)|. � Logo, a famı́lia {φ̃i(·, ·, α) | α ∈ A} é Lipschitz com a mesma constante de Lips- chitz e além disso, são limitadas pela mesma constante que limita a g. Pelo Teorema de Arzelá-Ascoli, a famı́lia {φ̃i(·, ·, α) | α ∈ A} sobre compactos de [S, T ]×Rn é um conjunto relativamente compacto, isto significa que cada sequência em {φ̃i(·, ·, α) | α ∈ A}i∈N tem subsequência convergente, isto é, φ̃i(·, ·, α)→ φ(·, ·, α), para todo α ∈ A. Lema 4.2.2. φ(·, ·, α) é uma famı́lia de funções Lipschitz e a aplicação α 7→ φ(t, z, α) é cont́ınua para todo (t, z) ∈ T (x̄(t, α), δ). Demonstração. De fato, seja (t, z), (t′, z′) ∈ T (x̄(t, α), δ) e α ∈ A. Temos |φ(t, z, α)− φ(t′, z′, α)| = lim i→∞ |φ̃i(t, z, α)− φ̃i(t′, z′, α)| ≤ lim i→∞ k|(t, z)− (t′, z′)| ≤ k|(t, z)− (t′, z′)|. 4.2 Condições Necessárias para o problema (P) 63 Seja uma sequência αk ∈ A tal que αk → α, então lim k→∞ φ(t, z, αk) = lim k→∞ lim i φ̃i(t, z, αk) = lim i lim k→∞ φ̃i(t, z, αk) = lim i φ̃i(t, z, α) = φ(t, z, α), o que conclui a prova do Lema 4.2.2. � De (4.10) temos que max α∈A φ̃i(t, z, α) ≥ max α∈AN φi(t, z, α) ≥ max α∈A φ̃i(t, z, α)− δi. Assim, fazendo i→∞, lim i→∞ max α∈AN φi(t, z, α) = max α∈A φ(t, z, α). Como o limite existe, denotemos ϕ(t, z) := lim i→∞ ϕi(t, z), assim ϕ(t, z) = max α∈A φ(t, z, α), (4.13) ϕ(T, z) ≥ max α∈A g(z, α), (4.14) ϕ(S, x0) = max α∈A g(x̄(T, α), α). (4.15) Consideremos uma famı́lia de funções de controle vj, j = 1, 2, ..., enumerável e densa em U , temos ∫ T S ∫ A (ξiα + ηiα · f(t, x, vj, α)− εi|vj − ui(t)|)dΛi(α)dt ≥ 0, para algum (ξiα, η i α) ∈ ∂δiφ̃i(t, z, α),Λi − q.t.p. α ∈ AN . Desde que Λi é uma medida de probabilidade, então possui subsequência convergente, Λi → Λ fracamente i→∞, para alguma medida de probabilidade de Radon Λ sobre conjuntos de Borel de A. Tomemos um inteiro M e definamos Bi M = (γi1(α), ..., γiM(α)) e Ti(α) = { (γ1(α), ..., γM(α)) | ∃(ξα, ηα) ∈ ∂δiφi(t, z, α); γj(α) = ∫ T S ξα + ηα · f(t, z, vj(t), α)dt, j = 1, 2, ...,M } , 4.2 Condições Necessárias para o problema (P) 64 i = 1, 2, ... e T(α) = { (γ1(α), ..., γM(α)) | ∃(ξα, ηα) ∈ ∂[A]φ(t, z, α); γj(α) = ∫ T S ξα + ηα · f(t, z, vj(t), α)dt, j = 1, 2, ...,M } . Lema 4.2.3. lim supiGrTi ⊂ GrT. Demonstração. De fato, seja (α, x) ∈ lim supiGrTi, então existe {GrTik} ⊆ {GrTi} tal que (αk, xk) ∈ GrTik e (αk, xk) → (α, x), onde x = (γ1(α), ..., γM(α)). Logo, temos xk ∈ Tik(αk). Assim, existem (ξαk , ηαk) ∈ ∂Lφ̃k(t, z, αk), se φ̃k(t, z, αk) ≥ max α∈A φ̃k(t, z, α)− δk, tal que γkj (αk) = ∫ T S ξαk + ηαk · f(t, z, vj(t), αk)dt, j = 1, ...,M. Fixando k, e pela definição de subdiferencial, temos que existem (ξαkm , ηαkm ) → (ξαk , ηαk) e (tm, zm) → (t, z) tais que (ξαkm , ηαkm ) ∈ ∂P φ̃k(tm, zm, αk). Pela Proposição 2.3.1 temos φ̃k(t ′, z′, αk) ≥ φ̃k(tm, zm, αk)+(ξαkm , ηαkm ) · ((t′, z′, αk)− (tm, zm, αk)) −M |(t′, z′, αk)− (tm, zm, αk)|2. Sendo que αk → α, segue que δk + φ̃k(t ′, z′, α) ≥ φ̃k(tm, zm, α)− δk+(ξαkm , ηαkm ) · ((t′, z′, αk)− (tm, zm, αk)) −M |(t′, z′, αk)− (tm, zm, αk)|2. Agora, fazendo k →∞, obtemos φ(t′, z′, α) ≥ φ(tm, zm, α)+(ξαkm , ηαkm ) · ((t′, z′, α)− (tm, zm, α)) −M |(t′, z′, α)− (tm, zm, α)|2, e então, (ξαkm , ηαkm ) ∈ ∂Pφ(tm, zm, α). Logo, segue que (ξαk , ηαk) ∈ ∂Lφ(t, z, α). A sequência (ξαk , ηαk) tem subsequência convergente, desde que a famı́lia { φ(·, ·, α) | α ∈ A } é uniformemente Lipschitz, digamos que (ξαk , ηαk) → (ξα, ηα). Assim, (ξα, ηα) ∈ 4.2 Condições Necessárias para o problema (P) 65 ∂Lφ(t, z, α). Logo, (ξα, ηα) ∈ ∂[A]φ(t, z, α) e γj(α) = ∫ T S ξα + ηα · f(t, z, vj(t), α)dt, j = 1, ...,M. Então segue que x ∈ T(α), isto é, (α, x) ∈ GrT, o que prova o Lema 4.2.3. � Sendo GrT(α) compacto, T(α) convexo, lim supiGrTi ⊂ GrT e Bi M(α) ∈ Ti(α), segue da Proposição A.2.1 que existe BM(α) ∈ T(α) tal que∫