Yagor Romano Carvalho Estudo de ciclos limites em uma classe de equações diferenciais descont́ınuas São José do Rio Preto 2016 Yagor Romano Carvalho Estudo de ciclos limites em uma classe de equações diferenciais descont́ınuas Dissertação apresentada como parte dos requisitos para obtenção do t́ıtulo de Mestre em Matemática, junto ao Programa de Pós-Graduação em Matemática, Área de Concentração - Sistemas Dinâmicos, do Ins- tituto de Biociências, Letras e Ciências Exatas da Universidade Estadual Paulista “Júlio de Mesquita Filho”, Campus de São José do Rio Preto. Orientadora: Profa. Dra. Luci Any Francisco Roberto São José do Rio Preto 2016 Yagor Romano Carvalho Estudo de ciclos limites em uma classe de equações diferenciais descont́ınuas Dissertação apresentada como parte dos re- quisitos para obtenção do t́ıtulo de Mestre em Matemática, junto ao Programa de Pós- Graduação em Matemática, Área de Concen- tração - Sistemas Dinâmicos, do Instituto de Biociências, Letras e Ciências Exatas da Uni- versidade Estadual Paulista “Júlio de Mesquita Filho”, Campus de São José do Rio Preto. BANCA EXAMINADORA Profa. Dra. Luci Any Francisco Roberto Professor Assistente Doutor UNESP - São José do Rio Preto Orientadora Prof. Dr. Pedro Toniol Cardin Professor Assistente Doutor UNESP - Ilha Solteira Prof. Dr. Weber Flávio Pereira Professor Assistente Doutor UNESP - São José do Rio Preto São José do Rio Preto, 4 de março de 2016. Agradecimentos Gostaria de agradecer a todos que direta ou indiretamente me apoiaram para que eu chegasse até aqui. Agradeço a todos os professores que me acompanharam durante a minha graduação e o meu mestrado. Em especial à Profa. Dra. Maria Gorete Carreira Andrade, por sempre estar disposta a ajudar minha turma, eu e não medir esforços para tal. Agradeço aos meus dois orientadores de Iniciação Cient́ıfica, Profa. Dra. Maria do Socorro N. Rangel e Prof. Dr. Claudio Aguinaldo Buzzi. Com toda certeza foram de fundamental importância para o meu amadurecimento como futuro pesquisador, compartilhando suas experiências e seus conhecimentos. Aqui fica também meu singelo e talvez não suficiente muito obrigado à minha orientadora Profa. Dra. Luci Any Francisco Roberto, por todo aux́ılio e paciência frente às minhas dificuldades . Ao Departamento de Matemática e todos os funcionários do IBILCE. Aos meus familiares como um todo, em particular, ao meu pai Edmar, a minha mãe Adriana, a minha irmã Yasmim, a minha avó Irene e por último de não mensurável importância minha avó Doraci. Por toda ajuda, paciência e apoio que me deram desde a minha entrada na vida acadêmica. À minha namorada Aline, aquela que está sempre comigo, não importando os momentos, me dando força e me fazendo rir. Aos meus amigos desde a escola e os que ingressaram na faculdade em 2010. Em muito especial aos que vieram sempre junto comigo nessa jornada, Ronan e Jessica, e que se hoje não desisti chegando até aqui devo imensuravelmente aos dois. No momento de esquecer o universo matemático sempre contei com meus treinos de futsal e handebol em nosso querido Ibilce’s sports arena. Cada pessoa que já fez ou ainda faz parte desses times ou melhor famı́lias, sabem o quanto são importantes, o quanto me ajudaram a atingir alguns objetivos, e sabem como me trazem felicidade nossas conquistas. Já disse uma vez: “Amo a matemática e o esporte, espero um dia unificar ainda mais os dois na minha vida.” Ingressar na faculdade sem conhecer os grupos que são os motores deste lugar é algo improvável. Fazer parte da Comissão de Recepção de Calouros e da Comissão da SEMAT, com toda certeza 3 me fez crescer como pessoa. Tentar deixar legado para o curso que você escolheu foi o que tentei participando do Centro Acadêmico da Matemática Evariste Galois (C.A.M.E.G). Amar o esporte e não fazer parte da Associação Atlética Acadêmica Wilson Mauŕıcio Tadini (A.A.A.W.M.T) seria algo, no mı́nimo, incoerente. Assim, agradeço a todos que fizeram parte comigo de todos esses grupos citados, me ajudaram muito a aproveitar as coisas boas da universidade e o principal me ensinaram a lidar com pessoas. Não por último e não sem importância à CAPES pelo apoio financeiro. Por fim, fica o meu muito obrigado a minha banca examinadora por aceitarem o convite e permitirem a conclusão deste trabalho. “ A Matemática apresenta invenções tão sutis que poderão servir não só para satisfazer os curiosos, como também para auxiliar as artes e poupar trabalho aos homens.”(Descartes) 4 Resumo Neste trabalho temos como principal objetivo determinar quota inferior para o número máximo de ciclos limites de um sistema diferencial polinomial de Liénard descont́ınuo de grau n com m zonas, para m = 2, 4. A principal ferramenta é uma combinação da Teoria da Média de primeira ordem com o processo de regularização de sistemas descont́ınuos. Analisamos detalhadamente um caso particular de um sistema polinomial de Liénard de grau 3 com 4 zonas. Palavras–chave: ciclos limites, método da média, sistemas dinâmicos, regularização. 5 Abstract In this work our main aim is to determine the lower upper bound for the maximum number of limit cycles of a m-piecewise discontinuous Liénard polynomial differential system of degree n, for m = 2, 4. The main tool is a combination of the first order Averaging Method with the regularization process of discontinuous systems. We analyzed in details a particular case of a 4-piecewise discontinuous Liénard polynomial differential system of degree 3. Palavras–chave: limit cycles, averaging method, dynamical systems, regularization. 6 Sumário Introdução 8 1 Preliminares 11 2 Teoria da Média 18 2.1 Teoria da Média de primeira ordem . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 2.2 O Teorema da Média clássico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 3 Teoria dos sistemas dinâmicos descont́ınuos 36 3.1 Sistemas descont́ınuos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 3.2 Sistemas descont́ınuos com variedade de descontinuidade não-regular . . . . . . . . 48 3.3 Campos de vetores próximos à fronteira . . . . . . . . . . . . . . . . . . . . . . . . . 55 4 Regularização 59 4.1 Considerações no processo de regularização . . . . . . . . . . . . . . . . . . . . . . . 61 5 Ciclos limites para equações diferenciais polinomiais descont́ınuas de Liénard com m zonas 79 5.1 Cálculos de L(0,n), L(2,n) e L(4,n) . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 5.2 Aplicação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92 Referências Bibliográficas. 99 7 Introdução Nos últimos anos o estudo de sistemas dinâmicos não suaves tem estabelecido uma impor- tante fronteira entre Matemática, Engenharia e F́ısica. As principais fontes de motivação da pesquisa desses sistemas têm sido certos fenômenos em sistemas de controle, o impacto em sis- temas mecânicos e oscilações não lineares, ou seja, eles possuem uma forte relação com outras áreas de pesquisa. Para sistemas cont́ınuos Hilbert em 1900, propôs na segunda parte do seu décimo sexto proble- ma, encontrar uma quota superior para o número de ciclos limites (órbitas periódicas isoladas) de todos os sistemas diferenciais polinomiais de um dado grau n, e também estudar suas distribuições ou configurações no plano, veja [6]. Este tem sido um dos principais problemas em teoria qualitativa de equações diferenciais no plano do século XX. Os trabalhos de Écalle em [5] e Ilyashenko em [7] provam que qualquer sistema polinomial tem um número finito de ciclos limites. Em [11], Llibre e Pedregal encontram uma quota superior para o número de ciclos limites de um subconjunto aberto e denso dentro do conjunto de campos de vetores polinomiais de grau n. Esta quota é uma função cúbica na variável n. Saber da existência ou não de soluções periódicas é muito importante para entender a dinâmica dos sistemas diferenciais. Uma das ferramentas úteis para tal objetivo é a Teoria Averaging (Teoria da Média), que é uma clássica ferramenta que proporciona meios para estudar o comportamento de sistemas dinâmicos suaves não lineares. Nos referimos ao livro de Sanders e Vershulst [19] e ao livro de Verhulst [23] para uma introdução geral deste tópico. O problema de determinar o número máximo de ciclos limites de um dado sistema diferencial também surge na classe dos sistemas dinâmicos descont́ınuos. Uma das ferramentas utilizada é a combinação do processo de regularização, onde o campo de vetores Z(t, x) descont́ınuo é aproximado por uma famı́lia a um parâmetro de campo de vetores cont́ınuos Zε(t, x) tal que lim ε→0 Zε(t, x) = Z(t, x), com o método da Média. Uma boa classe representativa de sistemas dinâmicos descont́ınuos para estudar o número máximo de ciclos limites é o modelo matemático ẍ+ x+ f(x, ẋ) = sgn(g(x, ẋ)) · U(x, ẋ), 8 que surge em Teoria de Controle, sitemas com relay, economia, etc. Neste trabalho, nos dedicamos aos estudos de ciclos limites de um sistema polinomial de Liénard descont́ınuo de grau n com m zonas dado por:{ ẋ = y + sgn(gm(x, y))F (x) ẏ = −x , onde F (x) = a0 + a1x+ ...+ anx n e o conjunto de zeros da função sgn(gm(x, y)) com m = 2, 4, 6..., é a união de m 2 diferentes retas passando pela origem dividindo o plano em setores angulares de tamanho 2π m e sgn(z) denota a função sinal. No Caṕıtulo 1 foi desenvolvido conceitos preliminares de variedades, alguns resultados da teo- ria qualitativa de campos de vetores cont́ınuos e o Teorema de Descartes para polinômios com coeficientes reais. As variedades aparecem como sendo os conjuntos de descontinuidades dos sis- temas descont́ınuos, a teoria qualitativa dos campos de vetores cont́ınuos nos ajudam a entender o comportamento local dos mesmos e o Teorema de Descartes é de fundamental importância para a conclusão dos principais resultados aqui presentes e descritos mais acima. O Caṕıtulo 2 nos mostra a Teoria da Média de primeira ordem juntamente com o Teorema da Média clássico de primeira ordem. Os conceitos abordados na Teoria da Média trazem os Śımbolos de Landau, consequentemente o conceito de aproximação assintótica em tempo-escala que são alicerces para a demonstração dos resultados aqui encontrados. O Teorema da Média transforma o problema de encontrar soluções periódicas de uma equação diferencial em encontrar zeros simples de uma equação. Durante o Caṕıtulo 3 mostramos resultados e definições sobre os sistemas dinâmicos descont́ınuos em Rn+1 tendo como seu conjunto de descontinuidade uma variedade M de codimensão um, ou seja, M possui dimensão n. Caracterizamos quais e como são as regiões de costura, deslize e escape presentes na variedade M , mostramos o conceito de campo de Filippov e vemos os diferentes tipos de pontos de equiĺıbrio que podem surgir nos campos descont́ınuos somado com os já presentes nos campos cont́ınuos. Fornecemos também as formas normais para M -singularidades de condimensão zero. No Caṕıtulo 4 falamos sobre o processo de regularização de sistemas descont́ınuos. Em [21] So- tomayor e Teixeira introduziram a regularização para sistemas descont́ınuos bidimensionais tendo uma reta como região de descontinuidade e provaram genericamente que sua regularização obedece o mesmo comportamento qualitativo das órbitas, através das linhas de descontinuidade, que são dadas pelas regras de Filippov. O Caṕıtulo 5 traz um pouco da teoria dos sistemas polinomiais de Liénard descont́ınuos de grau n com m zonas, seguindo [12]. Considerando o lado direito destes sistemas diferenciais de forma conveniente, encontramos os seguintes limitantes inferiores para quota superior dos ciclos limites, quando m = 2, 4: 9 • se o sistema não possui descontinuidade então existem pelo menos [ n− 1 2 ] ciclos limites; • se o sistema possui 2 zonas então existem pelo menos [n 2 ] ciclos limites; • se o sistema possui 4 zonas então existem pelo menos [ n− 1 2 ] ciclos limites; onde [z] denota a função parte inteira de z. Por fim, consideramos um caso particular de equação diferencial de segunda ordem ẍ+ x = sgn(x · x)(εx− εx3), cujo n = 3 e m = 4 e verificamos que este caso possui pelo menos um ciclo limite, como já era esperado. 10 Caṕıtulo 1 Preliminares Este caṕıtulo servirá como um pré-requisito para o restante do trabalho. Serão introduzidos conceitos básicos e resultados conhecidos sobre a teoria de variedades, campos de vetores cont́ınuos e um resultado sobre polinômios com coeficientes reais. Definição 1.0.1. Uma variedade topológica de dimensão n é um espaço topológico M com as seguintes propriedades: (i) M é Hausdorff, ou seja, dados dois pontos distintos p, q ∈M então existem abertos U, V tais que p ∈ U, q ∈ V e U ∩ V = ∅; (ii) M tem base enumerável de abertos, ou seja, existe uma coleção enumerável de abertos de M tal que todo aberto em M é uma união de abertos dessa coleção; (iii) M é localmente Euclidiano, ou seja, para todo p ∈ M , existem abertos U ⊂ M contendo p, Û ⊂ Rn e um homeomorfismo ϕ : U → Û . Definição 1.0.2. Um conjunto M ⊂ Rn+1 é uma hiperf́ıcie de classe Ck quando é localmente o gráfico de uma função real de n variáveis de classe Ck, isto é, para cada p ∈ M , existe um aberto Vp ⊂ Rn+1 e ϕ : U ⊂ Rn → R tal que M ∩ Vp = {(x1, ..., xi, ..., xn+1) ∈ Rn+1 ; xi = ϕ((x1, ..., xi−1, xi+1, ..., xn+1)} . Observação 1.0.1. Claramente toda hiperf́ıcie é uma variedade, ou seja, hiperf́ıcies são casos particulares de variedades. Exemplo 1.0.1. Temos Sn ⊂ Rn+1 tal que Sn = {x ∈ Rn+1 ; x · x = 1} uma hiperf́ıcie. 11 Demonstração. Consideremos U = B(0, 1) ⊂ Rn, x∗ = (x1, ..., xi−1, xi+1, ..., xn+1) e os seguinte conjuntos: Vi = {x ∈ Rn+1 ; xi > 0}; Ui = {x ∈ Rn+1 ; xi < 0}. Observe que se x · x = 1, então xi = ±(1− x∗ · x∗) 1 2 . Logo, x ∈ Vi ∩ Sn ⇔ x∗ ∈ U e xi = (1− x∗ · x∗) 1 2 ; x ∈ Ui ∩ Sn ⇔ x∗ ∈ U e xi = −(1− x∗ · x∗) 1 2 . Vamos definir agora ϕ : B(0, 1)→ R ; ϕ(u) = (1− u · u) 1 2 . Se x ∈ Vi ∩ Sn então x =(x1, ..., xi, ..., xn+1) = (x1, ..., (1− x∗ · x∗) 1 2 , ..., xn+1) = =(x1, ..., ϕ(x∗), ..., xn+1), ou seja, x ∈ graf(ϕ). Se x ∈ Ui ∩ Sn então x =(x1, ..., xi, ..., xn+1) = (x1, ...,−(1− x∗ · x∗) 1 2 , ..., xn+1) = =(x1, ...,−ϕ(x∗), ..., xn+1), ou seja, x ∈ graf(ϕ). Desta forma como cada x ∈ Sn pertence a algum Vi ou Ui e Vi ∩ Sn, Ui ∩ Sn são localmentes gráficos de uma função então Sn é uma hiperf́ıcie. Definição 1.0.3. Seja M ⊂ Rn+1 uma hiperf́ıcie Ck e p ∈M . Então o espaço tangente de M em p é TpM = {v = λ′(0) : λ : (−δ, δ)→M é um caminho diferenciável com λ(0) = p}. Teorema 1.0.1. Seja M ⊂ Rn+1 uma hiperf́ıcie Ck e p ∈ M . Então o espaço tangente de M em p, isto é, TpM é um subespaço vetorial n-dimensional do espaço vetorial Rn+1. Demonstração. Como M é uma hiperf́ıcie Ck e p ∈ M segue que existe um aberto V ⊂ Rn+1 com p ∈ V tal que M ∩ V é o gráfico de uma função Ck, ϕ : U ⊂ Rn → R. Temos M ∩ V = {(x, ϕ(x)) ; x ∈ U} e com isso vamos escrever p = (p0, ϕ(p0)). Para cada caminho diferenciável λ : (−δ, δ)→M ∩ V com λ(0) = p temos: λ(t) = (x1(t), ..., xn(t), ϕ(x(t)))⇒ λ′(t) = ( x′1(t), ..., x ′ n(t), ∑n i=1 ∂ϕ(x(t)) ∂xi x′i(t) ) . 12 Logo, λ′(0) = ( x′1(0), ..., x′n(0), n∑ i=1 ∂ϕ(p0) ∂xi x′i(0) ) = x′1(0) ( 1, ..., 0, ∂ϕ(p0) ∂x1 ) + ...+ + x′n(0) ( 0, ..., 1, ∂ϕ(p0) ∂xn ) = x′1(0)v1 + ...+ x′n(0)vn. Portanto TpM ⊂ [v1, ..., vn]. Reciprocamente, seja v = ∑n i=1 αivi. Tomamos o caminho λ : (−δ, δ)→M ∩V ; λ(t) = (p0 + tv0, ϕ(p0 + tv0)) onde v0 = (α1, ..., αn). Mostremos que v = λ′(0), ou seja, que v ∈ TpM . Temos λ′(t) = ( α1, ..., αn, ∑n i=1 ∂ϕ(p0 + tv) ∂xi αi ) . Desta forma, λ′(0) = ( α1, ..., αn, n∑ i=1 ∂ϕ(p0) ∂xi αi ) = α1 ( 1, ..., 0, ∂ϕ(p0) ∂x1 ) + ...+ + αn ( 0, ..., 1, ∂ϕ(p0) ∂xn ) = α1v1 + ...+ αnvn = v. Portanto v ∈ TpM então [v1, ..., vn] ⊂ TpM . Assim TpM = [v1, ..., vn]. Mostremos agora que {v1, ..., vn} é LI. Suponhamos que a1v1 + ...+ anvn = 0 então: a1 = 0 ... an = 0 a1 ∂ϕ(p0) ∂x1 + ...+ an ∂ϕ(p0) ∂xn = 0 . Desta forma ai = 0, para todo i = 1, ..., n e com isso {v1, ..., vn} é LI. Como {v1, ..., vn} é LI e TpM = [v1, ..., vn] segue que a dimensão de TpM é n e assim TpM é um subespaço vetorial n-dimensional do espaço vetorial Rn+1. Definição 1.0.4. Seja f : U ⊂ Rn → R de classe C1 então: (i) O conjunto de ńıvel c ∈ R de f é f−1(c) = {x ∈ U ; f(x) = c}; (ii) O gradiente de f é o vetor 5f(x) = ( ∂f ∂x1 (x), ..., ∂f ∂xn (x) ) ; (iii) x0 é um ponto de equiĺıbrio, ponto cŕıtico ou uma singularidade da f se 5f(x0) = (0, ..., 0). 13 Proposição 1.0.1. Seja f : U ⊂ Rn → R de classe C1 e p ∈ U tal que w = 5f(p) 6= 0. Se p ∈ f−1(c) então w ⊥ f−1(c), isto é, se λ(t) ∈ f−1(c), |t| < ε, e λ(0) = p então λ′(0) ⊥ w. Demonstração. Por hipótese λ(t) ∈ f−1(c), |t| < ε, assim f(λ(t)) = c. Derivando dos dois lados da última igualdade temos que5f(λ(t)) ·λ′(t) = 0, para todo t ∈ (−ε, ε). Para t = 0 temos5f(p) ·λ′(0) = 0, logo w · λ′(0) = 0. Desta forma λ′(0) ⊥ w. Definição 1.0.5. Seja f : U ⊂ Rn+1 → R de classe Ck. Dizemos que c ∈ R é um valor regular da f se não há pontos cŕıticos no ńıvel c da f , ou seja, para todo z ∈ f−1(c), 5f(z) 6= 0. Neste caso, dizemos que c é um ńıvel regular da f . Se para algum z ∈ f−1(c) temos 5f(z) = 0, dizemos que c é um ńıvel cŕıtico da f . Teorema 1.0.2. (Teorema da Função Impĺıcita). Um ponto do Rn+1 = Rn×R será denotado por (x, y), onde x ∈ Rn e y ∈ R. Seja f : A×B ⊂ Rn×R→ R de classe C1 tal que p = (a, b) ∈ A×B com f(a, b) = c ∈ R. Se ∂f ∂y (a, b) 6= 0 então existem abertos Z ⊂ A × B com (a, b) ∈ Z, V ⊂ Rn com a ∈ V e uma função ϕ : V → R com ϕ(a) = b tal que f(x, ϕ(x)) = c para todo x ∈ V . Demonstração. Para uma demonstração consulte [9]. Teorema 1.0.3. Se c é um valor regular da função f : U ⊂ Rn+1 → R de classe Ck, então M = f−1(c) é uma hiperf́ıcie Ck cujo espaço tangente TpM de M em p é, em cada p ∈ M , o complemento ortogonal de 5f(p). Demonstração. Por hipótese c é valor regular da f , logo para cada p ∈ f−1(c) temos 5f(p) 6= 0. Assim pelo Teorema da Função Impĺıcita segue que existe uma vizinhança Vp de p tal que Vp ∩M é o gráfico de uma função ϕ de n variáveis e como f é de classe Ck segue que ϕ é de classe Ck. Portanto M = f−1(c) é uma hiperf́ıcie Ck. Pela Proposição 1.0.1 temos que para p ∈ M = f−1(c), 5f(p) ⊥ f−1(c). Logo TpM ⊥ 5f(p) e com isso TpM ⊂ (5f(p))⊥. Como dim TpM = n = dim (5f(p))⊥ então TpM = (5f(p))⊥. 14 Definição 1.0.6. Um campo de vetores X de classe Cr, r ≥ 1 definido em um aberto U ⊂ Rn é uma aplicação X : U → Rn. Para este campo associamos a seguinte equação diferencial ordinária: x′ = X(x), (1.1) onde x ∈ Rn. As soluções ϕ(t) : I ⊂ R → Rn, I intervalo, da equação (1.1), são denominadas curvas integrais, órbitas ou trajetórias do campo X. Figura 1.1: Campo de vetores e uma trajetória. Definição 1.0.7. Dizemos que a aplicação X definida na Definição 1.0.6 é um campo de classe Cr, r ≥ 1 se X é de classe Cr. Definição 1.0.8. Dado um campo de vetores X definido em U e x ∈ U então (i) x é um ponto de equiĺıbrio se X(x) = 0; (ii) x é ponto regular se X(x) 6= 0. Definição 1.0.9. Seja U ⊂ Rn e x0 ∈ U . Uma seção transversal local de um campo X : U ⊆ Rn → Rn de classe Cr é uma aplicação diferenciável Nx0 : A → U de classe Cr tal que A é um aberto de Rn−1, 0 ∈ A, Nx0(0) = x0 e Im(DNx0y) ⊕ [X(y)] = Rn, no qual ⊕ denota a soma direta. Observação 1.0.2. A dimensão da imagem da trasnformação linearDNx0y é no máximo n−1, pois Dom(DNx0y) = Rn−1 e pelo Teorema do Núcleo e da Imagem segue que dim (Im(DNx0y)) ≤ n−1. Já a dimensão de [X(y)] é 15 [X(y)] =  1 se X(y) 6= 0 y é um ponto regular 0 se X(y) = 0 y é um ponto cŕıtico ou de equiĺıbrio Deste modo, para que DNx0 seja uma seção transversal local é obrigatório que todos os pontos na imagem de DNx0 sejam pontos regulares. Definição 1.0.10. Uma transformação é dita afim se ela é composição de uma transformação linear com uma translação. Proposição 1.0.2. Seja U ⊂ Rn e x0 ∈ U . Se x0 é um ponto regular do campo de vetores X : U ⊆ Rn :→ Rn então existe uma seção transversal local de X em x0 de classe C∞. Demonstração. Por hipótese x0 é um ponto regular de X então X(x0) = v0 6= 0. Vamos considerar Π = [v0] ⊥, que é o espaço ortogonal ao espaço gerado por v0. Como Rn = [v0] ⊥⊕[v0] e a dimensão de [v0] é 1 segue que dim (Π) = n−1. Temos dim (Rn−1) = dim (Π), assim existe um isomorfismo S : Rn−1 → Π de modo que a transformação afim T : Rn−1 → Rn dada por T (y) = x0 + S(y) é de classe C∞ e é um homeomorfismo sobre sua imagem x0 + Π, afinal T é uma composição de uma transformação linear com uma translação. Vamos afirmar que existe A ⊂ Rn−1 aberto com 0 ∈ A tal que Nx0 = T|A é uma seção transversal local de X em x0. De fato, seja η : Rn−1 → R dada por η(y) = 〈v0, X(T (y))〉. Claramente η é uma função cont́ınua, pois é composta de funções cont́ınuas. Temos η(0) = 〈v0, X(T (0))〉 = 〈v0, X(x0 + S(0))〉 = 〈v0, X(x0 + 0)〉 = 〈v0, X(x0)〉 = 〈v0, v0〉 = ||v0||2 6= 0, observe que como S é uma transformação linear S(0) = 0. Pelo teorema da conservação do sinal existe um aberto A ⊂ Rn−1, com 0 ∈ A tal que η(y) 6= 0, para todo y ∈ A. Por outro lado, para todo y ∈ Rn−1 temos DTy = DSy = Sy, pois S é uma transformação linear. Desta forma, Im(DTy) = Im(Sy) = Π. Logo para y ∈ A temos 0 6= η(y) = 〈v0, X(T (y))〉, isto é , X(T (y)) não pertence a [v0] ⊥ = Π e com isso Im(DTy) ⊕ [X(T (y))] = Π ⊕ [X(T (y))] = Rn. Como temos também que Nx0 = T|A é de classe C∞, pois T é de classe C∞ segue que Nx0 é uma seção transversal local de X em x0. 16 Teorema 1.0.4. (Fluxo Tubular). Consideremos U ⊂ Rn e A ⊂ Rn−1 conjuntos abertos. Seja x0 um ponto regular do campo de vetores X : U → Rn e Nx0 : A→ U uma seção transversal local de X de classe Cr com Nx0(0) = x0. Então existe uma vizinhança V de x0 em U e um difeomorfismo F : (−ε, ε) × B → V de classe Cr, onde ε > 0 e B é uma bola aberta em Rn−1 tal que F é uma Cr-conjugação entre o campo constante Y : (−ε, ε) × B → Rn dado por Y ≡ (1, 0, ..., 0) ∈ Rn e o campo X|V . Demonstração. Para uma demonstração consulte [20]. Por fim, vale recordar o Teorema de Descartes sobre o número de zeros de um polinômio real. Teorema 1.0.5. (Descartes) Consideremos o polinômio real p(x) = ai1x i1 +ai2x i2 + ...+airx ir com r > 1, 0 ≤ i1 < i2 < ... < ir e os números reais aij não simultaneamente nulos para j ∈ {1, 2, ..., r}. Quando aijaij+1 < 0, dizemos que aij e aij+1 possuem variação de sinal. Se o número de variações de sinais é m, então p(x) possui no máximo m ráızes reais positivas. Além disso, é sempre posśıvel escolher os coeficientes de p(x) de tal forma que p(x) possua exatamente r−1 ráızes reais positivas. Demonstração. Para uma prova consulte [2], nas páginas 81,82 e 83. 17 Caṕıtulo 2 Teoria da Média A ideia da média como uma técnica computacional, sem provar a validade, originou-se no século XV III. Ela foi formulada por Lagrange (1788) no estudo do problema de 3 corpos gravitacionais como uma perturbação do problema de 2 corpos. Primeiramente vamos recordar os elementos básicos da Teoria da Média padrão de primeira ordem. A grosso modo o método nos fornece uma relação quantitativa entre as soluções periódicas de um sistema diferencial não autônomo e as soluções do sistema diferencial médio que é autônomo. Este método determina condições suficientes para a existência e estabilidade de soluções periódicas de equações diferenciais que contém um parâmetro pequeno ε e encontra uma cota inferior para o número de ciclos limites que bifurcam de um sistema quando perturbamos o mesmo. 2.1 Teoria da Média de primeira ordem Trabalharemos com sistemas da forma ẋ = F (t, x, ε), (2.1) onde • t ∈ I ⊂ R representa a variável tempo, com I um intervalo; • x ∈ D ⊂ Rn representa a variável espacial e D é um conjunto aberto e limitado; 18 • ε é um parâmetro suficientemente pequeno representando a grandeza das perturbações com 0 < ε ≤ ε0 e ε0 é uma constante; • F : I ×D × (0, ε0]→ Rn é uma função lipschitziana na variável espacial x. Para podermos aplicar o método da média é necessário que a função F esteja na forma padrão, isto é , que possamos escrevê-la na seguinte forma: F (t, x, ε) = εf(t, x) + ε2g(t, x, ε), (2.2) onde f : I ×D → Rn e g : I ×D × (0, ε0]→ Rn. Durante o processo de aproximação de soluções o intervalo de definição das soluções apro- ximadas pode ser relativamente pequeno, de tal forma que tais aproximações podem se tornar ineficazes. A fim de se obter estimativas para as soluções aproximadas que obteremos durante este caṕıtulo e seus respectivos intervalos de definição, introduziremos conceitos que serão de fundamen- tal importância neste objetivo, os śımbolos de Landau e a noção de tempo-escala. Apresentaremos alguns resultados e definições utilizados na demonstração do principal teorema da Teoria da Média de primeira ordem. Definição 2.1.1. Considere ε0 > 0 suficientemente pequeno. Dizemos que uma função δ : (0, ε0]→ R é uma função ordem se é cont́ınua, positiva (negativa) e lim ε→0 δ(ε) existe. Definição 2.1.2. (Śımbolos de Landau) Considere ε01, ε02 > 0 suficientemente pequenos. Se δ1 : (0, ε01]→ R e δ2 : (0, ε02]→ R são funções ordem então: (i) δ1(ε) = O(δ2(ε)) se existe uma constante k tal que |δ1(ε)| ≤ k|δ2(ε)|, quando ε→ 0; (ii) δ1(ε) = o(δ2(ε)) se lim ε→0 δ1(ε) δ2(ε) = 0; (iii) δ1(ε) = OS(δ2(ε)) se δ1(ε) = O(δ2(ε)) e δ1(ε) 6= o(δ2(ε)); Observação 2.1.1. Observemos que se |δ1(ε)| ≤ k|δ2(ε)| então ∣∣∣∣δ1(ε)δ2(ε) ∣∣∣∣ ≤ k, isto é, δ1(ε) δ2(ε) é limitada. Mais ainda, temos: δ1(ε) = o(δ2(ε))⇒ lim ε→0 δ1(ε) δ2(ε) = 0⇒ ∣∣∣∣δ1(ε)δ2(ε) ∣∣∣∣ ≤ k, quando ε→ 0⇒ δ1(ε) = O(δ2(ε)). 19 Exemplo 2.1.1. Considere ε01, ε02 > 0 suficientemente pequenos. Como δ1 : (0, ε01]→ R ; δ1(ε) = εsen(1 ε ) e δ2 : (0, ε02]→ R ; δ2(ε) = ε são funções ordem então εsen(1 ε ) = O(ε). De fato, quando ε→ 0 segue que ∣∣εsen(1 ε ) ∣∣ = |ε| ∣∣sen(1 ε ) ∣∣ ≤ |ε| · 1 = |ε|. Portanto quando ε→ 0 temos ∣∣εsen(1 ε ) ∣∣ ≤ |ε| · 1, ou seja, εsen(1 ε ) = O(ε). Porém lim ε→0 εsen(1 ε ) ε = lim ε→0 sen ( 1 ε ) não existe, assim εsen(1 ε ) = OS(ε). Exemplo 2.1.2. Considere ε01, ε02 > 0 suficientemente pequenos. Como δ1 : (0, ε01]→ R ; δ1(ε) = εn e δ2 : (0, ε02]→ R ; δ2(ε) = εm, n > m são funções ordem então εn = o(εm). De fato, como n > m temos lim ε→0 εn εm = lim ε→0 εn−m = 0. Assim εn = o(εm). Podemos usar os śımbolos de Landau para comparar funções que não são necessariamente funções de ordem. Esses śımbolos são usados para obter estimativas entre soluções aproximadas de sistemas de equações diferenciais, as quais geralmente não são funções ordem. Definição 2.1.3. Consideremos Iε ⊂ R intervalo, ε0 > 0 suficientemente pequeno, δ : (0, ε0]→ R uma função ordem e Φε : Iε → Rn ; Φε(t) = Φ(ε, t), no qual ||Φε|| = sup{||Φε(t)|| ; t ∈ Iε}. Utilizamos os śımbolos de Landau da seguinte forma: (i) Φε = O(δ(ε)) em Iε se ||Φε|| = O(δ(ε)); (ii) Φε = o(δ(ε)) em Iε se lim ε→0 ||Φε|| δ(ε) = 0; (iii) Φε = OS(δ(ε)) em Iε se Φε = O(δ(ε)) e Φε 6= o(δ(ε)). Definição 2.1.4. Sejam I ⊂ R um intervalo, D ⊂ Rn, ε0 > 0 suficientemente pequeno e δ(ε) uma função ordem. Considere a função vetorial f : I ×D × (0, ε0]→ Rn nas variáveis (t, x, ε) ∈ I ×D × (0, ε0]. Dizemos que: (i) f(t, x, ε) é O(δ(ε)) se existe uma constante k tal que ||f || ≤ kδ(ε) quando ε→ 0, no qual ; (ii) f(t, x, ε) é o(δ(ε)) se lim ε→0 ||f || δ(ε) = 0; onde ||f || denota a norma do sup, ou seja , ||f || = sup{||f(t, x, ε)|| ; (t, x, ε) ∈ I×D×(0, ε0]}. Definição 2.1.5. Consideremos a função vetorial f(t, x, ε) com f(t, x, ε) ∈ Rn, t ∈ [t0, t0+T ], x ∈ D ⊂ Rn e ε ∈ (0, ε0]. Dizemos que f satisfaz a condição de Lipschitz em x com constante Lipschitziana L > 0, se em [t0, t0 + T ]×D× (0, ε0] temos ||f(t, x1, ε)− f(t, x2, ε)|| ≤ L||x1 − x2||, onde x1, x2 ∈ D. 20 Agora vamos enunciar o teorema de existência e unicidade para problemas com valor inicial. Teorema 2.1.1. (Teorema da Existência e Unicidade) Considere o problema com valor inicial dx dt = f(t, x, ε), x(t0) = x0, onde x ∈ D ⊂ Rn, t0 ≤ t ≤ t0 + T e 0 < ε ≤ ε0 tal que D = {x ∈ Rn ; ||x− x0|| ≤ d}. Suponhamos que: (i) f(t, x, ε) é cont́ınua para (t, x, ε) em G = [t0, t0 + T ]×D × (0, ε0]; (ii) f(t, x, ε) satisfaz a condição de Lipschitz com relação à variável x. Então o problema de valor inicial tem uma única solução para t ∈ [ t0, t0 + inf { T, d M }] , onde M = supG||f || e d é uma constante positiva. Demonstração. Para uma demonstração consulte [18]. Admitindo T tão grande quanto posśıvel, isto significa que o tamanho do intervalo de existência de solução é da ordem L δ(ε) com L constante. Logo, esta conclusão na qual ε é um parâmetro suficientemente pequeno envolve uma estimativa assintótica do tamanho de um intervalo. Notemos que na definição de Φε o tempo t varia no intervalo Iε. Entretando, este intervalo pode depender do parâmetro ε de uma forma na qual o intervalo de definição da função Φε seja diferente para cada valor do parâmetro da perturbação introduzido no sistema. Trabalharemos com intervalos Iε = [ 0, L δ(ε) ] , no qual L é uma constante independente de ε. Desta forma, precisamos realizar um redimensionamento no tempo, de tal modo que o intervalo de definição da função fique independente de ε. Então para δ(ε) uma função ordem positiva temos: 0 ≤ t ≤ L δ(ε) ⇒ 0 ≤ t · δ(ε) ≤ L. A variável τ = t·δ(ε) é denominada de variável tempo-escala ou tempo lento, e temos τ ∈ I = [0, L]. Definição 2.1.6. Consideremos Iε ⊂ R intervalo, ε0 > 0 suficientemente pequeno, δ : (0, ε0]→ R uma função ordem e Φε : Iε → Rn ; Φε(t) = Φ(ε, t). Temos Φε(t) = O(δ(ε)) conforme ε → 0 na escala de tempo 1 δ(ε) se a estimativa satisfaz 0 ≤ t · δ(ε) ≤ L com L uma constante independente de ε. A definição para o caso Φε(t) = o(δ(ε)) é análoga. Definição 2.1.7. Seja I ⊂ R um intervalo, D ⊂ Rn e ε0 > 0 suficientemente pequeno. Considere a função vetorial f : I × D × (0, ε0] → Rn nas variáveis (t, x, ε) ∈ I × D × (0, ε0] e as funções ordem δ1(ε) e δ2(ε). Temos f(t, x, ε) = O(δ1(ε)) conforme ε → 0 na escala de tempo 1 δ2(ε) se a estimativa é válida para x ∈ D, 0 ≤ t · δ2(ε) ≤ L com L uma constante independente de ε. A definição para o caso f(t, x, ε) = o(δ1(ε)) é análoga. 21 Agora estamos prontos para definir aproximação assintótica de uma função. Definição 2.1.8. Consideremos Iε ⊂ R intervalo, ε0 > 0 suficientemente pequeno, δ : (0, ε0]→ R uma função ordem, ψε : Iε → Rn ; ψε(t) = ψ(ε, t) e Φε : Iε → Rn ; Φε(t) = Φ(ε, t). Desta forma, dizemos que: (i) ψε(t) é uma aproximação assintótica de Φε(t) no intervalo Iε se ψε(t)−Φε(t) = o(1), quando ε→ 0 uniformemente para t ∈ Iε; (ii) ψε(t) é uma aproximação assintótica de Φε(t) no tempo-escala 1 δ(ε) se ψε(t) − Φε(t) = o(1) no tempo-escala 1 δ(ε) . Observação 2.1.2. Vale ressaltar que a afirmação ψε(t) − Φε(t) = o(1), significa que quando ε→ 0 temos: lim ε→0 ψε − Φε 1 = 0⇒ lim ε→0 (ψε − Φε) = 0⇒ ψε → Φε, quando ε→ 0. Logo quando o parâmetro ε → 0 temos a função ψε uma aproximação cada vez melhor da função Φε. Geralmente podemos obter séries em algum intervalo I como aproximações assintóticas. Exis- tem expansões da forma: Φ̂(t) = ∑m n=1 δn(ε)Φnε(t), onde δn(ε) são funções ordem com δn+1(ε) = o(δn(ε)), n = 1, ...,m − 1 e para as funções Φnε(t) temos Φnε(t) = OS(1) em I. Definição 2.1.9. Dada uma função Φ(t) no intervalo I, a série assintótica Φ(t) é denominada aproximação assintótica de m-ésima ordem de Φ(t) em I se Φ(t)− Φ̂(t) = o(δm(ε)) em I. Exemplo 2.1.3. Seja Φε : [0, 2π] → R ; Φε(t) = sen(t + εt). Temos Φ̂ε : [0, 2π] → R ; Φ̂ε(t) = sen(t) + εtcos(t) − 1 2 ε2t2sen(t) uma aproximação assintótica de terceira ordem de Φε(t) em I = [0, 2π]. De fato, temos δn : (0, ε0n]→ R ; δn(ε) = εn−1, n = 1, 2, 3 funções de ordem com ε0n > 0, n = 1, 2, 3, suficientemente pequeno. Consideremos Φ1ε : [0, 2π] → R ; Φ1ε = sen(t), Φ2ε : [0, 2π] → R ; Φ2ε = tcos(t), Φ3ε : [0, 2π]→ R ; Φ3ε = 1 2 t2sen(t) e por sua vez: 22 (1) ||Φ1ε|| = sup{|Φ1ε| ; t ∈ [0, 2π]} = 1 ≤ 1 · 1 = 1 · |1|, quando ε → 0 e lim ε→0 ||Φ1ε|| 1 = lim ε→0 1 = 1 6= 0; (2) ||Φ2ε|| = sup{|Φ2ε| ; t ∈ [0, 2π]} = sup{|t| · |cos(t)| ; t ∈ [0, 2π]} = 2π · 1 ≤ 2π · |1|, quando ε→ 0 e lim ε→0 ||Φ2ε|| 1 = lim ε→0 2π = 2π 6= 0; (3) ||Φ3ε|| = sup{|Φ3ε| ; t ∈ [0, 2π]} = || = sup{|1 2 | · |t2| · |sen(t)| ; t ∈ [0, 2π]} = 1 2 · 4π2 · 1 ≤ 2π2 · |1|, quando ε→ 0 e lim ε→0 ||Φ3ε|| 1 = lim ε→0 2π2 = 2π2 6= 0. Desta forma por (1),(2) e (3) temos Φnε(t) = OS(1), n = 1, 2, 3. Mais ainda lim ε→0 ||Φε − Φ̂ε|| ε2 = lim ε→0 ||R2|| ε2 = 0, pois R2 é o resto do polinômio de Taylor de ordem 2 de Φ. Assim Φ̂ε(t) = sen(t)+εtcos(t)−1 2 ε2t2sen(t) = ∑3 n=1 δn(ε)Φnε(t) é uma aproximação assintótica de terceira ordem de Φε(t) em I = [0, 2π]. Observação 2.1.3. (i) Aproximações assintóticas não são únicas, a função Φε não é deter- minada de forma única como esta claro na definição. Por exemplo, outra aproximação assintótica de Φε(t) em I, definida no Exemplo 2.1.3 seria ψε(t) = sen(t) + εΦ2ε(t) − 1 2 ε2t2sen(t), com Φ2ε(t) = sen(εt)cos(t) ε . (ii) Dada uma função, podemos construir diferentes aproximações assintóticas com diferentes conjuntos de funções ordem. Por exemplo, a função fε = ( 1− ε 1 + ε t )−1 , t ∈ I = [0, 1], possui as seguintes expansões como aproximações assintóticas de fε em I: g1ε = ∑m n=0 ( ε 1 + ε )n tn; g2ε = 1 + ∑m n=1 ε nt(t− 1)n−1. 2.2 O Teorema da Média clássico O teorema que virá a seguir fornece uma aproximação de primeira ordem para as soluções periódicas do problema de valor inicial dado na forma padrão, ẋ = εf(t, x) + ε2g(t, x, ε) x(t0) = x0 . (2.3) 23 Supondo que f é T -periódica na variável t, podemos considerar o sistema médio ẏ = εf0(y) = ε 1 T ∫ T 0 f(t, y)dt y(t0) = x0 . (2.4) Vale ressaltar que o sistema (2.4) é autônomo, isto é, não depende explicitamente da variável independente t, e desta forma temos uma simplificação na procura de soluções. Assim, vamos rela- cionar as soluções de (2.3) com as soluções de seu sistema médio (2.4). Porém, antes mostraremos o Lema de Gronwall, o qual usaremos na demonstração do resultado citado. Teorema 2.2.1. Sejam φ : [t0, t0 +T ]→ R e ψ : [t0, t0 +T ]→ R funções reais cont́ınuas e positiva de tal forma que φ(t) ≤ δ1 ∫ t t0 ψ(s)φ(s)ds + δ3, com constantes δ1 > 0 e δ3 ≥ 0. Então para todo t ∈ [t0, t0 + T ] temos: φ(t) ≤ δ3e δ1 ∫ t t0 ψ(s)ds . Demonstração. Ressaltamos que se φ(t) = 0 e δ3 = 0 então pela estimativa da hipótese temos a validade do teorema claramente, mais ainda não podemos ter ψ(t) = 0 e δ3 = 0 simultanea- mente, pois acarretaria da estimativa da hipótese em φ(t) não positiva. Como Ψ(t) e δ3 não são simultaneamente nulos da estimativa da hipótese temos: φ(t) δ1 ∫ t t0 ψ(s)φ(s)ds+ δ3 ≤ 1. Multiplicando por δ1ψ(t) e depois integrando de t0 a t∫ t t0 δ1ψ(s)φ(s) δ1 ∫ t t0 ψ(s)φ(s)ds+ δ3 ds ≤ ∫ t t0 δ1ψ(s)ds⇒ ∫ t t0 δ1ψ(s)φ(s) δ1 ∫ t t0 ψ(s)φ(s)ds+ δ3 ds ≤ δ1 ∫ t t0 ψ(s)ds⇒ ⇒ ∫ t t0 d dt [ ln ( δ1 ∫ t t0 ψ(s)φ(s)ds+ δ3 )] ds ≤ δ1 ∫ t t0 ψ(s)ds⇒ ⇒ ln ( δ1 ∫ t t0 ψ(s)φ(s)ds+ δ3 ) − ln(δ3) ≤ δ1 ∫ t t0 ψ(s)ds⇒ ⇒ ln ( δ1 ∫ t t0 ψ(s)φ(s)ds+ δ3 ) ≤ ln(δ3) + δ1 ∫ t t0 ψ(s)ds⇒ ⇒ δ1 ∫ t t0 ψ(s)φ(s)ds+ δ3 ≤ δ3e δ1 ∫ t t0 ψ(s)ds . Aplicando a estimativa da hipótese novamente, mas agora do lado esquerdo, segue: φ(t) ≤ δ1 ∫ t t0 ψ(s)φ(s)ds+ δ3 ≤ δ3e δ1 ∫ t t0 ψ(s)ds ⇒ φ(t) ≤ δ3e δ1 ∫ t t0 ψ(s)ds . 24 Lema 2.2.1. (Lema de Gronwall) Seja φ : [t0, t0 + T ]→ R um função real cont́ınua e positiva de tal forma que φ(t) ≤ δ2(t− t0) + δ1 ∫ t t0 φ(s)ds+ δ3, com constantes δ1 > 0, δ2 ≥ 0 e δ3 ≥ 0. Então para todo t ∈ [t0, t0 + T ] temos: φ(t) ≤ ( δ2 δ1 + δ3 ) eδ1(t−t0) − δ2 δ1 . Demonstração. Consideremos a função real Ψ : [t0, t0 + T ] → R tal que Ψ(t) = φ(t) + δ2 δ1 , que é cont́ınua e positiva, pois é soma de funções cont́ınuas e positivas. Então, por hipótese, segue que: Ψ(t) = φ(t) + δ2 δ1 ≤ δ2(t− t0) + δ1 ∫ t t0 φ(s)ds+ δ3 + δ2 δ1 = δ1 ∫ t t0 δ2 δ1 ds + + δ1 ∫ t t0 φ(s)ds+ δ3 + δ2 δ1 = δ1 ∫ t t0 ( φ(s) + δ2 δ1 ) ds+ δ3 + δ2 δ1 = = δ1 ∫ t t0 Ψ(s)ds+ δ3 + δ2 δ1 ⇒ Ψ(t) ≤ δ1 ∫ t t0 Ψ(s)ds+ δ3 + δ2 δ1 . Se δ2 = δ3 = 0 então teŕıamos pelo Teorema de Gronwall com ψ(t) = 1 que Ψ(t) ≤ 0. Por outro lado, vimos que 0 ≤ Ψ(t), logo teŕıamos Ψ = 0 e 0 ≤ 0. Assim este lema vale para δ2 = δ3 = 0. Vamos excluir agora o caso em que δ2 = δ3 = 0 que já foi provado. Como o lado direito da última desigualdade é positivo segue que: Ψ(t) δ1 ∫ t t0 Ψ(s)ds+ δ3 + δ2 δ1 ≤ 1⇒ δ1Ψ(t) δ1 ∫ t t0 Ψ(s)ds+ δ3 + δ2 δ1 ≤ δ1 ⇒ ⇒ d dt ln ( δ1 ∫ t t0 Ψ(s)ds+ δ3 + δ2 δ1 ) ≤ δ1. Integrando ambos os lados com relação a s, de t0 até t temos:∫ t t0 d dt ln ( δ1 ∫ t t0 Ψ(s)ds+ δ3 + δ2 δ1 ) ds ≤ ∫ t t0 δ1 ds⇒∫ t t0 d dt ln ( δ1 ∫ t t0 Ψ(s)ds+ δ3 + δ2 δ1 ) ds ≤ δ1(t− t0). Pelo segundo Teorema Fundamental do Cálculo segue que: ln ( δ1 ∫ t t0 Ψ(s)ds+ δ3 + δ2 δ1 ) − ln ( δ3 + δ2 δ1 ) ≤ δ1(t− t0)⇒ ⇒ ln ( δ1 ∫ t t0 Ψ(s)ds+ δ3 + δ2 δ1 ) ≤ ln ( δ3 + δ2 δ1 ) + δ1(t− t0). 25 Agora aplicando a função exponencial: e ln δ1 ∫ t t0 Ψ(s)ds+ δ3 + δ2 δ1  ≤ e ln δ3+δ2 δ1 +δ1(t−t0) = e ln δ3+δ2 δ1  · eδ1(t−t0) ⇒ ⇒ δ1 ∫ t t0 Ψ(s)ds+ δ3 + δ2 δ1 ≤ ( δ3 + δ2 δ1 ) · eδ1(t−t0). Portanto, Ψ(t) ≤ δ1 ∫ t t0 Ψ(s)ds+ δ3 + δ2 δ1 ≤ ( δ3 + δ2 δ1 ) · eδ1(t−t0) ⇒ φ(t) + δ2 δ1 ≤ ≤ ( δ3 + δ2 δ1 ) · eδ1(t−t0) ⇒ φ(t) ≤ ( δ3 + δ2 δ1 ) · eδ1(t−t0) − δ2 δ1 . A solução y(t) de (2.4) está próxima da solução x(t) do sistema (2.3) da seguinte forma: Teorema 2.2.2. (Teorema da Média clássico) Considere os problemas (2.3) e (2.4) com x, y, x0 ∈ D ⊂ Rn, t ∈ [t0, t0 + T ] e ε ∈ (0, ε0], com ε0 > 0 suficientemente pequeno. Suponhamos que: (i) f, g e Jxf(matriz jacobiana da função f em relação a segunda variável) estão definidas, são cont́ınuas e limitadas por uma constante M independente de ε em [t0,∞)×D; (ii) g é lipschitziana em x ∈ D; (iii) f é T -periódica na variável t com média f0 e T constante independente de ε; (iv) y(t) pertence (independente de ε) a um subconjunto interior de D no tempo escala 1 ε . Então x(t)− y(t) = O(ε), quando ε→ 0 no tempo escala 1 ε . Antes de realizarmos a demonstração faremos algumas observações: (a) as condições (i) e (ii) na hipótese do teorema garantem a existência e a unicidade dos proble- mas de valor inicial (2.3) e (2.4), consequentemente faz sentido falar nas respectivas soluções dos mesmos, x(t) e y(t); (b) a condição (iii) na hipótese do teorema nos diz que não é necessário considerar o tempo t no intervalo [t0,∞), se f é T -periódica, e assim vamos trabalhar com o tempo t no intervalo [t0, t0 + T ]; 26 (c) a condição (iv) na hipótese do teorema nos diz que temos existência de soluções no tempo- escala 1 ε na variável tempo t, isto é, no tempo-escala 1 ε na variável tempo-escala τ (τ = εt). Finalizadas as observações faremos a demonstração do teorema. Demonstração. Vamos definir a função µ1 : [t0, t0 + T ]×D → Rn dada por µ1(t, y) = ∫ t t0 (f(s, y)− f0(y))ds. Afirmação (1): ||µ1(t, y)|| ≤ 2MT , no qual M e T são constantes dadas nas hipóteses do teorema. De fato, ||µ1(t, y)|| = ∥∥∥∥∫ t t0 (f(s, y)− f0(y))ds ∥∥∥∥ ≤ ∫ t t0 ||f(s, y)||ds + + ∫ t t0 ||f0(y)||ds ≤ ∫ t t0 Mds+ ∫ t t0 ||f0(y)||ds. Por outro lado, ||f0(y)|| = ∥∥∥∥ 1 T ∫ T 0 f(t, y)dt ∥∥∥∥ = ∥∥∥∥ 1 T ∫ t0+T t0 f(u, y)du ∥∥∥∥ ≤ 1 T ∫ t0+T t0 ||f(u, y)||du ≤ ≤ 1 T ∫ t0+T t0 Mdt = M T ∫ t0+T t0 dt = M. Desta forma segue que: ||µ1(t, y)|| ≤ ∫ t t0 Mds+ ∫ t t0 ||f0(y)||ds ≤ ∫ t t0 Mds+ ∫ t t0 Mds = = 2M ∫ t t0 ds ≤ 2M ∫ t0+T t0 ds = 2MT. Portanto provamos a afirmação (1). Agora vamos encontrar uma estimativa para a diferença entre as soluções de (2.3) e (2.4). Consideremos z(t) = y(t) + εµ1(t, y(t)) a transformação quase- identidade, com ε > 0 suficientemente pequeno, logo: ||x(t)− y(t)|| ≤ ||x(t)− z(t)||+ ||z(t)− y(t)|| = ||x(t)− z(t)||+ ||εµ1(t, y(t))|| = = ||x(t)− z(t)||+ ε||µ1(t, y(t))|| ≤ ||x(t)− z(t)||+ 2εMT. Pelo segundo Teorema Fundamental do Cálculo temos:∫ t t0 ( dx ds (s)− dz ds (s) ) ds = x(t)− x(t0)− z(t) + z(t0) = = x(t)− x(t0)− z(t) + y(t0) + εµ1(t0, y(t0)) = = x(t)− x(t0)− z(t) + y(t0) + ε ∫ t0 t0 (f(t0, y(t0))− f0(y(t0)))ds = = x(t)− x(t0)− z(t) + y(t0) = x(t)− x(t0)− z(t) + x(t0) = x(t)− z(t). 27 Portanto, ∫ t t0 ( dx ds − dz ds ) ds = x(t)− z(t). (2.5) Por sua vez, como x(t) e y(t) são soluções dos sistemas (2.3) e (2.4) respectivamente então: dx dt (t)− dz dt (t) = dx dt (t)− ( dy dt (t) + ε dµ1 dt (t, y(t)) ) = = dx dt (t)− dy dt (t)− ε ( ∂µ1 ∂t (t, y(t)) · dt dt + ∂µ1 ∂y (t, y(t)) · dy(t) dt ) = = dx dt (t)− dy dt (t)− ε∂µ1 ∂t (t, y(t))− ε∂µ1 ∂y (t, y(t)) · dy dt (t) = = εf(t, x(t)) + ε2g(t, x(t), ε)− dy dt (t)− ε(f(t, y(t))− f0(y(t)))− − ε2 ∂µ1 ∂y (t, y(t))f0(y(t)) = εf(t, x(t)) + ε2g(t, x(t), ε)− εf0(y(t))− εf(t, y(t))+ + εf0(y(t))− ε2f0(y(t)) ∂µ1(t, y(t)) ∂y (t, y(t)) + εf(t, z(t))− εf(t, z(t)) = = εf(t, x(t)) + ε2g(t, x(t), ε)− εf(t, y(t))− ε2f0(y(t)) ∂µ1 ∂y (t, y(t)) + εf(t, z(t))− − εf(t, z(t)) = εf(t, x(t))− εf(t, z(t)) + ε2g(t, x(t), ε)− εf(t, y(t))− − ε2f0(y(t)) ∂µ1 ∂y (t, y(t)) + εf(t, z(t)) = εf(t, x(t))− εf(t, z(t)) +R⇒ ⇒ dx dt − dz dt = εf(t, x(t))− εf(t, z(t)) +R. Afirmação (2): A função f(t, x) é de Lipschitz. De fato, como f é de classe C1 em D que é limitado, consequentemente D também é limitado segue que f é Lipschitz com constante de Lipschitz L em D, ou seja, também é Lipschitz com constante de Lipschitz L em D. Afirmação (3): Se R = ε2g(t, x(t), ε) − εf(t, y(t)) − ε2f0(y(t)) ∂µ1 ∂y (t, y(t)) + εf(t, z(t)) então existe 0 < k ∈ R tal que ||R|| ≤ kε2, para t ∈ [t0,∞). De fato, observe que:∥∥∥∥∂µ1 ∂y (t, y(t)) ∥∥∥∥ = ∥∥∥∥∫ t t0 ∂f ∂y (s, y(s))− ∂f0 ∂y (y(s))ds ∥∥∥∥ ≤ ∫ t t0 ∥∥∥∥∂f∂y (s, y(s)) ∥∥∥∥ ds+ + ∫ t t0 ∥∥∥∥∂f0∂y (y(s)) ∥∥∥∥ ds ≤ ∫ t t0 Mds+ ∫ t t0 ∥∥∥∥∂f0∂y (y(s)) ∥∥∥∥ ds. Por outro lado,∥∥∥∥∂f0∂y (y(s)) ∥∥∥∥ = ∥∥∥∥ 1 T ∫ T 0 ∂f ∂y (s, y(s))ds ∥∥∥∥ = ∥∥∥∥ 1 T ∫ t0+T t0 ∂f ∂y (u, y(u))du ∥∥∥∥ ≤ ≤ 1 T ∫ t0+T t0 ∥∥∥∥∂f∂y (u, y(u)) ∥∥∥∥ du ≤ 1 T ∫ t0+T t0 Mdu = M T ∫ t0+T t0 du = M. 28 Desta forma segue que:∥∥∥∥∂µ1 ∂y (t, y(t)) ∥∥∥∥ ≤ ∫ t t0 Mds+ ∫ t t0 ∥∥∥∥∂f0∂y (y(s)) ∥∥∥∥ ds ≤ ∫ t t0 Mds+ ∫ t t0 Mds = = 2M ∫ t t0 ds ≤ 2M ∫ t0+T t0 ds = 2MT. Portanto ∥∥∥∥∂µ1 ∂y (t, y(t)) ∥∥∥∥ ≤ 2MT . Dada a expressão de R para t ∈ [t0,∞) temos: ||R|| ≤ ||ε2g(t, x(t), ε)||+ ∥∥∥∥ε2f0(y(t)) ∂µ1 ∂y (t, (y(t)) ∥∥∥∥+ ||εf(t, z(t))− εf(t, y(t))|| ≤ ≤ ||ε2M ||+ ||ε2M · 2MT ||+ ||εL[z(t)− y(t)]|| = ε2M + 2ε2M2T + εL||εµ1(t, y(t))|| ≤ ≤ ε2M + 2ε2M2T + ε2L · 2MT = ε2(M + 2M2T + 2LMT ). Assim ||R|| ≤ kε2, com k = M + 2M2T + 2LMT > 0 para t ∈ [t0,∞) e com isso provamos a Afirmação (3). Finalmente de (2.5) temos: ||x(t)− z(t)|| = ∥∥∥∥∫ t t0 ( dx ds (s)− dz ds (s) ) ds ∥∥∥∥ ≤ ∫ t t0 ∥∥∥∥dxds (s)− dz ds (s) ∥∥∥∥ ds = = ∫ t t0 ||εf(s, x(s))− εf(s, z(s)) +R||ds ≤ ∫ t t0 ||εf(s, x(s))− εf(s, z(s))||ds + ∫ t t0 ||R||ds ≤ εL ∫ t t0 ||x(s)− z(s)||ds+ ∫ t t0 kε2ds = = εL ∫ t t0 ||x(s)− z(s)||ds+ kε2(t− t0)⇒ ⇒ ||x(t)− z(t)|| ≤ εL ∫ t t0 ||x(s)− z(s)||ds+ kε2(t− t0). Aplicando o Lema de Gronwall vem que: ||x(t)− z(t)|| ≤ ( kε2 εL + 0 ) eεL(t−t0) − kε2 εL = ε k L eεL(t−t0) − ε k L ⇒ ⇒ ||x(t)− z(t)|| ≤ ε k L eεL(t−t0) − ε k L . Portanto como: ||x(t)− y(t)|| ≤ ||x(t)− z(t)||+ 2εMT ⇒ ||x(t)− y(t)|| − 2εMT ≤ ||x(t)− z(t)|| ≤ ≤ ε k L eεL(t−t0) − ε k L ⇒ ||x(t)− y(t)|| ≤ ε ( k L eεL(t−t0) − k L + 2MT ) . Como t0 ≤ t ≤ t0 + T , ou seja, 0 ≤ t− t0 ≤ T e considerando r = t− t0 vale: 29 0 ≤ r ≤ T ≤ T ε ⇒ 0 ≤ ε · r ≤ T ⇒ 0 ≤ τ ≤ T . Portanto εL(t− t0) = Lεr = Lτ ≤ LT , logo ||x(t)− y(t)|| ≤ εC, com C = k L eLT − k L + 2MT , no tempo-escala 1 ε . Consequentemente x(t)− y(t) = O(ε), no tempo-escala 1 ε . Observação 2.2.1. A transformação quase-identidade, a qual vimos na demonstração do Teorema 2.2.2, foi definida como z(t) = y(t) + εµ1(t, y(t)), leva esse nome pois z(t) − y(t) = O(ε). Afinal ||z(t)− y(t)|| = ε||µ1(t, y(t))|| ≤ ε(2MT ). Considerando a equação (2.3) e assumindo o fato de f(t, x) e g(t, x, ε) serem T -periódicas na variável t então o próximo teorema nos mostra sob quais condições, os pontos de equiĺıbrio da função média (2.4) dão origem a soluções T -periódicas da equação (2.3). Teorema 2.2.3. Consideremos a equação (2.3) e suponhamos que: (i) as funções f, g, Jxf, J 2 xf e Jxg são definidas cont́ınuas e limitadas por uma constante M independente de ε, 0 ≤ ε ≤ ε0; (ii) f e g são T -periódicas na variável t, onde T independe de ε. Se p é um ponto de equiĺıbrio da equação diferencial média (2.4) e det (Jyf0(p)) 6= 0 então ex- iste uma solução T -periódica φ(t, ε) da equação (2.3) que está próxima de p, de tal forma que lim ε→0 φ(t, ε) = p. Demonstração. Primeiramente definimos a função µ1 : [t0, t0 + T ]×D → Rn dada por µ1(t, y) = ∫ t t0 (f(s, y)− f0(y))ds. Agora vamos considerar x(t) = z(t) + εµ1(t, z(t)) a transformação quase-identidade, com ε > 0 suficientemente pequeno, que leva esse nome porque x(t)−z(t) = O(ε). Tal transformação é usada para simplificar a equação (2.3), esse processo é chamado de normalização e pode ser visto na seção 13.2 e 13.3 de [23] , ou seja, conseguimos encontrar a função z que vale a igualdade. Assim, x(t) = z(t) + εµ1(t, z(t))⇒ dx dt (t) = dz dt (t) + ε dµ1 dt (t, z(t))⇒ 30 ⇒ dx dt (t) = dz dt (t) + ε ∂µ1 ∂t (t, z(t)) + ε ∂µ1 ∂z (t, z(t)) dz dt (t)⇒ ⇒ εf(t, x(t)) + ε2g(t, x(t), ε) = dz dt (t) + εf(t, z(t))− εf0(z(t))+ + ε ∂µ1 ∂z (t, z(t)) dz dt (t)⇒ ( I + ε ∂µ1 ∂z (t, z(t)) ) dz dt (t) = εf0(z(t))+ + εf (t, z(t) + εµ1(t, z(t))) + ε2g (t, z(t) + εµ1(t, z(t)), ε)− εf(t, z(t))⇒ ⇒ ( I + ε ∂µ1 ∂z (t, z(t)) ) dz dt (t) = εf0(z(t)) + R̂, com I a matriz identidade de ordem n× n. Observemos que A(ε) = ( I + ε ∂µ1 ∂z (t, z(t)) ) é inverśıvel, pois estamos perturbando a matriz identidade e temos a função determinante cont́ınua com det(I) 6= 0. Como f é de classe C1 em D que é limitado, consequentemente D também é limitado segue que f é Lipschitz com constante de Lipschitz L em D, ou seja, também é Lipschitz com constante de Lipschitz L em D e assim: ||R̂|| = ||εf (t, z(t) + εµ1(t, z(t))) + ε2g (t, z(t) + εµ1(t, z(t)), ε)− εf(t, z(t))|| ≤ ≤ ε||f (t, z(t) + εµ1(t, z(t)))− f(t, z(t))||+ ε2||g (t, z(t) + εµ1(t, z(t)) || ≤ ≤ εL||z(t) + εµ1(t, z(t))− z(t)||+ ε2M ≤ ε2L||µ1(t, z(t))||+ ε2M ≤ ≤ ε2L2MT + ε2M = ε2(2MTL+M)⇒ ||R|| ≤ ε2(2MTL+M)⇒ R̂ = O(ε2). Seja A−1(ε) = ( I + ε ∂µ1 ∂z (t, z(t)) )−1 a inversa de A(ε), então a expansão em série de Taylor de A−1(ε) de ordem 2 em torno de ε = 0 aplicada na matriz identidade I é dada por : A−1(ε) · I = A−1(0 + ε) · I = A−1(0) · I + dA−1 dε (0) · I · (ε− 0)1 1! + d2A−1 dε2 (0) · I2 · (ε− 0)2 2! + r2(ε) e tendo lim ε→0 r2(ε) ε2 = 0, isto é, r2(ε) = o(ε2), consequentemente r2(ε) = O(ε2) . 31 Então: A−1(ε) = [( I + ε ∂µ1 ∂z (t, z(t)) )−1 |ε=0 ] + + [ (−1) ( I + ε ∂µ1 ∂z (t, z(t)) )−1 · ( I + ε ∂µ1 ∂z (t, z(t)) )−1 · ∂µ1 ∂z (t, z(t))|ε=0 ] ε+ + (−1) [ (−1) ( I + ε ∂µ1 ∂z (t, z(t)) )−1 · ( I + ε ∂µ1 ∂z (t, z(t)) )−1 · ∂µ1 ∂z (t, z(t))· · ( I + ε ∂µ1 ∂z (t, z(t)) )−1 · ∂µ1 ∂z (t, z(t)) + ( I + ε ∂µ1 ∂z (t, z(t)) )−1 · (−1)· · ( I + ε ∂µ1 ∂z (t, z(t)) )−1 · ( I + ε ∂µ1 ∂z (t, z(t)) )−1 · ∂µ1 ∂z (t, z(t)) · ∂µ1 ∂z (t, z(t))|ε=0 ] ε2 2 + + O(ε2) = I − ∂µ1 ∂z (t, z(t))ε+ 2 · ∂µ1 ∂z (t, z(t)) · ∂µ1 ∂z (t, z(t)) ε2 2 +O(ε2) = = I − ∂µ1 ∂z (t, z(t))ε+O(ε2) +O(ε2)⇒ A−1(ε) = I − ∂µ1 ∂z (t, z(t))ε+O(ε2), lembrando que como visto na demonstração do Teorema 2.2.2, temos ∥∥∥∥∂µ1 ∂z (t, z(t)) ∥∥∥∥ ≤ 2MT . Como ( I + ε ∂µ1 ∂z (t, z(t)) ) dz dt (t) = εf0(z(t)) + R̂ então: A(ε) dz dt (t) = εf0(z(t)) + R̂⇒ A−1(ε)A(ε) dz dt (t) = A−1(ε)(εf0(z(t)) + R̂)⇒ ⇒ dz dt (t) = ( I − ∂µ1 ∂z (t, z(t))ε+O(ε2) ) (εf0(z(t)) + R̂) = = εf0(z(t)) + R̂− ε2∂µ1 ∂z (t, z(t)) · f0(z(t))− ε∂µ1 ∂z (t, z(t)) · R̂+ + O(ε2) · εf0(z(t)) +O(ε2) · R̂ = εf0(z(t)) + R̂− ε2∂µ1 ∂z (t, z(t)) · f0(z(t))+ + O(ε3) = εf0(z(t)) + ε{f (t, z(t) + εµ1(t, z(t)))− f(t, z(t))}+ + ε2g (t, z(t) + εµ1(t, z(t)), ε)− ε2 ∂µ1 ∂z (t, z(t)) · f0(z(t)) +O(ε3)⇒ ⇒ dz dt (t) = εf0(z(t)) + ε{f (t, z(t) + εµ1(t, z(t)))− f(t, z(t))}+ + ε2g (t, z(t) + εµ1(t, z(t)), ε)− ε2 ∂µ1 ∂z (t, z(t)) · f0(z(t)) +O(ε3). Portanto, dz dt (t) = εf0(z(t)) + εF (ε) + ε2G(ε)− ε2∂µ1 ∂z (t, z(t)) · f0(z(t)) +O(ε3), (2.6) com F (ε) = f (t, z(t) + εµ1(t, z(t)))− f(t, z(t)) e G(ε) = g (t, z(t) + εµ1(t, z(t)), ε). 32 Desta forma, a série de Taylor de ordem 2 em torno de ε = 0 de F (ε) e a série de Taylor de ordem 1 em torno de ε = 0 de G(ε) são dadas, respectivamente, por: (a) F (ε) = F (0) + dF dε (0) · ε 1! + d2F dε2 (0) · ε 2 2! + rf2(ε) e tendo lim ε→0 rf2(ε) ε2 = 0, isto é, rf2(ε) = o(ε2), consequentemente rf2(ε) = O(ε2). Assim, F (ε) = f (t, z(t) + 0 · µ1(t, z(t)))− f(t, z(t)) + [ ∂f ∂z (t, z(t) + εµ1(t, z(t))) · µ1(t, z(t))|ε=0 ] ε+ + [ ∂2f ∂z2 (t, z(t) + εµ1(t, z(t))) · µ1(t, z(t)) · µ1(t, z(t))|ε=0 ] ε2 2 +O(ε2) = = 0 + ∂f ∂z (t, z(t)) · µ1(t, z(t))ε+ [ ∂2f ∂z2 (t, z(t)) · µ1(t, z(t)) · µ1(t, z(t)) ] ε2 2 +O(ε2) = = ∂f ∂z (t, z(t)) · µ1(t, z(t))ε+O(ε2) +O(ε2), lembrando que por hipótese J2 xf é limitada por uma constante M > 0 e como visto na demonstração do Teorema 2.2.2 temos ‖µ1(t, z(t))‖ ≤ 2MT . Portanto, F (ε) = ∂f ∂z (t, z(t)) · µ1(t, z(t))ε+O(ε2). (2.7) (b) G(ε) = G(0) + dG dε (0) · ε 1! + rg1(ε) e tendo lim ε→0 rg1(ε) ε = 0, isto é, rg1(ε) = o(ε), consequente- mente rg1(ε) = O(ε). Assim, G(ε) = g(t, z(t), 0)+ + [ ∂g ∂z [t, z(t) + εµ1(t, z(t)), ε] · µ1(t, z(t)) + ∂g ∂ε [t, z(t) + εµ1(t, z(t)), ε]|ε=0 ] · ε+O(ε) = = g(t, z(t), 0) + [ ∂g ∂z [t, z(t), 0] · µ1(t, z(t)) + ∂g ∂ε [t, z(t), 0] ] ε+O(ε) = = g(t, z(t), 0) +O(ε) +O(ε), lembrando que por hipótese Jxg é limitada por uma constante M > 0, ∂g ∂ε é limitada, afinal é periódica e g é cont́ınua e limitada, e como visto na demons- tração do Teorema 2.2.2 temos ‖µ1(t, z(t))‖ ≤ 2MT . Portanto, G(ε) = g(t, z(t), 0) +O(ε). (2.8) 33 Substituindo (2.7) e (2.8) em (2.6) obtemos o seguinte sistema: dz dt (t) = εf0(z(t)) + ε [ ∂f ∂z (t, z(t)) · µ1(t, z(t))ε+O(ε2) ] + ε2 (g(t, z(t), 0) +O(ε))− − ε2 ∂µ1 ∂z (t, z(t)) · f0(z(t)) +O(ε3) = εf0(z(t)) + ε2 ∂f ∂z (t, z(t)) · µ1(t, z(t)) + εO(ε2)+ + ε2g(t, z(t), 0) + ε2O(ε)− ε2∂µ1 ∂z (t, z(t)) · f0(z(t)) +O(ε3) = = εf0(z(t)) + ε2 ∂f ∂z (t, z(t)) · µ1(t, z(t)) + ε2g(t, z(t), 0)− ε2∂µ1 ∂z (t, z(t)) · f0(z(t))+ + O(ε3) = εf0(z(t)) + ε2 [ ∂f ∂z (t, z(t)) · µ1(t, z(t))− ∂µ1 ∂z (t, z(t)) · f0(z(t)) + + g(t, z(t), 0) +O(ε)] = εf0(z(t)) + ε2R∗, com R∗ = ∂f ∂z (t, z(t))µ1(t, z(t))− − ∂µ1 ∂z (t, z(t))f0(z(t)) + g(t, z(t), 0) +O(ε). ∴ dz dt (t) = εf0(z(t)) + ε2R∗. (2.9) Notemos que R∗ é de classe C1 na variável z. Ressaltamos também que R∗ é T -periódica na variável t. De fato, por hipótese g e f são T -periódicas em t e isso nos leva à ∂f ∂z e f0 também T -periódicas na variável t. Agora só falta mostrar que µ1(t, z) é T -periódica e com isso também teremos ∂µ1 ∂z (t, z(t)) T -periódica, assim: µ1(t+ T, z) = ∫ t+T t0 (f(s, z)− f0(z))ds = ∫ t t0 (f(s, z)− f0(z))ds+ ∫ t+T t (f(s, z)− f0(z))ds = = ∫ t t0 (f(s, z)− f0(z))ds+ (∫ T 0 f(s, z)ds− ∫ T 0 f0(z)ds ) = = ∫ t t0 (f(s, z)− f0(z))ds+ (T · f0(z)− T · f0(z)) = µ1(t, z). Portanto uma solução T -periódica z(t) do sistema (2.9) nos dá uma solução T - periódica x(t) do sistema original (2.3), afinal x(t) = z(t) + εµ1(t, z(t)) e vimos que µ1(t, z) é T -periódica. Conclúımos então que basta procurar soluções T -periódicas do sistema (2.9). Integrando o sistema (2.9) na variável t de t0 a t temos: z(t) = z(t0) + ε ∫ t t0 f0(z(s))ds+ ε2 ∫ t t0 R∗ds. (2.10) Para uma solução T -periódica z(t) têm-se z(t + T ) = z(t), para todo t ≥ t0, com isso, z(t0) = 34 z(t0 + T ) e pela equação (2.10) segue que: z(t0) = z(t0 + T )⇔ z(t0) = z(t0) + ε ∫ t0+T t0 f0(z(s))ds+ ε2 ∫ t0+T t0 R∗ds⇔ ⇔ 0 = ε ∫ t0+T t0 f0(z(s))ds+ ε2 ∫ t0+T t0 R∗ds⇔ ⇔ 0 = ε (∫ t0+T t0 f0(z(s))ds+ ε ∫ t0+T t0 R∗ds ) ⇔ 0 = ∫ t0+T t0 f0(z(s))ds+ ε ∫ t0+T t0 R∗ds = h(z(t0), ε). Note que o caso ε = 0 não nos interessa, pois assim não teŕıamos perturbação. Agora definimos em D × [0, ε0] a função h dada por h(z, ε) = ∫ t0+T t0 f0(z)ds + ε ∫ t0+T t0 R∗ds, ou seja, h(z, 0) = ∫ t0+T t0 f0(z)ds. Por hipótese, temos p um ponto de equiĺıbrio do sistema (2.4), ou seja, f0(p) = 0 de tal forma que det (Jyf0(p)) 6= 0, logo temos h(p, 0) = 0. Então:∣∣∣∣∂h∂z (z, ε)|z=p,ε=0 ∣∣∣∣ = ∣∣∣∣∫ t0+T t0 ∂f0 ∂z (z)ds+ ε ∫ t0+T t0 ∂R∗ ∂z ds|z=p,ε=0 ∣∣∣∣ = = ∣∣∣∣∫ t0+T t0 ∂f0 ∂z (z)ds|z=p ∣∣∣∣ = ∣∣∣∣∫ t0+T t0 ∂f0 ∂z (p)ds ∣∣∣∣ = ∣∣∣∣∂f0∂z (p) ∫ t0+T t0 ds ∣∣∣∣ = = ∣∣∣∣∂f0∂z (p) · T ∣∣∣∣ = T n · ∣∣∣∣∂f0∂z (p) ∣∣∣∣ 6= 0. Portanto ∣∣∣∣∂h∂z (p, 0) ∣∣∣∣ 6= 0 e assim pelo Teorema da Aplicação Impĺıcita segue que existe uma vizinhança V0 de ε = 0 tal que cada ε ∈ V0 corresponde um único z ∈ D, ou seja, existe uma aplicação ς que a cada ε ∈ V0 associa um único z ∈ D e satisfaz ς(0) = p e h(ς(ε), ε) = 0. Logo para cada ε ∈ V0 z(t) = ς(ε) + ε ∫ t t0 f0(z(s))ds+ ε2 ∫ t t0 R∗ds, é uma solução T -periódica de (2.9). Pela transformação quase-identidade temos uma solução T -periódica do sistema original, como já foi comentado anteriormente. Considerando a condição inicial z(t0) = p então por (2.10), quando ε→ 0 segue que z(t)→ z(t0) = p. Desta forma, tendo z(t) uma solução T -periódica de (2.9), existe uma solução x(t) de (2.3) T - periódica, mais ainda pela relação quase-identidade verifica-se que quando ε→ 0 temos x(t)→ p. 35 Caṕıtulo 3 Teoria dos sistemas dinâmicos descont́ınuos Nesta seção apresentaremos alguns resultados e definições acerca de sistemas descont́ınuos, não suaves ou de Filippov. A nossa principal preocupação é modelar matematicamente e assim termos um conhecimento topológico e geométrico desses sistemas. 3.1 Sistemas descont́ınuos Vamos trabalhar com campos de vetores não suaves ou descont́ınuos em Rn+1 tendo como seu conjunto de descontinuidade uma subvariedade M de codimensão um, isto é, possui uma dimensão a menos que o espaço onde está contido, logo M possui dimensão n. O conceito de estabilidade estrutural do espaço de campos de vetores não suaves baseia-se na sguinte definição: Definição 3.1.1. Dois campos de vetores Z e Ẑ descont́ınuos são C0-equivalentes se existir um homeomorfismo ϕ : Rn+1 → Rn+1, que leva órbitas de Z em órbitas de Ẑ e leva o conjunto de descontinuidade, M , de Z no conjunto de descontinuidade, M̂ , de Ẑ, isto é, ϕ(M) = M̂ Definição 3.1.2. Dois campos de vetores Z e Ẑ sobre Rn com Z(0) = Ẑ(0) são germes equivalentes se eles coincidem em alguma vizinhança da origem. As classes de equivalências para esta que é uma relação de equivalência são chamadas de germes 36 de campos de vetores. Da mesma maneira como definido acima, podemos definir germes de funções. Para simplificar, vamos considerar a notação de germe e com isso não vamos distinguir um germe de uma função e qualquer um de seus representantes. Por exemplo, a notação h : Rn, 0 → R significa que h é um germe de uma função definida em uma vizinhança da origem em Rn. Consideremos M = h−1(0), no qual h é um germe de função suave h : Rn+1, 0→ R tendo 0 ∈ R como seu valor regular, desta forma M = h−1(0) trata-se de uma hiperf́ıcie e consequentemente uma variedade. Consideramos no espaço dos campos de vetores a topologia Cr, na qual dois campos de vetores Z1 e Z2 estarão próximos se os campos e suas derivadas até ordem r estiverem próximos em uma vizinhança da origem. Definimos χ(n + 1) como o espaço de todos os germes de campos de vetores de classe Cr em torno da origem no Rn+1 dotados com a topologia Cr, sendo r > 1 suficientemente grande conforme precisarmos. Seja h : Rn+1, 0 → R um germe de função suave tendo 0 ∈ R como seu valor regular. Vamos definir Ω(n+ 1) como o espaço de todos os germes de campos de vetores Z em Rn+1, 0 tal que: q′ = Z(q) =  X(q), para h(q) > 0; Y (q), para h(q) < 0. (3.1) Observação 3.1.1. O campo de vetores descrito acima é denotado por Z = (X, Y ) e com isso estamos considerando Ω(n+ 1) = χ(n+ 1)× χ(n+ 1) com a topologia produto. Podemos ver um exemplo de um retrato de fase de um campo descont́ınuo em R2 na Figura 3.1. Definição 3.1.3. Dizemos que Z ∈ Ω(n + 1) é estruturalmente estável se existe uma vizinhança U de Z em Ω(n+ 1) tal que todo Ẑ ∈ U é C0-equivalente com relação a Z. Para definir as órbitas soluções de Z sobre a variedade de descontinuidade M , vamos tomar um método prático. Em um conjunto aberto O bem caracterizado de M , que será descrito abaixo, a solução de Z através de um ponto p ∈ O obedece as regras de Filippov e em M \ O aceitamos que as soluções sejam multivaluadas. Como estamos interessados em estudar a estabilidade estrutural em Ω(n + 1) é conveniente levarmos em consideração todas as folheações no Rn+1 gerado pelas órbitas de Z e também de X 37 Figura 3.1: Exemplo de um retrato de fase de um campo descont́ınuo em R2. e Y que passam através de p em M . As trajetórias de Z são as soluções do sistema diferencial autônomo q′ = Z(q). Exemplo 3.1.1. Vamos ilustrar nossa terminologia apresentando um modelo simplificado que é encontrado na teoria do eletromagnetismo clássico. x′′ − x′′′ + αsgn(x) = 0, com α > 0⇒  x′′ − x′′′ + α = 0, x > 0 x′′ − x′′′ − α = 0, x < 0 , onde sgn(x) é a função sinal de x, isto é, sgn(x) =  1, se x > 0 0, se x = 0 −1, se x < 0 . Desta forma, temos que x′′′ = x′′ + αsgn(x). Consideremos x′ = y e y′ = z e com isso segue que z′ = y′′ = x′′′ = x′′ + αsgn(x) = y′ + αsgn(x) = z + αsgn(x). Seja h(x, y, z) = x, observe que 5h(x, y, z) = (1, 0, 0) 6= (0, 0, 0) para todo (x, y, z) ∈ R3, assim h−1(0) é uma hiperf́ıcie. Logo ficamos com o seguinte sistema: X(x, y, z) = (x′, y′, z′) = (y, z, z + α), h(x, y, z) = x > 0 Y (x, y, z) = (x′, y′, z′) = (y, z, z − α), h(x, y, z) = x < 0 . Definição 3.1.4. Para cada X ∈ χ(n + 1) e h : Rn+1, 0 → R um germe de função suave tendo 0 ∈ R como seu valor regular, definimos as função suaves: (i) Xh : Rn+1 → R dada por Xh = X · 5h, no qual · é o produto interno canônico em Rn+1, isto é Xh(p) = X(p) · 5h(p); 38 (ii) X2h : Rn+1 → R dada por X2h = X ·5Xh, no qual · é o produto interno canônico em Rn+1, isto é, X2h(p) = X(p) · 5Xh(p); (iii) Xnh : Rn+1 → R dada por Xnh = X · 5Xn−1h, no qual · é o produto interno canônico em Rn+1, isto é, Xnh(p) = X(p) · 5Xn−1h(p) e n ≥ 3. Observação 3.1.2. Se θ é o ângulo entre os vetores X(p) e 5h(p), então cosθ = X(p) · 5h(p) ‖X(p)‖‖ 5 h(p)‖ = Xh(p) ‖X(p)‖‖ 5 h(p)‖ , segue que a função Xh nos mostra se o campo de vetores X : (i) aponta na mesma direção do vetor gradiente5h, com relação ao plano tangente TpM (quando Xh(p) > 0, isto é, o ângulo entre os vetores X(p) e 5h(p) é agudo), (ii) aponta na direção oposta do vetor gradiente, com relação ao plano tangente TpM (quando Xh(p) < 0, isto é, o ângulo entre os vetores X(p) e 5h(p) é obtuso), (iii) é tangente à h−1(0) = M (quando Xh(p) = 0, isto é, o ângulo entre os vetores X(p) e 5h(p) é reto ). Definição 3.1.5. Para cada Z ∈ Ω(n+ 1), podemos distinguir as seguintes regiões no conjunto de descontinuidade M = h−1(0): (i) Mc é a região de costura que é dada pelos ponto p ∈M tais que (Xh(p))(Y h(p)) > 0; (ii) Me é a região de escape que é dada pelos ponto p ∈M tais que Xh(p) > 0 e Y h(p) < 0; (iii) Md é a região de deslize que dada pelos ponto p ∈M tais que Xh(p) < 0 e Y h(p) > 0. Mais ainda, denotamos O = Mc ∪Me ∪Md. Consideremos Z = (X, Y ) ∈ Ω(n+1) um sistema descont́ınuo onde a região de descontinuidade M = h−1(0), com h : Rn+1, 0→ R um germe de função tendo 0 ∈ R um valor regular. Denotamos as regiões M+ = {q ∈ Rn+1 ; h(q) > 0} e M− = {q ∈ Rn+1 ; h(q) < 0}. Definição 3.1.6. Dizemos que qualquer caminho γ(t) satisfazendo (3.1) inteiramente contido numa das regiões M+, M− ou em M é um segmento de órbita. Uma órbita é qualquer cami- nho γ(t) satisfazendo (3.1), formada pela concatenação de segmentos de órbita, isto é, pela união de segmentos de órbita. 39 Figura 3.2: Exemplo de região de costura em R2. Figura 3.3: Exemplo de região de escape em R2. Figura 3.4: Exemplo de região de deslize em R2. Definição 3.1.7. Definimos o fluxo de (3.1) junto a um ponto p ∈ Rn+1 em um tempo t como sendo todos os pontos γp(t+ τ) com γp(τ) = p, para algum τ ∈ R, γ(t) satisfazendo (3.1). Desconsiderando o conjunto de descontinuidade, as órbitas de (3.1) são dadas pelas órbitas de X e Y em M+,M−, respectivamente. Agora vamos especificar como a dinâmica de um sistema descont́ınuo evolui “dentro”do seu conjunto de descontinuidade e isto depende de como a dinâmica dos campos X e Y se comportam 40 próximas à variedade ou hiperf́ıcie. Com isso, seja p ∈ M . Se p ∈ Mc então o fluxo do nosso sistema descont́ınuo cruza transversalmente a variedade e, neste caso, podemos, sem perda de generalidade, fixar a variedade M como pertencente a uma única região, por exemplo M+, e desta forma aplicamos o campo X em p. Caso p ∈ Me ou p ∈ Md o fluxo torna-se confinado a hiperf́ıcie após o contato com a mesma, ou seja, ele continua sua trajetória na hiperf́ıcie. Neste caso, existem dois métodos que podemos utilizar para descrever o comportamento do sistema “dentro”da hiperf́ıcie, o Método de Controle de Utkin e o Método Convexo de Filippov. No Método de Controle de Utkin o sistema evolui segundo o campo de vetores deslizantes Zd, que é a média aritmética dos dois campos X na região M+ e Y na região M− somando um controle β(x) ∈ [−1, 1] na direção da diferença entre os campos de vetores, então: Zd = X + Y 2 + Y −X 2 β(x), onde β(x) = −Xh+ Y h Y h−Xh . (3.2) Observemos que as soluções de (3.1) englobam todas as soluções da equação diferencial: x′ = Y + λ(X − Y ), λ =  1, h(x) > 0 0, h(x) < 0 e λ ∈ (0, 1) se h(x) = 0. (3.3) No Método Convexo de Filippov ou simplesmente Método de Filippov, toma-se uma combinação convexa simples dos dois campos de vetores, então: Zd = (1− α)X + αY, com 0 < α < 1 e α(x) = Xh 5h · (X − Y ) . (3.4) Neste caso, (3.4) é chamada de campo de Filippov. Figura 3.5: Campo de Filippov. Observação 3.1.3. Os Métodos de Utkin e de Filippov descritos em (3.2) e (3.4) respectivamente, são algebricamente equivalentes quando consideramos β = 2α− 1. 41 De fato, 2α− 1 = 2Xh 5h · (X − Y ) − 1 = Xh+ Y h −(Y h−Xh) = −Xh+ Y h Y h−Xh = β; Zd = X + Y 2 + Y −X 2 β = X + Y 2 + Y −X 2 (2α− 1) = X + α(Y −X) = (1− α)X + αY. Observação 3.1.4. Nos Métodos de Utkin e de Filippov descritos em (3.2) e (3.4) respectivamente, temos que o campo de vetores Zd é ortogonal a 5h e com isso é tangente a hiperf́ıcie M . De fato, para o Método de Filippov temos: 〈5h, Zd〉 = 〈5h, (1− α)X + αY 〉 = (1− α)〈5h,X〉+ α〈5h, Y 〉 = = 〈5h,X〉 − α(〈5h,X〉 − 〈5h, Y 〉) = 〈5h,X〉 − α〈5h,X − Y 〉 = = 〈5h,X〉 − 〈5h,X〉〈5h,X − Y 〉 〈5h,X − Y 〉 = = 〈5h,X〉 − 〈5h,X〉 = 0 , uma vez que α = 〈5h,X〉 〈5h,X − Y 〉 . Como os dois métodos são algebricamente equivalentes o mesmo vale para o Método de Utkin. No caso em que p ∈ Md, seguindo a convenção de Filippov, a solução γp(t) de Z através de p segue para t > 0 a órbita de um campo de vetores tangente a M = h−1(0). Este campo é chamado de campo de vetores deslizante associado a Z e ele será definido abaixo. Definição 3.1.8. O campo de vetores deslizante associado a Z = (X, Y ) é o campo de vetores suave Zd tangente à M e definido em q ∈ Md por Zd(q) = m − q, no qual m é a interseção do segmento tangente à M em q e o segmento que liga q +X(q) e q + Y (q). A expressão expĺıcita de Zd é dada por (3.4). Definição 3.1.9. O campo de vetores de escape associado a Z = (X, Y ) é definido por Ze = −(−Z)d, pois se q ∈Me para Z então q ∈Md para −Z. Definição 3.1.10. Se p ∈ Me ∪ Md e temos 〈5h,X − Y 〉 = 0 dizemos que p é um ponto de equiĺıbrio deslizante. Observação 3.1.5. Usaremos a notação ZM para os dois casos, ou seja, para o caso do campo de vetores deslizante e o caso do campo de vetores de escape. Chamamos de pontos de fronteira, os pontos onde ocorre mudanças de regiões na variedade M , por exemplo, mudança de região de deslize para região de costura e depois para região de deslize novamente. 42 Figura 3.6: Mudança de regiões. Observação 3.1.6. Consideremos p ∈Md ∪Me de tal forma que X(p) e Y (p) sejam linearmente dependentes, logo Y (p) = aX(p), para a ∈ R e a 6= 1. Pelo Método de Filippov temos: α(p) = Xh 5h · (X − Y ) = Xh 5h ·X −5h · Y = Xh 5h ·X −5h · aX = = Xh 5h ·X(1− a) = Xh Xh(1− a) = 1 1− a . Então: ZM = (1− α)X + αY = ( 1− 1 1− a ) X + ( 1 1− a ) aX = ( 1− a− 1 + a 1− a ) X = 0. Quando a = 1, p é um ponto de equiĺıbrio deslizante. Definição 3.1.11. Seja p ∈Me∪Md. Quando os vetores X(p) e Y (p) são linearmente dependentes de tal forma que Y (p) 6= X(p), teremos ZM(p) = 0 e dizemos, neste caso, que p é um ponto de equiĺıbrio simples de Z. As outras singularidades de Z estão concentradas fora do conjunto O. Exemplo 3.1.2. Seja Z = (X, Y ) ∈ Ω(3) com h(x, y, z) = z, X = (1, 0, x) e Y = (0, 1, y). Temos 5h(x, y, z) = (0, 0, 1) 6= (0, 0, 0), Xh = x e Y h = y. Desta forma o sistema determina na hiperf́ıcie M = h−1(0) em torno da orgiem quatro quadrantes delimitados por τX = {(x, y, z) ∈ R3 ; x = 0} e τY = {(x, y, z) ∈ R3 ; y = 0}. Os quadrantes são: (i) Q+ c = {(x, y, z) ∈ R3 ; x > 0, y > 0, z = 0} (região de costura, pois h(x, y, z) = 0 e (Xh)(Y h) = xy > 0); 43 (ii) Q−c = {(x, y, z) ∈ R3 ; x < 0, y < 0, z = 0} (região de costura, pois h(x, y, z) = 0 e (Xh)(Y h) = xy > 0); (iii) Qd = {(x, y, z) ∈ R3 ; x < 0, y > 0, z = 0} (região de deslize, pois h(x, y, z) = 0 e Xh = x < 0 e Y h = y > 0); (iv) Qe = {(x, y, z) ∈ R3 ; x > 0, y < 0, z = 0} (região de escape, pois h(x, y, z) = 0 eXh = x > 0 e Y h = y < 0). Observemos que Mc = Q+ c ∪ Q−c . Agora vamos definir o campo de vetores deslizante em Qd usando o Método de Filippov. Zd(x, y, z) = ( 1− Xh 5h · (X − Y ) ) X + ( Xh 5h · (X − Y ) ) Y = = ( 1− x x− y ) (1, 0, x) + ( x x− y ) (0, 1, y) = = ( 1 x− y ) (−y, x, 0) = ( 1 y − x ) (y,−x, 0). Agora vamos definir o campo de vetores deslizantes em Qd usando o Método de Utkin. Zd(x, y, z) = X + Y 2 + Y −X 2 ( −Xh+ Y h Y h−Xh ) = = 1 2 (1, 1, x+ y) + 1 2 (−1, 1, y − x) ( −x− y y − x ) = = ( 1 2(y − x) ) (2y,−2x, 0) = ( 1 y − x ) (y,−x, 0). Em nossa terminologia vale ressaltar que G(x, y, z) = (y,−x, 0) é um sistema equivalente ao sistema original em Qd, mais ainda consideramos G uma extensão suave de Zd, que é definida em toda vizinhança da origem. Observação 3.1.7. Vale ressaltar que o fluxo através de um ponto p na região de deslize ou de escape não é único. Definidas as órbitas de (3.1), vamos definir os pontos de equilíıbrio de tal sistema. Naturalmente o sistema (3.1) herda os pontos de equiĺıbrio dos campos X e Y , porém existem outros pontos de equiĺıbrio e todos esses podem ser classificados de acordo com a região na qual se encontram. Definição 3.1.12. Dado o sistema (3.1) com M = h−1(0) uma hiperf́ıcie e p ∈ Rn+1, dizemos que: 44 (i) p é ponto de equiĺıbrio real se X(p) = 0 com p ∈M+ ou Y (p) = 0 com p ∈M−; (ii) p é ponto de equiĺıbrio virtual se X(p) = 0 com p ∈M− ou Y (p) = 0 com p ∈M+; (iii) p é pseudo-equiĺıbrio real se p ∈ Md com Zd(p) = 0 ou p ∈ Me com Ze(p) = 0, Xh(p) 6= 0, Y h(p) 6= 0 e 0 < α(p) < 1, onde α é o parâmetro que aparece na definição do campo deslizante de Filippov; (iv) p é pseudo-equiĺıbrio virtual se p ∈ Md com Zd(p) = 0 ou p ∈ Me com Ze(p) = 0, Xh(p) 6= 0, Y h(p) 6= 0 e α(p) < 0 ou α(p) > 1, onde α é o parâmetro que aparece na definição do campo deslizante de Filippov; (v) p é ponto de equiĺıbrio de fronteira se p ∈M com X(p) = 0 ou Y (p) = 0; (vi) p é ponto de equiĺıbrio hiperbólico de X (Y ) se todos os autovalores da matriz Jacobiana de X em p (de Y em p), JX(p) (JY (p)) têm parte real não nula; (vii) p é ponto de equiĺıbrio não hiperbólico de X (Y ) quando algum autovalor da matriz Jacobiana de X em p (de Y em p),JX(p) (JY (p)) tiver parte real nula. Definição 3.1.13. Seja o sistema (3.1) com M = h−1(0) uma hiperf́ıcie. Se p ∈M e Xh(p) = 0 ou Y h(p) = 0 então dizemos que p é um ponto de tangência para o campo X ou Y , respectivamente. Tal ponto é dito ponto de tangência viśıvel ou inviśıvel de X se a órbita que começa em p permanece em M+ ou M−, respectivamente. Tal ponto é dito ponto de tangência viśıvel ou inviśıvel de Y se a órbita que começa em p permanece em M− ou M+ respectivamente Analiticamente: (i) p é tangência viśıvel de X se Xh(p) = 0 e X2h(p) > 0; (ii) p é tangência inviśıvel de X se Xh(p) = 0 e X2h(p) < 0; (iii) p é tangência viśıvel de Y se Y h(p) = 0 e Y 2h(p) < 0; (iv) p é tangência inviśıvel de Y se Y h(p) = 0 e Y 2h(p) > 0. Definição 3.1.14. Dadas as condições na Definição 3.1.13 existem classificações para o contato da órbita do campo X ou Y no ponto de tangência p ∈M : (i) Contato quadrático em X se Xh(p) = 0 e X2h(p) 6= 0; 45 Figura 3.7: (1) Ponto de tangência viśıvel de Y ; (2) ponto de tangência inviśıvel de Y . (ii) Contato quadrático em Y se Y h(p) = 0 e Y 2h(p) 6= 0. Observação 3.1.8. Os pontos de fronteira mencionados na Observação 3.1.5 são essencialmente pontos de tangência ou equiĺıbrio de fronteira, visto que são dados pelos pontos p ∈ M tais que Xh(p)Y h(p) = 0, afinal para acontecer mudança de regiões em M devemos ter mudança de sinal da função Xh ou Y h e isso acontece quando uma delas é zero. Observação 3.1.9. Observemos que p ∈M é um ponto de equiĺıbrio deslizante quando: (i) ou é ponto de tangência para ambos os campos X e Y ; (ii) ou é ponto de tangência para um dos campos e equiĺıbrio para o outro; (iii) ou é ponto de equiĺıbrio de ambos os campos; (iv) ou quando X(p)− Y (p) é ortogonal ao gradiente de h. Proposição 3.1.1. Um ponto p ∈M é pseudo-equiĺıbrio real de (3.1) se, e somente se, os campos X e Y são transversais a M , isto é, não são tangentes a M e são não-colineares em p (os vetores tem mesma direção mas sentido contrário), isto é, Xh(p) 6= 0, Y h(p) 6= 0 e existe 1 > α > 0 real tal que (1− α)X(p) + αY (p) = 0. Demonstração. Suponhamos p ∈ Md um pseudo-equiĺıbrio real de (3.1), então Xh(p) 6=, Y h(p) 6= 0 e (1 − α)X(p) + αY (p) = Zd(p) = 0, 0 < α < 1. Logo (1− α) > 0. Desta forma (1− α)X(p) + αY (p) = 0 donde segue X(p) = − α (1− α) Y (p). Assim, temos os vetores X(p) e Y (p) com mesma direção e com sentidos opostos, pois como vimos (1− α), α > 0 e com isso − α (1− α) < 0. 46 Logo os vetores X(p) e Y (p) são não-colineares em p e são transversais a M , pois Xh(p) 6= 0 e Y h(p) 6= 0. Suponhamos agora que os campos X e Y são não-colineares e transversais a M em p ∈M então Xh(p) 6= 0, Y h(p) 6= 0 e pela condição de não colinearidade dos campos X e Y em p obtemos: X(p) = − α 1− α Y (p)⇒ 〈5h(p), X(p)〉 = 〈 5h(p),− ( α 1− α ) Y (p) 〉 ⇒ ⇒ 〈5h(p), X(p)〉 = − ( α 1− α ) 〈5h(p), Y (p)〉 ⇒ Xh(p) = − ( α 1− α ) Y h(p). Assim Zd(p) = (1− α)X(p) + αY (p) = (1− α) ( − α 1− α ) Y (p) + αY (p) = 0. Temos Xh(p)Y h(p) = ( − α 1− α ) (Y h(p))2 < 0, afinal (1− α), α > 0 e com isso − α 1− α < 0 e também Y h(p) 6= 0. Logo Xh(p) e Y h(p) possuem sinais oposto, então p ∈Md e como Zd(p) = 0 e 0 < α < 1 temos p um pseudo-equiĺıbrio real. Observação 3.1.10. Observemos que dois vetores u e v são colineares se tiverem a mesma direção e sentido, ou analiticamente u e v são colineares se existe λ > 0 real, tal que u = λv. Para os pontos x ∈ Rn próximos da variedade M temos que se a órbita x(t) partindo de tal ponto não permanece na região em que está, então ela obrigatoriamente atinge M em um tempo t1 ∈ R+. Dependendo da região que esta órbita atinge M temos as seguintes possibilidades: (1) se x(t1) ∈Mc então x(t) cruzará M em x(t1), veja a Figura (3.8) (a); (2) se x(t1) ∈ Md então usamos o campo deslizante para determinar o comportamento dessa órbita e com isso: (2(i)) se x(t1) é um pseudo-equiĺıbrio então x(t) = x(t1) para t ≥ t1, veja a Figura (3.8) (b); (2(ii)) se x(t1) é um ponto regular de Zd, isto é, Zd(x(t1)) 6= 0 temos que x(t), para t > t1, permanece em Md infinitamente quando tende para pseudo-equiĺıbrio, ou pode terminar na fronteira de Md. De outra maneira, se x(t), t > t1, tende para um equiĺıbrio de fronteira x(t2), t2 ∈ R+ e t2 > t1, temos que x(t) = x(t2) para t ≥ t2, veja a Figura (3.8) (c); (2(iii)) se x(t) termina em um ponto de tangência segue que x(t) sai de M em x(t2), no qual t1 é o tempo em que a órbita x(t) atinge a fronteira da região de deslize, com x(t) ∈ M+ ou x(t) ∈M− para t > t1, veja Figura (3.8) (d). 47 Figura 3.8: Órbitas próximas a variedade M . (a) x(t1) ∈ Mc; (b) x(t1) é pseudo-equiĺıbrio; (c) x(t2) é equiĺıbrio de fronteira e (d) x(t2) é ponto de tangência. Logo, analogamente como ocorre em sistemas dinâmicos suaves, o retrato de fase de (3.1) é formado pela união de todas as suas órbitas. 3.2 Sistemas descont́ınuos com variedade de descontinuidade não-regular Faremos agora, uma observação para os casos, no R2, em que temos variedades não-regulares. Observação 3.2.1. Até aqui assumimos 0 como sendo um valor regular da função suave h e assim temos M = h−1(0) uma variedade regular. Nos exemplos considerados a partir de agora, no R2, teremos a origem tal que 5h(0, 0) = 0. Nestes casos, assumimos: (H1): o conjunto de pontos não regulares em M = h−1(0) é limitado. Em outras palavras, para N = {(x, y) ∈M : 5h(x, y) = (0, 0)}, podemos encontrar δ > 0 tal que N ⊂ Bδ(0, 0) e Bδ(0, 0) ⊂ R2 é uma bola aberta com raio δ e centro (0, 0). 48 Consideramos uma mudança de variável conveniente nos exemplos tal que o conjunto de des- continuidade nas novas variáveis é uma variedade regular. Para isto definimos a função Ψδ : S1 × R+ → R2 tal que Ψδ(θ, r) = (r + δ)(cos(θ), sen(θ)), (3.5) onde δ > 0 é escolhido como em (H1). Esta função é um difeomorfismo sobre sua imagem, mais ainda Bδ(0, 0) ∩Ψδ(S1 × R+) = ∅. Consideramos D ⊂ R2 um conjunto aberto, onde nosso sistema esteja definido. Seja ρ̂ > 0 um número real tal que Ψδ(S1 × (0, ρ̂)) ⊂ D e denotamos D̂ = S1 × (0, ρ̂). Para simplificar, dada uma função H : Ψδ(D̂)→ R e δ > 0 denotamos δ∗H(θ, r) = H ◦Ψδ(θ, r). Exemplo 3.2.1. Para ilustrar a Hipótese (H1) e a mudança de variáveis dada na Observação 3.2.1, vamos considerar a função h : R2 → R tal que h(x, y) = (x2 − 1)(y2 − 1). O conjunto M = h−1(0) é representado pela união das retas x = 1, x = −1, y = 1 e y = −1. Observe que M não é uma variedade regular, pois possui auto interseção nos pontos dados em N = {(1, 1), (−1, 1), (1,−1), (−1,−1)} , isto é, 5h(1, 1) = 5h(−1, 1) = 5h(1,−1) = 5h(−1,−1) = 0 e temos N limitado. Escolhendo δ = √ 2 temos N ⊂ Bδ(0, 0) e prosseguindo com a mudança de variáveis dada na Observação 3.2.1 em (3.5) temos δ∗h(θ, r) = h◦Ψδ(θ, r) = h((r+δ)cos(θ), (r+δ)sen(θ)) = ((r+δ)2cos2(θ)−1)((r+δ)2sen2(θ)−1). Assim, o conjunto M̂ = (δ∗h)−1(0) é uma variedade regular em D̂. Este procedimento de encon- trar uma mudança de variáveis conveniente para remover regiões indesejáveis pode ser reproduzido para outros sistemas, mesmo em dimensões maiores. Exemplo 3.2.2. As constantes no seguinte modelo podem ser escolhidas de tal forma que se encaixem no conjunto dos sistemas tratados nesta seção. Consideramos a seguinte equação de segunda ordem: x′′ + ax′ + bx = εαx, (3.6) com a, b constantes arbitrárias, ε um parâmetro real positivo e α ∈ R satisfazendo |α| ≤ 1. Seja Zα o campo de vetores representado por: x′ = y y′ = −bx− ay + εαx , (3.7) donde Zα é a redução de ordem da equação (3.6). 49 Figura 3.9: Variedade não regular M = h−1(0) ⊂ D. Figura 3.10: Variedade regular M̂ = (δ∗h)−1(0) ⊂ D̂. Note o fato de que quando temos ε = 0 e a2−4b < 0 então o sistema Zα é um campo de vetores linear com autovalores complexos, e se a < 0 a solução zero é assintoticamente estável . De fato, se ε = 0 e a2 − 4b < 0 então: x′ = y y′ = −bx− ay ⇔  x′ y′  =  0 1 −b −a  x y  . 50 Claramente temos um campo de vetores linear, cujos autovalores são: det  0 1 −b −a − λ  1 0 0 1  = 0⇔ det  −λ 1 −b −a− λ  = 0⇔ ⇔ − λ(−a− λ) + b = 0⇔ λ2 + aλ+ b = 0⇔ λ = −a± √ a2 − 4b 2 , ou seja, para a2 − 4b < 0, λ1 = −a+ √ (−a2 + 4b) i 2 e λ2 = −a− √ (−a2 + 4b) i 2 . Se a 6= 0 a origem é um foco girando no sentido anti-horário, afinal (−a2 + 4b) 1 2 > 0. Se a > 0 então o foco, sendo atrator, é assintoticamente estável e se a < 0 então o foco é repulsor. Se a = 0 a origem é um centro girando no sentido anti-horário, afinal (−a2 + 4b) 1 2 > 0. Vamos encontrar α tal que a origem seja solução de (3.6) assintoticamente estável. Con- sideramos v = v(x, y) uma função real suave nas variáveis x e y. Tal função pode ser, por exemplo, o potencial de um campo de vetores no plano (x, y). Pela definição de estabilidade segundo Liapounov para (0, 0) ser assintoticamente estável, deve existir uma vizinhança W tal que o potencial v(x, y) > 0 para (x, y) ∈ W\{(0, 0)}, v(0, 0) = 0 e a derivada de v é estritamente negativa ao longo das órbitas de Zα em W\{(0, 0)}. Escolhemos o valor de α que nos fornece a maior taxa de decrescimento da função v ao longo das órbitas do sistema Zα, ou seja, queremos encontrar α que minimiza a derivada de v ao longo das órbitas de Zα. Seja f : R→ R2 tal que f(t) = (x(t), y(t)), onde (x(t), y(t)) é a solução de Zα em t. Desta forma queremos encontrar α que minimiza a derivada de v ◦ f . Logo, derivando v ◦ f em relação à variável t: (v ◦ f)′(t) = v′(f(t))f ′(t) = ( vx(x(t), y(t)) vy(x(t), y(t)) ) dx dt (t) dy dt (t)  = = ( vx(x(t), y(t)) vy(x(t), y(t)) ) y(t) −bx(t)− ay(t) + εαx(t)  = = vx(x, y)y − vy(x, y)(bx+ ay) + vy(x, y)εαx, ou seja, v̇|(x(t),y(t)) = (v ◦ f)′(t) = yvx − (bx+ ay)vy + εαxvy. Uma vez que buscamos α que minimiza v̇|(x(t),y(t)) , observamos os fatos de apenas o último termo depender de α, de ε ser uma constante positiva e de ter |α| ≤ 1. Desta forma, o menor valor de 51 v̇|(x(t),y(t)) será alcançado quando subtrairmos do termo yvx − (bx + ay)vy o maior valor posśıvel. Neste caso, basta tomar α = sgn{−x · vy}. Escolhendo v = v(x, y) = x2 + 2xy + y2 2 , obtemos α = sgn{−x · vy} = sgn{−x(x+ y)}. Logo, o sistema (3.7) torna-se um sistema suave por partes Z = (X, Y ) com: X(x, y) =  x′ = y y′ = −bx− ay + εx , se − x(x+ y) > 0, ou, x(x+ y) < 0, (3.8) e Y (x, y) =  x′ = y y′ = −bx− ay − εx , se − x(x+ y) < 0, ou, x(x+ y) > 0. (3.9) As retas x = 0 e s = x+ y = 0 dividem o plano de fase em quatro zonas: (i) G1 com x > 0 e s = x+ y > 0; (ii) G2 com x < 0 e s = x+ y > 0; (iii) G3 com x < 0 e s = x+ y < 0; (iv) G4 com x > 0 e s = x+ y < 0. Figura 3.11: Regiões. Observando a Figura 3.11, podemos ver onde estão situadas cada uma das quatro regiões e qual campo deve ser considerado em cada uma delas. 52 Mais ainda, as retas x = 0 e s = x+y = 0 são os conjuntos de descontinuidade do nosso sistema. Porém M = h−1(0), onde h(x, y) = x(x+ y) não é uma variedade regular, afinal 5h(0, 0) = (0, 0). Como M só possui um ponto não regular, segue que o conjunto dos pontos não regulares de M é limitado. Escolhendo δ > 0 suficientemente pequeno temos {(0, 0)} ⊂ Bδ(0, 0) e prosseguindo com a mudança de variáveis dada na Observação 3.2.1 em (3.5) temos δ∗h(θ, r) = h ◦Ψδ(θ, r) = h((r + δ)cos(θ), (r + δ)sen(θ)) = (r + δ)2cos(θ)(cos(θ) + sen(θ)). Portanto, o conjunto M̂ = (δ∗h)−1(0) é uma variedade regular em D̂. Em coordenadas carte- sianas a função δ∗h(θ, r) corresponde à função h(x, y) = x2 + xy, com x2 + y2 > δ2. Agora vamos determinar quais os tipos das regiões existentes nas retas x = 0 e y = −x, com x2 + y2 > δ2 e δ > 0 suficientemente pequeno. Tendo 5h(x, y) = (2x+ y, x) segue Xh(x, y) = X(x, y) · 5h(x, y) = (y,−bx− ay + εx) · (2x+ y, x)⇔ ⇔ Xh(x, y) = 2xy + y2 − bx2 − axy + εx2; Y h(x, y) = Y (x, y) · 5h(x, y) = (y,−bx− ay − εx) · (2x+ y, x)⇔ ⇔ Y h(x, y) = 2xy + y2 − bx2 − axy − εx2. (I) Para a reta x = 0 com y2 > δ2, isto é, |y| > δ, temos Xh(x, y) = y2 = Y h(x, y) então Xh(x, y)Y h(x, y) = y4 > 0, pois |y| > δ > 0. Com isso temos apenas região de costura na reta x = 0, com |y| > δ. Fazendo δ → 0 teremos região de costura na reta x = 0, para y 6= 0. (II) Sobre a reta y = −x, com x2 > ( δ√ 2 )2 , isto é, |x| > δ√ 2 , temos Xh(x, y) = − 2x2 + x2 − bx2 + ax2 + εx2 = (−1− b+ a+ ε)x2 ⇔ ⇔ Xh(x, y) = −(1 + b− a− ε)x2; Y h(x, y) = − 2x2 + x2 − bx2 + ax2 − εx2 = (−1− b+ a− ε)x2 ⇔ ⇔ Y h(x, y) = −(1 + b− a+ ε)x2. Como estamos considerando a2 − 4b < 0, logo (a 2 )2 < b e assim podemos concluir que 1 + b− a > 1 + (a 2 )2 − a = (a 2 − 1 )2 ≥ 0. Portanto, 1 + b− a > 0 e teremos: • região de costura: Xh(x, y)Y h(x, y) > 0⇔ (1 + b− a− ε)(1 + b− a+ ε)x4 > 0⇔ ⇔ ((1 + b− a)2 − ε2)x4 > 0⇔ (1 + b− a)2 − ε2 > 0⇔ (1 + b− a)2 > ε2. 53 Como 1 + b − a > 0 teremos região de costura na reta y = −x com |x| > δ√ 2 se, e somente se, 1 + b − a > ε. Fazendo δ → 0 teremos região de costura na reta y = −x com x 6= 0 se, e somente se, 1 + b− a > ε. • região de deslize: Xh(x, y) < 0 e Y h(x, y) > 0⇔ −(1 + b− a− ε)x2 < 0 e − (1 + b− a+ ε)x2 > 0⇔ ⇔ 1 + b− a− ε > 0 e 1 + b− a+ ε < 0⇔ 1 + b− a > ε e 1 + b− a < −ε. Como 1 + b − a > 0, 1 + b − a > ε e 1 + b − a < −ε segue que não teremos região de deslize na reta y = −x, com |x| > δ√ 2 . Fazendo δ → 0 não teremos região de deslize na reta y = −x com x 6= 0. • região de escape: Xh(x, y) > 0 e Y h(x, y) < 0⇔ −(1 + b− a− ε)x2 > 0 e − (1 + b− a+ ε)x2 < 0⇔ ⇔ 1 + b− a− ε < 0 e 1 + b− a+ ε > 0⇔ 1 + b− a < ε e 1 + b− a > −ε. Como 1 + b − a > 0, 1 + b − a < ε e 1 + b − a > −ε teremos região de escape na reta y = −x, com |x| > δ√ 2 se, e somente se, 0 < 1 + b − a < ε. Fazendo δ → 0 teremos região de escape na reta y = −x com x 6= 0 se, e somente se, 0 < 1 + b− a < ε. É sempre posśıvel escolher ε suficientemente pequeno de tal maneira que teremos sempre 1 + b−a > ε, com 0 < ε < 4b− a2 4 nos fornecendo apenas região de costura sobre a reta s = x+y = 0, para x 6= 0. Vamos agora investigar o sistema (3.7) em cada uma das regiões Gi, i = 1, 2, 3, 4. Nas regiões G1 e G3 temos α = −1, assim nestas regiões devemos considerar o sistema (3.9). Consequentemente, estamos considerando a equação x′′+ax′+(b+ε)x = 0, a qual possui λ2+aλ+ (b+ε) = 0 como equação caracteŕıstica. Resolvendo a equação temos4λ = a2−4b−4ε < 0−4ε < 0, nos dando ráızes complexas e se, a 6= 0 a origem é um ponto de equiĺıbrio do tipo foco. Se a > 0 teremos a origem um foco atrator, logo neste caso a origem seria um ponto de equiĺıbrio assintoticamente estável. Se a < 0 teremos a origem um foco repulsor, logo neste caso a origem não seria um ponto de equiĺıbrio assintoticamente estável. Nas regiões G2 e G4 temos α = 1, assim nestas regiões devemos considerar o sistema (3.8). Consequentemente estamos considerando a equação x′′ + ax′ + (b − ε)x = 0, a qual possui µ2 + aµ + (b− ε) = 0 como equação caracteŕıstica. Resolvendo a equação temos 4µ = a2 − 4b + 4ε < 54 a2− 4b+ 4b− a2 = 0, nos dando ráızes complexas e, se a 6= 0 a origem é um ponto de equiĺıbrio do tipo foco. Se a > 0 teremos a origem um foco atrator, logo neste caso a origem seria um ponto de equiĺıbrio assintoticamente estável. Se a < 0 teremos a origem um foco repulsor, logo neste caso a origem não seria um ponto de equiĺıbrio assintoticamente estável. Os pontos das retas x = 0 e s = x+ y = 0 tirando a origem são todos de costura, considerando a > 0 e a parte imaginária dos autovalores também positivas então o retrato de fase do sistema (3.7) pode ser visto na Figura 3.11. Figura 3.12: Retrato de fase do sistema (3.7) quando 1 + b− a > ε. Vale ressaltar que no caso em que tomamos ε suficientemente grande tal que 0 < 1 + b− a < ε não teremos estabilidade assintótica da solução zero. 3.3 Campos de vetores próximos à fronteira Nesta seção discutiremos o comportamento dos campos de vetores suaves em Rn+1 relacionados a uma variedade de codimensão um (digamos M = h−1(0) na qual foi definida mais acima). A principal vantagem dessa configuração é que o contato genérico entre um campo de vetores suave e M muitas vezes pode ser facilmente reconhecida. Como uma aplicação, as singularidades t́ıpicas de um sistema descont́ınuo podem ser classificadas de uma forma bem simples. 55 Definição 3.3.1. Dizemos que X, Y ∈ χ(n+ 1) são M-equivalentes se existe um homeomorfismo ψ : Rn+1, 0→ Rn+1, 0 que preserva M e leva órbitas de X em órbitas de Y . Desta forma temos o conceito de estabilidade M-estrutural em χ(n+ 1). Definição 3.3.2. Seja X ∈ χ(n + 1) e M = h−1(0) uma variedade , onde h : Rn+1 → R e 0 é um valor regular de h. Dizemos que um ponto p ∈ Rn+1 é um ponto de equiĺıbrio do tipo dobra se Xh(p) = 0 e X2h(p) 6= 0. Figura 3.13: Exemplos de pontos de equiĺıbrio do tipo dobra viśıvel em p e inviśıvel em q. Definição 3.3.3. Sejam X, Y ∈ χ(n + 1) e M = h−1(0) uma variedade, onde h : Rn+1 → R e 0 é um valor regular de h. Dizemos que um ponto p ∈ Rn+1 é um ponto de equiĺıbrio do tipo dobra dobra se ele é do tipo dobra para ambos os campos simultaneamente. Definição 3.3.4. Seja X ∈ χ(n + 1) e M = h−1(0) uma variedade, onde h : Rn+1 → R e 0 é um valor regular de h. Dizemos que um ponto p ∈ Rn+1 é um ponto de equiĺıbrio do tipo cúspide se Xh(p) = X2h(p) = 0 e Xh3(p) 6= 0 e {Dh(p), DXh(p), DX2h(p)} é linearmente independente. Neste caso, dizemos que temos contato cúbico em p. Definimos Γ0 como sendo o conjunto de elementos X ∈ χ(n+1) satisfazendo uma das seguintes condições: (0) Xh(0) 6= 0. Neste caso, X é transversal a M em 0 e 0 é um ponto regular de X, pois se X(0) = 0, então teŕıamos Xh(0) = 0 e isso seria um absurdo; (1) Xh(0) = 0 e X2h(0) 6= 0. Neste caso, 0 é um ponto de tangência com contato quadrático em X e 0 é dito ponto dobra de X; 56 Figura 3.14: Exemplo de um ponto de equiĺıbrio do tipo cúspide. (2) Xh(0) = X2h(0) = 0, X3h(0) 6= 0 e o conjunto {Dh(0), DXh(0), DX2h(0)} é linearmente independente. Neste caso, 0 é um ponto de cúspide de X, com contato cúbico em 0 ; ... (n) Xh(0) = X2h(0) = ... = Xnh(0) = 0, Xn+1h(0) 6= 0 e o conjunto {Dh(0), DXh(0), ..., DXnh(0)} é linearmente independente e 0 é um ponto regular da aplicação Xh|M . Definição 3.3.5. Dizemos que 0 é uma M-singularidade de X ∈ χ(n + 1) se h(0) = Xh(0) = 0. Uma M-singularidade é dita de codimensão zero se X ∈ Γ0. Definimos τX ⊂ M como sendo o conjunto M -singular de X ∈ χ(n + 1), que é o conjunto formado pelos pontos M -singulares de X ∈ χ(n + 1) e tal conjunto é representado pela equação h = Xh = 0, isto é, τX = {p ∈ M ; Xh(p) = 0}. Se p ∈ M e Xh(p) 6= 0 então p e dito um ponto M -regular de X ∈ χ(n+ 1). Proposição 3.3.1. Seja X ∈ χ(n+ 1). Se X(0) = 0 então X não pertence a Γ0(n+ 1). Demonstração. Por hipóteseX(0) = 0. Suponhamos queX ∈ Γ0(n+1), logo existe n ∈ N tal queXn+1h(0) 6= 0. Por outro lado Xn+1h(0) = 〈X(0),5Xnh(0)〉 = 〈0,5Xnh(0)〉 = 0, e assim temos um absurdo. Desta forma, X não pertence a Γ0(n+ 1). 57 Observação 3.3.1. Vishik em [24] exibiu todas as formas normais, isto é, todas as possibilidade de M -singularidades de codimensão zero e elas são dadas, a menos de equivalência , pelos seguintes sistemas: (i) Campo de vetores constante X(x) = (1, ..., 0) e hk(x) = xk+1 1 + x2x k−1 1 + x3x k−2 1 + ...+ xk+1, no qual k = 0, ..., n. (ii) Campo de vetores com fronteira constante h(x) = x1 e X(x) = (x2, x3, ..., xk, 1, 0, ..., 0). 58 Caṕıtulo 4 Regularização Uma aproximação do campo de vetores descont́ınuo (3.1), por uma famı́lia a um parâmetro de campos de vetores cont́ınuos é chamada uma regularização de (3.1). O processo consiste em considerarmos para cada ε0 > 0 suficientemente pequeno, um campo de vetores suave Zε, 0 < ε ≤ ε0, tal que: (i) lim ε→0 Zε = Z, para todo z ∈ Rn \M ; (ii) Zε0 é igual a X em todos os pontos de M+ cuja distância até M é maior que ε0; (iii) Zε0 é igual a Y em todos os pontos de M− cuja distância até M é maior que ε0. Definição 4.0.6. Uma função ϕ : R→ R de classe C∞ é uma função de transição se ϕ(x) = −1 para x ≤ −1, ϕ(x) = 1 para x ≥ 1 e ϕ′(x) > 0 para x ∈ (−1, 1). A função de transição é usada para uma média dos campos X e Y e assim obter uma famı́lia de campos de vetores cont́ınuos que aproximam o campo descont́ınuo. Definição 4.0.7. Consideremos uma função de transição ϕ : R → R. A ϕ-regularização de um sistema (3.1) com M = h−1(0), é a famı́lia a um parâmetro Zε de campos de vetores cont́ınuos Cr dada por Zε(q) = ( 1 2 + ϕε(h(q)) 2 ) X(q) + ( 1 2 − ϕε(h(q)) 2 ) Y (q), com ϕε(x) = ϕ (x ε ) para ε > 0. (4.1) Definição 4.0.8. Dada uma ϕ-regularização de um sistema (3.1) definimos a zona de regularização como sendo a zona em torno da região de descontinuidade M , dada por ϕ−1ε (−1, 1). 59 Figura 4.1: Exemplo de um gráfico de uma função de transição. Figura 4.2: Um sistema descont́ınuo e sua regularização. Como já foi dito, um ponto no retrato de fase que se move sobre uma órbita de Z cruza M quando atinge a região Mc, soluções de Z através de pontos de Md permanecem em M em tempos posteriores e analogamente as soluções de Z por meio de pontos de Me permanecem em M em tempos anteriores. De agora em diante, nesta seção vamos estudar o processo de regularização de campos de vetores definidos em variedades de dimensão 2 , sendo que tais descontinuidades ocorrem sobre uma subvariedade M de codimensão 1. Consideremos S a esfera S2 em R3 e h : S → R uma função C∞ tendo 0 como valor regular. Assumiremos M = h−1(0) possuindo apenas uma componente conexa, de modo que S \M tem duas componentes conexas as quais são dois discos denotados por 60 S+ = h−1(0,+∞) e S− = h−1(−∞, 0). Vamos impor condições sobre Z = (X, Y ), as quais determinam o retrato de fase de sua regularização Zε, para qualquer função de transição e ε > 0 . Consideremos N como sendo uma subvariedade bidimensional de S, com fronteira ∂N = B e X ′ a restrição de um campo de vetores X em χr, que é o espaço dos campos de vetores Cr sobre S (r > 1). Definição 4.0.9. Denotaremos Σr(N) como a classe de todos os campos de vetores X ∈ χr que satisfazem as seguintes condições: (i) todos os pontos de equiĺıbrio e órbitas periódicas de X ′ são hiperbólicos e estão contidos no interior de N ; (ii) qualquer tangência entre uma trajetória de X e B é quadrática; (iii) X ′ não tem conexões de sela ou de tangência. 4.1 Considerações no processo de regularização Como é imposśıvel ter um conhecimento global da dinâmica desses sistemas, nos concentraremos em explorar o seu comportamento local ao redor de pontos de equiĺıbrio t́ıpicos. A primeira tarefa é descrever uma teoria local para sistemas descont́ınuos no caso bidimensional. Consideramos o campo descont́ınuo Z = (X, Y ) no plano R2. Para p = (x, y) ∈ R2, X(p) = (X1(p), X2(p)), Y (p) = (Y1(p), Y2(p)). Localmente, podemos considerar h−1(0) = M , onde h(p) = h(x, y) = y que é claramente uma variedade, pois 5h(x, y) = (0, 1) 6= (0, 0) para todo (x, y) ∈ R2. Sendo assim, o campo de Filippov em um ponto p ∈Md ∪Me tem a seguinte expressão: ZM(p) = (1− α)X(p) + αY (p)⇔ ZM(p) = ( 1− Xh(p) (X − Y )h(p) ) X(p) + ( Xh(p) (X − Y )h(p) ) Y (p)⇔ ⇔ ZM(p) = ( 1− X2(p) X2(p)− Y2(p) ) X(p) + ( X2(p) X2(p)− Y2(p) ) Y (p)⇔ ⇔ ZM(p) = ( X2(p)− Y2(p)−X2(p) X2(p)− Y2(p) ) X(p) + ( X2(p) X2(p)− Y2(p) ) Y (p)⇔ ⇔ ZM(p) = ( −Y2(p) X2(p)− Y2(p) ) (X1(p), X2(p)) + ( X2(p) X2(p)− Y2(p) ) (Y1(p), Y2(p))⇔ ⇔ ZM(p) = ( −X1(p)Y2(p) +X2(p)Y1(p) X2(p)− Y2(p) , −X2(p)Y2(p) +X2(p)Y2(p) X2(p)− Y2(p) ) . 61 ∴ ZM(p) = ( X1(p)Y2(p)−X2(p)Y1(p) Y2(p)−X2(p) , 0 ) , Y2(p)−X2(p) 6= 0. (4.2) Ressaltamos que se Y2(p) − X2(p) = 0, pela Definição 3.1.10, p é um ponto de equiĺıbrio deslizante. A partir da expressão do campo de Filippov em (4.2) faremos as definições de seus pontos de equiĺıbrio e os pontos onde falham essa definição. Definição 4.1.1. Um ponto p ∈M é um ponto M-regular de Z = (X, Y ) se alguma das condições é satisfeita: (i) Xh(p)Y h(p) > 0, ou seja, p é um ponto de costura; (ii) Xh(p)Y h(p) < 0 e det[X, Y ](p) = det  X1(p) X2(p) Y1(p) Y2(p)  6= 0, ou seja, p é um ponto de deslize ou de escape e não é um pseudo-equiĺıbrio. Definição 4.1.2. Um ponto p ∈ M que não é um ponto M-regular é dito um ponto M-singular de Z = (X, Y ). Observação 4.1.1. Pela equação (4.2) teremos p ∈ Md ∪Me pontos de equiĺıbrio do campo de Filippov quando: ZM(p) = (0, 0)⇔ ( X1(p)Y2(p)−X2(p)Y1(p) Y2(p)−X2(p) , 0 ) = (0, 0)⇔ ⇔ X1(p)Y2(p)−X2(p)Y1(p) = 0⇔ det[X, Y ](p) = 0. Como em M temos y = 0, então o campo ZM é um campo unidimensional. Desta forma dado um ponto de eqúılibrio q = (x0, 0) de ZM , isto é, det[X, Y ](q) = 0 e Y2(q) − X2(q) 6= 0. O ponto q será um ponto de equiĺıbrio hiperbólico de ZM se todos os autovalores de JZM(q) = JZM(x0, 0) tiverem parte real não nula, ou seja, neste caso, levando em conta o fato de o campo ser unidimensional, devemos ter ∂ ∂x ZM(q) = ∂ ∂x ZM(x0, 0) 6= 0. Assim ZM(p) = det[X, Y ](p) Y2(p)−X2(p) , p ∈M ⇔ ⇔ ∂ ∂x ZM(p) = ∂ ∂x [det[X, Y ](p)] (Y2(p)−X2(p))− det[X, Y ](p) ∂ ∂x [Y2(p)−X2(p)] [Y2(p)−X2(p)]2 ⇔ ⇔ ∂ ∂x ZM(q) = ∂ ∂x [det[X, Y ](q)] (Y2(q)−X2(q))− det[X, Y ](q) ∂ ∂x [Y2(q)−X2(q)] [Y2(q)−X2(q)]2 ⇔ ⇔ ∂ ∂x ZM(q) = ∂ ∂x [det[X, Y ](q)] (Y2(q)−X2(q)) [Y2(q)−X2(q)]2 ⇔ ∂ ∂x ZM(q) = ∂ ∂x [det[X, Y ](q)] Y2(q)−X2(q) . Logo, teremos q um ponto de equiĺıbrio hiperbólico de ZM quando 62 ∂ ∂x ZM(q) 6= 0⇔ ∂ ∂x [det[X, Y ](q)] Y2(q)−X2(q) 6= 0⇔ ∂ ∂x [det[X, Y ](q)] 6= 0. Definição 4.1.3. Dizemos que um ponto de equiĺıbrio p do campo de Filippov, isto é, det[X, Y ](p) = 0 e Y2(q)−X2(q) 6= 0 é hiperbólico se d(det[X, Y ]|M )(p) = ∂ ∂x [det[X, Y ](p)] 6= 0. Definição 4.1.4. Um ponto p ∈M é dito um ponto M-singular elementar de Z = (X, Y ) se uma das seguintes condições está satisfeita: (i) p é um ponto de dobra de Z = (X, Y ), isto é, ou p é um ponto de dobra de Y (Xh(p) 6= 0, Y h(p) = 0, Y 2h(p) 6= 0) ou p é um ponto de dobra de X (Y h(p) 6= 0, Xh(p) = 0, X2h(p) 6= 0); (ii) Xh(p)Y h(p) < 0, det[X, Y ](p) = 0 mas d(det[X, Y ]|M )(p) 6= 0, isto é p é um ponto de equiĺıbrio hiperbólico de ZM . Definição 4.1.5. Seja p um ponto de equiĺıbrio hiperbólico de ZM , dizemos que (i) p é uma sela de Filippov, ou simplesmente uma sela de ZM , se satisfaz uma das condições: (i1) p ∈Md e é um ponto de equiĺıbrio repulsor de ZM , ou seja, d(det[X, Y ]|M )(p) > 0; (i2) p ∈Me e é um ponto de equiĺıbrio atrator de ZM , ou seja, d(det[X, Y ]|M )(p) < 0. (ii) p é um nó de Filippov, ou simplesmente um nó de ZM , se satisfaz uma das condições: (i1) p ∈Md e é um ponto de equiĺıbrio atrator de ZM , ou seja, d(det[X, Y ]|M )(p) < 0, neste caso o nó é dito atrator; (i2) p ∈Me e é um ponto de equiĺıbrio repulsor de ZM , ou seja, d(det[X, Y ]|M )(p) > 0, neste caso o nó é dito repulsor. Lema 4.1.1. Seja p ∈M um ponto M-regular de Z = (X, Y ). Então existe uma vizinhança V de p em M e ε0 tal que para todo ε ≤ ε0, Zε não possui pontos de equiĺıbrio em V . Demonstração. Suponhamos p ∈M um ponto M -regular de Z = (X, Y ), assim temos dois casos a considerar: 63 Figura 4.3: Pontos de equiĺıbrio do tipo sela. Figura 4.4: Pontos de equiĺıbrio do tipo nó. (caso 1) p é ponto de costura, ou seja, Xh(p)Y h(p) > 0; Vamos supor, sem perda de generalidade, que Xh(p) > 0 e Y h(p) > 0. O caso em que Xh(p) < 0 e Y h(p) < 0 é análogo. Graças as formas normais, dada uma carta local (x, y) em torno de p, podemos assumir M = {y = 0}, X = (0, 1), Y = (f, g) com g(p) = b > 0 e h(x, y) = y. Nestas condições, se ϕ é uma função de transição a regularização de Z é dada por: Zε(x, y) = ( Z1 ε (x, y), Z2 ε (x, y) ) = ( 1 2 + ϕε(h(x, y)) 2 ) X(x, y) + ( 1 2 − ϕε(h(x, y)) 2 ) Y (x, y) = = ( 1 2 + ϕε(y) 2 ) (0, 1) + ( 1 2 − ϕε(y) 2 ) (f(x, y), g(x, y)) = = ( ( 1 2 − ϕε(y) 2 ) f(x, y) , 1 2 + ϕε(y) 2 + ( 1 2 − ϕε(y) 2 ) g(x, y) ) = = 1 2 ( (1− ϕε(y)) f(x, y) , 1 + ϕε(y) + (1− ϕε(y)) g(x, y) ) . 64 Mostremos que Z2 ε (x, y) = 1 + ϕε(y) + (1− ϕε(y)) g(x, y) > 0 em uma vizinhança de p: • se ϕε(y) = ϕ(y ε ) = −1, então temos Z2 ε (x, y) = 2g(x, y). Pelo Teorema da conservação do sinal g(x, y) > 0 em uma vizinhança V1 de p, afinal g(p) = b > 0 e assim teremos Z2 ε (x, y) = 2g(x, y) > 0 em V1; • se ϕε(y) = ϕ(y ε ) ∈ (−1, 1), então o que delega o sinal de Z2 ε (x, y) é g(x, y), pois sempre teremos 1+ϕε(y) > 0 e 1−ϕε(y) > 0 para ϕε(y) ∈ (−1, 1). Pelo Teorema da conservação do sinal temos g(x, y) > 0 em uma vizinhança V1 de p, pois g(p) = b > 0 e assim teremos Z2 ε (x, y) > 0 em V1; • se ϕε(y) = ϕ(y ε ) = 1, então temos Z2 ε (x, y) = 2 e assim Z2 ε (x, y) > 0 para todo (x, y). Portanto Zε(x, y) 6= (0, 0) em uma vizinhança V1 de p. (caso 2) p é um ponto de deslize ou escape, mas não é um pseudo-equiĺıbrio de Z = (X, Y ), ou seja, Xh(p)Y h(p) < 0 com det[X, Y ](p) 6= 0; Vamos supor, sem perda de generalidade, que Xh(p) < 0 e Y h(p) > 0.