% %% � � � , , ,, � �� �� e ee @ @@ l l l Q QQ HHPPP XXX hhhh (((( ��� IFT Instituto de F́ısica Teórica Universidade Estadual Paulista DISSERTAÇÃO DE MESTRADO IFT-D.002/06 Formalismo de Hamilton-Jacobi para Ações de Primeira Ordem Mario Cezar Ferreira Gomes Bertin Orientador Prof. Dr. Bruto Max Pimentel Escobar Fevereiro de 2006 Ao meu amigo José Cláudio, que ao falecer enquanto eu escrevia essas linhas nos deixou com um grande problema: Como mudar o mundo sem ele? i Agradecimentos À minha famı́lia, a principal provedora. À minha mãe, pela amizade e companheirismo que nos une. Aos meus amigos João Belther Júnior e Júlio Marny Hoff, pelo tempo de convivência e pelas conversas enriquecedoras sobre a f́ısica que não conhecemos. Ao meu orientador, o professor Bruto Max Pimentel, que me acompanha pela minha aventura cient́ıfica. Ao meu amigo Pedro José Pompéia. Ao CNPq, pelo suporte integral de mais da metade do meu mestrado. ii Resumo Neste trabalho desenvolvemos o tratamento geral de sistemas singulares pelo formalismo de Hamilton-Jacobi, desenvolvido primeiro por Caratheódory para sistemas regulares. Dare- mos ênfase a sistemas cuja ação é de primeira ordem, ou seja, cuja Lagrangiana é uma função linear nas velocidades. O objetivo principal é, além de apresentar o formalismo de forma apropriada, mostrar a existência da estrutura simplética no espaço de fase desses sistemas ao encontrar parênteses generalizados apropriados, com os quais a quantização canônica se dará de forma natural. Palavras Chave: Sistemas singulares, formalismo de Hamilton-Jacobi. Área do conhecimento: 1.05.03.01-3 iii Abstract In this work we develop the general treatment of singular systems via Hamilton-Jacobi formalism, first developed by Caratheódory for regular systems. We will give emphasis on first order action systems, whose Lagrangian is a linear function of the velocities. The main objective is, besides presenting the formalism in an appropriate form, to show the existence of a simplectic structure in the phase space of these systems by finding appropriate generalized brackets, with which the canonic quantization will be given in a natural way. iv Sumário Introdução 1 1 Mecânica e Geometria 4 1.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.2 Formalismo Lagrangiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.2.1 Vı́nculos na Dinâmica de Newton . . . . . . . . . . . . . . . . . . . . . 5 1.2.2 Prinćıpio de D´Alembert . . . . . . . . . . . . . . . . . . . . . . . . . 8 1.2.3 Equações de Euler-Lagrange . . . . . . . . . . . . . . . . . . . . . . . 8 1.2.4 Vetores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 1.2.5 Covetores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 1.2.6 Formas Diferenciais . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 1.2.7 A Derivada de Lie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 1.2.8 Forma das Equações de Euler-Lagrange Independente das Coordenadas 16 1.2.9 Transformação de Coordenadas em Q . . . . . . . . . . . . . . . . . . 18 1.3 Formalismo Hamiltoniano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 1.3.1 Formalismo Simplético Hamiltoniano . . . . . . . . . . . . . . . . . . . 20 1.3.2 Os Parênteses de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . 22 1.3.3 Transformações em T∗Q . . . . . . . . . . . . . . . . . . . . . . . . . . 23 1.3.4 Propriedades dos Parênteses de Poisson . . . . . . . . . . . . . . . . . 25 Referências . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 2 O Formalismo de Hamilton-Jacobi 27 2.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 2.2 O Problema Variacional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 2.3 Condições para Extremos da Ação . . . . . . . . . . . . . . . . . . . . . . . . 30 2.3.1 Sistemas Regulares em Qn . . . . . . . . . . . . . . . . . . . . . . . . . 33 2.3.2 Sistemas Singulares Gerais . . . . . . . . . . . . . . . . . . . . . . . . 34 2.3.3 Análise das Condições de Extremos . . . . . . . . . . . . . . . . . . . . 36 2.4 Equações Caracteŕısticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 2.4.1 Integrabilidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 2.5 Equações de Movimento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 2.5.1 Caso Regular . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 2.5.2 Caso Singular . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 v 2.6 O Espaço de Fase Generalizado . . . . . . . . . . . . . . . . . . . . . . . . . . 48 Referências . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 3 Ações de Primeira Ordem 51 3.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 3.2 Formalismo de HJ para Lagrangianas Lineares . . . . . . . . . . . . . . . . . 52 3.2.1 Caso Regular . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 3.2.2 Caso Singular . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 3.3 Campos Relativ́ısticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 3.4 O Campo de Proca . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 3.5 O Campo Eletromagnético . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 Referências . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 Considerações Finais 69 A O Formalismo Hamiltoniano 71 B Campo Eletromagnético de 1a Ordem a la Dirac 79 Referências . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 vi Introdução Em quatro artigos monumentais publicados em 19261, Schrödinger inaugura a Mecânica Ondulatória, que trata o problema da quantização como um problema de autovalores. Em conjunto com a mecânica de Heisenberg e os trabalhos de Dirac, esses artigos edificam as bases teóricas da mecânica quântica. Assim como fez Hamilton quase um século antes ao desenvolver seu formalismo para a mecânica clássica, Schrödinger baseou-se na analogia óptico-mecânica, que relaciona a ótica geométrica à mecânica anaĺıtica, e assim foi capaz de criar uma nova disciplina que mudaria a história das ciências naturais. Escreve Schrödinger, sobre o trabalho de Hamilton, ao introduzir seu segundo artigo: ”Unfortunately this powerful and momentous conception of Hamilton is deprived, in most modern reproductions, of its beautiful raiment as a superfluous accessory, in favour of a more colourness representation of the analitical correspondence.” Schrödinger refere-se justamente à analogia óptico-mecânica e podemos arriscar dizer o mesmo sobre os trabalhos de Schrödinger : essa relação, importante tanto para a mecânica clássica quanto para a quântica, é oculta nos livros modernos de mecânica quântica. Este trabalho dedica-se em última palavra à investigação de uma parte da analogia óptico- mecânica na mecânica clássica, o Formalismo de Hamilton-Jacobi, (HJ). Hamilton fez abundante uso dessa analogia ao desenvolver a mecânica Hamiltoniana e o fez de forma deliberada. A conexão entre a teoria de propagação da luz e a mecânica é antiga e está pautada nos problemas variacionais. O primeiro prinćıpio variacional foi introduzido por Fermat, entre 1657 e 1662, o prinćıpio de tempo mı́nimo. A trajetória do raio de luz é tal que o tempo medido entre dois pontos do caminho é mı́nimo. Hamilton percebeu que seu prinćıpio é equivalente ao de Fermat quando as trajetórias dos raios de luz em R3 são entendidas como as trajetórias dinâmicas no espaço de configuração Q. Schrödinger fez uso da mesma associação, mas percebeu que ela não era imediata para a teoria quântica. A mecânica clássica é, no sentido dessa correspondência, análoga à ótica geométrica, mas não à teoria ondulatória da luz. O limite está na capacidade da definição de trajetórias, que só é posśıvel na ótica geométrica, onde consideramos que a trajetória tem dimensões muito maiores que o comprimento de onda. O conceito de trajetória não faz sentido na teoria de Huygens, onde o comprimento de onda é grande em relação ao ”caminho da 1E. Schrödinger - Collected Papers on Wave Mechanics - Quantisation as a Problem of Proper Values I, II, III e IV. - Chelsea Pub. Co. New York (1978). 1 luz”. Schrödinger considerou natural que nos sistemas micro-mecânicos a mecânica clássica funcionasse tão bem quanto a ótica geométrica funcionava para os problemas de difração. Haveria, então, uma nova mecânica cuja correspondência óptico-mecânica se dava com a ótica ondulatória. Nasce assim a mecânica ondulatória. Os prinćıpios variacionais são o elo mais profundo entre a ótica, a mecânica clássica e a mecânica quântica. E o formalismo que liga as três disciplinas na mecânica é o Formalismo de Hamilton-Jacobi. É este o ponto de partida de Schrödinger, não o formalismo Hamiltoniano, como faz pensar a maioria dos textos atuais em mecânica quântica. O formalismo de HJ é baseado na analogia entre três disciplinas matemáticas que por algum tempo foram tidas como independentes: a teoria das equações diferenciais or- dinárias (EDO), a teoria das equações diferenciais parciais (EDP) e o cálculo varia- cional, e essa analogia, como veremos, tem como pano de fundo a geometria diferencial em variedades. Esse quadro de relações que envolve as três disciplinas em um contexto onde reina a geometria faz do formalismo de HJ não só um formalismo para a mecânica, mas também um formalismo matemático, como mostra Carathéodory2, ao deduzir os principais teoremas pertinentes às teorias de EDO e EDP. Carathéodory chamou este sistema de relações pelo sugestivo nome de quadro completo (complete figure). Na mecânica anaĺıtica o formalismo de HJ é baseado na conhecida equação de mesmo nome. Esta equação é resultado dos trabalhos de Hamilton e Jacobi na teoria das trans- formações canônicas. É natural neste ponto de vista que a literatura corrente sobre este formalismo vincule a equação de HJ ao formalismo Hamiltoniano através das transformações canônicas. Nessa ótica a equação de HJ surge ao se considerar o problema de se encontrar uma transformação no espaço de fase T∗Q capaz de levar a resolução das equações dinâmicas de Hamilton à forma mais elementar posśıvel. O formalismo então é tratado meramente como um meio de encontrar soluções para as equações de Hamilton. No quadro completo, as- sim mostraremos, a análise de HJ é independente da abordagem Hamiltoniana da mecânica, mesmo da definição de qualquer tipo de transformação, consistindo em uma teoria completa, autosuficiente e com resultados muito gerais. O quadro completo nos permite, e esse é o principal ponto de todo o trabalho, tratar sis- temas singulares, que consistem em sistemas cuja Lagrangiana possui uma matriz Hessiana singular. Esse tipo de sistema viola a condição necessária para que a formulação Hamil- toniana apareça de forma natural a partir da Lagrangiana, pois torna-se necessária uma análise de v́ınculos. Como já é bem conhecido, a mecânica quântica é baseada em uma es- trutura simplética e essa estrutura não pode ser obtida pelos métodos usuais3 se o sistema for singular. Assim, por muito tempo desde a fundação da mecânica quântica não houve um formalismo unificado que tratasse de sistemas singulares. Dirac4 foi o primeiro a dar uma 2C. Caratheodory - Calculus of Variations and Partial Differential Equations of the First Order - Holden Day, Inc (1967). 3Por exemplo usando os Parênteses de Poisson habituais. 4P. A. M. Dirac - Canad. J. Math. 2, 129 (1950), P. A. M. Dirac - Canad. J. Math. 3, 1 (1951), P. A. M. Dirac - Proc. Roy. Soc. A246, 326 (1958). 2 solução satisfatória para este problema, usando um formalismo Hamiltoniano5. A busca por uma estrutura simplética geral para sistemas singulares é naturalmente emer- gente pelo Formalismo de HJ. Portanto, a importância dessa estrutura teórica não é evidente apenas na discussão heuŕıstica sobre as origens da mecânica quântica, mas também na reso- lução de problemas que afligem a quantização das teorias de campo relativ́ısticas, que são naturalmente singulares. Podemos arriscar dizer que a estrada que leva sistemas clássicos a sistemas quânticos passa inevitavelmente pelo quadro completo que abordaremos aqui. Escolhemos por apresentar o formalismo sem excessivo rigor matemático, mas ainda as- sim consideramos a importância da utilização da matemática moderna, que inclui elementos da geometria diferencial em variedades, como ferramenta importante para a śıntese e a com- preensão mais profunda da teoria tal como será apresentada. Portanto, o trabalho terá ênfase no aspecto geométrico e, para tanto, muitos objetos da geometria devem ser intro- duzidos. O primeiro caṕıtulo serve a este propósito, além de realizar uma breve śıntese das formulações que compõem a disciplina da mecância clássica. Introduziremos a Variedade de Configuração, o Espaço de Fase, vetores, covetores e formas diferenciais, bem como outros objetos que consideramos importantes para a compreensão do conteúdo e que também serão úteis no formalismo. No segundo caṕıtulo apresentaremos a forma mais geral do formalismo de HJ. Em primeiro lugar apresentaremos a dedução do sistema de equações de HJ, a partir do prinćıpio varia- cional de Hamilton. Trabalharemos com sistemas singulares e mostraremos como é posśıvel fazer a análise de v́ınculos sob esta ótica, encontrando inclusive as estruturas simpléticas apropriadas para escrever as equações de movimento. No terceiro e último caṕıtulo aplicaremos o formalismo desenvolvido no caṕıtulo anterior para tratar sistemas cuja ação é de primeira ordem nas velocidades generalizadas. Embora pareçam uma particularização, sistemas de ações de primeira ordem são na verdade bastante gerais em Teoria de Campos, pois todos os campos conhecidos podem ser levados a estes por transformações apropriadas. Esses sistemas mostram-se também muito mais simples para a utilização do formalismo de HJ, como veremos. Usaremos o método para encontrar as equações de movimento de dois campos conhecidos: o eletromagnético e o de Proca. Para os dois usaremos Lagrangianas na forma de Palatini. As referências bibliográficas serão indicadas por caṕıtulo, não apenas no fim do trabalho, e em notas de rodapé, com a finalidade de tornar a leitura mais dinâmica. Finalmente, teceremos considerações finais sobre este trabalho. Devem conter, portanto, uma śıntese dos principais resultados e direções para posśıveis linhas de pesquisa futura. Apre- sentaremos também dois apêndices. O primeiro contém o formalismo de Dirac para sistemas singulares, no qual procuramos utilizar o modelo operacional que motivou a introdução no formalismo de HJ da matriz M . O segundo apêndice consiste em um um exemplo, o campo eletromagnético livre de primeira ordem, da aplicabilidade do método de Dirac. Embora não seja objetivo desse trabalho a comparação entre os métodos, esperamos que algumas semelhanças possam ser notadas de imediato, e assim um futuro estudo mais detalhado de correspondência possa ser iniciado. 5Ver apêndice A 3 Caṕıtulo 1 Mecânica e Geometria 1.1 Introdução Neste caṕıtulo temos o objetivo de introduzir os elementos e a linguagem que serão uti- lizados durante todo o texto. Uma passagem pelos formalismos que compõem o cenário da mecânica clássica vem a ser uma maneira de cumprir essa meta. A linguagem é essencial- mente geométrica e os elementos são objetos básicos da geometria diferencial como variedades diferenciáveis, funções escalares, vetores e formas diferenciais, que consistem na parte básica de álgebra tensorial em variedades. Passaremos pelos formalismos clássicos, o Lagrangiano e o Hamiltoniano, evidenciando seus aspectos geométricos, principalmente na procura de expressões intŕınsecas, independentes de sistemas de coordenadas. A passagem entre os for- malismos também será feita em vista de introduzir as variedades e os espaços vetoriais que constituem a estrutura formal dessas teorias. No objetivo principal dessa dissertação está a idéia de buscar estruturas simpléticas em determinados sistemas dinâmicos, e, por esta razão, um formalismo básico envolvendo a geometria do espaço de fase, inclusive a definição daquilo que vem a ser uma estrutura simplética, deve ser desenvolvido. Ainda evitaremos a abordagem do cálculo variacional, que introduziremos como parte do formalismo de Hamilton-Jacobi no caṕıtulo 2. 1.2 Formalismo Lagrangiano Encontrar equações de movimento é o objetivo primeiro da Mecânica Clássica, cuja base teórica foi lançada por Newton (1686), no cenário que descrevemos como o Espaço Euclidi- ano R3. As equações de movimento de Newton, considerando-se um sistema de N part́ıculas descritas em coordenadas cartesianas, tomam a forma1 mI ẍI = FI , {I} = {1, . . . , N}. (1.1) 1Ver [1], pp. 48-64. 4 São 3N equações de segunda ordem nas coordenadas. As equações (1.1) são definidas apenas para referenciais inerciais2, o que vem a ser uma caracteŕıstica de todo formalismo clássico não relativ́ıstico, mas também têm a indesejável caracteŕıstica de não serem covariantes ao sistema de coordenadas escolhido, o que vem a ser uma caracteŕıstica deste formalismo em particular. Todas as coordenadas das part́ıculas são independentes desde que não existam v́ınculos no sistema. Caso estes v́ınculos existam e possam ser escritos por forças impressas, as equações de movimento resultarão em relações entre algumas das coordenadas, de modo que estas não serão dinâmicas, ou posto de outra forma, não serão de segunda ordem nessas coordenadas. 1.2.1 Vı́nculos na Dinâmica de Newton Na mecânica Newtoniana um sistema é completamente descrito com um conjunto de 3N informações, três coordenadas cartesianas de N part́ıculas. Este mesmo sistema pode ser redesenhado em um espaço euclidiano de n = 3N dimensões Rn, com o uso de coordenadas generalizadas. O cenário no qual as coordenadas generalizadas estão inseridas é a chamada Variedade de Configuração Q. Novamente os v́ınculos do sistema representam papel importante na definição dessa variedade. Se existirem v́ınculos, eles podem ser escritos como K relações entre as coordenadas generalizadas de modo que os graus de liberdade do sistema são diminúıdos para P = n−K. A dimensão da variedade de configuração corresponde aos graus de liberdade do sistema. Assim, com K v́ınculos, a variedade de configuração será QP , munida de uma métrica Riemanniana. Na ausência de v́ınculos esta variedade coincide com o espaço euclidiano Rn. Na presença de v́ınculos, o sistema descrito por (1.1) perde a liberdade de se mover por todo o espaço Rn. Sua variedade de configuração Q é reduzida a uma região de Rn. Um exemplo de v́ınculo é aquele no qual o sistema de N part́ıculas mencionado é restrito a se mover em uma superf́ıcie de Rn. Podemos escrever essa superf́ıcie por equações do tipo fz(xI , t) = 0 {z} = {1, . . . ,K < n}. (1.2) A prinćıpio, podemos pensar que estes v́ınculos podem ser mantidos por forças impressas. Neste caso, as equações (1.1) tornam-se mI ẍI = FI + CI , (1.3) onde CI são as forças que mantém cada part́ıcula mI restrita à superf́ıcie descrita por (1.2). Para conhecer o movimento do sistema é necessário conhecer o conjunto das 3N componentes das forças externas e, ainda, as 3N componentes das forças que mantêm os v́ınculos, mas uma observação atenta mostra que dipomos apenas de 3N equações (1.3) e de K equações (1.2) tal que K < 3N . Esta é uma dificuldade que pode ser contornada observando-se um caso de part́ıcula única com um único v́ınculo. Nesse caso, podemos ignorar o ı́ndice I, 2Neste contexto, os referenciais inerciais são aqueles que são relacionados por transformações de Galilei. 5 f(x, t) = 0. (1.4) O espaço mais geral desse exemplo é o R3. As equações de movimento tornam-se mẍ = F + C, (1.5) que, com a condição (1.4), somam quatro equações para seis incógnitas, as compontentes de F e C. Embora nesse tipo de problema o conhecimento de F seja presumido, não o é o conhecimento das componentes de C. Figura 1.1: Part́ıcula restrita a uma superf́ıcie f(x, t). Observe que nesse caso não existe apenas uma força capaz de manter a relação (1.4). De fato, apenas forças normais ponto a ponto à superf́ıcie contribuem para manter a part́ıcula presa a ela. Assim, duas das componentes tangenciais de C são irrelevantes. Podemos escolher C de modo que tenha apenas componentes normais à superf́ıcie definida por f . O argumento pode ser estendido a N part́ıculas. Devemos, então, escolher as forças CI de modo que sejam normais à superf́ıcie (1.2). Uma escolha bastante natural seria3 CI = K∑ z=1 λz∇Ifz, (1.6) onde ∇I significa o gradiente com respeito à posição xI da I-ésima part́ıcula e λ é uma constante nas coordenadas, mas possivelmente dependente do tempo. Assim, mI ẍI = FI + K∑ z=1 λz∇Ifz. (1.7) Se as forças impressas forem não dissipativas, existe um potencial tal que FI= −∇IV , onde V = V (xI , t). As equações de movimento tomam uma forma final em 3Dada uma funçao de N variáveis f(xN ), o gradiente ∇f calculado em algum ponto de f é um vetor normal à superf́ıcie neste ponto. 6 mI ẍI = −∇IV + K∑ z=1 λz∇Ifz = −∇I ( V − K∑ z=1 λzfz ) . (1.8) Aqui, vemos a motivação elementar do método dos Parâmetros de Lagrange (PL) para o tratamento de v́ınculos. Esses v́ınculos, descritos por (1.2) são chamados integráveis. Nessa dedução, usamos o fato de que os v́ınculos integráveis podem ser escritos por uma relação entre as coordenadas e implicitamente mostramos que as forças responsáveis por manter um sistema de part́ıculas preso a esses v́ınculos são não-dissipativas. Vı́nculos não integráveis, que não podem ser escritos por uma relação entre as coordenadas, são mantidos por forças dissipativas. Nesses casos não podemos escrever (1.6) ou (1.7), mas pode-se mostrar que o método dos PL ainda pode ser utilizado4. No caso espećıfico do nosso problema, somos levados a interpretar os termos ∑ z λzfz como os potenciais responsáveis pelas forças que mantêm o sistema sobre a superf́ıcie. Note que, ao procedermos o produto escalar de (1.8) por ẋI e somando em I, N∑ I=1 mI ẍI · ẋI = − N∑ I=1 ∇IV · ẋI + N∑ I=1 ∑ z λz∇Ifz · ẋI . (1.9) Usaremos agora as identidades N∑ I=1 mI ẍI · ẋI = d dt ( N∑ I=1 mI ẋ2 I 2 ) , (1.10) dφ dt = ∂φ ∂t + ∑ i ∇iφ · ẋi. (1.11) Tanto V quanto ∑ z λzfz podem ser colocados em lugar de φ em (1.11), de modo que d dt (∑ I mI ẋ2 I 2 + V ) = ∂V ∂t − ∑ z λz ∂fz ∂t , (1.12) onde usamos o fato de que λ é uma função expĺıcita apenas de t e de que df/dt = 0 na superf́ıcie. Esta equação dá lugar à conservação da energia do sistema part́ıcula-superf́ıcie: dE dt = ∂V ∂t − ∑ z λz ∂fz ∂t . (1.13) Ora, a equação (1.13) nos mostra que mesmo um único v́ınculo explicitamente dependente do tempo executa trabalho sobre a part́ıcula mesmo quando o potencial V é independente do tempo. Por conseqüência a energia E da part́ıcula não é mais conservada. Isto significa que a própria superf́ıcie executa trabalho na part́ıcula, o que pode ser bem compreendido quando se observa que, se a superf́ıcie se move, as velocidades não são mais tangentes às próprias superf́ıcies e, neste caso, não são ortogonais às forças CI . 4Ver [2], pp. 25-7 e 43-9. 7 1.2.2 Prinćıpio de D´Alembert Temos, então, as equações mI ẍI = FI + K∑ z=1 λz∇Ifz, (1.14) fz(xI , t) = 0, (1.15) que devemos resolver pela eliminação dos parâmetros λz de (1.14). Sabemos que ∑ z λz∇Ifz é um conjunto de N vetores normais à superf́ıcie definida por (1.15). Então, podemos definir um conjunto de N vetores τI tangentes à superf́ıcie em cada ponto. Estes vetores obedecem a N∑ I=1 τI · λz∇Ifz = 0. (1.16) São K equações para 3N componentes de τI . Assim, somente 3N −K das componentes são independentes. A relação (1.16) pode ser reescrita com o aux́ılio de (1.14): ∑ I (mI ẍI − FI) · τI = 0. (1.17) Esta equação é chamada por Prinćıpio de D´Alembert5. Assim, ficamos com 3N −K relações independentes em (1.17), de modo que transferimos nosso problema de um sistema em R3N condicionado a uma superf́ıcie (1.15) para um sistema livre em Q3N−K com as equações de movimento (1.17). Para encontrarmos as 3N componentes de xI dispomos dessas equações e das condições auxiliares (1.15). 1.2.3 Equações de Euler-Lagrange Os vetores tangentes τ são funções vetoriais das coordenadas de Q e possivelmente do tempo. Suas τ componentes definem um vetor em Rn, assim como as n coordenadas xI definem igualmente um sistema de coordenadas nesse mesmo espaço. Vamos agora introduzir coordenadas generalizadas qi onde {i} = {1, . . . , n}, relacionadas às coordenadas xI pelas relações mutuamente inverśıveis6 qi = qi(xI , t) {i} = {1, . . . , n} (1.18) 5Historicamente a dedução deste prinćıpio é, obviamente, diferente. Mas uma inspeção mais detalhada mostra que a formulação P I(mI ẍI − FI) · δRI = 0 é equivalente a (1.17), pois já que os vetores τ não apresentam ”realidade f́ısica”, no sentido de que são elementos de uma variedade de configuração que não é o espaço R3, estes podem ser compreendidos como variações virtuais das posições, conceito com o qual o cálculo variacional chega ao mesmo prinćıpio. Esta abordagem está em [2], Cap. IV. 6A inversibilidade é atestada pela exigência de que a matriz formada pelos elementos ∂qi/∂xj seja não singular, onde xj são as 3N componentes dos vetores xI . 8 xI = xI(qi, t) {I} = {1, . . . , N}. (1.19) Além disso, assumimos que qi sejam funções cont́ınuas e pelo menos duplamente dife- renciáveis. Ainda, as derivadas parciais de xI com relação às coordenadas generalizadas são tangentes à superf́ıcie, de modo que podemos escrever τI como combinações lineares7 τI = εi ∂xI ∂qi . (1.20) Usando (1.20), podemos escrever (1.17) por ∑ I (mI ẍI − FI) · ∂xI ∂qi = 0. (1.21) Temos: − ∑ I FI · ∂xI ∂qi = ∑ I ∇IV · ∂xI ∂qi = ∂V ∂qi , (1.22) onde usamos a condição de que as forças impressas são conservativas8. Também podemos calcular ∑ I mI ẍI · ∂xI ∂qi = ∑ I mI d dt ( ẋI · ∂xI ∂qi ) − ∑ I mI ẋI · d dt ∂xI ∂qi , (1.23) onde d dt ∂xI ∂qi = ∂2xI ∂qi∂qj q̇j + ∂2xI ∂t∂qi = ∂ẋI ∂qi . (1.24) Para o segundo termo à direita de (1.23), usaremos (1.24): ∑ I mI ẋI · d dt ∂xI ∂qi = ∑ I mI ẋI ∂ẋI ∂qi = ∂ ∂qi (∑ I 1 2 mI ẋ2 I ) = ∂T ∂qi , (1.25) onde definimos a função T (ẋI) = ∑ I 1 2 mI ẋ2 I , (1.26) que vem a ser a energia cinética do sistema. Para o primeiro termo da direita de (1.23), ∑ I mI d dt ( ẋI · ∂xI ∂qi ) , (1.27) lembremos que 7A partir deste ponto passaremos a empregar a convenção de soma, na qual a ocorrência de ı́ndices duplos pressupõem a soma nos valores do ı́ndice, salvo em situações como a equação (1.17), em que será expĺıcita a não utilização da convenção. 8Encontramos o Prinćıpio de D´Alembert a partir de uma análise sobre forças conservativas, mas na verdade ele tem um caráter universal. Vale também para forças não conservativas. No entanto, os prinćıpios variacionais mais modernos exigem que as forças tenham caráter monogênico. Assim, a condição de que as forças impressas sejam conservativas consiste, aqui, em um passo fundamental. 9 ∂xI ∂qi = ∂ẋI ∂q̇i (1.28) e, portanto, esse termo equivale a ∑ I mI d dt ( ẋI · ∂ẋI ∂q̇i ) = d dt (∑ I mI ẋI · ∂ẋI ∂q̇i ) = d dt ( ∂T ∂qi ) . (1.29) Com os resultados acima, (1.21) toma a forma d dt ∂T ∂q̇i − ∂T ∂qi + ∂V ∂qi = 0, (1.30) onde introduziremos a Função de Lagrange ou Lagrangiana L(q, q̇, t) = T (q̇)− V (q, t), (1.31) com a qual as equações (1.30) ficam d dt ∂L ∂q̇i − ∂L ∂qi = 0. (1.32) As equações (1.32) são escritas como as equações de Euler-Lagrange. A familiaridade entre esta equação e a segunda lei de Newton pode ser mais bem explicitada com a forma ∂L ∂qi − ∂2L ∂t∂q̇i − ∂2L ∂qj∂q̇i q̇j − ∂2L ∂q̇j∂q̇i q̈j = 0. (1.33) Aqui, definimos aij = ∂2L ∂q̇i∂q̇j , (1.34) e bi = bi(q, q̇, t) = ∂L ∂qi − ∂2L ∂t∂q̇i − ∂2L ∂qj∂q̇i q̇j , (1.35) para escrever (1.33) como aij q̈ j = bi, (1.36) que vem a ser uma forma das Equações de Newton em coordenadas generalizadas. A equação (1.36) tem uma representação matricial. Neste caso podemos escrevê-la A · Q̈ = B, em que A, Q e B são matrizes. A matriz mais importante desse conjunto é A, chamada Matriz Hessiana. Seus elementos são aij de (1.36). Note que a solução para esta equação é direta se A tiver inversa. Neste caso o sistema é dito Regular. Para ser regular, a Lagrangiana do sistema deve satisfazer a condição detA 6= 0. (1.37) 10 Sistemas regulares são integrados diretamente com (1.36): q̈j = (a−1)jibi. (1.38) Contudo, na inexistência da inversa da matriz Hessiana, caso em que detA = 0, algumas coordenadas não serão dinâmicas, pois as equações de Euler-Lagrange dessas coordenadas não serão de segunda ordem. Nessas coordenadas as equações de movimento resultarão, como no caso do formalismo Newtoniano, em relações entre coordenadas. Se a matriz Hessiana tem posto P 9, o número de equações relacionando as coordenadas, v́ınculos, será K = n − P . Estes são chamados Sistemas Singulares10. Vamos precisar de alguns objetos geométricos a partir deste ponto. Até agora tudo que foi usado em geometria foi a definição da Variedade de Configuração Q a partir do espaço Euclidiano Rn. De fato, variedades diferenciáveis podem ser sempre tomadas como sub- variedades de algum Rm, embora nem sempre seja evidente o valor de m para cada caso. No entanto, há um meio consistente de construir variedades a partir de Q sem levar em conta o fato de que esta é imersa em alguma variedade de dimensão superior. Isto será necessário principalmente porque usaremos objetos geométricos definidos em espaços diferentes de Q, embora a f́ısica se dê completamente nesta variedade. Outro fato é que tanto a função de Lagrange quanto as Equações de Euler-Lagrange não dependem da escolha de um particular sistema de coordenadas. Esta é a razão da utilização de coordenadas generalizadas. No entanto, as equações (1.32) não são escritas explicitamente independente das coordenadas. Desejamos por argumentos geométricos chegar a uma forma das Equações de Euler-Lagrange independente do sistema de coordenadas. 1.2.4 Vetores Em Q podemos definir sistemas de coordenadas. Por ser uma variedade diferenciável não é posśıvel, no geral, construir um único sistema de coordenadas que cubra todo o espaço. O melhor que se pode fazer é definir regiões em Q e atribuir sistemas de coordenadas para cada região. Para cobrir toda a variedade os diferentes sistemas de coordenadas podem ser relacionados por transformações de coordenadas. O conjunto de coordenadas que se pode atribuir a Q são as coordenadas generalizadas, representadas por qi. Genericamente, quando usarmos as coordenadas generalizadas para representar um sistema de coordenadas já escolhido para a variedade, essas serão representadas pelo conjunto {qi}11. Para cada ponto de Q podemos definir um Espaço Vetorial que chamaremos TqQ, cujos elementos são vetores12. No sistema de coordenadas {qi}, um vetor em TqQ se escreve 9O posto da matriz Hessiana corresponde ao número de graus de liberdade livres do sistema, ou seja, ao número de seus autovalores não nulos. 10Trataremos os sistemas singulares a apartir do próximo caṕıtulo pelo método de Hamilton-Jacobi. Existem outros formalismos bem conhecidos para os casos singulares. O pioneiro foi Dirac, [3], que utiliza o formalismo Hamiltoniano. Ver apendice A. 11Os argumentos que seguem podem ser automaticamente generalizados para uma variedade M geral. Ver [5] Cap. 1. 12Ou vetores contravariantes, na literatura clássica. 11 como13 u = ui ∂ ∂qi = ui∂i , (1.39) onde ui são as componentes de u nesse sistema de coordenadas14. Os vetores são explici- tamente descritos por suas componentes quando definimos o sistema de coordenadas e sua base. A base escrita dessa forma é chamada base coordenada e, no caso de (1.39), é definida pelo conjunto de vetores {∂i}. Definidos dessa forma, os vetores são operadores do espaço tangente que atuam em funções da variedade em determinado ponto q e resultam em números reais. Os vetores obedecem à regra de Leibniz, u(fg) = f |q u(g) + g|q u(f) (1.40) e são lineares. Dada uma curva suave C(t) em Q, podemos definir o vetor v ≡ d dt = dqi dt ∂i (1.41) onde reconhecemos as componentes da velocidade generalizada q̇i = dqi dt . (1.42) Assim, as velocidades são vetores em TqQ e são tangentes a Q a cada ponto da curva C(t). As Equações de Euler-Lagrange são equações diferenciais ordinárias de segunda ordem nas coordenadas, como se mostra explicitamente em (1.33), onde as variáveis dinâmicas, ou as posições generalizadas, são elementos de Q. É posśıvel escrever essas equações na forma de equações de primeira ordem se considerarmos equivalência entre as coordenadas e as velocidades generalizadas. No entanto, as velocidades não são elementos de Q, mas do espaço TqQ. Podemos construir uma variedade diferenciável cujas coordenadas são as componentes das velocidades. A esta variedade daremos o mesmo śımbolo de seu correspondente espaço vetorial, TqQ. Suas coordenadas serão genericamente representadas pelo conjunto {q̇i}. A função Lagrangiana, por exemplo, que é função das coordenadas e das velocidades, é uma função na variedade definida por (TqQ ⊗ Q), a Variedade Tangente TQ e nela estão contidas as coordenadas e as velocidades15. Assim, as coordenadas de TQ serão o conjunto {qi, q̇i}. As Equações de Euler-Lagrange escritas em TQ são 13Usaremos a partir deste ponto a notação abreviada ∂i ≡ ∂/∂qi. 14Uma transformação de coordenadas modifica as componentes de um vetor de forma bem definida. Dada a transformação {q} −→ {q′} que vem a ser um mapa do tipo q′ = q′(q), temos ∂′ i = (∂qj/∂q′i)∂j e, por conseqüência, u′j = (∂q′j/∂qi)ui. 15O tempo continua no papel de parâmetro das curvas em TQ, mas é direta a generalização do formalismo para o tempo como variável dinâmica. Por enquanto vamos ignorar qualquer dependência expĺıcita no tempo da Lagrangiana. 12 q̇i = dqi dt (1.43) dq̇i dt = ( a−1 )ji bj , (1.44) onde (1.43) é simplesmente a definição das componentes das velocidades e (1.44) é apenas a equação (1.38), em que pode-se perceber as componentes da matriz Hessiana definidas em (1.34) e as componentes vetoriais de B definidas por (1.35)16. Na dinâmica em TQ não há diferença entre as coordenadas e as velocidades como há na descrição em Q. Assim, é mais conveniente escrever as coordenadas de forma unificada. Para tanto usaremos as variáveis η, onde introduziremos ı́ndices gregos que correm de 1 a 2n. A variável ηα com α ∈ {1, . . . , n} correspondem aos qi e α ∈ {n+ 1, . . . , 2n} correspondem aos q̇i: {ηα} = {qi, q̇i} α ∈ {1, . . . , 2n}. (1.45) Ou seja, η são as coordenadas de TQ. Com essas variáveis é posśıvel escrever as equações (1.43) e (1.44) na forma dηα dt = fα(η). (1.46) A equação (1.46) define um Campo Vetorial em TQ, que chamaremos ∆. Este campo faz parte de um espaço vetorial definido a partir de TQ ponto a ponto, assim como TqQ é definido a partir de Q. Este espaço também é tangente à variedade de origem (tangente da tangente), de modo que o chamaremos T2 ηQ. O campo ∆ é definido por ∆ ≡ fα ∂ ∂ηα = fα∂α. (1.47) Vamos analisar a evolução de uma variável dinâmica F (η). Ela pode ser escrita em TQ por Ḟ (η) = η̇α∂αF . (1.48) Com o aux́ılio de (1.46): Ḟ (η) = fα∂αF . (1.49) Podemos escrever finalmente, em vista da definição (1.47), Ḟ = ∆(F ) , (1.50) onde ∆(F ) significa o vetor ∆ aplicado em F . Assim, a equação (1.46) pode ser escrita como dηα dt = ∆(ηα). (1.51) 16Ver [1], Sec. 2.4. 13 1.2.5 Covetores Um covetor17 u∗ é linear e age em campos vetoriais em T2 ηQ levando-os a funções em TQ. Assim como para cada ponto η de TQ definimos um espaço vetorial, também podemos definir um espaço do qual são elementos os covetores de TQ, o Espaço Dual T2∗ η Q. T2 ηQ e T2∗ η Q são ambos espaços vetoriais relacionados a TQ. Assim, dado um sistema de coordenadas {ηα} em TQ, induz-se uma base coordenada {∂α} em T2 ηQ. O espaço dual também tem uma base, {dηα}, definida por dηα∂β = δα β , (1.52) onde à direita de (1.52) temos a delta de Kronecker. Assim, podemos escrever um covetor u∗ por18 u∗ = uαdη α. (1.53) A diferencial de uma função F (η) em TQ é um covetor: dF = ∂αFdη α. (1.54) A ação de um covetor em um campo vetorial vem a ser uma generalização de um produto escalar. Por exemplo, podemos escrever dF (∆) = ∂αFf β · dηα∂β = fα∂αF = dηα dt ∂αF, (1.55) ou, Ḟ = ∆(F ) = dF (∆). (1.56) 1.2.6 Formas Diferenciais As formas diferenciais são generalizações dos covetores. Consistem em objetos tenso- riais de forma19 T = Tij...m dqidqj . . . dqm. (1.57) Por exemplo, uma forma de segunda ordem, ou 2-forma, é escrita por A = aijdq idqj . (1.58) 17Na literatura clássica, vetores covariantes. 18As componentes dos covetores, a exemplo dos vetores, também se transformam de forma bem definida sob uma transformação de coordenadas. Dada a transformação q′ = q′(q), temos dq′i = (∂q′i/∂qj)dqj e, por conseqüência, u′ j = (∂qi/∂q′j)ui. 19As leis de transformação para esses objetos podem ser facilmente obtidas a partir das leis de transformações dos covetores. 14 Ser de segunda ordem indica que essa forma é escrita, definido um sistema de coordenadas, por um polinômio de segundo grau em dq. A forma (1.57) tem ordem n se as componentes de T tiverem n ı́ndices. Formam um polinômio de grau n em dq. Assim como os covetores, as formas atuam sobre vetores. n-formas são operadores n-lineares. Vamos tomar um exemplo de uma forma de 3a ordem: Q = Qijk dq idqjdqk. (1.59) Essa 3-forma pode atuar em 3 vetores de componentes xi, yi, zi: Q(X,Y, Z) = Qijk x iyjzk, (1.60) operação que resulta em um escalar. Então, uma 3-forma mapeia trios de vetores em funções em Q. No entanto, podemos fazê-la agir em duplas de vetores: Q(X,Y, •) = Qijk x iyjdqk, (1.61) que vem a ser um covetor. Se agir sobre um único vetor: Q(X, •, •) = Qijk x idqjdqk, (1.62) temos uma 2-forma. Assim, n-formas atuam sobre m vetores, tal que m ≤ n, e resultam em formas de ordem n−m. Covetores são formas diferenciais de primeira ordem e funções escalares são 0-formas. 1.2.7 A Derivada de Lie A derivada temporal de um objeto ao longo de um campo vetorial recebe o nome de Derivada de Lie20. Vimos pela equação (1.56) que sendo este objeto uma função em TQ, esta derivada é simplesmente a aplicação de um campo vetorial na função. O resultado neste caso é uma função em TQ. Definiremos a derivada de Lie por LX(f) = X(f), (1.63) onde f é uma função e X um campo vetorial. Sejam S e T funções, vetores ou covetores ligados a uma variedade diferenciávelM e F uma função emM, as propriedades da derivada de Lie são: 1. LX é um operador linear: LX(λ1S + λ2T ) = λ1LX(S) + λ2LX(T ) onde λ ∈ R. 2. LX obedece à regra de Leibniz: LX(T × S) = LX(T )× S + T × LX(S). 3. LX(dF ) = d(LXF ). 20A definição mais formal pode ser encontrada na referência [5], Cap. 4. Entretanto, nos contentaremos com uma definição mais intuitiva, apresentada aqui e em [1], Sec. 3.4. 15 4. LX(∂/∂x)F = −(∂/∂x)(LXF )21. Seja um covetor u∗ = uαdη α. A derivada de Lie deste covetor com relação a um campo vetorial ∆ = vβ∂β é dada por L∆(u∗) = L∆(uαdη α) = L∆(uα)dηα + uαL∆(dηα) = = ∆(uα)dηα + uαd[∆(ηα)]. (1.64) Ou seja, L∆(u∗) = vβ(∂βuα)dηα + uα(∂βv α)dηβ , (1.65) que constitui um covetor. Agora consideremos um campo vetorial definido por Λ = wα∂α. (1.66) A derivada de Lie deste campo com relação a ∆ é dada por L∆(Λ)F = L∆(wα∂α)F = L∆(wα)∂αF + wαL∆(∂α)F = = ∆(wα)∂αF − wα∂α(∆F ) . (1.67) Dessa forma, L∆(Λ)F = vβ(∂βw α)∂αF − wα(∂αv β)∂βF. (1.68) Esta equação pode ainda ser escrita por L∆(Λ)F = L∆LΛF − LΛL∆F = [∆,Λ]F. (1.69) A estrutura que aparece à direita de (1.69) é o comutador de Lie. É definido por LX(Y ) = [X,Y ] = XY − Y X , (1.70) com X e Y campos vetoriais. 1.2.8 Forma das Equações de Euler-Lagrange Independente das Coorde- nadas Vamos partir da equação (1.33): ∂L ∂qi − ∂2L ∂t∂q̇i − ∂2L ∂qj∂q̇i q̇j − ∂2L ∂q̇j∂q̇i q̈j = 0. 21Esta propriedade pode ser deduzida pela aplicação da derivada de Lie em um produto escalar, usando as propriedades 2 e 3. Note a diferença entre LX(∂/∂x)F e LX(∂F/∂x). 16 Podemos escrevê-la na forma ∂L ∂qi dqi + ∂L ∂t dt− ∂ ∂q̇i { ∂L ∂t + ∂L ∂qj q̇j + ∂L ∂q̇j q̈j } dqi = 0. (1.71) Vamos escrever o campo vetorial definido por (1.47) na forma ∆(L) = η̇α∂αL = ∂L ∂t + q̇i ∂L ∂qi + q̈i ∂L ∂q̇i = L∆(L) . (1.72) Assim, (1.71) fica ∂L ∂qi dqi + ∂L ∂t dt− ∂ ∂q̇i {L∆(L)} dqi = 0. (1.73) No entanto, ∂ ∂q̇i {L∆(L)} dqi = L∆ ( ∂L ∂q̇i ) dqi = L∆ ( ∂L ∂q̇i dqi ) − ∂L ∂q̇i dq̇i. (1.74) Desta forma temos a equação ∂L ∂qi dqi + ∂L ∂t dt+ ∂L ∂q̇i dq̇i − L∆ ( ∂L ∂q̇i dqi ) = 0. (1.75) O objeto alvo da ação da derivada de Lie na equação (1.75) é um covetor, o momento conjugado. Ele é definido por p = pidq i cujas componentes são pi ≡ aij q̇ j = ∂L ∂q̇i . (1.76) Por uma simples diferenciação da equação (1.76) com relação a q̇ notamos que aij são as componentes da matriz Hessiana. É hora de elucidar um pouco melhor o papel da matriz Hessiana. Na representação matricial podeŕıamos escrever P = A · Q̇ no lugar de (1.76). No entanto, em nosso ponto de vista geométrico, os elementos da matriz Hessiana podem ser vistos como componentes de uma 2-forma. A forma Hessiana é definida por A = aijdq idqj . (1.77) A transformação (1.76) é escrita em sua versão geométrica como p = A(•,∆). (1.78) Também podemos identificar nos três primeiros termos de (1.75) a diferencial de L. Assim, as Equações de Euler-Lagrange tornam-se dL− L∆(p) = 0. (1.79) Fomos, portanto, capazes de escrever as equações de movimento de forma independente do sistema de coordenadas em TQ. 17 1.2.9 Transformação de Coordenadas em Q O motivo pelo qual a derivada de Lie é importante vem a ser o fato de que ela traz informações sobre as simetrias que existem em uma variedade diferenciável, e as simetrias estão sempre ligadas, no caso de sistemas dinâmicos, a constantes do movimento. Por exem- plo, dado o campo vetorial ∆ cujas componentes são definidas pelas equações de movimento (1.46) e uma função escalar F em TQ, se L∆(F ) = 0, F é uma constante do movimento. Ser uma constante de movimento significa geometricamente que a função F não sofre alteração sobre a trajetória em TQ definida pelo campo ∆. O campo dinâmico ∆ não é o único que pode gerar uma dinâmica em TQ. Um campo genérico X = xα∂α gera sua própria dinâmica, representada pela curvas que são soluções da equação dηα dε = xα. (1.80) Se LX(F ) = 0, a função F não varia sobre a curva que é solução de (1.80). X não define o movimento do sistema, mas representa um grupo de transformações na variedade. Por exemplo, o grupo de transformações representado por ∆ é definido por ψ∆ t η(0) = η(t), (1.81) e é o grupo que determina a evolução temporal das variáveis22 η. Assim, ser constante do movimento é na verdade ser invariante ao grupo de transformações definido por (1.81). Se LX(F ) = 0 para algum campo vetorial X, então F é invariante ao grupo de trans- formações definido por ψX ε η = η(ε). (1.82) Portanto, ψX ε é o grupo de transformações que gera em TQ a curva solução de (1.80) parametrizada por ε. Se a Lagrangiana L(η) for invariante sob um grupo de transformações ψX ε , ou seja, se LX(L) = 0, (1.83) é posśıvel mostrar que L∆[p(X)] = 0 , (1.84) em que p é o covetor definido por (1.78). Então, a função p(X) é uma constante do movimento. Esta é a forma geométrica do Teorema de Noether . Encontrar o vetor X solução de (1.84) significa encontrar as curvas pelas quais a Lagrangiana não se altera. No caso da dinâmica Lagrangiana esse campo é aquele para o qual ψX ε é o grupo de Transformações 22Os ı́ndices ∆ e t indicam respectivamente o campo vetorial gerador da transformação e o parâmetro da transformação. 18 de Ponto, que são transformações de coordenadas em Q. Essas transformações geram na Lagrangiana uma modificação funcional sempre da forma L̄ = L−∆(F ), (1.85) em que F é uma função escalar que depende da forma expĺıcita da transformação. 1.3 Formalismo Hamiltoniano Tratar a dinâmica em TQ é interessante do ponto de vista geométrico, mas traz poucas vantagens práticas. Uma delas é que as equações de movimento são de primeira ordem, além do fato de as trajetórias em TQ serem saparadas, o que significa que apenas uma trajetória passa por cada ponto da variedade. As soluções formam campos de curvas. No entanto, a forma das equações de movimento depende da Lagrangiana de forma complicada e não há, no geral, uma forma de fα(η) expĺıcita em η. Outra grande desvantagem do ponto de vista geométrico é que as Equações de Euler- Lagrange escritas na forma (1.71) dependem do covetor p definido em (1.78) e este depende apenas de parte das coordenadas de TQ. As equações de movimento tomam, contudo, uma forma adequada no Formalismo Hamiltoniano. Este formalismo descreve a dinâmica a partir das variáveis (qi, pi). Não há meios de chegar ao formalismo Hamiltoniano sem passar pelo Lagrangiano. A passagem con- siste em mapear as coordenadas de TqQ em uma outra variedade, denominada Variedade Cotangente T∗ qQ. Esta consiste em uma Transformação de Legendre. Essa trans- formação relaciona as velocidades aos momentos pela ação da 2-forma Hessiana no campo ∆ p = A(•,∆) −→ pi = aij q̇ j . (1.86) A partir de (1.86) podemos escrever as velocidades em função dos momentos, mas para tal a Hessiana precisa possuir uma inversa. A condição é dada por (1.37) e é chamada condição Hessiana. Se esta condição for satisfeita pela Lagrangiana podemos escrever q̇i = (a−1)ijpj = φi(q, p). (1.87) Neste caṕıtulo vamos supor que a condição Hessiana é satisfeita. Revisitando as equações (1.43) e (1.44), estas podem ser escritas por dqi dt = φi(qj , pj) , (1.88) dpi dt = ∂ ∂qi L(qj , φj) . (1.89) Devemos substituir as velocidades pelos momentos usando a equação (1.84). Para tanto precisamos calcular 19 ∂ ∂qi L(qj , pj) = ∂ ∂qi L(qj , φj) + ∂φj ∂qi ∂ ∂φj L(qj , φj) = ∂ ∂qi L(qj , φj) + pj ∂φj ∂qi . (1.90) Assim, ∂ ∂qi L(qj , φj) = ∂ ∂qi L(qj , pj)− pj ∂φj ∂qi = ∂ ∂qi [ L(qj , pj)− pjφ j ] . (1.91) Aqui introduz-se a Função de Hamilton ou Função Hamiltoniana H(q, p): H(qi, pi) ≡ piφ i − L(qi, pi) . (1.92) A equação (1.91) torna-se dpi dt = − ∂ ∂qi H(qj , pj). (1.93) Esta é a equação que resulta diretamente das Equações de Euler-Lagrange . Há, no entanto, uma segunda equação, e para esta precisamos calcular ∂ ∂pi L(qj , pj) = ∂φj ∂pi ∂ ∂φj L(qj , φj) = pj ∂φj ∂pi , (1.94) ou, ∂ ∂pi [ L(qj , pj , t)− pjφ j ] = −φi. (1.95) Usando (1.88) e (1.92): dqi dt = ∂ ∂pi H(qj , pj). (1.96) A equação (1.96) é uma identidade, assim como era a equação (1.43). Temos assim o sistema de equações q̇i = ∂H ∂pi (1.97) ṗi = −∂H ∂qi , (1.98) que são as Equações Canônicas de Hamilton. Elas possuem a forma desejável para um sistema de equações diferenciais ordinárias de primeira ordem. Assim, há mais uma vez a introdução de 2n variáveis, desta vez qi e pi, em vez das originais n variáveis qi de Q. 1.3.1 Formalismo Simplético Hamiltoniano A função de Hamilton desempenha o mesmo papel da Lagrangiana na dinâmica. Mas diferentemente de L, H é uma função em uma variedade que agrega as coordenadas gene- ralizadas e os momentos generalizados. Esta variedade é o produto direto (T∗ qQ ⊗ Q), 20 Figura 1.2: A variedade de configuração Q e suas variedades tangente TQ e contangente T∗Q para um ponto q . A função f que leva pontos de TQ em T∗Q é representação da transformação de Legendre. A inversa f−1 nem sempre é definida para todos os pontos de T∗Q, situação que ocorre quando o sistema possui v́ınculos. chamado Espaço de Fase T∗Q. Esta variedade tem como pontos as coordenadas e os momentos generalizados. Assim como na dinâmica Lagrangiana, se os momentos e as coordenadas são simplesmente coordenadas em T∗Q, não há motivos para tratá-los de modo distinto. Introduzimos então as variáveis ξ, {ξα} = {qi, pi} α ∈ {1, . . . , 2n}. (1.99) Ou seja, ξ são as coordenadas do espaço de fase e abrigam q e p. Com essas variáveis é posśıvel escrever as equações de Hamilton na forma ωαβ ξ̇ β = ∂αH. (1.100) O objeto cujas componentes são os elementos ωαβ constituem uma forma de segunda ordem em T∗Q. É a forma simplética definida por Ω = ωαβ dξ αdξβ . (1.101) As propriedades da forma simplética são: 1. Antissimetria: Ω(X,Y ) = −Ω(Y,X), ou, ωαβ = −ωβα. 2. Não degenerescência: Ω(X,Y ) = 0 para qualquer X se e somente se Y = 0. 3. ΩΩ∗ = Ω2 = −1, ou nas componentes, ωαβ ω βγ = δγ α. 4. Ω é dita fechada: dΩ = 023. 23A operação d é, neste caso, uma derivação exterior, que não definimos no texto pela razão de que ela só aparecerá aqui. A diferencial de um escalar é um caso particular da derivada exterior. 21 As propriedades acima qualificam uma estrutura como simplética. A propriedade 2 per- mite definir o dual da 2-forma simplética por Ω∗ = ωαβ ∂α × ∂β, (1.102) que vem a ser um tensor do tipo (2, 0). Com Ω∗ a equação (1.100) pode ser reescrita: ξ̇α = ωαβ∂βH . (1.103) Ora, as equações dinâmicas escritas com a forma (1.103) definem um campo vetorial no espaço de fase T∗Q. Chamaremos este campo de ∆ e ele é descrito nas coordenadas {ξα} por ∆ = ωαβ∂βH ∂α = ξ̇α∂α . (1.104) Note que podemos escrever as equações (1.100) com o aux́ılio de Ω: Ω( • ,∆)− dH = 0, (1.105) onde dH = ∂αHdξ α. A equação (1.105) representa as equações canônicas escritas indepen- dentes das coordenadas. 1.3.2 Os Parênteses de Poisson Mesmo sem resolver as equações de movimento é posśıvel escrever a evolução de uma variável dinâmica f(ξα) em T∗Q: L∆(f) = ˙ξα∂αf = ∆(f). Usando (1.103), L∆(f) = (∂αf)ωαβ(∂βH). (1.106) A estrutura que aparece no lado direito de (1.106) é chamada Parênteses de Poisson, (PP), definido por {f,H} = (∂αf)ωαβ(∂βH). (1.107) Desta feita, L∆(f) = {f,H}. (1.108) A equação (1.108) descreve a variação da variável dinâmica f(ξ) na curva integral solução da equação ξ̇α = ωαβ∂βH. (1.109) 22 Mas de modo análogo à dinâmica Lagrangiana, o campo ∆ não é o único gerador de curvas em T∗Q. Dado um campo vetorial X = xα∂α, ele também gera trajetórias descritas por dξα dε = xα. (1.110) Para que X seja Hamiltoniano, deve existir uma função g(ξ) no espaço de fase tal que suas componentes sejam dadas por xα = ωαβ∂βg(ξ). (1.111) A variação de uma função dinâmica f sobre a curva é dada por LX(f) = X(f) = xα∂αf = (∂αf)ωαβ(∂βg). (1.112) Reconhecemos à direta os PP {f, g} = (∂αf)ωαβ(∂βg). (1.113) Assim, LX(f) = {f, g}. (1.114) 1.3.3 Transformações em T∗Q Toda função escalar em T∗Q é ligada a um campo vetorial através de uma equação dinâmica com a forma dξα dε = ωαβ∂βg = {ξ, g}. (1.115) Como já mostrado no caso Lagrangiano, as trajetórias ξ = C(ε) definidas por (1.115) podem ser constrúıdas com transformações infinitesimais de coordenadas no espaço de fase. O campo vetorial Xg que é tangente a C em cada ponto está relacionado a um dado grupo de transformações que mapeia pontos de T∗Q em si mesmo. Algebricamente este trabalho é feito pela operação ψ Xg ε f = f + df dε dε = ξ + {f, g}dε, (1.116) onde f é uma função escalar. Dizemos, em função de (1.116), que g é geradora do grupo de transformações infinitesimais ψXg . Portanto, toda função escalar é geradora de um grupo de transformações em T∗Q. A Hamiltoniana em particular é geradora da evolução temporal: ψ∆ t f = f + {f,H}dt. (1.117) A versão finita desses operadores vem a ser 23 ψ Xg ε = exp{ • , g}ε . (1.118) Assim, as equações (1.116) e (1.117) são aproximações de primeira ordem em ε da exponencial (1.118). A ação de uma transformação altera, no geral, a forma de campos vetoriais, covetores e 2-formas24. Dado o grupo definido por (1.118), a transformação de um vetor se dá por X̄ = ψXψ−1. (1.119) Para um covetor: v̄(•) = ψ v (ψ−1 • ψ). (1.120) Uma 2-forma se transforma como Γ̄(•, •) = ψΓ(ψ−1 • ψ,ψ−1 • ψ) ≡ φΓ. (1.121) Vamos supor que a Hamiltoniana seja invariante a um grupo de transformações cujo gerador é uma função escalar g. Assim, ψ Xg ε H = H ou {H, g} = 0. (1.122) Isto também significa que ψ∆ t g = g, (1.123) ou seja, g é uma constante do movimento. Esta é a forma Hamiltoniana do teorema de Noether. Há um grupo especial de transformações para o qual φΩ = Ω, (1.124) ou seja, não altera a estrutura simplética. É o grupo de Transformações Canônicas, (TC). A condição (1.124) reflete-se nos PP e atesta que transformações canônicas mantêm invari- antes os PP de quaisquer duas variáveis dinâmicas. Note que essa classe de transformações é mais ampla que as transformações de ponto na dinâmica Lagrangiana, visto que estas per- mitem apenas transformações nas variáveis q. Já as transformações que deixam a dinâmica Hamiltoniana invariante permitem transformações de coordenadas em T∗Q, por exemplo a troca de coordenadas por momentos e vice-versa. Uma TC implica em uma nova função de Hamilton, que difere da original pela adição de uma derivada parcial temporal de uma função de T∗Q. Assim, K = H + ∂tS(t, q). (1.125) 24Ver [1], Sec. 5.3.2. 24 A função S é a geradora das transformações canônicas. Esta função tem papel funda- mental no formalismo de Hamilton-Jacobi, de modo que estudaremos suas propriedades no próximo caṕıtulo. 1.3.4 Propriedades dos Parênteses de Poisson Relacionando funções escalares a campos vetoriais podemos reconhecer a relação entre a matriz 2-forma simplética e os PP Ω(Yf , Xg) = {f, g}. (1.126) Esta relação é de importância fundamental. É nela que reconhecemos a estrutura simplética no espaço de fase. A partir das propriedades da 2-forma deduzimos as propriedades dos PP. As mais importantes são: 1. Antissimetria: {f, g} = −{g, f}. 2. Não degenerescência: {f, g} = 0 se e somente se f = 0 ou g = 0. 3. Identidade de Jacobi25: {{f, g}, h}+ {{h, f}, g}+ {{g, h}, f} = 0. Se uma dada variedade possuir uma estrutura que obedeça as três propriedades acima dizemos que ela é imbuida de uma estrutura simplética. Um resumo apropriado para este caṕıtulo deve enfatizar dois aspectos. O primeiro é que uma trajetória de um sistema Hamiltoniano tem uma forma espećıfica nas equações para o campo tangente (1.103), e que esta forma nos faz reconhecer uma estrutura simplética no espaço de fase. Para sistemas regulares a trajetória no espaço de configuração é diretamente reconhećıvel a partir da trajetória no espaço de fase, ou seja, as formulações Lagrangiana e Hamiltoniana são completamente equivalentes para esses sistemas. O segundo aspecto é o papel das transformações canônicas. No próximo caṕıtulo estu- daremos o formalismo de Hamilton-Jacobi e, embora não tenhamos de utilizar a teoria de TC para este propósito, a descrição histórica desse formalismo, e a encontrada em quase todos os livros em mecânica clássica, passa pelo estudo dessas transformações. Agora estamos preparados para estudar sistemas cuja matriz Hessiana é singular, ou seja, sistemas cujas relações (1.87) não podem ser escritas para todas as velocidades. Veremos que esses sistemas são vinculados, obrigados a se mover apenas em determinados sub-espaços de Q. 25Esta propriedade vem diretamente do fato de que dΩ = 0. 25 Referências Bibliográficas [1] J. V. José, E. J. Saletan - Classical Dynamics, A Contemporary Approach - Cambridge Un. Press, (1998). [2] C. Lanczos - The Variational Principles of Mechanics - Fourth Edition, Dover Pub. Inc. New York (1986). [3] P. A. M. Dirac - Lectures in Quantum Mechanics - Yeshiva University, New York (1964). [4] L Faddeev, R. Jackiw, - Phys. Rev. Lett. 60, 1692 (1988). [5] T. Frankel - The Geometry of Physics, an Introduction - Cambridge Un. Press (1997). 26 Caṕıtulo 2 O Formalismo de Hamilton-Jacobi 2.1 Introdução Nesta parte apresentaremos o formalismo de Hamilton-Jacobi tal como é desenvolvido por Carathéodory1, mas de forma generalizada para sistemas singulares. A forma mais comum de se encontrar a teoria de HJ na literatura é a partir da teoria das transformações canônicas desenvolvida por Jacobi. Nesta versão2, o formalismo Hamiltoniano é um ponto de partida, mas o método é freqüentemente confundido como uma técnica para integrar as equações de Hamilton. Este procedimento pode ser ilusivo quanto ao poder de śıntese que de fato tem o formalismo de HJ na mecânica clássica. O procedimento de Carathéodory é baseado em considerações muito mais profundas, notadamente nos problemas variacionais, e sua natureza mostra claramente a conexão entre as teorias das EDP, das EDO e do cálculo variacional. O método de Carathéodory é freqüentemente tratado como o quadro completo do cálculo variacional, justamente porque clarifica todo este sistema de teorias. A partir do quadro completo pretendemos, neste e no próximo caṕıtulo, estabelecer o tratamento para sistemas singulares. Como já vimos, tais sistemas possuem Lagrangianas cuja matriz Hessiana é singular. Esse tipo de sistema viola a condição (1.37), anulando todo o desenvolvimento do primeiro caṕıtulo entre a mecância de Lagrange e a de Hamilton. Os métodos até então conhecidos para a análise de v́ınculos são os de Dirac3, na década de 1950, e Faddeev e Jackiw4, na década de 1980. Pretendemos mostrar também que a análise de v́ınculos, pelo menos para ações de primeira ordem, tende a ser mais simples e menos obscura com o método de HJ. 1Em [1] e [2] 2Ver, por exemplo, [3], [4] e [5]. 3Ver [6]. 4Ver [7]. 27 2.2 O Problema Variacional As trajetórias de sistemas dinâmicos no espaço de configuração são dadas por curvas em Qn que são determinadas por campos vetoriais tangentes. Como vimos no caṕıtulo 1, esses campos são denominados campos Lagrangianos se as componentes dos campos forem dadas por equações de Euler-Lagrange, expressos na forma (1.46). Neste caṕıtulo usaremos outra abordagem para definir um campo Lagrangiano. É a abordagem dos prinćıpios variacionais. O prinćıpio variacional no qual nos apoiaremos é o Prinćıpio de Hamilton . Conside- remos uma curva C ∈ Qn, cuja forma paramétrica é dada por qi = qi(t). (2.1) Consideraremos t como o parâmetro da curva e este é relacionado com o tempo na mecânica clássica. Vimos que essa curva é determinada por um campo vetorial dado por ∆ ≡ q̇i∂i , (2.2) cujas componentes q̇ são as velocidades, definidas por equações do tipo q̇i = φi(t, q). (2.3) Consideremos também uma função Lagrangiana L(t, q, q̇). Entre dois pontos de C, dados pelos parâmetros t1 e t2, podemos calcular a integral I[C] = ∫ t2 t1 L(t, q, q̇)dt. (2.4) Os colchetes indicam que o valor da integral depende da curva na qual é calculada, ou seja, I é um funcional: relaciona curvas de Qn a números reais. A integral (2.4) é chamada de integral fundamental ou ação. Dizemos que ∆ constitui um campo Lagrangiano se a curva C for um extremo da integral fundamental, ou seja, δI = 0 deve ser satisfeita5. Antes de partir para uma solução do problema variacional é conveniente, para a nossa abordagem, expressá-lo de forma independente do parâmetro. Vamos incluir o tempo como uma variável dinâmica definindo um espaço de configuração estendido Qn+1 de dimensão n+1, coberto pelo sistema de coordenadas {qα} com {α} = {0, . . . , n}. Nesse sistema t = q0 e as demais coordenadas são expressas por qi = qα6=0. Vamos definir um novo parâmetro, desta vez arbitrário, τ , de modo que a curva C em Qn+1 tenha equações paramétricas qα = qα(τ), (2.5) e o campo vetorial que dá origem a C seja escrito por ∆ ≡ dqα dτ ∂α , (2.6) 5Ver [2], pp. 198-9, para uma definicão rigorosa de extremos de um funcional. 28 em que dqα dτ = φα(q). (2.7) Ao introduzir uma nova variável q0 = t, assumimos que o tempo pode ser escrito em função do parâmetro τ através da equação inverśıvel t = t(τ). (2.8) Assim, a partir de (2.4) escrevemos I = ∫ L(qα, q′ατ̇)dt, (2.9) em que a linha indica derivação com relação a τ . Vamos exigir que a Lagrangiana seja uma função homogênea de primeiro grau em q′6, ou seja, L(q, λq′) = λL(q, q′). (2.10) Somente assim podemos escrever I = ∫ L(qα, q′ατ̇)dt = ∫ dτ dt L(qα, q′α)dt = ∫ L(qα, q′α)dτ (2.11) e assim temos a nova integral fundamental I[C] = ∫ τ2 τ1 L(q, q′)dτ. (2.12) O fato de a Lagrangiana ser homogênea de primeiro grau em Qn+1 leva a uma conseqüência muito importante. Há o teorema de Euler para funções homogêneas, para o qual uma função homogênea de primeira ordem deve obedecer à condição ∂L ∂q′α q′α = L. (2.13) Note que as derivadas ∂L/∂q′ são funções homogêneas de grau zero, que são caracterizadas por obedecer à relação: F (q, λq′) = F (q, q′). A reaplicação do teorema de Euler, desta vez considerando funções homogêneas de grau zero, mostra que ∂L ∂q′α∂q′β q′β = 0. (2.14) Aqui podemos definir a forma Hessiana para Qn+1: A = aαβdq αdqβ , (2.15) 6Sem essa exigência não seremos capazes de definir uma integral fundamental no parâmetro τ . 29 com componentes aαβ = ∂L ∂q′α∂q′β . (2.16) A identidade (2.14) requer a singularidade da matriz formada com os elementos da forma Hessiana para este sistema em Qn+1. Assim, para Lagrangianas homogêneas de primeiro grau temos detA = 0. (2.17) Essa condição implica na existência de graus de liberdade vinculados na Lagrangiana. Vere- mos as conseqüências desse fato mais adiante. A partir da nova ação (2.12) podemos escrever I = ∫ L ( qα, q′α ) dτ = ∫ . . . ∫ L (qα, dqα) = ∫ ds, (2.18) Note que definimos um elemento de linha ds que corresponde ao elemento de linha do espaço de configuração estendido Qn+1. Assim, o prinćıpio de ação estacionária procura por geodésias (curvas de distância mı́nima) entre dois pontos de Qn+1. Esse elemento de linha denuncia a presença de uma métrica, ds2 ≡ g = gαβdq αdqβ. (2.19) Nessa formulação a ação é independente da escolha do parâmetro, mas ainda pode depen- der explicitamente do tempo, caso (2.4) possua essa dependência. Ainda estamos lidando com o caso geral em que t seja um parâmetro privilegiado. Nas teorias de campo relativ́ısticas essa distinção não pode mais ser assumida, pois a integral fundamental não depende do tempo nessas teorias. A formulação independente do parâmetro é natural para as teorias de campo. Já na mecânica clássica, em que o tempo adquire státus absoluto, acabamos por mostrar que uma formulação independente do parâmetro, que preserve o prinćıpio de Hamilton, é posśıvel desde que a Lagrangiana seja uma função homogênea de primeiro grau nas velocidades. Tais sistemas são, como demonstrado, condenados a serem singulares. 2.3 Condições para Extremos da Ação Para investigar as condições para que seja obedecido o prinćıpio de Hamilton δI = 0, vamos considerar no espaço de configuração a existência de uma famı́lia de superf́ıcies definida pela equação S(q) = σ, (2.20) em que σ ∈ R é o parâmetro que define cada superf́ıcie da famı́lia e S é uma função das coordenadas pelo menos duplamente diferenciável e com derivadas cont́ınuas. A curva C 30 intercepta a famı́lia S e por cada ponto de Qn+1 passa apenas um de seus membros. Em primeiro lugar, vamos impor que ∆(S) = q′α∂αS 6= 0, (2.21) ou seja, em nenhum ponto a famı́lia é tangente a C. Vamos supor agora uma segunda curva genérica C̄ dada pelas equações qα = q̄α(τ), (2.22) pertencente a uma vizinhança fechada7 de C. Essa curva é freqüentemente chamada curva de comparação. Com relação a C, a integral fundamental calculada sobre C̄ sofre um acréscimo diferencial dado por dI = Ldτ. (2.23) Ocorre também um incremento dσ, de modo que dσ = ∆(S)dτ. (2.24) Uma condição necessária para que C seja um extremo é a de que dI/dσ seja um extremo em q′α. Essa condição se expressa por ∂ ∂q′α ( dI dσ ) = ∂ ∂q′α ( L ∆(S) ) = 0. (2.25) Usamos na segunda parte da equação as relações (2.23) e (2.24). A razão L/∆(S) é indepen- dente das velocidades. De fato essa razão é uma função escalar que depende do parâmetro da famı́lia σ. Por esta razão escrevemos L/∆(S) = f(σ). Note que ∂ ∂q′α ( L ∆(S) ) = 1 ∆(S) ∂L ∂q′α − L ∆(S)2 ∂∆(S) ∂q′α = 1 ∆(S) ∂L ∂q′α − L ∆(S)2 ∂αS = 0, em que usamos (2.21) no último passo. Assim, ∂L ∂q′α = L ∆(S) ∂αS . (2.26) 7Dada a curva C definida por (2.1), uma segunda curva C̄, cujas equações paramétricas são qi = q̄i(t) pertence a uma vizinhança fechada (ε, η) de C se, primeiro, para todos os valores de t no intervalo t1 ≤ t ≤ t2, forem satisfeitas as condições � � �q̄ i(t)− qi(t) � � � ≤ ε e, para todo valor de t no mesmo intervalo para os quais existam as derivadas dq̄i/dt, forem também satisfeitas � � � � dq̄i dt − q̇i � � � � ≤ η. 31 Esta condição é suficiente apenas para garantir que C é um extremo da integral I =∫ f(σ)dσ. Para um extremo da integral (2.12) precisamos de uma condição mais forte. Obser- ve que uma reparametrização da famı́lia σ pode ser efetuada por uma função monotônica Ψ. Por ser monotônica podemos escrever Ψ(S) = Ψ(σ) (2.27) e definir ∆(Ψ) = q′α∂αΨ = q′α∂αS dΨ dσ = dΨ dσ ∆(S) . (2.28) Podemos escolher Ψ com a forma Ψ = ∫ σ σ0 f(σ′)dσ′ −→ dΨ dσ = f(σ) e assim temos no problema correspondente à famı́lia equivalente (2.28), L ∆(Ψ) = L f(σ)∆(S) = 1. (2.29) Com isso demonstramos que existe uma representação da famı́lia σ na qual L = ∆(S). (2.30) Note que esta escolha em particular reduz a condição (2.26) a ∂L ∂q′α = ∂αS . (2.31) No espaço estendido também podemos definir o campo de covetores dos momentos, cujas componentes são pα ≡ aαβq ′β = ∂L ∂q′α . (2.32) As equações (2.26) ficam então pα = ∂αS. (2.33) A partir de (2.30) podemos escrever L− q′α∂αS = 0. Usando as equações (2.33) chegamos à equação pαq ′α − L = 0. (2.34) Acabamos de mostrar uma relação muito geral, que vale para Lagrangianas homogêneas de 1o grau. A função de Hamilton desse sistema, definida por H ≡ pαq ′α−L, é sempre nula. 32 2.3.1 Sistemas Regulares em Qn Como caso particular, vamos analisar o cenário da mecânica clássica em que a Lagrangiana é regular e dependente da parametrização. O posto da Hessiana é n e, assim, podemos escrever p0q ′0 + piq ′i − L = 0. (2.35) Nossa escolha de parâmetros é livre. Portanto, vamos fazer a escolha τ = q0 = t. A equação (2.35) fica, então, p0 + piq̇ i − L(t, q, q̇) = 0. (2.36) Temos também as condições p0 = ∂tS (2.37) e pi = ∂iS. (2.38) Com este procedimento voltamos a analisar a dinâmica a partir de Qn. Nesta variedade voltamos a usar os momentos conjugados pi = aij q̇ j = ∂L ∂q̇i , (2.39) cujo Jacobiano é a matriz Hessiana com elementos aij = ∂2L ∂q̇i∂q̇j . (2.40) O posto dessa matriz é n e, portanto, podemos escrever q̇i = ηi(t, q, p) , (2.41) pois todas as relações (2.39) são inverśıveis. Usando (2.39) e (2.41) a equação (2.36) é então reescrita por ∂tS + ηi(t, q, ∂iS)∂iS − L(t, q, ∂iS) = 0. (2.42) A expressão ηi(t, q, ∂iS)∂iS − L(t, q, ∂iS) é função de t, q, e ∂iS e podemos definir a função de Hamilton H(t, q, ∂iS) ≡ ηi(t, q, ∂iS)∂iS − L(t, q, ∂iS). (2.43) Com essa nova função temos a condição 33 ∂tS +H(t, q, ∂iS) = 0. (2.44) Esta é a equação diferencial parcial de Hamilton-Jacobi para sistemas regulares. É importante ressaltar o fato de que a classificação regular refere-se ao espaço Qn. No espaço de configuração estendido o sistema não é regular. Neste caso o único grau de liberdade vinculado está ligado à coordenada q0. Podemos interpretar a equação (2.44) como um v́ınculo, escrevendo p0 = ∂0S, (2.45) em que p0 = −H. O fato de as demais coordenadas serem livres implica na possibilidade da definição da função de Hamilton (2.43) e, portanto, para encontrar a função S que define a famı́lia (2.20), precisamos resolver uma única EDP. Note também que a existência de um v́ınculo em Qn+1 reduz a análise a Qn, que tem uma dimensão a menos. Veremos que esta é uma caracteŕıstica geral dos sistemas singulares, o de permitir a análise em um espaço de configuração reduzido. 2.3.2 Sistemas Singulares Gerais Vamos generalizar o resultado acima para sistemas singulares. Suponha que L(qα, q′α) é uma Lagrangiana homogênea de primeiro grau em q′. Estamos considerando o sistema no espaço de configuração estendido, em que o tempo é incluso como coordenada. Estamos à procura de uma função S(q) que define uma famı́lia de superf́ıcies em Qn+1, constrúıda a partir da trajetória do sistema supondo-a conhecida. Chegamos por um prinćıpio variacional às seguintes condições que devem ser obedecidas pela função S: pα = ∂αS, (2.46) Φ0 ≡ pαq ′α − L(q, q′) = 0 (2.47) Se a Lagrangiana é homogênea de primeiro grau, a matriz Hessiana cujos elementos são dados por (2.16) é singular, ou seja, detA = 0, como mostrado na seção 2.2. Como vimos, basta que um dos momentos não possa ser escrito em função das velocidades para que a condição Hessiana seja violada. No caso de sistemas regulares, por exemplo, mostramos que esses sistemas são singulares em Qn+1 porque não podemos escrever q′0 = f(q, p), (2.48) e portanto p0 não depende da velocidade q′0. A solução foi definir uma equação de v́ınculo e reduzir o espaço de tal forma a encontrar- mos uma Hessiana inverśıvel. Este espaço reduzido resultou ser de dimensão n, 1 dimensão menor que Qn+1. A Hessiana definida em Qn é uma submatriz da Hessiana mais geral definida em Qn+1. 34 Com base nesse fato, vamos supor no espaço Qn+1 uma matriz Hessiana singular. Vamos definir o posto dessa matriz como o número da dimensão do espaço no qual precisamos chegar para tornar o sistema regular. Essa dimensão é dada pelo número de autovalores não nulos da Hessiana. Como submatriz da Hessiana original temos uma matriz regular de ordem m que diz respeito aos graus de liberdade f́ısicos da Lagrangiana. Dizemos que seu posto é m. Assim, m velocidades podem ser escritas como funções de q e p: pa = aab q ′b =⇒ q′b = ηb(qx, qa, pa). (2.49) Os coeficientes aab são elementos da submatriz inverśıvel contida na Hessiana. Os ı́ndices minúsculos do ińıcio do alfabeto latino serão usados de agora em diante para representar graus de liberdade dessa submatriz. Assim, {a, b} = {1, . . . m}. As demais relações não podem ser invertidas. Isto significa que n+ 1−m momentos não guardam dependência com as velocidades vinculadas. Temos: px = axyq ′y = −Hx(qα, ηa) = −Hx(qα, pa). (2.50) Índices minúsculos do fim do alfabeto latino serão usados para representar graus de liberdade que não pertencem à submatriz inverśıvel: {x, y} = {0,m+ 1, . . . n}. As equações (2.50) são EDP de primeira ordem se usarmos as relações (2.46): Φx ≡ ∂xS +Hx(qα, ∂aS) = 0. (2.51) Aparentemente a definição das funções Hx não sofre problemas. Podemos simplesmente encontrá-las a partir da Lagrangiana pelas relações Hx = − ∂L ∂q′x . (2.52) Contudo, note a equação para a coordenada q0 H0 = − ∂L ∂q′0 . Se quisermos definir t como parâmetro e voltar ao espaço Qn, esta equação torna-se H0 = − ∂L ∂q′0 = − ∂L ∂q̇0 = −∂L ∂ṫ que não tem sentido. Não podemos encontrar H0 por este caminho. Vamos voltar a analisar a condição (2.47). Para encontrar H0 precisamos voltar a Qn onde o tempo é o parâmetro. Assim podemos escrever8 p0 + paq̇ a + pz q̇ z − L(t, qi, q̇a, q̇z) = 0. (2.53) Observando essa última relação e o conjunto de relações (2.51), px+Hx = 0, a escolha natural seria 8Apenas nessa dedução usaremos o ı́ndice z tal que {z} = {m + 1, . . . , n}, sem o ı́ndice temporal. 35 H0 = paη a(t, qi, pb) + pz q̇ z − L(t, qi, pa, q̇ z) = H0(t, qi, pa, q̇ z). (2.54) A dependência de q̇z em H0 definida em (2.54) nos faria desistir dessa escolha, mas o fato é que H0 não depende de q̇z: ∂H0 ∂q̇z = pz − ∂L ∂q̇z = 0. (2.55) Assim, podemos escolher H0 como H0(qα, pa) = piq̇ i − L (2.56) e esta deve ser a Hamiltoniana canônica. Temos então os v́ınculos descritos em Qn+1 de forma unificada por Φx ≡ px +Hx = 0, (2.57) em que {x} = {0,m+ 1, . . . , n}. Os v́ınculos são n−m+ 1 equações. Combinadas com as condições pα = ∂αS, (2.58) temos ∂xS +Hx(qα, ∂aS) = 0. (2.59) A este sistema de n+ 1−m equações damos o nome de EDP de Hamilton-Jacobi . 2.3.3 Análise das Condições de Extremos Existem, portanto, duas condições para que a integral fundamental seja estacionária sobre a trajetória C. A primeira consiste no sistema de n + 1 equações (2.58), que relaciona as componentes do momento conjugado p ≡ A(•,∆) = pαdq α (2.60) com as componentes do covetor dS = ∂αSdq α. (2.61) A diferencial dS aplicada em um ponto P sobre uma superf́ıcie define uma direção a partir P . É a direção do gradiente geodésico de S. O sistema (2.58) reflete nas componentes a condição p = dS. (2.62) Com o termo gradiente geodésico estamos indicando que curvas que passam pela famı́lia σ na direção de seu gradiente, representando extremos da integral fundamental, são curvas 36 geodésicas em Qn+1. Essa terminologia está de acordo com o fato de que o prinćıpio de ação estacionária requer a nulidade da primeira variação da integral (2.18), que representa uma ”distância”em Qn+1. Ou seja, curvas de extremos representam geodésias no espaço de configuração estendido. Figura 2.1: Representação da trajetória e das superf́ıcies transversais em Qn+1. Em razão da presença de v́ınculos, somos obrigados a separar as equações (2.58) de acordo com o posto da matriz Hessiana. Temos portanto m relações pa = ∂aS (2.63) e n+ 1−m relações px = ∂xS. (2.64) Podemos inverter (2.63) pois a Hessiana reduzida de elementos aab é inverśıvel. Escreve- mos então, q′a = (a−1)ab∂bS = ηa(qα, ∂bS). (2.65) As demais relações não podem ser invertidas. Em vez disso elas se transformam no sistema de EDP de HJ: Φx(qy, qa, ∂xS, ∂aS) = 0, (2.66) em que Φx = ∂xS +Hx. A partir de (2.65) podemos definir uma famı́lia de curvas em Qn+1 que chamaremos de congruência K. Essa congruência varre os pontos do espaço de maneira que somente uma curva passa por cada ponto. Todas as curvas são extremos do problema variacional, pois seus 37 campos tangentes satisfazem (2.62). Dito em outras palavras, essas curvas são soluções de (2.65). A congruência é relacionada à existência da famı́lia σ, de modo que dizemos se tratar de uma congruência pertencente a uma famı́lia de superf́ıcies. A segunda condição é a igualdade L = ∆(S). (2.67) Enquanto a primeira condição define unicamente a direção da trajetória do sistema em Qn+1, consistindo por isso em uma condição puramente geométrica, a última condição car- rega a informação sobre a dinâmica do sistema. Somente com ela podemos definir a função Hamiltoniana canônica, (2.56), referente ao espaço reduzido Qm. Esta função, como mostra a equação de HJ correspondente à coordenada temporal, ∂0S +H0 = 0, (2.68) é a que se liga à equação de evolução temporal do sistema. Lembremo-nos que o problema variacional original era dependente do tempo, de modo que mesmo em uma formulação independente do parâmetro a equação (2.68) é diferente em essência dos demais v́ınculos. Essa é a manifestação do caráter especial do tempo com relação às demais coordenadas na mecânica clássica. A equação temporal pode ser vista como um v́ınculo, mas um v́ınculo com realidade e importância f́ısicas. Dada a curva C, solução do problema variacional e das equações (2.65), a integral funda- mental calculada sobre dois pontos de C que interceptam duas superf́ıcies S = σ1 e S = σ2 é dada por I = ∫ P2 P1 Ldτ = ∫ σ2 σ1 ∆(S)dτ = ∫ σ2 σ1 dσ = σ2 − σ1, (2.69) e este valor é o mesmo para todos os membros da congruência entre as mesmas superf́ıcies. Chamamos as superf́ıcies que se caracterizam por esta condição de geodesicamente equi- distantes. Assim se dá a redução do espaço de configuração para um espaço de m graus de liberdade Qm. As equações (2.65) representam as componentes de um campo vetorial tangente em Qm e a solução das EDO (2.65) são as representações paramétricas de C neste espaço. Contudo essas equações estão vinculadas às EDP (2.66). Então temos o seguinte cenário: para que uma trajetória C em Qn+1 satisfaça o prinćıpio de ação estacionária, é necessário que ela pertença a uma congruência K de curvas que interceptem de forma transversal (p = dS) uma famı́lia de superf́ıcies σ geodesicamente equidistantes, L = ∆(S). 2.4 Equações Caracteŕısticas Somente para uma famı́lia de superf́ıcies que obedece ao sistema de equações (2.66) pode- mos definir um campo de trajetórias que lhe seja ortogonal. Assim, precisamos nos preocupar com a resolução desse sistema em busca da forma do campo de velocidades (2.65). As equações 38 de HJ são EDP de primeira ordem e assim nos é permitido utilizar o procedimento de Cauchy9 para encontrar sua solução geral. Devemos também nos perguntar se este realmente consiste em um sistema completamente integrável. Apenas para tornar o formalismo mais abrangente, vamos tratar de um sistema de EDP de primeira ordem um pouco mais geral, supondo que as funções Hx sejam também funções explicitamente dependente de S. Temos então as equações Φx(qy, qa, py, pa, z) = 0, (2.70) em que  z = S(qy, qa) pa = ∂aS(qy, qb) . (2.71) Procedendo dessa forma, as funções Φx passam a depender de k = n−m+ 1 parâmetros qy. Novamente expandimos o espaço de configuração para comportar mais uma variável, z = S, mas esse artif́ıcio é apenas uma forma de generalização. Vamos construir as diferenciais dz = ∂aSdq a + ∂ySdq y, (2.72) e dpa = ∂a∂ySdq y + ∂a∂bSdq a, (2.73) a partir de (2.71). De (2.70) podemos tomar a derivada parcial com relação a qa. Como resultado, ∂aΦx + ∂Φx ∂py ∂y∂aS + ∂Φx ∂pa ∂a∂bS + ∂Φx ∂z ∂aS = 0. (2.74) No entanto, sabemos que Φx só depende linearmente de py: ∂Φx/∂py = δy x. Surge então ∂a∂xS = −∂aΦx − ∂Φx ∂pa ∂a∂bS − ∂Φx ∂z ∂aS. (2.75) Usando (2.75) em (2.73), dpa = − ( ∂aΦy + ∂Φy ∂pa ∂a∂bS + ∂Φy ∂z ∂aS ) dqy + ∂a∂bSdq a. (2.76) Agora, sabemos a partir das equações de HJ que as funções Hy podem ser escritas por Hy = ∂ ∂q′y L(qi, pb, q′x) . (2.77) Temos com essa expressão ∂Hy ∂pa dqy = ∂2L ∂pa∂q′y dqy = ∂ ∂q′y ∂L ∂pa dqy = dqa. 9Ver [1], Cap. 3. 39 Podemos, por conseqüência, escrever como uma identidade o sistema de EDO dqa = ∂Hy ∂pa dqy = ∂Φy ∂pa dqy. (2.78) Assim, com a nulidade de dois termos, as equações (2.76) ficam dpa = − ( ∂aΦx + ∂Φx ∂z ∂aS ) dqy. (2.79) Uma terceira equação pode ser obtida por (2.72). Tomando (2.78), dz = ( ∂aS ∂Φy ∂pa + ∂yS ) dqy = ( pa ∂Φy ∂pa −Hy ) dqy. (2.80) Definimos então como as equações caracteŕısticas do sistema de HJ as 2m+1 equações dqa = ∂Φy ∂pa dqy , dpa = − ( ∂aΦx + ∂Φx ∂z ∂aS ) dqy , dz = ( pa ∂Φy ∂pa −Hy ) dqy. (2.81) Utilizando-se de um formalismo simplético e usando o fato de que os v́ınculos que nos interessam na verdade não dependem de z, escrevemos as duas primeiras equações como dξa = ωab∂bΦydq y = {ξa,Φy}dqy, (2.82) em que a estrutura simplética é a mesma daquela que encontramos no caṕıtulo 110. Assim notamos a existência de um espaço de fase T∗Qm e a mesma estrutura dos parênteses de Poisson: Ω(Xf , Yg) = {f, g} = (∂af)ωab(∂bg). (2.83) O sistema (2.82) consiste em um sistema de Equações Diferenciais Totais (EDT). Pode-se facilmente mostrar que para sistemas regulares as equações caracteŕısticas coincidem com as equações canônicas de Hamilton. Assim, no quadro completo de Carathéodory, en- contramos a ligação que existe entre a teoria das EDP e a teoria das equações diferenciais ordinárias. 2.4.1 Integrabilidade As equações de HJ e as caracteŕısticas, bem como suas soluções, desenham o quadro completo. A solução do conjunto de EDP (2.51) é, se única, uma função dependente de parâmetros arbitrários que representa uma famı́lia de superf́ıcies. Já as soluções das EDT (2.82) definem toda uma famı́lia de curvas dependentes das condições iniciais, que chamamos 10Quando usarmos o formalismo simplético, os ı́ndices das variáveis dobram de valor, ou seja, {a, b, c} = {1, . . . , 2m} em (2.82). 40 por uma congruência de curvas. As soluções estão ligadas pelo fato de toda curva da con- gruência ser normal a todo vetor tangente a qualquer superf́ıcie da famı́lia em qualquer ponto. Queremos que a solução S exista para um dado campo vetorial definido pelas EDT e procu- raremos agora pela condições que nos garantem esse quadro. A questão fundamental é, dada uma congruência gerada por um campo vetorial conhecido, é posśıvel encontrar pelo menos uma famı́lia de superf́ıcies que lhe seja ortogonal? Um exemplo em R3 pode ser ilustrativo. Dada uma curva C, assumiremos que existe uma famı́lia de superf́ıcies S(x) = σ cortada pela curva e que esta seja transversa à famı́lia. Dado um ponto x(τ0) ≡ x0 sobre a trajetória, podemos definir um plano, Γ0, gerado a partir de dois vetores linearmente independentes Xz = χi z ∂i. Sobre este mesmo ponto passa uma superf́ıcie σ0 de modo que o plano Γ0 é tangente a esta superf́ıcie em x0. Neste caso {i} = {1, 2, 3} e {z} = {1, 2}. Esses vetores devem ser ortogonais a um vetor n0 tangente a C em x0, ou seja, n0 ·Xz = 0 . (2.84) Contudo, queremos não apenas que um plano seja ortogonal a C, mas toda uma famı́lia de planos Γ. Neste caso n0 é um membro de um campo vetorial n e devemos ter que em qualquer ponto sobre a curva a construção acima seja válida. Chamaremos esta famı́lia de planos por uma distribuição11 Γ. Neste caso, o campo n deve obedecer à condição n · ∇ × n = 0, (2.85) que é a condição de integrabilidade de Euler12. Esta condição é necessária para garantir a existência de uma famı́lia de superf́ıcies S(x) = σ que seja ortogonal a C. Por exemplo, consideremos o campo vetorial dado por n = x2∂1 − x1∂2 + ∂3 . (2.86) Para este vetor, ∇ × n = −2∂3 e n · ∇ × n = −2, o que indica que não há uma famı́lia de superf́ıcies que obedeça (2.85). Por outro lado, se o vetor tiver componentes constantes, o rotacional sempre se anula e, portanto, a condição (2.85) é sempre satisfeita. Podemos mostrar que se a trajetória for uma reta há sempre uma famı́lia de superf́ıcies em R3 que lhe seja normal. Temos também o covetor dual a n, que chamaremos de p. No exemplo acima ele é dado por p = x2dx 1 − x1dx 2 + dx3 . Caso (2.85) não seja satisfeita, não será posśıvel encontrar a partir da trajetória a distribuição Γ ortogonal a C em todo ponto. Não há, por conseguinte, um conjunto completo de campos vetoriais que satisfaçam as equações p(Xz) = piχ i z = 0. (2.87) 11Ver [8] p. 166. 12Ver [8], Cap. 6. 41 Figura 2.2: A trajetória C, uma superf́ıcie σ0 e o respectivo plano tangente Γ0. O vetor tangente a C é ortogonal aos vetores de base que geram a distribuição. A condição de integrabilidade é satisfeita se a figura for estendida a toda famı́lia σ e a toda congruência de curvas K, do qual C é membro. Há também a famı́lia σ, que sendo transversal a C obedece à condição p = dS. Assim, temos de (2.87) o conjunto de EDP Φz ≡ χi z∂iS = 0, (2.88) que são as condições para que os vetores Xz sejam tangentes à famı́lia σ. A condição de integrabilidade de Euler é necessária e suficiente para que a base Xz possa ser completa. Visto que a partir do plano Γ0 podemos encontrar qualquer outro membro da distribuição a partir das equações (2.87), podemos tratar os vetores Xz como bases da distribuição Γ. De- sejamos agora que essas condições de integrabilidade sejam estendidas para toda a congruência K, do qual C é membro. Para tanto, os vetores base tangentes a σ tornam-se também campos vetoriais e estes adquirem a qualidade de geradores de curvas no espaço. As curvas geradas pela base da distribuição são definidas também por parâmetros, tantos quantos forem as equações (2.88), no nosso caso consistindo em duas equações. As caracteŕısticas do sistema (2.88) são dadas por dxi = χi zdu z, (2.89) em que u1 e u2 são os parâmetros mencionados. Se as caracteŕısticas consistirem em um conjunto completo de EDT, e este é o caso por construção, as curvas geradas pelos vetores de 42 base da distribuição permanecem sempre sobre uma superf́ıcie de σ. Isto também significa que a derivada de Lie LXy(Xz) é um vetor que permanece em σ0. Assim, este sistema obedece à condição [Xy,Xz] ⊂ Γ. (2.90) Portanto o comutador de Lie entre dois vetores da distribuição é também um vetor perten- cente a Γ. Dizemos que este sistema está em involução. Assim, a condição necessária e suficiente para que as caracteŕısticas consistam em um sistema completo é a involução da distribuição, e esta é também a condição para que a congruência K e a famı́lia σ sejam transversais. Esta condição é conhecida como o Teorema de Frobenius13. A estensão para sistemas dinâmicos em espaços de ordem geral é imediata. No formalismo de HJ, as equações (2.88): χi z∂iS = 0 (2.91) são os v́ınculos da teoria no espaço de fase, e estas estão ligadas ao conjunto de caracteŕısticas dξa = χa zdq z. (2.92) O ı́ndice z adquire então o conjunto de valores do número de v́ınculos existentes. A integra- bilidade exige que o comutador de Lie dos campos vetoriais presentes em (2.92) obedeçam à equação [Xx,Xy]S = C z xy Xz(S) . (2.93) Ou seja, esses campos devem obedecer a uma álgebra de Lie. Estamos interessados no caso em que χa z = {ξa,Φz}, e então podemos escrever Xz(S) = {ξa,Φz}∂aS = {S,Φz}, (2.94) em que usamos (2.83). Assim, [Xx,Xy]S = XxXy(S)−XyXx(S) = Xx{S,Φy} −Xy{S,Φx} = {{S,Φy},Φx} − {{S,Φx},Φy} = {{S,Φy},Φx}+ {{Φy, S},Φx}+ {{Φx,Φy}, S} , ou seja, [Xx,Xy]S = {{Φx,Φy}, S} . (2.95) As condições de integrabilidade vêm a ser {{Φx,Φy}, S} = C z xy Xz(S) = C z xy {S,Φz} = − {C z xy Φz, S}, (2.96) 13Ver [8], Sec. 6.1d. 43 ou, {Φx,Φy} = − C z xy Φz = 0. (2.97) Tomando a diferencial dos v́ınculos e usando as equações (2.82), dΦx = {Φx,Φy}dqy. (2.98) Para que o sistema de equações (2.82) seja completamente integrável devemos exigir, por fim, que dΦx = 0. (2.99) Portanto, encontramos as condições suficientes para que o sistema de EDP de HJ seja integrável completamente e, por conseqüência, essas são as mesmas condições que garantem a existência de uma famı́lia de superf́ıcies transversa à trajetória do sistema. Vimos da comparação com o caso em R3 que se justifica o fato de as coordenadas ligadas à parte não inverśıvel da Hessiana serem utilizadas como parâmetros. O próximo passo é exigir a validade de (2.99) para todos os v́ınculos e verificar as conseqüências dessa imposição na dinâmica em T∗Qm. 2.5 Equações de Movimento Não há razão para esperar que todo sistema satisfaça (2.99) identicamente, ou seja, que os PP dos v́ınculos sejam nulos. Então as condições de integrabilidade estabelecem na verdade uma relação de dependência entre os parâmetros ligados à parte não inverśıvel da Hessiana. Isto pode ser visto explicitamente se fizermos uma escolha de parâmetro: vamos separar o tempo dos demais parâmetros e definir os ı́ndices {x′, y′, z′} = {m + 1, . . . , n}. Assim a condição de integrabilidade nos leva ao sistema de equaçõesdΦx′ = {Φx′ ,Φy}dqy = {Φx′ ,Φ0}dt+ {Φx′ ,Φy′}dqy′ = 0, dΦ0 = {Φ0,Φy}dqy = {Φ0,Φy′}dqy′ = 0. (2.100) A partir da primeira condição de (2.100) temos {Φx′ ,Φy′}dqy′ = −{Φx′ ,Φ0}dt. (2.101) Note que esta escolha ressalta uma vez mais o caráter diferenciado do tempo com relação aos demais parâmetros, assim como do v́ınculo Φ0 com relação aos Φx′ . Em uma representação matricial das equações (2.96), podemos definir a matriz M cujos elementos são dados por Mx′y′ = {Φx′ ,Φy′}. (2.102) 44 2.5.1 Caso Regular Se M for regular, ou seja, det(M) 6= 0, existe uma matriz M−1 inversa de M e assim a condição (2.101) pode ser reescrita: dqy′ = −(M−1)y′x′{Φx′ ,Φ0}dt. (2.103) Note que a segunda condição de integrabilidade, dΦ0 = 0, é identicamente satisfeita se M for regular, com a ajuda de (2.103): dΦ0 = {Φ0,Φy′}dqy′ = −{Φ0,Φy′}(M−1)y′x′{Φx′ ,Φ0}dt, (2.104) em que M−1 é antissimétrica e está contráıda com a quantidade simétrica em x′ e y′, {Φ0,Φy′}{Φx′ ,Φ0}. As condições de integrabilidade reduzem-se, portanto, à condição (2.103) para det(M) 6= 0. Voltemos nossa atenção para as equações de movimento dξa = {ξa,Φy}dqy = {ξa,Φ0}dt+ {ξa,Φy′}dqy′ . (2.105) Usando a condição (2.103), dξa = ( {ξa,Φ0} − {ξa,Φy′}(M−1)y′x′{Φx′ ,Φ0} ) dt. (2.106) Vamos analisar a diferencial de uma função dinâmica F (ξα): dF = {F,Φy}dqy = {F,Φ0}dt+ {F,Φy′}dqy′ . (2.107) Com (2.103), dF = ( {F,Φ0} − {F,Φy′}(M−1)y′x′{Φx′ ,Φ0} ) dt. (2.108) É evidente em (2.108) a existência de uma estrutura. Vamos chamá-la de Parênteses Generalizados (PG) e defińı-la por {F,G}∗ ≡ {F,G} − {F,Φy′}(M−1)y′x′{Φx′ , G}. (2.109) A evolução dinâmica pode então ser escrita pelo PG: dF = {F,Φ0}∗dt. (2.110) Especificamente as equações de movimento podem ser escritas por dξa = {ξa,Φ0}∗dt. (2.111) 45 2.5.2 Caso Singular No caso mais geral em que M é singular, as condições de integrabilidade não são satisfeitas pelo conjunto de v́ınculos estabelecido pela Lagrangiana. Ou seja, os colchetes de Lie dos campos vetoriais não serão combinações dos campos. Se esta situação ocorrer, devemos procurar por um espaço no qual as equações de movimento sejam completamente integráveis. Se não for posśıvel encontrar este espaço, estaremos lidando com um sistema não integrável. Neste trabalho desejamos que os sistemas sejam integráveis. Assim admitiremos a exis- tência de uma submatriz de M que seja inverśıvel, ou seja, trabalharemos com a hipótese de que M tenha um posto diferente de zero. Vamos em primeiro lugar relembrar o conjunto de ı́ndices que usamos até agora e definir um novo conjunto, referente às partes inverśıvel e não inverśıvel de M :  {α, β, γ, . . .} = {0, . . . , n} {i, j, k} = {1, . . . , n} {a, b, c} = {1, . . . ,m} {x, y, z} = {0,m+ 1, . . . , n} {x′, y′, z′} = {m+ 1, . . . , n} {a′, b′, c′} = {m+ 1, . . . ,m+ p} {x′′, y′′, z′′} = {m+ p+ 1, . . . , n} {α′, β′, γ′} = {0,m+ p+ 1, . . . , n}, em que p é o posto de M . Assim podemos escrever (2.101) por Mx′y′dqy′ = −{Φx′ ,Φ0}dt (2.112) ou, Mx′a′dqa′ +Mx′y′′dqy′′ = −{Φx′ ,Φ0}dt. (2.113) Dois conjuntos de equações podem ser obtidos de (2.113). O primeiro, Mb′a′dqa′ +Mb′y′′dqy′′ = −{Φb′ ,Φ0}dt. (2.114) Mb′a′dqa′ = −Mb′y′′dqy′′ − {Φb′ ,Φ0}dt = −{Φb′ ,Φy′′}dqy′′ − {Φb′ ,Φ0}dt = −{Φb′ ,Φα′}dqα′ . Com a inversibilidade de (Ma′b′), temos dqa′ = −(M−1)a′b′{Φb′ ,Φα′}dqα′ . (2.115) A partir das equações caracteŕısticas obtemos 46 dξa = {ξa,Φy}dqy = {ξa,Φ0}dt+ {ξa,Φy′}dqy′ = {ξa,Φ0}dt+ {ξa,Φy′′}dqy′′ + {ξa,Φa′}dqa′ = {ξa,Φα′}dqα′ + {ξa,Φa′}dqa′ ←− usando (2.110), = ( {ξa,Φα′} − {ξa,Φa′}(M−1)a′b′{Φb′ ,Φα′} ) dqα′ , ou, dξa = {ξa,Φα′}∗dqα′ , (2.116) com novos PG definidos por {F,G}∗ = {F,G} − {F,Φa′}(M−1)a′b′{Φb′ , G}. (2.117) Portanto, a evolução temporal de F pode ser escrita por dF = {F,Φα′}∗dqα′ . (2.118) O segundo conjunto de (2.113) consiste nas equações Mx′′a′dqa′ +Mx′′y′′dqy′′ = −{Φx′′ ,Φ0}dt. (2.119) com algumas operações: Mx′′a′dqa′ = −Mx′′y′′dqy′′ − {Φx′′ ,Φ0}dt = −{Φx′′ ,Φy′′}dqy′′ − {Φx′′ ,Φ0}dt = −{Φx′′ ,Φα′}dqα′ . No lado direito introduziremos (2.115) e o fato de que Mx′′a′ = {Φx′′ ,Φa′}: {Φx′′ ,Φa′}(M−1)a′b′{Φb′ ,Φα′}dqα′ = {Φx′′ ,Φα′}dqα′ . (2.120) A equação (2.120), dada a independência dos parâmetros qα′ , dá a condição para que o espaço reduzido exista de fato. As condições de integrabilidade tornam-se assim, {Φx′′ ,Φα′} = {Φx′′ ,Φa′}(M−1)a′b′{Φb′ ,Φα′}, (2.121) ou, separando o tempo dos demais parâmetros:{Φx′′ ,Φ0} = {Φx′′ ,Φa′}(M−1)a′b′{Φb′ ,Φ0}, {Φx′′ ,Φy′′} = {Φx′′ ,Φa′}(M−1)a′b′{Φb′ ,Φy′′}. (2.122) A segunda equação de (2.122) mostra simplesmente a relação linear entre linhas e colu- nas da parte não inverśıvel de M , ou seja, mostra que M é singular, o que a torna uma identidade. No entanto a primeira equação tem conteúdo dinâmico. Ela fixa condições sobre os parâmetros e seleciona quais são os graus de liberdade do sistema que não têm conteúdo f́ısico. 47 2.6 O Espaço de Fase Generalizado As equações caracteŕısticas nos dizem a prinćıpio quais são as variáveis dinâmicas do sistema. Elas estabelecem uma separação no espaço de configuração através da separação das variáveis com conteúdo dinâmico daquelas que seriam apenas parâmetros da teoria, ou seja, existe um espaço Qm no qual as variáveis dinâmicas dependem de k = n+ 1−m parâmetros qy. O espaço dos parâmetros é estabelecido pelo sistema de HJ. A relação entre as equações caracteŕısticas e os v́ınculos mostra que Qm e o espaço dos parâmetros são complementares. Vamos nos referir ao espaço dos parâmetros como o espaço complementar de Qm, ou seja, CQk. A estrutura das caracteŕısticas mostra que existe um espaço de fase que pode ser cons- trúıdo a partir de Qm e sua estrutura simplética é aquela dos parênteses de Poisson. No entanto esta estrutura não é aquela que dá a dinâmica do sistema. Existe, como vimos, um outro espaço de fase relacionado a um outro setor de Qn, ao qual pertence Qm, e a estrutura simplética deste espaço deve ser a dos parênteses generalizados que encontramos em (2.109) e (2.117). Mostra-se que a estrutura dos PG é antissimétrica, não degenerada e que obedece à identidade de Jacobi, obedecendo portanto as condições para que a forma ω∗(XF , XG) = {F,G}∗ defina uma estrutura simplética, existindo por conseqüência um espaço de fase generalizado. Neste espaço as equações de movimento são condições sobre as componentes do campo tan- gente ∆, exatamente como vimos no caṕıtulo 1. Suas soluções serão curvas em T∗Q genera- lizado. Qual é a dimensão do espaço de fase generalizado? As equações caracteŕısticas não são as únicas equações de movimento, pois vimos que as condições de integrabilidade sobre o espaço complementar, CQk, resultam na descoberta de outras variáveis dinâmicas além daquelas que repousam em Qm. O papel central das condições de integrabilidade é o de reduzir o espaço complementar e revelar todas as variáveis dinâmicas livres do problema. Depois de descobrir as demais coordenadas livres, dadas pelas equações (2.103) e (2.115), e no segundo caso depois de descobrir as condições de redução de CQk, (2.122), a dimensão do espaço generalizado fica evidente. Para que a idéia torne-se mais clara, temos então as equações caracteŕısticas que valem para o caso geral em que o posto de M é p ≤ k: dξa = {ξa,Φα′}∗dqα′ , (2.123) em conjunto com as equações dξa′ = {ξa′ ,Φα′}∗dqα′ , (2.124) que foram generalizadas para o formalismo simplético a partir das equações (2.115). Estas devem ser resolvidas sob a condição 48 {Φx′′ ,Φ0} = {Φx′′ ,Φa′}(M−1)a′b′{Φb′ ,Φ0}. (2.125) O primeiro conjunto, (2.123), consiste em 2m equações e sua solução nos fornece 2m variáveis dinâmicas. O segundo conjunto, (2.124), nos fornece 2p equações adicionais. Assim, as variáveis dinâmicas do problema são em número de 2(m + p) e o espaço de configuração das variáveis dinâmicas é Qm+p. Usaremos T∗Qm+p como śımbolo para o espaço de fase generalizado. 49 Referências Bibliográficas [1] C. Caratheodory - Calculus of Variations and Partial Differential Equations of the First Order - Part I - Holden Day, Inc (1967). [2] C. Caratheodory - Calculus of Variations and Partial Differential Equations of the First Order - Part II - Holden Day, Inc (1967). [3] C. Lanczos - The Variational Principles of Mechanics - Fourth Edition, Dover Pub. Inc. New York (1986). [4] I. M. Gelfand, S. V. Fomin - Calculus of Variations - Dover Pub. Inc. New York (2000). [5] J. V. José, E. J. Saletan - Classical Dynamics, A Contemporary Approach - Cambridge Un. Press, (1998). [6] P. A. M. Dirac - Lectures in Quantum Mechanics - Yeshiva University, New York (1964). [7] L Faddeev, R. Jackiw, - Phys. Rev. Lett. 60, 1692 (1988). [8] T. Frankel - The Geometry of Physics, an Introduction - Cambridge Un. Press (1997). 50 Caṕıtulo 3 Ações de Primeira Ordem 3.1 Introdução Ações de primeira ordem aparecem em muitas teorias na f́ısica, especialmente nas teorias relativ́ısticas. Esses sistemas são descritos por Lagrangianas lineares nas velocidades L(q, q′) = aα(q)q′α, (3.1) em que {α} = {0, . . . , n} e q′ ≡ dq′/dτ com τ um parâmetro qualquer. Os coeficientes aα são funções apenas das coordenadas de Qn+1 e reforçamos o fato de que o tempo nessa formulação é inclúıdo como variável dinâmica. A integral fundamental desse sistema é simplesmente I = ∫ aαq ′αdτ = ∫ ∫ . . . ∫ aαdq α. (3.2) É evidente que esta Lagrangiana é homogênea de primeira ordem em q′. Assim ela constitui um sistema singular por natureza. Os exemplos encontrados na natureza mostram que todos os campos conhecidos podem ser transformados em ações de primeira ordem. Schwinger1 mostra que essa caracteŕıstica vem da própria estrutura homogênea dessas Lagrangianas, ou seja, Lagrangianas homogêneas em primeiro grau na variável q′ são redut́ıveis por transformações de equivalência a Lagrangianas lineares nessas variáveis. Como exemplos desses campos, podemos citar os campos fermiônicos2, que são