Meu Curso de Controle Avançado
Transcrição
Meu Curso de Controle Avançado
Curso de “Controle Avançado” (ELE-1815) Pe. Pedro M. Guimarães Ferreira S.J. (Este texto está disponível em http://www.fplf.org.br/pedro_varios/) Capítulo 1: Análise de Sistemas não – lineares (Seguiremos neste capítulo principalmente o excelente texto de D. Luenberger, Introduction to Dynamic Systems, que teve várias edições. Alguns problemas são tomados de M. Vidyasagar, Nonlinear Systems Analysis e de Jean-Jacques Slotine e Weiping Li, Applied Nonlinear Control). 1. Introdução Consideraremos sistemas não lineares seja em tempo discreto, seja em tempo contínuo. Se xi (k), i = 1, 2, ...n, representarem as variáveis de estado do sistema em tempo discreto, temos as seguintes equações de estado: x1(k+1) = f1(x1(k), x2(k),......., xn(k), k), x2(k+1) = f2(x1(k), x2(k),......., xn(k), k), … … (1.1a) … … xn(k+1) = fn(x1(k), x2(k),......., xn(k), k), tomando arbitrariamente o início da contagem do tempo em k = 0. Estas equações podem ser escritas em forma compacta, vetorial, a saber, x(k+1) = f(x(k), k) (1.1b), onde x(k) ∈ R n . No caso de sistemas de tempo contínuo, temos dx1 = f1(x1(t), x2(t), ....xn(t),t), dt dx2 = f2(x1(t), x2(t), ....xn(t),t), dt ... .... ... .... dxn = fn(x1(t), x2(t), ....xn(t),t), dt (1.2a) com t ≥ 0. Ou em forma compacta, vetorial, 1 dx(t) = f(x(t),t) dt , (1.2b) onde x(t) ∈ R n . Das equações (1.1) e (1.2) verifica-se que se trata de sistemas de dimensão finita (equações diferenciais ordinárias) variantes no tempo, isto é, sistemas em que as equações de diferenças e diferenciais dependem explicitamente do tempo (k no caso de sistemas de tempo discreto e t no caso de sistemas de tempo contínuo). Na realidade, neste curso nos ocuparemos principalmente (mas não exclusivamente) de sistemas invariantes no tempo, isto é, as equações não dependem explicitamente do tempo. Ou seja, ao invés de (1b) e de (2b), temos, respectivamente, x(k+1) = f(x(k)) e (1.3) dx(t) = f(x(t)) . dt (1.4) Observe-se que neste capítulo, nosso objetivo não será resolver equações diferenciais (no caso de tempo contínuo) ou equações de diferença (no caso de tempo discreto). Tratar-se-á de análise dos sistemas correspondentes, isto é, determinação dos pontos de equilíbrio e da estabilidade (ou não) dos sistemas. Vejamos um exemplo escalar, isto é, com n = 1: Exemplo : A curva logística (1.5) Seja o sistema definido por dx(t ) = a(1 – x(t)/c) x(t) = ax(t) – ax2(t)/c, com a > 0, c > 0, x(0) > 0, c > x(0) dt (1.6) Note-se que quando se considera somente a primeira parcela do lado direito da equação diferencial, temos uma exponencial crescente. Sabemos que todo crescimento vital é exponencial, isto é, o acréscimo é proporcional ao “tamanho” do ser vivo, ou seja, dx(t) = ax(t)dt, que corresponde à primeira parcela da equação diferencial acima, cuja solução é x(t) = eat . Entretanto a segunda parcela modera o crescimento da função e de fato é isto que acontece em todos os sistemas vivos, há uma saturação no crescimento. (Ver fig. 1 na próxima página). Vamos provar que a solução da equação (1.6) é c − x(0) c x(t) = , onde b = . (1.7) x(0) 1 + be−at Com efeito, diferenciando x(t), temos dx(t ) −c(−ba)e−at = (1.8) dt (1 + be−at )2 2 Do lado direito de (1.6), em vista de (1.7), temos Applied Mathematics INDEX Algebra Applied Mathematics Calculus and Analysis Discrete Mathematics Foundations of Mathematics Geometry History and Terminology Number Theory Probability and Statistics Recreational Mathematics Topology Population Dynamics Logistic Equation The logistic equation (sometimes called the Verhulst model or logistic growth curve) by Pierre Verhulst (1845, 1847). The model is continuous in time, but a modificat quadratic recurrence equation known as the logistic map is also widely used. Alphabetical Index DESTINATIONS About MathWorld About the Author New in MathWorld MathWorld Classroom Interactive Entries Random Entry CONTACT Contribute an Entry Send a Message to the Team 4 The continuous version of the logistic model is described by the differential equation MATHWORLD - IN PRINT Order book from Amazon 3 Figura 1 1 ⎞ c abce− at ⎛ , que é idêntico a (1.8). a(1-x(t)/c)x(t) =a ⎜1= -at ⎟ -at − at 2 ⎝ 1+be ⎠ 1+be (1 + be ) Observe-se que de de x(t) em (1.7), temos x(0) = c/(1+b), donde b é efetivamente dado em (1.7). Como foi dito antes, nosso objetivo neste curso não será, em geral, resolver equações diferenciais. Esta foi resolvida para mostrar como pode ser interessante introduzir elementos não lineares numa equação diferencial para modelar certos fenômenos. De (1.7) vemos que a solução satura, tendendo exponencialmente para c. (1.9) Exemplo: Tempo de escape finito Considere-se agora a equação diferencial, em que trocamos o sinal dentro do parênteses, a saber dx(t ) (1.10) = a (1 + x(t ) / c) x(t ) ,com a, c > 0. dt Se x(0) > 0 , a solução para t > 0 é c , onde b = (c + x(0)) / x(0) . x(t ) = be−at − 1 (Observe-se que desta expressão, junto com x(0) > 0 e c > 0, conclui-se b > 1 ). A demonstração deste fato é em tudo análoga à do exemplo anterior e será omitida. A curva se parece com o ramo direito da parábola x(t) = x(0) + t2 mas cresce abruptamente atingindo valor ∞ em te logaritmo neperiano. tal que be−ate = 1 , ou seja, te = ln b1 / a ,onde “ln” é o Claro que se pudéssemos resolver qualquer equação diferencial, seria muito melhor, não precisaríamos estudar a maior parte das coisas que serão dadas neste curso. Mas, como sabemos, as eqs. diferenciais não lineares são, em geral, de difícil solução, muitas, inclusive, não tendo solução conhecida. Então, o que vamos fazer é “comer o mingau pela beirada”, ou seja, vamos atacar os problemas não lineares usando outras técnicas, que não a solução de eqs. diferenciais. 2. Pontos de equilíbrio Definição: (2.1) Um vetor xe ∈ Rn é um ponto de equilíbrio de um sistema se for tal que se o estado do sistema chegar a xe , aí fica. No caso de sistemas de tempo discreto dados por (1b), isto é, x(k+1) = f(x(k), k) (1.1b, bis) temos no ponto de equilíbrio 4 xe = f(xe, k), para todo k ≥ 0. (2.2) E no caso de sistemas de contínuo, dados por (1.2b), isto é, dx(t) = f(x(t), t) , dt (1.2b, bis) temos no ponto de equilíbrio f(xe, t) = 0 para todo t ≥ 0 . (2.3) Como já foi observado, trataremos precipuamente - mas não exclusivamente – de sistemas invariantes no tempo. Para tais sistemas, temos, ao invés de (2.2) e (2.3), xe = f(xe) , (2.4) f(xe) = 0 , (2.5) respectivamente. O sentido destas eqs. é claro. Com efeito, (2.2) e (2.4) indicam tautologicamente a definição de estabilidade, ou seja, se o estado chega a xe , ele aí fica. E por sua vez (2.3) e dx(t ) (2.5) indicam que o “vetor velocidade” é nulo no ponto de equilíbrio, obtendo o dt mesmo resultado: se o estado do sistema ali chegar, ali fica. Falamos de “ponto de equilíbrio”. Na realidade um sistema pode ter mais de um ponto de equilíbrio e, em geral, os sistemas não lineares os têm. Numa aplicação simples do conceito acima aos sistemas lineares, temos, para sistemas de tempo contínuo invariantes no tempo, em lugar de (2.5) f(xe) = Axe = 0, ou seja, os pontos de equilíbrio estão no núcleo (kernel) de A. Se esta matriz tiver posto cheio, o que ocorre com freqüência, o único ponto de equilíbrio do sistema será xe = 0. E é claro que xe = 0 sempre será um ponto de equilíbrio do sistema, mesmo que não seja único. Para o caso de sistemas lineares de tempo discreto invariantes no tempo, de (2.4) os pontos de equilíbrio obedecerão à equação (I – A) xe = 0, e, portanto xe estará no Núcleo de I – A. sendo claro, de novo, que xe = 0 sempre será um ponto de equilíbrio do sistema, mesmo que não seja único. Exemplo: Consideremos de novo a equação da curva logística (2.6) 5 dx(t ) = a(1 – x(t)/c) x(t) (1.5 bis) dt Os pontos de equilíbrio devem satisfazer, de acordo com (2.5), a a(1 – xe / c) xe = 0. Portanto há dois pontos de equilíbrio, a saber, xe = 0 e xe = c , que é confirmado pelas figura 1. Exemplo: Considere o seguinte sistema de tempo discreto: x1 (k + 1) = α x1 (k ) + x2 (k ) 2 , (2.7) x2 (k + 1) = x1 (k ) + β x2 (k ) . De acordo com (2.4), os pontos e equilíbrio devem satisfazer a xe1 = α xe1 + xe 2 2 , xe 2 = xe1 + β xe 2 . Resolvendo este sistema de eqs., obtemos dois pontos de equilíbrio: x = ⎡⎣0, 0] e x = ⎡⎣ (1 − α )(1 − β ) 2 , (1 − α )(1 − β ) ] . T T 3. Estabilidade O conceito de estabilidade pertence à linguagem comum. Aqui estaremos falando da estabilidade do estado do sistema e, se o sistema só tiver um ponto de equilíbrio, teremos a estabilidade do sistema. Falando informalmente, diremos que se um ponto de equilíbrio é estável, se o estado inicial estiver “próximo” a ele, continuará próximo. Assim, o ponto de equilíbrio (em baixo) de um pêndulo é um ponto de equilíbrio estável. É preciso chamar a atenção que num sistema mecânico o estado tem duas componentes, posição e velocidade; então um ponto de uma mesa onde se coloque uma bola parada, supondo que a superfície seja com atrito é um ponto de equilíbrio estável, como veremos mais claramente na definição formal de estabilidade. A definição de estabilidade que se segue vale tanto para sistemas de tempo discreto como para sistemas de tempo contínuo, respectivamente: x(k+1) = f(x(k)), (3.1) dx(t ) = f(x(t)), dt (3.2) onde x ∈ Rn . Definições: (3.3) 1) Um ponto de equilíbrio xe é estável se existir Ro > 0 tal que para todo R < Ro exista r com 0 < r < R sendo que para todo x(0) dentro da bola S(xe, r), x(t) permaneça dentro da bola S(xe, R) para todo t > 0. 2) Um ponto de equilíbrio xe é assintoticamente estável se ele for estável e, alem disso, existir R1 > 0 tal que se x(0) estiver dentro da bola S(xe, R1), o estado x(t) tenderá a xe com o tempo. 6 3) Um ponto de equilíbrio xe é marginalmente estável se for estável, mas não assintoticamente estável. 4) Um ponto de equilíbrio xe é instável se ele não for estável. Ou por outras palavras, xe é instável se para algum R › 0 e para qualquer r › 0 existir um estado inicial x(0) na bola S(xe, r) tal que o estado do sistema em algum momento sairá da bola S(xe, R). Figura 2 Cabem alguns esclarecimentos: Conforme se pode ver da definição de instabilidade, não é necessário, ao contrário do uso na linguagem comum, que o estado “exploda” – isto é, tenda a ∞ - para que o ponto de equilíbrio seja instável. O ponto de equilíbrio é instável se existir uma bola tal que o estado do sistema sairá dela, para algum estado inicial x(0) tão próximo do ponto de equilíbrio quanto desejarmos. Precisada deste modo a definição de ponto de equilíbrio instável, podemos talvez entender melhor a definição precisa de ponto de equilíbrio estável: é aquele que não é instável! A definição acima de ponto de equilíbrio estável pode parecer difícil de entender com a introdução da bola de raio Ro. Como veremos, esta bola é introduzida por causa dos sistemas de tempo discreto. No caso de sistemas de tempo contínuo podemos fazer R = Ro Para sistemas de tempo contínuo, a definição de estabilidade pode ser simplificada, a saber, 7 1’) Um ponto de equilíbrio xe é estável se existirem R , r > 0 tais que se x(0) ∈ S(xe, r), então x(t) ∈ S(xe, R) para todo t > 0 Exemplo: (3.4) Considere o sistema linear invariante no tempo dx(t ) = ax(t ) . dt O único ponto de equilíbrio é a origem, isto é, x = 0 Este sistema é estável se a ≤ 0, assintoticamente estável se a < 0 , instável se a > 0 e marginalmente estável se a = 0. Tratando-se de sistema linear, instabilidade é equivalente ao estado tendendo para ∞. É um exercício simples verificar as definições acima neste caso. Exemplo: A equação logística (de novo) (3.5) dx(t ) = a(1 – x(t)/c) x(t), com a e c maiores que zero. dt Já vimos que os pontos de equilíbrio são 0 (zero) e c. É fácil verificar que o primeiro é instável, enquanto que o outro é assintoticamente estável. Novamente teste as definições neste caso. Exemplo: (3.6) O seguinte modelo matemático tem aplicação em genética: x(k ) x(k + 1) = . 1 + x(k ) x Os pontos de equilíbrio devem satisfazer a xe = e , cuja única solução é xe = 0, ou 1 + xe seja, só há um ponto de equilíbrio. x(0) Vamos demonstrar por indução matemática que a solução da equação é x(k ) = . 1 + kx(0) Inicialmente verificamos (tenha-se em vista a equação de estado) que a expressão é correta para k = 1. Suponha que seja verdadeira para k; demonstraremos que é verdadeira para k + 1. Ora, substituindo x(k) na equação de estado, temos x(0) x(0) x(0) 1 + kx(0) , concluindo a prova. = = x(k + 1) = x(0) 1 kx (0) x (0) 1 ( k 1) x (0) + + + + 1+ 1 + kx(0) Conseqüentemente, x(∞)→ 0 para todo x(0) > 0, ou seja, o sistema é assintoticamente estável se nos limitarmos a valores positivos de x(k), que são os que têm significação na genética. Observe-se que se x(k) puder assumir valores negativos e para algum k tivermos x(k) → -1, teremos x(k + 1) → ∞ . 4. Linearização e Estabilidade A estabilidade de sistemas não lineares é, em geral, uma propriedade local, ao contrário dos sistemas lineares, em que, caso o ponto de equilíbrio seja único, ela é uma propriedade 8 global. Por “local” queremos dizer que ela vale numa vizinhança suficientemente pequena do ponto de equilíbrio e por “global” entendemos que a propriedade vale em todo o espaço de estado. Sendo local a estabilidade, faz sentido examiná-la linearizando o sistema no ponto de equilíbrio, que é o que faremos nesta seção. A análise da estabilidade de um sistema não linear a partir da sua linearização em torno do ponto de equilíbrio é chamado primeiro método de Lyapunov. Considere-se a função escalar f(x), onde x ∈ Rn , ou seja, f ( x) = f ( x1 , x2 ,...xn ) . Suponha que este f(x) seja o segundo membro da equação de um sistema (eq. (3.1) ou (3.2)). Seja xe um ponto de equilíbrio do sistema e sejam xe1 , xe 2 ,...xen suas componentes. Vamos deslocar o estado do sistema de seu ponto de equilíbrio, através de perturbação arbitrariamente pequena (arbitrariamente pequena significa “tão pequena quanto queiramos”). Seja y esta perturbação, ou seja, xe → xe + y, onde as componentes de y são y1 , y2 ,... yn . 9 Figura 3 Suponhamos que f(x) ∈ Rn e sejam fi (x) as componentes de f(x) , i = 1,2,....,n. Então, podemos escrever a proximação de primeira ordem: fi ( xe1 + y1 , xe 2 + y2 ,..., xen + yn ) ≈ fi ( xe1 , xe 2 ,..., xen ) + ∂ fi ( xe1 , xe 2 ,..., x en ) y1 + ∂x1 ∂ ∂ fi ( xe1 , xe 2 ,..., x en ) y2 + .......+ fi ( xe1 , xe 2 ,..., x en ) yn . ∂x2 ∂xn (4.1) ∂ fi ( xe1 , xe 2 ,..., x en ) significa a derivada parcial ∂x1 da função fi calculada no ponto de equilíbrio, o mesmo para as outras derivadas. Na expressão acima, abusando a notação, Então podemos escrever n equações como (4.1). Definamos a matriz n x n : ∂f ∂x = ⎡ ∂f1 ⎢ ∂x ⎢ 1 ⎢ ∂f 2 ⎢ ∂x ⎢ 1 ⎢ ..... ⎢ ⎢ ∂f n ⎢⎣ ∂x1 ∂f1 ∂x2 ∂f1 ⎤ ∂xn ⎥ ⎥ ∂f 2 ∂f 2 ⎥ ..... ∂x2 ∂xn ⎥ ⎥ ..... ..... ..... ⎥ ⎥ ∂f n ∂f n ⎥ ..... ∂x2 ∂xn ⎥⎦ ..... A matriz acima calculada em xe será denotada por A , ou seja, A = A matriz (4.2a) ∂f ∂x (4.2b) x = xe ∂f é chamada matriz jacobiana de f. ∂x Em vista de (4.1) e (4.2), podemos escrever compactamente f(xe + y) ≈ f(xe) + Ay (4.3) Vamos aplicar estes resultados aos sistemas (3.1) e (3.2). Repetindo (3.1): x(k+1) = f(x(k)). Ora, x(k) = xe + y(k), (4.4) x(k+1) = xe + y(k + 1). 10 Disso, de (4.3) e de (4.4), temos xe + y(k+1) ≈ f(xe) +Ay(k). Mas xe = f(xe) (ponto de equilíbrio em sistema de tempo discreto). Donde, y(k+1) = Ay(k). (4.5) No caso de sistemas de tempo contínuo, temos (3.2), que repetimos dx(t ) = f(x(t) (4.6) dt Fazendo x(t) = xe + y(t), temos, dx(t ) dy (t ) = . dt dt Ora, no ponto de equilíbrio, temos f(xe) = 0, isto é, como vimos, o vetor velocidade é nulo no ponto de equilíbrio. E em vista de (4.3), temos dy (t ) = Ay(t) (4.7) dt Portanto de (4.5) e (4.7), concluímos que tanto nos sistemas de tempo discreto como nos sistemas de tempo contínuo a aproximação linear de um sistema não linear tem A como sua matriz do sistema. Ora, como sabemos, a estabilidade de um sistema linear depende da localização de seus auto-valores no plano complexo Seja C o plano complexo. Denotemos por D−0 := {s ∈ C : s < 1}, isto é, o interior do círculo unitário e denotemos por C−0 := { s ∈ C : Re [s] < 0}, isto é, o semi-plano aberto da esquerda. Sabemos que num sistema linear de tempo discreto todo ponto de equilíbrio é assintoticamente estável se só se todos os autovalores da matriz do sistema estiverem em D−0 , enquanto que num sistema linear de tempo contínuo todo ponto de equilíbrio é assintoticamente estável se só se todos os auto-valores da matriz do sistema estiverem em C−0 . Por outro lado, no caso de sistemas lineares de tempo discreto, se algum auto-valor da matriz do sistema tiver valor absoluto maior que 1, então todo ponto de equilíbrio será instável, enquanto que nos sistemas de tempo contínuo, se algum auto-valor tiver parte real positiva, todo ponto de equilíbrio será instável. Finalmente, no caso de sistemas de tempo discreto, se um ou mais auto-valores estiverem na circunferência de raio unitário e todos os outros auto-valores estiverem no interior dela, cada ponto de equilíbrio será marginalmente estável ou instável, conforme os blocos de Jordan correspondentes aos auto-valores sobre a circunferência de raio unitário sejam de ordem 1 ou não, isto é, se todos os blocos de Jordan referidos tiverem ordem 1, os pontos de equilíbrio serão marginalmente estáveis; se algum auto-valor na dita circunferência tiver 11 bloco de Jordan com ordem maior que 1, os pontos de equilíbrio serão instáveis. Para sistemas de tempo contínuo, os resultados são os mesmos, substituindo-se a circunferência de raio unitário pelo eixo imaginário. Então temos: Teorema: (4.8) 1. No caso de sistemas não-lineares de tempo discreto, se todos os auto-valores de A estiverem em D−0 , então xe será um ponto de equilíbrio assintoticamente estável do sistema não linear. No caso de sistemas de tempo contínuo, substitua-se D−0 por C−0 . 2. No caso de sistemas não-lineares de tempo discreto, se algum auto-valor de A tiver valor absoluto maior que 1, xe é ponto de equilíbrio instável. No caso de sistemas de tempo contínuo, a conclusão é a mesma, com a devida modificação, ou seja, algum auto-valor com parte real positiva. 3. No caso de sistemas não-lineares de tempo discreto, se algum auto-valor de A estiver sobre a circunferência de raio unitário e todos os outros estiverem no interior da mesma, nada se pode concluir, pois o ponto de equilíbrio xe do sistema não linear poderia ser tanto assintoticamente estável, como marginalmente instável, ou instável. No caso de sistemas não-lineares de tempo contínuo, se algum auto-valor de A estiver no eixo imaginário e os outros auto-valores estiverem no semi-plano aberto da esquerda, também nada podemos concluir a respeito da estabilidade ou instabilidade do sistema. Prova (esboço): A aproximação linear é boa se y(t) for suficientemente pequeno tanto no primeiro caso, como no segundo. Entretanto, se algum auto-valor estiver na “fronteira”, por menor que seja o acréscimo y(t), o sistema linearizado não caracteriza o sistema não-linear. Efetivamente, a linearização é uma aproximação de primeira ordem, desprezando-se os termos de ordem maior. Ora, quando algum auto-valor está na fronteira, a estabilidade ou não do ponto de equilíbrio vai depender dos termos de ordem maior que um na expansão da série de Taylor. Exemplo: (4.9) Considere o sistema discreto do Exemplo (3.6) da seção anterior, a saber, x(k ) . Vimos que o único ponto de equilíbrio deste sistema é xe = 0. x(k + 1) = 1 + x(k ) x , temos Para linearizar este sistema, denotando f (x) = 1+ x df 1 . No ponto de equilíbrio temos A = 1, e portanto a equação do sistema = dx (1 + x) 2 linearizado é y(k+1) = y(k). Então o auto-valor do sistema linearizado é igual a 1, estando na “fronteira”, isto é, sobre a circunferência de raio 1. Portanto de acordo com o teorema acima (4.8), nada podemos concluir a respeito da estabilidade do sistema não linear. 12 Exemplo: (4.10) Consideremos agora o sistema de tempo contínuo dx = ax(t ) + cx(t ) 2 . dt Verificamos que xe = 0 é um ponto de equilíbrio, quaisquer que sejam os valores de a e c. Estudemos a estabilidade deste ponto de equilíbrio. df df f(x) = ax(t ) + cx(t ) 2 . Donde, = a + 2cx, e portanto, A = calculado em x = 0, ou dx dx seja, A = a. Concluímos portanto que o ponto de equilíbrio estudado do sistema não linear é instável se a > 0, assintoticamente estável se a < 0, e nada podemos concluir se a = 0. Exemplo: (4.11) Consideremos mais uma vez a equação logística: dx (t ) ax(t ) 2 = ax(t ) − , com a e c maiores que zero. Os pontos de equilíbrio, são, como dt c já vimos, 0 (zero) e c. Linearizando a equação, obtemos facilmente dy 2ax =a− . Então, com o primeiro ponto de equilíbrio, obtemos A = a > 0, ou seja, o dt c ponto de equilíbrio é instável. Com o segundo ponto de equilíbrio, obtemos A = a – 2a = - a < 0, ponto de equilíbrio assintoticamente estável, conclusão a que havíamos chegado por simples inspeção da curva. Exemplo: Consideremos novamente o exemplo (2.7): x1 (k + 1) = α x1 (k ) + x2 (k ) 2 , (4.12) x2 (k + 1) = x1 (k ) + β x2 (k ) . Vimos que os pontos de equilíbrio deste sistema são x = ⎡⎣0, 0] e T x = ⎡⎣(1 − α )(1 − β ) 2 , (1 − α )(1 − β )] . T Suponhamos α , β ∈ (0,1) . A matriz jacobiana é ∂f ⎡α 2 x2 ⎤ = ∂x ⎢⎣ 1 β ⎥⎦ Para o primeiro ponto de equilíbrio acha-se, então, λ -α 0 ⎡α 0 ⎤ A= ⎢ , os dois auto-valores estando portanto , e portanto, λ I − A = ⎥ -1 λ -β ⎣1 β ⎦ dentro do círculo unitário, o ponto de equilíbrio sendo então assintoticamente estável. Para o segundo ponto de equilíbrio, achamos, com a substituição respectiva da segunda componente do ponto de equilíbrio, λ − α −2(1 − α )(1 − β ) ⎡α 2(1 − α )(1 − β ) ⎤ ; e portanto, λ I − A = . A= ⎢ ⎥ −1 β λ−β ⎣1 ⎦ 13 A equação característica correspondente a esta matriz é (λ − α )(λ − β ) = 2(1 − α )(1 − β ) . Ora, o lado esquerdo desta equação cresce com λ e é menor que o lado direito se λ = 1. Conseqüentemente, existe uma raiz desta equação maior que 1. E portanto este ponto de equilíbrio é instável. Exercícios 1, 7 e 9 ao final do capítulo 5. Método direto de Lyapunov Nesta seção estudaremos o assim chamado segundo método de Lyapunov, também chamado método direto de Lyapunov. “Direto” por oposição ao anterior, indireto, em que se estuda a estabilidade da função linearizada, concluindo-se, ou não, a respeito da estabilidade / instabilidade da função não linear. Uma diferença importantíssima entre o método que estudaremos nesta seção e o da anterior é que, na linearização, só podemos concluir a respeito de estabilidade / instabilidade do sistema não linear numa vizinhança arbitrariamente pequena do ponto de equilíbrio. No segundo método que estudaremos agora, poderemos concluir, em muitos casos, a respeito do “tamanho” da vizinhança do ponto de equilíbrio. O método foi proposto e desenvolvido pelo cientista russo M. Lyapunov ao final do século XIX, em tese doutoral defendida na Universidade de Paris. É certamente uma das teses mais importantes da história das ciências exatas. A intuição de Lyapunov foi um “ovo de Colombo”, uma extensão / generalização do conceito de energia em sistemas mecânicos. Sabemos que num sistema mecânico com atrito, a energia vai decrescendo até que o sistema chegue ao ponto de equilíbrio: imagine um pêndulo, por exemplo, ou um objeto arremessado horizontalmente sobre uma mesa com atrito, ou uma pedra arremessada para cima, etc. (5.1) Definição: Seja xe um ponto de equilíbrio de um sistema dinâmico. Uma função de Lyapunov para este ponto de equilíbrio do sistema é uma função V , definida em uma região Ω do espaço de estado, xe ∈ Ω e tal que: (1) V é uma função contínua de x , (2) V(x) tem um único mínimo em xe , (3) O valor de V nunca aumenta ao longo de qualquer trajetória do estado x(t) em Ω. (Nesta última propriedade, entendemos por “trajetória” a evolução do estado ao longo do tempo, isto é, no sentido de t crescente). Um parabolóide de revolução http://mathworld.wolfram.com/Paraboloid.html é um simples exemplo de uma candidata a função de Lyapunov num espaço de estado de duas dimensões. Uma parábola é um exemplo de candidata num espaço de estado de uma dimensão. Será ou não função de Lyappunov se o valor de V associado ao estado efetivamente não aumentar ao longo do tempo. Este ponto deve ser frisado: uma função de Lyapunov é uma função de um estado que evolui no tempo segundo uma equação 14 diferencial (no caso de sistemas de tempo contínuo) ou de diferença (no caso de sistema de tempo discreto). Exemplo: Considere o sistema definido por x2 (k ) x1 (k + 1) = 1 + x2 (k ) 2 (5.2) x1 (k ) 1 + x2 (k ) 2 É fácil verificar que [0 , 0]T é um ponto de equilíbrio deste sistema. Definamos a função V ( x1 , x2 ) = x12 + x22 Esta função é contínua nos seus argumentos e tem um único mínimo, que é o ponto de equilíbrio do sistema. Vejamos se ela satisfaz à terceira propriedade das funções de Lyapunov: V ( x(k + 1)) = x1 (k + 1) 2 + x2 (k + 1) 2 . Substituindo as parcelas do lado direito nas equações do sistema, temos x2 (k ) 2 x1 (k ) 2 V ( x(k )) ≤ V ( x (k )) . = V ( x(k + 1)) = + 2 2 2 2 (1 + x2 (k ) ) (1 + x2 (k ) ) (1 + x2 (k ) 2 ) 2 Conseqüentemente a função proposta é uma função de Lyapunov. x2 (k + 1) = Vamos agora enunciar e provar o teorema de Lyapunov, primeiramente para sistemas de tempo discreto e depois para sistemas de tempo contínuo. Consideremos portanto os sistemas de tempo discreto n x ( k + 1) = f ( x( k )) , onde x ∈ R . Suporemos que a função f seja contínua. Se V(x) for uma função de Lyapunov para este sistema, definamos ∆V(x) = V(f(x)) – V(x), (5.3) ou seja, o acréscimo do valor da função quando se passa do instante k para o instante k+1. Para que V seja função de Lyapunov, devemos ter ∆V(x) ≤ 0 para todo x na região Ω. Estamos agora em condições de enunciar e demonstrar o (5.4) Teorema de Lyapunov de estabilidade em sistemas de tempo discreto Se existir uma função de Lyapunov V(x) em uma região esférica S(xe, Ro), isto é, centrada em xe e com raio Ro , então xe é um ponto de equilibro estável. Se, além disso, ∆V(x), definida em (5.3) for estritamente negativa em todos os pontos (exceto xe), então a estabilidade é assintótica. Prova: A demonstração do teorema será feita de olho da fig. 4 abaixo. Suponha que V(x) exista conforme o enunciado do teorema. Seja R arbitrário, mas tal que 0 < R < Ro . Seja R1 < R tal que se x ∈ S(xe , R1), então f(x) ∈ S(xe , Ro). A existência 15 de R1 é garantida pela continuidade de f(x). Com esta escolha, se o estado estiver dentro da esfera de raio R1 , ele não pulará para fora da esfera de raio Ro em um único passo. Seja m o mínimo valor de V(x) na região definida por R1 ≤ x − xe ≤ R. É claro que m > V(xe) , porque V(x) assume o valor mínimo em xe . Seja r, com 0 < r < R1 tal que V(x) < m ∀ x ∈ S(xe , r). De novo, tal r existe em vista da continuidade da função V(x). Agora suponha que x(0) esteja dentro de S(xe , r). Então V(x(0)) < m . Mas como ∆V(x) ≤ 0, então V não pode crescer com o tempo e conseqüentemente a trajetória do estado não pode sair da esfera S(xe , R1), e, com mais forte razão, não pode sair da esfera S(xe , R). Então, para este R arbitrário, encontramos r que corresponde à definição de estabilidade. Se, adicionalmente, ∆V(x) < 0 para todo x ≠ xe , então V(x) diminuirá sempre até chegar ao valor mínimo, que corresponde ao ponto de equilíbrio, ou seja, teremos estabilidade assintótica. Figura 4 Exemplo (conclusão do exemplo (5.2) acima): (5.5) Vimos que existe uma função de Lyapunov para o sistema dado e, portanto, o sistema é estável. 16 A título de comparação com o primeiro método de Lyapunov, vamos ver o que se poderia concluir usando este último método. ⎡ 1 − x22 ⎤ 0 ⎢ ⎥ (1 + x22 ) 2 ⎥ ∂f ⎢ ; no ponto de equilíbrio considerado no exemplo, isto é, [0,0]T, = ⎥ ∂x ⎢ 1 −2 x1 x2 ⎢ 2 2 2⎥ ⎣1 + x2 (1 + x2 ) ⎦ ⎡0 1⎤ ∂f , cujo polinômio característico é (λ − 1)(λ + 1) , ou seja, os 2 temos A = =⎢ ∂x [0,0]T ⎣1 0 ⎥⎦ auto-valores estão na fronteira, isto é, sobre a circunferência de raio unitário: portanto nada podemos concluir sobre a estabilidade do sistema. (Mas concluímos acima que o sistema é estável usando o segundo método de Lyapunov). Passemos agora ao estudo do segundo método para sistemas de tempo contínuo, isto, é, dx(t ) = f(x(t)) . dt Seja V(x) uma função de Laypunov para estes sistema; a 3ª. condição na definição de dV ( x(t )) funções de Lyapunov implica que ≤ 0. dt Sejam fi (x(t)), i = 1, 2,.....,n as componentes de f(x(t). Então, temos (“chain rule”): ∂V ∂V dV ( x(t )) ∂V = f1 ( x(t )) + f 2 ( x(t )) + .... + f n ( x(t )) . dt ∂x1 ∂x2 ∂xn Definindo o vetor gradiente ∂V ( x) ⎡ ∂V ( x) ∂V ( x) ∂V ( x) ⎤ ∇V ( x ) = =⎢ , ,...., ⎥, ∂x ∂x2 ∂xn ⎦ ⎣ ∂x1 temos, compactamente, dV ( x(t )) ∂V ( x) f(x(t)) = ∇V ( x) f(x(t)). = dt ∂x (5.6) (5.7) (5.6 bis) Podemos agora enunciar e provar o Teorema de Lyapunov de estabilidade em sistemas de tempo contínuo (5.8) Se existir uma função de Lyapunov V(x) em uma região esférica S(xe, Ro), isto é, centrada em xe e com raio Ro , então xe é um ponto de equilibro estável. Se, além disso, dV ( x(t )) , definida em (5.6) for estritamente negativa em todos os pontos (exceto xe), então dt a estabilidade é assintótica. Prova: a demonstração é como a do teorema para sistemas discreto e é até mais simples. Com efeito, sendo por hipótese f(x(t)) contínua, então x(t) também o será e, portanto, não existe a possibilidade de o estado “saltar”, ou seja, a esfera de raio Ro não é necessária neste caso. 17 Exemplo: (5.9) Considere o sistema dx1 (t ) dx2 (t ) = x2 (t ) , = − x1 (t ) − x2 (t ) , o qual tem um ponto de equilíbrio em x1 = x2 = 0 . dt dt ⎡0 1⎤ e portanto λ I − A = λ 2 + λ + 1 , Observe-se que este sistema é linear, com A = ⎢ ⎥ ⎣ −1 −1⎦ ou seja, o ponto de equilíbrio é assintoticamente estável. Definamos a função candidata a função de Lyapnuov. (É candidata, porque satisfaz às duas primeiras condições da definição): V( x1 , x2 ) = x12 + x22 . Vamos à terceira condição: dV ( x1 , x2 ) dx dx = 2 x1 1 + 2 x2 2 = 2 x1 x2 + 2 x2 (− x1 − x2 ) = −2x22 ≤ 0, dt dt dt concluindo que o ponto de equilíbrio é estável. (Não podemos concluir que seja dV ( x1 , x2 ) = 0 com x1 ≠ 0). assintoticamente estável, porque podemos ter dt Mas então vamos tentar provar a estabilidade assintótica usando o segundo método, escolhendo uma outra função candidata. (A escolha de função candidata é muitas vezes o resultado de tentativa e erro). Seja V ( x1 , x2 ) = x12 + x22 + ( x1 + x2 ) 2 , que satisfaz às duas primeiras propriedades das funções de Lyapunov e, portanto, é candidata. Ora, dV ( x1 , x2 ) dx dx dx dx = 2 x1 1 + 2 x2 2 + 2( x1 + x2 )( 1 + 2 ) dt dt dt dt dt = 2 x1 x2 + 2 x2 (− x1 − x2 ) + 2( x1 + x2 )( x2 − x1 − x2 ) = −2 x22 − 2 x12 − 2 x1 x2 = − x12 − 2x1 x2 − x22 − x12 − x22 = −( x1 + x2 ) 2 − x12 − x22 < 0 ∀ ( x1 , x2 ) ≠ (0,0). Ou seja, o sistema é assintoticamente estável. Extensão da estabilidade: O segundo método nos garante, caso o sistema seja estável, que existe uma região Ω, não necessariamente “pequena” em que a estabilidade é garantida. Um caso particular importante é quando a região de estabilidade é todo o espaço de estado. É claro que nestes casos o ponto de equilíbrio é único. Temos o: Teorema de Lyapunov: estabilidade assintótica global (5.10) Suponha que V seja uma função de Lyapunov para um sistema dinâmico, que só tem um ponto de equilíbrio, xe. Suponha, além disso que i) V é definida em todo o espaço de estado; 18 ii) ∆V(x(t)) < 0, se o sistema for de tempo discreto, dV ( x(t )) < 0, se o sistema dt for de tempo contínuo ∀ x ≠ xe. V(x) tende a infinito quando qualquer componente de x tende para infinito. iii) Então o ponto de equilíbrio xe é globalmente assintoticamente estável. A prova deste teorema é imediata, em vista do que já foi explicado. Seja observado, que quando o ponto de equilíbrio é único, é comum dizermos que o sistema é globalmente assintoticamente estável. Doravante, usaremos as seguintes abreviações: E = Estável I = Instável ME = Marginalmente estável AE = Assintoticamente estável GAE = Globalmente assintoticamente estável L = Lyapunov (5.11) Exemplo (5.9) (continuação): Podemos concluir, usando a segunda função (acima), de L, a saber, V ( x1 , x2 ) = x12 + x22 + ( x1 + x2 ) 2 , que este sistema é GAE, uma conclusão que confirma o que já sabíamos, tendo em vista que o sistema é linear. Exemplo: Pêndulo (5.12) O problema do pêndulo terá sido uma das motivações de L para propor sua teoria. Seja M a massa do pêndulo, R o tamanho do seu braço (ver Figura 5 abaixo) e θ o ângulo que o pêndulo faz com a vertical. O pêndulo está sujeito a atrito (resistência do ar e/ou fricção no eixo de rotação) proporcional à sua velocidade angular. Seja g a aceleração da gravidade. Então de acordo com a 2ª. lei de Newton, temos d 2θ (t ) dθ (t ) , onde k > 0 é um coeficiente de proporcionalidade. MR = − Mgsenθ (t ) − Mk 2 dt dt Esta equação diferencial de 2ª. ordem é equivalente a duas equações de 1ª. ordem, que são as equações de estado, a primeira sendo de definição de velocidade angular. Dividindo a equação acima por MR, obtemos as equações de estado: dθ (t ) d ω (t ) g k = ω(t), (5.13) = − senθ (t ) − ω (t ) dt dt R R Definamos a candidata a função de L: 1 V (θ , ω ) = MR 2ω 2 + MgR (1 − cos θ ) . 2 Observe-se que esta função atinge seu valor mínimo no ponto de equilíbrio [θ, ω]T = [0, 0]. Esta função é a expressão matemática da soma das energias cinética e potencial. Diferenciando, temos, omitindo o argumento (t) dV (θ , ω ) dω dθ g k = MR 2ω + MgR senθ = MR 2ω ( − senθ − ω ) + MgRω senθ dt dt dt R R 19 = − MgRω senθ − kMRω 2 + MgRω senθ = − kMRω 2 ≤ 0. Figura 5 dV (θ , ω ) = 0 , mesmo que θ ≠ 0. Ou seja, podemos dt concluir que o ponto de equilíbrio estudado é E , mas não podemos concluir pela análise acima que seja um ponto de equilíbrio AE. Mas pela física sabemos que se trata, efetivamente de um ponto de equilíbrio AE. Então a análise acima é decepcionante, pois usamos a energia como função de L e não chegamos à AE. É interessante antes de procurarmos uma outra função candidata, verificarmos o que nos diz o primeiro método de L a respeito deste problema. Da equação (5.9) temos 0 1 ⎤ ⎡ T g k ⎤ ∂f ⎡ ⎢ f = ⎢ω , − senθ − ω ⎥ . E, portanto, = g k ⎥⎥ . E então, ⎢ R R ∂ x θ − − cos ⎣ ⎦ R⎦ ⎣ R Observe-se que podemos ter 20 1 ⎤ ⎡ 0 ∂f ⎢ ⎥ =: A. Obtém-se o polinômio característico = ⎢− g − k ⎥ ∂x [0,0]T R⎦ ⎣ R k g λ I − A = λ 2 + λ + , cujos coeficientes são todos positivos e portanto o ponto de R R equilíbrio é AE. Mas note-se, de novo, que o método indireto de L só nos dá AE e I em uma vizinhança arbitrariamente pequena do ponto de equilíbrio. Claro que sabemos da física, como já foi dito acima, que esta vizinhança não é “pequena”, mas não podemos concluir isto pelo primeiro método de L. Observe-se que da equação, temos um outro ponto de equilíbrio, a saber, T T [θ , ω ] = [π , 0] , que corresponde ao “pêndulo invertido”. Estudemos este ponto de equilíbrio pelo primeiro método de L. Claro que 1 ⎤ ⎡0 ∂f k g 2 ⎢ = g k ⎥⎥ , cujo polinômio característico é λ + λ − , e portanto, o ponto ⎢ R R ∂x [π ,0]T − R⎦ ⎣R de equilíbrio é I, uma conclusão óbvia fisicamente. É preciso notar que ainda não temos um teorema pelo segundo método de L que nos dê instabilidade, veremos isto mais adiante. É claro que se não encontrarmos uma função de L que nos prove a E de um ponto de equilíbrio, isto não prova que ele seja I: os teoremas pelo segundo método de L são sempre condições suficientes (e não necessárias) de pontos de equilíbrio E, I, ME, AE e GAE. Vamos agora usar uma segunda função candidata que nos permitirá demonstrar que o primeiro ponto de equilíbrio é AE, função esta que aparece, entre outros bons textos, no livro de Slotine e Li: Vamos, para simplificar os cálculos, normalizar a equação (5.13), isto é, escolher as unidades de modo que tenhamos dθ (t ) d ω (t ) = ω(t), (5.14) = − senθ (t ) − ω (t ) dt dt Seja a função ω 2 (θ + ω ) 2 + + 2(1 − cos θ ) , V (θ , ω ) = 2 2 que é claramente candidata a função de L, isto é, satisfaz às suas duas primeiras propriedades. Donde, dV dω dθ ⎛ dθ dω ⎞ =ω + (θ + ω ) ⎜ + ⎟ + 2senθ . dt dt dt ⎝ dt dt ⎠ = ω (− senθ − ω ) + (θ + ω )ω + (θ + ω )(− senθ − ω ) + 2ω senθ = −θ senθ − ω 2 . Ora θ senθ > 0 para todo θ ≠ 0. E portanto o ponto de equilíbrio é AE. Não é um ponto de equilíbrio GAE, porque devemos ter -π < θ < π . Exemplo: (5.15) Veremos neste exemplo que o conceito de estabilidade em teoria de sistemas dinâmicos é bastante amplo, não necessariamente aplicável no seu sentido mais usual. Aliás, fala-se em 21 economia estabilizada (quando a inflação é baixa), etc. Seja agora o problema de um cachorro perseguindo um coelho. O coelho se desloca sempre ao longo do eixo x (o que não é muito realista, porque o coelho zigue-zagueia à bessa quando o predador se aproxima), enquanto que o cachorro, partindo de y(0) ≠ 0, percorre curva a ser determinada no plano xy . Seja H a velocidade do cachorro e seja R a do coelho.(ver figura 6 logo abaixo). Supõe-se, obviamente, que H > R. Sejam xr (t ), yr (t ), xh (t ) e yh (t ) as componentes “horizontal” e “vertical” do coelho e do cachorro, respectivamente. dxr (t ) dyr (t ) (5.16) É claro que =R, = yr = 0 . dt dt 2 2 ⎛ dxh (t ) ⎞ ⎛ dyh (t ) ⎞ +⎜ = H2. (5.17) Claro também que ⎜ ⎟ ⎟ ⎝ dt ⎠ ⎝ dt ⎠ Mas o vetor velocidade do cachorro sempre aponta na direção do coelho; portanto, para algum k, dxh (t ) dyh (t ) = − kyh , (5.18) = −k ( xh − xr ) , donde dt dt esta última em vista de (5.16). Figura 6 Usando (5.17), podemos determinar k, a saber, k 2 ( xh − xr ) 2 + k 2 yh2 = H 2 . Substituindo o valor de k em (5.18), vem 22 dxh (t ) dt = −( xh − xr ) H ( xh − xr ) 2 + yh2 , dyh (t ) dt = − yh H ( xh − xr ) 2 + yh2 . Simplifiquemos o problema matematicamente e notacionalmente, definindo x = xh − xr , y = yh . As equações acima se transformam em dx (t ) dt = − xH x2 + y 2 −R, dy (t ) dt = − yH x2 + y 2 . Vejamos os pontos de equilíbrio Igualando a zero a segunda equação acima, temos ye H xe2 + ye2 = 0 e portanto ye = 0. Igualando a zero a primeira, vem xe H = − R ( xe2 + ye2 ) = − R xe2 = -Rxe (o sinal negativo da raiz quadrada não faz sentido neste caso, pois o radicando é uma distância; donde xe(R + H) = 0, donde xe = 0. Tomemos como função candidata a L a “clássica”, isto é, V ( x, y ) = x 2 + y 2 , e portanto, ⎛ − xH ⎞ ⎛ − yH ⎞ dV ( x, y ) dx dy ⎟ = 2x ⎜ − R⎟ + 2y⎜ = 2x + 2 y ⎜ x2 + y 2 ⎟ ⎜ x2 + y 2 ⎟ dt dt dt ⎝ ⎠ ⎝ ⎠ 2 2 2H ( x + y ) = −2 Rx − = −2 Rx − 2 H x 2 + y 2 . 2 2 x +y Das definições de x e y, vemos que ambos os termos do lado direito são negativos ou dV ( x, y ) nulos. Ora, então vemos que se x = 0 e y ≠ 0, temos < 0. Se x ≠ 0, temos dt − Rx − H x 2 + y 2 < −( H − R) x < 0, lembrando que H > R . dV ( x, y ) < 0 para todo (x , y) ≠ (0 , 0) e portanto o ponto de equilíbrio é AE. Mas dt como o ponto de equilíbrio é único e V(x,y) tende a infiito se x e / ou y tende a infinito, conclui-se que o ponto de equilíbrio (e, podemos dizer, o sistema, pois o ponto de equilíbrio é único) é GAE. Então Exemplo: (Este exemplo é tirado do livro de Vidyasagar) dx(t ) dy (t ) = x( x 2 + y 2 − 1) − y , = x + y ( x 2 + y 2 − 1) . dt dt Os pontos de equilíbrio são calculados a partir de x( x 2 + y 2 − 1) = y , x = − y ( x 2 + y 2 − 1) . Substituindo esta na primeira, vem (5.19) y = − y ( x 2 + y 2 − 1) 2 e, portanto, y = 0 e x = 0. Tomemos mais uma vez a candidata “clássica” para função de L: V ( x, y ) = x 2 + y 2 . Donde, dV ( x, y ) dx dy = 2x + 2 y = 2 x( x( x 2 + y 2 − 1) − y ) + 2 y ( x + y ( x 2 + y 2 − 1)) dt dt dt 23 = 2( x 2 + y 2 )( x 2 + y 2 − 1) ‹ 0 para todo (x, y) tal que equilíbrio (0,0) é AE no interior do círculo unitário. x 2 + y 2 < 1. Portanto o ponto de 6. Conjuntos invariantes Veremos agora o conceito de conjuntos invariantes, especialmente úteis quando o sistema não tem ponto de equilíbrio. Definição (6.1) Um conjunto G é dito um conjunto invariante para um sistema dinâmico se qualquer ponto x de uma trajetória do sistema que esteja em G, a trajetória permanecer em G. Um ponto de equilíbrio único de um sistema é o exemplo mais simples de um conjunto invariante de um sistema dinâmico. Se um sistema tiver vários pontos de equilíbrio, o conjunto destes pontos é um conjunto invariante. Exemplo (Um ciclo limite): (6.2) Seja o sistema, com equações ligeiramente diferentes do exemplo anterior: dx(t ) dy (t ) = y + x(1 − x 2 − y 2 ) , = − x + y (1 − x 2 − y 2 ) . (6.3) dt dt Tal como no exemplo anterior, é fácil verificar que (x, y) = (0, 0) é um ponto de equilíbrio. Mas observe-se também que se x 2 + y 2 = 1 , as equações se tornam dx(t ) dy (t ) = y, = − x . Ora, dt dt ⎡ dx(t ) ⎤ ⎥ T ⎢ [ x, y ] ⎢ dydt(t ) ⎥ = xy − yx = 0 . Ou seja, os vetores do estado e velocidade do estado são ⎢ ⎥ ⎣⎢ dt ⎦⎥ ortogonais para todo t. E isto define um círculo no espaço de estado e trata-se do círculo de raio unitário, pois x 2 + y 2 = 1 . Este é pois um conjunto invariante: se o estado lá estiver, lá fica. A seguir, temos: Teorema dos conjuntos invariantes (6.4) Seja um sistema dinâmico e seja V(x) uma função escalar contínua (e também com derivadas parciais contínuas se se tratar de sistemas de tempo contínuo). Seja Ωs a região em que V(x) < s . Suponha que Ωs seja limitada e que, dentro de Ωs tenhamos ∆V(x(t)) dV ( x(t )) ≤ 0 no caso de sistema de tempo discreto e ≤ 0 no caso de sistema de tempo dt contínuo ao longo de qualquer trajetória do sistema. Seja S o conjunto de pontos dentro de dV ( x(t )) Ωs tal que ∆V(x(t)) = 0 ( = 0, respectivamente) e seja G o maior conjunto dt invariante dentro de S. Então toda trajetória em Ωs tende para G. 24 Prova: dV ( x(t )) , respectivamente) implicam que V(x) é dt uma função que não cresce com o tempo quando o estado percorre sua trajetória. Conseqüentemente, se o estado iniciar sua trajetória dentro de Ωs , aí permanecerá. Mas como Ωs é limitada, então V(x) é limitada por baixo (pois é contínua) e então tende no dV ( x(t )) , respectivamente) tende para limite para um valor finito e, portanto, ∆V(x(t)) (e dt zero, donde a trajetória do estado tende para S. Seja Г o conjunto limite de pontos para o qual a trajetória tende quando t → ∞ . Pode-se provar (usando técnicas além do escopo deste texto) que Г contém pelo menos um ponto e é um conjunto invariante. E é claro, da definição que Г ⊆ G . A condição sobre ∆V(x(t)) (e sobre Este teorema é um resultado extremamente poderoso para análise de sistemas dinâmicos. Observe-se que ele contém o teorema original da estabilidade de L como um caso particular Exemplo (continuação do exemplo (5.12): pêndulo) Vimos que, usando como função de L a soma das energias cinética e potencial, obtemos dV (θ , ω ) = − kMRω 2 . Como vimos, com esta função não é possível provar a estabilidade dt assintótica usando o teorema da estabilidade de L. Entretanto, usando o teorema anterior, dV (θ , ω ) = 0 temos ω = 0, que define o conjunto invariante. Mas se isto é verdade com dt para todo t neste conjunjto, então temos dω (t ) = 0 . Mas a segunda equação de (5.13) é dt dω (t ) g k = − senθ (t ) − ω (t ) . dt R R Então senθ(t) = 0 e portanto θ = 0 ou θ = π, que são os dois pontos de equilíbrio. Mas, como vimos, usando o primeiro método de L. o segundo ponto de equilíbrio é instável, enquanto que o primeiro é estável. Então acabamos de provar, usando o teorema dos conjuntos invariantes, que o ponto de equilíbrio estável é assintoticamente estável, usando a primeira função de L proposta, que é a soma das energias cinética e potencial. Exemplo: (6.5) Re-examinemos o exemplo (6.2) à luz do teorema anterior. Repetimos as equações de definição do sistema: dx(t ) dy (t ) (6.3 bis) = y + x(1 − x 2 − y 2 ) , = − x + y (1 − x 2 − y 2 ) dt dt Seja a função V ( x, y ) = (1 − x 2 − y 2 ) 2 . Então, dV ( x, y ) dx dy = −2(1 − x 2 − y 2 )2( x + y ) dt dt dt = −4(1 − x 2 − y 2 ){x[ y + x(1 − x 2 − y 2 )] + y[− x + y (1 − x 2 − y 2 )]} = −4( x 2 + y 2 )(1 − x 2 − y 2 ) 2 25 dV ( x, y ) = 0. E isto implica dt x 2 + y 2 = 0 ⇒ x = y = 0 (ponto de equilíbrio) ou 1 − x 2 − y 2 = 0, ou seja, x 2 + y 2 = 1. (6.6.) Analisemos o ponto de equilíbrio utillizando o primeiro método de L. T Seja X = [ x, y ] . f é um vetor constituído a partir de (6.3 bis). Obtemos o jacobiano Ora, usando o teorema anterior, ⎤ ⎡1 − 3 x 2 − y 2 1 + x ( −2 y ) 1 − 2 xy ⎤ ∂f ⎡1 − x 2 − y 2 + x(−2 x) = . E no =⎢ ⎢ ⎥ 2 2 2 2⎥ ∂X ⎣ 1 − x − y + y ( −2 y ) ⎦ −1 + y (−2 x) ⎣ −1 − 2 xy 1 − x − 3 y ⎦ ponto de equilíbrio, λ − 1 −1 ⎡ 1 1⎤ ∂f = =: A . E portanto, λ I − A = = λ 2 − 2λ + 2 . ⎢ ⎥ λ −1 1 ∂X (0,0) ⎣ −1 1⎦ Conseqüentemente, o ponto de equilíbrio é instável E por outro lado, o círculo unitário, dado acima (6.6) de acordo com o teorema (6.4) é um conjunto invariante para o qual convergem todas as trajetórias do sistema. Ver figura 7. Figura 7 7. Uma função de Lyapunov integral Um caso particular, bastante interessante, de função de L é a função integral, definida a seguir. É usada para sistemas de tempo contínuo, que satisfazem a certas condições, a saber, dx(t ) = f(x(t)), (7.1) dt uma função escalar. A função f(x) satisfaz às seguintes propriedades: (7.2) (1) f(x) é contínua, (2) x f(x) < 0 para todo x ≠ 0, ∞ (3) − ∫ f ( x)dx = ∞ , 0 ∫ 0 −∞ f ( x)dx = ∞ . 26 Observe-se que das duas primeiras propriedades conclui-se que f(0) = 0 . Mais ainda, f(x) é uma curva de 2º. e 4º. quadrantes. É claro que a origem, isto é, x = 0, é o único ponto de equilíbrio, porque f(x) = 0 ⇔ x = 0. x Definamos V(x) = − ∫ f (σ )dσ . (7.3) 0 É claro que esta função é contínua e com derivada contínua. É claro também que V(x) > 0 para todo x ≠ 0 e tem seu mínimo em x = 0. Ora, dV ( x) dV ( x) = f ( x(t )) = − f ( x) 2 < 0 para todo x ≠ 0, portanto o ponto de equilíbrio é AE. dt dx Mais ainda, tendo em vista que V(x) → ∞ quando x → ∞ , conclui-se que o ponto de equilíbrio é GAE. Exemplo Seja o sistema dado por dx(t ) = tanh( x) − x . A função tanh(x) é vista na figura abaixo dt (7.4) Figura 8 Ora, 27 f(x):= tanh( x) − x = e x − e− x df ( x) (e x + e − x ) 2 − (e x − e − x ) 2 x = −1 − . E, portanto, dx e x + e− x (e x + e − x ) 2 = − (e x − e − x ) 2 . (e x + e − x ) 2 df ( x) df ( x) < 0 para todo x ≠ 0, = 0. dx x =0 dx Donde se conclui que f(x) está no 2º. e 4º. quadrantes, uma conclusão a que poderíamos ter chegado por simples inspeção a partir da figura 8. Portanto podemos aplicar o resultado acima, para concluir que o ponto de equilíbrio é GAE. Donde se vê que 8. Uma função de Lyapunov quadrática para sistemas lineares Sejam as variáveis x1 , x2 ,....xn . Por função quadrática destas variáveis, entendemos V(x) = p11 x12 + p12 x1 x2 + .... + p1n x1 xn + p21 x2 x1 + p22 x22 .... + p2 n x2 xn .......................................... .............................................. + pn1 xn x1 + pn 2 xn x2 .... + pnn xn 2 . Seja pij = p ji = (8.1a) pij + p ji . Portanto, sem perda de generalidade, podemos redefinir os pij , 2 de modo que pij = p ji e, conseqüentemente, podemos escrever a forma quadrática como V(x) = xT P x, onde P é uma matriz simétrica, isto é ⎡ p11 ⎢p V(x) = ⎢ 12 ⎢ ..... ⎢ ⎣ p1n Exemplo: p1n ⎤ p22 ..... p2 n ⎥⎥ . ..... ..... ..... ⎥ ⎥ p2 n ..... pnn ⎦ p12 ..... (8.1b) (8.2) ⎡1 1⎤ ⎡ x1 ⎤ V( x1 , x2 ) = x12 + 2 x1 x2 + x22 = [ x1 , x2 ] ⎢ ⎥ ⎢ ⎥. ⎣1 1⎦ ⎣ x2 ⎦ (8.3) Definição Dizemos que uma forma quadrática xT P x, sendo P uma matriz simétrica, é positiva semi-definida se xT P x ≥ 0 para todo x. Ela será positiva definida se xT P x > 0 para todo x ≠ 0 Exemplo (8.4) 28 ( x1 − x2 ) 2 é positiva semi-definida, enquanto que x12 + x22 é positiva definida Definição (8.5) Se uma forma quadrática xT P x for positiva semi-definida, dizemos que a matriz simétrica P que lhe é associada é positiva semi-definida. Se xT P x for positiva definida, a matriz associada será positiva definida. É claro que a forma quadrática fica univocamente determinada pela sua matriz associada. Ora, como sabemos da álgebra linear, os auto-valores de uma matriz simétrica são números reais. Mais ainda, se a matriz for simétrica, ela é diagonalizável. Donde concluímos: Fato (8.6) Uma matriz simétrica é positiva semi-definida se só se todos os seus auto-valores forem não-negativos. Ela será positiva definida se só se todos os seus auto-valores forem positivos. Prova: Sendo P simétrica, existe uma matriz T tal que P = T −1ΛT , onde Λ é uma matriz diagonal. Mais ainda, sendo P simétrica, temos T −1 = T T , ou seja, a inversa é a transposta da matriz. Então, xT Px = xT T T ΛTx . Definamos z = Tx. Então xT Px = zT Λ z. E isto prova o Fato. Segue um outro teste, mais simples, para verificar se uma matriz é positiva definida. Definamos A como o determinante da matriz A: Fato (8.7) Uma matriz simétrica P é positiva definida se só se todos os seus menores principais forem positivos. Assim, a matriz dada em (8.1b) será positiva definida se só se p11 p12 ..... p1n p p22 ..... p2 n p11 p12 >0. > 0, ....., 12 p11 > 0, ..... ..... ..... ..... p12 p22 p1n p2 n ..... pnn Observação: Este Fato (8.7) não se aplica para verificar se uma matriz é positiva semidefinida. Após esta breve revisão de alguns elementos matemáticos, podemos agora estudar as funções de L para sistemas lineares. Considere-se o sistema linear dx(t ) = A x(t) (8.8) dt Claro que xe = 0 é sempre um ponto de equilíbrio deste sistema, ainda que não seja necessariamente o único. Associemos a este sistema a função V(x) = xTPx, (8.9) 29 onde P é simétrica e positiva definida. Conseqüentemente V(x) = xTPx é candidata a função de L. Então, dV (t ) dx(t )T dx(t ) = . E em vista de (8.8), omitindo o argumento (t), temos Px(t ) + x(t )T P dt dt dt dV (t ) = xT AT Px + xT PAx = xT ( AT P + PA) x . dt Definamos a matriz - Q = AT P + PA (8.10) Então, temos dV (t ) = - xT Q x (8.11) dt Observe-se que de (8.10), a transposta de Q é ela mesma, portanto ela é uma matriz simétrica. Pelo teorema de Lyapunov (5.8), sabemos que se existir Q positiva semi-definida, o ponto de equilíbrio é E ; se existir Q positiva definida, ele é AE. Então temos: Teorema de Lyapunov para sistemas lineares de tempo contínuo (8.12) Se existirem P positiva definida e Q positiva semi-definida tais que a equação (8.10) é satisfeita, então o ponto de equilíbrio é E. Se existirem P e Q positivas definidas, então o ponto de equilíbrio é AE. Entretanto, o resultado logo abaixo afirma também a recíproca para o caso de ponto de equilíbrio AE: Teorema de Lyapunov recíproco para sistemas lineares de tempo contínuo (8.13) Seja A uma matriz com todos os seus auto-valores no semi-plano aberto da esquerda (ou seja, o ponto de equilíbrio xe = 0 é AE). Seja Q uma matriz simétrica e positiva definida, de resto qualquer. Então existe matriz P simétrica, positiva definida e única, dada por P= ∞ ∫0 e AT t Qe At dt . (8.14) Prova: T T T T T d (e A t Qe At ) = AT e A t Qe At + e A t QAe At = AT e A t Qe At + e A t Qe At A . dt Donde, ∞ ∫0 T ∞ T d (e A t Qe At ) dt = AT ∫ e A t Qe At dt + 0 dt ∞ ∫0 e (8.14). Mas por outro lado, ∞ ∫0 T d (e A t Qe At ) dt = dt ∞ ∫0 T d (e A t Qe At ) = T AT t Qe At dtA = AT P + PA , em vista de ∞ e A t Qe At = 0 - Q = - Q , 0 a penúltima igualdade tendo sido obtida em vista do fato que todos os auto-valores de A serem negativos, concluindo a prova. 30 Observe-se que, sendo o ponto de equilíbrio AE (isto é, os auto-valores de A com parte real negativa) se escolhermos arbitrariamente P positiva definida e simétrica, não necessariamente acharemos Q com estas características, como se vê no exemplo a seguir. Exemplo (8.15) 0 1 ⎤ dx(t ) ⎡ =⎢ ⎥ x(t ) . dt ⎣ −2 −3⎦ Os auto-valores do sistema podem ser calculados facilmente, obtendo-se {-1, -2}, tratandose portanto de sistema AE. (Aqui o ponto de equilíbrio é único, por isso dizemos que o sistema é AE). Se escolhermos P = I (matriz identidade), obtemos ⎡ 0 −1⎤ ⎡ 0 2 ⎤ ⎡ 0 1 ⎤ Q = - A - AT = ⎢ ⎥+⎢ ⎥=⎢ ⎥ , que não é uma matriz positiva definida. ⎣ 2 3 ⎦ ⎣ −1 3 ⎦ ⎣ 1 6 ⎦ O que o teorema nos garante é que escolhendo Q positiva definida, obteremos P positiva definida a partir da equação (8.10); assim, com a matriz A acima, escolhendo Q = I, temos de (8.10): ⎡ −1 0 ⎤ ⎡ 0 −2 ⎤ ⎡ p11 p12 ⎤ ⎡ p11 p12 ⎤ ⎡ 0 1 ⎤ ⎥+⎢ ⎥⎢ ⎢ 0 −1⎥ = ⎢1 −3⎥ ⎢ p ⎥ ; donde, efetuando: ⎣ ⎦ ⎣ ⎦ ⎣ 12 p22 ⎦ ⎣ p12 p22 ⎦ ⎣ −2 −3⎦ −4 p12 p11 − 3 p12 − 2 p22 ⎤ ⎡ −1 0 ⎤ ⎡ ; temos 3 equações independentes e 3 ⎢ 0 −1⎥ = ⎢ p − 3 p − 2 p 2 p12 − 6 p22 ⎥⎦ ⎣ ⎦ ⎣ 11 12 22 incógnitas, obtendo 1 ⎡5 1⎤ , que é claramente uma matriz positiva definida, em vista, por exemplo, do P= ⎢ 4 ⎣1 1⎥⎦ Fato (8.7). O processo inverso na escolha das matrizes nos leva sempre ao resultado, de acordo com o teorema (8.13). Mas é claro, que calcular a integral (8.14) pode ser bastante enfadonho e trabalhoso. É muito mais fácil, usualmente, escolher arbitrariamente a matriz Q positiva definida, a escolha mais óbvia sendo Q = I e daí calcular P através da equação (8.10). Evidentemente é claro que podemos também (e é isso que se faz mais comumente) calcular os auto-valores da matriz A. Temos também a contra-partida para sistemas de tempo discreto, a saber, x(k+1) = A x(k) Seja a função candidata a função de L: V(x) = xT P x, com P uma matriz positiva definida. Ora, ∆V(x(k)) = x(k+1)T P x(k+1) – x(k)T P x(k) = x(k)T AT P A x(k) - x(k)T P x(k) = x(k)T (AT P A – P) x(k). Definamos Q = P - AT P A (8.16) (8.17) (8.18) Então, temos: 31 Teorema de Lyapunov para sistemas lineares de tempo discreto (8.19) Se existirem P positiva definida e Q positiva semi-definida dada em (8.18), o ponto de equilíbrio xe = 0 é E. Se existirem P e Q positivas definidas, o ponto de equilíbrio é AE. Observação: o autor destas linhas não conhece um teorema recíproco para sistemas de tempo discreto, análogo ao teorema (8.13) para sistemas de tempo contínuo. Mas deve ser fácil estabelecê-lo, substituindo-se a integral por somatório, com as devidas alterações... 9. Miscelâneas Vamos combinar resultados obtidos nas seções anteriores no seguinte problema: d 2 x(t ) dx(t ) +k + g ( x(t )) = 0 , (9.1) 2 dt dt onde k > 0 e g ( x) é contínua e satisfaz a x g ( x) > 0 para todo x ≠ 0. Destas duas propriedades de g ( x) temos g (0) = 0. Esta equação poderia representar um sistema massa e mola não linear. Escrevendo esta equação no espaço de estado, temos dx(t ) = y (t ), (9.2) dt dy (t ) = − ky (t ) − g ( x(t )) . (9.3) dt Tomemos a seguinte função candidata a L: V ( x, y ) = x y2 + ∫ g (σ )dσ . 0 2 É claro que esta função satisfaz às duas propriedades de candidata, tomando o ponto de equilíbrio (x, y) = (0, 0). Ora, dV ( x, y ) dy dx = y + g ( x) = − ky 2 − yg ( x) + g ( x) y = − ky 2 ≤ 0 . dt dt dt Ou seja, provamos que o ponto de equilíbrio estudado é E, mas não provamos que seja AE, dV ( x, y ) . porque x pode ser qualquer sem afetar dt Mas apliquemos o teorema dos conjuntos invariantes (6.4): dV ( x, y ) dy = 0 se só se y (t ) = 0 para todo t. Mas isto implica = 0 para todo t. Disto, dt dt da segunda equação de estado (9.3) e de g (0) = 0, concluímos que (x, y) = (0, 0) é o único conjunto invariante e portanto o ponto de equilíbrio é AE. É fácil confirmar este resultado usando o primeiro método de L (linearização). Com efeito, seja X := [x , y]T e seja f o vetor cujas componentes sejam o lado direito das equações (9.2) e (9.3). Então, 32 ⎡ 0 ∂f ( X ) = ⎢ ∂g ∂X (0,0) ⎢ − ⎢⎣ ∂x x =0 1⎤ ⎥. −k ⎥ ⎥⎦ O polinômio característico desta matriz é λ 2 + kλ + ∂g ∂x . Mas da definição de g(x), é x =0 claro que todos os coeficientes do polinômio característico são maiores que zero e, portanto o ponto de equilíbrio é AE. Método de Krasovskii Considere o sistema dx(t ) = f(x(t)) dt (9.4) (9.5) Suponha que xe =0 seja o único ponto de equilíbrio do sistema e que o jacobiano ∂f ( x) ∂x exista na região de interesse. 2 ⎛ dx ⎞ Tomemos como função candidata V(x) = ⎜ ⎟ = f(x(t))T f(x(t)). ⎝ dt ⎠ T dV ( x) df ( x)T df ( x) ⎛ ∂f ( x) ∂f ( x) ⎞ Ora, = =⎜ f ( x) ⎟ f ( x) + f ( x)T f ( x) f ( x ) + f ( x )T dt ∂x dt dt ⎝ ∂x ⎠ T ⎡ ∂f ( x) ⎤ T ⎛ ∂f ( x ) ⎞ = f ( x ) ⎢⎜ + ⎥ f ( x) . ⎟ ∂x ⎦⎥ ⎣⎢⎝ ∂x ⎠ ⎡⎛ ∂f ( x) ⎞T ∂f ( x) ⎤ Portanto, se - ⎢⎜ ⎥ for positiva semi-definida, o sistema é E; se for positiva ⎟ + ∂x ⎥⎦ ⎢⎣⎝ ∂x ⎠ definida, o sistema é AE; se for negativa definida, o sistema é I, como veremos no teorema logo abaixo. (Observe-se que uma matriz simétrica é negativa definida se todos os seus auto-valores forem negativos). Daremos um exemplo um pouco mais adiante. Vejamos agora um teorema de L relativo à instabilidade: Teorema da instabilidade de Lyapunov (9.6) 1. Seja o sistema de tempo discreto x(k+1) = f(x(k)) e seja xe um ponto de equilíbrio deste sistema. Suponha que exista uma função contínua V(x), definida em Ω com V(xe) = 0 e tal que V(x) assuma valores positivos em pontos arbitrariamente próximos de xe . Suponha também que ∆ V(x(k)) = V(x(k+1)) - V(x(k)) > 0 para todo x ≠ xe. Então xe é um ponto de equilíbrio instável. dx(t ) = f(x(t)). Suponha que exista uma função 2. Seja um sistema de tempo contínuo dt V(x) contínua e continuamente diferenciável com V(xe) = 0 e tal que V(x) assuma valores 33 positivos em pontos arbitrariamente próximos de xe . Suponha também que dV ( x(t )) > 0 dt para todo x ≠ xe. Então xe é um ponto de equilíbrio instável. Prova: A prova deste teorema se baseia diretamente na definição de instabilidade segundo L. Com efeito: se o estado estiver num ponto onde V(x) > 0, sua trajetória não se aproximará do ponto de equilíbrio, porque V(x) aumentará tanto no instante seguinte (sistema de tempo discreto) como num instante subseqüente arbitrariamente próximo (sistema de tempo contínuo) e isto prova a instabilidade do ponto de equilíbrio. Para entender a conclusão, é preciso lembrar que instabilidade não significa que todo ponto na vizinhança do ponto de equilíbrio se afaste dele, basta que haja uma parte da vizinhança onde isto ocorra, que é o que acontece com as hipóteses do teorema. Exemplo (9.7) Voltemos ao exemplo (6.5) que nos levou ao ciclo limite e cujas equações repetimos dx(t ) dy (t ) = y + x(1 − x 2 − y 2 ) , = − x + y (1 − x 2 − y 2 ) . dt dt Seja V ( x, y) = x 2 + y 2 . Claro que esta função satisfaz às condições do teorema acima. Ora, dV ( x, y ) dx dy = 2 x + 2 y = 2 x[ y + x(1 − x 2 − y 2 )] + 2 y[− x + y (1 − x 2 − y 2 )] dt dt dt 2 2 = 2 x (1 − x − y 2 ) + 2 y 2 (1 − x 2 − y 2 ) = 2( x 2 + y 2 )(1 − x 2 − y 2 ) . dV ( x, y ) É então claro que > 0 para todo ( x, y ) tal que x 2 + y 2 < 1, e portanto o ponto de dt equilíbrio é instável, o que já tinha sido estabelecido implicitamente na conclusão a respeito do ciclo limite. Exemplo (9.8) Este exemplo é tirado do livro de Vidyasagar: dx dy = − y − y2 . = x − y + xy , dt dt Vejamos quais são os pontos de equilíbrio: x − y + xy = 0, donde x(1+y) = y; − y − y 2 = 0, donde y(1+y) = 0. Ora, desta última, se y ≠ 0, concluímos que y = -1; mas este valor substituído na primeira nos leva à divisão por zero. Então temos y = 0; e novamente usando a primeira equação temos também x = 0, ou seja, a única solução para este sistema de equações é (x, y) = (0, 0), o único ponto de equilíbrio do sistema. Seja a função V ( x, y ) = (2 x − y )2 − y 2 = 4 x 2 − 4 xy = 4x(x-y). Então V ( x, y ) > 0 se {x > 0 , x > y} ou {x < 0, x < y}. (9.8*) Por outro lado, dV ( x, y ) dx dx dy dx dy = 4(2 x − y − x ) = 4(2 x − y ) − 4 x dt dt dt dt dt dt 2 = 4 (2 x − y ) (x – y + xy) −4 x(− y − y ) 34 = 4(2 x 2 − 2 xy + 2 x 2 y − xy + y 2 − xy 2 + xy + xy 2 ) = 4( x 2 + x 2 − 2 xy + y 2 + 2 x 2 y ) = 4( x − y )2 + 4 x 2 (1 + 2 y ) . dV ( x, y ) É claro que se 1 + 2 y > 0, ou seja, y > - ½ , com qualquer x, teremos > 0. dt dV ( x, y ) Alternativamente, se x ≠ y, com y ≥ - ½ , teremos também > 0, dt ficando assim definida a região de instabilidade, em vista de (9.8*) (ver na figura 9 abaixo a região hachurada) Figura 9 35 10. Problemas resolvidos e para resolver Exercício (10.1) Considere o sistema dy dx = g1 ( x) + g 2 ( y ) , = x − ay dt dt Utilizando o método de Krasowskii (9.4), determinar condições para estabilidade assintótica. Para aplicarmos o Método de Krasowskii, temos que supor que (0, 0) seja o único ponto de equilíbrio, ou seja, g1 (0) + g 2 (0) = 0. dg1 dg 2 . e Além disso, o jacobiano dado abaixo tem que existir, ou seja, devem existir dy dx ⎡x⎤ ⎡ g ( x) + g 2 ( y ) ⎤ Ora, denotando f ( x, y ) = ⎢ 1 e X = ⎢ ⎥ , temos ⎥ x − ay ⎣ y⎦ ⎣ ⎦ ⎡ dg1 ∂f ⎢ = dx ∂X ⎢ ⎢⎣ 1 dg dg ⎡ ⎤ −2 1 − 2 − 1⎥ dg 2 ⎤ T ⎢ dx dy ⎪⎧ ∂f ⎛ ∂f ⎞ ⎪⎫ ⎢ ⎥. dy ⎥ , e portanto, − ⎨ +⎜ = ⎬ ⎟ ⎥ dg X X ∂ ∂ ⎢ ⎥ ⎝ ⎠ 2 ⎪ ⎪ ⎩ ⎭ − 2a ⎥ −a ⎥⎦ ⎢ dy − 1 ⎣ ⎦ dg Então, se −2 1 > 0 e dx 2 dg dg ⎛ dg ⎞ −4a 1 - ⎜ 2 ⎟ -2 2 -1 > 0, o sistema é AE. dx ⎝ dy ⎠ dy Exercício No exercício anterior, consideremos y2 g1 ( x) = − x3 − x , g 2 ( y ) = , a = 1. 2 Vemos que o ponto de equilíbrio é (0, 0) e as derivadas (10.2) (10.3) dg1 e dx dg 2 existem. dy Efetivamente, temos ⎧⎪ ∂f ⎛ ∂f ⎞T ⎫⎪ ⎡ −2(−3x 2 − 1) − y − 1⎤ dg1 dg 2 2 +⎜ = -3x – 1 , = y, − ⎨ ⎥ ⎟ ⎬=⎢ dx dy 2 ⎦ ⎩⎪ ∂X ⎝ ∂X ⎠ ⎭⎪ ⎣ − y − 1 Então, aplicando o método de Krasowskii, temos as condições suficientes para estabilidade assintótica 6 x2 + 2 > 0 , que é satisfeita para todo x; −4(−3 x 2 − 1) − y 2 − 2 y − 1 = 12 x 2 + 4 − ( y + 1) 2 > 0, ou ainda, ( y + 1) 2 < 12 x 2 + 4 . Exemplo: o modelo predador / presa (10.4) Um modelo (simplificado) do problema predador / presa é dado pelas equações de LotkaVolterra: dp(t ) (10.5a) = ap (t ) − bp (t )r (t ) dt 36 dr (t ) (10.5b) = −cr (t ) + dp(t )r (t ) , dt onde p(t ) e r (t ) são as populações de predadores e de presas, respectivamente. As constantes a, b, c, d são todas positivas. Calculemos os pontos de equilíbrio: ape − bpe re = 0, −cre + dpe re = 0; ou seja, pe (a − bre ) = 0 , re (−c + dpe ) = 0 . É claro que um ponto de equilíbrio é ( pe , re ) = (0, 0) e o outro é ( pe , re ) = (c/d , a/b). Vamos “normalizar” as variáveis. Omitindo o argumento (t), definamos d b cx ay . (10.6) x = p , y = r ; ou seja, p = , r = d c a b Substituindo p e r nas equações (10.5), obtemos c dx c bc a a dy a c a = a x− x y, = −c y + d x y . d dt d d b b dt b d b Multiplicando a primeira por d/c e a segunda por b/a, obtemos dx (10.7a) = ax(1 − y ) , dt dy = −cy (1 − x) , (10.7b) dt cujos pontos de equilíbrio são (0, 0) e (1, 1). É claro que o primeiro ponto de equilíbrio é instável, bastando usar a definição: x cresce exponencialmente se x › 0 e y ‹ 1 . Para estudar o outro ponto de equilíbrio, temos dy dt = −cy (1 − x) , e portanto, dx ax(1 − y ) dt dy dx ax(1 − y ) = −cy (1 − x) . Ou seja, dt dt dy dy dx dx = −cy + cyx ; ax − axy dt dt dt dt Multiplicando por -1 e dividindo tudo por xy (diferente de zero em (1, 1)), temos dy dx dy dx dt −a + a − c dt + c = 0 . y dt x dt Integrando cada parcela em relação a t, obtemos cx − c log x + ay − a log y = log k , (10.8) onde “log” é o logaritmo neperiano e k é uma constante. Definamos V(x, y) = cx − c log x + ay − a log y = c( x − log x) + a ( y − log y ) (10.9) dV ( x, y ) De (10.8) e (10.9) é claro que = 0 e portanto V(x, y) é uma “constante de dt movimento”, isto é, o estado fica na curva definida por V(x, y) = K (= log k ), uma constante. 37 Na figura abaixo as curvas V , que são fechadas, para diversos valores de k. É interessante observar que V é uma função de L. Com efeito, para calcular seu valor mínimo, temos ∂V a ∂V c = a − = 0 e portanto y = 1. = c − = 0 e portanto temos x = 1; ∂y y ∂x x Para verificar se este ponto estacionário é de fato ponto de mínimo (e não de máximo, ou de inflexão), temos que verificar as derivadas segundas: ∂ 2V ∂ 2V ∂ 2V c ∂ 2V a = =0; = 2; = 2. 2 2 ∂x∂y ∂y∂x ∂x x y ∂y Então temos ⎡ ∂ 2V ∂ 2V ⎤ ⎢ 2 ⎥ ∂x∂y ⎥ ⎡1 0 ⎤ ⎢ ∂x = ⎢ 0 1 ⎥ , que é uma matriz positiva definida e, portanto (1, 1) é ⎢ ∂ 2V ∂ 2V ⎥ ⎣ ⎦ ⎢ 2 ⎥ ⎣ ∂y∂x ∂y ⎦ (1,1) realmente um ponto de mínimo de (10.9). E como vimos que dV ( x, y ) = 0 , a função é dt realmente de L. e o ponto de equilíbrio é estável. Figura 10 Exemplo (O modelo predador / presa com super-população de predadores) (10.10) Consideremos o problema anterior com termo adicional de retardamento no crescimento da população de predadores como efeito da super-população dos mesmos: 38 dp dr (10.11) = ap − bpr − ep 2 ; = −cr + dpr dt dt Como se vê, a diferença com relação ao problema anterior é a introdução de um terceiro termo na primeira equação. Os pontos de equilíbrio são dados por ap − bpr − ep 2 = (a − br − ep ) p = 0 ; −cr + dpr = (−c + dp)r = 0 . Donde se vê que um ponto de equilíbrio é (0 ,0) e o outro é dado por c da − ec ) . E isto implica da > ec. a − br − ep = 0; −c + dp = 0. Donde se tem o ponto ( , d bd Tal como no exemplo anterior, vamos normalizar as equações em vista deste ponto de equilíbrio, redefinindo as variáveis: d bd c da − ec (10.11*) x= p; y= r , ou seja, p = x , r = y. c da − ec d bd Substituindo na primeira de (10.11), temos c dx c bc da − ec c2 = a x− x y − e 2 x 2 , ou seja, multiplicando por d/c: d dt d d bd d dx da − ec c 2 = ax − (10.12a) xy − e x . dt d d ec ec e β = , vamos mostrar que Ora, com α = a − d d dx (10.12b) = α x(1 − y ) + β x(1 − x) . dt Com efeito, substituindo, temos dx ⎛ ec ⎞ ec ec ec 2 ⎛ da − ec ⎞ ⎛ da − ec ⎞ = ⎜ a − ⎟ x(1 − y ) + x(1 − x) = ⎜ ⎟ x−⎜ ⎟ xy + x − x , que é igual dt ⎝ d ⎠ d d d ⎝ d ⎠ ⎝ d ⎠ a (10.12a), após simplificações óbvias. Por outro lado, da segunda equação de (10.11), com (10.11*), temos c ⎛ da − ec ⎞ bd ⎛ da − ec ⎞ dy ⎛ da − ec ⎞ = −c ⎜ , ⎜ ⎟ ⎟ y + d x⎜ ⎟ y , ou seja, multiplicando por d ⎝ bd ⎠ da − ec ⎝ bd ⎠ dt ⎝ bd ⎠ temos dy (10.12c) = −cy (1 − x) . dt Definamos a função (10.13) V ( x, y ) = cx − c log x + α y − α log y = c( x − log x) + α ( y − log y ) , que é idêntica a (10.9), a menos de α em vez de a. Esta função tem, como já vimos, o mínimo em (1 , 1). Ora, em vista de (10.12b) e (10.12c), temos dV ( x, y ) dx c dx dy α dy =c − +α − dt dt x dt dt y dt c cα y = c(α x(1 − y ) + β x(1 − x)) − (α x(1 − y ) + β x(1 − x)) − cα y (1 − x) + (1 − x) x y = cαx – cαxy + cβx - cβx2 – cα + cαy – cβ + cβx – cαy + cαxy + cα - cαx 39 (10.14) = cβx(1 – x) – cβ(1 – x) = −cβ (1 − x) 2 ≤ 0. Como V tem o mínimo no ponto de equilíbrio, e é contínua e continuamente diferenciável, concluímos que é uma função de L, em vista de (10.14). Portanto o ponto de equilíbrio é E. dV ( x, y ) Mas = 0 se só se x = 1. Mas da equação (10.12b) vemos que com x = 1, dt dx ≠ 0, ou seja, não haveria chegaríamos a uma contradição se y ≠ 1, pois teríamos dt conjunto invariante. Então o conjunto invariante é o ponto (1, 1) e, conseqüentemente, este ponto de equilíbrio é AE, supondo, claro, que x e y permaneçam positivos. xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx A seguir temos alguns exercícios dados em provas nos anos anteriores: 1. Achar o(s) ponto(s) de equilíbrio e estudar a estabilidade dos seguintes sistemas pelo 1º. método de Lyapunov (linearização) : a) x1(k+1) = 2x1(k)2 + 3x2(k)3 , x2(k+1) = x1(k) + x2(k) b) MR d2 θ(t) = - Mg sen θ(t) - Mk dθ(t) dt2 dt (A equação acima é a do pêndulo com atrito, onde θ(t) é o ângulo que o pêndulo faz com a vertical. Definindo a velocidade angular, escrever duas equações de primeira ordem e resolver o problema) 2. Achar o(s) ponto(s) de equilíbrio e estudar a estabilidade dos seguintes sistemas pelo método direto de Lyapunov. Dizer para que valores de x, y o sistema é estável ou assintoticamente estável, se for o caso. a) d2x(t) + ε (x2 – 1) dx(t) + x(t) = 0, com ε ‹ 0 . (Esta e’ a equação de van der Pol). dt2 dt (Sugerida a função x2 + y2 para candidata a função de Lyapunov) b) dx(t) = y(t) + x(t)[ 1 - x(t)2 - y(t)2 ] dt dy(t) = -x(t) + y(t)[ 1 - x(t)2 - y(t)2 ] dt (Sugerida a função x2 + y2 para candidata a função de Lyapunov) 3. Achar o(s) ponto(s) de equilíbrio e estudar a estabilidade / instabilidade do seguinte sistema pelo método direto de Lyapunov. Sugestão: V = (x12 + x22) / 2 dx1(t) = -x1(t) - x2(t) ; dx2(t) = x1(t) - x2(t)3 + 3x2(t)2 - 3x2(t) dt dt 4.Estude o sistema abaixo no ponto (0,0) utilizando a função V = (x2 + y2) / 2. Dá para concluir que o sistema é estável ou instável? dx(t) = x(t)3 - y(t)2 ; dy(t) = y(t)3 - x(t)y(t) dt dt 5. Um circuito RLC tem duas resistências, sendo que uma delas é não linear. As equações do circuito com tensão de entrada nula são: 40 dy = x - y3 + 3y2 - 3y , dx = -x - y ; dt dt onde x é a tensão do capacitor e y é a corrente no indutor. Determinar os pontos de equilíbrio do sistema e estudar a estabilidade do mesmo, utilizando os métodos indireto e direto de Lyapunov. Sugere-se a função de Lyapunov padrão. dx = - x3 + sen4x . dt Achar um ponto de equilíbrio e estudar sua estabilidade pelos métodos indireto e direto de Lyapunov. Função de Lyapunov sugerida: padrão. 6. Considere o sistema dx(t ) dy (t ) = e x (t ) − 1 . Determine todos os = sen( x(t ) + y (t )) ; dt dt pontos de equilíbrio e os classifique do ponto de vista da estabilidade, usando o 1º. Método de Lyapunov (Linearização). 7. Considere o sistema: dx(t ) dy (t ) = − x(t ) + y (t )2 ; = − y (t )( x(t ) + 1 ). Estudar a dt dt estabilidade da origem (isto é, do ponto (0,0)) pelo 1º. e pelo 2º. métodos de Lyapunov. Função sugerida: V ( x, y ) = x 2 + y 2 . 8. Considere o sistema: x(k ) . Achar os pontos de equilíbrio e estudar o problema da estabilidade 1 + x(k ) usando o primeiro método de Lypapunov (linearização). 9. x(k + 1) = dx(t ) dy (t ) = − x(t )3 − y (t ) 2 ; = x(t ) y (t ) − y (t )3 . Achar os ponto de equilíbrio e estudar dt dt a estabilidade pelos dois métodos de Lyapunov. (Para o segundo método sugiro a função V ( x, y ) = x 2 + y 2 ). 10. 41 Capítulo 2: Estabilidade de Sistemas Lineares Variantes no Tempo (As notas deste capítulo estão em vários textos sobre sistemas lineares) A estabilidade de sistemas lineares invariantes no tempo é assunto já bem dominado, tanto pelo estudo no curso anterior, como pelas muitas referências que fizemos no capítulo anterior, inclusive recordando parte da teoria ao tratarmos da linearização de sistemas nãolineares. Seja observado, a propósito, que muitas vezes, ao linearizarmos sistemas não lineares, podemos obter um sistema linear que é variante no tempo, ou seja, sistemas em que o tempo figura explicitamente nas equações diferenciais ou de diferenças, conforme o sistema seja de tempo contínuo, ou discreto, respectivamente. Neste capítulo vamos estudar somente os sistemas de tempo contínuo, que são bem mais difíceis que os de tempo discreto. Então estudaremos a estabilidade de sistemas na forma geral dx(t ) = A(t ) x(t ) , t ≥ t0 , x(t0 ) =: x0 , x(t ) ∈ R n (1) dt É claro que xe = 0 é sempre um ponto de equilíbrio (mas não necessariamente único). Além do mais, se A(t ) for não singular para todo t , então xe = 0 será o único ponto de equilíbrio. Sejam x1 (t ), x2 (t ),....., xn (t ) ∈ R n soluções linearmente independentes de (1). Definam-se as matrizes Ψ (t ) = ⎡⎣ x1 (t ), x2 (t ),....., xn (t )⎤⎦ ∈R nxn (2) Ψ (t0 ) = ⎡⎣ x1 (t0 ), x2 (t0 ),....., xn (t0 ) ⎤⎦ ∈R nxn . (3) Ψ (t ) é chamada matriz fundamental. Por hipótese, Ψ (t ) deve ser não singular para todo t. De (1) e (2) é claro que d Ψ (t ) = A(t )Ψ (t ) . dt Definamos Φ (t , t0 ) = Ψ (t )Ψ −1 (t0 ) Φ (t , t0 ) é chamada matriz de transição de estado. (4) (5) (6) Fato: x (t ) = Φ (t , t0 ) x0 Prova: Diferenciando a expressão acima, temos dx(t ) d Φ(t , t0 ) d Ψ (t ) −1 x0 = Ψ (t0 ) x0 = A(t )Ψ (t ) Ψ −1 (t0 ) x0 = A(t )Φ (t , t0 ) x0 = A(t ) x(t ) , = dt dt dt em vista de (5), (4) e novamente (5), respectivamente. 42 Fato : d Φ (t ) = A(t )Φ (t , t0 ) dt Prova: De (5) e de (4), respectivamente, temos (7) d Φ (t , t0 ) d Ψ (t ) −1 = Ψ (t 0 ) dt dt = A(t )Ψ (t ) Ψ −1 (t0 ) = A(t )Φ (t , t0 ) (8) Fatos −1 Φ (t 0 , t ) = Ψ (t 0 ) Ψ (t ) ; Φ (t 0 , t 0 ) = Φ (t , t ) = I Prova: imediata de (5). Observação: Do Fato (6) eu tenho a solução de (1) para qualquer condição inicial. Mas o problema é que para conhecer a matriz de transição de estado, eu preciso conhecer n soluções l.i. de (1), de acordo com (5) e (2). Exemplo (9) t 2t 2t ⎡e cos t ⎤ ⎡ −e sent ⎤ dx(t ) ⎡ 2 −e ⎤ = ⎢ −t ⎥ e x2 (t ) = ⎢ t ⎥ são duas ⎥ x(t). Verficar que x1 (t ) = ⎢ t dt cos e 1 e sent e t ⎣ ⎦ ⎣ ⎦ ⎣ ⎦ soluções l.i. da equação. Achar a matriz de transição de estado. Solução: ⎡ 2 −et ⎤ ⎡e 2t cos t ⎤ ⎡ 2e 2t cos t − e2t sent ⎤ dx1 (t ) ; A(t ) x1 (t ) = ⎢ − t ⎥= ⎢ t ⎥= ⎥⎢ t t dt e e sent e cos t e sent + 1 ⎦ ⎣ ⎦ ⎣ ⎦⎣ ⎡ 2 −et ⎤ ⎡ −e 2t sent ⎤ ⎡ −2e 2t sent − e 2t cos t ⎤ dx2 (t ) . A(t ) x2 (t ) = ⎢ − t ⎥⎢ ⎥ = ⎥ = ⎢ dt 1 ⎦ ⎣ et cos t ⎦ ⎣ −et sent + et cos t ⎦ ⎣e Portanto, ⎡e 2t cos t −e 2t sent ⎤ Ψ (t ) = ⎢ t ⎥ ; donde obtemos et cos t ⎦ ⎣ e sent t 2t ⎡ et0 cos t0 e 2t0 sent0 ⎤ 1 1 ⎡ e 0 cos t0 e 0 sent0 ⎤ = Ψ − 1 (t 0 ) = 3 t ⎢ ⎥ ⎢ ⎥. e 0 cos 2 t0 + e3t0 sen 2t0 ⎣ −et0 sent0 e 2t0 cos t0 ⎦ e3t0 ⎣ −et0 sent0 e2t0 cos t0 ⎦ E, efetuando, após algumas manipulações, obtemos ⎡ e2( t −t0 ) cos(t − t0 ) −e 2t −t0 sen(t − t0 ) ⎤ Φ ( t , t 0 ) = Ψ ( t ) Ψ −1 ( t 0 ) = ⎢ t − 2 t ⎥. 0 et −t0 cos(t − t0 ) ⎦ ⎣ e sen(t − t0 ) Exemplo (10) ω (t ) ⎤ dx(t ) ⎡ 0 = ⎢ x(t ) , 0 ⎥⎦ dt ⎣ −ω (t ) onde ω (t ) é uma função contínua. Verificar que uma matriz fundamental deste sistema é 43 t ⎡ cos Ω(t ) senΩ(t ) ⎤ , onde Ω(t ) = ∫ ω (τ )dτ . Calcular a matriz de transição de Ψ (t ) = ⎢ ⎥ 0 ⎣ − senΩ(t ) cos Ω(t ) ⎦ estado. Solução: Omitindo o argumento (t), temos dΩ dΩ ⎤ ⎡ cos Ω − senΩ ⎢ dΨ dt dt ⎥ ⎡ −ω senΩ ω cos Ω ⎤ . =⎢ ⎥= dΩ d Ω ⎥ ⎢⎣ −ω cos Ω −ω senΩ ⎥⎦ dt ⎢ − cos Ω − senΩ dt dt ⎦⎥ ⎣⎢ Por outro lado, ω (t ) ⎤ ⎡ cos Ω(t ) senΩ(t ) ⎤ ⎡ −ω senΩ ω cos Ω ⎤ ⎡ 0 = , conferindo. AΨ = ⎢ 0 ⎥⎦ ⎢⎣ − senΩ(t ) cos Ω(t ) ⎥⎦ ⎢⎣ −ω cos Ω −ω senΩ ⎥⎦ ⎣ −ω (t ) A matriz de transição de estado é Φ (t , t0 ) = Ψ (t ) Ψ −1 (t0 ) . Obtém-se, após algumas manipulações, ⎡ cos(Ω(t ) − Ω(t0 )) − cos(Ω(t ) + Ω(t0 )) ⎤ ⎥. ⎣ − sen(Ω(t ) − Ω(t0 )) sen(Ω(t ) + Ω(t0 )) ⎦ Φ (t , t 0 ) = ⎢ Antes de enunciar e provar o primeiro teorema de estabilidade, vamos rever (ou ver pela primeira vez para alguns) certos fatos fundamentais: Lembramos que, dado um vetor T x = ⎡⎣ x1, x2 ,....., xn ⎤⎦ , as normas 1, 2 (euclideana) e ∞ são definidas da seguinte forma n x 1 = ∑ xi ; 1 x 2= n ∑x 1 2 i ; x ∞ = max xi . i As normas 3, 4, etc, que, efetivamente, quase nunca são usadas, são definidas analogamente à norma 2. (Observe-se aliás que a norma 1 também é definida pelo mesmo critério) Exemplo x = [-3, 1, 2]T. Suas normas são: x 1 = 3 +1 + 2 = 6; x 2 = 9 + 1 + 4 = 13 ; (11) x ∞ = 3. Pode-se demonstrar que estas normas são equivalentes no seguinte sentido: as normas 1 e 2 são equivalentes se só se existirem a e b, números maiores que zero, tais que a x 1 ≤ x ≤ b x 1 . E o mesmo com relação aos outros dois pares de normas, isto é, 1 e ∞, 2 2 e ∞. A seguir, lembramos que a norma induzida de uma matriz é definida do seguinte modo: Φ = sup x ≠0 Φx , x ∈ R n . A norma do vetor x pode ser a norma-1, norma euclideana, a x norma-∞, etc. Correspondentemente, teremos as normas induzidas da matriz: norma-1, norma-2, norma-∞, etc. Pode-se provar que 44 Φ = sup Φx , x ∈ R n x =1 Sejam φij os elementos da matriz nxn Φ . Então, pode-se provar que as normas induzidas 1, 2 e ∞ são dadas, respectivamente, por n Φ 1 = max ∑ φij ; (12a) Φ 2 = + λmax (ΦT Φ) , (12b) j i =1 onde λmax indica o maior auto-valor da matriz, lembrando que, sendo ΦT Φ simétrica, seus auto-valores são reais e positivos; n Φ ∞ = max ∑ φij i (12c) j =1 Exemplo: ⎡1 −2 ⎤ A= ⎢ ⎥ . Então das expressões acima, temos ⎣1 3 ⎦ (13) A 1 = Max(1+1, 2+3) = 5; ⎡2 1 ⎤ T 2 para o cálculo de A , temos ATA = ⎢ ⎥ , e portanto, λ I − A A = λ − 15λ + 25 , 2 1 13 ⎣ ⎦ donde (λ1 , λ2 ) ≈ (13,09; 1,91) e portanto A ≈ + 13, 09 ≈ 3.62; 2 A ∞ = Max(1+2, 1+3) = 4. Agora podemos enunciar e provar o Teorema (14) O ponto de equilíbrio xe = 0 de (1) é estável no instante t0 se só se existir m( t0 ) < ∞ tal que sup Φ(t , t0 ) = m(t0 ) . t ≥t0 Prova: Recorda-se que xe = 0 é um ponto de equilíbrio estável em to se ∃ε > 0 , δ (t0 , ε ) > 0 tais que tenhamos x(t0 ) < δ (t0 , ε ) ⇒ x(t ) < ε ∀t ≥ t0 . (15) Reportamo-nos à figura 2 do capítulo anterior, que reproduzimos abaixo. Observe-se que não precisamos de Ro nesta definição; temos ε = R e δ = r, mas com a ressalva que a figura 2 se refere a sistemas invariantes no tempo, enquanto que aqui δ é função de to. (Se): Seja ε > 0. Escolho δ (t0 , ε ) = ε m(t0 ) . Então, 45 x(t0 ) < δ (t0 , ε ) ⇒ x(t ) = Φ (t , t0 ) x(t0 ) ≤ Φ (t , t0 ) x(t0 ) < Φ (t , t0 ) δ (t0 , ε ) ≤ m(t0 ) ε. ε m(t0 ) = (Somente se): Suponha que Φ (t , t0 ) seja uma função não limitada, contradizendo o que afirma o teorema. Seja ε > 0 e seja δ > 0 , arbitrariamente pequeno. Como Φ (t , t0 ) é não limitada, existe t ≥ to tal que Φ (t , t0 ) > ε , onde δ1 < δ , δ1 > 0 . δ1 (16) Figura 2 bis Seja v um vetor de norma igual a 1 e tal que Φ (t , t0 )v = Φ (t , t0 ) . Seja x(to) = δ1 v. Então, x(t0 ) = δ1v = δ1 < δ. E isto implica x(t ) = Φ (t , t0 ) x(t0 ) = Φ (t , t0 ) δ1v = δ1 Φ (t , t0 ) > δ1 ε / δ1 = ε, em vista de(16), completando a prova. Exemplo (17) Considere o exemplo (9). É claro que a matriz de transição de estado é ilimitada qualquer que seja to finito e, portanto, o ponto de equilíbrio, qualquer que seja to finito, é instável. A seguir temos o Teorema Com relação ao sistema (1), as três condições são equivalentes: (i) O ponto de equilíbrio xe = 0 é assintoticamente estável em to ; (18) 46 (ii) O ponto de equilíbrio xe = 0 é globalmente assintoticamente estável em to; (iii) lim Φ (t , t0 ) = 0 . t →∞ Prova: A seqüência será: (i) ⇒ (iii) ⇒ (ii) ⇒ (i). ( (i) ⇒ (iii) ): Suponha que (iii) não ocorra. Então pelo menos um elemento de Φ (t , t0 ) não tende a zero quando t → ∞. Seja φij este elemento. Escolhemos x(t0 ) = δ ej , com δ > 0 e arbitrariamente pequeno, ej um vetor com 1 na j-ésima componente e 0 em todas as outras. Então é claro que a i-ésima componente de x(t ) não tende a zero quando t → ∞, e portanto xe = 0 não é assintoticamente estável em to. ( (iii) ⇒ (ii) ): Sendo Φ (t , t0 ) contínua, se (iii) ocorre, conclui-se que Φ (t , t0 ) é limitada ∀t ≥ t0 e, portanto, de acordo com o teorema anterior, xe = 0 é estável em to. Seja x(t0 ) arbitrário. Ora, x(t ) ≤ Φ (t , t0 ) x(t0 ) → 0 quando t → ∞, o que prova que xe = 0 é globalmente assintoticamente estável. ( (ii) ⇒ (i) ): óbvio. Exemplo (19) No exemplo (10) acima, vemos que todos os elementos da matriz de transição de estado são limitados, uma vez que a função cosseno o é. Portanto o ponto de equilíbrio é estável, de acordo com o teorema (14). Mas não é assintoticamente estável, de acordo com iii) do teorema (18). O teorema seguinte é, de novo, sobre estabilidade. Teorema As duas proposições seguintes, relativas ao sistema (1), são equivalentes: (i) O ponto de equilíbrio xe = 0 é estável em to; (ii) O ponto de equilíbrio xe = 0 é estável em todo t1 ≥ to . (20) Prova: Observe-se que Φ (t , v) = Ψ (t )Ψ −1 (τ ) Ψ (τ )Ψ −1 (v) = Φ (t ,τ ) Φ (τ , v) ; observe-se ainda que Φ (v, τ ) = ( Φ (τ , v ) ) . −1 Ora, se (i) ocorre, então, de acordo com o teorema (14), sup Φ(t , t0 ) < ∞ . t ≥t0 (21) Mas de acordo com as propriedades acima da matriz de transição de estado, temos Φ (t , t1 ) = Φ (t , t0 )Φ −1 (t1 , t0 ) . E, portanto, Φ (t , t1 ) ≤ Φ (t , t0 ) Φ −1 (t1 , t0 ) . Mas sendo to e t1 finitos, então Φ −1 (t1 , t0 ) também o será. Em vista disto e de (21), vem sup Φ (t , t1 ) < ∞ . t ≥t0 (ii) ⇒ (i): óbvio. Exemplo (22) Voltamos novamente ao exemplo (10). Da expressão da matriz de transição de estado, fica claro que o ponto de equilíbrio é estável para todo t1 (e não somente para t1 ≥ to). 47 Quando isto ocorre (isto é, o ponto de equilíbrio é estável para todo to ≥ 0), alguns autores, entre os quais Vidyasagar, dizem que o ponto de equilíbrio xe = 0 é estável. Observação: O teorema acima é específico de sistemas lineares. Ou seja, a propriedade de Φ −1 (t1 , t0 ) ser limitada quando to e t1 o são, é específica de sistemas lineares, não sendo, em geral, verdadeira, quando o sistema não é linear. Na realidade, a função não linear pode nem ter inversa. Novo conceito: estabilidade uniforme. O sistema é uniformemente estável se o δ da definição (15) não depender de to. Formalmente: Definição (23) O sistema (1) é uniformemente estável no intervalo [to, ∞) se ∃ε > 0, δ (ε ) tais que tenhamos x(t1 ) < δ (ε ), t1 ≥ t0 ⇒ x(t ) < ε , ∀t ≥ t1 . Observe-se que é crucial nesta definição a independência de δ com relação a t0 . A seguir, temos Teorema (24) O ponto de equilíbrio xe = 0 do sistema (1) é uniformemente estável no intervalo [0, ∞) se só se sup m(t0 ) = sup sup Φ (t , t0 ) =: m0 < ∞ . t0 ≥ 0 t0 ≥ 0 t ≥ t0 (O teorema afirma então que o m do teorema (14) independe de to). Prova: (Se): Suponha que m0 < ∞ . Escolho δ = ε m0 . Então, x (t ) = Φ (t , t1 ) x(t1 ) ≤ Φ (t , t1 ) x (t1 ) < Φ (t , t1 ) δ ≤ mo δ = ε, ∀t1 ≥ t0 . (Somente se): Suponha que m(to) seja não limitada. Então pelo menos um elemento de Seja φij (t, to) este elemento. Escolhemos Φ (t , t0 ) não é limitado como função de to. x(t0 ) = δ ej , com δ > 0 e arbitrariamente pequeno, ej um vetor com 1 na j-ésima componente e 0 em todas as outras. Conseqüentemente, φij (t, to) será um dos elementos de x(t) = Φ (t , t0 ) x(t0 ) , o qual será então não limitado como função de to. Exemplo (25) Considere-se novamente o Exemplo (10). Da matriz de transição de estado, é fácil ver que qualquer norma induzida é finita para todo t e para todo to. Assim por exemplo, a normainfinito, de acordo com (12c), é igual a 2. Conseqüentemente o ponto de equilíbrio é uniformemente estável. Temos a seguir dois teoremas sobre estabilidade uniforme assintótica: 48 (26) Teorema O ponto de equilíbrio xe = 0 do sistema (1) é uniformemente assintoticamente estável no intervalo [0, ∞) se só se supsup Φ(t , t0 ) < ∞ e Φ (t , t0 ) → 0 quanto t → ∞, uniformemente em to. t0 ≥ 0 t ≥t0 Prova: Para ser assintoticamente estável, tem que ser estável, daí a primeira afirmação do teorema, demonstrada no teorema anterior. A segunda afirmação decorre da definição de estabilidade assintótica: a suficiência é óbvia e a necessidade é como na prova de i) ⇒ iii) do teorema (18). Teorema (27) O ponto de equilíbrio xe = 0 do sistema (1) é uniformemente assintoticamente estável no intervalo [0, ∞) se só se existirem m, λ > 0 tais que Φ(t , t0 ) ≤ me− λ (t −to ) , ∀t ≥ t0 , ∀t0 ≥ 0 . (Alguns autores chamam de exponencialmente estável os sistemas que satisfazem à condição deste teorema) Prova: (Se): se a condição do teorema for satisfeita, as duas condições do teorema anterior (26) também serão. (Somente se): a prova é meio longa, ainda que não difícil: ver a 2ª. edição do livro de Vidyasagar. Seguem-se exercícios em provas dadas em anos anteriores: 1. Seja o sistema dx(t ) ⎡0 0 ⎤ =⎢ ⎥ x(t), t ≥ t0 , x(t0) conhecido. dt ⎣ t 0⎦ t2 ]T são duas soluções linearmente independentes do sistema. Verificar que [0 1]T e [2 Calcular a matriz de transição de estado e, a partir daí, verificar se o sistema é estável. 2. Mesmo problema, com dx(t ) ⎡0 sent ⎤ x(t), t ≥ t0 , x(t0) conhecido. =⎢ 0 ⎥⎦ dt ⎣0 Verificar que [1 0]T e [-cos t 1]T são soluções lin. ind. do sitema, etc 3. Considere o seguinte sistema linear variante no tempo: [ x(t ), y(t )] T T dx(t ) dy (t ) = ty (t ) , = y (t ) , dt dt T = ⎡⎣tet − et + 2, et ⎤⎦ e ⎡⎣ −tet + et − 1, −et ⎤⎦ são soluções do sistema. Calcule a matriz de transição de estado com t0 = 0 e verifique se o sistema é ou não estável, justificando a resposta. t ≥ 0 . Verificar que 49 ⎡ dx(t ) ⎤ ⎢ dt ⎥ ⎡0 0 ⎤ ⎡ x(t ) ⎤ ⎡1 ⎤ ⎡0 ⎤ ⎡ 2 ⎤ 4. Seja o sistema ⎢ , t0 = 0, x(0) = ⎢ ⎥ . Verificar que ⎢ ⎥ e ⎢ 2 ⎥ são ⎥=⎢ ⎥ ⎢ ⎥ ⎣ 1 ⎦ ⎣t ⎦ ⎣ 2⎦ ⎢ dy (t ) ⎥ ⎣ t 0 ⎦ ⎣ y (t ) ⎦ ⎢⎣ dt ⎥⎦ duas soluções linearmente independentes do sistema. Calcular a matriz de transição de estado, achar x(t ) com x(0) dado acima e estudar a estabilidade do sistema com relação ao ponto de equilíbrio ⎡0 ⎤ xe = ⎢ ⎥ . ⎣0 ⎦ Capítulo 3: O Problema de Lur’e (Problema da Estabilidade Absoluta) (As notas deste capítulo são baseadas essencialmente no excelente livro de M. Vidyasagar, “Nonlinear Systems Analysis”) 1. Introdução Neste capítulo voltaremos ao problema da estabilidade de sistemas não lineares, mas não na sua forma geral, e sim, na de uma importante classe de sistemas, dada no diagrama de blocos abaixo. Chegaremos a resultados bastante poderosos a respeito da estabilidade desta classe de sistemas, que caracterizaremos com o nome de estabilidade absoluta. dx = Ax + Bu dt y = Cx + Du + 0 - Φ(t,y) Figura 1 50 O sistema linear do diagrama de blocos é padrão: dx(t ) = Ax(t ) + Bu (t ) , (1.1a) dt y (t ) = Cx(t ) + Du (t ) . (1.1b) O canal de realimentação é não linear e variante no tempo: (1.2) z (t ) = Φ (t , y (t )) , e a realimentação é “tradicionalmente” negativa, a saber, (1.3) u (t ) = − z (t ) Nas expressões acima x(t ) ∈ R n enquanto que u (t ), y (t ), z (t ) ∈ R m . Os sistemas na forma acima são importantes porque, efetivamente, muitos sistemas podem ser decompostos em uma parte linear e outra não linear e, como já dito, chegaremos a resultados poderosos, que dão o título do capítulo (estabilidade absoluta). Seja H(s) a matriz de transferência do sistema acima, ou seja, (1.4) H ( s ) = C ( sI − A) −1 B + D e então dizemos que a quádrupla (A,B,C,D) é uma realização de H(s). Sabemos que a realização é mínima se só se o sistema (1.1) for controlável e observável. (Uma realização é mínima se a ordem da matriz A, isto é, n, for a menor possível, isto é, não há cancelamento no produto C ( sI − A) −1 B . Temos a seguir uma definição fundamental para todo este capítulo (tenha-se em vista a figura 2 abaixo): 51 Figura 2 (1.5) Definição: Sejam a, b ε R, com a < b. Dizemos que a função Φ (t , y (t )) pertence ao setor [a, b] se: (i) Φ (t , 0) = 0, ∀t ≥ 0 ; (ii) (by − Φ (t , y ))T (Φ (t , y ) − ay ) ≥ 0, ∀t ≥ 0, ∀y ∈ R m A figura 2 acima esclarece geometricamente a condição (ii) da definição, ou seja, a função Φ(t, y) passa pela origem e está contida entre as retas cujos coeficientes angulares são a e b. E é neste contexto que surge a definição de estabilidade absoluta: Definição (1.6) Seja o sistema da figura 1, sendo o sistema linear controlável e observável. Dizemos que o ponto de equilíbrio xe = 0 é absolutamente estável no setor [a, b ] se ele for um ponto de equilíbrio uniformemente assintoticamente estável para toda função Φ(t, y) que pertença ao setor [a, b]. 52 A definição acima define os problemas que trataremos neste capítulo: estamos interessados em saber não se um determinado sistema é estável, mas se toda uma família de sistemas o é. Um pouco de história a respeito deste problema: a) Em 1949 o cientista russo M.Aizerman conjecturou que, com D = 0 e m = 1, se com Φ(t, y) = k y , o sistema em malha fechada for assintoticamente estável para todo k no setor [a, b], então o sistema em malha fechada da figura 1 será absolutamente estável. A conjectura parece fazer sentido, não? Foi provado que era falsa. b) Rudolf Kalman, cientista húngaro-americano, propôs oito anos depois outra conjectura: com D = 0, m = 1, Φ invariante no tempo e continuamente diferenciável em y, Φ(0) = 0, definiu o “setor incremental”: d Φ( y) ≤ b e conjecturou: se o sistema em malha fechada da figura for absolutamente dy estável para todo sistema com Φ(y) dada por (1.5), então o sistema da figura 1 com Φ(y) satisfazendo à dupla desigualdade acima será também absolutamente estável. Conjectura tentadora, pois não? Mas foi provado que também era falsa. a≤ 2. O Critério do Círculo O chamado critério do círculo, que será estudado nesta seção, é como veremos, uma condição suficiente para a estabilidade absoluta do SMF (sistema em malha fechada) da figura 1. Para prová-lo, precisaremos usar o seguinte teorema, que tem aplicação em vários problemas das teorias de controle e de circuitos. Repetimos aqui as equações da seção anterior: dx(t ) (2.1a) = Ax(t ) + Bu (t ) , dt y (t ) = Cx(t ) + Du (t ) . (2.1b) (2.1c) u (t ) = −Φ (t , y (t )) Teorema de Kalman-Yacubovich: (2.2) Seja o sistema linear acima, no qual supomos que m < n . Supomos além disso que este sistema é controlável, observável e assintoticamente estável. Definindo a matriz de transferência em (1.4), isto é, H ( s ) = C ( sI − A) −1 B + D , suponhamos também que inf λmin ( H ( jω ) + H * ( jω )) > 0 , ω∈R (2.3) onde (*) indica o conjugado transposto e λmin indica o menor auto-valor da matriz. (Observe-se que os auto-valores da matriz em questão são todos reais e positivos). Então existe uma matriz simétrica positiva definida P ∈ R nxn e matrizes Q ∈ R mxn e W ∈ R mxm e um número real ε > 0 tais que AT P + PA = −ε P − QT Q BT P − W T Q = C W T W = D + DT (2.4) (2.5) (2.6) 53 A prova deste teorema é bastante longa, nada trivial, apesar de usar conceitos relativamente simples de matemática. Encontra-se em várias boas monografias e também em alguns textos, como o já referido livro de Vidyasagar, Apêndice B. Seja observado que uma matriz de transferência estável que satisfaça à condição (2.3) é chamada estritamente positiva real. A seguir temos a versão mais simples do critério do círculo, mais conhecido como teorema da passividade: Teorema da passividade (2.7) Considere o sistema (2.1) e suponha que a matriz A seja Hurwitz (isto é, todos os seus auto-valores têm parte real negativa, ou ainda, o sistema linear é assintoticamente estável). Suponha ainda que o sistema linear seja controlável e observável, que sua matriz de transferência satisfaça a (2.3) e que Φ(t, y) pertença ao setor[0,∞). Ou por outras palavras, Φ(t, 0) = 0 para todo t ≥ 0 e yT Φ (t , y ) ≥ 0, ∀t ≥ 0, ∀y ∈ R m . (2.8) Então o ponto de equilíbrio xe = 0 do sistema (2.1) é absolutamente estável. Prova : As hipóteses do teorema incluem as do teorema anterior (2.2). Escolhamos P, Q e W que satisfaçam a (2.4)-(2.6). Definamos a função candidata a Lyapunov (2.9) V ( x) = xT Px . T Então, em vista de (2.1a) e (2.1c), temos dV ⎛ dx ⎞ dx = ⎜ ⎟ Px + xT P = dt ⎝ dt ⎠ dt (2.10) ( Ax − BΦ )T Px + xT P ( Ax − BΦ ) = xT ( AT P + PA) x − ΦT BT Px − xT PBΦ T T T T T T T Mas de (2.5), B Px = Cx + W Qx . E, portanto, Φ B Px = Φ Cx + Φ W Qx . Mas em vista de (2.1b) e (2.1.c), temos ainda ΦT BT Px = ΦT ( y − Du ) + ΦT W T Qx = ΦT ( y + DΦ ) + ΦT W T Qx . (2.11a) Ou ainda, transpondo o primeiro e o terceiro lado, (2.11b) xT PBΦ = (ΦT DT + yT )Φ + xT QT W Φ . T T Substituindo em (2.10) os valores de Φ B Px dado em (2.11a) e sua transposta, em (2.11b), temos dV (2.12) = xT ( AT P + PA) x − ΦT ( D + DT )Φ − ΦT W T Qx − xT QT W Φ − ΦT y − yT Φ . dt Usando (2.4) e (2.6) nas duas primeiras parcelas da expressão acima, temos: dV = −ε xT Px − xT QT Qx − ΦT W T W Φ − ΦT W T Qx − xT QT W Φ − ΦT y − yT Φ . (2.13) dt Mas em vista de (2.8), obtemos da igualdade acima: dV ≤ −ε xT Px − xT QT Qx − ΦTW T W Φ − ΦT W T Qx − xT QT W Φ dt 54 = −ε xT Px − (Qx + W Φ )T (Qx + W Φ ) ≤ −ε xT Px . E é claro que positiva definida,concluindo a prova. dV < 0, ∀x ≠ 0 , pois V é dt Exemplo (2.14) Seja o sistema (2.1) escalar, isto é, com m = 1, D = 0, A < 0, B = C = 1. Realimenta-se este sistema com uma função não linear do primeiro quadrante. Verificar se o ponto de equilíbrio xe = 0 do SMF (sistema em malha fechada) é absolutamente estável. Solução: Observe-se que, estando a função não linear no primeiro quadrante, ela satisfaz à condição (2.8) do teorema.. Além disso, é imediato verificar que o sistema linear é 1 e, portanto, controlável, observável e estável. Por outro lado, H ( jω ) = jω − A 1 −2 A . Donde, H ( jω ) + H * ( jω ) = 2 > 0, H * ( jω ) = − jω − A A + ω2 estando portanto satisfeitas todas as condições suficientes do teorema da passividade: o ponto de equilíbrio do SMF é absolutamente estável. O setor das funções não lineares, [0, ∞), pode ser bastante conservativo em certos problemas, em que a função pode estar contida num setor[a, b], em que a é bem maior que zero e b é bem menor que ∞. Vamos agora, a partir de transformações da malha, chegar a um resultado para funções no setor [a, b], com b > a > 0. 55 Figura 3 Omitindo-se os argumentos (t) de y e t, y(t) de Φ , temos que, por definição, Φ ∈ setor[a, b] ⇔ (by − Φ )T (Φ − ay ) ≥ 0 , ou seja, ((b − a) y − Φ + ay )T (Φ − ay ) ≥ 0 , ou ainda, Φ − ay ∈ setor[0, b − a ] . Agora, note-se que as figuras 1 e 3 são equivalentes no seguinte sentido: na figura 3 estou subtraindo à entrada do sistema linear a resposta (y) do mesmo sistema pré-multiplicada por aI; mas estou também adicionando o mesmo sinal (passando por dois somadores com sinal negativo); portanto eles se anulam Agora olhemos para a figura 4 logo abaixo: na figura 4 estou adicionando à saída do sistema linear o sinal 1 -z pre-multiplicado por I ; mas estou adicionando também (no somador embaixo, b − a +δ do lado direito) o sinal z pré-multiplicado pela mesma matriz; portanto eles se anulam. Então as figuras 1 e 4 são equivalentes. Ora, a matriz de transferência H t ( s ) indicada na 1 I. (2.15) figura 4 é evidentemente H t ( s ) = H ( s )( I + aH ( s )) −1 + b − a +δ 56 Figura 4 1 I , b − a +δ Θ(v) := Φ (v) − av = (Φ − aI )(v) . Da figura 4 temos z = Θ(v) . Mas da mesma figura, temos v = Kz + y = K Θ(v) + y ∴ ( I − K Θ)(v) = y ∴ v = ( I − K Θ) −1 ( y ) ∴ z = Θ( I − K Θ) −1 ( y ) , isto é, Φ t ( y ) = Θ( I − K Θ) −1 ( y ) , ou seja , substituindo Θ e K dados acima, temos: 1 (Φ − aI )]−1 ( y ) . Suponhamos que Φ ∈ setor[a, b] , então é claro Φ t = (Φ − aI )[ I − b − a +δ b−a que Θ(v) = (Φ − aI )(v) ∈ setor[0, b − a] ; e portanto, K Θ(v) ∈ setor[0, ] . Mas b − a +δ b−a δ δ 1− ( I − K Θ)(v) ∈ setor[0, ] . Logo, = . Conseqüentemente, b − a +δ b − a +δ b − a +δ b − a +δ ( I − K Θ) −1 ( y ) ∈ setor[ , ∞) . Ora, um setor é constituído por duas retas; portanto Para calcular Φt indicado na figura, definamos K: = δ para achar o setor resultante do produto, basta multiplicar os coeficientes angulares 57 correspondentes, ou seja, Φ t ( y ) = Θ( I − K Θ) −1 ( y ) ∈ setor[0( setor (0, ∞) . Com isto, estamos em condição de enunciar e provar o seguinte: b − a +δ δ ), (b − a)∞] = (2.15*) Corolário (2.16) Considere o sistema dado pelas equações (2.1), figura 1. Suponha que o sistema linear seja controlável e observável e que o operador não linear Φ ∈ setor[a, b] . Defina-se ⎛ H a ( jω ) + H a* ( jω ) ⎞ 1 > 0 (2.17) H a ( s ) = H ( s )( I + aH ( s )) . Suponha que inf λmin ⎜⎜ ⎟⎟ + ω∈R 2 ⎝ ⎠ b−a e que todos os pólos de H a ( s ) tenham parte real negativa. Suponha também que I + aD seja matriz não singular. Então o ponto de equlíbrio xe = 0 do SMF é absolutamente estável. −1 Antes de provar o Corolário, vamos dar um exemplo para entendermos melhor de que estamos falando: Exemplo (2.18) Considere novamente o sistema dado no exemplo (2.14). Verificar quais as condições sobre A, a, b para que a origem do espaço de estado (ponto de equilbrio do SMF) seja absolutamente estável no setor [a, b]. 1 1 H 1 ∴ Ha = = ; donde H a ( jω ) = e, Solução: H ( s ) = s−A 1 + aH s − A + a jω − A + a 2(a − A) portanto, H a ( jω ) + H a* ( jω ) = . Então a condição (2.17) do Corolário é ( A − a)2 + ω 2 (a − A) 1 + > 0 , a qual, em virtude das hipóteses sobre A, a, b, isto é, A < 0, 2 2 ( A − a) + ω b−a b > a > 0 , será satisfeita. Seja observado que quanto menor b – a, mais facilmente a condição (2.17) será satisfeita. Prova do Corolário (2.16): ⎛ H ( jω ) + H a* ( jω ) ⎞ 2 Se (2.17) é satisfeita, então inf λmin ⎜⎜ a >0 (2.19) ⎟⎟ + ω∈R 2 b a δ − + ⎝ ⎠ para δ suficientemente pequeno, maior que zero. Recorde-se agora a definição de H t ( s ) ⎛ H t ( jω ) + H t * ( jω ) ⎞ em (2.15). Então (2.19) é equivalente a inf λmin ⎜⎜ ⎟⎟ > 0 , que é uma ω∈R 2 ⎝ ⎠ condição do tipo (2.3). Então, tendo em vista que Φ t satisfaz à condição (2.8) (ver (2.15*)), podemos aplicar o teorema da passividade. Sejam At = A − aB ( I + aD) −1 C , 1 I . Pode-se provar que Bt = B( I + aD) −1 , Ct = ( I + aD) −1 C , Dt = D( I + aD) −1 + b − a +δ 58 H t = Ct ( sI − At ) −1 Bt + Dt , mas esta prova não parece fácil. Para completarmos a demonstração do Corolário, precisamos provar que o par (At, Bt) é controlável e que o par (Ct, At) é observável. Aqui recordamos o critério de PopovBelevitch-Hautus (PBH) que nos diz que o par (A, B) é controlável se só se Posto[ sI − A, B] = n para todo s complexo. Mas, [ sI − At , Bt ] = ⎡⎣ sI − A + aB( I + aD) −1 C , B ( I + aD) −1 ⎤⎦ = ⎡ I [ sI − A , B ] ⎢ a( I + aD)−1 C 0 ⎤ . Donde se vê que Posto [ sI − At , Bt ] = −1 ⎥ ( I + aD) ⎦ ⎣ Posto [ sI − A , B ] = n para todo s complexo, e portanto o par ( At , Bt ) é controlável. Dualmente, de acordo como o critério PBH, o par (C, A) é observável se só se ⎡ sI − At ⎤ ⎡ sI − A + aB ( I + aD) −1 C ⎤ ⎡ sI − A⎤ = n para todo s complexo. Ora, Posto ⎢ ⎥ ⎢ C ⎥=⎢ ⎥ ( I + aD) −1 C ⎣ C ⎦ t ⎣ ⎦ ⎣ ⎦ ⎡ I aB( I + aD ) −1 ⎤ ⎡ sI − A⎤ =⎢ ⎥⎢ ⎥ . Donde se conclui também que o par (Ct , At ) é observável. ( I + aD ) −1 ⎦ ⎣ C ⎦ ⎣0 Portanto todas as condições do teorema da passividade são satisfeitas, concluindo a prova do Corolário (2.16). O Corolário se transforma numa condição elegante, que veremos logo a seguir, quando m = 1, o chamado critério do círculo. Temos primeiramente um resultado elementar de matemática, mas um pouco trabalhoso para demonstrar. Fato: Seja z = x + jy um número complexo e sejam a, b ∈ R, com a < b. Então, z 1 Re + >0 1 + az b − a b+a b−a > se ba > 0, se só se z + 2ba 2ba < b−a se ba < 0. 2ba Prova: Vamos provar que (2.20) e (2.21) são equivalentes a ba( x 2 + y 2 ) + (b + a) x + 1 > 0 . Provaremos primeiramente que (2.20) e (2.22) são equivalentes. De (2.20), vem x + jy 1 ( x + jy )(1 + ax − jay ) 1 Re + > 0 ∴ Re + >0 2 2 2 1 + ax + jay b − a (1 + ax) + a y b−a (2.19a) (2.20) (2.21a) (2.21b) (2.22) x(1 + ax) + ay 2 1 ( x + ax 2 + ay 2 )(b − a) + 1 + 2ax + a2 x 2 + a2 y 2 0 >0; + > ∴ (1 + ax) 2 + a 2 y 2 b − a ((1 + ax) 2 + a 2 y 2 )(b − a) mas b – a > 0; portanto o denominador da última expressão é maior que zero; quanto ao ∴ 59 numerador, efetuando-se (em “arial” o que é cancelado), verifica-se que é igual a (2.22). 2 b+a⎞ ⎛ 2 Passemos a (2.21). O lado esquerdo é ⎜ x + ⎟ + y . Elevando ao quadrado ambos os 2 ba ⎝ ⎠ 2 2 (2abx + a + b) b − 2ab + a 2 2 + y > . Efetuando, obtém-se lados de (2.21a), temos 4a 2 b 2 4a 2b 2 a 2b 2 ( x 2 + y 2 ) + abx(a + b) + ab > 0 . (2.23) Dividindo esta por ab , obtém-se (2.22). Por outro lado, elevando ao quadrado ambos os lados de (2.21b), obtém-se (2.23) com o sinal de desigualdade invertido. Mas como ba < 0 , ao dividirmos por ab , chegamos também a (2.22), concluindo a prova do Fato (2.19a). Considere-se o círculo D(a, b) no plano complexo b+a b−a e raio com centro em − . (2.23a) 2ba 2 ba Recordamos que, por hipótese, b > a, e portanto o numerador da expressão do raio é b+a b−a sempre positivo. Os pontos de interseção do círculo com o eixo x são − . ± 2ba 2 ba Se ba > 0, obtemos os pontos de interseção -1/b e -1/a; se ba < 0, obtemos os mesmos pontos. Na figura 5 abaixo supusemos a, b > 0. Ora, é claro que de (2.21) vemos que z estará fora do círculo D(a, b) se ba > 0 e estará dentro do círculo se ba < 0. Portanto, (2.20) ocorre se só se z estiver fora do círculo (a, b) se ba > 0 e estiver dentro do círculo se ba < 0. y x -1/a -1/b Figura 5 (2.24) Neste ponto recordamos o Critério de Nyquist: Seja H(s) uma função de transferência escalar e seja k , um número real, um ganho num sistema de malha fechada (SMF). Plotamos H(jω) no plano complexo, fazendo ω variar de - ∞ a + ∞, fechando pelo lado direito com círculo de raio ∞, englobando portanto todos os pólos instáveis de H(s). (Ou seja, percorre-se um semi-círculo com raio ∞, no sentido 60 horário, sendo o diâmetro localizado no eixo imaginário). Ao plotarmos H(jω), variando ω, obtemos necessariamente uma curva fechada (pois ω volta ao valor inicial). Designemo-la por diagrama de Nyquist. O critério de Nyquist diz que o SMF é estável se só se o diagrama de Nyquist envolver no sentido anti-horário o ponto -1/k um número de vezes igual ao número de pólos de H(s) no semi-plano aberto da direita, Co+ . Observação: Se H(s) tiver algum pólo no eixo imaginário, ele terá que ser “driblado” , através de semi-cículo com raio “tão pequeno quanto queremos” quando se faz variar ω. Já estamos agora em condições de enunciar e provar o resultado principal desta seção, o critério do círculo: Teorema: Critério do Círculo (2.25) Considere o sistema (2.1) com m = 1, supomos que o sistema linear é controlável e observável e que Φ ∈ setor[a, b]. Considere-se o círculo D(a, b) definido acima. Então o ponto de equilíbrio xe = 0 é absolutamente estável se uma das condições abaixo se realizar, conforme o caso: (i) 0 < a < b : O diagrama de Nyquist de H(jω) fica todo fora do círculo D(a, b) e o envolve no sentido anti-horário tantas vezes quantos são os auto-valores de A com parte real positiva; 1 (ii) 0 = a < b : a matriz A é Hurwitz e inf Re H ( jω )+ > 0 ; b ω∈R (iii) a < 0 < b : A é Hurwitz e o diagrama de Nyquist de H(jω) fica no interior de D(a, b); (iv) a < b ≤ 0: Substitua-se H(jω) por - H(jω), a por –b, b por -a e aplique-se (i) ou (ii) acima, conforme a segunda desigualdade seja estrita ou não. Prova: (i): Faça-se z = H(jω) em (2.20). Como ab > 0, de acordo com (2.21a) H(jω) tem que ficar fora de D(a, b). Ora, se Φ for uma reta com coeficiente angular a, teríamos um ganho puro igual a a e, de acordo com o critério de Nyquist, o diagrama de Nyquist de H(jω) tem que envolver o ponto -1/a no sentido anti-horário um número de vezes igual ao número de auto-valores de A com parte real positiva. Mas envolvendo o ponto -1/a, envolve todo o círculo D(a, b) (ver a figura 5); (ii): Reportando-nos ao Corolário (2.16), neste caso H a ( jω ) = H ( jω ) , daí que supomos A uma matriz Hurwitz; aplique-se a condição (2.17); (iii) Neste caso ab < 0 e, portanto o diagrama de Nyquist fica no interior de D(a, b) de acordo com (2.21b), não podendo, portanto, envolver o ponto -1/a, donde que temos que A é Hurwitz; (iv): óbvio. Exemplo (2.26) 1 ; a função não linear no canal de realimentação está no setor [-a, a], com H ( jω ) = 2 s + s +1 a > 0. Qual o valor máximo de a tal que a origem do espaço de estado (ponto de equilíbrio) seja absolutamente estável? Solução: estamos no caso (iii); sendo a função linear estável: OK quanto a isso. 61 H ( jω ) = 1 1 − ω 2 − jω 1− ω2 jω = = − . Portanto, Re( H ( jω )) = 2 2 2 2 2 4 −ω + jω + 1 (1 − ω ) + ω 1− ω + ω 1− ω2 + ω4 ω 1− ω2 , Im( H ( jω )) = − . Calculemos alguns pontos do diagrama de 2 4 1−ω + ω 1− ω2 + ω4 Nyquist: ω Re[H(jω)] Im[H(jω)] 0+ 1 0- 0,25 0,996 -0,266 0,5 0,922 -0,615 1 0 -1 2 -0,23 -0,154 5 -0,04 -0,0083 Na primeira coluna acima “0+“ significa número maior que zero arbitrariamente próximo de 0, enquanto que 0- tem o sentido simétrico. Na figura 6 abaixo o diagrama de Nyquist; recorda-se que só precisamos calculá-lo para 0 ≤ ω < ∞, a parte do diagrama correspondente a -∞ < ω ≤ 0 sendo simétrica à outra com relação ao eixo horizontal. Im( H ( jω )) ω = , que é zero quando ω = 0 e quando ω → ∞ , ou seja, Observe-se que Re( H ( jω )) −1 + ω 2 a tangente à curva é zero nos dois casos. Figura 6 62 Observação: É fácil verificar que Re[H(jω)] é sempre uma função par, ou seja Re[H(jω)] = Re[H(-jω)] enquanto que Im[H(jω)] é uma função impar, isto é, Im[H(jω)] = - Im[H(-jω)] . Conseqüentemente, o diagram de Nyquist é sempre uma curva simétrica em relação ao eixo dos reais De acordo com o teorema, o círculo D(a, b) = D(-1/a, 1/a) tem que envolver o diagrama de Nyquist; o raio do círculo é obviamente 1/a (ver (2.23a)). Ou seja, quanto maior o setor, menor o raio do círculo, confirmando nossa intuição que, quanto maior o setor, mais difícil a estabilidade absoluta. Para calcular o maior valor de a, temos que calcular o máximo do 1 1 1 = = . valor absoluto de H(jω). Ora, H ( jω ) = 2 2 2 2 1 − ω + jω (1 − ω ) + ω 1− ω2 + ω4 Calculando o máximo: donde ω = 0 ou ω = d H ( jω ) dω −1 −1 (1 − ω 2 + ω 4 ) 2 d (1 − ω 2 + ω 4 ) = = dω 2 1− ω2 + ω4 1 ⎛ j1 ⎞ ; ora, H (0) = 1 , H ⎜ ⎟= 2 ⎝ 2⎠ ω − 2ω 3 3 4 2 = 0, (1 − ω + ω ) 2 1 2 3 ; donde a < . = 2 1 1 3 1− + 2 4 Exemplo (2.27) Mesmo problema do exemplo anterior, com a não linearidade no setor[0, 2a]. 1− ω2 ; vejamos qual o mínimo Solução: estamos no caso (ii); ora, Re( H ( jω )) = 1−ω2 + ω4 d Re( H ( jω )) −2ω (1 − ω 2 + ω 4 ) + (ω 2 − 1)(4ω 3 − 2ω ) = 0, donde desta função: = dω (1 − ω 2 + ω 4 ) 2 −2ω + 2ω 3 − 2ω 5 + 4ω 5 − 4ω 3 − 2ω 3 + 2ω = 0 ∴ω 3 (ω 2 − 2) = 0 . Donde ω = 0 ou ω = 2 . 1 Substituindo, temos Re( H (0)) = 1 , Re( H ( j 2)) = − , este portanto o valor que deve ser 3 1 1 1 1 3 substituído em (ii), com b = 2a , obtendo-se − + > 0∴ > ∴a < . 3 2a 2a 3 2 Exemplo (2.28) Suponha agora que o setor é [a, 3a], com a > 0. Achar o maior valor de a de tal modo que a origem do espaço de estado seja absolutamente estável. Solução:Estamos no primeiro caso e como o sistema linear é estável, o diagrama de Nyquist de H ( jω ) não deve envolver o círculo D(a, 3a). De (2.23a), o círculo tem centro b+a b−a e raio ; substituindo b por 3a nestas expressões, temos que o centro em − 2ba 2 ba (3a + a) 2 (3a − a) 1 =− e o raio é = . É claro então que o círculo 2 6a 3a 6a 2 3a intercepta o eixo horizontal em -1/3a e em -a ; por outro lado, o ponto mais à esquerda do diagrama de Nyquist tem parte real igual a -1/3, como vimos no exemplo anterior . Então, se -1/3a < -1/3, garantiremos que o círculo não toca o diagrama de Nyquist, ou, do círculo está em − 63 equivalentemente, 1/a > 1 e, finalmente, a < 1 é condição suficiente para a estabilidade absoluta. (Este resultado é um pouco conservador: se quiséssemos ser rigorosos, teríamos que achar a expressão do centro do círculo ao diagrama de Nyquist, mas isto é um pouco trabalhoso e não levaria a resultado muito melhor como se pode ver da figura 6). Exemplo (2.29) Seja o mesmo sistema linear dos exemplos anteriores, mas agora o setor é [-2a, 0]. Novamente, trata-se de achar o maior valor de a. Solução: Estamos no caso (iv) e, de acordo com o teorema, temos que fazer as substituições H ( jω ) → - H ( jω ) , -2a → 0, 0 → 2a , caindo no caso (ii) . Então, Re(− H ( jω )) = ω 2 −1 . As freqüências que anulam a derivada desta última expressão 1− ω2 + ω4 1 são as mesmas do Exemplo (2.27), mas agora temos Re(− H (0)) = −1 , Re(− H ( j 2)) = . 3 Portanto, de acordo com o teorema (ii), devemos ter -1 + 1/2a > 0, donde 2a < 1, e portanto, a < 1/2. Exemplo (2.30) 1 . Verificar se existe setor de funções não lineares no canal de realimentação de s −1 modo que a origem do espaço de estado seja absolutamente estável. Determinar o maior setor. 1 1 + jω 1 ω =− =− −j . Sejam X e Y, respectivamente, Solução: H ( jω ) = 2 2 1+ ω 1+ ω 1+ ω2 jω − 1 1 ω ,Y= − , donde, as partes real e imaginária de H ( jω ) , ou seja, X = − 2 1+ ω 1+ ω2 X +1 , Y = ω X = − X ( X + 1) , ou seja, Y 2 = − X − X 2 ; é fácil verificar que esta é a ω= − X equação de um círculo com centro no eixo horizontal, abcissa -0,5 e raio igual a 0,5; com efeito, a equação de um tal círculo é ( X + 0,5) 2 + Y 2 = 0,52 , que é a equação duas linhas acima. Sendo o sistema linear instável, o problema poderá ter solução somente no caso (i), o diagrama de Nyquist tendo que envolver o círculo D(a, b) uma vez no sentido antihorário. A tabela abaixo nos indica as partes real e imaginária de H ( jω ) em função dos valores crescentes de ω, mostrando que o diagrama de Nyquist evolui no sentido antihorário. (Ver figura 6a) H ( s) = ω Re(H(jω)) Im(H(jω)) 0+ -1 0- 0,5 -0,8 -0,4 1 -0,5 -0,5 2 -0,2 -0,4 5 -0,038 -0,0192 →∞ 00- 64 Figura 6a Ora, o maior círculo D(a, b) que pode caber dentro deste diagrama de Nyquist deve ser tal que (reportar-se à figura 5) -1/a > -1 , donde 1/a < 1 e, portanto a > 1, e por outro lado 1/b < 0, ou seja, 1/b > 0 e portanto b < ∞. Então, o maior setor de estabilidade absoluta é (1, ∞) . Exemplo (2.31) Seja a chamada equação de Mathieu amortecida d 2 y (t ) dy (t ) + 2µ + ( µ 2 + α 2 − q cos ω0t ) y (t ) = 0 , com µ, α, q > 0, que pode ser re-escrita 2 dt dt 2 d y (t ) dy (t ) + 2µ + ( µ 2 + α 2 ) y (t ) − q cos ω0ty (t ) = 0 , a qual pode ser posta na na forma 2 dt dt forma da figura 1, que repetimos abaixo, com: Φ (t , y (t )) = − q cos ω0t , donde Φ (t , y (t )) ∈ setor[− q, q] . Ao aplicarmos a transformada de Laplace à parte invariante no tempo da equação diferencial acima, obtemos a função de transferência 65 dx = Ax + Bu dt y = Cx + Du + 0 - Φ(t,y) Figura 1 bis 1 . Do setor, vemos que estamos no caso (iii) do teorema, com a = s + 2µ s + µ 2 + α 2 -q, b = q, ou seja, D(a, b) é um círculo com centro na origem e raio 1/q . Satisfeita a condição de a função de transferência ser estável; o diagrama de Nyquist deve ficar no interior de D(-q, q). Calculemos alguns pontos do diagrama de Nyquist de H(s). 1 H ( jω ) = . Comparando H(jω) deste exemplo com a do exemplo 2 −ω + j 2 µω + µ 2 + α 2 (2.26), verificamos que elas têm a mesma forma matemática e, portanto, os diagramas de Nyquist serão iguais, a menos da proporção altura/largura. Repetimos a figura: H ( s) = 2 66 Figura 6 bis Conseqüentemente, o SMF será globalmente estável se o diagrama de Nyquist ficar dentro do círculo D(-q, q). Temos que calcular o valor máximo de H ( jω ) e determinar as condições para que H ( jω ) < 1/q . Ora, H ( jω ) = (2.30) 1 ; ( µ 2 + α 2 − ω 2 ) 2 + 4µ 2ω 2 para calcular o máximo, diferenciemos e igualemos a zero: −2( µ 2 + α 2 − ω 2 )(−2ω ) + 8µ 2ω d H ( jω ) dω = = 0 ou ω = 2 ( µ 2 + α 2 − ω 2 ) 2 + 4µ 2ω 2 ( µ 2 + α 2 − ω 2 ) 2 + 4µ 2ω 2 = 0 ∴ ( µ 2 + α 2 − ω 2 )ω + 2µ 2ω = 0 , α 2 + 3µ 2 ; ora, de (2.31), H (0) = 1 µ +α 2 2 (2.31) donde ω (2.32) 67 e H ( j 3µ 2 + α 2 ) = = 1 ( µ 2 + α 2 − 3µ 2 − α 2 ) 2 + 4 µ 2 (3µ 2 + α 2 ) = 1 4 µ 4 + 4 µ 2 (3µ 2 + α 2 ) 1 . (2.33) 2µ 4µ 2 + α 2 Qual o maior: (2.32) ou (2.33)? Depende dos valores relativos de α e µ. A relação entre α, µ e q é estabelecida utilizando-se (2.30). Finalmente, seja observado que a solução encontrada vale não somente para a equação de d 2 y (t ) dy (t ) Mathieu, mas para toda equação da forma + 2µ + ( µ 2 + α 2 ) y (t ) − qf ( y (t )) = 0 , 2 dt dt onde f ( y (t )) ∈ setor[-1, 1]. Problemas em provas dos anos anteriores 1. Considere um SMF em que que a parte linear tem função de transferência igual a H(s) = 1 / (s+1)(s+2)(s+3). A parte não linear está dentro de um setor [a , b]. Estude a estabilidade do sistema nos três casos, utilizando o critério do círculo, com 0 < a < b, 0 ≤ a < b, a < 0 < b. Ache o maior valor possível de b no primeiro e no segundo caso, bem como no terceiro, fazendo a = - b. 1 . Utilizando o critério do círculo, verificar se existe 1− s um setor tal que o SMF (sistema em malha fechada com realimentação não linear) seja absolutamente estável. Em caso afirmativo, determinar (aproximadamente) o maior setor tal que o SMF seja absolutamente estável. 2. Dado o sistema linear H ( s ) = 3.Utilize o critério do círculo para estudar a estabilidade absoluta do SMF em que o sistema K , com K > 0. Verifique se linear tem a seguinte função de transferência: H ( s ) = ( s + 1)3 existe solução para o problema nas seguintes situações: 0 = a < b , a < 0 < b. Determine, em cada um dos casos, se existir solução, o maior setor que garante a estabilidade absoluta. ⎡ dx(t ) ⎤ ⎢ dt ⎥ ⎡0 0 ⎤ ⎡ x(t ) ⎤ ⎡0 ⎤ ⎡ 2 ⎤ ⎡1 ⎤ 4. Seja o sistema ⎢ , t0 = 0, x(0) = ⎢ ⎥ . Verificar que ⎢ ⎥ e ⎢ 2 ⎥ são ⎥=⎢ ⎥ ⎢ ⎥ ⎣ 1 ⎦ ⎣t ⎦ ⎣ 2⎦ ⎢ dy (t ) ⎥ ⎣ t 0 ⎦ ⎣ y (t ) ⎦ ⎢⎣ dt ⎥⎦ duas soluções linearmente independentes do sistema. Calcular a matriz de transição de estado, achar x(t ) com x(0) dado acima e estudar a estabilidade do sistema com relação ao ponto de equilíbrio ⎡0 ⎤ xe = ⎢ ⎥ . ⎣0 ⎦ 5. Seja o sistema linear ⎡0 1⎤ ⎡0 ⎤ , B = ⎢ ⎥ , C = [ 0 1] . A=⎢ ⎥ ⎣ −1 −2 ⎦ ⎣1 ⎦ 68 Ele é realimentado com função não- linear no setor[1; 2]. Verificar se o ponto de equilíbrio (origem do espaço de estado) é assintoticamente estável para toda função não linear no setor. 3. O Critério de Popov Nesta seção vamos enunciar e demonstrar uma outra maneira de resolver o problema da estabilidade absoluta, através do assim chamado Critério de Popov, inventado pelo cientista rumeno V. M. Popov. Ao contrário do critério do círculo, estudado na seção anterior, o critério que agora estudaremos não vale para sistemas não lineares variantes no tempo. Há também diferença quanto à classe dos sistemas lineares. Os sistemas que estudaremos agora são da forma dx(t ) = Ax(t ) + Bu (t ) , (3.1a) dt dξ (t ) (3.1b) = u (t ) , dt y (t ) = Cx(t ) + Dξ (t ) , (3.1c) u (t ) = −Φ ( y ) , (3.1d) Φ(y) ∈ setor(0, ∞), (3.1e) sendo Φ(y) contínua. Nestas equações, A ∈ R nxn , u (t ) e y (t ) são escalares, D e ξ (t ) também o são, enquanto que B e C são vetores coluna e linha, respectivamente. O sistema de equações acima pode ser posto na seguinte forma, omitindo o argumento (t): ⎡ dx ⎤ ⎢ dt ⎥ ⎡ A 0 ⎤ ⎡ x ⎤ ⎡ B ⎤ (3.2a) ⎢ ⎥=⎢ ⎥ ⎢ ⎥ + ⎢ ⎥u , ⎢ dξ ⎥ ⎣ 0 0 ⎦ ⎣ξ ⎦ ⎣ 1 ⎦ ⎢⎣ dt ⎥⎦ ⎡ x⎤ (3.2b) y = [C D ] ⎢ ⎥ , ⎣ξ ⎦ u (t ) = −Φ ( y ) . (3.2c) Fica claro que o sistema linear tem um pólo na origem. Observe-se também de (3.1e) que o setor é aberto dos dois lados. Como se vê, a classe de sistemas é mais restrita do que a do critério do círculo, até porque, como veremos logo adiante, A será suposta sempre Hurwitz. Veremos, porém, que a solução é, em geral, menos trabalhosa. É claro que, da continuidade de Φ(y), temos Φ(0) =0, y Φ(y) > 0 ∀y ≠ 0 . Aplicando-se transformada de Laplace, com condições iniciais nulas às equações (3.1a) e (3.1b), temos sxˆ ( s ) = Axˆ ( s) + Buˆ ( s) ∴ xˆ ( s ) = ( sI − A) −1 Buˆ ( s ) , 69 uˆ ( s ) uˆ ( s) = sξˆ( s ) ∴ ξˆ( s ) = . s Conseqüentemente, a função de transferência entre uˆ ( s ) e yˆ ( s ) é D H ( s ) = C ( sI − A)−1 B + . (3.3) s Podemos então nos reportar à figura 1bis, substituindo D por D/s, e além disso Φ não depende agora explicitamente de t. Estamos em condição agora de enunciar e provar o Teorema (Critério de Popov) (3.4) Considere o sistema (3.1) e suponha que A seja Hurwitz, (A, B) seja controlável, (C, A) seja observável, D > 0 e Φ(y) ∈ setor(0, ∞). Então o SMF é absolutamente globalmente estável se existir um número r > 0 ,tal que (3.5) inf Re[(1 + jω r ) H ( jω )] > 0 ω∈R Observação: Como provaremos que a estabilidade é global, dizemos no enunciado do teorema acima que o SMF, e não simplesmente o ponto de equilíbrio [0,0]T, é absolutamente globalmente estável. Exemplo (3.6) 1 1 − j (1 − jω ) ω + j1 ∴ H ( jω ) = = =− , donde 2 s ( s + 1) jω (1 + jω ) ω (1 + ω ) ω (1 + ω 2 ) ⎛ −(1 + jω r )(ω + j1) ⎞ −ω + ω r r −1 = > 0 para todo r > 1. Re[(1 + jω r ) H ( jω )] = Re ⎜ ⎟= 2 2 2 ω (1 + ω ) ⎝ ⎠ ω (1 + ω ) 1 + ω Portanto o SMF é absolutamente globalmente estável no setor (0, ∞). H ( s) = Prova do teorema (3.4): Observe-se inicialmente que s ( sI − A) −1 = ( sI − A + A)( sI − A) −1 = I + A( sI − A) −1 . (3.7) D⎞ D ⎛ Ora, (1 + rs ) H ( s ) = (1 + rs ) ⎜ C ( sI − A) −1 B + ⎟ = + rD + C ( sI − A)−1 B + rsC ( sI − A)−1 B , s⎠ s ⎝ D o que, em vista de (3.7), nos dá + rD + C ( sI − A) −1 B + rCB + rCA( sI − A) −1 B . s E, portanto, substituindo s por jω, já descartando a primeira parcela da expressão acima, temos: Re[(1 + jω r ) H ( jω )] = Re[r ( D + CB ) + C ( I + rA)( jω I − A) −1 B] . (3.8) −1 (3.9) Definamos G ( s ) = r ( D + CB ) + C ( I + rA)( sI − A) B . É claro que Re(G ( jω )) é dado no lado direito de (3.8). Então (3.5) é equivalente a (3.10) infω∈R Re(G ( jω )) > 0 . Ora, de acordo com o teorema de Kalman-Yacubovich (2.2), existe uma matriz simétrica positiva definida P ε R n x n , um vetor-linha q (1x n), um escalar w e ε > 0 tais que AT P + PA = −ε P − qT q , (3.11a) BT P + wq = C ( I + rA) , w2 = 2r ( D + CB ) . (3.11b) (3.11c) 70 y Definamos Ψ ( y ) = ∫ Φ (σ )dσ . 0 (3.12a) Seja V ( x, ξ ) = xT Px + Dξ 2 + 2r Ψ ( y ) , (3.12b) que é claramente maior que zero se ( x, ξ ) ≠ (0, 0) , e alem do mais tende a ∞ se x e /ou ξ tende(m) a ∞. Portanto temos uma candidata a função de Lyapunov para demonstrar estabilidade assintótica global. Ora, diferenciando (3.12b), temos V ( x, ξ ) = xT Px + xT Px + 2 Dξξ + 2rΦ ( y ) y . Em vista de (3.2a) e (3.2c), temos V ( x, ξ ) = ( Ax − BΦ )T Px + xT P ( Ax − BΦ ) − 2 DξΦ + 2rΦ (C ( Ax − BΦ ) − DΦ ) . (3.13) T T T T T As duas primeiras parcelas de (3.13) são x A Px − ΦB Px + x PAx − Φx PB , pois Φ é um escalar. Note-se que ΦBT Px = ΦxT PB ; por outro lado, Dξ = y − Cx , e portanto as duas últimas parcelas de (3.13) são −2( y − Cx)Φ + 2r Φ (C ( Ax − BΦ ) − DΦ ) = 2CxΦ − 2 yΦ + 2r ΦCAx − 2r Φ 2CB − 2rDΦ 2 = 2ΦC ( I + rA) x − 2r ( D + CB )Φ 2 − 2 yΦ . Em vista destas observações, obtemos de (3.13) V ( x, ξ ) = xT ( AT P + PA) x − 2ΦBT Px + 2ΦC ( I + rA) x − 2r ( D + CB )Φ 2 − 2 yΦ . Mas em vista de (3.11), temos V ( x, ξ ) = xT (−ε P − qT q) x − 2ΦBTPx + 2Φ(BTP + wq) x − w2Φ 2 − 2 yΦ ; cancelando por subtração o que está em “Arial”, vem: V ( x, ξ ) = −ε xT Px − xT qT qx + 2Φwqx − w2 Φ 2 − 2 yΦ (3.14) T T 2 Mas observe-se que x q qx = ( qx) , e portanto temos de (3.14) V ( x, ξ ) = −ε xT Px − (qx − wΦ ) 2 − 2 yΦ , donde V ( x, ξ ) ≤ −ε xT Px − 2 yΦ, ∀x, ξ (3.15) Ora, se x ≠ 0, então V ( x, ξ ) < 0 porque - yΦ ≤ 0 . Mas se x = 0 e ξ ≠ 0, então temos y = Dξ ≠ 0 e então - 2yΦ < 0, concluindo-se portanto que V ( x, ξ ) < 0 ∀( x, ξ ) ≠ (0, 0) , concluindo a prova do teorema. O setor(0, ∞) do teorema é conservador, seria interessante obter resultado com setor mais “apertado”, como ocorre em vários problemas. E é isto que o Corolário seguinte nos dá: Corolário (Critério de Popov) (3.16) Seja o sistema (3.1) com as hipóteses do teorema anterior, exceto que agora Φ(y) ∈ setor(0, k), com 0 < k < ∞. Então o SMF é absolutamente globalmente estável se existir r > 0 tal que 1 (3.17) inf Re[(1 + jω r ) H ( jω )] + > 0 k ω∈R Observação: Seja X (ω ) := Re( H ( jω )) , Y (ω ) := Im( H ( jω )) . Então, de (3.17), Re[(1 + jω r )( X (ω ) + jY (ω )] + 1 1 > 0, ∀ω , ou seja, X (ω ) − rωY (ω ) + > 0, ∀ω , ou k k 1 ainda, X (ω ) − rωY (ω ) > − , ∀ω . k (3.18) 71 Prova do Corolário (3.16): Façamos a transformação da malha como na figura 7 abaixo. É claro que o feedback e o feedforward se anulam; com efeito, a saída w de Φ multiplicada por -1 / k é adicionada à resposta do sistema linear, obtendo-se z, mas a este soma-se w, multiplicado por 1/ k, anulando-se portanto os efeitos. Seja Φ t a função não linear resultante do feedback. Do 1 1 1 diagrama de blocos (figura 7), temos γ = z + w = z + Φ (γ ) ∴ z = γ − Φ (γ ) k k k −1 −1 ⎛ 1 ⎞ ⎛ 1 ⎞ ⎛ 1 ⎞ ∴ z = ⎜1 − Φ ⎟ (γ ) ∴ γ = ⎜1 − Φ ⎟ ( z ) ∴ w = Φ ⎜ 1 − Φ ⎟ ( z ) . Então, definamos ⎝ k ⎠ ⎝ k ⎠ ⎝ k ⎠ −1 ⎛ 1 ⎞ (3.19) Φ t = Φ ⎜1 − Φ ⎟ ( z ) . ⎝ k ⎠ Ora, Φ(γ) → 0 ⇒ w → 0, enquanto que Φ(γ) → k ⇒ w → ∞, ou seja, Φ t ε setor(0, ∞). Por outro lado, o sistema linear com o feedforward tem função de 1 transferência H t ( s ) = H ( s ) + . k (3.20) Apliquemos o teorema (3.4) ao SMF, com H t ( jω ) e Φ t , notando-se que, sendo H ( s ) estável, H t ( s ) também o será, permanecendo também a controlabilidade e observabilidade, que só dependem de A, B e C. 1 Mas de (3.20), Re[(1 + jω r ) H t ( jω )] = Re[(1 + jω r ) H ( jω )] + > 0 ∀ω , concluindo-se a k prova. + + H(s) 0 - + 1 k 1 k + Φ(γ) w γ z + Figura 7 72 Tal como o Critério do Círculo, o Critério de Popov tem também uma interpretação gráfica, usualmente bem mais fácil de se aplicar. Com efeito, considere-se a inequação (3.18). Seja a curva determinada por ωY (ω ) versus X (ω ) . Chamemos esta curva de diagrama de Popov. Então os eixos coordenados que consideramos são X (ω ) e ωY (ω ) . Considere-se neste plano um reta que passe pelo ponto -1 / k e que tenha coeficiente angular 1/ r . É claro que esta reta intercepta o eixo 1⎛ 1⎞ ωY (ω ) em 1 / rk .Conseqüentemente, a equação desta reta é ωY (ω ) = ⎜ X (ω ) + ⎟ , ou r⎝ k⎠ X (ω ) 1 seja, ωY (ω ) = + . (3.21) r rk É claro que a parte do plano à direita e abaixo desta reta satisfaz à desigualdade X (ω ) 1 ωY (ω ) < + , ou seja, X (ω ) - r ωY (ω ) > -1 / k , r rk que é a inequação (3.18), equivalente por sua vez, como vimos, a (3.17). Então concluímos que tudo que temos que fazer é traçar o diagrama de Popov e verificar se existe r > 0 tal que a reta definida por (3.21) fique à esquerda do diagrama. Se existir tal r, então o SMF é absolutamente globalmente estável. Exemplo (3.22) 1 . Verificar o maior valor de k para o qual s ( s + 1) 2 SMF é absolutamente globalmente estável. Considere o SMF de (3.1) com gˆ ( s ) = Solução: gˆ ( jω ) = Re[ gˆ ( jω )] = − 1 j (1 − jω ) 2 j (1 − j 2ω − ω 2 ) ; então, = − = − jω (1 + jω ) 2 ω (1 + ω 2 ) 2 ω (1 + 2ω 2 + ω 4 ) 2 ; ω Im[ gˆ ( jω )] = 1 + 2ω 2 + ω 4 pontos para construir o diagrama de Popov: ω 0 0,3 0,6 X(ω) -2 -1,68 -1,08 -1 -0,77 -0,35 ωY(ω) ω 2 −1 . Donde obtemos os seguintes 1 + 2ω 2 + ω 4 1 -0,5 0 2 -0,08 0,12 5 00,04 ∞ 00+ 73 Figura 8 É claro do diagrama de Popov acima que se -1/k < -0,5, ou seja, se k < 2 , existe reta que deixa à direita o diagrama de Popov. Então estes são os valores de k para que tenhamos estabilidade absoluta global. Observação: Como foi relembrado ao se mecionar o critério de Nyquist, ao final do exemplo (2.26), Re[H(jω)] é uma função par, enquanto que Im[H(jω)] é uma função impar. Conseqüentemente, ω Im[H(jω)] é uma função par e por isso para traçar o diagrama de Popov, basta fazer ω variar de 0 a ∞, pois ele coincide com o diagrama que se obtém quando se faz ω variar de 0 a -∞. Seja observado que para que o problema tenha solução pelo critério de Popov, o sistema linear deve ter um e somente um pólo na origem, como acontece no exemplo anterior e no seguinte: Exemplo (3.23) 1 Seja agora o exemplo mais simples que o anterior: H ( s ) = . Verificar o maior valor s ( s + 1) de k para o qual o SMF é absolutamente globalmente estável. 74 1 j (1 − jω ) 1 =− , donde X (ω ) = − = ωY (ω ) . Portanto 2 jω (1 + jω ) ω (1 + ω ) 1+ ω2 o diagrama de Popov é uma reta no 3º. quadrante passando pela origem, com coeficiente angular igual a 1, conforme se vê na figura 9 abaixo. Então devemos ter -1/ k < 0 , donde 1/ k > 0 , ou seja k > 0, de resto qualquer. Portanto, k < ∞ . Solução: H ( jω ) = ω Im[H(jω)] Re[H(jω)] Figura 9 Problemas em testes e provas dos anos anteriiores: 1.Considere um SMF em que a parte linear tem função de transferência igual a H(s) = 1 / s(s+1). A parte não linear pertence ao setor (0 , k). Verificar, utilizando o critério de Popov, se existe k tal que o SMF seja globalmente assintoticamente estável. Em caso afirmativo, determinar o maior valor de k. 1 , cuja resposta é s ( s + 3) a entrada de um sistema não linear, cuja função está em um setor (0, k). A resposta deste sistema não linear, com sinal trocado, é a entrada do sistema linear. Verificar se existe k maior que zero tal que o SMF seja estável, utilizando o critério de Popov. Em caso afirmativo, verificar qual o maior valor de k para o qual o SMF é estável. 2.Considere um sistema linear com função de transferência H ( s ) = 3. Utilizar o critério de Popov para determinar o maior valor de k do setor de modo que o SMF seja absolutamente globalmente estável. O sistema linear tem a seguinte função de a( s − 1) , com a > 0. transferência: H ( s ) = s ( s + 1) 75 s −1 . Utilizando o critério s ( s + 1) de Popov, verificar qual o maior valor de k tal que o SMF seja absolutamente estável. 4. Seja o sistema linear com função de transferência H ( s ) = 2 Capítulo 4: Controle Ótimo pelo método de Pontryagin (Neste capitulo e no próximo voltamos a seguir, essencialmente, o livro de D. Luenberger). A importância prática do controle ótimo é óbvia, pois freqüentemente, nos problemas de controle, queremos maximizar ou minimizar alguma coisa: assim por exemplo, deseja-se maximizar lucros em sistemas econômicos, minimizar energia num veículo, numa indústria, etc. 4.1 O Problema básico de Controle Ótimo Focalizaremos principalmente os problemas de tempo contínuo, a razão principal sendo que se obtêm resultados mais fortes em sistemas de tempo contínuo, graças ao Princípio de Pontryagin, como veremos. Consideremos o sistema não-linear e invariante no tempo x(t ) = f ( x(t ), u (t )) , 0 ≤ t ≤ T , T dado (1.1a) x(0) =: xo, fixo. (1.1b) Os controles permitidos, são u(t) ε U , (1.1c) onde U é conhecido. A chamada função objetivo ou índice de desempenho deve ser maximizada ou minimizada, conforme o problema. Ela é dada, na sua forma mais geral por um número real dado por T J = Ψ ( x(T )) + ∫ l ( x(t ), u (t ))dt . 0 (1.1d) Conforme a convenção dos capítulos precedentes, x(t) é um vetor de dimensão n , enquanto que u(t) tem dimensão m. A primeira parcela de (1.1d) é a contribuição do estado final para o índice de desempenho, algo que acontece com freqüência nos problemas de controle ótimo. Apesar de óbvio, não custa nada deixar claro que no problema do controle ótimo, o objetivo é determinar u(t), 0≤ t ≤ T com as restrições (1.1a)- (1.1c) de modo a maximizar (ou minimizar) (1.1d). A solução do problema do controle ótimo que apresentaremos, demonstrada nos anos 50’s por Pontryagin e colaboradores é análoga à solução à da maximização (ou minimização) de funções submetidas a restrições: soma-se à função objetivo a restrição multiplicada por um 76 parâmetro (denominado de Lagrange), que é então maximizada / minimizada. No mesmo espírito, definamos então T J = J − ∫ λ (t )T ( x(t ) − f ( x(t ), u (t ))dt . (1.2) 0 É claro que J = J , pois o integrando é nulo, de acordo com (1.1a). Então, maximizando / minimizando J , estaremos maximizando / minimizando J . (Doravante, para simplificar, usaremos a expressão “otimizar”, que tanto pode significar maximizar ou minimizar). Por conveniência, definamos a seguinte função, denominada hamiltoniano, omitindo o argumento (t): H (λ , x, u ) = λ T f ( x, u ) + l ( x, u ) . (1.3) Em vista disso e de (1.1d), (1.2) pode ser re-escrita: T T T T T 0 0 0 J = Ψ + ∫ ldt − ∫ λ T ( x − f )dt = Ψ + ∫ ldt + ∫ λ T fdt − ∫ λ T xdt 0 T 0 = Ψ + ∫ (λ f + l − λ x)dt . Em vista de (1.3), T T 0 T J = Ψ ( x(T )) + ∫ {H (λ (t ), x(t ), u (t )) − λ (t )T x(t )}dt . (1.4) 0 Suponha um controle u(t) que otimize (1.4), o qual, como vimos, otimizará também J. Considere-se uma “pequena” variação em u(t), ou seja, u(t)→ v(t) , com v(t) também satisfazendo a (1.1c). Esta variação é “pequena” no sentido que ∫ T 0 ui (t ) − vi (t ) dt < ε , i = 1,2 ....m (1.5) onde ui (t ) e vi (t ) são as i – ésimas componentes de u(t) e v(t) , respectivamente, e ε é arbitrariamente pequeno. Observe-se que (1.5) não implica que ui (t ) e vi (t ) sejam “próximos” durante todo o tempo; efetivamente, basta que a integral seja pequena. O controle v(t) produz (ver (1.1a)) uma trajetória diferente da trajetória ótima: x(t ) → x(t ) + δ x(t ) . A diferença δ x(t ) é “pequena” porque o estado do sistema depende da integral do controle, conforme (1.1a). As modificações do controle e do estado produzem, é claro, uma modificação no índice de desempenho: J → J + δ J . Obtemos, omitindo o argumento (t), em vista de (1.4): T δ J = Ψ ( x(T ) + δ x(T )) − Ψ ( x(T )) + ∫ {H (λ , x + δ x, v) − H (λ , x, u ) − λ T δ x}dt . 0 (1.6) Integrando por partes, temos ∫ T 0 T T T 0 0 λ T δ xdt = λ T (t )δ x(t ) 0 − ∫ λ T δ xdt =λ (T )T δ x(T ) − ∫ λ T δ xdt , porque δx(0) = 0 . Substituindo em (1.6), vem δ J = Ψ ( x(T ) + δ x(t )) − Ψ ( x(T )) − λ (T )T δ x(T ) T + ∫ {H (λ , x + δ x, v) − H (λ , x, u ) + λ T δ x}dt . 0 (1.7) Ora, somando e subtraindo H (λ , x, v) ao integrando, temos 77 ∫ ∫ T 0 T 0 {H (λ , x + δ x, v) − H (λ , x, u ) + λ T δ x}dt = {H (λ , x + δ x, v) − H (λ , x, v) + H (λ , x, v ) − H (λ , x, u ) + λ T δ x}dt . Aplicando o teorema de Taylor às duas primeiras parcelas do integrando acima, com aproximação de primeira ordem, temos T ⎛ ∂H (λ , x, v ) ⎞ T (1.8) ∫0 ⎜⎝ ∂x δ x + H (λ , x, v) − H (λ , x, u ) + λ δ x ⎟⎠dt . ∂H (λ , x, u ) δ x , obtemos Somando e diminuindo ao integrando ∂x T ⎛ ∂H (λ , x, u ) ⎞ ⎛ ∂H (λ , x, v) ∂H (λ , x, u ) ⎞ T ∫0 ⎜⎝ ∂x δ x + ⎜⎝ ∂x − ∂x ⎟⎠ δ x + H (λ , x, v) − H (λ , x, u) + λ δ x ⎟⎠dt . ⎛ ∂H (λ , x, v) ∂H (λ , x, u ) ⎞ − Ora, nesta expressão, ⎜ ⎟ δ x é de segunda ordem. Portanto, (1.8) ∂x ∂x ⎝ ⎠ T ⎛ ∂H (λ , x, u ) ⎞ δ x + H (λ , x, v) − H (λ , x, u ) + λ T δ x ⎟dt . se transforma em ≈ ∫ ⎜ (1.9) 0 ∂x ⎝ ⎠ Por outro lado, podemos aplicar o teorema de Taylor às duas primeiras parcelas de (1.7), obtendo, em vista de (1.9): T ⎛ ∂H (λ , x, u ) ⎛ ∂Ψ ( x(T )) ⎞ ⎞ − λ T (T ) ⎟ δ x(T ) + ∫ ⎜ + λ T ⎟δ xdt + δJ ≅ ⎜ 0 ∂x ∂x ⎝ ⎠ ⎝ ⎠ ∫ T 0 {H (λ , x, v) − H (λ , x, u )}dt . (1.10) Vamos agora escolher λ(t) de modo a anular as duas primeiras parcelas de (1.10), ou seja, −λ (t )T = ∂H (λ (t ), x(t ), u (t )) ∂x (1.11a) ∂Ψ ( x(T )) (1.11b) ∂x A equação diferencial (1.11a) é chamada adjunta e é resolvida de trás para frente com a condição final (1.11b). Em vista disso, temos de (1.10), em aproximação de 1ª. ordem: e a condição final λ (T )T = δJ = ∫ T 0 {H (λ (t ), x(t ), v(t )) − H (λ (t ), x(t ), u (t ))}dt (1.12) Ora se o problema for de maximizar o índice de desempenho, a integral acima deverá ser negativa ou nula; então o u(t) ótimo deverá satisfazer a H (λ (t ), x(t ), v(t )) ≤ H (λ (t ), x(t ), u (t )) , ∀v ∈ U , ∀t ∈ [0, T ] (1.13+) Se, pelo contrário, o problema for de minimizar o índice de desempenho, a condição será, pelo mesmo raciocínio, H (λ (t ), x(t ), v(t )) ≥ H (λ (t ), x(t ), u (t )) , ∀v ∈ U , ∀t ∈ [0, T ] (1.13-) 78 Então concluímos que o índice de desempenho é maximizado / minimizado, maximizandose / minimizando o hamiltoniano. Este é o famoso Princípio de Pontryagin, cuja demonstração, foi dada acima de forma não rigorosa. (A demonstração rigorosa envolve conhecimentos de topologia, além do escopo deste curso). Enunciamo-lo: Teorema de Pontryagin (Princípio do Máximo / Mínimo) (1.14) Seja u(t) o controle ótimo para o sistema definido em (1.1) e seja o Hamiltoniano definido em (1.3), a saber, H (λ , x, u ) = λ T f ( x, u ) + l ( x, u ) . (1.3 bis) ∂H (λ (t ), x(t ), u (t )) (1.11a bis) Então ∃ λ que satisfaz a (1.11), isto é, −λ (t )T = ∂x ∂Ψ ( x(T )) . (1.11b bis) com a condição final λ (T )T = ∂x Além disso, em se tratando de maximizar o índice de desempenho (1.1d), temos , H (λ (t ), x(t ), v(t )) ≤ H (λ (t ), x(t ), u (t )) ∀v ∈ U , ∀t ∈ [0, T ] ; (1.13+bis) mas se tratando de minimizar o índice de desempenho, temos H (λ (t ), x(t ), v(t )) ≥ H (λ (t ), x(t ), u (t )) , ∀v ∈ U , ∀t ∈ [0, T ] . (1.13-bis) Observação 1: O que o teorema de Pontryagin nos diz é que para maximizar / minimizar o índice de desempenho integral (1.1d), temos que maximizar / minimizar, como função de u, o hamiltoniano (1.3), uma tarefa usualmente bem mais fácil, como veremos nos exemplos Observação 2: As variáveis são as componentes de x(t ), u (t ), λ (t ) , ou seja, um total de 2n + m variáveis. Mas por outro lado temos 2n equações diferenciais, a saber (1.1a) e (1.11a), repetida acima, enquanto que (1.13), nas suas duas versões dadas acima, nos dá m equações. Para ver isso, considere-se o caso em que u(t) é interior a U; obtém-se o u ótimo diferenciando-se com relação a u o hamiltoniano e igualando-se a zero, o que nos dá m equações diferenciais; se o u ótimo estiver em fronteiras de U, obtêem-se equações algébricas, cada qual correspondente a uma fronteira. Veremos isso mais claramente nos exemplos. Exemplo (1.15) Nosso primeiro exemplo será um problema puramente geométrico, para mostrar a amplidão das soluções pelo teorema de Pontryagin. Trata-se de determinar a curva x(t), 0 ≤ t ≤ T que parte de x(0) = 0 e cujo coeficiente angular nunca é maior do que 1 e que atinja um valor máximo de x em T. O problema é colocado matematicamente na forma para aplicação do Teorema de Pontryagin: x(t ) = u (t ) , x(0) = 0 , u (t ) ≤ 1 , J = x(T). Solução: Aplicando o teorema de Pontryagin, temos: H = λ u , donde - λ (t ) = 0 e portanto λ é constante em [0, T]; por outro lado, Ψ(x(T)) = x(T) e, portanto, λ(T) = 1, donde que λ =1 em [0, T]. Por conseguinte, H = u , o qual é maximizado com u = 1 para todo t em [0, T]. Ou seja, a solução é uma reta de coeficiente angular igual a 1, como já era de se esperar. 79 Exemplo (1.16) Agora, temos um problema mais interessante, cuja solução pode não ser óbvia: trata-se de acelerar um objeto, de modo a maximizar a distância percorrida, menos a energia despendida, dada aproximadamente pela integral do quadrado da aceleração. Seja x(t) a distância percorrida, y(t) a velocidade e u(t) a aceleração. Parte-se do repouso. Então as ⎡ x(t ) ⎤ ⎡ y (t ) ⎤ 1 T equações do problema são: ⎢ , x(0) = y(0) = 0, J = x(T) - ∫ u (t ) 2 dt . =⎢ ⎥ ⎥ 2 0 ⎣ y (t ) ⎦ ⎣ u (t ) ⎦ ⎡ y⎤ 1 1 ∂H Solução: H (λ , x, u ) = [ λ1 λ2 ] ⎢ ⎥ − u 2 = λ1 y + λ2u − u 2 , e portanto, - λ1 (t ) = =0 2 ∂x ⎣u ⎦ 2 com λ1 (T ) = 1 (de acordo com (1.11b)), donde λ1 (t ) = 1 para todo t; - λ2 (t ) = ∂H = λ1 (t ) = 1, com λ2 (T ) = 0; donde λ2 (t ) = T – t , e então ∂y 1 H (λ , x, u ) = y + (T − t )u − u 2 . Temos que maximizar este hamiltoniano com relação a u. 2 Derivando parcialmente com relação a u e igualando a zero, temos u(t) = T – t . Observese que a derivada parcial segunda com relação a u é -1, ou seja, trata-se efetivamente de um ponto de máximo do hamiltoniano. E como se trata de único ponto de máximo do hamiltoniano, conclui-se que u(t) = T – t é o controle ótimo que maximiza o índice de desempenho. Obseração 3: A última afirmação pressupõe que o problema tenha solução, o que é intuitivo neste caso. Mas o problema das condições de existência de solução do controle ótimo não é estudado neste breve curso. Exemplo (1.17) Uma colônia de vespas tem um ciclo de vida anual, ao fim do qual só sobrevivem as “rainhas”, reprodutoras fêmeas, morrendo todas as operárias. Cada rainha que sobrevive inicia uma nova colônia. O objetivo da colônia é produzir o maior número de rainhas. Sejam w(t) e q(t) o número de operários (“workers”) e de rainhas (“queens”), respectivamente, numa colônia. O seguinte modelo matemático expressa a evolução dos respectivos números ao longo do ano: w(t ) = bu (t ) w(t ) − µ w(t ) , (1.18a) q (t ) = c(1 − u (t )) w(t ) , (1.18b) onde b, µ, c > 0, µ < b, 0 ≤ µ ≤ 1. u(t) é o “esforço” da colônia, com 0 ≤ u(t) ≤ 1, uma parte do esforço sendo para aumentar o número de operárias e o complemento para aumentar o número de rainhas. Seja T o período (1 ano). b e c dependem do ambiente em que está a colônia e representam a disponibilidade de recursos, µ é a taxa de mortalidade das operárias. As condições iniciais são w(0) = 1, q(0) = 0, esta última condição refletindo o fato que a primeira rainha é contada como operária, visto que ela trabalha para alimentar a primeira ninhada. Solução: É claro que o índice de desempenho é J = q(T); o hamiltoniano é (1.19) H = λ1 (bu − µ ) w + λ2 c(1 − u ) w . ∂H Donde, −λ1 = (1.20a) = λ1 (bu − µ ) + λ2 c(1 − u ) , ∂w 80 −λ2 = ∂H = 0, ∂q (1.20b) donde λ2 é constante. Mas é claro que Ψ(T) = q(T) , e portanto, λ1 (T) = ∂Ψ = 0, λ2 (T) = ∂w ∂Ψ (1.20c) = 1. Então λ2 = 1 para todo t. ∂q Re-escrevendo o hamiltoniano: H = (λ1b − c) wu − λ1µ w + cw . O hamiltoniano é portanto uma função afim de u e deve ser maximizado com relação a esta variável; como w > 0, temos u = 0 se λ1b − c < 0 e u = 1 se λ1b − c > 0. (1.21) Mas vimos que λ1 (T) = 0 e portanto u(T) = 0 em vista da primeira desigualdade acima. Portanto, desde um tempo t s a ser determinado, até T, o controle ótimo é nulo. Conseqüentemente, de (1.20a) e (1.20c), temos −λ1 (t ) = − µλ1 (t ) + c , t ∈ [ t s , T] . c Integrando esta equação, obtemos λ1 (t ) = (1 − e µ (t −T ) ) , t ∈ [ t s , T]. µ (1.22) (1.23) Para verificar isto, basta diferenciar esta última, obtendo λ1 (t ) = −ce µ (t −T ) . Substituindo esta e (1.23) em (1.22), obtemos efetivamente uma identidade. De (1.23) verifica-se que λ1 (t ) aumenta quando se caminha no sentido inverso do tempo a partir de T. De (1.21) vêse que o controle ótimo é igual a 1 com λ1 (ts ) = c / b. (1.24) Então, de (1.20a), com u = 1, temos −λ1 (t ) = (b − µ )λ1 (t ) , ou λ1 (t ) = ( µ − b)λ1 (t ) , t ∈ [0, t s ] , (1.25) lembrando que µ < b . Ou seja, λ1 (t ) continua crescendo quando se caminha no sentido inverso do tempo a partir do instante de comutação t s , conforme a figura abaixo. Figura 10 81 De (1.23) e (1.24), vem c c µ µ = (1 − eµ (ts −T ) ) ∴ = 1 − eµ (ts −T ) ∴ e µ (ts −T ) = 1 − b µ b b 1 ⎛ µ⎞ ⎛ µ⎞ (1.26) ∴ µ (ts − T ) = ln ⎜1 − ⎟ ∴ ts = T + ln ⎜1 − ⎟ . µ ⎝ b⎠ ⎝ b⎠ Conclusão: u = 1 se 0 ≤ t ≤ t s ; u = 0 se t s ≤ t ≤ T , onde t s é dado por (1.26). 4.2 Problemas com restrições terminais Há muitos problemas em que existem restrições no valor do estado final. Este é o tipo de problema que trataremos nesta seção. Um exemplo simples é o de achar a trajetória mínima entre dois pontos fixos. Veremos outros... A prova rigorosa da forma do teorema de Pontryagin que vamos apresentar é extremamente complexa, foi na realidade um dos grandes feitos matemáticos em meados do século passado. Nosso problema é então: x(t ) = f ( x(t ), u (t )) , 0 ≤ t ≤ T , T dado x(0) =: xo. Os controles permitidos são u(t) ∈ U , onde U é conhecido. T J = Ψ ( x(T )) + ∫ l ( x(t ), u (t ))dt 0 (2.1a) (2.1b) (2.1c) (2.1d) Mas agora temos também restrições no estado final: (2.1e) xi (T ) = xi , i = 1,2,...., r , renumerando as componentes de x, se necessário. Quando existem restrições terminais, é possível que o problema seja degenerado, no sentido de que não tenha solução. Ou pode acontecer também que só exista uma trajetória satisfazendo às restrições terminais, e neste caso não há otimização. Em vista disso, o hamiltoniano é definido de modo ligeiramente diferente neste problema, a saber, H (λ , x, u ) = λ T f ( x, u ) + λ0l ( x, u ) , (2.2) onde λo = 0 se o problema for degenerado e λo = 1, em caso contrário. Outra diferença é que agora a relação (1.11b) entre o vetor adjunto e o estado no instante final T não pode valer para todas as variáveis de estado, tendo efetivamente: ∂Ψ ( x(T )) j , j = r+1, r+2,....,n (2.3) λ j (T ) = ∂x O Teorema para esta classe de problemas é assim enunciado: Teorema de Pontryagin (com restrições finais no estado) (2.4) Seja u(t) o controle ótimo para o sistema definido em (2.1) e seja o Hamiltoniano definido (2.2 bis) em (2.2), a saber, H (λ , x, u ) = λ T f ( x, u ) + λ0l ( x, u ) , com λo ≥ 0, e λ(t) tal que ∂H (λ (t ), x(t ), u (t )) (2.5) −λ (t )T = ∂x 82 com a condição final λ j (T ) = ∂Ψ ( x(T )) j , j = r+1, r+2,...., n. ∂x Se se trata de maximizar o índice de desempenho (2.1d), temos , H (λ (t ), x(t ), v(t )) ≤ H (λ (t ), x(t ), u (t )) ∀v ∈ U , ∀t ∈ [0, T ] ; se se trata de minimizar o índice de desempenho, temos H (λ (t ), x(t ), v(t )) ≥ H (λ (t ), x(t ), u (t )) , ∀v ∈ U , ∀t ∈ [0, T ] . (2.3 bis) (2.6a) (2.6b) Como foi dito acima, caso o problema seja degenerado, tem-se que fazer λo = 0 para as equações ficarem consistentes. Na prática, como freqüentemente não se sabe a priori se o problema é degenerado, faz-se a tentativa com λo = 1. Se o problema for degenerado, haverá inconsistência nas equações. Exemplo (menor distância entre dois pontos) (2.7) Trata-se de um problema cuja solução é óbvia: achar a curva x(t) que tenha o menor comprimento entre os pontos x(0) =0 e x(1) = 1. (Figura 11 abaixo) Solução: Seja u(t) o coeficiente angular da curva, função de t. Então a equação diferencial do sistema é: x(t ) = u (t ) , com as condições inicial e final acima. Seja ds o diferencial do comprimento medido sobre a curva. Então temos: ⎛ dx 2 ⎞ ⎛ ⎞ 2 2 2 2 2 (ds ) = (dx) + (dt ) ∴ ds = (dx) + (dt ) = ⎜ ⎜ ⎟ + 1 ⎟ dt = u 2 + 1 dt . ⎜ ⎝ dt ⎠ ⎟ ⎝ ⎠ ( Então o índice de desempenho é J = ∫( 1 0 ) ) u 2 + 1 dt . Conseqüentemente, ∂H = 0, donde λ é constante. O controle ótimo é ∂x ∂H u = 0 , ou seja, λ + obtido com =0 ∂u u2 +1 u2 λ , ou seja, u é constante no ∴ 2 = λ 2 ∴ u 2 = λ 2u 2 + λ 2 ∴ u 2 (1 − λ 2 ) = λ 2 ∴ u = ± u +1 1− λ2 tempo e seu valor é obtido, integrando-se a equação de estado, ou seja, H = λ u + u 2 + 1 , e portanto, −λ = x(1) - x(0) = 1 = 1 1 0 0 ∫ udt = u ∫ dt = u . Ou seja, a solução é uma reta com coeficiente angular igual a 1, ou seja, fazendo ângulo de 45o com a horizontal, como era de se esperar. Podemos verificar que o ponto é realmente de mínimo do hamiltoniano: − 1 ∂2 H u 2 + 1 − u (1/ 2)(u 2 + 1) 2 2u (u 2 + 1) − u 2 1 > 0, mostrando que se trata, = = = 3 3 2 2 ∂u u +1 2 2 2 2 (u + 1) (u + 1) efetivamente, de mínimo. 83 x t Figura 11 Exemplo (O problema isoperimétrico) (2.8) Trata-se de um problema clássico do cálculo de variações: achar a curva, de comprimento dado L que une dois pontos fixos distantes T = 1 um do outro no eixo horizontal e que circunscreve a maior área possível, sendo 1 < L ≤ Π / 2 (ver figura 12 abaixo). Solução: Seja u(t) o coeficiente angular da curva, como no exemplo anterior. Então o problema é definido matematicamente: 1 x(t ) = u (t ) , x(0) = 0, x(1) = 0, J = ∫ xdt . 0 Por outro lado, como vimos no exemplo anterior, o comprimento da curva é ∫( 1 0 ) u 2 + 1 dt = L . Para resolver este problema, introduzimos uma nova variável, y(t), satisfazendo a ⎡ x⎤ ⎡ u ⎤ y = u 2 + 1 , com y(0) = 0, y(1) = L . Então, temos o estado do sistema: ⎢ ⎥ = ⎢ 2 ⎥ ⎣ y ⎦ ⎣⎢ u + 1 ⎥⎦ ⎡ x(1) ⎤ ⎡ 0 ⎤ em que a restrição sobre o estado final é ⎢ ⎥ = ⎢ ⎥ . O hamiltoniano é: ⎣ y (1) ⎦ ⎣ L ⎦ ∂H ∂H = 1, −λ2 = = 0 e portanto λ2 é H = λ1u + λ2 u 2 + 1 + x . Conseqüentemente, −λ1 = ∂y ∂x u ∂H λ2u λ = 0, donde constante. Para obtermos o controle ótimo: = λ1 + =− 1 ; 2 2 λ2 ∂u u +1 u +1 mas como λ1 é linearmente proporcional a t enquanto que λ2 é constante, podemos 84 escrever u u2 +1 = A + Bt, com A e B constantes. Donde, ∴ u 2 (1 − ( A + Bt ) 2 ) = ( A + Bt ) 2 ∴ u = x = ± A + Bt 1 − ( A + Bt ) 2 u2 = ( A + Bt ) 2 2 u +1 . (2.9) x T t Figura 12 Vamos agora provar que esta equação diferencial tem por solução um arco de círculo. Seja, um círculo com centro em ( t1 , x1 ) e raio r ; sua equção é: ( x − x1 ) 2 + (t − t1 ) 2 = r 2 , (2.9a) 2 x1 ± 4 x12 − 4 x12 − 4(t − t1 ) 2 + 4r 2 = 2 t1 − t 2( t − t ) 1 r , (2.10) x1 ± r 2 − (t − t1 ) 2 ∴ x = ∓ =± 2 2 2 2 r − (t − t1 ) ⎛ t1 − t ⎞ 1− ⎜ ⎟ ⎝ r ⎠ que é uma expressão da forma (2.9). Reportemo-nos à figura 13 abaixo. É dado do enunciado do problema que x(0) = 0, donde (2.10a) substituindo em (2.9a), temos x12 + t12 = r 2 ; ou seja, x 2 − 2 x1 x + x12 + (t − t1 ) 2 − r 2 = 0 ∴ x = e também do enunciado, x(1) = 0, donde x12 + (1 − t1 )2 = r 2 ∴ x12 + 1 − 2t1 + t12 = r 2 ; subtraindo esta da anterior, obtemos t1 = ½, o que já seria de se esperar, por simetria. (2.11) Observe-se que de (2.10) há duas soluções, correspondendo ao centro do círculo acima ou abaixo (como na figura 13) do eixo dos t . 85 De (2.10a) e de (2.11), x1 = ± r 2 − 1/ 4 , L . L = 2rθ, donde r = 2θ 1/ 2 . E temos também senθ = r 1 2θ θ De (2.13) e (2.14) vem senθ = ∴ =L 2 L senθ (2.12) (2.13) (2.14) (2.15) L2 1 1 (2.16) L2 − θ 2 − ∴ x1 = ± 2 4θ 4 2θ O problema é resolvido com (2.15), (2.13) e (2.16), observando que (2.15) é uma equação transcendental, podenso ser resovida facilmente via Matlab, etc. De (2.12) e (2.13), vem x1 = ± Nota: foi suposto que L ≤ Π / 2 . Com L = Π / 2 temos o semi-círculo com centro no eixo horizontal. Figura 13 4.3 Problemas com tempo final livre 86 Nesta seção consideraremos problemas em que o tempo final não é prefixado, mantendo a possibilidade de restrições no estado final. Repetindo as equações: x(t ) = f ( x(t ), u (t )) , 0 ≤ t ≤ T . x(0) =: xo. Os controles permitidos, são u(t) ∈ U , onde U é conhecido. T J = Ψ ( x(T )) + ∫ l ( x(t ), u (t ))dt 0 (3.1a) (3.1b) (3.1c) (3.1d) (3.1e) xi (T ) = xi , i = 1,2,...., r . Trata-se agora de achar T > 0 e u(t), t ∈ [0, T] de modo que (2.1d) seja maximizado / minimizado. O índice de desempenho modificado é, como vimos, T J = Ψ ( x(T )) + ∫ {H (λ (t ), x(t ), u (t )) − λ (t )T x(t )}dt . 0 (1.4bis) Perturbando o controle, isto é, u(t) → v(t), sendo u(t) o controle ótimo, passamos da trajetória ótima x(t) para a trajetória x(t) + δ x(t) e passamos do tempo final ótimo T para T + δT. O estado final passa a ser x(T) + dx(T ), onde, fazendo aproximação de 1ª. (3.3) ordem, temos dx(T ) = δx(T) + x(T )dT = δx(T) + f ( x(T ), u (T ))dT . Como conseqüência, temos, analogamente como na primeira seção (ver (1.10): T ⎛ ∂H (λ , x, u ) ∂Ψ ( x(T )) ⎞ + λ T ⎟δ xdt + dx(T ) − λ (T )T δ x(T ) + l ( x(T ), u (T ))dT + ∫ ⎜ dJ = 0 x ∂ ∂x ⎝ ⎠ ∫ T 0 {H (λ , x, v) − H (λ , x, u )}dt . (3.4) Tal como na 1ª. Seção, escolhemos λ de modo a satisfazer à equação adjunta, anulando a primeira integral. Em seguida, substituímos o valor de δx(T) de (3.3) em (3.4), obtendo ⎛ ∂Ψ ( x(T )) ⎞ − λ (T )T ⎟ dx(T ) + [λ (T )T f ( x(T ), u (T )) + l ( x(T ), u (T ))]dT + dJ = ⎜ ∂x ⎝ ⎠ ∫ T 0 {H (λ , x, v) − H (λ , x, u )}dt . (3.5) Agora, tal como na seção anterior (ver (2.3)), temos as condições terminais ∂Ψ ( x(T )) j , j = r + 1, r + 2,......, n , anulando a primeria parcela de (3.5). Quanto à λ j (T ) = ∂x integral de (3.5) ela deve ser, tal como nas seções anteriores, H (λ (t ), x(t ), v(t )) ≤ H (λ (t ), x(t ), u (t )) no caso de maximização e invertendo-se a desigualdade no caso de minimização. Considere-se a parcela [λ (T )T f ( x(T ), u (T )) + l ( x(T ), u (T ))]dT de (3.5) acima. O que está entre [ ] é o hamiltoniano no instante T. Ele tem que ser nulo: com efeito, seja o problema de maximizar o índice de desempenho e suponha que o hamiltoniano no instante final seja diferente de zero, para concretizar, menor que zero; então para todo dT menor que zero, haveria um acréscimo no valor do índice desempenho, ou seja, u(t) não estaria maximizando o índice de desempenho. Então, acabamos de demonstrar o: 87 (3.6) Teorema de Pontryagin (com restrições finais no estado e tempo final livre) Seja u(t) o controle ótimo para o sistema definido em (3.1) e seja o Hamiltoniano definido (3.7) em (3.2), a saber, H (λ , x, u ) = λ T f ( x, u ) + λ0l ( x, u ) . Então ∃ λo constante e λ(t) , com λo ≥ 0, e λ(t) tal que ∂H (λ (t ), x(t ), u (t )) −λ (t )T = (3.8) ∂x ∂Ψ ( x(T )) j , j = r+1, r+2,....,n. (3.9) com a condição final λ j (T ) = ∂x Alem disso, se se tratar de maximizar o índice de desempenho (3.1d), temos , H (λ (t ), x(t ), v(t )) ≤ H (λ (t ), x(t ), u (t )) ∀v ∈ U , ∀t ∈ [0, T ] ; (3.10) se se trata de minimizar o índice de desempenho, temos H (λ (t ), x(t ), v(t )) ≥ H (λ (t ), x(t ), u (t )) , ∀v ∈ U , ∀t ∈ [0, T ] . (3.11) Mais ainda, temos H (λ (T ), x(T ), u (T )) = 0 (3.12) Portanto, temos as mesmas condições do teorema anterior, com a condição adicional (3.12). Exemplo (Problema de Zermelo) (3.13) Suponha que eu queira atravessar um rio com um bote em tempo mínimo, chegando a um ponto especificado na outra margem. (Ver a figura 14 abaixo). A velocidade do barco é uma constante V . A velocidade do rio é u(y), função da distância à margem. Calcular o ângulo θ que a direção do barco faz com a correnteza. Solução: Sejam x(t ) e y (t ) , as coordenadas da posição do barco, as variáveis de estado e θ a variável de controle. Então as equações de estado são: (3.14) x = V cos θ + u ( y ) , y = Vsenθ De acordo com os dados do problema, x(T) e y(T) são especificados e então no índice de desempenho (3.2) temos Ψ ( x(T )) = 0. Além disso, como se trata de minimizar o tempo, temos no índice de desempenho l ( x(t ), u (t )) = 1. O hamiltoniano é portanto H = λ1V cos θ + λ1u ( y ) + λ2Vsenθ + 1 . du . Conseqüentemente, −λ1 = 0 ∴ λ1 é constante, −λ2 = λ1 dy ∂H Para minimizar, = −λ1Vsenθ + λ2V cos θ = 0, ∂θ e portanto, tgθ (t ) = λ2 (t ) . λ1 (3.15) (3.16) (3.17) (3.18) O passo a seguir não está no “script”: diferenciemos H em relação a t. De (3.15) e (3.16), temos dH du ( y ) y (t ) + λ2Vsenθ (t ) + λ2V cos θ (t )θ (t ) = −λ1Vsenθ (t )θ (t ) + λ1 dt dy 88 Figura 14 = (−λ1Vsenθ (t ) + λ2V cos θ (t ))θ (t )) + λ1 du ( y ) y (t ) + λ2Vsenθ (t ) . Mas em vista de (3.17), dy du ( y ) dH y + λ2Vsenθ ; substituindo de (3.14) e (3.16), temos = λ1 dy dt du ( y ) du ( y ) dH = λ1 Vsenθ - λ1 Vsenθ = 0; portanto H é constante e em vista de (3.12), dy dy dt temos que H = 0 para todo t. (3.19) senθ Substituindo (3.18) em (3.15), temos H = λ1V cos θ + λ1u ( y ) + λ1 Vsenθ + 1 = cos θ λ1V cos 2 θ + λ1u ( y ) cos θ + λ1Vsen 2θ λ (V + u ( y ) cos θ ) +1= 1 + 1 . E em vista de (3.19), cos θ cos θ −λ1V V V + u ( y ) cos θ 1 , (3.20) temos = − ∴ cos θ = = 1 + λ1u ( y ) − 1 − u ( y ) λ1 cos θ ficamos com λ1 λ1 sendo determinável pelas condições inicial e final de x e y, integrando (3.14). Suponhamos, para simplificar, que a velocidade do rio seja constante, isto é, u(y) = constante = u. Mais ainda, suporemos x(0) = x(T) = 0. Definamos, para simplificar 1 notacionalmente, A = − . (3.21) λ1 Então, de (3.20), cos θ = V , A−u V2 . Com x(0) = 0, temos x(T) = A−u ⎛ ⎛ V2 ⎞ V2 ⎞ u2 −V 2 ⎜u + ⎟ T . Mas com x(T) = 0, então ⎜ u + ⎟ T , = 0 , e portanto, A = u A−u ⎠ A−u ⎠ ⎝ ⎝ (3.21a) um valor constante. Desta e de (3.14), x = u + = 89 u- V2 . u (3.22) V = - u / V . Este resultado corresponde à V2 u− −u u nossa intuição: o ângulo tem que ser maior que π / 2 para chegarmos à margem oposta bem em frente; e por outro lado, V tem que ser maior que u. Para calcular o tempo mínimo, é só integrar a 2ª. equação (3.14). Calculemo-lo: Desta e de (3.21a), cos θ = senθ = 1 − cos 2 θ = 1 − V = A−u u2 V 2 − u2 = V2 V T T 0 0 ∴ y (T ) − y (0) = ∫ Vsenθ dt = ∫ V 2 − u 2 dt = V 2 − u 2 T ∴T = y (T ) V 2 − u2 , sendo y (T ) a largura do rio. Exemplo (Problema do “bang-bang”) Seja o problema x1 = x2 , x2 = u , -1≤ u ≤ 1 , x1 (0) e x2 (0) dados (arbitrários), (3.23) (3.24) x1 (T ) = x2 (T ) = 0, T J = ∫ dt . 0 A interpretação mecânica deste problema é óbvia: x1 é espaço, x2 é velocidade, u é aceleração: trata-se de levar um objeto de um ponto qualquer com velocidade inicial arbitrária a um ponto determinado, a origem no espaço de estado, chegando com velocidade nula, em tempo mínimo. A aceleração e desacelaração máximas são limitadas. Exemplo: um ônibus urbano que vai de um ponto a outro (no caso, x2 (0) = 0). Quais devem ser a aceleração e desaceleração de modo que ele faça o trajeto em tempo mínimo? Solução: l = 1, Ψ = 0. Então o hamiltoniano é: (3.25) H = λ1 x2 + λ2u + 1 , ∂H donde −λ1 = = 0 , ou seja, λ1 é constante, ∂x1 ∂H −λ2 = = λ1 donde λ2 = −λ1t + c0 , onde c0 é uma constante. ∂x2 Mas de (3.25) é claro que o hamiltoniano é minimizado com relação a u se só se u (t ) = − sign[λ2 (t )] = − sign[−λ1 (t ) + c0 ] . Ou seja, se λ2 for positivo, então u será igual a -1, e se for negativo, u será igual a 1. Mas sendo λ2 afim em t, é claro que se anula (no máximo) uma vez no intervalo [0, T], e portanto u só comuta (no máximo) uma vez de -1 para 1, ou vice-versa. Daí entendemos o 90 nome de controle “bang-bang”. Seja primeiramente u(t) = 1.Da segunda equação de (3.24), vem x2 = t + c1 , para alguma constante c1 . E da primeira equação de (3.24). temos x1 = (3.26) 2 t + c1t + c2 , para 2 alguma constante c2 . Substituindo t de (3.26), vem: x2 c2 ( x2 − c1 ) 2 + c1 ( x2 − c1 ) + c2 , ou, x1 = 2 + c , onde c = c2 − 1 . (3.27) 2 2 2 Claro que esta é a equação de uma família de parábolas, simétricas com relação ao eixo x1 , cada parábola sendo definida pelo valor de c . Este conjunto de parábolas está na figura 15a abaixo. As setas indicam o valor crescente do tempo, como fica claro de (3.26) e a orientação das parábolas se deve ao fato que, de acordo com (3.27), x2 → +∞ quando t → ∞ . Observe-se, a propósito, que as parábolas não se prolongam indefinidamente para baixo, pois c é limitado. Se c > 0, as parábolas ficarão no 4º. e no 1º. quadrantes em vista de (3.27). Seja agora u(t) = -1. Então teremos da segunda equação de estado (3.24) (3.27a) x2 = −t + d1 , x1 = d1 uma constante, e da primeira, x1 = − (d − x ) 2 t2 + d1t + d 2 = − 1 2 + d1 (d1 − x2 ) + d 2 , ou , 2 2 x22 d2 + d , onde d = 1 + d 2 . (3.28) 2 2 O conjunto de parábolas correspondentes a esta equação está na figura 15b abaixo, com as setas indicando o valor crescente do tempo, conforme (3.27a). Se c < 0, as parábolas ficarão no 2º. e 3º. quadrantes, em vista de (3.28) abaixo. Ora, é claro que em cada conjunto de parábolas só há uma que chega a (0,0), que é o estado final, de acordo com o enunciado do problema. Na figura 15c abaixo, são representadas as duas semi - parábolas que chegam a (0,0); elas constituem uma curva contínua que é chamada de curva de comutação. Na mesma figura estão representados dois estados iniciais x(0) = [ x1 (0), x2 (0)]T , um no primeiro e o outro no segundo quadrante. O estado do primeiro quadrante não pode ir direto para [0,0]T, pois a parábola com controle u = 1 o afastaria do ponto, então a única maneira de chegar lá é aplicar o controle u = -1 até a curva de comutação e, lá chegado, aplicar o controle u = 1. Raciocínio análogo para o estado inicial x(0) no segundo quadrante. Temos então sempre o seguinte: se o estado inicial estiver abaixo da curva de comutação, temos que aplicar o controle u = 1 até o estado atingir a curva de comutação e a partir daí o controle u = -1. Se o estado inicial estiver acima da curva de comutação, apica-se primeiramente o controle u = -1 até atingir a curva de comutação e então aplica-se o controle u = 1. x1 = − 91 Figura 15a 92 Figura 15b 93 Figura 15c Exemplo (Problema mal-condicionado) Seja o sistema x(t ) = u 2 (t ) ; x(0) = 0; x(1) = 0; (3.29) 1 Achar o mínimo do índice de desempenho J = ∫ u (t )dt . 0 Solução: H = λ u 2 + u , −λ = ∂H = 0 , donde λ é constante. Para achar o mínimo: ∂x ∂H = 0 , donde 2λu + 1 = 0, donde u = -1 / 2λ, ∂u (3.30) 1 portanto u é constante. Mas da equação de estado, x(1) – x(0) = u 2 ∫ dt = u2; mas dos 0 dados do problema, concluímos u = 0; mas isto está em contradição com (3.30). Que está acontecendo? O problema é mal condicionado. Na realidade, como o estado terminal está submetido a restrição, o hamiltoniano é λ ∂H = 2λu + λo = 0 ∴ u = − 0 , e isto implica λo = 0, H = λu 2 + λ0u , e portanto, 2λ ∂u eliminando a contradição. 94 4.4 Sistemas lineares com índice de desempenho quadrático Estudaremos nesta seção uma classe de sistemas muito pesquisada e desenvolvida na literatura especializada e que tem muitas aplicações. Trata-se de sistemas lineares variantes no tempo em que o controle não está submetido a restrições e em que o índice de desempenho é quadrático: (4.1a) x(t ) = A(t ) x(t ) + B(t )u (t ) , x(0) = xo 1 1 T (4.1b) J = x(T )T Fx(T ) + ∫ [ x(t )T Q(t ) x (t ) + u (t )T R (t )u (t )]dt , 2 2 0 onde as matrizes F, Q e R são simétricas, F e Q são positivas semi-definidas e R é positiva definida. x(t) e u(t) têm as dimensões usuais, F, Q e R têm dimensões apropriadas. Como não há restrições finais no estado, caímos no primeiro teorema de Pontryagin (1.14 ) O hamiltoniano é: 1 (4.2) H = λ (t )T A(t ) x(t ) + λ (t )T B(t )u (t ) + [ x(t )T Q(t ) x(t ) + u (t )T R(t )u (t )] 2 e portanto, ∂H −λ (t )T = = λ (t )T A(t ) + x(t )T Q(t ) (4.3) ∂x Por outro lado, não havendo retrição no controle, o controle ótimo deve satisfazer a ∂H (4.3a) = 0 ∴ λ (t )T B(t ) + u (t )T R(t ) = 0 , e portanto, ∂u u (t ) = − R(t ) −1 B (t )T λ (t ) , (4.4) o fato de R(t) ser positiva definida garantindo a sua invertibilidade. Donde, substituindo esta em (4.1), x(t ) = A(t ) x(t ) − B (t ) R (t ) −1 B(t )T λ (t ) , (4.5) enquanto que transpondo (4.3), vem (4.6) −λ (t ) = Q(t ) x(t ) + A(t )T λ (t ) Quanto ao estado x(t), temos a condição inicial dada em (4.1a) e por outro lado, de (1.11b), ⎛1 ⎞ ∂ ⎜ x(T ) Fx(T ) ⎟ 2 ⎠ = x(T )T F ∴ λ (T ) = Fx(T ) . (4.7) temos: λ (T )T = ⎝ ∂x Mas sendo o sistema linear (isto é, as equações (4.1a) e (4.3)), é claro que tanto x(t) como λ(t) dependem linearmente de xo e portanto λ(t) depende linearmente de x(t). Então façamos λ (t ) = P(t ) x(t ) , (4.8) onde P(t) ainda será determinado. Substituindo esta em (4.5), vem (4.9) x(t ) = [ A(t ) − B(t ) R(t ) −1 B (t )T P(t )]x(t ) Diferenciando (4.8), temos λ (t ) = P (t ) x(t ) + P(t ) x(t ) ; disto e de (4.6) com(4.8),vem: − P (t ) x(t ) − P (t ) x(t ) = [Q(t ) + A(t )T P(t )]x(t ) ; somando esta com (4.9) pré-multiplicada por P(t), temos 95 − P (t ) x(t ) = [ P(t ) A(t ) + A(t )T P(t ) − P(t ) B(t ) R(t ) −1 B(t )T P(t ) + Q(t )]x(t ) . Mas esta equação é verdadeira para todo x(t), donde temos a equação − P (t ) = P(t ) A(t ) + A(t )T P(t ) − P (t ) B (t ) R(t ) −1 B (t )T P(t ) + Q(t ) , (4.10) onde a condição final vem de (4.7) e (4.8), a saber, (4.11) P(T ) = F Esta equação é chamada equação diferencial de Riccati, que tem larga aplicação nos ramos mais disparatados (ao menos aparentemente) da ciência e da tecnologia. Agora observe-se que transpondo (4.10), − PT (t ) = PT (t ) A(t ) + AT (t ) PT (t ) − PT (t ) B(t ) R(t ) −1 BT (t ) PT (t ) + Q(t ) . Ora, substituindo-se nesta equação PT (t ) por P(t ) , obtemos a equação (4.10). Ou seja, P(t ) e PT (t ) são soluções da mesma equação diferencial e, portanto, podemos igualá-los sem perda de generealidade. Recapitulando, de (4.4) e (4.8), temos u (t ) = − R (t ) −1 B(t )T P (t ) x(t ) = K(t) x(t) , (4.12) −1 T com K(t) = − R(t ) B(t ) P(t ) , (4.13) onde P(t), uma matriz simétrica, satisfaz a (4.10) com (4.11). As duas últimas expressões mostram que a solução ótima é em feedback do estado, ou seja, o controle ótimo é dado online pré-multiplicando o estado por K(t). Mas note-se que P(t) tem que ser calculado offline de (4.10) e (4.11). A razão de o cálculo ter que ser offline é o fato de se conhecer o valor final P(T) e não o valor inicial de P(t). Finalmente, faltou confirmar que calculamos efetivamente um ponto de mínimo e não de máximo. É claro que basta raciocinar intuitivamente para responder a esta dúvida, pois o máximo do índice de desempenho dado em (4.1b) é infinito. Mas para confirmar, ∂2H = R , uma matriz calculemos a derivada segunda do hamiltoniano: de (4.3a), temos ∂u 2 positiva definida, comprovando que se trata de ponto de mínimo. Sistemas invariantes no tempo: Uma classe muito importante de sistemas tratados nesta seção é a dos sistemas invariantes no tempo. Eles são bem mais comuns, para todos os efeitos práticos, do que os sistemas variantes no tempo. Suporemos também que T tende a infinito: esta hipótese é também muito comum, na realidade isto signifca, para todos os efeitos práticos, que T é “muito grande”. Diante disto, podemos supor que x(t ) → 0 quando t → ∞ ; se assim não fosse, o índice de desempenho divergiria, isto é, seria ilimitado. Como conseqüência, podemos supor F = 0 no índice de desempenho. Ora, a equação de Ricatti é integrada de trás para frente no tempo, e então podemos supor também que P (t ) → 0 quando t → ∞. Quando consideramos a equação de Riccati integrada de trás para frente, ela se transforma na equação algébrica PA + AT P − PBR −1 BT P + Q = 0 . (4.14) Esta é a equação algébrica de Riccati. Portanto, no caso de sistemas invariantes no tempo com t → ∞ , temos de (4.12) e (4.13), u (t ) = − R −1 BT Px(t ) = Kx(t), (4.15) 96 (4.16) com K = − R −1 BT P , P satisfazendo à equação (4.14). Vale notar que de (4.1a) temos então x(t ) = ( A + BK ) x(t ) (4.17) Observe-se que como x(t ) → 0 quando t → ∞ , então desta última equação temos que os auto-valores de A + BK têm que estar no semi-plano aberto da esquerda. Exemplo Considere o sistema x(t ) = x(t ) + u (t ) , escalar, com x(0) = xo, dado; J = (4.18) ∫ ∞ 0 ( x 2 + u 2 )dt . Achar o controle que minimize este índice de desempenho. 1 ∞ Solução: J = ∫ (2 x 2 + 2u 2 )dt ; então temos A = B = 1, Q = R = 2. De (4.14), temos 2 0 1 4 ± 16 + 16 = 2 ± 2 2 ; e portanto, de (4.15), P + P − P P + 2 = 0 ∴ P2 − 4P − 4 = 0∴ P = 2 2 1 vem u = − (2 ± 2 2) x = (−1 ∓ 2)x ; substituindo esta na equação de estado, temos 2 x(t ) = ∓ 2 x . É claro que o mínimo corresponde ao sinal negativo da raiz, ou seja, o controle ótimo é u (t ) = (−1 − 2) x(t ) . 4.5 Sistemas de tempo discreto Nas seções anteriores tratamos de sistemas de tempo contínuo, que têm mais apelo do ponto de vista físico. A objeção segundo a qual usamos computadores e portanto os sistemas de tempo discreto são mais importantes, torna-se cada vez mais fraca na medida em que os computadores estão cada vez mais velozes: para todos os efeitos práticos, os próprios computadores, que são os controladores na maioria dos processos, podem ser tratados como sistemas de tempo contínuo. Nossa base de tempo será a usual: k = 0,1,2,......, N-1 . Nossos sistemas são definidos na forma bastante geral, não linear: x(k + 1) = f ( x(k ), u (k )) , x(0) = xo O índice de desempenho é: (5.1) N −1 J = Ψ ( x( N )) + ∑ l ( x(k ), u (k )) , (5.2) k =0 observando-se que não há restrições no controle no problema aqui tratado. Este problema não foi tratado por Pontryagin e/ ou seus colaboradores, mas o método aqui apresentado para sua solução segue o mesmo espírito da solução dada nas seções anteriores. Definimos o hamiltoniano (5.3) H (λ (k + 1), x(k ), u (k )) = λ (k + 1)T f ( x(k ), u (k )) + l ( x(k ), u (k )) , ressaltando-se que nesta definição λ está adiantado no tempo com relação a x e u. Tal como no tempo contínuo definimos 97 N −1 J = J − ∑ [λ (k + 1)T x(k + 1) − λ (k + 1)T f ( x(k ), u (k ))] , (5.4) k =0 sendo que J = J , porque o somatório acima é nulo em vista de (5.1). Em vista de (5.2), N −1 N −1 k =0 k =0 J = Ψ ( x( N )) + ∑ l ( x(k ), u (k )) − ∑ [λ (k + 1)T x(k + 1) − λ (k + 1)T f ( x(k ), u (k ))] , o que nos dá, reagrupando os termos, N −1 N −1 k =0 k =0 J = Ψ ( x( N )) + ∑ [l ( x(k ), u (k )) + λ (k + 1)T f ( x(k ), u (k ))] − ∑ λ (k + 1)T x(k + 1) , ou ainda, reconhecendo nos somandos do primeiro somatório o hamiltoniano em (5.3), vem N −1 N −1 k =0 k =0 J = Ψ ( x( N )) + ∑ H (λ (k + 1), x(k ), u (k )) − ∑ λ (k + 1)T x(k + 1) . (5.5) Mas a última parcela de (5.5) é N −1 ∑ λ (k + 1) T x(k + 1) = k =0 N −1 ∑ λ (k ) T x(k ) −λ (0)T x(0) + λ ( N )T x( N ) . k =0 Em vista disso, temos de (5.5) N −1 J = Ψ ( x( N )) + ∑ [H (λ (k + 1), x(k ), u (k )) − λ (k )T x(k )] − λ ( N )T x( N ) + λ (0)T x(0) . (5.6) k =0 Então, podemos enunciar o seguinte teorema, cuja demonstração segue os passos, com as devidas modificações, das demonstrações no caso de sistemas de tempo contínuo. Teorema- Controle ótimo em sistemas de tempo discreto Seja o sistema com equações de estado e índice de desempenho definidos em (5.1) e (5.2). Então existe λ(k) tal que o controle ótimo u(k) e a trajetória ótima x(k) satisfazem às seguintes condições: ∂ ( H (λ (k + 1), x(k ), u (k )) , (5.7) λ (k )T = ∂ ( x(k )) ∂ (Ψ ( x( N ))) λ ( N )T = , (5.8) ∂ ( x( N )) ∂ ( H (λ (k + 1), x(k ), u (k ))) =0 . (5.9) ∂ (u (k )) Observe-se que, diferentemente do caso do tempo contínuo, não há sinal negativo na equação adjunta (5.7). Afora esta diferença e o fato de λ estar adiantado no tempo com relação a x e u, as equações acima são esperadas: compare-se com o teorema (1.14), onde as condições (1.13) têm o caso particular análogo a (5.9), como vimos, caso não haja restrição no controle. Observe-se ainda que a última parcela de (5.6) é fixa: x(0) é dado, enquanto que λ (0) é calculado a partir de (5.7) e (5.8). Os teoremas das 2ª. e 3ª. seções têm também aqui sua contra-partida. Assim, por exemplo, se houver restrições no estado final, pode acontecer que o problema seja mal condicionado e neste caso teremos que usar λo multiplicando l ( x(k ), u (k )) . 98 Exemplo Considere o problema escalar x(k + 1) = x(k ) − u (k ) , com x(0) = A , x( N ) = 0 , (5.10) N −1 Maximizar J = ∑ u (k )1/ 2 k =0 Este problema pode representar o da alocação ótima de recursos, por exemplo, dinheiro: com efeito a equação de estado indica que a cada passo os recursos são diminuídos; partindo-se de um total A de recursos, depois de N passos, os recursos chegam a zero. Investe-se u ( k ) a cada passo, obtendo-se um retorno de u (k )1/ 2 . Pergunta-se qual a política ótima de investimento, ou dentro de nossa terminologia, qual o controle ótimo ? Solução: O hamiltoniano é: H = λ (k + 1) x(k ) − λ (k + 1)u (k ) + u (k )1/ 2 . A equação adjunta é ∂ ( H (λ (k + 1), x(k ), u (k )) λ (k ) = = λ (k + 1) , ∂ ( x(k )) ou seja, λ(k) é constante. Diferenciando o hamiltoniano em relação a u e igualando a zero, temos ∂H 1 = −λ (k + 1) + u (k )−1/ 2 = 0 , 2 ∂u donde concluímos que u (k ) é constante. Conseqüentemente, o controle ótimo é A . u (k ) = N Problemas dados em provas dos anos anteriores 1. Considere o seguinte sistema que corresponde a um carro empurrado com atrito: d x(t) = y(t), dt d y(t) = u(t) - k y(t), onde k é uma constante. dt T O índice de desempenho, que deve ser maximizado, é J = x(T) - ½ ∫ u (t ) 2 dt . 0 Achar u(t) ótimo em função de k e de T. 2. O seguinte sistema representa a caça (ou pesca) dentro de um espaço limitado, onde x(t) representa o número de animais (peixes) e u(t) denota a intensidade da atividade (caça / pesca): d(x(t)) = x(t) - (x(t) u(t))1/2 . O objetivo é maximizar o lucro dentro de um período típico de 1 ano: dt T J = ∫[ x(t )u (t ) − u (t )]dt . Utilizando o Princípio de Pontryagin, demonstrar que o 0 controle ótimo, u(t), é linearmente proporcional ao estado x(t). (Dica: é preciso demonstrar também que a variável adjunta λ(t) independe explicitamente de u(t) e x(t)). 99 3.Deseja-se que uma bola vá de um ponto para outro, de alturas diferentes, pela ação da gravidade, em tempo mínimo. Sejam x1 (t ) e x2 (t ) as coordenadas da bola. As equações de estado são dx1 (t ) dx (t ) = x2 (t ) cos θ (t ) , 2 = x2 (t ) senθ (t ) , onde θ (t ) é o ângulo que a tangente dt dt geométrica à curva faz com a horizontal (eixo x1 ). O índice de desempenho é J = ∫ T 0 dt . dθ (t ) é constante ao longo da curva (4 dt pontos). Calcular então a equação paramétrica da curva, isto é, x1 (t ) e x2 (t ) em função de θ (t ) dθ (t ) e de := K (constante). dt Utilizando o Princípio de Pontryagin, demonstrar que 4. x(t ) = f ( x(t ), u (t )) , J = ∫ T 0 l ( x(t ), u (t ))dt . Queremos maximizar / minimizar o índice de desempenho J. f ( x(t ), u (t )) e l ( x(t ), u (t )) não dependem explicitamente do tempo e não há restrições no controle u(t). Utilizando o Teorema de Pontryagin, demonstrar que o hamiltoniano é constante para todo t, 0 ≤ t ≤ T . Sugestão: calcule a derivada do hamiltoniano com relação a t. 5. Sistema “bang-bang”: dx(t) = y(t), dt d y(t) = u(t), t ∈ [0,1] , -1 ≤ u(t) ≤ 1, x(0) = −1 , y (0) = x(1) = y (1) = 0 . dt 1 O índice de desempenho, que deve ser minimizado, é J = ∫ dt 0 . Achar o controle ótimo e a trajetória ótima no espaço de estado, bem como, se for o caso, o instante de comutação, tc . 6. Considere o problema escalar x(k + 1) = x(k ) − u (k ) , com x(0) = A , x( N ) = 0 . Achar o controle ótimo que maximize J = N −1 ∑u k =0 2 (k ) Capítulo 5: Controle Ótimo - método da Programação Dinâmica 5.1 Introdução Este capítulo será breve, pois não trataremos o problema em toda sua amplitude. O conceito básico tem uma longa história, mas a assim chamada programação dinâmica foi desenvolvida pelo matemático americano Richard Bellman durante a guerra da Coréia, para resolver problema logístico do exército americano. Foi também o próprio Bellman quem cunhou a expressão “programação dinâmica”. (Bellman foi um dos mais produtivos matemáticos de todos os tempos, tendo escrito mais de 500 artigos científicos, numa vida 100 ceifada pelo câncer quando ele ainda era plenamente criativo. Doutorou-se em tempo record, apenas 3 meses, em Princeton). A programação dinâmica se baseia num princípio muito simples e intuitivo, que pode ser assim enunciado: Princípio de otimalidade : A partir de qualquer ponto x(t) de uma trajetória ótima do estado de um sistema, a trajetória restante também é ótima quando considerada como tendo x(t) como seu ponto de partida. x(t) x(T) t T Figura 16 Suponha que a trajetória ótima do estado para ir de zero a x(T) seja a indicada na figura acima, passando por x(t). Então o Princípio de Otimalidade afirma que a trajetória ótima do estado para ir de x(t) a x(T) é a mesma sub-trajetória indicada acima. Ou seja: se a trajetória ótima para ir de zero a x(T) passar por x(t), então a trajetória ótima para ir de x(t) a x(T) é a sub-trajetória da trajetória global. O Princípio de Otimalidade é portanto bastante intuitivo e é claro que é bem conhecido há muito tempo. Mérito de Bellman foi o saber explorá-lo na solução de vários problemas de otimização. O Princípio de Otimalidade também pode ser enunciado na forma: “Toda trajetória ótima do estado de um sistema é constituída de sub-trajetórias ótimas”. 101 5.2 Sistemas de tempo discreto Começaremos com sistemas de tempo discreto que são bem mais simples para se aplicar o princípio de otimalidade. Seja então o sistema, onde estado e controle têm as dimensões usuais. x(k + 1) = f ( x(k ), u (k )) , x(0) = xo , (2.1) tal como a equação (5.1) do capítulo anterior. Permitiremos que o controle seja submetido a restrições (o que não acontecia na última (2.2) seção do capítulo anterior), a saber, u(t) ∈ U . O índice de desempenho é: N −1 J = Ψ ( x( N )) + ∑ l ( x(k ), u (k )) , (2.3) k =0 onde N é dado, tal como na equação (5.2) do capítulo anterior. Definamos como V ( x( k ), k ) o valor ótimo do índice de desempenho para ir do estado x(k) no instante k até o estado final. Usaremos com freqüência a notação abreviada V ( x, k ) para definir este valor ótimo. Se o estado já é o final, é claro que V ( x, N ) = Ψ ( x( N )) . (2.4) Em vista da definição acima, o índice de desempenho ótimo no instante k + 1 será V ( x, k + 1) . Voltando um instante atrás, é claro que J = l ( x, u ) + V ( x(k + 1), k + 1)) = l ( x, u ) + V ( f ( x, u ), k + 1) . E portanto o valor ótimo de J no instante k é (2.5) V ( x, k ) = Opt[l ( x, u ) + V ( f ( x, u ), k + 1)] u∈U Nesta expressão “opt” significará “max” ou “min”, conforme o caso. A expressão (2.5) com a condição final (2.4) constituem a solução do problema do controle ótimo para sistemas de tempo discreto. Vejamos um exemplo, que é o da última seção do capítulo anterior. Veremos que sua solução é bem mais difícil, para quem não tem prática, do que a encontrada aplicando o princípio de Pontryagin. Repetimos o enunciado: Exemplo Considere o problema escalar x(k + 1) = x(k ) − u (k ) , com x(0) = A , x( N ) = 0 . (2.6) (2.6a) N −1 Maximizar J = ∑ u (k ) (2.6b) k =0 Solução: É claro que V ( x, N ) = 0, pois ao final do processo teremos gasto todos os recursos disponíveis. Ora, se x( N ) = 0 , então, da equação de estado, (2.6a), u(N-1) = x(N-1) e, portanto, V ( x, N − 1) = x( N − 1) . Para achar V no instante anterior, usemos (2.5) com (2.6a): V ( x, N − 2) = Max[ u + V ( x − u , N − 1)] = Max[ u + x − u ] . u u (2.7) 102 Para achar o máximo da última expressão, derivemos e igualemos a zero sua derivada com relação a u: ∂ ( u + x −u ∂u )= 1 2 u − 1 = 0 , ou seja, u = x – u, donde u(N -2) = 2 x−u x( N − 2) x x , e portanto, de (2.7), V ( x, N − 2) = (2.8) + = 2x 2 2 2 Com (2.5) e (2.6a) novamente, temos V ( x, N − 3) = Max[ u + 2( x − u )] . Para achar o u valor de u que maximiza, derivamos com relação a u e igualamos a zero: ∂ ( u + 2( x − u ) ∂u )= 1 2 u − 1 = 0 , donde 2u = x – u, ou seja, 2( x − u ) u(N-3) = x( N − 3) x x x x⎞ ⎛ , e portanto, V ( x, N − 3) = +2 = 3 x . Então + 2⎜ x − ⎟ = 3 3 3 3 3⎠ ⎝ verificamos que o controle ótimo a ser aplicado no instante N - k é x( N − k ) (2.9) u(N - k) = k e o índice de desempenho ótimo é V (x(N – k), N – k) = kx( N − k ) . (2.10) Vamos provar (2.9) e (2.10) rigorosamente, usando indução matemática, ou seja, sendo verdadeiro para N – k, provaremos que é verdadeiro também para N – k – 1. Com efeito, sendo V (x, N – k) = kx , então, de acordo com (2.5) e (2.6a), V (x, N – k -1) = Max[ u + k ( x − u )] . u (2.10a) Para obter o máximo, derivamos em relação a u e igualamos a zero, obtendo ∂ ( u + k ( x − u) )= kx − ku k ∴ ku = x − u ∴ (k + 1)u = x, = 0 , donde u = k2 ∂u 2 u 2 k ( x − u) x( N − k − 1) , (2.10b) ou seja, u ( N − k − 1) = k +1 comprovando (2.9). Por outro lado, substituindo em (2.10a), temos V (x, N – k -1) = 1 − x x ⎞ x x ⎛ + k⎜x− +k = (k + 1) x ⎟= k +1 k +1⎠ k +1 k +1 ⎝ = (k + 1) x( N − k − 1) , concluindo a prova por indução matemática. (2.11) x( N − k − 1) ; mas da equação de estado, k +1 x( N − k ) + u ( N − k − 1) vem x( N − k − 1) = x( N − k ) + u ( N − k − 1) , donde u ( N − k − 1) = , ou k +1 1 ⎞ x( N − k ) ⎛ seja, ⎜1 − ⎟ u ( N − k − 1) = k +1 ⎝ k +1 ⎠ Por outro lado, de (2.10b), temos u ( N − k − 1) = 103 x( N − k ) , e comparando-se com (2.9), concluik se u ( N − k − 1) = u ( N − k ) . E portando o controle ótimo é constante. Esta foi a conclusão a que chegamos muito mais rapidamente usando o Princípio de Pontryagin na última seção do capítulo anterior (Exemplo (5.10)). ∴ ku ( N − k − 1) = x( N − k ) ∴ u ( N − k − 1) = Poder-se-ia perguntar qual a vantagem da programação dinâmica. Na realidade, os dois métodos são, de certa forma, complementares. Característica importante da programação dinâmica é a de ela dar o controle ótimo em função do estado atual, ou seja, a implementação do controle ótimo é on-line, o que não ocorre usualmente nos problemas resolvidos pelo Princípio de Pontryagin. Por outro lado, o equacionamento do problema por programação dinâmica não é fácil se a pessoa não tiver uma boa prática, enquanto que pelo Princípio de Pontryagin é usualmente mais fácil, seguindo o algoritmo padrão. 5.2 Sistemas de tempo contínuo Consideremos sistemas de tempo contínuo na mesma forma quando trabalhamos com o Princípio de Pontryagin, a saber, (3.1a) x(t ) = f ( x(t ), u (t )) , 0 ≤ t ≤ T , x(0) =: xo. (3.1b) (3.1c) Os controles permitidos são u(t) ∈ U, onde U é conhecido. Por sua vez, o índice de desempenho é também como no capítulo anterior: T J = Ψ ( x(T )) + ∫ l ( x(t ), u (t ))dt . 0 (3.1d) Seja V(x, t) o valor ótimo do índice de desempenho no estado x e instante t. Suponha que conheçamos o valor de V num instante t + ∆, onde ∆ é suficientemente pequeno. Então, tal como no caso de tempo discreto, caminhamos para trás no tempo. No caso de o ótimo ser o máximo, temos: (3.2) V ( x, t ) ≅ Max[l ( x, u )∆ + V ( x + f ( x, u )∆, t + ∆ )] . u∈U Utilizando o teorema de Taylor com aproximação de 1ª. ordem, tem-se ∂V ( x, t ) ∂V ( x, t ) V ( x + f ( x, u ) ∆ , t + ∆ ) ≅ V ( x, t ) + ∆+ f ( x, u ) ∆ . ∂t ∂x Substituindo-se isto em (3.2), vem ∂V ( x, t ) ∂V ( x, t ) V ( x, t ) ≅ Max[l ( x, u )∆ + V ( x, t ) + ∆+ f ( x, u ) ∆ ] . (3.3) u∈U ∂t ∂x Ora, nesta expressão V(x, t) independe explìcitamente de u, o mesmo ocorrendo com ∂V ( x, t ) ∆ . Então, (3.3) pode ser re-escrita como ∂t ∂V ( x, t ) ∂V ( x, t ) V ( x, t ) ≅ V ( x, t ) + ∆ + Max[l ( x, u )∆ + f ( x, u ) ∆ ] . u ∈ U ∂t ∂x Cancelando V(x, t) dos dois lados da equação acima e dividindo por ∆, obtemos 104 ∂V ( x, t ) ∂V ( x, t ) + Max[l ( x, u ) + f ( x, u )] = 0 , u∈U ∂t ∂x com a condição terminal V(x, T) = Ψ(x(T)) . (3.4a) (3.4b) A equação acima é a famosa equação de Hamilton-Jacobi-Bellman. É possível às vezes, mas não em geral, resolver analiticamente esta equação. Se for o caso (solução analítica), obtém - se a família de todas as soluções do problema. É claro que se tem a mesma equação, substituindo “max” por “min”, se se tratar do problema de minimizar um índice de desempenho. Como já foi mencionado antes, vantagem importante do método da programção dinâmica é o fato de dar a solução u em função do estado, ou seja, em feedback. Exemplo (Sistemas lineares com índice de desempenho quadrático) (3.5) Vamos atacar de novo o problema que foi resolvido na penúltima seção do capítulo anterior (seção 4.4), pelo método da programação dinâmica. Enunciamos de novo o problema: x(t ) = A(t ) x(t ) + B(t )u (t ) , x(0) = xo (3.6a) T 1 1 (3.6b) J = x(T )T Fx(T ) + ∫ [ x(t )T Q(t ) x(t ) + u (t )T R(t )u (t )]dt , 2 2 0 onde as matrizes F, Q e R são simétricas, F e Q são positivas semi-definidas e R é positiva definida. As matrizes A, B, Q e R podem ser variantes no tempo, como foi suposto na seção 4.4 do capítulo anterior. x(t) e u(t) têm as dimensões usuais, F, Q e R têm dimensões apropriadas. Trata-se de minimizar o índice de desempenho dado em (3.6b). Aplicando-se (3.4a) e (3.4b) ao problema, temos, omitindo parcialmente o argumento (t): ∂V ( x, t ) 1 ∂V ( x, t ) ⎛1 ⎞ + Min ⎜ xT Qx + u T Ru + ( Ax + Bu ) ⎟ = 0, (3.7a) u ∈ U ∂t 2 ∂x ⎝2 ⎠ 1 com V(x, T) = x(T )T Fx(T ) . (3.7b) 2 1 (3.8a) Neste ponto fazemos a conjectura que V(x, t) = x(t )T P(t ) x(t ) , 2 sendo P uma matriz simétrica com as dimensões apropriadas. É claro que P(T) = F. (3.8b) ∂V ( x, t ) 1 = ( P (t ) x)T + xT P(t ) = xT P(t ) . Observe-se inicialmente que de (3.8a) temos ∂x 2 1 T 1 T ⎛1 T ⎞ (3.9) Então, de (3.7a), x P (t ) x + Min ⎜ x Qx + u Ru + xT P (t )( Ax + Bu ) ⎟ = 0 . u∈U ⎝ 2 2 2 ⎠ Como não há restrição no controle u , o mínimo é obtido derivando com relação a u e igualando a zero: u T R + xT P(t ) B = 0, donde u = − R −1 BT P (t ) x . (3.10) Observe-se que ( ) 105 xT P(t ) Ax = 1 T 1 1 1 x P(t ) Ax + xT P(t ) Ax = xT P(t ) Ax + xT AT P(t ) x = 2 2 2 2 1 T x [ P(t ) A + AT P(t )]x . 2 Substituindo isto e (3.10) em (3.9), vem 1 T 1 1 1 x P(t ) x + xT Qx + xT P (t ) BR −1 RR −1 BT P(t ) x + xT [ P(t ) A + AT P(t )] x − xT P(t ) BR −1 BT P(t ) x 2 2 2 2 = 0. Ao subtrairmos a última parcela da terceira e multiplicarmos tudo por 2, obtemos: xT [ P(t ) + Q + P (t ) A + AT P(t ) − P (t ) BR −1 BT P (t )]x = 0 . Mas como esta última equação tem que ser verdadeira para todo x, obtemos (3.11) P (t ) + Q(t ) + P (t ) A(t ) + AT (t ) P (t ) − P(t ) B (t ) R −1 (t ) BT (t ) P(t ) = 0 , com a condição final (3.8b). Esta é a equação diferencial de Ricatti, que obtivemos na seção 4.4 do capítulo anterior. Problemas dados em Provas de anos anteriores 1. x(k + 1) = x(k ) − u (k ) , x(N) = 0. Trata-se de maximixar J = N −1 ∑u k =0 2 (k ) . Utilizando o método da programação dinâmica, calcular u ( N − k ) e V ( N − k ) como funções de x(N - k) para k = 1, 2, 3 e 4. Capítulo 6: Funções Descreventes Neste capítulo seguiremos essencialmente o excelente já citado texto de M. Vidyasagar, Nonlinear System Analysis. O método das funções descreventes é um método aproximado de análises e síntese de sistemas não lineares, mas que tem ainda bastante aplicação, tendo sido proposto inicialmente na década 40’s do século passado. A justificação rigorosa do método, entretanto, só apareceu muitos anos depois. 6.1 Quase-linearização ótima Seja um sistema (“operador”) não linear N tal que N: C[0, ∞) → C[0, ∞) , ou seja, transforma funções contínuas em funções contínuas. O problema que nos ocupará será o de achar uma função (“sistema”) linear invariante no tempo que melhor aproxime (num sentido preciso, definido logo adiante) a não linearidade N. 106 Seja r ∈ C [0, ∞) um sinal de referência. Recordamos que se um sistema linear invariante no tempo H tiver resposta impulsional (= resposta ao impulso unitário) h(t), então a t ( Hr )(t ) = ∫ r (τ )h(t − τ )dτ resposta ao sinal r será: (1.1) 0 Ora, se queremos que H seja uma aproximação de N , temos que definir com precisão em que sentido isto deve ocorrer. Usaremos a seguinte definição do erro E(H): T 1 2 E ( H ) = lim ∫ ( ( Nr )(t ) − ( Hr )(t ) ) dt , (1.2) T →∞ T 0 supondo, é claro, que o limite exista. Nosso objetivo é achar H tal que E(H) seja minimizado e, neste caso, diremos que temos uma quase-linearização ótima. Daremos abaixo uma condição necessária e suficiente para que este problema seja resolvido. Diremos que x ∈ C [0, ∞) tem potência média finita se T 1 2 x (t )dt < ∞ . T →∞ T ∫ 0 Em vista disso, E(H), e = Nr - Hr . (1.3) lim definida em (1.2), é a potência média da função de erro (1.3a) Seja F o sub-conjunto das funções em C [0, ∞) com potência média finita. (1.3b) Temos o seguinte resultado inicial: (1.4) Lema: Suponha que x, y ∈ C [0, ∞) tenham potência média finita. Então x + y também tem. Prova: Considere o produto interno T T x, y T := 1 x(t ) y (t )dt , donde temos a norma T ∫0 Ora, da desigualdade de Schwartz, temos x, y xT = T ≤ xT y x, x = T 1 2 x (t )dt . T ∫0 (1.7) . (1.8) Mas omitindo o argumento (t), temos T T 1 1 2 2 ( x + y )2 dt = ∫ ( x 2 + y 2 + 2 xy )dt = x T + y T + 2 x, y ∫ T T 0 T 0 esta desigualdade implica x+ y 2 T = T T ( ≤ xT+ y T ) . E T 1 1 1 ( x(t ) + y (t ))2 dt ≤ lim ∫ x 2 (t )dt + lim ∫ y 2 (t )dt < ∞ , concluindo a prova. ∫ T →∞ T T →∞ T T →∞ T 0 0 0 lim 2 107 A seguir temos a definição fundamental: Definição: Suponha que x e y tenham potência média finita. Então a função de correlação T 1 cruzada Φ x, y (τ ) é definida do seguinte modo: Φ x, y (τ ) = lim ∫ x(t ) y (t + τ )dt . (1.11) T →∞ T 0 (Observe-se que Φ x, y (τ ) é bem definida, tendo em vista a desigualdade de Schwartz, pois x e y têm potência média finita). Temos a seguir: Teorema: Suponha que tanto o sinal de referência r como a resposta de um sistema não linear, Nr , tenham potência média finita. Suponha que H é um sistema linear invariante no tempo (como (1.1)) tal que Hr ∈ F. Então H minimiza o erro (1.2) se só se (1.13) Φ x, Hr (τ ) = Φ x, Nr (τ ) ∀τ ≥ 0 . Prova: Como Nr e Hr pertencem a F definido em (1.3b), segue-se do Lema (1.4) que E(H) , dado em (1.2), é bem definido e finito. Seja G um outro sistema linear invariante no t tempo, (Gr )(t ) = ∫ g (t − τ )r (τ )dτ , (1.14) 0 com Gr ∈ F . Defina-se o operador linear D′ tal que d ′(t ) = g (t ) − h(t ) ; t t 0 0 ( D′r )(t ) = (Gr )(t ) − ( Hr )(t ) = ∫ d ′(t − τ )r (τ )dτ = ∫ d ′(τ )r (t − τ )dτ . portanto, (1.15) (1.16) Ora, como Gr ∈ F, E(G), definida como em(1.2), é bem definida. Então, 1 T →∞ T E(G) - E(H)= lim T T ∫0 {[( Nr )(t ) − (Gr )(t )] 2 } − [( Nr )(t ) − ( Hr )(t )]2 dt 1 = lim ∫ [(Gr )(t )]2 − [( Hr )(t )]2 + 2[( Nr )(t )][( Hr )(t )] − 2[( Nr )(t )][(Gr )(t )] dt . T →∞ T 0 Por outro lado, temos: { } (1.17) [( D′r )(t )]2 + 2[( D′r )(t )][( Hr )(t )] − 2[( D′r )(t )][( Nr )(t )] = [(Gr )(t ) − ( Hr )(t )]2 + 2[(Gr )(t ) − ( Hr )(t )][( Hr )(t )] − 2[(Gr )(t ) − ( Hr )(t )][( Nr )(t )] ; omitindo o argumento (t), a última expressão é (Gr ) 2 − 2(Gr )( Hr ) + ( Hr ) 2 + 2(Gr )( Hr ) − 2( Hr ) 2 − 2(Gr )( Nr ) + 2( Hr )( Nr ) = [(Gr )(t )]2 − [( Hr )(t )]2 − 2[( Nr )(t )][(Gr )(t )] + 2[( Nr )(t )][( Hr )(t )] , que é o integrando de (1.17). Então podemos escrever: 108 T 1 [( D′r )(t )]2 + 2[( D′r )(t )][( Hr )(t ) − ( Nr )(t )] dt . Ora, se E(H) é T →∞ T ∫ 0 mínimo, devemos ter E(G) - E(H) ≥ 0 para todo G. Mas a integral acima é não negativa para todo G, e portanto para todo D′ , se só se E(G) - E(H) = lim { } T 1 lim ∫ [( D′r )(t )][( Hr )(t ) − ( Nr )(t )]dt = 0 ∀ D′ . T →∞ T 0 Definamos e = Hr – Nr. Em vista de (1.16) e (1.18), temos: 1 0 = lim T →∞ T T T ⎞ 1 ⎛ r (t − τ )e(t )dt ⎟d ′(τ )dτ . ⎜ ∫ ∫0 ∫0 d ′(τ )r (t −τ )e(t )dτ dt = Tlim ∫ →∞ T ⎠ 0⎝τ (1.18) (1.18a) T t (1.19) Mas d ′ é uma resposta impulsional arbitrária, sujeita apenas à condição que Gr ∈ F. Conseqüentemente, o que multiplica d ′ na expressão acima deve ser identicamente nulo, T T 1 1 ou seja, 0 = lim ∫ r (t − τ )e(t )dt = lim ∫ r (t )e(t + τ )dt =: Φ r ,e (τ ) , em vista de (1.11). T →∞ T T →∞ T τ τ Ou ainda, tendo em vista a definição de e (1.18a), temos Φ r , Hr − Nr (τ ) = 0 , ou ainda, de (1.11), Φ r , Hr (τ ) = Φ r , Nr (τ ) ∀τ ≥ 0 , concluindo a prova. O teorema que acaba de ser demonstrado é um resultado importante e interessante: o sistema linear que melhor aproxima o não linear no sentido de minimização do erro definido em (1.2) é aquele cuja correlação cruzada é igual à do sistema não linear. Mas é preciso enfatizar que a correlação cruzada depende do sinal de referência, ou seja, satisfeita a condição (1.13) para um certo r, isto não implica de forma alguma que ela seja satisfeita para r ′ ≠ r . Exemplo: (1.22) Seja N : C[0, ∞) → C[0, ∞) uma não linearidade sem memória e invariante no tempo, ou seja, (Nr)(t) = n[r(t)], onde n: R → R é contínua. Suponha que o sinal de referência r seja uma constante, ou seja, r(t) = k, ∀t ≥ 0 . Solução: É imediato verificar que tanto r como Nr têm potência média finita. Ora, de T 1 (1.11), temos Φ r , Nr (τ ) = lim ∫ kn(k )dt = kn(k). (1.22a) T →∞ T 0 Vamos agora provar que a resposta ao impulso unitário que satisfaz a (1.13) é n( k ) h(t ) = δ (t ) . (1.22b) k Com efeito, de (1.11) e de (1.14), com G substituído por H, temos: 109 T t 1 k h(t − τ )kdτ dt ; substituindo nesta integral, h(t) dado em (1.22b), T →∞ T ∫ ∫ 0 0 Φ r , Hr (τ ) = lim T t T 1 n( k ) 1 δ (t − τ )kdτ dt = lim ∫ kn(k )dt = kn(k), igualando a k∫ ∫ T →∞ T T →∞ T 0 0 k 0 expressão de (1.22a). temos Φ r , Hr (τ ) = lim 6.2 Funções descreventes Após a seção anterior, introdutória, entramos no âmago deste capítulo, as funções descreventes. O sinal mais freqüente, de longe, usado no problema da quase-linearização ótima é a função senoidal: r(t) = asenωt . (2.1) É claro que este r tem potência média finita. Suponha que o sistema não linear seja BIBO (bounded input / bounded output), ou seja, para toda entrada limitada sua resposta também o seja. Pode-se demonstrar que, neste caso, a resposta Nr é a soma de duas funções: a do regime permanente zss (ss = “steady state”), que é periódica, e a do regime transitório, ztr , que tende a zero com o tempo. O mesmo ocorre (e isto é mais fácil de provar) se o sinal senoidal for aplicado a um sistema linear invariante no tempo e estável. Temos dois resultado preliminares: Lema: (2.2) ∞ Suponha que r ∈ F e que f ∈ C[0, ∞) satisfaça a ∫f 2 (t )dt < ∞ . (2.3) 0 Então, Φ r , f = 0. (2.4) Prova: 1 É claro que (2.3) implica lim T →∞ T T ∫0 f 2 (t )dt = 0. E da definição (1.11), vem: T 1 r (t ) f (t + τ )dt . Mas usando a desigualdade de Schwartz (1.8), vem T →∞ T ∫ 0 Φ r , f (τ ) = lim 2 ⎛1T ⎞⎛ 1 T ⎞ (2.5) Φ r , f (τ ) ≤ ⎜ ∫ r 2 (t )dt ⎟⎜ ∫ f 2 (t + τ )dt ⎟ T T T ⎝ 0 ⎠⎝ 0 ⎠ Ora, quando T → ∞ , o primeiro fator na desigualdade acima permanece limitado, enquanto que o segundo tende a zero, de acordo com (2.3), concluindo a prova. Lema: (2.6) Seja r dado em (2.1). Suponha que f ∈ C[0, ∞) é periódica com período 2π / ω . Seja a expansão em série de Fourier de f: ∞ f = f 0 + ∑ ( f rk senkωt + fik cos kωt ) , k inteiro. k =1 (2.7) 110 Defina-se f1 = f r1senωt + fi1 cos ωt . Então, Φ r , f = Φ r , f . (2.8) (2.9) 1 Portanto este Lema afirma que a correlação cruzada entre a função senoidal e uma função periódica só depende do 1º. harmônico da função periódica. Prova: Seja T = 2π l / ω , sendo l um inteiro, l ≥ 1. É fato conhecido que T ∫0 r (t )senkω (t + τ )dt = 0 T e ∫0 r (t ) cos kω (t + τ )dt = 0 , ∀τ ≥ 0, ∀k ≠ 1 . T T 0 0 (2.10) Portanto, em vista de (2.7), (2.10) e (2.8), ∫ r (t ) f (t + τ )dt = ∫ r (t ) f1 (t + τ )dt , τ ≥ 0 . (2.11) Dividindo-se os dois lados da igualdade acima por T = 2π l / ω e fazendo-se l → ∞, obtém-se (2.9). Passamos ao resultado principal: (2.12) Teorema: Seja r dado em (2.1). Suponha que Nr =: z tenha a forma z = zss + ztr , onde zss é contínuo e periódico com período 2π / ω e ∞ ∫0 ztr (t )dt < ∞ . 2 (2.13) Suponha também que o sistema linear H é tal que sua função de transferência hˆ( s ) seja uma função racional, própria e com todos os pólos com parte real negativa. Seja z1 (t ) o (2.14) 1º. harmônico de zss , com z1 (t ) = g re senωt + gim cos ωt . Então H é uma quase – linearização ótima de N com relação ao sinal de referência r se g + jgim . (2.15) só se hˆ( jω ) = re a Observação: o teorema acima apresenta uma condição que é chamada na literatura especializada de princípio de balanceamento harmônico. Sabemos que se um sistema linear BIBO estável tem sua função de transferência dada por (2.15), então a resposta em regime g g permanente yss ao sinal (2.1) é yss = re asenωt + im a cos ωt a a = g re senωt + gim cos ωt , (2.16) que é exatamente (2.14). Ou seja, o que este teorema afirma (princípio de balanceamento harmônico) é que a resposta em regime permanente do sistema linear que melhor aproxima o sistema não linear (no sentido de minimizar (1.2)) é igual ao 1º. harmônico da resposta em regime permanente do sistema não linear dado. Prova do teorema: (2.17) Os lemas (2.2) e (2.6) com a condição (2.13) implicam Φ r , Nr = Φ r , z1 . Ora, o teorema (1.12) nos diz que H é uma quase- linearização ótima de N se só se 111 Φ r , Nr = Φ r , Hr . (2.18) Mas o sistema linear sendo BIBO, a resposta transitória decai exponencialmente e, (2.19) utilizando de novo o lema (2.2), temos Φ r , Hr = Φ r , yss , com yss dado em (2.16). De (2.17)-(2.19), temos Φ r , z1 = Φ r , yss . (2.20) T 1 r (t ) [ z1 (t + τ ) − yss ( y + τ )] dt = 0 . Mas esta igualdade é verdadeira T →∞ T ∫ 0 Ora, então lim independentemente de r(t) e T se só se z1 = yss , concluindo-se a prova. Vamos agora à definição do título desta seção: (2.21) Definição: Seja r(t) dado em (2.1) e suponha que z = Nr satisfaça a (2.13). Então, a função descrevente η (a, ω ) do sistema N é dada por (2.14), a saber, g + jgim η (a, ω ) = re . (2.22a) a Observe-se que a função descrevente depende não somente de a, como consta claramente, mas também de ω , porque g re e gim são funções de ω. Seja lembrado que η ( a, ω ) = 2 g re2 + gim a , η (a, ω ) = arctg gim . g re (2.22b) Vejamos uma classe particular de sistemas: Lema: Suponha que N seja um sistema sem memória e invariante no tempo, a saber, (Nr)(t) = n(r(t)), onde n : R → R é contínua. Então η (a, ω ) não depende de ω. (2.23) (2.24) Observação: Sistema “sem memória” é aquele em que sua resposta não depende de valores passados do sinal de entrada, mas só dos valores atuais, como expresso acima em (2.24). Exemplo de sistemas sem memórias são abundantes: resistências elétrica, massa de um corpo, etc. Sistemas com memória também são abundantes: capacitores, indutores, etc. As equações que regem sistemas sem memória são equações algébricas, enquanto que os sistemas com memória são regidos por equações diferenciais. Sistemas invariantes no tempo, como já foi mencionado várias vezes neste curso, são aqueles em que a relação entre a resposta e a entrada é uma equação que não depende explicitamente do tempo, como num circuito R-L-C ou num sistema mecânico massa-mola-atrito, em que os parâmetros não variam no tempo. Prova do Lema (2.23): z(t) = (Nr)(t) = n(asenωt) . É claro que a resposta do sistema é periódica com freqüência angular ω . É claro também que ztr = 0, pois o sistema é sem memória. Definamos 112 ω ⎛ω ⎞ x(t) = asen ω t; ora, em vista de (2.1), temos r ⎜ t ⎟ = asenω t = asen ω t. Então, x(t) = ω ⎝ω ⎠ ⎛ω ⎞ r ⎜ t ⎟ . Conseqüentemente, x(t) pode ser obtido a partir de r(t) por simples mudança na ⎝ω ⎠ ⎛ω ⎞ escala de tempo. Então, (Nx)(t) = ( Nr ) ⎜ t ⎟ , donde que o primeiro harmônico de Nx é ⎝ω ⎠ igual ao de Nr, o que implica que a função descrevente de Nx é igual à de Nr, ou seja, η (a, ω ) = η (a, ω ) , concluindo a prova. Lema: (2.25) Suponha que N seja da forma (2.24), ou seja, sem memória, e que, além disso, suponha que N seja uma função ímpar. Então, a função descrevente de N é um número real. Prova: Como N não tem memória, podemos denotar a função descrevente, de acordo com o Lema anterior, por η (a) . A seguir, recorda-se que se n(r) é ímpar, então n(-r) = - n(r) . Ora, sendo n(r) uma função ímpar, então, (Nr)(t) é uma função impar de t, porque senωt o é, e portanto, sua expansão em série de Fourier não tem os termos em cosseno, o que implica que gim = 0 em (2.15). De (2.22a) conclui-se que η (a) é real. Lema: (2.26) Suponha que N seja sem memória, ímpar e, além disso suponha que existam k1 , k2 ∈ R tais que k1σ 2 ≤ σ n(σ ) ≤ k2σ 2 , ∀σ ∈ R. Então a função descrevente de N satisfaz a k1 ≤ η (a ) ≤ k2 . (2.27) (2.28) Observação: Já vimos no 4º. Capítulo que uma função que satisfaz à propriedade (2.27) é dita pertencer ao setor [ k1 , k2 ]. Prova do Lema (2.26): Recorda-se (ver (2.7)) que toda função f(t) periódica pode ser expandida como série de Fourier. ∞ f = f 0 + ∑ ( f rk senkωt + fik cos kωt ) , k inteiro, onde f0 = 2ω f rk = k =1 2π / ω ∫0 (2.29a) f (t )dt , (2.29b) ω 2π / ω f (t ) sen(kωt )dt π ∫0 (2.29c) π 113 fik = ω 2π / ω f (t ) cos(kωt )dt , π ∫0 (2.29d) No caso presente, temos f(t) = n(asenωt). Em vista de (2.14), temos então f r1 = g re = ω 2π / ω n(asenωt ) senωtdt . E, portanto, de (2.22a) e do lema anterior, π ∫0 ω 2π / ω η (a) = n(asenωt ) senωtdt . Fazendo θ = ωt nesta última, temos π a ∫0 1 η (a) = πa 2π ∫0 1 n(asenθ ) senθ dθ = 2 πa 2π ∫0 n(asenθ )asenθ dtθ . Mas em vista da 1ª. desigualdade em (2.27), o integrando acima é maior ou igual a k1 (asenθ )2 . 1 Donde, η (a ) ≥ π a2 2π ∫0 k (asenθ ) 1 integrável por partes, obtendo-se 2 dθ = = 2π k1 π 2π ∫0 sen θ dθ . Esta última integral é clássica, 2 ∫0 sen θ dθ = π . E, 2 portanto, η (a ) ≥ k1 , que é a primeira desigualdade de (2.28). A segunda desigualdade se obtém pelo mesmo raciocínio, concluindo-se a prova. Exemplo: (2.30) Seja a não linearidade n1 (σ ) = sign(σ ) , conforme a fig. 4.2. Calcular a função descrevente relativa a (2.1). 114 Solução: Se se aplica o sinal r (t ) = asenωt a este sistema não linear, obtém-se evidentemente como resposta uma “onda quadrada” cuja amplitude é 1 e cujo período é 2π / ω . Este sistema não linear é sem memória e é uma função ímpar. Conseqüentemente, de acordo com o Lema (2.25), a função descrevente é real. Então basta calcular f r1 em (2.29d) e dividir o resultado por a de acordo com (2.22). Ora, de (2.29d) ω 2π / ω ω π /ω ω 2π / ω f r1 = n(asenωt ) senωtdt = n(asenωt ) senωtdt + n(asenωt ) senωtdt . Ora, π ∫0 π ∫0 π π ∫/ ω sendo n uma onda quadrada de amplitude 1, o 1º. integrando é senωt , enquanto que o 2º. ω 1 π /ω ω 1 2π / ω é - senωt . Então, f r1 = (− cos ωt ) 0 + (−1) (− cos ωt ) π / ω πω πω = 1 π (− cos π + cos 0) − temos: η (a) = 1 π (− cos 2π + cos π ) = 4 π . Finalmente, em vista do teorema 2.12, 4 . πa Exemplo: (2.31) Considere a não linearidade da fig. 4.3. Ou seja, se −δ ≤ σ ≤ δ , n(σ ) é uma reta com coeficiente angular m1 , enquanto que para σ < −δ e para σ > δ , o coeficiente angular da reta é igual a m2 . Qual a função descrevente do sistema não linear? 115 Como se vê da figura, supomos m1 > m2 . Solução: O sistema não linear é, de novo, sem memória e ímpar, tal como no exemplo anterior. É claro que se a ≤ δ , ou seja, de acordo com (2.29c), f r1 = 2π / ω partes) ∫0 sen 2ωtdt = δ a ≥ 1 , temos n(asenωt ) = m1asenωt . E portanto, ω 2π / ω m asen 2ωtdt ; mas sabemos que (fácil a integração por π ∫0 1 π , donde que f r1 = m1a , e portanto, η (a ) = m1 se a ≤ δ , ω (2.33) um resultado previsível. Se a > δ , ou seja, δ a < 1 , definimos t1 tal que asenωt1 = δ , ou seja, t1 = 1 ω arcsen δ a . (2.33a) Observe-se que t1 < π π , pois senωt tem seu máximo em . 2ω 2 116 π −t π +t ⎛ t1 ⎞ ω 1 ω 1 ωa ⎜ ⎟ 2 2 2 m1sen ωtdt + ∫ m2 sen ωtdt + ∫ m1sen ωtdt ⎟ + Então, temos de (2.29c), f r1 = ∫ ⎜ π ⎜0 π t1 ⎟ −t ω 1 ⎝ ⎠ 2 π 2 π ⎛ −t1 ⎞ ω ⎟ ωa ⎜ ω 2 2 m2 sen ωtdt + ∫ m1sen ωtdt ⎟ . (2.34) ⎜ ∫ π ⎜π 2π ⎟ +t −t ω 1 ⎝ω 1 ⎠ Temos a mesma integral, a menos de constante multiplicativa e dos diferentes limites inferiores e superiores de integração. t1 Vamos calcular a primeira: ∫ m1sen 2ωtdt . Recorda-se que: 0 ∫ sen ωtdt = ∫ senωtsenωtdt = 2 − senωt cos ωt ω senωt (− cos ωt ) ω −∫ − cos ωt ω ω cos ωtdt = 1 ⎛ senωt cos ωt ⎞ 1 + ∫ (1 −sen 2ωt )dt ∴ ∫ sen 2ωtdt = ⎜ t − ⎟= 2⎝ ω ⎠ 2 ⎛ sen2ωt ⎞ ⎜t − ⎟. 2ω ⎠ ⎝ 117 t1 Então a primeira integral de (2.34) é, em vista de (2.33a), m1 ⎛ sen2ωt ⎞ ⎜t − ⎟ 2 ⎝ 2ω ⎠ 0 = m1 ⎛ 1 δ 1 1 δ t sen 2ωt sen 2ω arcsen − ⎜ arcsen − ω 2 ⎝ω a 2ω a 2 2ωt ⎞ ⎟ t →0 ⎠ = m1 ⎛ δ δ δ ⎞ m1 ⎛ δ δ δ2 ⎞ arcsen senarcsen arcsen = − − cos 1 arcsen − ⎜ ⎟. ⎜ ⎟ a a a ⎠ 2ω ⎜⎝ a a a 2 ⎟⎠ 2ω ⎝ Obtém-se, após algum trabalho: f r1 2(m1 − m2 ) ⎛ δ δ δ2 ⎞ = 1 − 2 ⎟ + m2 . ⎜ arcsen + ⎜ π a a a a ⎟⎠ ⎝ A figura 4.4 acima mostra uma senóide “achatada”, um resultado previsível. δ ⎛δ ⎞ Definindo-se f ⎜ ⎟ = 1 se ≥ 1 , a ⎝a⎠ δ2 ⎞ δ ⎛δ ⎞ 2 ⎛ ⎛δ ⎞ δ f ⎜ ⎟ = ⎜ arcsen ⎜ ⎟ + 1 − 2 ⎟ se 0 ≤ ≤ 1 , ⎜ ⎟ a a ⎠ ⎝a⎠ π ⎝ ⎝a⎠ a então, temos a expressão geral para os dois casos: ⎛δ ⎞ η (a) = (m1 − m2 ) f ⎜ ⎟ + m2 . ⎝a⎠ A figura 4.5 abaixo mostra a função f(.) η (a) = (2.36) (2.37a) (2.37b) (2.37c) 118 Exemplo: Dois casos particulares importantes do problema anterior são: i) a chamada “zona morta” em que m1 = 0 (fig. 4.6) (2.38) 119 obtendo-se η (a ) = 0 se δ δ ⎛δ ⎞ ≥ 1 e η (a) = −m2 f ⎜ ⎟ + m2 se 0 ≤ ≤ 1 , a a ⎝a⎠ (2.39) ⎛δ ⎞ com f ⎜ ⎟ dado em (2.37b). ⎝a⎠ 120 ii) o chamado “limitador” em que m2 = 0 (fig. 4.7 acima), obtendo-se η (a) = m1 se δ δ ⎛δ ⎞ ≥ 1 e η (a) = m1 f ⎜ ⎟ se 0 ≤ ≤ 1 . a a ⎝a⎠ (2.40) Exemplo: (2.41) Considere agora o sinal r (t ) = asenω aplicado a um sistema não linear que é uma histerese (fig. 4.8). Observe-se que a no eixo horizontal é a amplitude do sinal de entrada, ou por outras palavras, a histerese que estamos considerando tem sempre uma “largura” igual à amplitude do sinal senoidal de entrada. (Caso isto não ocorresse, a solução do problema seria muito mais complicada). O coeficiente angular das retas inclinadas é m. É claro que ( Nr )(t ) é a superposição de dois sinais: uma senóide de amplitude ma e uma onda quadrada conforme a figura 4.10 abaixo 121 Vimos no exemplo (2.30) que se tratava de uma onda quadrada, uma função ímpar. Agora trata-se de uma onda quadrada que é uma função par, ou seja, sua contribuição para o 1º. 4b 4b cos ωt . Então, temos z1 (t ) = masenωt + cos ωt , e portanto, de (2.16), harmônico é π π 4b 4b . Donde que, η (a) = m + j . g re = ma , gim = π πa No regime permanente obtém-se a figura 4.9 abaixo: (2.42) 122 6.3 Sistemas com realimentação Considere o diagrama de blocos abaixo (figura 4.13). G é um sistema linear invariante no t tempo: (Gr )(t ) = ∫ g (t − τ )r (τ )dτ , (3.1) 0 ∞ satisfazendo à condição ∫ g (t ) dt < ∞ . (3.2) 0 123 Como vimos, se r (t ) tem potência média finita, (Gr )(t ) também o terá, ou seja, r ∈ F ⇒ Gr ∈ F. N é um sistema não linear que também suporemos N : F → F. Seja x(t ) a resposta do sistema linear. Então, do diagrama de blocos, (3.3) x = −GNx . Suponhamos que (3.3) tenha uma solução periódica, isto é, (3.4) x(t ) = asenω0t , (3.5) onde a e ω0 ainda serão determinados. Seja η (a, ω0 ) a função descrevente de N associada ao sinal dado em (3.4). η (a, ω0 ) é um número complexo, representemo-lo na sua forma de “fasor”, definindo µ e jφ = η (a, ω0 ) . O primeiro harmônico de Nx será então z1 (t ) = µ asen(ω0t + φ ) . (3.6) (3.7) ∞ Seja a função de transferência do sistema linear gˆ ( s ) = ∫ g (t )e − st dt . (3.8) 0 Ora, se z (t ) = −( Nx)(t ) é aplicado a G, obtendo-se x(t ) , definamos suas parcelas em regime permanente e transitório, respectivamente, isto é, x(t ) = xss (t ) + xtr (t ) . Definamos γ e jθ := gˆ ( jω0 ) . (3.9) Então o 1º. harmônico da resposta do sistema linear é, em vista de (3.7) e de (3.9) igual a (3.10) −γµ asen(ω0t + φ + θ ) . Mas de (3.3), temos (1 + GN)x = 0, ou ainda, considerando o 1º. harmônico, temos 124 (1 + gˆ ( jω0 )η (a, ω0 )) x = 0 . Mas como esta igualdade deve ser verdadeira para todo t , temos (3.11a) 1 + gˆ ( jω0 )η (a, ω0 ) = 0 , (3.11b) ou ainda, gˆ ( jω0 ) = −1/ η (a, ω0 ) . Alguns autores se referem às equações (3.11) como princípio do balanceamento harmônico. Exemplo: (3.12) Seja o sistema em malha fechada da figura 4.13, onde gˆ ( jω ) tem o diagrama de Nyquist representado na fig. 4.14 abaixo, com ω variando de 0 a ∞ e a não linearidade é uma histerese (fig. 4.10), com a função descrevente dada em (2.42), que repetimos: η (a) = m + j 4b πa , com m = 0,3 ; b = 0,01. Com estes valores, temos η (a) = 0, 3 + j (2.42bis) 0, 04 . A figura 4.14 πa abaixo apresenta o diagrama de Nyquist de gˆ ( jω ) , parametrizado em ω e −1/ η (a) parametrizado em a. Os dois gráficos se interceptam no ponto -1.23 + j 1,61, que corresponde aproximadamente a ω0 = 0,62 e a = 0,0325. Então o sinal periódico na resposta do sistema linear é 0,0325 sen0,62t. 125 Caso interessante é quando a não linearidade é uma função ímpar. Vimos que neste caso a função descrevente é um número real. Suponha, para concretizar, que a função descrevente ⎡ −1 −1 ⎤ de N esteja no setor [ k1 , k2 ], com k1 ≥ 0 . Então −1/ η (a) estará no intervalo ⎢ , ⎥ . ⎣ k2 k1 ⎦ Então os pontos do diagrama de Nyquist que satisfarão a gˆ ( jω ) = −1/ η (a) serão ⎡ −1 −1 ⎤ precisamente os que estiverem no semi-eixo real negativo, dentro do intervalo ⎢ , ⎥ . É ⎣ k2 k1 ⎦ claro que a cada função não linear no setor [ k1 , k2 ] corresponde uma única função x(t ) = asenωt Exemplo: (3.13) ( s + 20) . Suponha que o sistema não linear seja um ( s + 1)( s + 2)( s + 3) limitador com na figura 4.7. No limitador suponha que m1 = 4 e δ = 1. Na figura 4.15 abaixo vê-se o diagrama de Nyquist de gˆ ( jω ) correspondente a ω ∈ [0, ∞) . Como a função descrevente é real e maior que zero (ver (2.40)), temos que verificar os pontos em que o diagrama de Nyquist de gˆ ( jω ) intercepta o lado esquerdo do eixo horizontal. Obtemos da figura 4.15, aproximadamente, gˆ ( j 5, 42) = -2,18 e gˆ ( j11,9) = -0,31. Obtemos de (3.11b) η1 = 1/ 2,18 = 0,46 e η 2 = 1/ 0,31 = 3,27. Como η1 e η2 ≠ m1 , então Seja o SMF com gˆ ( s ) = 2 devemos ter (ver (2.40)) f (1/ a1 ) = η1 / 4 = 0,11 e f (1/ a2 ) = η 2 / 4 = 0,82 . E de (2.37b), obtém-se, usando por exemplo o Matlab, a1 = 11,07 e a2 = 1,42. Então, temos duas soluções: x1 (t ) = 11,07sen5,42t e x2 (t ) = 1,42sen11,9t . 126 (3.14) Observação: Nos casos mais simples, os problemas desta seção podem ser resolvidos analiticamente, sem necessiade de gráfico. Com efeito, podem-se usar duas das três equações seguintes: Re[ gˆ ( jω ] = Re[−1/ η (a, ω0 )] , Im[ gˆ ( jω ] = Im[−1/ η (a, ω0 )] gˆ ( jω = −1/ η (a, ω0 ) . Se essas equações se tornam complicadas, o jeito é usar o gráfico. 127 128