Meu Curso de Controle Avançado

Transcrição

Meu Curso de Controle Avançado
Curso de “Controle Avançado” (ELE-1815)
Pe. Pedro M. Guimarães Ferreira S.J.
(Este texto está disponível em http://www.fplf.org.br/pedro_varios/)
Capítulo 1: Análise de Sistemas não – lineares
(Seguiremos neste capítulo principalmente o excelente texto de D. Luenberger, Introduction
to Dynamic Systems, que teve várias edições. Alguns problemas são tomados de M.
Vidyasagar, Nonlinear Systems Analysis e de Jean-Jacques Slotine e Weiping Li, Applied
Nonlinear Control).
1. Introdução
Consideraremos sistemas não lineares seja em tempo discreto, seja em tempo contínuo.
Se xi (k), i = 1, 2, ...n, representarem as variáveis de estado do sistema em tempo discreto,
temos as seguintes equações de estado:
x1(k+1) = f1(x1(k), x2(k),......., xn(k), k),
x2(k+1) = f2(x1(k), x2(k),......., xn(k), k),
…
…
(1.1a)
…
…
xn(k+1) = fn(x1(k), x2(k),......., xn(k), k),
tomando arbitrariamente o início da contagem do tempo em k = 0.
Estas equações podem ser escritas em forma compacta, vetorial, a saber,
x(k+1) = f(x(k), k)
(1.1b),
onde x(k) ∈ R n .
No caso de sistemas de tempo contínuo, temos
dx1
= f1(x1(t), x2(t), ....xn(t),t),
dt
dx2
= f2(x1(t), x2(t), ....xn(t),t),
dt
...
....
...
....
dxn
= fn(x1(t), x2(t), ....xn(t),t),
dt
(1.2a)
com t ≥ 0.
Ou em forma compacta, vetorial,
1
dx(t) = f(x(t),t)
dt
,
(1.2b)
onde x(t) ∈ R n .
Das equações (1.1) e (1.2) verifica-se que se trata de sistemas de dimensão finita (equações
diferenciais ordinárias) variantes no tempo, isto é, sistemas em que as equações de
diferenças e diferenciais dependem explicitamente do tempo (k no caso de sistemas de
tempo discreto e t no caso de sistemas de tempo contínuo).
Na realidade, neste curso nos ocuparemos principalmente (mas não exclusivamente) de
sistemas invariantes no tempo, isto é, as equações não dependem explicitamente do tempo.
Ou seja, ao invés de (1b) e de (2b), temos, respectivamente,
x(k+1) = f(x(k)) e
(1.3)
dx(t) = f(x(t)) .
dt
(1.4)
Observe-se que neste capítulo, nosso objetivo não será resolver equações diferenciais (no
caso de tempo contínuo) ou equações de diferença (no caso de tempo discreto). Tratar-se-á
de análise dos sistemas correspondentes, isto é, determinação dos pontos de equilíbrio e da
estabilidade (ou não) dos sistemas.
Vejamos um exemplo escalar, isto é, com n = 1:
Exemplo : A curva logística
(1.5)
Seja o sistema definido por
dx(t )
= a(1 – x(t)/c) x(t) = ax(t) – ax2(t)/c, com a > 0, c > 0, x(0) > 0, c > x(0)
dt
(1.6)
Note-se que quando se considera somente a primeira parcela do lado direito da equação
diferencial, temos uma exponencial crescente. Sabemos que todo crescimento vital é
exponencial, isto é, o acréscimo é proporcional ao “tamanho” do ser vivo, ou seja, dx(t) =
ax(t)dt, que corresponde à primeira parcela da equação diferencial acima, cuja solução é
x(t) = eat . Entretanto a segunda parcela modera o crescimento da função e de fato é isto
que acontece em todos os sistemas vivos, há uma saturação no crescimento. (Ver fig. 1 na
próxima página).
Vamos provar que a solução da equação (1.6) é
c − x(0)
c
x(t) =
, onde b =
.
(1.7)
x(0)
1 + be−at
Com efeito, diferenciando x(t), temos
dx(t )
−c(−ba)e−at
=
(1.8)
dt
(1 + be−at )2
2
Do lado direito de (1.6), em vista de (1.7), temos
Applied Mathematics
INDEX
Algebra
Applied Mathematics
Calculus and Analysis
Discrete Mathematics
Foundations of
Mathematics
Geometry
History and Terminology
Number Theory
Probability and Statistics
Recreational Mathematics
Topology
Population Dynamics
Logistic Equation
The logistic equation (sometimes called the Verhulst model or logistic growth curve)
by Pierre Verhulst
(1845, 1847). The model is continuous in time, but a modificat
quadratic recurrence equation known as the logistic map is also widely used.
Alphabetical Index
DESTINATIONS
About MathWorld
About the Author
New in MathWorld
MathWorld Classroom
Interactive Entries
Random Entry
CONTACT
Contribute an Entry
Send a Message to the
Team
4
The continuous version of the logistic model is described by the differential equation
MATHWORLD - IN PRINT
Order book from Amazon
3
Figura 1
1 ⎞ c
abce− at
⎛
, que é idêntico a (1.8).
a(1-x(t)/c)x(t) =a ⎜1=
-at ⎟
-at
− at 2
⎝ 1+be ⎠ 1+be
(1 + be )
Observe-se que de de x(t) em (1.7), temos
x(0) = c/(1+b), donde b é efetivamente dado em (1.7).

Como foi dito antes, nosso objetivo neste curso não será, em geral, resolver equações
diferenciais. Esta foi resolvida para mostrar como pode ser interessante introduzir
elementos não lineares numa equação diferencial para modelar certos fenômenos. De (1.7)
vemos que a solução satura, tendendo exponencialmente para c.
(1.9)
Exemplo: Tempo de escape finito
Considere-se agora a equação diferencial, em que trocamos o sinal dentro do parênteses, a
saber
dx(t )
(1.10)
= a (1 + x(t ) / c) x(t ) ,com a, c > 0.
dt
Se x(0) > 0 , a solução para t > 0 é
c
, onde b = (c + x(0)) / x(0) .
x(t ) =
be−at − 1
(Observe-se que desta expressão, junto com x(0) > 0 e c > 0, conclui-se b > 1 ).
A demonstração deste fato é em tudo análoga à do exemplo anterior e será omitida. A
curva se parece com o ramo direito da parábola x(t) = x(0) + t2 mas cresce abruptamente
atingindo valor ∞ em te
logaritmo neperiano.
tal que
be−ate = 1 , ou seja, te = ln b1 / a ,onde “ln” é o

Claro que se pudéssemos resolver qualquer equação diferencial, seria muito melhor, não
precisaríamos estudar a maior parte das coisas que serão dadas neste curso. Mas, como
sabemos, as eqs. diferenciais não lineares são, em geral, de difícil solução, muitas,
inclusive, não tendo solução conhecida. Então, o que vamos fazer é “comer o mingau pela
beirada”, ou seja, vamos atacar os problemas não lineares usando outras técnicas, que não a
solução de eqs. diferenciais.
2. Pontos de equilíbrio
Definição:
(2.1)
Um vetor xe ∈ Rn é um ponto de equilíbrio de um sistema se for tal que se o estado do
sistema chegar a xe , aí fica.
No caso de sistemas de tempo discreto dados por (1b), isto é,
x(k+1) = f(x(k), k)
(1.1b, bis)
temos no ponto de equilíbrio
4
xe = f(xe, k), para todo k ≥ 0.
(2.2)
E no caso de sistemas de contínuo, dados por (1.2b), isto é,
dx(t) = f(x(t), t) ,
dt
(1.2b, bis)
temos no ponto de equilíbrio
f(xe, t) = 0 para todo t ≥ 0 .
(2.3)
Como já foi observado, trataremos precipuamente - mas não exclusivamente – de sistemas
invariantes no tempo. Para tais sistemas, temos, ao invés de (2.2) e (2.3),
xe = f(xe) ,
(2.4)
f(xe) = 0 ,
(2.5)
respectivamente.
O sentido destas eqs. é claro. Com efeito, (2.2) e (2.4) indicam tautologicamente a
definição de estabilidade, ou seja, se o estado chega a xe , ele aí fica. E por sua vez (2.3) e
dx(t )
(2.5) indicam que o “vetor velocidade”
é nulo no ponto de equilíbrio, obtendo o
dt
mesmo resultado: se o estado do sistema ali chegar, ali fica.
Falamos de “ponto de equilíbrio”. Na realidade um sistema pode ter mais de um ponto de
equilíbrio e, em geral, os sistemas não lineares os têm.
Numa aplicação simples do conceito acima aos sistemas lineares, temos, para sistemas de
tempo contínuo invariantes no tempo, em lugar de (2.5)
f(xe) = Axe = 0,
ou seja, os pontos de equilíbrio estão no núcleo (kernel) de A. Se esta matriz tiver posto
cheio, o que ocorre com freqüência, o único ponto de equilíbrio do sistema será xe = 0. E é
claro que xe = 0 sempre será um ponto de equilíbrio do sistema, mesmo que não seja único.
Para o caso de sistemas lineares de tempo discreto invariantes no tempo, de (2.4) os pontos
de equilíbrio obedecerão à equação
(I – A) xe = 0, e, portanto xe estará no Núcleo de I – A.
sendo claro, de novo, que xe = 0 sempre será um ponto de equilíbrio do sistema, mesmo
que não seja único.
Exemplo:
Consideremos de novo a equação da curva logística
(2.6)
5
dx(t )
= a(1 – x(t)/c) x(t)
(1.5 bis)
dt
Os pontos de equilíbrio devem satisfazer, de acordo com (2.5), a
a(1 – xe / c) xe = 0. Portanto há dois pontos de equilíbrio, a saber, xe = 0 e xe = c , que é
confirmado pelas figura 1.

Exemplo:
Considere o seguinte sistema de tempo discreto:
x1 (k + 1) = α x1 (k ) + x2 (k ) 2 ,
(2.7)
x2 (k + 1) = x1 (k ) + β x2 (k ) .
De acordo com (2.4), os pontos e equilíbrio devem satisfazer a
xe1 = α xe1 + xe 2 2 ,
xe 2 = xe1 + β xe 2 .
Resolvendo este sistema de eqs., obtemos dois pontos de equilíbrio:
x = ⎡⎣0, 0] e x = ⎡⎣ (1 − α )(1 − β ) 2 , (1 − α )(1 − β ) ] .
T
T
3. Estabilidade
O conceito de estabilidade pertence à linguagem comum. Aqui estaremos falando da
estabilidade do estado do sistema e, se o sistema só tiver um ponto de equilíbrio, teremos a
estabilidade do sistema. Falando informalmente, diremos que se um ponto de equilíbrio é
estável, se o estado inicial estiver “próximo” a ele, continuará próximo. Assim, o ponto de
equilíbrio (em baixo) de um pêndulo é um ponto de equilíbrio estável. É preciso chamar a
atenção que num sistema mecânico o estado tem duas componentes, posição e velocidade;
então um ponto de uma mesa onde se coloque uma bola parada, supondo que a superfície
seja com atrito é um ponto de equilíbrio estável, como veremos mais claramente na
definição formal de estabilidade.
A definição de estabilidade que se segue vale tanto para sistemas de tempo discreto como
para sistemas de tempo contínuo, respectivamente:
x(k+1) = f(x(k)),
(3.1)
dx(t )
= f(x(t)),
dt
(3.2)
onde x ∈ Rn .
Definições:
(3.3)
1) Um ponto de equilíbrio xe é estável se existir Ro > 0 tal que para todo R < Ro
exista r com 0 < r < R sendo que para todo x(0) dentro da bola S(xe, r), x(t)
permaneça dentro da bola S(xe, R) para todo t > 0.
2) Um ponto de equilíbrio xe é assintoticamente estável se ele for estável e, alem
disso, existir R1 > 0 tal que se x(0) estiver dentro da bola S(xe, R1), o estado x(t)
tenderá a xe com o tempo.
6
3) Um ponto de equilíbrio xe é marginalmente estável se for estável, mas não
assintoticamente estável.
4) Um ponto de equilíbrio xe é instável se ele não for estável. Ou por outras palavras,
xe é instável se para algum R › 0 e para qualquer r › 0 existir um estado inicial
x(0) na bola S(xe, r) tal que o estado do sistema em algum momento sairá da bola
S(xe, R).
Figura 2
Cabem alguns esclarecimentos:
Conforme se pode ver da definição de instabilidade, não é necessário, ao contrário do uso
na linguagem comum, que o estado “exploda” – isto é, tenda a ∞ - para que o ponto de
equilíbrio seja instável. O ponto de equilíbrio é instável se existir uma bola tal que o estado
do sistema sairá dela, para algum estado inicial x(0) tão próximo do ponto de equilíbrio
quanto desejarmos.
Precisada deste modo a definição de ponto de equilíbrio instável, podemos talvez entender
melhor a definição precisa de ponto de equilíbrio estável: é aquele que não é instável! A
definição acima de ponto de equilíbrio estável pode parecer difícil de entender com a
introdução da bola de raio Ro. Como veremos, esta bola é introduzida por causa dos
sistemas de tempo discreto. No caso de sistemas de tempo contínuo podemos fazer R = Ro
Para sistemas de tempo contínuo, a definição de estabilidade pode ser simplificada, a saber,
7
1’) Um ponto de equilíbrio xe é estável se existirem R , r > 0 tais que se x(0) ∈ S(xe, r),
então x(t) ∈ S(xe, R) para todo t > 0
Exemplo:
(3.4)
Considere o sistema linear invariante no tempo
dx(t )
= ax(t ) .
dt
O único ponto de equilíbrio é a origem, isto é, x = 0 Este sistema é estável se a ≤ 0,
assintoticamente estável se a < 0 , instável se a > 0 e marginalmente estável se a = 0.
Tratando-se de sistema linear, instabilidade é equivalente ao estado tendendo para ∞.
É um exercício simples verificar as definições acima neste caso.
Exemplo: A equação logística (de novo)
(3.5)
dx(t )
= a(1 – x(t)/c) x(t), com a e c maiores que zero.
dt
Já vimos que os pontos de equilíbrio são 0 (zero) e c. É fácil verificar que o primeiro é
instável, enquanto que o outro é assintoticamente estável. Novamente teste as definições
neste caso.
Exemplo:
(3.6)
O seguinte modelo matemático tem aplicação em genética:
x(k )
x(k + 1) =
.
1 + x(k )
x
Os pontos de equilíbrio devem satisfazer a xe = e , cuja única solução é xe = 0, ou
1 + xe
seja, só há um ponto de equilíbrio.
x(0)
Vamos demonstrar por indução matemática que a solução da equação é x(k ) =
.
1 + kx(0)
Inicialmente verificamos (tenha-se em vista a equação de estado) que a expressão é correta
para k = 1. Suponha que seja verdadeira para k; demonstraremos que é verdadeira para k
+ 1. Ora, substituindo x(k) na equação de estado, temos
x(0)
x(0)
x(0)
1 + kx(0)
, concluindo a prova.
=
=
x(k + 1) =
x(0)
1
kx
(0)
x
(0)
1
(
k
1)
x
(0)
+
+
+
+
1+
1 + kx(0)
Conseqüentemente, x(∞)→ 0 para todo x(0) > 0, ou seja, o sistema é assintoticamente
estável se nos limitarmos a valores positivos de x(k), que são os que têm significação na
genética. Observe-se que se x(k) puder assumir valores negativos e para algum k tivermos
x(k) → -1, teremos x(k + 1) → ∞ .
4. Linearização e Estabilidade
A estabilidade de sistemas não lineares é, em geral, uma propriedade local, ao contrário dos
sistemas lineares, em que, caso o ponto de equilíbrio seja único, ela é uma propriedade
8
global. Por “local” queremos dizer que ela vale numa vizinhança suficientemente pequena
do ponto de equilíbrio e por “global” entendemos que a propriedade vale em todo o espaço
de estado.
Sendo local a estabilidade, faz sentido examiná-la linearizando o sistema no ponto de
equilíbrio, que é o que faremos nesta seção. A análise da estabilidade de um sistema não
linear a partir da sua linearização em torno do ponto de equilíbrio é chamado primeiro
método de Lyapunov.
Considere-se a função escalar f(x), onde x ∈ Rn , ou seja, f ( x) = f ( x1 , x2 ,...xn ) .
Suponha que este f(x) seja o segundo membro da equação de um sistema (eq. (3.1) ou
(3.2)).
Seja xe um ponto de equilíbrio do sistema e sejam xe1 , xe 2 ,...xen suas componentes.
Vamos deslocar o estado do sistema de seu ponto de equilíbrio, através de perturbação
arbitrariamente pequena (arbitrariamente pequena significa “tão pequena quanto
queiramos”). Seja y esta perturbação, ou seja,
xe → xe + y,
onde as componentes de y são y1 , y2 ,... yn .
9
Figura 3
Suponhamos que f(x) ∈ Rn e sejam fi (x) as componentes de f(x) , i = 1,2,....,n. Então,
podemos escrever a proximação de primeira ordem:
fi ( xe1 + y1 , xe 2 + y2 ,..., xen + yn ) ≈ fi ( xe1 , xe 2 ,..., xen ) +
∂
fi ( xe1 , xe 2 ,..., x en ) y1 +
∂x1
∂
∂
fi ( xe1 , xe 2 ,..., x en ) y2 + .......+
fi ( xe1 , xe 2 ,..., x en ) yn .
∂x2
∂xn
(4.1)
∂
fi ( xe1 , xe 2 ,..., x en ) significa a derivada parcial
∂x1
da função fi calculada no ponto de equilíbrio, o mesmo para as outras derivadas.
Na expressão acima, abusando a notação,
Então podemos escrever n equações como (4.1).
Definamos a matriz n x n :
∂f
∂x
=
⎡ ∂f1
⎢ ∂x
⎢ 1
⎢ ∂f 2
⎢ ∂x
⎢ 1
⎢ .....
⎢
⎢ ∂f n
⎢⎣ ∂x1
∂f1
∂x2
∂f1 ⎤
∂xn ⎥
⎥
∂f 2
∂f 2 ⎥
.....
∂x2
∂xn ⎥
⎥
..... ..... ..... ⎥
⎥
∂f n
∂f n ⎥
.....
∂x2
∂xn ⎥⎦
.....
A matriz acima calculada em xe será denotada por A , ou seja, A =
A matriz
(4.2a)
∂f
∂x
(4.2b)
x = xe
∂f
é chamada matriz jacobiana de f.
∂x
Em vista de (4.1) e (4.2), podemos escrever compactamente
f(xe + y) ≈ f(xe) + Ay
(4.3)
Vamos aplicar estes resultados aos sistemas (3.1) e (3.2). Repetindo (3.1):
x(k+1) = f(x(k)).
Ora, x(k) = xe + y(k),
(4.4)
x(k+1) = xe + y(k + 1).
10
Disso, de (4.3) e de (4.4), temos
xe + y(k+1) ≈ f(xe) +Ay(k).
Mas xe = f(xe) (ponto de equilíbrio em sistema de tempo discreto). Donde,
y(k+1) = Ay(k).
(4.5)
No caso de sistemas de tempo contínuo, temos (3.2), que repetimos
dx(t )
= f(x(t)
(4.6)
dt
Fazendo x(t) = xe + y(t), temos,
dx(t ) dy (t )
=
.
dt
dt
Ora, no ponto de equilíbrio, temos f(xe) = 0, isto é, como vimos, o vetor velocidade é nulo
no ponto de equilíbrio.
E em vista de (4.3), temos
dy (t )
= Ay(t)
(4.7)
dt
Portanto de (4.5) e (4.7), concluímos que tanto nos sistemas de tempo discreto como nos
sistemas de tempo contínuo a aproximação linear de um sistema não linear tem A como
sua matriz do sistema.
Ora, como sabemos, a estabilidade de um sistema linear depende da localização de seus
auto-valores no plano complexo
Seja C o plano complexo. Denotemos por D−0 := {s ∈ C : s < 1}, isto é, o interior do
círculo unitário e denotemos por C−0 := { s ∈ C : Re [s] < 0}, isto é, o semi-plano aberto
da esquerda.
Sabemos que num sistema linear de tempo discreto todo ponto de equilíbrio é
assintoticamente estável se só se todos os autovalores da matriz do sistema estiverem em
D−0 , enquanto que num sistema linear de tempo contínuo todo ponto de equilíbrio é
assintoticamente estável se só se todos os auto-valores da matriz do sistema estiverem em
C−0 .
Por outro lado, no caso de sistemas lineares de tempo discreto, se algum auto-valor da
matriz do sistema tiver valor absoluto maior que 1, então todo ponto de equilíbrio será
instável, enquanto que nos sistemas de tempo contínuo, se algum auto-valor tiver parte real
positiva, todo ponto de equilíbrio será instável.
Finalmente, no caso de sistemas de tempo discreto, se um ou mais auto-valores estiverem
na circunferência de raio unitário e todos os outros auto-valores estiverem no interior dela,
cada ponto de equilíbrio será marginalmente estável ou instável, conforme os blocos de
Jordan correspondentes aos auto-valores sobre a circunferência de raio unitário sejam de
ordem 1 ou não, isto é, se todos os blocos de Jordan referidos tiverem ordem 1, os pontos
de equilíbrio serão marginalmente estáveis; se algum auto-valor na dita circunferência tiver
11
bloco de Jordan com ordem maior que 1, os pontos de equilíbrio serão instáveis. Para
sistemas de tempo contínuo, os resultados são os mesmos, substituindo-se a circunferência
de raio unitário pelo eixo imaginário.
Então temos:
Teorema:
(4.8)
1. No caso de sistemas não-lineares de tempo discreto, se todos os auto-valores de A
estiverem em D−0 , então xe será um ponto de equilíbrio assintoticamente estável
do sistema não linear. No caso de sistemas de tempo contínuo, substitua-se D−0 por
C−0 .
2. No caso de sistemas não-lineares de tempo discreto, se algum auto-valor de A tiver
valor absoluto maior que 1, xe é ponto de equilíbrio instável. No caso de sistemas
de tempo contínuo, a conclusão é a mesma, com a devida modificação, ou seja,
algum auto-valor com parte real positiva.
3. No caso de sistemas não-lineares de tempo discreto, se algum auto-valor de A
estiver sobre a circunferência de raio unitário e todos os outros estiverem no interior
da mesma, nada se pode concluir, pois o ponto de equilíbrio xe do sistema não linear
poderia ser tanto assintoticamente estável, como marginalmente instável, ou
instável. No caso de sistemas não-lineares de tempo contínuo, se algum auto-valor
de A estiver no eixo imaginário e os outros auto-valores estiverem no semi-plano
aberto da esquerda, também nada podemos concluir a respeito da estabilidade ou
instabilidade do sistema.
Prova (esboço):
A aproximação linear é boa se y(t) for suficientemente pequeno tanto no primeiro caso,
como no segundo. Entretanto, se algum auto-valor estiver na “fronteira”, por menor que
seja o acréscimo y(t), o sistema linearizado não caracteriza o sistema não-linear.
Efetivamente, a linearização é uma aproximação de primeira ordem, desprezando-se os
termos de ordem maior. Ora, quando algum auto-valor está na fronteira, a estabilidade ou
não do ponto de equilíbrio vai depender dos termos de ordem maior que um na expansão da
série de Taylor.
Exemplo:
(4.9)
Considere o sistema discreto do Exemplo (3.6) da seção anterior, a saber,
x(k )
. Vimos que o único ponto de equilíbrio deste sistema é xe = 0.
x(k + 1) =
1 + x(k )
x
, temos
Para linearizar este sistema, denotando f (x) =
1+ x
df
1
. No ponto de equilíbrio temos A = 1, e portanto a equação do sistema
=
dx (1 + x) 2
linearizado é y(k+1) = y(k). Então o auto-valor do sistema linearizado é igual a 1, estando
na “fronteira”, isto é, sobre a circunferência de raio 1. Portanto de acordo com o teorema
acima (4.8), nada podemos concluir a respeito da estabilidade do sistema não linear.
12
Exemplo:
(4.10)
Consideremos agora o sistema de tempo contínuo
dx
= ax(t ) + cx(t ) 2 .
dt
Verificamos que xe = 0 é um ponto de equilíbrio, quaisquer que sejam os valores de a e c.
Estudemos a estabilidade deste ponto de equilíbrio.
df
df
f(x) = ax(t ) + cx(t ) 2 . Donde,
= a + 2cx, e portanto, A =
calculado em x = 0, ou
dx
dx
seja, A = a.
Concluímos portanto que o ponto de equilíbrio estudado do sistema não linear é instável se
a > 0, assintoticamente estável se a < 0, e nada podemos concluir se a = 0.
Exemplo:
(4.11)
Consideremos mais uma vez a equação logística:
dx (t )
ax(t ) 2
= ax(t ) −
, com a e c maiores que zero. Os pontos de equilíbrio, são, como
dt
c
já vimos, 0 (zero) e c. Linearizando a equação, obtemos facilmente
dy
2ax
=a−
. Então, com o primeiro ponto de equilíbrio, obtemos A = a > 0, ou seja, o
dt
c
ponto de equilíbrio é instável. Com o segundo ponto de equilíbrio, obtemos A = a – 2a =
- a < 0, ponto de equilíbrio assintoticamente estável, conclusão a que havíamos chegado
por simples inspeção da curva.
Exemplo:
Consideremos novamente o exemplo (2.7):
x1 (k + 1) = α x1 (k ) + x2 (k ) 2 ,
(4.12)
x2 (k + 1) = x1 (k ) + β x2 (k ) .
Vimos que os pontos de equilíbrio deste sistema são x = ⎡⎣0, 0] e
T
x = ⎡⎣(1 − α )(1 − β ) 2 , (1 − α )(1 − β )] .
T
Suponhamos α , β ∈ (0,1) .
A matriz jacobiana é
∂f ⎡α 2 x2 ⎤
=
∂x ⎢⎣ 1 β ⎥⎦
Para o primeiro ponto de equilíbrio acha-se, então,
λ -α
0
⎡α 0 ⎤
A= ⎢
, os dois auto-valores estando portanto
, e portanto, λ I − A =
⎥
-1 λ -β
⎣1 β ⎦
dentro do círculo unitário, o ponto de equilíbrio sendo então assintoticamente estável.
Para o segundo ponto de equilíbrio, achamos, com a substituição respectiva da segunda
componente do ponto de equilíbrio,
λ − α −2(1 − α )(1 − β )
⎡α 2(1 − α )(1 − β ) ⎤
; e portanto, λ I − A =
.
A= ⎢
⎥
−1
β
λ−β
⎣1
⎦
13
A equação característica correspondente a esta matriz é
(λ − α )(λ − β ) = 2(1 − α )(1 − β ) .
Ora, o lado esquerdo desta equação cresce com λ e é menor que o lado direito se λ = 1.
Conseqüentemente, existe uma raiz desta equação maior que 1. E portanto este ponto de
equilíbrio é instável.
Exercícios 1, 7 e 9 ao final do capítulo
5. Método direto de Lyapunov
Nesta seção estudaremos o assim chamado segundo método de Lyapunov, também
chamado método direto de Lyapunov. “Direto” por oposição ao anterior, indireto, em que
se estuda a estabilidade da função linearizada, concluindo-se, ou não, a respeito da
estabilidade / instabilidade da função não linear.
Uma diferença importantíssima entre o método que estudaremos nesta seção e o da anterior
é que, na linearização, só podemos concluir a respeito de estabilidade / instabilidade do
sistema não linear numa vizinhança arbitrariamente pequena do ponto de equilíbrio. No
segundo método que estudaremos agora, poderemos concluir, em muitos casos, a respeito
do “tamanho” da vizinhança do ponto de equilíbrio.
O método foi proposto e desenvolvido pelo cientista russo M. Lyapunov ao final do século
XIX, em tese doutoral defendida na Universidade de Paris. É certamente uma das teses
mais importantes da história das ciências exatas.
A intuição de Lyapunov foi um “ovo de Colombo”, uma extensão / generalização do
conceito de energia em sistemas mecânicos. Sabemos que num sistema mecânico com
atrito, a energia vai decrescendo até que o sistema chegue ao ponto de equilíbrio: imagine
um pêndulo, por exemplo, ou um objeto arremessado horizontalmente sobre uma mesa
com atrito, ou uma pedra arremessada para cima, etc.
(5.1)
Definição:
Seja xe um ponto de equilíbrio de um sistema dinâmico. Uma função de Lyapunov para
este ponto de equilíbrio do sistema é uma função V , definida em uma região Ω do espaço
de estado, xe ∈ Ω e tal que:
(1) V é uma função contínua de x ,
(2) V(x) tem um único mínimo em xe ,
(3) O valor de V nunca aumenta ao longo de qualquer trajetória do estado x(t) em Ω.
(Nesta última propriedade, entendemos por “trajetória” a evolução do estado ao longo do
tempo, isto é, no sentido de t crescente).
Um parabolóide de revolução http://mathworld.wolfram.com/Paraboloid.html é um simples
exemplo de uma candidata a função de Lyapunov num espaço de estado de duas
dimensões. Uma parábola é um exemplo de candidata num espaço de estado de uma
dimensão. Será ou não função de Lyappunov se o valor de V associado ao estado
efetivamente não aumentar ao longo do tempo. Este ponto deve ser frisado: uma função de
Lyapunov é uma função de um estado que evolui no tempo segundo uma equação
14
diferencial (no caso de sistemas de tempo contínuo) ou de diferença (no caso de sistema de
tempo discreto).
Exemplo:
Considere o sistema definido por
x2 (k )
x1 (k + 1) =
1 + x2 (k ) 2
(5.2)
x1 (k )
1 + x2 (k ) 2
É fácil verificar que [0 , 0]T é um ponto de equilíbrio deste sistema.
Definamos a função
V ( x1 , x2 ) = x12 + x22
Esta função é contínua nos seus argumentos e tem um único mínimo, que é o ponto de
equilíbrio do sistema. Vejamos se ela satisfaz à terceira propriedade das funções de
Lyapunov:
V ( x(k + 1)) = x1 (k + 1) 2 + x2 (k + 1) 2 .
Substituindo as parcelas do lado direito nas equações do sistema, temos
x2 (k ) 2
x1 (k ) 2
V ( x(k ))
≤ V ( x (k )) .
=
V ( x(k + 1)) =
+
2 2
2 2
(1 + x2 (k ) ) (1 + x2 (k ) )
(1 + x2 (k ) 2 ) 2
Conseqüentemente a função proposta é uma função de Lyapunov.
x2 (k + 1) =
Vamos agora enunciar e provar o teorema de Lyapunov, primeiramente para sistemas de
tempo discreto e depois para sistemas de tempo contínuo.
Consideremos portanto os sistemas de tempo discreto
n
x ( k + 1) = f ( x( k )) , onde x ∈ R .
Suporemos que a função f seja contínua.
Se V(x) for uma função de Lyapunov para este sistema, definamos
∆V(x) = V(f(x)) – V(x),
(5.3)
ou seja, o acréscimo do valor da função quando se passa do instante k para o instante k+1.
Para que V seja função de Lyapunov, devemos ter
∆V(x) ≤ 0 para todo x na região Ω.
Estamos agora em condições de enunciar e demonstrar o
(5.4)
Teorema de Lyapunov de estabilidade em sistemas de tempo discreto
Se existir uma função de Lyapunov V(x) em uma região esférica S(xe, Ro), isto é, centrada
em xe e com raio Ro , então xe é um ponto de equilibro estável. Se, além disso, ∆V(x),
definida em (5.3) for estritamente negativa em todos os pontos (exceto xe), então a
estabilidade é assintótica.
Prova:
A demonstração do teorema será feita de olho da fig. 4 abaixo.
Suponha que V(x) exista conforme o enunciado do teorema. Seja R arbitrário, mas tal que
0 < R < Ro . Seja R1 < R tal que se x ∈ S(xe , R1), então f(x) ∈ S(xe , Ro). A existência
15
de R1 é garantida pela continuidade de f(x). Com esta escolha, se o estado estiver dentro
da esfera de raio R1 , ele não pulará para fora da esfera de raio Ro em um único passo.
Seja m o mínimo valor de V(x) na região definida por R1 ≤ x − xe ≤ R. É claro que
m > V(xe) , porque V(x) assume o valor mínimo em xe .
Seja r, com 0 < r < R1 tal que V(x) < m ∀ x ∈ S(xe , r). De novo, tal r existe em
vista da continuidade da função V(x).
Agora suponha que x(0) esteja dentro de S(xe , r). Então V(x(0)) < m . Mas como ∆V(x)
≤ 0, então V não pode crescer com o tempo e conseqüentemente a trajetória do estado não
pode sair da esfera S(xe , R1), e, com mais forte razão, não pode sair da esfera S(xe , R).
Então, para este R arbitrário, encontramos r que corresponde à definição de estabilidade.
Se, adicionalmente, ∆V(x) < 0 para todo x ≠ xe , então V(x) diminuirá sempre até chegar
ao valor mínimo, que corresponde ao ponto de equilíbrio, ou seja, teremos estabilidade
assintótica.

Figura 4
Exemplo (conclusão do exemplo (5.2) acima):
(5.5)
Vimos que existe uma função de Lyapunov para o sistema dado e, portanto, o sistema é
estável.
16
A título de comparação com o primeiro método de Lyapunov, vamos ver o que se poderia
concluir usando este último método.
⎡
1 − x22 ⎤
0
⎢
⎥
(1 + x22 ) 2 ⎥
∂f ⎢
; no ponto de equilíbrio considerado no exemplo, isto é, [0,0]T,
=
⎥
∂x ⎢ 1
−2 x1 x2
⎢
2
2 2⎥
⎣1 + x2 (1 + x2 ) ⎦
⎡0 1⎤
∂f
, cujo polinômio característico é (λ − 1)(λ + 1) , ou seja, os 2
temos A =
=⎢
∂x [0,0]T ⎣1 0 ⎥⎦
auto-valores estão na fronteira, isto é, sobre a circunferência de raio unitário: portanto nada
podemos concluir sobre a estabilidade do sistema. (Mas concluímos acima que o sistema é
estável usando o segundo método de Lyapunov).
Passemos agora ao estudo do segundo método para sistemas de tempo contínuo, isto, é,
dx(t )
= f(x(t)) .
dt
Seja V(x) uma função de Laypunov para estes sistema; a 3ª. condição na definição de
dV ( x(t ))
funções de Lyapunov implica que
≤ 0.
dt
Sejam fi (x(t)), i = 1, 2,.....,n as componentes de f(x(t). Então, temos (“chain rule”):
∂V
∂V
dV ( x(t )) ∂V
=
f1 ( x(t )) +
f 2 ( x(t )) + .... +
f n ( x(t )) .
dt
∂x1
∂x2
∂xn
Definindo o vetor gradiente
∂V ( x) ⎡ ∂V ( x) ∂V ( x)
∂V ( x) ⎤
∇V ( x ) =
=⎢
,
,....,
⎥,
∂x
∂x2
∂xn ⎦
⎣ ∂x1
temos, compactamente,
dV ( x(t )) ∂V ( x)
f(x(t)) = ∇V ( x) f(x(t)).
=
dt
∂x
(5.6)
(5.7)
(5.6 bis)
Podemos agora enunciar e provar o
Teorema de Lyapunov de estabilidade em sistemas de tempo contínuo
(5.8)
Se existir uma função de Lyapunov V(x) em uma região esférica S(xe, Ro), isto é, centrada
em xe e com raio Ro , então xe é um ponto de equilibro estável. Se, além disso,
dV ( x(t ))
, definida em (5.6) for estritamente negativa em todos os pontos (exceto xe), então
dt
a estabilidade é assintótica.
Prova: a demonstração é como a do teorema para sistemas discreto e é até mais simples.
Com efeito, sendo por hipótese f(x(t)) contínua, então x(t) também o será e, portanto, não
existe a possibilidade de o estado “saltar”, ou seja, a esfera de raio Ro não é necessária neste
caso.

17
Exemplo:
(5.9)
Considere o sistema
dx1 (t )
dx2 (t )
= x2 (t ) ,
= − x1 (t ) − x2 (t ) , o qual tem um ponto de equilíbrio em x1 = x2 = 0 .
dt
dt
⎡0 1⎤
e portanto λ I − A = λ 2 + λ + 1 ,
Observe-se que este sistema é linear, com A = ⎢
⎥
⎣ −1 −1⎦
ou seja, o ponto de equilíbrio é assintoticamente estável.
Definamos a função candidata a função de Lyapnuov. (É candidata, porque satisfaz às duas
primeiras condições da definição):
V( x1 , x2 ) = x12 + x22 .
Vamos à terceira condição:
dV ( x1 , x2 )
dx
dx
= 2 x1 1 + 2 x2 2 = 2 x1 x2 + 2 x2 (− x1 − x2 ) = −2x22 ≤ 0,
dt
dt
dt
concluindo que o ponto de equilíbrio é estável. (Não podemos concluir que seja
dV ( x1 , x2 )
= 0 com x1 ≠ 0).
assintoticamente estável, porque podemos ter
dt
Mas então vamos tentar provar a estabilidade assintótica usando o segundo método,
escolhendo uma outra função candidata. (A escolha de função candidata é muitas vezes o
resultado de tentativa e erro). Seja
V ( x1 , x2 ) = x12 + x22 + ( x1 + x2 ) 2 ,
que satisfaz às duas primeiras propriedades das funções de Lyapunov e, portanto, é
candidata. Ora,
dV ( x1 , x2 )
dx
dx
dx dx
= 2 x1 1 + 2 x2 2 + 2( x1 + x2 )( 1 + 2 )
dt
dt
dt
dt
dt
= 2 x1 x2 + 2 x2 (− x1 − x2 ) + 2( x1 + x2 )( x2 − x1 − x2 )
= −2 x22 − 2 x12 − 2 x1 x2 = − x12 − 2x1 x2 − x22 − x12 − x22 = −( x1 + x2 ) 2 − x12 − x22 < 0 ∀ ( x1 , x2 ) ≠
(0,0). Ou seja, o sistema é assintoticamente estável.
Extensão da estabilidade:
O segundo método nos garante, caso o sistema seja estável, que existe uma região Ω, não
necessariamente “pequena” em que a estabilidade é garantida. Um caso particular
importante é quando a região de estabilidade é todo o espaço de estado. É claro que nestes
casos o ponto de equilíbrio é único.
Temos o:
Teorema de Lyapunov: estabilidade assintótica global
(5.10)
Suponha que V seja uma função de Lyapunov para um sistema dinâmico, que só tem um
ponto de equilíbrio, xe. Suponha, além disso que
i)
V é definida em todo o espaço de estado;
18
ii)
∆V(x(t)) < 0, se o sistema for de tempo discreto,
dV ( x(t ))
< 0, se o sistema
dt
for de tempo contínuo ∀ x ≠ xe.
V(x) tende a infinito quando qualquer componente de x tende para infinito.
iii)
Então o ponto de equilíbrio xe é globalmente assintoticamente estável.

A prova deste teorema é imediata, em vista do que já foi explicado.
Seja observado, que quando o ponto de equilíbrio é único, é comum dizermos que o sistema
é globalmente assintoticamente estável.
Doravante, usaremos as seguintes abreviações:
E = Estável
I = Instável
ME = Marginalmente estável
AE = Assintoticamente estável
GAE = Globalmente assintoticamente estável
L = Lyapunov
(5.11)
Exemplo (5.9) (continuação):
Podemos concluir, usando a segunda função (acima), de L, a saber,
V ( x1 , x2 ) = x12 + x22 + ( x1 + x2 ) 2 , que este sistema é GAE, uma conclusão que confirma o que
já sabíamos, tendo em vista que o sistema é linear.
Exemplo: Pêndulo
(5.12)
O problema do pêndulo terá sido uma das motivações de L para propor sua teoria.
Seja M a massa do pêndulo, R o tamanho do seu braço (ver Figura 5 abaixo) e θ o
ângulo que o pêndulo faz com a vertical.
O pêndulo está sujeito a atrito (resistência do ar e/ou fricção no eixo de rotação)
proporcional à sua velocidade angular. Seja g a aceleração da gravidade. Então de acordo
com a 2ª. lei de Newton, temos
d 2θ (t )
dθ (t )
, onde k > 0 é um coeficiente de proporcionalidade.
MR
= − Mgsenθ (t ) − Mk
2
dt
dt
Esta equação diferencial de 2ª. ordem é equivalente a duas equações de 1ª. ordem, que são
as equações de estado, a primeira sendo de definição de velocidade angular. Dividindo a
equação acima por MR, obtemos as equações de estado:
dθ (t )
d ω (t )
g
k
= ω(t),
(5.13)
= − senθ (t ) − ω (t )
dt
dt
R
R
Definamos a candidata a função de L:
1
V (θ , ω ) = MR 2ω 2 + MgR (1 − cos θ ) .
2
Observe-se que esta função atinge seu valor mínimo no ponto de equilíbrio [θ, ω]T = [0, 0].
Esta função é a expressão matemática da soma das energias cinética e potencial.
Diferenciando, temos, omitindo o argumento (t)
dV (θ , ω )
dω
dθ
g
k
= MR 2ω
+ MgR
senθ = MR 2ω ( − senθ − ω ) + MgRω senθ
dt
dt
dt
R
R
19
= − MgRω senθ − kMRω 2 + MgRω senθ
= − kMRω 2 ≤ 0.
Figura 5
dV (θ , ω )
= 0 , mesmo que θ ≠ 0. Ou seja, podemos
dt
concluir que o ponto de equilíbrio estudado é E , mas não podemos concluir pela análise
acima que seja um ponto de equilíbrio AE.
Mas pela física sabemos que se trata, efetivamente de um ponto de equilíbrio AE. Então a
análise acima é decepcionante, pois usamos a energia como função de L e não chegamos à
AE.
É interessante antes de procurarmos uma outra função candidata, verificarmos o que nos diz
o primeiro método de L a respeito deste problema. Da equação (5.9) temos
0
1 ⎤
⎡
T
g
k ⎤
∂f
⎡
⎢
f = ⎢ω , − senθ − ω ⎥ . E, portanto,
=
g
k ⎥⎥ . E então,
⎢
R
R
∂
x
θ
−
−
cos
⎣
⎦
R⎦
⎣ R
Observe-se que podemos ter
20
1 ⎤
⎡ 0
∂f
⎢
⎥ =: A. Obtém-se o polinômio característico
=
⎢− g − k ⎥
∂x [0,0]T
R⎦
⎣ R
k
g
λ I − A = λ 2 + λ + , cujos coeficientes são todos positivos e portanto o ponto de
R
R
equilíbrio é AE. Mas note-se, de novo, que o método indireto de L só nos dá AE e I
em uma vizinhança arbitrariamente pequena do ponto de equilíbrio. Claro que sabemos da
física, como já foi dito acima, que esta vizinhança não é “pequena”, mas não podemos
concluir isto pelo primeiro método de L.
Observe-se que da equação, temos um outro ponto de equilíbrio, a saber,
T
T
[θ , ω ] = [π , 0] , que corresponde ao “pêndulo invertido”. Estudemos este ponto de
equilíbrio pelo primeiro método de L. Claro que
1 ⎤
⎡0
∂f
k
g
2
⎢
= g
k ⎥⎥ , cujo polinômio característico é λ + λ − , e portanto, o ponto
⎢
R
R
∂x [π ,0]T
−
R⎦
⎣R
de equilíbrio é I, uma conclusão óbvia fisicamente.
É preciso notar que ainda não temos um teorema pelo segundo método de L que nos dê
instabilidade, veremos isto mais adiante. É claro que se não encontrarmos uma função de L
que nos prove a E de um ponto de equilíbrio, isto não prova que ele seja I: os teoremas
pelo segundo método de L são sempre condições suficientes (e não necessárias) de pontos
de equilíbrio E, I, ME, AE e GAE.
Vamos agora usar uma segunda função candidata que nos permitirá demonstrar que o
primeiro ponto de equilíbrio é AE, função esta que aparece, entre outros bons textos, no
livro de Slotine e Li:
Vamos, para simplificar os cálculos, normalizar a equação (5.13), isto é, escolher as
unidades de modo que tenhamos
dθ (t )
d ω (t )
= ω(t),
(5.14)
= − senθ (t ) − ω (t )
dt
dt
Seja a função
ω 2 (θ + ω ) 2
+
+ 2(1 − cos θ ) ,
V (θ , ω ) =
2
2
que é claramente candidata a função de L, isto é, satisfaz às suas duas primeiras
propriedades. Donde,
dV
dω
dθ
⎛ dθ dω ⎞
=ω
+ (θ + ω ) ⎜
+
⎟ + 2senθ .
dt
dt
dt
⎝ dt dt ⎠
= ω (− senθ − ω ) + (θ + ω )ω + (θ + ω )(− senθ − ω ) + 2ω senθ
= −θ senθ − ω 2 .
Ora θ senθ > 0 para todo θ ≠ 0. E portanto o ponto de equilíbrio é AE. Não é um ponto
de equilíbrio GAE, porque devemos ter -π < θ < π .
Exemplo:
(5.15)
Veremos neste exemplo que o conceito de estabilidade em teoria de sistemas dinâmicos é
bastante amplo, não necessariamente aplicável no seu sentido mais usual. Aliás, fala-se em
21
economia estabilizada (quando a inflação é baixa), etc. Seja agora o problema de um
cachorro perseguindo um coelho. O coelho se desloca sempre ao longo do eixo x (o que
não é muito realista, porque o coelho zigue-zagueia à bessa quando o predador se
aproxima), enquanto que o cachorro, partindo de y(0) ≠ 0, percorre curva a ser determinada
no plano xy . Seja H a velocidade do cachorro e seja R a do coelho.(ver figura 6 logo
abaixo). Supõe-se, obviamente, que H > R.
Sejam xr (t ), yr (t ), xh (t ) e yh (t ) as componentes “horizontal” e “vertical” do coelho e do
cachorro, respectivamente.
dxr (t )
dyr (t )
(5.16)
É claro que
=R,
= yr = 0 .
dt
dt
2
2
⎛ dxh (t ) ⎞ ⎛ dyh (t ) ⎞
+⎜
= H2.
(5.17)
Claro também que ⎜
⎟
⎟
⎝ dt ⎠ ⎝ dt ⎠
Mas o vetor velocidade do cachorro sempre aponta na direção do coelho; portanto, para
algum k,
dxh (t )
dyh (t )
= − kyh ,
(5.18)
= −k ( xh − xr ) , donde
dt
dt
esta última em vista de (5.16).
Figura 6
Usando (5.17), podemos determinar k, a saber,
k 2 ( xh − xr ) 2 + k 2 yh2 = H 2 . Substituindo o valor de k em (5.18), vem
22
dxh (t )
dt
=
−( xh − xr ) H
( xh − xr ) 2 + yh2
,
dyh (t )
dt
=
− yh H
( xh − xr ) 2 + yh2
.
Simplifiquemos o problema matematicamente e notacionalmente, definindo
x = xh − xr , y = yh . As equações acima se transformam em
dx (t )
dt
=
− xH
x2 + y 2
−R,
dy (t )
dt
=
− yH
x2 + y 2
.
Vejamos os pontos de equilíbrio
Igualando a zero a segunda equação acima, temos
ye H
xe2 + ye2
= 0 e portanto ye = 0.
Igualando a zero a primeira, vem
xe H = − R ( xe2 + ye2 ) = − R xe2 = -Rxe (o sinal negativo da raiz quadrada não faz sentido
neste caso, pois o radicando é uma distância; donde xe(R + H) = 0, donde xe = 0.
Tomemos como função candidata a L a “clássica”, isto é,
V ( x, y ) = x 2 + y 2 , e portanto,
⎛ − xH
⎞
⎛ − yH ⎞
dV ( x, y )
dx
dy
⎟
= 2x ⎜
− R⎟ + 2y⎜
= 2x + 2 y
⎜ x2 + y 2
⎟
⎜ x2 + y 2 ⎟
dt
dt
dt
⎝
⎠
⎝
⎠
2
2
2H ( x + y )
= −2 Rx −
= −2 Rx − 2 H x 2 + y 2 .
2
2
x +y
Das definições de x e y, vemos que ambos os termos do lado direito são negativos ou
dV ( x, y )
nulos. Ora, então vemos que se x = 0 e y ≠ 0, temos
< 0. Se x ≠ 0, temos
dt
− Rx − H x 2 + y 2 < −( H − R) x < 0, lembrando que H > R .
dV ( x, y )
< 0 para todo (x , y) ≠ (0 , 0) e portanto o ponto de equilíbrio é AE. Mas
dt
como o ponto de equilíbrio é único e V(x,y) tende a infiito se x e / ou y tende a infinito,
conclui-se que o ponto de equilíbrio (e, podemos dizer, o sistema, pois o ponto de
equilíbrio é único) é GAE.
Então
Exemplo:
(Este exemplo é tirado do livro de Vidyasagar)
dx(t )
dy (t )
= x( x 2 + y 2 − 1) − y ,
= x + y ( x 2 + y 2 − 1) .
dt
dt
Os pontos de equilíbrio são calculados a partir de
x( x 2 + y 2 − 1) = y , x = − y ( x 2 + y 2 − 1) . Substituindo esta na primeira, vem
(5.19)
y = − y ( x 2 + y 2 − 1) 2 e, portanto, y = 0 e x = 0.
Tomemos mais uma vez a candidata “clássica” para função de L:
V ( x, y ) = x 2 + y 2 . Donde,
dV ( x, y )
dx
dy
= 2x + 2 y
= 2 x( x( x 2 + y 2 − 1) − y ) + 2 y ( x + y ( x 2 + y 2 − 1))
dt
dt
dt
23
= 2( x 2 + y 2 )( x 2 + y 2 − 1) ‹ 0 para todo (x, y) tal que
equilíbrio (0,0) é AE no interior do círculo unitário.
x 2 + y 2 < 1. Portanto o ponto de
6. Conjuntos invariantes
Veremos agora o conceito de conjuntos invariantes, especialmente úteis quando o sistema
não tem ponto de equilíbrio.
Definição
(6.1)
Um conjunto G é dito um conjunto invariante para um sistema dinâmico se qualquer
ponto x de uma trajetória do sistema que esteja em G, a trajetória permanecer em G.
Um ponto de equilíbrio único de um sistema é o exemplo mais simples de um conjunto
invariante de um sistema dinâmico. Se um sistema tiver vários pontos de equilíbrio, o
conjunto destes pontos é um conjunto invariante.
Exemplo (Um ciclo limite):
(6.2)
Seja o sistema, com equações ligeiramente diferentes do exemplo anterior:
dx(t )
dy (t )
= y + x(1 − x 2 − y 2 ) ,
= − x + y (1 − x 2 − y 2 ) .
(6.3)
dt
dt
Tal como no exemplo anterior, é fácil verificar que (x, y) = (0, 0) é um ponto de equilíbrio.
Mas observe-se também que se x 2 + y 2 = 1 , as equações se tornam
dx(t )
dy (t )
= y,
= − x . Ora,
dt
dt
⎡ dx(t ) ⎤
⎥
T ⎢
[ x, y ] ⎢ dydt(t ) ⎥ = xy − yx = 0 . Ou seja, os vetores do estado e velocidade do estado são
⎢
⎥
⎣⎢ dt ⎦⎥
ortogonais para todo t. E isto define um círculo no espaço de estado e trata-se do círculo de
raio unitário, pois x 2 + y 2 = 1 . Este é pois um conjunto invariante: se o estado lá estiver, lá
fica. A seguir, temos:
Teorema dos conjuntos invariantes
(6.4)
Seja um sistema dinâmico e seja V(x) uma função escalar contínua (e também com
derivadas parciais contínuas se se tratar de sistemas de tempo contínuo). Seja Ωs a região
em que V(x) < s . Suponha que Ωs seja limitada e que, dentro de Ωs tenhamos ∆V(x(t))
dV ( x(t ))
≤ 0 no caso de sistema de tempo discreto e
≤ 0 no caso de sistema de tempo
dt
contínuo ao longo de qualquer trajetória do sistema. Seja S o conjunto de pontos dentro de
dV ( x(t ))
Ωs tal que ∆V(x(t)) = 0 (
= 0, respectivamente) e seja G o maior conjunto
dt
invariante dentro de S. Então toda trajetória em Ωs tende para G.
24
Prova:
dV ( x(t ))
, respectivamente) implicam que V(x) é
dt
uma função que não cresce com o tempo quando o estado percorre sua trajetória.
Conseqüentemente, se o estado iniciar sua trajetória dentro de Ωs , aí permanecerá. Mas
como Ωs é limitada, então V(x) é limitada por baixo (pois é contínua) e então tende no
dV ( x(t ))
, respectivamente) tende para
limite para um valor finito e, portanto, ∆V(x(t)) (e
dt
zero, donde a trajetória do estado tende para S. Seja Г o conjunto limite de pontos para o
qual a trajetória tende quando t → ∞ . Pode-se provar (usando técnicas além do escopo
deste texto) que Г contém pelo menos um ponto e é um conjunto invariante. E é claro, da

definição que Г ⊆ G .
A condição sobre
∆V(x(t)) (e sobre
Este teorema é um resultado extremamente poderoso para análise de sistemas dinâmicos.
Observe-se que ele contém o teorema original da estabilidade de L como um caso particular
Exemplo (continuação do exemplo (5.12): pêndulo)
Vimos que, usando como função de L a soma das energias cinética e potencial, obtemos
dV (θ , ω )
= − kMRω 2 . Como vimos, com esta função não é possível provar a estabilidade
dt
assintótica usando o teorema da estabilidade de L. Entretanto, usando o teorema anterior,
dV (θ , ω )
= 0 temos ω = 0, que define o conjunto invariante. Mas se isto é verdade
com
dt
para todo t neste conjunjto, então temos
dω (t )
= 0 . Mas a segunda equação de (5.13) é
dt
dω (t )
g
k
= − senθ (t ) − ω (t ) .
dt
R
R
Então senθ(t) = 0 e portanto θ = 0 ou θ = π, que são os dois pontos de equilíbrio.
Mas, como vimos, usando o primeiro método de L. o segundo ponto de equilíbrio é
instável, enquanto que o primeiro é estável. Então acabamos de provar, usando o teorema
dos conjuntos invariantes, que o ponto de equilíbrio estável é assintoticamente estável,
usando a primeira função de L proposta, que é a soma das energias cinética e potencial.
Exemplo:
(6.5)
Re-examinemos o exemplo (6.2) à luz do teorema anterior. Repetimos as equações de
definição do sistema:
dx(t )
dy (t )
(6.3 bis)
= y + x(1 − x 2 − y 2 ) ,
= − x + y (1 − x 2 − y 2 )
dt
dt
Seja a função V ( x, y ) = (1 − x 2 − y 2 ) 2 . Então,
dV ( x, y )
dx
dy
= −2(1 − x 2 − y 2 )2( x + y )
dt
dt
dt
= −4(1 − x 2 − y 2 ){x[ y + x(1 − x 2 − y 2 )] + y[− x + y (1 − x 2 − y 2 )]}
= −4( x 2 + y 2 )(1 − x 2 − y 2 ) 2
25
dV ( x, y )
= 0. E isto implica
dt
x 2 + y 2 = 0 ⇒ x = y = 0 (ponto de equilíbrio) ou
1 − x 2 − y 2 = 0, ou seja, x 2 + y 2 = 1.
(6.6.)
Analisemos o ponto de equilíbrio utillizando o primeiro método de L.
T
Seja X = [ x, y ] . f é um vetor constituído a partir de (6.3 bis). Obtemos o jacobiano
Ora, usando o teorema anterior,
⎤
⎡1 − 3 x 2 − y 2
1 + x ( −2 y )
1 − 2 xy ⎤
∂f ⎡1 − x 2 − y 2 + x(−2 x)
=
. E no
=⎢
⎢
⎥
2
2
2
2⎥
∂X ⎣
1 − x − y + y ( −2 y ) ⎦
−1 + y (−2 x)
⎣ −1 − 2 xy 1 − x − 3 y ⎦
ponto de equilíbrio,
λ − 1 −1
⎡ 1 1⎤
∂f
=
=:
A . E portanto, λ I − A =
= λ 2 − 2λ + 2 .
⎢
⎥
λ −1
1
∂X (0,0)
⎣ −1 1⎦
Conseqüentemente, o ponto de equilíbrio é instável
E por outro lado, o círculo unitário, dado acima (6.6) de acordo com o teorema (6.4) é um
conjunto invariante para o qual convergem todas as trajetórias do sistema. Ver figura 7.
Figura 7
7. Uma função de Lyapunov integral
Um caso particular, bastante interessante, de função de L é a função integral, definida a
seguir. É usada para sistemas de tempo contínuo, que satisfazem a certas condições, a
saber,
dx(t )
= f(x(t)),
(7.1)
dt
uma função escalar.
A função f(x) satisfaz às seguintes propriedades:
(7.2)
(1) f(x) é contínua,
(2) x f(x) < 0 para todo x ≠ 0,
∞
(3) − ∫ f ( x)dx = ∞ ,
0
∫
0
−∞
f ( x)dx = ∞ .
26
Observe-se que das duas primeiras propriedades conclui-se que f(0) = 0 . Mais ainda, f(x)
é uma curva de 2º. e 4º. quadrantes.
É claro que a origem, isto é, x = 0, é o único ponto de equilíbrio, porque f(x) = 0 ⇔ x =
0.
x
Definamos V(x) = − ∫ f (σ )dσ .
(7.3)
0
É claro que esta função é contínua e com derivada contínua. É claro também que V(x) > 0
para todo x ≠ 0 e tem seu mínimo em x = 0. Ora,
dV ( x) dV ( x)
=
f ( x(t )) = − f ( x) 2 < 0 para todo x ≠ 0, portanto o ponto de equilíbrio é AE.
dt
dx
Mais ainda, tendo em vista que V(x) → ∞ quando x → ∞ , conclui-se que o ponto de
equilíbrio é GAE.
Exemplo
Seja o sistema dado por
dx(t )
= tanh( x) − x . A função tanh(x) é vista na figura abaixo
dt
(7.4)
Figura 8
Ora,
27
f(x):= tanh( x) − x =
e x − e− x
df ( x) (e x + e − x ) 2 − (e x − e − x ) 2
x
=
−1
−
.
E,
portanto,
dx
e x + e− x
(e x + e − x ) 2
= −
(e x − e − x ) 2
.
(e x + e − x ) 2
df ( x)
df ( x)
< 0 para todo x ≠ 0,
= 0.
dx x =0
dx
Donde se conclui que f(x) está no 2º. e 4º. quadrantes, uma conclusão a que poderíamos ter
chegado por simples inspeção a partir da figura 8. Portanto podemos aplicar o resultado
acima, para concluir que o ponto de equilíbrio é GAE.
Donde se vê que
8. Uma função de Lyapunov quadrática para sistemas lineares
Sejam as variáveis x1 , x2 ,....xn .
Por função quadrática destas variáveis, entendemos
V(x) = p11 x12 + p12 x1 x2 + .... + p1n x1 xn
+ p21 x2 x1 + p22 x22 .... + p2 n x2 xn
..........................................
..............................................
+ pn1 xn x1 + pn 2 xn x2 .... + pnn xn 2 .
Seja pij = p ji =
(8.1a)
pij + p ji
. Portanto, sem perda de generalidade, podemos redefinir os pij ,
2
de modo que pij = p ji e, conseqüentemente, podemos escrever a forma quadrática como
V(x) = xT P x, onde P é uma matriz simétrica, isto é
⎡ p11
⎢p
V(x) = ⎢ 12
⎢ .....
⎢
⎣ p1n
Exemplo:
p1n ⎤
p22 ..... p2 n ⎥⎥
.
..... ..... ..... ⎥
⎥
p2 n ..... pnn ⎦
p12
.....
(8.1b)
(8.2)
⎡1 1⎤ ⎡ x1 ⎤
V( x1 , x2 ) = x12 + 2 x1 x2 + x22 = [ x1 , x2 ] ⎢
⎥ ⎢ ⎥.
⎣1 1⎦ ⎣ x2 ⎦
(8.3)
Definição
Dizemos que uma forma quadrática xT P x, sendo P uma matriz simétrica, é positiva
semi-definida se xT P x ≥ 0 para todo x. Ela será positiva definida se xT P x > 0 para
todo x ≠ 0
Exemplo
(8.4)
28
( x1 − x2 ) 2 é positiva semi-definida, enquanto que x12 + x22 é positiva definida
Definição
(8.5)
Se uma forma quadrática xT P x for positiva semi-definida, dizemos que a matriz simétrica
P que lhe é associada é positiva semi-definida. Se xT P x for positiva definida, a matriz
associada será positiva definida.
É claro que a forma quadrática fica univocamente determinada pela sua matriz associada.
Ora, como sabemos da álgebra linear, os auto-valores de uma matriz simétrica são números
reais. Mais ainda, se a matriz for simétrica, ela é diagonalizável. Donde concluímos:
Fato
(8.6)
Uma matriz simétrica é positiva semi-definida se só se todos os seus auto-valores forem
não-negativos. Ela será positiva definida se só se todos os seus auto-valores forem
positivos.
Prova:
Sendo P simétrica, existe uma matriz T tal que P = T −1ΛT , onde Λ é uma matriz
diagonal. Mais ainda, sendo P simétrica, temos T −1 = T T , ou seja, a inversa é a transposta
da matriz. Então, xT Px = xT T T ΛTx . Definamos z = Tx. Então xT Px = zT Λ z. E isto prova
o Fato.

Segue um outro teste, mais simples, para verificar se uma matriz é positiva definida.
Definamos A como o determinante da matriz A:
Fato
(8.7)
Uma matriz simétrica P é positiva definida se só se todos os seus menores principais
forem positivos. Assim, a matriz dada em (8.1b) será positiva definida se só se
p11 p12 ..... p1n
p
p22 ..... p2 n
p11 p12
>0.
> 0, ....., 12
p11 > 0,
..... ..... ..... .....
p12 p22
p1n
p2 n .....
pnn
Observação: Este Fato (8.7) não se aplica para verificar se uma matriz é positiva semidefinida.
Após esta breve revisão de alguns elementos matemáticos, podemos agora estudar as
funções de L para sistemas lineares.
Considere-se o sistema linear
dx(t )
= A x(t)
(8.8)
dt
Claro que xe = 0 é sempre um ponto de equilíbrio deste sistema, ainda que não seja
necessariamente o único.
Associemos a este sistema a função
V(x) = xTPx,
(8.9)
29
onde P é simétrica e positiva definida. Conseqüentemente V(x) = xTPx é candidata a
função de L. Então,
dV (t ) dx(t )T
dx(t )
=
. E em vista de (8.8), omitindo o argumento (t), temos
Px(t ) + x(t )T P
dt
dt
dt
dV (t )
= xT AT Px + xT PAx = xT ( AT P + PA) x .
dt
Definamos a matriz - Q = AT P + PA
(8.10)
Então, temos
dV (t )
= - xT Q x
(8.11)
dt
Observe-se que de (8.10), a transposta de Q é ela mesma, portanto ela é uma matriz
simétrica.
Pelo teorema de Lyapunov (5.8), sabemos que se existir Q positiva semi-definida, o ponto
de equilíbrio é E ; se existir Q positiva definida, ele é AE. Então temos:
Teorema de Lyapunov para sistemas lineares de tempo contínuo
(8.12)
Se existirem P positiva definida e Q positiva semi-definida tais que a equação (8.10) é
satisfeita, então o ponto de equilíbrio é E. Se existirem P e Q positivas definidas, então
o ponto de equilíbrio é AE.
Entretanto, o resultado logo abaixo afirma também a recíproca para o caso de ponto de
equilíbrio AE:
Teorema de Lyapunov recíproco para sistemas lineares de tempo contínuo
(8.13)
Seja A uma matriz com todos os seus auto-valores no semi-plano aberto da esquerda (ou
seja, o ponto de equilíbrio xe = 0 é AE). Seja Q uma matriz simétrica e positiva definida,
de resto qualquer. Então existe matriz P simétrica, positiva definida e única, dada por
P=
∞
∫0 e
AT t
Qe At dt .
(8.14)
Prova:
T
T
T
T
T
d (e A t Qe At )
= AT e A t Qe At + e A t QAe At = AT e A t Qe At + e A t Qe At A .
dt
Donde,
∞
∫0
T
∞
T
d (e A t Qe At )
dt = AT ∫ e A t Qe At dt +
0
dt
∞
∫0 e
(8.14).
Mas por outro lado,
∞
∫0
T
d (e A t Qe At )
dt =
dt
∞
∫0
T
d (e A t Qe At )
=
T
AT t
Qe At dtA = AT P + PA , em vista de
∞
e A t Qe At = 0 - Q = - Q ,
0
a penúltima igualdade tendo sido obtida em vista do fato que todos os auto-valores de A
serem negativos, concluindo a prova.

30
Observe-se que, sendo o ponto de equilíbrio AE (isto é, os auto-valores de A com parte real
negativa) se escolhermos arbitrariamente P positiva definida e simétrica, não
necessariamente acharemos Q com estas características, como se vê no exemplo a seguir.
Exemplo
(8.15)
0
1
⎤
dx(t ) ⎡
=⎢
⎥ x(t ) .
dt
⎣ −2 −3⎦
Os auto-valores do sistema podem ser calculados facilmente, obtendo-se {-1, -2}, tratandose portanto de sistema AE. (Aqui o ponto de equilíbrio é único, por isso dizemos que o
sistema é AE).
Se escolhermos P = I (matriz identidade), obtemos
⎡ 0 −1⎤ ⎡ 0 2 ⎤ ⎡ 0 1 ⎤
Q = - A - AT = ⎢
⎥+⎢
⎥=⎢
⎥ , que não é uma matriz positiva definida.
⎣ 2 3 ⎦ ⎣ −1 3 ⎦ ⎣ 1 6 ⎦
O que o teorema nos garante é que escolhendo Q positiva definida, obteremos P positiva
definida a partir da equação (8.10); assim, com a matriz A acima, escolhendo Q = I,
temos de (8.10):
⎡ −1 0 ⎤ ⎡ 0 −2 ⎤ ⎡ p11 p12 ⎤ ⎡ p11 p12 ⎤ ⎡ 0 1 ⎤
⎥+⎢
⎥⎢
⎢ 0 −1⎥ = ⎢1 −3⎥ ⎢ p
⎥ ; donde, efetuando:
⎣
⎦ ⎣
⎦ ⎣ 12 p22 ⎦ ⎣ p12 p22 ⎦ ⎣ −2 −3⎦
−4 p12
p11 − 3 p12 − 2 p22 ⎤
⎡ −1 0 ⎤ ⎡
; temos 3 equações independentes e 3
⎢ 0 −1⎥ = ⎢ p − 3 p − 2 p
2 p12 − 6 p22 ⎥⎦
⎣
⎦ ⎣ 11
12
22
incógnitas, obtendo
1 ⎡5 1⎤
, que é claramente uma matriz positiva definida, em vista, por exemplo, do
P= ⎢
4 ⎣1 1⎥⎦
Fato (8.7).
O processo inverso na escolha das matrizes nos leva sempre ao resultado, de acordo com o
teorema (8.13). Mas é claro, que calcular a integral (8.14) pode ser bastante enfadonho e
trabalhoso. É muito mais fácil, usualmente, escolher arbitrariamente a matriz Q positiva
definida, a escolha mais óbvia sendo Q = I e daí calcular P através da equação (8.10).
Evidentemente é claro que podemos também (e é isso que se faz mais comumente) calcular
os auto-valores da matriz A.
Temos também a contra-partida para sistemas de tempo discreto, a saber,
x(k+1) = A x(k)
Seja a função candidata a função de L:
V(x) = xT P x,
com P uma matriz positiva definida. Ora,
∆V(x(k)) = x(k+1)T P x(k+1) – x(k)T P x(k)
= x(k)T AT P A x(k) - x(k)T P x(k)
= x(k)T (AT P A – P) x(k).
Definamos Q = P - AT P A
(8.16)
(8.17)
(8.18)
Então, temos:
31
Teorema de Lyapunov para sistemas lineares de tempo discreto
(8.19)
Se existirem P positiva definida e Q positiva semi-definida dada em (8.18), o ponto de
equilíbrio xe = 0 é E. Se existirem P e Q positivas definidas, o ponto de equilíbrio é
AE.
Observação: o autor destas linhas não conhece um teorema recíproco para sistemas de
tempo discreto, análogo ao teorema (8.13) para sistemas de tempo contínuo. Mas deve ser
fácil estabelecê-lo, substituindo-se a integral por somatório, com as devidas alterações...
9. Miscelâneas
Vamos combinar resultados obtidos nas seções anteriores no seguinte problema:
d 2 x(t )
dx(t )
+k
+ g ( x(t )) = 0 ,
(9.1)
2
dt
dt
onde k > 0 e g ( x) é contínua e satisfaz a x g ( x) > 0 para todo x ≠ 0. Destas duas
propriedades de g ( x) temos g (0) = 0.
Esta equação poderia representar um sistema massa e mola não linear.
Escrevendo esta equação no espaço de estado, temos
dx(t )
= y (t ),
(9.2)
dt
dy (t )
= − ky (t ) − g ( x(t )) .
(9.3)
dt
Tomemos a seguinte função candidata a L:
V ( x, y ) =
x
y2
+ ∫ g (σ )dσ .
0
2
É claro que esta função satisfaz às duas propriedades de candidata, tomando o ponto de
equilíbrio (x, y) = (0, 0). Ora,
dV ( x, y )
dy
dx
= y + g ( x)
= − ky 2 − yg ( x) + g ( x) y = − ky 2 ≤ 0 .
dt
dt
dt
Ou seja, provamos que o ponto de equilíbrio estudado é E, mas não provamos que seja AE,
dV ( x, y )
.
porque x pode ser qualquer sem afetar
dt
Mas apliquemos o teorema dos conjuntos invariantes (6.4):
dV ( x, y )
dy
= 0 se só se y (t ) = 0 para todo t. Mas isto implica
= 0 para todo t. Disto,
dt
dt
da segunda equação de estado (9.3) e de g (0) = 0, concluímos que (x, y) = (0, 0) é o
único conjunto invariante e portanto o ponto de equilíbrio é AE.
É fácil confirmar este resultado usando o primeiro método de L (linearização). Com efeito,
seja X := [x , y]T e seja f o vetor cujas componentes sejam o lado direito das equações
(9.2) e (9.3). Então,
32
⎡ 0
∂f ( X )
= ⎢ ∂g
∂X (0,0) ⎢ −
⎢⎣ ∂x x =0
1⎤
⎥.
−k ⎥
⎥⎦
O polinômio característico desta matriz é
λ 2 + kλ +
∂g
∂x
. Mas da definição de g(x), é
x =0
claro que todos os coeficientes do polinômio característico são maiores que zero e, portanto
o ponto de equilíbrio é AE.
Método de Krasovskii
Considere o sistema
dx(t )
= f(x(t))
dt
(9.4)
(9.5)
Suponha que xe =0 seja o único ponto de equilíbrio do sistema e que o jacobiano
∂f ( x)
∂x
exista na região de interesse.
2
⎛ dx ⎞
Tomemos como função candidata V(x) = ⎜ ⎟ = f(x(t))T f(x(t)).
⎝ dt ⎠
T
dV ( x) df ( x)T
df ( x) ⎛ ∂f ( x)
∂f ( x)
⎞
Ora,
=
=⎜
f ( x) ⎟ f ( x) + f ( x)T
f ( x)
f ( x ) + f ( x )T
dt
∂x
dt
dt
⎝ ∂x
⎠
T
⎡
∂f ( x) ⎤
T ⎛ ∂f ( x ) ⎞
= f ( x ) ⎢⎜
+
⎥ f ( x) .
⎟
∂x ⎦⎥
⎣⎢⎝ ∂x ⎠
⎡⎛ ∂f ( x) ⎞T ∂f ( x) ⎤
Portanto, se - ⎢⎜
⎥ for positiva semi-definida, o sistema é E; se for positiva
⎟ +
∂x ⎥⎦
⎢⎣⎝ ∂x ⎠
definida, o sistema é AE; se for negativa definida, o sistema é I, como veremos no teorema
logo abaixo. (Observe-se que uma matriz simétrica é negativa definida se todos os seus
auto-valores forem negativos). Daremos um exemplo um pouco mais adiante.
Vejamos agora um teorema de L relativo à instabilidade:
Teorema da instabilidade de Lyapunov
(9.6)
1. Seja o sistema de tempo discreto x(k+1) = f(x(k)) e seja xe um ponto de equilíbrio
deste sistema. Suponha que exista uma função contínua V(x), definida em Ω com V(xe) =
0 e tal que V(x) assuma valores positivos em pontos arbitrariamente próximos de xe .
Suponha também que ∆ V(x(k)) = V(x(k+1)) - V(x(k)) > 0 para todo x ≠ xe. Então xe é
um ponto de equilíbrio instável.
dx(t )
= f(x(t)). Suponha que exista uma função
2. Seja um sistema de tempo contínuo
dt
V(x) contínua e continuamente diferenciável com V(xe) = 0 e tal que V(x) assuma valores
33
positivos em pontos arbitrariamente próximos de xe . Suponha também que
dV ( x(t ))
> 0
dt
para todo x ≠ xe. Então xe é um ponto de equilíbrio instável.
Prova: A prova deste teorema se baseia diretamente na definição de instabilidade segundo
L. Com efeito: se o estado estiver num ponto onde V(x) > 0, sua trajetória não se
aproximará do ponto de equilíbrio, porque V(x) aumentará tanto no instante seguinte
(sistema de tempo discreto) como num instante subseqüente arbitrariamente próximo
(sistema de tempo contínuo) e isto prova a instabilidade do ponto de equilíbrio. Para
entender a conclusão, é preciso lembrar que instabilidade não significa que todo ponto na
vizinhança do ponto de equilíbrio se afaste dele, basta que haja uma parte da vizinhança
onde isto ocorra, que é o que acontece com as hipóteses do teorema.
Exemplo
(9.7)
Voltemos ao exemplo (6.5) que nos levou ao ciclo limite e cujas equações repetimos
dx(t )
dy (t )
= y + x(1 − x 2 − y 2 ) ,
= − x + y (1 − x 2 − y 2 ) .
dt
dt
Seja
V ( x, y) = x 2 + y 2 . Claro que esta função satisfaz às condições do teorema acima. Ora,
dV ( x, y )
dx
dy
= 2 x + 2 y = 2 x[ y + x(1 − x 2 − y 2 )] + 2 y[− x + y (1 − x 2 − y 2 )]
dt
dt
dt
2
2
= 2 x (1 − x − y 2 ) + 2 y 2 (1 − x 2 − y 2 ) = 2( x 2 + y 2 )(1 − x 2 − y 2 ) .
dV ( x, y )
É então claro que
> 0 para todo ( x, y ) tal que x 2 + y 2 < 1, e portanto o ponto de
dt
equilíbrio é instável, o que já tinha sido estabelecido implicitamente na conclusão a respeito
do ciclo limite.
Exemplo
(9.8)
Este exemplo é tirado do livro de Vidyasagar:
dx
dy
= − y − y2 .
= x − y + xy ,
dt
dt
Vejamos quais são os pontos de equilíbrio:
x − y + xy = 0, donde x(1+y) = y; − y − y 2 = 0, donde y(1+y) = 0. Ora, desta última, se y
≠ 0, concluímos que y = -1; mas este valor substituído na primeira nos leva à divisão por
zero. Então temos y = 0; e novamente usando a primeira equação temos também x = 0, ou
seja, a única solução para este sistema de equações é (x, y) = (0, 0), o único ponto de
equilíbrio do sistema.
Seja a função V ( x, y ) = (2 x − y )2 − y 2 = 4 x 2 − 4 xy = 4x(x-y).
Então V ( x, y ) > 0 se {x > 0 , x > y} ou {x < 0, x < y}.
(9.8*)
Por outro lado,
dV ( x, y )
dx
dx
dy
dx
dy
= 4(2 x − y − x ) = 4(2 x − y ) − 4 x
dt
dt
dt
dt
dt
dt
2
= 4 (2 x − y ) (x – y + xy) −4 x(− y − y )
34
= 4(2 x 2 − 2 xy + 2 x 2 y − xy + y 2 − xy 2 + xy + xy 2 ) = 4( x 2 + x 2 − 2 xy + y 2 + 2 x 2 y )
= 4( x − y )2 + 4 x 2 (1 + 2 y ) .
dV ( x, y )
É claro que se 1 + 2 y > 0, ou seja, y > - ½ , com qualquer x, teremos
> 0.
dt
dV ( x, y )
Alternativamente, se x ≠ y, com y ≥ - ½ , teremos também
> 0,
dt
ficando assim definida a região de instabilidade, em vista de (9.8*) (ver na figura 9 abaixo
a região hachurada)
Figura 9
35
10. Problemas resolvidos e para resolver
Exercício
(10.1)
Considere o sistema
dy
dx
= g1 ( x) + g 2 ( y ) ,
= x − ay
dt
dt
Utilizando o método de Krasowskii (9.4), determinar condições para estabilidade
assintótica.
Para aplicarmos o Método de Krasowskii, temos que supor que (0, 0) seja o único ponto de
equilíbrio, ou seja, g1 (0) + g 2 (0) = 0.
dg1
dg 2
.
e
Além disso, o jacobiano dado abaixo tem que existir, ou seja, devem existir
dy
dx
⎡x⎤
⎡ g ( x) + g 2 ( y ) ⎤
Ora, denotando f ( x, y ) = ⎢ 1
e X = ⎢ ⎥ , temos
⎥
x − ay
⎣ y⎦
⎣
⎦
⎡ dg1
∂f ⎢
= dx
∂X ⎢
⎢⎣ 1
dg
dg
⎡
⎤
−2 1 − 2 − 1⎥
dg 2 ⎤
T
⎢
dx
dy
⎪⎧ ∂f ⎛ ∂f ⎞ ⎪⎫ ⎢
⎥.
dy ⎥ , e portanto, − ⎨
+⎜
=
⎬
⎟
⎥
dg
X
X
∂
∂
⎢
⎥
⎝
⎠
2
⎪
⎪
⎩
⎭ −
2a ⎥
−a ⎥⎦
⎢ dy − 1
⎣
⎦
dg
Então, se −2 1 > 0 e
dx
2
dg
dg ⎛ dg ⎞
−4a 1 - ⎜ 2 ⎟ -2 2 -1 > 0, o sistema é AE.
dx ⎝ dy ⎠
dy
Exercício
No exercício anterior, consideremos
y2
g1 ( x) = − x3 − x , g 2 ( y ) =
, a = 1.
2
Vemos que o ponto de equilíbrio é (0, 0) e as derivadas
(10.2)
(10.3)
dg1
e
dx
dg 2
existem.
dy
Efetivamente, temos
⎧⎪ ∂f ⎛ ∂f ⎞T ⎫⎪ ⎡ −2(−3x 2 − 1) − y − 1⎤
dg1
dg 2
2
+⎜
= -3x – 1 ,
= y, − ⎨
⎥
⎟ ⎬=⎢
dx
dy
2 ⎦
⎩⎪ ∂X ⎝ ∂X ⎠ ⎭⎪ ⎣ − y − 1
Então, aplicando o método de Krasowskii, temos as condições suficientes para estabilidade
assintótica
6 x2 + 2 > 0 , que é satisfeita para todo x;
−4(−3 x 2 − 1) − y 2 − 2 y − 1 = 12 x 2 + 4 − ( y + 1) 2 > 0, ou ainda, ( y + 1) 2 < 12 x 2 + 4 .
Exemplo: o modelo predador / presa
(10.4)
Um modelo (simplificado) do problema predador / presa é dado pelas equações de LotkaVolterra:
dp(t )
(10.5a)
= ap (t ) − bp (t )r (t )
dt
36
dr (t )
(10.5b)
= −cr (t ) + dp(t )r (t ) ,
dt
onde p(t ) e r (t ) são as populações de predadores e de presas, respectivamente. As
constantes a, b, c, d são todas positivas.
Calculemos os pontos de equilíbrio:
ape − bpe re = 0, −cre + dpe re = 0; ou seja,
pe (a − bre ) = 0 , re (−c + dpe ) = 0 .
É claro que um ponto de equilíbrio é ( pe , re ) = (0, 0) e o outro é ( pe , re ) = (c/d , a/b).
Vamos “normalizar” as variáveis. Omitindo o argumento (t), definamos
d
b
cx
ay
.
(10.6)
x = p , y = r ; ou seja, p = , r =
d
c
a
b
Substituindo p e r nas equações (10.5), obtemos
c dx
c
bc a
a dy
a
c a
= a x− x y,
= −c y + d x y .
d dt
d
d b
b dt
b
d b
Multiplicando a primeira por d/c e a segunda por b/a, obtemos
dx
(10.7a)
= ax(1 − y ) ,
dt
dy
= −cy (1 − x) ,
(10.7b)
dt
cujos pontos de equilíbrio são (0, 0) e (1, 1).
É claro que o primeiro ponto de equilíbrio é instável, bastando usar a definição: x cresce
exponencialmente se x › 0 e y ‹ 1 .
Para estudar o outro ponto de equilíbrio, temos
dy
dt = −cy (1 − x) , e portanto,
dx
ax(1 − y )
dt
dy
dx
ax(1 − y ) = −cy (1 − x) . Ou seja,
dt
dt
dy
dy
dx
dx
= −cy + cyx ;
ax − axy
dt
dt
dt
dt
Multiplicando por -1 e dividindo tudo por xy (diferente de zero em (1, 1)), temos
dy
dx
dy
dx
dt
−a
+ a − c dt + c = 0 .
y
dt
x
dt
Integrando cada parcela em relação a t, obtemos
cx − c log x + ay − a log y = log k ,
(10.8)
onde “log” é o logaritmo neperiano e k é uma constante.
Definamos
V(x, y) = cx − c log x + ay − a log y = c( x − log x) + a ( y − log y )
(10.9)
dV ( x, y )
De (10.8) e (10.9) é claro que
= 0 e portanto V(x, y) é uma “constante de
dt
movimento”, isto é, o estado fica na curva definida por V(x, y) = K (= log k ), uma
constante.
37
Na figura abaixo as curvas V , que são fechadas, para diversos valores de k.
É interessante observar que V é uma função de L. Com efeito, para calcular seu valor
mínimo, temos
∂V
a
∂V
c
= a − = 0 e portanto y = 1.
= c − = 0 e portanto temos x = 1;
∂y
y
∂x
x
Para verificar se este ponto estacionário é de fato ponto de mínimo (e não de máximo, ou de
inflexão), temos que verificar as derivadas segundas:
∂ 2V
∂ 2V
∂ 2V
c
∂ 2V
a
=
=0;
= 2;
= 2.
2
2
∂x∂y ∂y∂x
∂x
x
y
∂y
Então temos
⎡ ∂ 2V
∂ 2V ⎤
⎢ 2
⎥
∂x∂y ⎥
⎡1 0 ⎤
⎢ ∂x
=
⎢ 0 1 ⎥ , que é uma matriz positiva definida e, portanto (1, 1) é
⎢ ∂ 2V
∂ 2V ⎥
⎣
⎦
⎢
2 ⎥
⎣ ∂y∂x ∂y ⎦ (1,1)
realmente um ponto de mínimo de (10.9). E como vimos que
dV ( x, y )
= 0 , a função é
dt
realmente de L. e o ponto de equilíbrio é estável.
Figura 10
Exemplo (O modelo predador / presa com super-população de predadores)
(10.10)
Consideremos o problema anterior com termo adicional de retardamento no crescimento da
população de predadores como efeito da super-população dos mesmos:
38
dp
dr
(10.11)
= ap − bpr − ep 2 ;
= −cr + dpr
dt
dt
Como se vê, a diferença com relação ao problema anterior é a introdução de um terceiro
termo na primeira equação.
Os pontos de equilíbrio são dados por
ap − bpr − ep 2 = (a − br − ep ) p = 0 ; −cr + dpr = (−c + dp)r = 0 .
Donde se vê que um ponto de equilíbrio é (0 ,0) e o outro é dado por
c da − ec
) . E isto implica da > ec.
a − br − ep = 0; −c + dp = 0. Donde se tem o ponto ( ,
d
bd
Tal como no exemplo anterior, vamos normalizar as equações em vista deste ponto de
equilíbrio, redefinindo as variáveis:
d
bd
c
da − ec
(10.11*)
x= p; y=
r , ou seja, p = x , r =
y.
c
da − ec
d
bd
Substituindo na primeira de (10.11), temos
c dx
c
bc da − ec
c2
= a x− x
y − e 2 x 2 , ou seja, multiplicando por d/c:
d dt
d
d
bd
d
dx
da − ec
c 2
= ax −
(10.12a)
xy − e x .
dt
d
d
ec
ec
e β = , vamos mostrar que
Ora, com α = a −
d
d
dx
(10.12b)
= α x(1 − y ) + β x(1 − x) .
dt
Com efeito, substituindo, temos
dx ⎛
ec ⎞
ec
ec
ec 2
⎛ da − ec ⎞ ⎛ da − ec ⎞
= ⎜ a − ⎟ x(1 − y ) + x(1 − x) = ⎜
⎟ x−⎜
⎟ xy + x − x , que é igual
dt ⎝
d ⎠
d
d
d
⎝ d ⎠ ⎝ d ⎠
a (10.12a), após simplificações óbvias.
Por outro lado, da segunda equação de (10.11), com (10.11*), temos
c ⎛ da − ec ⎞
bd
⎛ da − ec ⎞ dy
⎛ da − ec ⎞
= −c ⎜
,
⎜
⎟
⎟ y + d x⎜
⎟ y , ou seja, multiplicando por
d ⎝ bd ⎠
da − ec
⎝ bd ⎠ dt
⎝ bd ⎠
temos
dy
(10.12c)
= −cy (1 − x) .
dt
Definamos a função
(10.13)
V ( x, y ) = cx − c log x + α y − α log y = c( x − log x) + α ( y − log y ) ,
que é idêntica a (10.9), a menos de α em vez de a. Esta função tem, como já vimos, o
mínimo em (1 , 1). Ora, em vista de (10.12b) e (10.12c), temos
dV ( x, y )
dx c dx
dy α dy
=c −
+α
−
dt
dt x dt
dt y dt
c
cα y
= c(α x(1 − y ) + β x(1 − x)) − (α x(1 − y ) + β x(1 − x)) − cα y (1 − x) +
(1 − x)
x
y
= cαx – cαxy + cβx - cβx2 – cα + cαy – cβ + cβx – cαy + cαxy + cα - cαx
39
(10.14)
= cβx(1 – x) – cβ(1 – x) = −cβ (1 − x) 2 ≤ 0.
Como V tem o mínimo no ponto de equilíbrio, e é contínua e continuamente diferenciável,
concluímos que é uma função de L, em vista de (10.14). Portanto o ponto de equilíbrio é E.
dV ( x, y )
Mas
= 0 se só se x = 1. Mas da equação (10.12b) vemos que com x = 1,
dt
dx
≠ 0, ou seja, não haveria
chegaríamos a uma contradição se y ≠ 1, pois teríamos
dt
conjunto invariante. Então o conjunto invariante é o ponto (1, 1) e, conseqüentemente, este
ponto de equilíbrio é AE, supondo, claro, que x e y permaneçam positivos.
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
A seguir temos alguns exercícios dados em provas nos anos anteriores:
1. Achar o(s) ponto(s) de equilíbrio e estudar a estabilidade dos seguintes sistemas pelo 1º. método
de Lyapunov (linearização) :
a) x1(k+1) = 2x1(k)2 + 3x2(k)3 , x2(k+1) = x1(k) + x2(k)
b) MR d2 θ(t) = - Mg sen θ(t) - Mk dθ(t)
dt2
dt
(A equação acima é a do pêndulo com atrito, onde θ(t) é o ângulo que o pêndulo faz com a
vertical. Definindo a velocidade angular, escrever duas equações de primeira ordem e resolver o
problema)
2. Achar o(s) ponto(s) de equilíbrio e estudar a estabilidade dos seguintes sistemas pelo método
direto de Lyapunov. Dizer para que valores de x, y o sistema é estável ou assintoticamente estável,
se for o caso.
a) d2x(t) + ε (x2 – 1) dx(t) + x(t) = 0, com ε ‹ 0 . (Esta e’ a equação de van der Pol).
dt2
dt
(Sugerida a função x2 + y2 para candidata a função de Lyapunov)
b) dx(t) = y(t) + x(t)[ 1 - x(t)2 - y(t)2 ]
dt
dy(t) = -x(t) + y(t)[ 1 - x(t)2 - y(t)2 ]
dt
(Sugerida a função x2 + y2 para candidata a função de Lyapunov)
3. Achar o(s) ponto(s) de equilíbrio e estudar a estabilidade / instabilidade do seguinte sistema pelo
método direto de Lyapunov. Sugestão: V = (x12 + x22) / 2
dx1(t) = -x1(t) - x2(t) ; dx2(t) = x1(t) - x2(t)3 + 3x2(t)2 - 3x2(t)
dt
dt
4.Estude o sistema abaixo no ponto (0,0) utilizando a função V = (x2 + y2) / 2. Dá para concluir
que o sistema é estável ou instável?
dx(t) = x(t)3 - y(t)2 ; dy(t) = y(t)3 - x(t)y(t)
dt
dt
5. Um circuito RLC tem duas resistências, sendo que uma delas é não linear. As equações
do circuito com tensão de entrada nula são:
40
dy = x - y3 + 3y2 - 3y ,
dx = -x - y ;
dt
dt
onde x é a tensão do capacitor e y é a corrente no indutor. Determinar os pontos de
equilíbrio do sistema e estudar a estabilidade do mesmo, utilizando os métodos indireto e
direto de Lyapunov. Sugere-se a função de Lyapunov padrão.
dx = - x3 + sen4x .
dt
Achar um ponto de equilíbrio e estudar sua estabilidade pelos métodos indireto e direto
de Lyapunov. Função de Lyapunov sugerida: padrão.
6. Considere o sistema
dx(t )
dy (t )
= e x (t ) − 1 . Determine todos os
= sen( x(t ) + y (t )) ;
dt
dt
pontos de equilíbrio e os classifique do ponto de vista da estabilidade, usando o 1º. Método
de Lyapunov (Linearização).
7. Considere o sistema:
dx(t )
dy (t )
= − x(t ) + y (t )2 ;
= − y (t )( x(t ) + 1 ). Estudar a
dt
dt
estabilidade da origem (isto é, do ponto (0,0)) pelo 1º. e pelo 2º. métodos de Lyapunov.
Função sugerida: V ( x, y ) = x 2 + y 2 .
8. Considere o sistema:
x(k )
. Achar os pontos de equilíbrio e estudar o problema da estabilidade
1 + x(k )
usando o primeiro método de Lypapunov (linearização).
9. x(k + 1) =
dx(t )
dy (t )
= − x(t )3 − y (t ) 2 ;
= x(t ) y (t ) − y (t )3 . Achar os ponto de equilíbrio e estudar
dt
dt
a estabilidade pelos dois métodos de Lyapunov. (Para o segundo método sugiro a função
V ( x, y ) = x 2 + y 2 ).
10.
41
Capítulo 2: Estabilidade de Sistemas Lineares Variantes no Tempo
(As notas deste capítulo estão em vários textos sobre sistemas lineares)
A estabilidade de sistemas lineares invariantes no tempo é assunto já bem dominado, tanto
pelo estudo no curso anterior, como pelas muitas referências que fizemos no capítulo
anterior, inclusive recordando parte da teoria ao tratarmos da linearização de sistemas nãolineares.
Seja observado, a propósito, que muitas vezes, ao linearizarmos sistemas não lineares,
podemos obter um sistema linear que é variante no tempo, ou seja, sistemas em que o tempo
figura explicitamente nas equações diferenciais ou de diferenças, conforme o sistema seja
de tempo contínuo, ou discreto, respectivamente.
Neste capítulo vamos estudar somente os sistemas de tempo contínuo, que são bem mais
difíceis que os de tempo discreto. Então estudaremos a estabilidade de sistemas na forma
geral
dx(t )
= A(t ) x(t ) , t ≥ t0 , x(t0 ) =: x0 , x(t ) ∈ R n
(1)
dt
É claro que xe = 0 é sempre um ponto de equilíbrio (mas não necessariamente único).
Além do mais, se A(t ) for não singular para todo t , então xe = 0 será o único ponto de
equilíbrio.
Sejam x1 (t ), x2 (t ),....., xn (t ) ∈ R n soluções linearmente independentes de (1).
Definam-se as matrizes
Ψ (t ) = ⎡⎣ x1 (t ), x2 (t ),....., xn (t )⎤⎦ ∈R nxn
(2)
Ψ (t0 ) = ⎡⎣ x1 (t0 ), x2 (t0 ),....., xn (t0 ) ⎤⎦ ∈R nxn .
(3)
Ψ (t ) é chamada matriz fundamental. Por hipótese, Ψ (t ) deve ser não singular para todo
t.
De (1) e (2) é claro que
d Ψ (t )
= A(t )Ψ (t ) .
dt
Definamos
Φ (t , t0 ) = Ψ (t )Ψ −1 (t0 )
Φ (t , t0 ) é chamada matriz de transição de estado.
(4)
(5)
(6)
Fato:
x (t ) = Φ (t , t0 ) x0
Prova:
Diferenciando a expressão acima, temos
dx(t ) d Φ(t , t0 )
d Ψ (t ) −1
x0 =
Ψ (t0 ) x0 = A(t )Ψ (t ) Ψ −1 (t0 ) x0 = A(t )Φ (t , t0 ) x0 = A(t ) x(t ) ,
=
dt
dt
dt
em vista de (5), (4) e novamente (5), respectivamente.

42
Fato :
d Φ (t )
= A(t )Φ (t , t0 )
dt
Prova: De (5) e de (4), respectivamente, temos
(7)
d Φ (t , t0 ) d Ψ (t ) −1
=
Ψ (t 0 )
dt
dt
= A(t )Ψ (t ) Ψ −1 (t0 ) = A(t )Φ (t , t0 )

(8)
Fatos
−1
Φ (t 0 , t ) = Ψ (t 0 ) Ψ (t ) ; Φ (t 0 , t 0 ) = Φ (t , t ) = I
Prova: imediata de (5).
Observação: Do Fato (6) eu tenho a solução de (1) para qualquer condição inicial. Mas o
problema é que para conhecer a matriz de transição de estado, eu preciso conhecer n
soluções l.i. de (1), de acordo com (5) e (2).
Exemplo
(9)
t
2t
2t
⎡e cos t ⎤
⎡ −e sent ⎤
dx(t ) ⎡ 2 −e ⎤
= ⎢ −t
⎥ e x2 (t ) = ⎢ t
⎥ são duas
⎥ x(t). Verficar que x1 (t ) = ⎢ t
dt
cos
e
1
e
sent
e
t
⎣
⎦
⎣
⎦
⎣
⎦
soluções l.i. da equação. Achar a matriz de transição de estado.
Solução:
⎡ 2 −et ⎤ ⎡e 2t cos t ⎤ ⎡ 2e 2t cos t − e2t sent ⎤ dx1 (t )
;
A(t ) x1 (t ) = ⎢ − t
⎥= ⎢ t
⎥=
⎥⎢ t
t
dt
e
e
sent
e
cos
t
e
sent
+
1
⎦ ⎣
⎦
⎣
⎦⎣
⎡ 2 −et ⎤ ⎡ −e 2t sent ⎤ ⎡ −2e 2t sent − e 2t cos t ⎤ dx2 (t )
.
A(t ) x2 (t ) = ⎢ − t
⎥⎢
⎥ =
⎥ = ⎢
dt
1 ⎦ ⎣ et cos t ⎦ ⎣ −et sent + et cos t ⎦
⎣e
Portanto,
⎡e 2t cos t −e 2t sent ⎤
Ψ (t ) = ⎢ t
⎥ ; donde obtemos
et cos t ⎦
⎣ e sent
t
2t
⎡ et0 cos t0 e 2t0 sent0 ⎤
1
1 ⎡ e 0 cos t0 e 0 sent0 ⎤
=
Ψ − 1 (t 0 ) = 3 t
⎢
⎥
⎢
⎥.
e 0 cos 2 t0 + e3t0 sen 2t0 ⎣ −et0 sent0 e 2t0 cos t0 ⎦ e3t0 ⎣ −et0 sent0 e2t0 cos t0 ⎦
E, efetuando, após algumas manipulações, obtemos
⎡ e2( t −t0 ) cos(t − t0 ) −e 2t −t0 sen(t − t0 ) ⎤
Φ ( t , t 0 ) = Ψ ( t ) Ψ −1 ( t 0 ) = ⎢ t − 2 t
⎥.
0
et −t0 cos(t − t0 ) ⎦
⎣ e sen(t − t0 )
Exemplo
(10)
ω (t ) ⎤
dx(t ) ⎡ 0
= ⎢
x(t ) ,
0 ⎥⎦
dt
⎣ −ω (t )
onde ω (t ) é uma função contínua. Verificar que uma matriz fundamental deste sistema é
43
t
⎡ cos Ω(t ) senΩ(t ) ⎤
, onde Ω(t ) = ∫ ω (τ )dτ . Calcular a matriz de transição de
Ψ (t ) = ⎢
⎥
0
⎣ − senΩ(t ) cos Ω(t ) ⎦
estado.
Solução: Omitindo o argumento (t), temos
dΩ
dΩ ⎤
⎡
cos Ω
− senΩ
⎢
dΨ
dt
dt ⎥ ⎡ −ω senΩ ω cos Ω ⎤
.
=⎢
⎥=
dΩ
d Ω ⎥ ⎢⎣ −ω cos Ω −ω senΩ ⎥⎦
dt ⎢
− cos Ω
− senΩ
dt
dt ⎦⎥
⎣⎢
Por outro lado,
ω (t ) ⎤ ⎡ cos Ω(t ) senΩ(t ) ⎤ ⎡ −ω senΩ ω cos Ω ⎤
⎡ 0
=
, conferindo.
AΨ = ⎢
0 ⎥⎦ ⎢⎣ − senΩ(t ) cos Ω(t ) ⎥⎦ ⎢⎣ −ω cos Ω −ω senΩ ⎥⎦
⎣ −ω (t )
A matriz de transição de estado é
Φ (t , t0 ) = Ψ (t ) Ψ −1 (t0 ) . Obtém-se, após algumas manipulações,
⎡ cos(Ω(t ) − Ω(t0 )) − cos(Ω(t ) + Ω(t0 )) ⎤
⎥.
⎣ − sen(Ω(t ) − Ω(t0 )) sen(Ω(t ) + Ω(t0 )) ⎦
Φ (t , t 0 ) = ⎢
Antes de enunciar e provar o primeiro teorema de estabilidade, vamos rever (ou ver pela
primeira vez para alguns) certos fatos fundamentais:
Lembramos que, dado um vetor
T
x = ⎡⎣ x1, x2 ,....., xn ⎤⎦ , as normas 1, 2 (euclideana) e ∞ são definidas da seguinte forma
n
x 1 = ∑ xi ;
1
x 2=
n
∑x
1
2
i
;
x ∞ = max xi .
i
As normas 3, 4, etc, que, efetivamente, quase nunca são usadas, são definidas analogamente
à norma 2. (Observe-se aliás que a norma 1 também é definida pelo mesmo critério)
Exemplo
x = [-3, 1, 2]T. Suas normas são:
x 1 = 3 +1 + 2 = 6; x 2 = 9 + 1 + 4 = 13 ;
(11)
x ∞ = 3.
Pode-se demonstrar que estas normas são equivalentes no seguinte sentido: as normas 1 e 2
são equivalentes se só se existirem a e b, números maiores que zero, tais que
a x 1 ≤ x ≤ b x 1 . E o mesmo com relação aos outros dois pares de normas, isto é, 1 e ∞,
2
2 e ∞.
A seguir, lembramos que a norma induzida de uma matriz é definida do seguinte modo:
Φ = sup
x ≠0
Φx
, x ∈ R n . A norma do vetor x pode ser a norma-1, norma euclideana, a
x
norma-∞, etc. Correspondentemente, teremos as normas induzidas da matriz: norma-1,
norma-2, norma-∞, etc.
Pode-se provar que
44
Φ =
sup Φx , x ∈ R n
x =1
Sejam φij os elementos da matriz nxn Φ . Então, pode-se provar que as normas induzidas
1, 2 e ∞ são dadas, respectivamente, por
n
Φ 1 = max ∑ φij ;
(12a)
Φ 2 = + λmax (ΦT Φ) ,
(12b)
j
i =1
onde λmax indica o maior auto-valor da matriz, lembrando que, sendo ΦT Φ simétrica,
seus auto-valores são reais e positivos;
n
Φ ∞ = max ∑ φij
i
(12c)
j =1
Exemplo:
⎡1 −2 ⎤
A= ⎢
⎥ . Então das expressões acima, temos
⎣1 3 ⎦
(13)
A 1 = Max(1+1, 2+3) = 5;
⎡2 1 ⎤
T
2
para o cálculo de A , temos ATA = ⎢
⎥ , e portanto, λ I − A A = λ − 15λ + 25 ,
2
1
13
⎣
⎦
donde (λ1 , λ2 ) ≈ (13,09; 1,91) e portanto A ≈ + 13, 09 ≈ 3.62;
2
A ∞ = Max(1+2, 1+3) = 4.
Agora podemos enunciar e provar o
Teorema
(14)
O ponto de equilíbrio xe = 0 de (1) é estável no instante t0 se só se existir m( t0 ) < ∞ tal
que sup Φ(t , t0 ) = m(t0 ) .
t ≥t0
Prova:
Recorda-se que xe = 0 é um ponto de equilíbrio estável em to se ∃ε > 0 , δ (t0 , ε ) > 0 tais
que tenhamos x(t0 ) < δ (t0 , ε ) ⇒ x(t ) < ε ∀t ≥ t0 .
(15)
Reportamo-nos à figura 2 do capítulo anterior, que reproduzimos abaixo. Observe-se que
não precisamos de Ro nesta definição; temos ε = R e δ = r, mas com a ressalva que a
figura 2 se refere a sistemas invariantes no tempo, enquanto que aqui δ é função de to.
(Se): Seja ε > 0. Escolho δ (t0 , ε ) =
ε
m(t0 )
. Então,
45
x(t0 ) < δ (t0 , ε ) ⇒ x(t ) = Φ (t , t0 ) x(t0 ) ≤ Φ (t , t0 ) x(t0 ) < Φ (t , t0 ) δ (t0 , ε ) ≤ m(t0 )
ε.
ε
m(t0 )
=
(Somente se): Suponha que Φ (t , t0 ) seja uma função não limitada, contradizendo o que
afirma o teorema. Seja ε > 0 e seja δ > 0 , arbitrariamente pequeno. Como Φ (t , t0 ) é não
limitada, existe t ≥ to tal que Φ (t , t0 ) >
ε
, onde δ1 < δ , δ1 > 0 .
δ1
(16)
Figura 2 bis
Seja v um vetor de norma igual a 1 e tal que Φ (t , t0 )v = Φ (t , t0 ) . Seja x(to) = δ1 v.
Então, x(t0 ) = δ1v = δ1 < δ. E isto implica
x(t ) = Φ (t , t0 ) x(t0 ) = Φ (t , t0 ) δ1v =
δ1 Φ (t , t0 ) > δ1 ε / δ1 = ε, em vista de(16), completando a prova.

Exemplo
(17)
Considere o exemplo (9). É claro que a matriz de transição de estado é ilimitada qualquer
que seja to finito e, portanto, o ponto de equilíbrio, qualquer que seja to finito, é instável.
A seguir temos o
Teorema
Com relação ao sistema (1), as três condições são equivalentes:
(i) O ponto de equilíbrio xe = 0 é assintoticamente estável em to ;
(18)
46
(ii) O ponto de equilíbrio xe = 0 é globalmente assintoticamente estável em to;
(iii) lim Φ (t , t0 ) = 0 .
t →∞
Prova: A seqüência será: (i) ⇒ (iii) ⇒ (ii) ⇒ (i).
( (i) ⇒ (iii) ): Suponha que (iii) não ocorra. Então pelo menos um elemento de Φ (t , t0 )
não tende a zero quando t → ∞. Seja φij este elemento. Escolhemos x(t0 ) = δ ej , com δ
> 0 e arbitrariamente pequeno, ej um vetor com 1 na j-ésima componente e 0 em todas
as outras. Então é claro que a i-ésima componente de x(t ) não tende a zero quando t →
∞, e portanto xe = 0 não é assintoticamente estável em to.
( (iii) ⇒ (ii) ): Sendo Φ (t , t0 ) contínua, se (iii) ocorre, conclui-se que Φ (t , t0 ) é limitada
∀t ≥ t0 e, portanto, de acordo com o teorema anterior, xe = 0 é estável em to. Seja x(t0 )
arbitrário. Ora, x(t ) ≤ Φ (t , t0 ) x(t0 ) → 0 quando t → ∞, o que prova que xe = 0 é
globalmente assintoticamente estável.
( (ii) ⇒ (i) ): óbvio.

Exemplo
(19)
No exemplo (10) acima, vemos que todos os elementos da matriz de transição de estado são
limitados, uma vez que a função cosseno o é. Portanto o ponto de equilíbrio é estável, de
acordo com o teorema (14). Mas não é assintoticamente estável, de acordo com iii) do
teorema (18).
O teorema seguinte é, de novo, sobre estabilidade.
Teorema
As duas proposições seguintes, relativas ao sistema (1), são equivalentes:
(i) O ponto de equilíbrio xe = 0 é estável em to;
(ii) O ponto de equilíbrio xe = 0 é estável em todo t1 ≥ to .
(20)
Prova:
Observe-se que Φ (t , v) = Ψ (t )Ψ −1 (τ ) Ψ (τ )Ψ −1 (v) = Φ (t ,τ ) Φ (τ , v) ; observe-se ainda que
Φ (v, τ ) = ( Φ (τ , v ) ) .
−1
Ora, se (i) ocorre, então, de acordo com o teorema (14), sup Φ(t , t0 ) < ∞ .
t ≥t0
(21)
Mas de acordo com as propriedades acima da matriz de transição de estado, temos
Φ (t , t1 ) = Φ (t , t0 )Φ −1 (t1 , t0 ) . E, portanto, Φ (t , t1 ) ≤ Φ (t , t0 ) Φ −1 (t1 , t0 ) . Mas sendo to e t1
finitos, então Φ −1 (t1 , t0 ) também o será. Em vista disto e de (21), vem sup Φ (t , t1 ) < ∞ .
t ≥t0
(ii) ⇒ (i): óbvio.

Exemplo
(22)
Voltamos novamente ao exemplo (10). Da expressão da matriz de transição de estado, fica
claro que o ponto de equilíbrio é estável para todo t1 (e não somente para t1 ≥ to).
47
Quando isto ocorre (isto é, o ponto de equilíbrio é estável para todo to ≥ 0), alguns autores,
entre os quais Vidyasagar, dizem que o ponto de equilíbrio xe = 0 é estável.
Observação: O teorema acima é específico de sistemas lineares. Ou seja, a propriedade de
Φ −1 (t1 , t0 ) ser limitada quando to e t1 o são, é específica de sistemas lineares, não sendo,
em geral, verdadeira, quando o sistema não é linear. Na realidade, a função não linear pode
nem ter inversa.
Novo conceito: estabilidade uniforme. O sistema é uniformemente estável se o δ da
definição (15) não depender de to. Formalmente:
Definição
(23)
O sistema (1) é uniformemente estável no intervalo [to, ∞) se ∃ε > 0, δ (ε ) tais que
tenhamos x(t1 ) < δ (ε ), t1 ≥ t0 ⇒ x(t ) < ε , ∀t ≥ t1 .
Observe-se que é crucial nesta definição a independência de δ com relação a t0 .
A seguir, temos
Teorema
(24)
O ponto de equilíbrio xe = 0 do sistema (1) é uniformemente estável no intervalo [0, ∞) se
só se sup m(t0 ) = sup sup Φ (t , t0 ) =: m0 < ∞ .
t0 ≥ 0
t0 ≥ 0
t ≥ t0
(O teorema afirma então que o m do teorema (14) independe de to).
Prova:
(Se): Suponha que m0 < ∞ . Escolho δ =
ε
m0
. Então, x (t ) = Φ (t , t1 ) x(t1 ) ≤ Φ (t , t1 ) x (t1 )
< Φ (t , t1 ) δ ≤ mo δ = ε, ∀t1 ≥ t0 .
(Somente se): Suponha que m(to) seja não limitada. Então pelo menos um elemento de
Seja φij (t, to) este elemento. Escolhemos
Φ (t , t0 ) não é limitado como função de to.
x(t0 ) = δ ej , com δ > 0 e arbitrariamente pequeno, ej um vetor com 1 na j-ésima
componente e 0 em todas as outras. Conseqüentemente, φij (t, to) será um dos elementos
de x(t) = Φ (t , t0 ) x(t0 ) , o qual será então não limitado como função de to.

Exemplo
(25)
Considere-se novamente o Exemplo (10). Da matriz de transição de estado, é fácil ver que
qualquer norma induzida é finita para todo t e para todo to. Assim por exemplo, a normainfinito, de acordo com (12c), é igual a 2. Conseqüentemente o ponto de equilíbrio é
uniformemente estável.
Temos a seguir dois teoremas sobre estabilidade uniforme assintótica:
48
(26)
Teorema
O ponto de equilíbrio xe = 0 do sistema (1) é uniformemente assintoticamente estável no
intervalo [0, ∞) se só se
supsup Φ(t , t0 ) < ∞ e Φ (t , t0 ) → 0 quanto t → ∞, uniformemente em to.
t0 ≥ 0 t ≥t0
Prova:
Para ser assintoticamente estável, tem que ser estável, daí a primeira afirmação do teorema,
demonstrada no teorema anterior. A segunda afirmação decorre da definição de estabilidade
assintótica: a suficiência é óbvia e a necessidade é como na prova de i) ⇒ iii) do teorema
(18).
Teorema
(27)
O ponto de equilíbrio xe = 0 do sistema (1) é uniformemente assintoticamente estável no
intervalo [0, ∞) se só se existirem m, λ > 0 tais que
Φ(t , t0 ) ≤ me− λ (t −to ) , ∀t ≥ t0 , ∀t0 ≥ 0 .
(Alguns autores chamam de exponencialmente estável os sistemas que satisfazem à
condição deste teorema)
Prova:
(Se): se a condição do teorema for satisfeita, as duas condições do teorema anterior (26)
também serão.
(Somente se): a prova é meio longa, ainda que não difícil: ver a 2ª. edição do livro de
Vidyasagar.

Seguem-se exercícios em provas dadas em anos anteriores:
1. Seja o sistema
dx(t ) ⎡0 0 ⎤
=⎢
⎥ x(t), t ≥ t0 , x(t0) conhecido.
dt
⎣ t 0⎦
t2 ]T são duas soluções linearmente independentes do sistema.
Verificar que [0 1]T e [2
Calcular a matriz de transição de estado e, a partir daí, verificar se o sistema é estável.
2. Mesmo problema, com
dx(t ) ⎡0 sent ⎤
x(t), t ≥ t0 , x(t0) conhecido.
=⎢
0 ⎥⎦
dt
⎣0
Verificar que [1
0]T e [-cos t
1]T são soluções lin. ind. do sitema, etc
3. Considere o seguinte sistema linear variante no tempo:
[ x(t ), y(t )]
T
T
dx(t )
dy (t )
= ty (t ) ,
= y (t ) ,
dt
dt
T
= ⎡⎣tet − et + 2, et ⎤⎦ e ⎡⎣ −tet + et − 1, −et ⎤⎦ são soluções
do sistema. Calcule a matriz de transição de estado com t0 = 0 e verifique se o sistema é
ou não estável, justificando a resposta.
t ≥ 0 . Verificar que
49
⎡ dx(t ) ⎤
⎢ dt ⎥ ⎡0 0 ⎤ ⎡ x(t ) ⎤
⎡1 ⎤
⎡0 ⎤ ⎡ 2 ⎤
4. Seja o sistema ⎢
, t0 = 0, x(0) = ⎢ ⎥ . Verificar que ⎢ ⎥ e ⎢ 2 ⎥ são
⎥=⎢
⎥
⎢
⎥
⎣ 1 ⎦ ⎣t ⎦
⎣ 2⎦
⎢ dy (t ) ⎥ ⎣ t 0 ⎦ ⎣ y (t ) ⎦
⎢⎣ dt ⎥⎦
duas soluções linearmente independentes do sistema. Calcular a matriz de transição de estado, achar
x(t ) com x(0) dado acima e estudar a estabilidade do sistema com relação ao ponto de equilíbrio
⎡0 ⎤
xe = ⎢ ⎥ .
⎣0 ⎦
Capítulo 3: O Problema de Lur’e (Problema da Estabilidade Absoluta)
(As notas deste capítulo são baseadas essencialmente no excelente livro de M. Vidyasagar,
“Nonlinear Systems Analysis”)
1. Introdução
Neste capítulo voltaremos ao problema da estabilidade de sistemas não lineares, mas não na
sua forma geral, e sim, na de uma importante classe de sistemas, dada no diagrama de
blocos abaixo. Chegaremos a resultados bastante poderosos a respeito da estabilidade desta
classe de sistemas, que caracterizaremos com o nome de estabilidade absoluta.
dx
= Ax + Bu
dt
y = Cx + Du
+
0
-
Φ(t,y)
Figura 1
50
O sistema linear do diagrama de blocos é padrão:
dx(t )
= Ax(t ) + Bu (t ) ,
(1.1a)
dt
y (t ) = Cx(t ) + Du (t ) .
(1.1b)
O canal de realimentação é não linear e variante no tempo:
(1.2)
z (t ) = Φ (t , y (t )) ,
e a realimentação é “tradicionalmente” negativa, a saber,
(1.3)
u (t ) = − z (t )
Nas expressões acima
x(t ) ∈ R n enquanto que u (t ), y (t ), z (t ) ∈ R m .
Os sistemas na forma acima são importantes porque, efetivamente, muitos sistemas podem
ser decompostos em uma parte linear e outra não linear e, como já dito, chegaremos a
resultados poderosos, que dão o título do capítulo (estabilidade absoluta).
Seja H(s) a matriz de transferência do sistema acima, ou seja,
(1.4)
H ( s ) = C ( sI − A) −1 B + D
e então dizemos que a quádrupla (A,B,C,D) é uma realização de H(s).
Sabemos que a realização é mínima se só se o sistema (1.1) for controlável e observável.
(Uma realização é mínima se a ordem da matriz A, isto é, n, for a menor possível, isto é,
não há cancelamento no produto C ( sI − A) −1 B .
Temos a seguir uma definição fundamental para todo este capítulo (tenha-se em vista a
figura 2 abaixo):
51
Figura 2
(1.5)
Definição:
Sejam a, b ε R, com a < b. Dizemos que a função Φ (t , y (t )) pertence ao setor [a, b] se:
(i) Φ (t , 0) = 0, ∀t ≥ 0 ;
(ii) (by − Φ (t , y ))T (Φ (t , y ) − ay ) ≥ 0, ∀t ≥ 0, ∀y ∈ R m
A figura 2 acima esclarece geometricamente a condição (ii) da definição, ou seja, a função
Φ(t, y) passa pela origem e está contida entre as retas cujos coeficientes angulares são a e
b. E é neste contexto que surge a definição de estabilidade absoluta:
Definição
(1.6)
Seja o sistema da figura 1, sendo o sistema linear controlável e observável. Dizemos que o
ponto de equilíbrio xe = 0 é absolutamente estável no setor [a, b ] se ele for um ponto de
equilíbrio uniformemente assintoticamente estável para toda função Φ(t, y) que pertença ao
setor [a, b].
52
A definição acima define os problemas que trataremos neste capítulo: estamos interessados
em saber não se um determinado sistema é estável, mas se toda uma família de sistemas o
é.
Um pouco de história a respeito deste problema:
a) Em 1949 o cientista russo M.Aizerman conjecturou que, com D = 0 e m = 1, se com
Φ(t, y) = k y , o sistema em malha fechada for assintoticamente estável para todo k no
setor [a, b], então o sistema em malha fechada da figura 1 será absolutamente estável. A
conjectura parece fazer sentido, não? Foi provado que era falsa.
b) Rudolf Kalman, cientista húngaro-americano, propôs oito anos depois outra conjectura:
com D = 0, m = 1, Φ invariante no tempo e continuamente diferenciável em y, Φ(0) =
0, definiu o “setor incremental”:
d Φ( y)
≤ b e conjecturou: se o sistema em malha fechada da figura for absolutamente
dy
estável para todo sistema com Φ(y) dada por (1.5), então o sistema da figura 1 com Φ(y)
satisfazendo à dupla desigualdade acima será também absolutamente estável. Conjectura
tentadora, pois não? Mas foi provado que também era falsa.
a≤
2. O Critério do Círculo
O chamado critério do círculo, que será estudado nesta seção, é como veremos, uma
condição suficiente para a estabilidade absoluta do SMF (sistema em malha fechada) da
figura 1. Para prová-lo, precisaremos usar o seguinte teorema, que tem aplicação em vários
problemas das teorias de controle e de circuitos. Repetimos aqui as equações da seção
anterior:
dx(t )
(2.1a)
= Ax(t ) + Bu (t ) ,
dt
y (t ) = Cx(t ) + Du (t ) .
(2.1b)
(2.1c)
u (t ) = −Φ (t , y (t ))
Teorema de Kalman-Yacubovich:
(2.2)
Seja o sistema linear acima, no qual supomos que m < n . Supomos além disso que este
sistema é controlável, observável e assintoticamente estável. Definindo a matriz de
transferência em (1.4), isto é, H ( s ) = C ( sI − A) −1 B + D , suponhamos também que
inf λmin ( H ( jω ) + H * ( jω )) > 0 ,
ω∈R
(2.3)
onde (*) indica o conjugado transposto e λmin indica o menor auto-valor da matriz.
(Observe-se que os auto-valores da matriz em questão são todos reais e positivos).
Então existe uma matriz simétrica positiva definida P ∈ R nxn e matrizes Q ∈ R mxn e
W ∈ R mxm e um número real ε > 0 tais que
AT P + PA = −ε P − QT Q
BT P − W T Q = C
W T W = D + DT
(2.4)
(2.5)
(2.6)
53
A prova deste teorema é bastante longa, nada trivial, apesar de usar conceitos relativamente
simples de matemática. Encontra-se em várias boas monografias e também em alguns
textos, como o já referido livro de Vidyasagar, Apêndice B.
Seja observado que uma matriz de transferência estável que satisfaça à condição (2.3) é
chamada estritamente positiva real.
A seguir temos a versão mais simples do critério do círculo, mais conhecido como teorema
da passividade:
Teorema da passividade
(2.7)
Considere o sistema (2.1) e suponha que a matriz A seja Hurwitz (isto é, todos os seus
auto-valores têm parte real negativa, ou ainda, o sistema linear é assintoticamente estável).
Suponha ainda que o sistema linear seja controlável e observável, que sua matriz de
transferência satisfaça a (2.3) e que Φ(t, y) pertença ao setor[0,∞). Ou por outras palavras,
Φ(t, 0) = 0 para todo t ≥ 0 e yT Φ (t , y ) ≥ 0, ∀t ≥ 0, ∀y ∈ R m .
(2.8)
Então o ponto de equilíbrio xe = 0 do sistema (2.1) é absolutamente estável.
Prova : As hipóteses do teorema incluem as do teorema anterior (2.2). Escolhamos P, Q e
W
que satisfaçam a (2.4)-(2.6). Definamos a função candidata a Lyapunov
(2.9)
V ( x) = xT Px .
T
Então, em vista de (2.1a) e (2.1c), temos
dV ⎛ dx ⎞
dx
= ⎜ ⎟ Px + xT P
=
dt ⎝ dt ⎠
dt
(2.10)
( Ax − BΦ )T Px + xT P ( Ax − BΦ ) = xT ( AT P + PA) x − ΦT BT Px − xT PBΦ
T
T
T T
T
T
T
Mas de (2.5), B Px = Cx + W Qx . E, portanto, Φ B Px = Φ Cx + Φ W Qx . Mas em vista
de (2.1b) e (2.1.c), temos ainda
ΦT BT Px = ΦT ( y − Du ) + ΦT W T Qx = ΦT ( y + DΦ ) + ΦT W T Qx .
(2.11a)
Ou ainda, transpondo o primeiro e o terceiro lado,
(2.11b)
xT PBΦ = (ΦT DT + yT )Φ + xT QT W Φ .
T T
Substituindo em (2.10) os valores de Φ B Px dado em (2.11a) e sua transposta, em
(2.11b), temos
dV
(2.12)
= xT ( AT P + PA) x − ΦT ( D + DT )Φ − ΦT W T Qx − xT QT W Φ − ΦT y − yT Φ .
dt
Usando (2.4) e (2.6) nas duas primeiras parcelas da expressão acima, temos:
dV
= −ε xT Px − xT QT Qx − ΦT W T W Φ − ΦT W T Qx − xT QT W Φ − ΦT y − yT Φ .
(2.13)
dt
Mas em vista de (2.8), obtemos da igualdade acima:
dV
≤ −ε xT Px − xT QT Qx − ΦTW T W Φ − ΦT W T Qx − xT QT W Φ
dt
54
= −ε xT Px − (Qx + W Φ )T (Qx + W Φ ) ≤ −ε xT Px . E é claro que
positiva definida,concluindo a prova.
dV
< 0, ∀x ≠ 0 , pois V é
dt

Exemplo
(2.14)
Seja o sistema (2.1) escalar, isto é, com m = 1, D = 0, A < 0, B = C = 1. Realimenta-se
este sistema com uma função não linear do primeiro quadrante. Verificar se o ponto de
equilíbrio xe = 0 do SMF (sistema em malha fechada) é absolutamente estável.
Solução: Observe-se que, estando a função não linear no primeiro quadrante, ela satisfaz à
condição (2.8) do teorema.. Além disso, é imediato verificar que o sistema linear é
1
e, portanto,
controlável, observável e estável. Por outro lado,
H ( jω ) =
jω − A
1
−2 A
. Donde, H ( jω ) + H * ( jω ) = 2
> 0,
H * ( jω ) =
− jω − A
A + ω2
estando portanto satisfeitas todas as condições suficientes do teorema da passividade: o
ponto de equilíbrio do SMF é absolutamente estável.
O setor das funções não lineares, [0, ∞), pode ser bastante conservativo em certos
problemas, em que a função pode estar contida num setor[a, b], em que a é bem maior
que zero e b é bem menor que ∞. Vamos agora, a partir de transformações da malha,
chegar a um resultado para funções no setor [a, b], com b > a > 0.
55
Figura 3
Omitindo-se os argumentos (t) de y e t, y(t) de Φ , temos que, por definição,
Φ ∈ setor[a, b] ⇔ (by − Φ )T (Φ − ay ) ≥ 0 , ou seja, ((b − a) y − Φ + ay )T (Φ − ay ) ≥ 0 , ou
ainda, Φ − ay ∈ setor[0, b − a ] . Agora, note-se que as figuras 1 e 3 são equivalentes no
seguinte sentido: na figura 3 estou subtraindo à entrada do sistema linear a resposta (y) do
mesmo sistema pré-multiplicada por aI; mas estou também adicionando o mesmo sinal
(passando por dois somadores com sinal negativo); portanto eles se anulam Agora olhemos
para a figura 4 logo abaixo: na figura 4 estou adicionando à saída do sistema linear o sinal
1
-z pre-multiplicado por
I ; mas estou adicionando também (no somador embaixo,
b − a +δ
do lado direito) o sinal z pré-multiplicado pela mesma matriz; portanto eles se anulam.
Então as figuras 1 e 4 são equivalentes. Ora, a matriz de transferência H t ( s ) indicada na
1
I.
(2.15)
figura 4 é evidentemente H t ( s ) = H ( s )( I + aH ( s )) −1 +
b − a +δ
56
Figura 4
1
I
,
b − a +δ
Θ(v) := Φ (v) − av = (Φ − aI )(v) . Da figura 4 temos z = Θ(v) . Mas da mesma figura, temos
v = Kz + y = K Θ(v) + y ∴ ( I − K Θ)(v) = y ∴ v = ( I − K Θ) −1 ( y ) ∴ z = Θ( I − K Θ) −1 ( y ) , isto
é, Φ t ( y ) = Θ( I − K Θ) −1 ( y ) , ou seja , substituindo Θ e K dados acima, temos:
1
(Φ − aI )]−1 ( y ) . Suponhamos que Φ ∈ setor[a, b] , então é claro
Φ t = (Φ − aI )[ I −
b − a +δ
b−a
que Θ(v) = (Φ − aI )(v) ∈ setor[0, b − a] ; e portanto, K Θ(v) ∈ setor[0,
] . Mas
b − a +δ
b−a
δ
δ
1−
( I − K Θ)(v) ∈ setor[0,
] . Logo,
=
. Conseqüentemente,
b − a +δ b − a +δ
b − a +δ
b − a +δ
( I − K Θ) −1 ( y ) ∈ setor[
, ∞) . Ora, um setor é constituído por duas retas; portanto
Para
calcular
Φt
indicado
na
figura,
definamos
K:
=
δ
para achar o setor resultante do produto, basta multiplicar os coeficientes angulares
57
correspondentes,
ou
seja,
Φ t ( y ) = Θ( I − K Θ) −1 ( y ) ∈ setor[0(
setor (0, ∞) .
Com isto, estamos em condição de enunciar e provar o seguinte:
b − a +δ
δ
), (b − a)∞] =
(2.15*)
Corolário
(2.16)
Considere o sistema dado pelas equações (2.1), figura 1. Suponha que o sistema linear seja
controlável e observável e que o operador não linear Φ ∈ setor[a, b] . Defina-se
⎛ H a ( jω ) + H a* ( jω ) ⎞
1
> 0 (2.17)
H a ( s ) = H ( s )( I + aH ( s )) . Suponha que inf λmin ⎜⎜
⎟⎟ +
ω∈R
2
⎝
⎠ b−a
e que todos os pólos de H a ( s ) tenham parte real negativa. Suponha também que I + aD
seja matriz não singular. Então o ponto de equlíbrio xe = 0 do SMF é absolutamente
estável.
−1
Antes de provar o Corolário, vamos dar um exemplo para entendermos melhor de que
estamos falando:
Exemplo
(2.18)
Considere novamente o sistema dado no exemplo (2.14). Verificar quais as condições sobre
A, a, b para que a origem do espaço de estado (ponto de equilbrio do SMF) seja
absolutamente estável no setor [a, b].
1
1
H
1
∴ Ha =
=
; donde H a ( jω ) =
e,
Solução: H ( s ) =
s−A
1 + aH s − A + a
jω − A + a
2(a − A)
portanto, H a ( jω ) + H a* ( jω ) =
. Então a condição (2.17) do Corolário é
( A − a)2 + ω 2
(a − A)
1
+
> 0 , a qual, em virtude das hipóteses sobre A, a, b, isto é, A < 0,
2
2
( A − a) + ω
b−a
b > a > 0 , será satisfeita.
Seja observado que quanto menor b – a, mais facilmente a condição (2.17) será satisfeita.
Prova do Corolário (2.16):
⎛ H ( jω ) + H a* ( jω ) ⎞
2
Se (2.17) é satisfeita, então inf λmin ⎜⎜ a
>0
(2.19)
⎟⎟ +
ω∈R
2
b
a
δ
−
+
⎝
⎠
para δ suficientemente pequeno, maior que zero. Recorde-se agora a definição de H t ( s )
⎛ H t ( jω ) + H t * ( jω ) ⎞
em (2.15). Então (2.19) é equivalente a inf λmin ⎜⎜
⎟⎟ > 0 , que é uma
ω∈R
2
⎝
⎠
condição do tipo (2.3). Então, tendo em vista que Φ t satisfaz à condição (2.8) (ver
(2.15*)), podemos aplicar o teorema da passividade. Sejam At = A − aB ( I + aD) −1 C ,
1
I . Pode-se provar que
Bt = B( I + aD) −1 , Ct = ( I + aD) −1 C , Dt = D( I + aD) −1 +
b − a +δ
58
H t = Ct ( sI − At ) −1 Bt + Dt , mas esta prova não parece fácil.
Para completarmos a demonstração do Corolário, precisamos provar que o par (At, Bt) é
controlável e que o par (Ct, At) é observável. Aqui recordamos o critério de PopovBelevitch-Hautus (PBH) que nos diz que o par (A, B) é controlável se só se
Posto[ sI − A, B] = n para todo s complexo.
Mas, [ sI − At , Bt ] = ⎡⎣ sI − A + aB( I + aD) −1 C , B ( I + aD) −1 ⎤⎦ =
⎡
I
[ sI − A , B ] ⎢ a( I + aD)−1 C
0
⎤
. Donde se vê que Posto [ sI − At , Bt ] =
−1 ⎥
( I + aD) ⎦
⎣
Posto [ sI − A , B ] = n para todo s complexo, e portanto o par ( At , Bt ) é controlável.
Dualmente, de acordo como o critério PBH, o par (C, A) é observável se só se
⎡ sI − At ⎤ ⎡ sI − A + aB ( I + aD) −1 C ⎤
⎡ sI − A⎤
=
n
para
todo
s
complexo.
Ora,
Posto ⎢
⎥
⎢ C ⎥=⎢
⎥
( I + aD) −1 C
⎣ C ⎦
t
⎣
⎦ ⎣
⎦
⎡ I aB( I + aD ) −1 ⎤ ⎡ sI − A⎤
=⎢
⎥⎢
⎥ . Donde se conclui também que o par (Ct , At ) é observável.
( I + aD ) −1 ⎦ ⎣ C ⎦
⎣0
Portanto todas as condições do teorema da passividade são satisfeitas, concluindo a prova
do Corolário (2.16).

O Corolário se transforma numa condição elegante, que veremos logo a seguir, quando m
= 1, o chamado critério do círculo.
Temos primeiramente um resultado elementar de matemática, mas um pouco trabalhoso
para demonstrar.
Fato:
Seja z = x + jy um número complexo e sejam a, b ∈ R, com a < b. Então,
z
1
Re
+
>0
1 + az b − a
b+a b−a
>
se ba > 0,
se só se z +
2ba
2ba
<
b−a
se ba < 0.
2ba
Prova: Vamos provar que (2.20) e (2.21) são equivalentes a
ba( x 2 + y 2 ) + (b + a) x + 1 > 0 .
Provaremos primeiramente que (2.20) e (2.22) são equivalentes. De (2.20), vem
x + jy
1
( x + jy )(1 + ax − jay )
1
Re
+
> 0 ∴ Re
+
>0
2
2 2
1 + ax + jay b − a
(1 + ax) + a y
b−a
(2.19a)
(2.20)
(2.21a)
(2.21b)
(2.22)
x(1 + ax) + ay 2
1
( x + ax 2 + ay 2 )(b − a) + 1 + 2ax + a2 x 2 + a2 y 2
0
>0;
+
>
∴
(1 + ax) 2 + a 2 y 2 b − a
((1 + ax) 2 + a 2 y 2 )(b − a)
mas b – a > 0; portanto o denominador da última expressão é maior que zero; quanto ao
∴
59
numerador, efetuando-se (em “arial” o que é cancelado), verifica-se que é igual a (2.22).
2
b+a⎞
⎛
2
Passemos a (2.21). O lado esquerdo é ⎜ x +
⎟ + y . Elevando ao quadrado ambos os
2
ba
⎝
⎠
2
2
(2abx + a + b)
b − 2ab + a 2
2
+
y
>
. Efetuando, obtém-se
lados de (2.21a), temos
4a 2 b 2
4a 2b 2
a 2b 2 ( x 2 + y 2 ) + abx(a + b) + ab > 0 .
(2.23)
Dividindo esta por ab , obtém-se (2.22).
Por outro lado, elevando ao quadrado ambos os lados de (2.21b), obtém-se (2.23) com o
sinal de desigualdade invertido. Mas como ba < 0 , ao dividirmos por ab , chegamos
também a (2.22), concluindo a prova do Fato (2.19a).

Considere-se o círculo D(a, b) no plano complexo
b+a
b−a
e raio
com centro em −
.
(2.23a)
2ba
2 ba
Recordamos que, por hipótese, b > a, e portanto o numerador da expressão do raio é
b+a
b−a
sempre positivo. Os pontos de interseção do círculo com o eixo x são −
.
±
2ba
2 ba
Se ba > 0, obtemos os pontos de interseção -1/b e -1/a; se ba < 0, obtemos os mesmos
pontos. Na figura 5 abaixo supusemos a, b > 0. Ora, é claro que de (2.21) vemos que z
estará fora do círculo D(a, b) se ba > 0 e estará dentro do círculo se ba < 0. Portanto, (2.20)
ocorre se só se z estiver fora do círculo (a, b) se ba > 0 e estiver dentro do círculo se ba <
0.
y
x
-1/a
-1/b
Figura 5
(2.24)
Neste ponto recordamos o Critério de Nyquist:
Seja H(s) uma função de transferência escalar e seja k , um número real, um ganho num
sistema de malha fechada (SMF). Plotamos H(jω) no plano complexo, fazendo ω variar de
- ∞ a + ∞, fechando pelo lado direito com círculo de raio ∞, englobando portanto todos os
pólos instáveis de H(s). (Ou seja, percorre-se um semi-círculo com raio ∞, no sentido
60
horário, sendo o diâmetro localizado no eixo imaginário). Ao plotarmos H(jω), variando ω,
obtemos necessariamente uma curva fechada (pois ω volta ao valor inicial). Designemo-la
por diagrama de Nyquist. O critério de Nyquist diz que o SMF é estável se só se o
diagrama de Nyquist envolver no sentido anti-horário o ponto -1/k um número de vezes
igual ao número de pólos de H(s) no semi-plano aberto da direita, Co+ .
Observação: Se H(s) tiver algum pólo no eixo imaginário, ele terá que ser “driblado” ,
através de semi-cículo com raio “tão pequeno quanto queremos” quando se faz variar ω.
Já estamos agora em condições de enunciar e provar o resultado principal desta seção, o
critério do círculo:
Teorema: Critério do Círculo
(2.25)
Considere o sistema (2.1) com m = 1, supomos que o sistema linear é controlável e
observável e que Φ ∈ setor[a, b]. Considere-se o círculo D(a, b) definido acima. Então o
ponto de equilíbrio xe = 0 é absolutamente estável se uma das condições abaixo se
realizar, conforme o caso:
(i) 0 < a < b : O diagrama de Nyquist de H(jω) fica todo fora do círculo D(a, b) e o
envolve no sentido anti-horário tantas vezes quantos são os auto-valores de A com parte
real positiva;
1
(ii) 0 = a < b : a matriz A é Hurwitz e inf Re H ( jω )+ > 0 ;
b
ω∈R
(iii) a < 0 < b : A é Hurwitz e o diagrama de Nyquist de H(jω) fica no interior de
D(a, b);
(iv) a < b ≤ 0: Substitua-se H(jω) por - H(jω), a por –b, b por -a e aplique-se (i) ou (ii)
acima, conforme a segunda desigualdade seja estrita ou não.
Prova:
(i): Faça-se z = H(jω) em (2.20). Como ab > 0, de acordo com (2.21a) H(jω) tem que
ficar fora de D(a, b). Ora, se Φ for uma reta com coeficiente angular a, teríamos um ganho
puro igual a a e, de acordo com o critério de Nyquist, o diagrama de Nyquist de H(jω) tem
que envolver o ponto -1/a no sentido anti-horário um número de vezes igual ao número de
auto-valores de A com parte real positiva. Mas envolvendo o ponto -1/a, envolve todo o
círculo D(a, b) (ver a figura 5);
(ii): Reportando-nos ao Corolário (2.16), neste caso H a ( jω ) = H ( jω ) , daí que supomos A
uma matriz Hurwitz; aplique-se a condição (2.17);
(iii) Neste caso ab < 0 e, portanto o diagrama de Nyquist fica no interior de D(a, b) de
acordo com (2.21b), não podendo, portanto, envolver o ponto -1/a, donde que temos que A
é Hurwitz;
(iv):
óbvio.
Exemplo
(2.26)
1
; a função não linear no canal de realimentação está no setor [-a, a], com
H ( jω ) = 2
s + s +1
a > 0. Qual o valor máximo de a tal que a origem do espaço de estado (ponto de
equilíbrio) seja absolutamente estável?
Solução: estamos no caso (iii); sendo a função linear estável: OK quanto a isso.
61
H ( jω ) =
1
1 − ω 2 − jω
1− ω2
jω
=
=
−
. Portanto, Re( H ( jω )) =
2
2 2
2
2
4
−ω + jω + 1 (1 − ω ) + ω
1− ω + ω 1− ω2 + ω4
ω
1− ω2
, Im( H ( jω )) = −
. Calculemos alguns pontos do diagrama de
2
4
1−ω + ω
1− ω2 + ω4
Nyquist:
ω
Re[H(jω)]
Im[H(jω)]
0+
1
0-
0,25
0,996
-0,266
0,5
0,922
-0,615
1
0
-1
2
-0,23
-0,154
5
-0,04
-0,0083
Na primeira coluna acima “0+“ significa número maior que zero arbitrariamente próximo
de 0, enquanto que 0- tem o sentido simétrico. Na figura 6 abaixo o diagrama de Nyquist;
recorda-se que só precisamos calculá-lo para 0 ≤ ω < ∞, a parte do diagrama
correspondente a -∞ < ω ≤ 0 sendo simétrica à outra com relação ao eixo horizontal.
Im( H ( jω ))
ω
=
, que é zero quando ω = 0 e quando ω → ∞ , ou seja,
Observe-se que
Re( H ( jω )) −1 + ω 2
a tangente à curva é zero nos dois casos.
Figura 6
62
Observação: É fácil verificar que Re[H(jω)] é sempre uma função par, ou seja Re[H(jω)]
= Re[H(-jω)] enquanto que Im[H(jω)] é uma função impar, isto é,
Im[H(jω)] =
- Im[H(-jω)] . Conseqüentemente, o diagram de Nyquist é sempre uma curva simétrica em
relação ao eixo dos reais
De acordo com o teorema, o círculo D(a, b) = D(-1/a, 1/a) tem que envolver o diagrama de
Nyquist; o raio do círculo é obviamente 1/a (ver (2.23a)). Ou seja, quanto maior o setor,
menor o raio do círculo, confirmando nossa intuição que, quanto maior o setor, mais difícil
a estabilidade absoluta. Para calcular o maior valor de a, temos que calcular o máximo do
1
1
1
=
=
.
valor absoluto de H(jω). Ora, H ( jω ) =
2
2
2
2
1 − ω + jω
(1 − ω ) + ω
1− ω2 + ω4
Calculando o máximo:
donde ω = 0 ou ω =
d H ( jω )
dω
−1
−1 (1 − ω 2 + ω 4 ) 2 d (1 − ω 2 + ω 4 )
=
=
dω
2 1− ω2 + ω4
1
⎛ j1 ⎞
; ora, H (0) = 1 , H ⎜
⎟=
2
⎝ 2⎠
ω − 2ω 3
3
4 2
= 0,
(1 − ω + ω )
2
1
2
3
; donde a <
.
=
2
1 1
3
1− +
2 4
Exemplo
(2.27)
Mesmo problema do exemplo anterior, com a não linearidade no setor[0, 2a].
1− ω2
; vejamos qual o mínimo
Solução: estamos no caso (ii); ora, Re( H ( jω )) =
1−ω2 + ω4
d Re( H ( jω )) −2ω (1 − ω 2 + ω 4 ) + (ω 2 − 1)(4ω 3 − 2ω )
= 0, donde
desta função:
=
dω
(1 − ω 2 + ω 4 ) 2
−2ω + 2ω 3 − 2ω 5 + 4ω 5 − 4ω 3 − 2ω 3 + 2ω = 0 ∴ω 3 (ω 2 − 2) = 0 . Donde ω = 0 ou ω = 2 .
1
Substituindo, temos Re( H (0)) = 1 , Re( H ( j 2)) = − , este portanto o valor que deve ser
3
1 1
1 1
3
substituído em (ii), com b = 2a , obtendo-se − +
> 0∴
> ∴a < .
3 2a
2a 3
2
Exemplo
(2.28)
Suponha agora que o setor é [a, 3a], com a > 0. Achar o maior valor de a de tal modo que
a origem do espaço de estado seja absolutamente estável.
Solução:Estamos no primeiro caso e como o sistema linear é estável, o diagrama de
Nyquist de H ( jω ) não deve envolver o círculo D(a, 3a). De (2.23a), o círculo tem centro
b+a
b−a
e raio
; substituindo b por 3a nestas expressões, temos que o centro
em −
2ba
2 ba
(3a + a)
2
(3a − a) 1
=−
e o raio é
=
. É claro então que o círculo
2
6a
3a
6a 2
3a
intercepta o eixo horizontal em -1/3a e em -a ; por outro lado, o ponto mais à esquerda
do diagrama de Nyquist tem parte real igual a -1/3, como vimos no exemplo anterior .
Então, se -1/3a < -1/3, garantiremos que o círculo não toca o diagrama de Nyquist, ou,
do círculo está em −
63
equivalentemente, 1/a > 1 e, finalmente, a < 1 é condição suficiente para a estabilidade
absoluta. (Este resultado é um pouco conservador: se quiséssemos ser rigorosos, teríamos
que achar a expressão do centro do círculo ao diagrama de Nyquist, mas isto é um pouco
trabalhoso e não levaria a resultado muito melhor como se pode ver da figura 6).
Exemplo
(2.29)
Seja o mesmo sistema linear dos exemplos anteriores, mas agora o setor é [-2a, 0].
Novamente, trata-se de achar o maior valor de a.
Solução: Estamos no caso (iv) e, de acordo com o teorema, temos que fazer as substituições
H ( jω ) → - H ( jω ) , -2a → 0, 0 → 2a , caindo no caso (ii) . Então,
Re(− H ( jω )) =
ω 2 −1
. As freqüências que anulam a derivada desta última expressão
1− ω2 + ω4
1
são as mesmas do Exemplo (2.27), mas agora temos Re(− H (0)) = −1 , Re(− H ( j 2)) = .
3
Portanto, de acordo com o teorema (ii), devemos ter -1 + 1/2a > 0, donde 2a < 1, e
portanto, a < 1/2.
Exemplo
(2.30)
1
. Verificar se existe setor de funções não lineares no canal de realimentação de
s −1
modo que a origem do espaço de estado seja absolutamente estável. Determinar o maior
setor.
1
1 + jω
1
ω
=−
=−
−j
. Sejam X e Y, respectivamente,
Solução: H ( jω ) =
2
2
1+ ω
1+ ω
1+ ω2
jω − 1
1
ω
,Y= −
, donde,
as partes real e imaginária de H ( jω ) , ou seja, X = −
2
1+ ω
1+ ω2
X +1
, Y = ω X = − X ( X + 1) , ou seja, Y 2 = − X − X 2 ; é fácil verificar que esta é a
ω= −
X
equação de um círculo com centro no eixo horizontal, abcissa -0,5 e raio igual a 0,5; com
efeito, a equação de um tal círculo é ( X + 0,5) 2 + Y 2 = 0,52 , que é a equação duas linhas
acima. Sendo o sistema linear instável, o problema poderá ter solução somente no caso (i),
o diagrama de Nyquist tendo que envolver o círculo D(a, b) uma vez no sentido antihorário. A tabela abaixo nos indica as partes real e imaginária de H ( jω ) em função dos
valores crescentes de ω, mostrando que o diagrama de Nyquist evolui no sentido antihorário. (Ver figura 6a)
H ( s) =
ω
Re(H(jω))
Im(H(jω))
0+
-1
0-
0,5
-0,8
-0,4
1
-0,5
-0,5
2
-0,2
-0,4
5
-0,038
-0,0192
→∞
00-
64
Figura 6a
Ora, o maior círculo D(a, b) que pode caber dentro deste diagrama de Nyquist deve ser tal
que (reportar-se à figura 5) -1/a > -1 , donde 1/a < 1 e, portanto a > 1, e por outro lado 1/b < 0, ou seja, 1/b > 0 e portanto b < ∞. Então, o maior setor de estabilidade absoluta é
(1, ∞) .
Exemplo
(2.31)
Seja a chamada equação de Mathieu amortecida
d 2 y (t )
dy (t )
+ 2µ
+ ( µ 2 + α 2 − q cos ω0t ) y (t ) = 0 , com µ, α, q > 0, que pode ser re-escrita
2
dt
dt
2
d y (t )
dy (t )
+ 2µ
+ ( µ 2 + α 2 ) y (t ) − q cos ω0ty (t ) = 0 , a qual pode ser posta na
na forma
2
dt
dt
forma da figura 1, que repetimos abaixo, com: Φ (t , y (t )) = − q cos ω0t , donde
Φ (t , y (t )) ∈ setor[− q, q] . Ao aplicarmos a transformada de Laplace à parte invariante no
tempo da equação diferencial acima, obtemos a função de transferência
65
dx
= Ax + Bu
dt
y = Cx + Du
+
0
-
Φ(t,y)
Figura 1 bis
1
. Do setor, vemos que estamos no caso (iii) do teorema, com a =
s + 2µ s + µ 2 + α 2
-q, b = q, ou seja, D(a, b) é um círculo com centro na origem e raio 1/q . Satisfeita a
condição de a função de transferência ser estável; o diagrama de Nyquist deve ficar no
interior de D(-q, q). Calculemos alguns pontos do diagrama de Nyquist de H(s).
1
H ( jω ) =
. Comparando H(jω) deste exemplo com a do exemplo
2
−ω + j 2 µω + µ 2 + α 2
(2.26), verificamos que elas têm a mesma forma matemática e, portanto, os diagramas de
Nyquist serão iguais, a menos da proporção altura/largura. Repetimos a figura:
H ( s) =
2
66
Figura 6 bis
Conseqüentemente, o SMF será globalmente estável se o diagrama de Nyquist ficar dentro
do círculo D(-q, q). Temos que calcular o valor máximo de H ( jω ) e determinar as
condições para que H ( jω ) < 1/q .
Ora, H ( jω ) =
(2.30)
1
;
( µ 2 + α 2 − ω 2 ) 2 + 4µ 2ω 2
para calcular o máximo, diferenciemos e igualemos a zero:
−2( µ 2 + α 2 − ω 2 )(−2ω ) + 8µ 2ω
d H ( jω )
dω
=
= 0 ou ω =
2 ( µ 2 + α 2 − ω 2 ) 2 + 4µ 2ω 2
( µ 2 + α 2 − ω 2 ) 2 + 4µ 2ω 2
= 0 ∴ ( µ 2 + α 2 − ω 2 )ω + 2µ 2ω = 0 ,
α 2 + 3µ 2 ; ora, de (2.31), H (0) =
1
µ +α 2
2
(2.31)
donde ω
(2.32)
67
e H ( j 3µ 2 + α 2 ) =
=
1
( µ 2 + α 2 − 3µ 2 − α 2 ) 2 + 4 µ 2 (3µ 2 + α 2 )
=
1
4 µ 4 + 4 µ 2 (3µ 2 + α 2 )
1
.
(2.33)
2µ 4µ 2 + α 2
Qual o maior: (2.32) ou (2.33)? Depende dos valores relativos de α e µ. A relação entre
α, µ e q é estabelecida utilizando-se (2.30).
Finalmente, seja observado que a solução encontrada vale não somente para a equação de
d 2 y (t )
dy (t )
Mathieu, mas para toda equação da forma
+ 2µ
+ ( µ 2 + α 2 ) y (t ) − qf ( y (t )) = 0 ,
2
dt
dt
onde f ( y (t )) ∈ setor[-1, 1].
Problemas em provas dos anos anteriores
1. Considere um SMF em que que a parte linear tem função de transferência igual a
H(s) = 1 / (s+1)(s+2)(s+3). A parte não linear está dentro de um setor [a , b]. Estude a estabilidade
do sistema nos três casos, utilizando o critério do círculo, com 0 < a < b, 0 ≤ a < b, a < 0 <
b. Ache o maior valor possível de b no primeiro e no segundo caso, bem como no terceiro,
fazendo a = - b.
1
. Utilizando o critério do círculo, verificar se existe
1− s
um setor tal que o SMF (sistema em malha fechada com realimentação não linear) seja
absolutamente estável. Em caso afirmativo, determinar (aproximadamente) o maior setor tal
que o SMF seja absolutamente estável.
2. Dado o sistema linear H ( s ) =
3.Utilize o critério do círculo para estudar a estabilidade absoluta do SMF em que o sistema
K
, com K > 0. Verifique se
linear tem a seguinte função de transferência: H ( s ) =
( s + 1)3
existe solução para o problema nas seguintes situações: 0 = a < b , a < 0 < b. Determine,
em cada um dos casos, se existir solução, o maior setor que garante a estabilidade absoluta.
⎡ dx(t ) ⎤
⎢ dt ⎥ ⎡0 0 ⎤ ⎡ x(t ) ⎤
⎡0 ⎤ ⎡ 2 ⎤
⎡1 ⎤
4. Seja o sistema ⎢
, t0 = 0, x(0) = ⎢ ⎥ . Verificar que ⎢ ⎥ e ⎢ 2 ⎥ são
⎥=⎢
⎥
⎢
⎥
⎣ 1 ⎦ ⎣t ⎦
⎣ 2⎦
⎢ dy (t ) ⎥ ⎣ t 0 ⎦ ⎣ y (t ) ⎦
⎢⎣ dt ⎥⎦
duas soluções linearmente independentes do sistema. Calcular a matriz de transição de estado, achar
x(t ) com x(0) dado acima e estudar a estabilidade do sistema com relação ao ponto de equilíbrio
⎡0 ⎤
xe = ⎢ ⎥ .
⎣0 ⎦
5. Seja o sistema linear
⎡0 1⎤
⎡0 ⎤
, B = ⎢ ⎥ , C = [ 0 1] .
A=⎢
⎥
⎣ −1 −2 ⎦
⎣1 ⎦
68
Ele é realimentado com função não- linear no setor[1; 2]. Verificar se o ponto de equilíbrio
(origem do espaço de estado) é assintoticamente estável para toda função não linear no
setor.
3. O Critério de Popov
Nesta seção vamos enunciar e demonstrar uma outra maneira de resolver o problema da
estabilidade absoluta, através do assim chamado Critério de Popov, inventado pelo cientista
rumeno V. M. Popov. Ao contrário do critério do círculo, estudado na seção anterior, o
critério que agora estudaremos não vale para sistemas não lineares variantes no tempo. Há
também diferença quanto à classe dos sistemas lineares.
Os sistemas que estudaremos agora são da forma
dx(t )
= Ax(t ) + Bu (t ) ,
(3.1a)
dt
dξ (t )
(3.1b)
= u (t ) ,
dt
y (t ) = Cx(t ) + Dξ (t ) ,
(3.1c)
u (t ) = −Φ ( y ) ,
(3.1d)
Φ(y) ∈ setor(0, ∞),
(3.1e)
sendo Φ(y) contínua.
Nestas equações, A ∈ R nxn , u (t ) e y (t ) são escalares, D e ξ (t ) também o são, enquanto
que B e C são vetores coluna e linha, respectivamente.
O sistema de equações acima pode ser posto na seguinte forma, omitindo o argumento (t):
⎡ dx ⎤
⎢ dt ⎥ ⎡ A 0 ⎤ ⎡ x ⎤ ⎡ B ⎤
(3.2a)
⎢ ⎥=⎢
⎥ ⎢ ⎥ + ⎢ ⎥u ,
⎢ dξ ⎥ ⎣ 0 0 ⎦ ⎣ξ ⎦ ⎣ 1 ⎦
⎢⎣ dt ⎥⎦
⎡ x⎤
(3.2b)
y = [C D ] ⎢ ⎥ ,
⎣ξ ⎦
u (t ) = −Φ ( y ) .
(3.2c)
Fica claro que o sistema linear tem um pólo na origem. Observe-se também de (3.1e) que o
setor é aberto dos dois lados.
Como se vê, a classe de sistemas é mais restrita do que a do critério do círculo, até porque,
como veremos logo adiante, A será suposta sempre Hurwitz. Veremos, porém, que a
solução é, em geral, menos trabalhosa. É claro que, da continuidade de Φ(y), temos
Φ(0) =0, y Φ(y) > 0 ∀y ≠ 0 .
Aplicando-se transformada de Laplace, com condições iniciais nulas às equações (3.1a) e
(3.1b), temos
sxˆ ( s ) = Axˆ ( s) + Buˆ ( s) ∴ xˆ ( s ) = ( sI − A) −1 Buˆ ( s ) ,
69
uˆ ( s )
uˆ ( s) = sξˆ( s ) ∴ ξˆ( s ) =
.
s
Conseqüentemente, a função de transferência entre uˆ ( s ) e yˆ ( s ) é
D
H ( s ) = C ( sI − A)−1 B + .
(3.3)
s
Podemos então nos reportar à figura 1bis, substituindo D por D/s, e além disso Φ não
depende agora explicitamente de t. Estamos em condição agora de enunciar e provar o
Teorema (Critério de Popov)
(3.4)
Considere o sistema (3.1) e suponha que A seja Hurwitz, (A, B) seja controlável, (C, A)
seja observável, D > 0 e Φ(y) ∈ setor(0, ∞). Então o SMF é absolutamente globalmente
estável se existir um número r > 0 ,tal que
(3.5)
inf Re[(1 + jω r ) H ( jω )] > 0
ω∈R
Observação: Como provaremos que a estabilidade é global, dizemos no enunciado do
teorema acima que o SMF, e não simplesmente o ponto de equilíbrio [0,0]T, é
absolutamente globalmente estável.
Exemplo
(3.6)
1
1
− j (1 − jω )
ω + j1
∴ H ( jω ) =
=
=−
, donde
2
s ( s + 1)
jω (1 + jω ) ω (1 + ω )
ω (1 + ω 2 )
⎛ −(1 + jω r )(ω + j1) ⎞ −ω + ω r
r −1
=
> 0 para todo r > 1.
Re[(1 + jω r ) H ( jω )] = Re ⎜
⎟=
2
2
2
ω (1 + ω )
⎝
⎠ ω (1 + ω ) 1 + ω
Portanto o SMF é absolutamente globalmente estável no setor (0, ∞).
H ( s) =
Prova do teorema (3.4):
Observe-se inicialmente que s ( sI − A) −1 = ( sI − A + A)( sI − A) −1 = I + A( sI − A) −1 .
(3.7)
D⎞ D
⎛
Ora, (1 + rs ) H ( s ) = (1 + rs ) ⎜ C ( sI − A) −1 B + ⎟ =
+ rD + C ( sI − A)−1 B + rsC ( sI − A)−1 B ,
s⎠ s
⎝
D
o que, em vista de (3.7), nos dá
+ rD + C ( sI − A) −1 B + rCB + rCA( sI − A) −1 B .
s
E, portanto, substituindo s por jω, já descartando a primeira parcela da expressão acima,
temos:
Re[(1 + jω r ) H ( jω )] = Re[r ( D + CB ) + C ( I + rA)( jω I − A) −1 B] .
(3.8)
−1
(3.9)
Definamos G ( s ) = r ( D + CB ) + C ( I + rA)( sI − A) B .
É claro que Re(G ( jω )) é dado no lado direito de (3.8). Então (3.5) é equivalente a
(3.10)
infω∈R Re(G ( jω )) > 0 .
Ora, de acordo com o teorema de Kalman-Yacubovich (2.2), existe uma matriz simétrica
positiva definida P ε R n x n , um vetor-linha q (1x n), um escalar w e ε > 0 tais que
AT P + PA = −ε P − qT q ,
(3.11a)
BT P + wq = C ( I + rA) ,
w2 = 2r ( D + CB ) .
(3.11b)
(3.11c)
70
y
Definamos Ψ ( y ) = ∫ Φ (σ )dσ .
0
(3.12a)
Seja V ( x, ξ ) = xT Px + Dξ 2 + 2r Ψ ( y ) ,
(3.12b)
que é claramente maior que zero se ( x, ξ ) ≠ (0, 0) , e alem do mais tende a ∞ se x e /ou
ξ tende(m) a ∞. Portanto temos uma candidata a função de Lyapunov para demonstrar
estabilidade assintótica global. Ora, diferenciando (3.12b), temos
V ( x, ξ ) = xT Px + xT Px + 2 Dξξ + 2rΦ ( y ) y . Em vista de (3.2a) e (3.2c), temos
V ( x, ξ ) = ( Ax − BΦ )T Px + xT P ( Ax − BΦ ) − 2 DξΦ + 2rΦ (C ( Ax − BΦ ) − DΦ ) .
(3.13)
T T
T
T
T
As duas primeiras parcelas de (3.13) são x A Px − ΦB Px + x PAx − Φx PB , pois Φ é
um escalar. Note-se que ΦBT Px = ΦxT PB ; por outro lado, Dξ = y − Cx , e portanto as
duas últimas parcelas de (3.13) são −2( y − Cx)Φ + 2r Φ (C ( Ax − BΦ ) − DΦ )
= 2CxΦ − 2 yΦ + 2r ΦCAx − 2r Φ 2CB − 2rDΦ 2 = 2ΦC ( I + rA) x − 2r ( D + CB )Φ 2 − 2 yΦ . Em
vista destas observações, obtemos de (3.13)
V ( x, ξ ) = xT ( AT P + PA) x − 2ΦBT Px + 2ΦC ( I + rA) x − 2r ( D + CB )Φ 2 − 2 yΦ .
Mas em vista de (3.11), temos
V ( x, ξ ) = xT (−ε P − qT q) x − 2ΦBTPx + 2Φ(BTP + wq) x − w2Φ 2 − 2 yΦ ; cancelando por
subtração o que está em “Arial”, vem:
V ( x, ξ ) = −ε xT Px − xT qT qx + 2Φwqx − w2 Φ 2 − 2 yΦ
(3.14)
T T
2
Mas observe-se que x q qx = ( qx) , e portanto temos de (3.14)
V ( x, ξ ) = −ε xT Px − (qx − wΦ ) 2 − 2 yΦ , donde
V ( x, ξ ) ≤ −ε xT Px − 2 yΦ, ∀x, ξ
(3.15)
Ora, se x ≠ 0, então V ( x, ξ ) < 0 porque - yΦ ≤ 0 . Mas se x = 0 e ξ ≠ 0, então temos y =
Dξ ≠ 0 e então - 2yΦ < 0, concluindo-se portanto que V ( x, ξ ) < 0 ∀( x, ξ ) ≠ (0, 0) ,
concluindo a prova do teorema.

O setor(0, ∞) do teorema é conservador, seria interessante obter resultado com setor mais
“apertado”, como ocorre em vários problemas. E é isto que o Corolário seguinte nos dá:
Corolário (Critério de Popov)
(3.16)
Seja o sistema (3.1) com as hipóteses do teorema anterior, exceto que agora
Φ(y) ∈ setor(0, k), com 0 < k < ∞. Então o SMF é absolutamente globalmente estável se
existir r > 0 tal que
1
(3.17)
inf Re[(1 + jω r ) H ( jω )] + > 0
k
ω∈R
Observação: Seja X (ω ) := Re( H ( jω )) , Y (ω ) := Im( H ( jω )) . Então, de (3.17),
Re[(1 + jω r )( X (ω ) + jY (ω )] +
1
1
> 0, ∀ω , ou seja, X (ω ) − rωY (ω ) + > 0, ∀ω , ou
k
k
1
ainda, X (ω ) − rωY (ω ) > − , ∀ω .
k
(3.18)
71
Prova do Corolário (3.16):
Façamos a transformação da malha como na figura 7 abaixo. É claro que o feedback e o
feedforward se anulam; com efeito, a saída w de Φ multiplicada por -1 / k é adicionada
à resposta do sistema linear, obtendo-se z, mas a este soma-se w, multiplicado por 1/ k,
anulando-se portanto os efeitos. Seja Φ t a função não linear resultante do feedback. Do
1
1
1
diagrama de blocos (figura 7), temos γ = z + w = z + Φ (γ ) ∴ z = γ − Φ (γ )
k
k
k
−1
−1
⎛ 1 ⎞
⎛ 1 ⎞
⎛ 1 ⎞
∴ z = ⎜1 − Φ ⎟ (γ ) ∴ γ = ⎜1 − Φ ⎟ ( z ) ∴ w = Φ ⎜ 1 − Φ ⎟ ( z ) . Então, definamos
⎝ k ⎠
⎝ k ⎠
⎝ k ⎠
−1
⎛ 1 ⎞
(3.19)
Φ t = Φ ⎜1 − Φ ⎟ ( z ) .
⎝ k ⎠
Ora, Φ(γ) → 0 ⇒ w → 0, enquanto que Φ(γ) → k ⇒ w → ∞, ou seja,
Φ t ε setor(0, ∞). Por outro lado, o sistema linear com o feedforward tem função de
1
transferência H t ( s ) = H ( s ) + .
k
(3.20) Apliquemos o teorema (3.4) ao SMF, com H t ( jω ) e Φ t , notando-se
que, sendo H ( s ) estável, H t ( s ) também o será, permanecendo também a controlabilidade
e observabilidade, que só dependem de A, B e C.
1
Mas de (3.20), Re[(1 + jω r ) H t ( jω )] = Re[(1 + jω r ) H ( jω )] + > 0 ∀ω , concluindo-se a
k
prova.

+
+
H(s)
0
-
+
1
k
1
k
+
Φ(γ)
w
γ
z
+
Figura 7
72
Tal como o Critério do Círculo, o Critério de Popov tem também uma interpretação gráfica,
usualmente bem mais fácil de se aplicar.
Com efeito, considere-se a inequação (3.18). Seja a curva determinada por ωY (ω ) versus
X (ω ) . Chamemos esta curva de diagrama de Popov. Então os eixos coordenados que
consideramos são X (ω ) e ωY (ω ) . Considere-se neste plano um reta que passe pelo
ponto -1 / k e que tenha coeficiente angular 1/ r . É claro que esta reta intercepta o eixo
1⎛
1⎞
ωY (ω ) em 1 / rk .Conseqüentemente, a equação desta reta é ωY (ω ) = ⎜ X (ω ) + ⎟ , ou
r⎝
k⎠
X (ω ) 1
seja, ωY (ω ) =
+ .
(3.21)
r
rk
É claro que a parte do plano à direita e abaixo desta reta satisfaz à desigualdade
X (ω ) 1
ωY (ω ) <
+ , ou seja, X (ω ) - r ωY (ω ) > -1 / k ,
r
rk
que é a inequação (3.18), equivalente por sua vez, como vimos, a (3.17). Então concluímos
que tudo que temos que fazer é traçar o diagrama de Popov e verificar se existe r > 0 tal
que a reta definida por (3.21) fique à esquerda do diagrama. Se existir tal r, então o SMF é
absolutamente globalmente estável.
Exemplo
(3.22)
1
. Verificar o maior valor de k para o qual
s ( s + 1) 2
SMF é absolutamente globalmente estável.
Considere o SMF de (3.1) com gˆ ( s ) =
Solução: gˆ ( jω ) =
Re[ gˆ ( jω )] = −
1
j (1 − jω ) 2
j (1 − j 2ω − ω 2 )
; então,
=
−
=
−
jω (1 + jω ) 2
ω (1 + ω 2 ) 2
ω (1 + 2ω 2 + ω 4 )
2
; ω Im[ gˆ ( jω )] =
1 + 2ω 2 + ω 4
pontos para construir o diagrama de Popov:
ω
0
0,3
0,6
X(ω)
-2
-1,68
-1,08
-1
-0,77
-0,35
ωY(ω)
ω 2 −1
. Donde obtemos os seguintes
1 + 2ω 2 + ω 4
1
-0,5
0
2
-0,08
0,12
5
00,04
∞
00+
73
Figura 8
É claro do diagrama de Popov acima que se -1/k < -0,5, ou seja, se k < 2 , existe reta que
deixa à direita o diagrama de Popov. Então estes são os valores de k para que tenhamos
estabilidade absoluta global.
Observação: Como foi relembrado ao se mecionar o critério de Nyquist, ao final do
exemplo (2.26), Re[H(jω)] é uma função par, enquanto que Im[H(jω)] é uma função impar.
Conseqüentemente, ω Im[H(jω)] é uma função par e por isso para traçar o diagrama de
Popov, basta fazer ω variar de 0 a ∞, pois ele coincide com o diagrama que se obtém
quando se faz ω variar de 0 a -∞.
Seja observado que para que o problema tenha solução pelo critério de Popov, o sistema
linear deve ter um e somente um pólo na origem, como acontece no exemplo anterior e no
seguinte:
Exemplo
(3.23)
1
Seja agora o exemplo mais simples que o anterior: H ( s ) =
. Verificar o maior valor
s ( s + 1)
de k para o qual o SMF é absolutamente globalmente estável.
74
1
j (1 − jω )
1
=−
, donde X (ω ) = −
= ωY (ω ) . Portanto
2
jω (1 + jω )
ω (1 + ω )
1+ ω2
o diagrama de Popov é uma reta no 3º. quadrante passando pela origem, com coeficiente
angular igual a 1, conforme se vê na figura 9 abaixo. Então devemos ter -1/ k < 0 , donde
1/ k > 0 , ou seja k > 0, de resto qualquer. Portanto, k < ∞ .
Solução: H ( jω ) =
ω Im[H(jω)]
Re[H(jω)]
Figura 9
Problemas em testes e provas dos anos anteriiores:
1.Considere um SMF em que a parte linear tem função de transferência igual a H(s) = 1 /
s(s+1). A parte não linear pertence ao setor (0 , k). Verificar, utilizando o critério de
Popov, se existe k tal que o SMF seja globalmente assintoticamente estável. Em caso
afirmativo, determinar o maior valor de k.
1
, cuja resposta é
s ( s + 3)
a entrada de um sistema não linear, cuja função está em um setor (0, k). A resposta deste
sistema não linear, com sinal trocado, é a entrada do sistema linear. Verificar se existe k
maior que zero tal que o SMF seja estável, utilizando o critério de Popov. Em caso
afirmativo, verificar qual o maior valor de k para o qual o SMF é estável.
2.Considere um sistema linear com função de transferência H ( s ) =
3. Utilizar o critério de Popov para determinar o maior valor de k do setor de modo que o
SMF seja absolutamente globalmente estável. O sistema linear tem a seguinte função de
a( s − 1)
, com a > 0.
transferência: H ( s ) =
s ( s + 1)
75
s −1
. Utilizando o critério
s ( s + 1)
de Popov, verificar qual o maior valor de k tal que o SMF seja absolutamente estável.
4. Seja o sistema linear com função de transferência H ( s ) =
2
Capítulo 4: Controle Ótimo pelo método de Pontryagin
(Neste capitulo e no próximo voltamos a seguir, essencialmente, o livro de D. Luenberger).
A importância prática do controle ótimo é óbvia, pois freqüentemente, nos problemas de
controle, queremos maximizar ou minimizar alguma coisa: assim por exemplo, deseja-se
maximizar lucros em sistemas econômicos, minimizar energia num veículo, numa
indústria, etc.
4.1 O Problema básico de Controle Ótimo
Focalizaremos principalmente os problemas de tempo contínuo, a razão principal sendo que
se obtêm resultados mais fortes em sistemas de tempo contínuo, graças ao Princípio de
Pontryagin, como veremos.
Consideremos o sistema não-linear e invariante no tempo
x(t ) = f ( x(t ), u (t )) , 0 ≤ t ≤ T , T dado
(1.1a)
x(0) =: xo, fixo.
(1.1b)
Os controles permitidos, são u(t) ε U ,
(1.1c)
onde U é conhecido.
A chamada função objetivo ou índice de desempenho deve ser maximizada ou
minimizada, conforme o problema. Ela é dada, na sua forma mais geral por um número real
dado por
T
J = Ψ ( x(T )) + ∫ l ( x(t ), u (t ))dt .
0
(1.1d)
Conforme a convenção dos capítulos precedentes, x(t) é um vetor de dimensão n ,
enquanto que u(t) tem dimensão m. A primeira parcela de (1.1d) é a contribuição do
estado final para o índice de desempenho, algo que acontece com freqüência nos problemas
de controle ótimo.
Apesar de óbvio, não custa nada deixar claro que no problema do controle ótimo, o objetivo
é determinar u(t), 0≤ t ≤ T com as restrições (1.1a)- (1.1c) de modo a maximizar (ou
minimizar) (1.1d).
A solução do problema do controle ótimo que apresentaremos, demonstrada nos anos 50’s
por Pontryagin e colaboradores é análoga à solução à da maximização (ou minimização) de
funções submetidas a restrições: soma-se à função objetivo a restrição multiplicada por um
76
parâmetro (denominado de Lagrange), que é então maximizada / minimizada. No mesmo
espírito, definamos então
T
J = J − ∫ λ (t )T ( x(t ) − f ( x(t ), u (t ))dt .
(1.2)
0
É claro que J = J , pois o integrando é nulo, de acordo com (1.1a). Então, maximizando /
minimizando J , estaremos maximizando / minimizando J . (Doravante, para simplificar,
usaremos a expressão “otimizar”, que tanto pode significar maximizar ou minimizar). Por
conveniência, definamos a seguinte função, denominada hamiltoniano, omitindo o
argumento (t):
H (λ , x, u ) = λ T f ( x, u ) + l ( x, u ) .
(1.3)
Em vista disso e de (1.1d), (1.2) pode ser re-escrita:
T
T
T
T
T
0
0
0
J = Ψ + ∫ ldt − ∫ λ T ( x − f )dt = Ψ + ∫ ldt + ∫ λ T fdt − ∫ λ T xdt
0
T
0
= Ψ + ∫ (λ f + l − λ x)dt . Em vista de (1.3),
T
T
0
T
J = Ψ ( x(T )) + ∫ {H (λ (t ), x(t ), u (t )) − λ (t )T x(t )}dt .
(1.4)
0
Suponha um controle u(t) que otimize (1.4), o qual, como vimos, otimizará também J.
Considere-se uma “pequena” variação em u(t), ou seja, u(t)→ v(t) , com v(t) também
satisfazendo a (1.1c). Esta variação é “pequena” no sentido que
∫
T
0
ui (t ) − vi (t ) dt < ε , i = 1,2 ....m
(1.5)
onde ui (t ) e vi (t ) são as i – ésimas componentes de u(t) e v(t) , respectivamente, e ε é
arbitrariamente pequeno. Observe-se que (1.5) não implica que ui (t ) e vi (t ) sejam
“próximos” durante todo o tempo; efetivamente, basta que a integral seja pequena.
O controle v(t) produz (ver (1.1a)) uma trajetória diferente da trajetória ótima:
x(t ) → x(t ) + δ x(t ) . A diferença δ x(t ) é “pequena” porque o estado do sistema depende
da integral do controle, conforme (1.1a). As modificações do controle e do estado
produzem, é claro, uma modificação no índice de desempenho: J → J + δ J . Obtemos,
omitindo o argumento (t), em vista de (1.4):
T
δ J = Ψ ( x(T ) + δ x(T )) − Ψ ( x(T )) + ∫ {H (λ , x + δ x, v) − H (λ , x, u ) − λ T δ x}dt .
0
(1.6)
Integrando por partes, temos
∫
T
0
T
T
T
0
0
λ T δ xdt = λ T (t )δ x(t ) 0 − ∫ λ T δ xdt =λ (T )T δ x(T ) − ∫ λ T δ xdt , porque δx(0) = 0 .
Substituindo em (1.6), vem δ J = Ψ ( x(T ) + δ x(t )) − Ψ ( x(T )) − λ (T )T δ x(T )
T
+ ∫ {H (λ , x + δ x, v) − H (λ , x, u ) + λ T δ x}dt .
0
(1.7)
Ora, somando e subtraindo H (λ , x, v) ao integrando, temos
77
∫
∫
T
0
T
0
{H (λ , x + δ x, v) − H (λ , x, u ) + λ T δ x}dt =
{H (λ , x + δ x, v) − H (λ , x, v) + H (λ , x, v ) − H (λ , x, u ) + λ T δ x}dt .
Aplicando o teorema de Taylor às duas primeiras parcelas do integrando acima, com
aproximação de primeira ordem, temos
T ⎛ ∂H (λ , x, v )
⎞
T
(1.8)
∫0 ⎜⎝ ∂x δ x + H (λ , x, v) − H (λ , x, u ) + λ δ x ⎟⎠dt .
∂H (λ , x, u )
δ x , obtemos
Somando e diminuindo ao integrando
∂x
T ⎛ ∂H (λ , x, u )
⎞
⎛ ∂H (λ , x, v) ∂H (λ , x, u ) ⎞
T
∫0 ⎜⎝ ∂x δ x + ⎜⎝ ∂x − ∂x ⎟⎠ δ x + H (λ , x, v) − H (λ , x, u) + λ δ x ⎟⎠dt .
⎛ ∂H (λ , x, v) ∂H (λ , x, u ) ⎞
−
Ora, nesta expressão, ⎜
⎟ δ x é de segunda ordem. Portanto, (1.8)
∂x
∂x
⎝
⎠
T ⎛ ∂H (λ , x, u )
⎞
δ x + H (λ , x, v) − H (λ , x, u ) + λ T δ x ⎟dt .
se transforma em ≈ ∫ ⎜
(1.9)
0
∂x
⎝
⎠
Por outro lado, podemos aplicar o teorema de Taylor às duas primeiras parcelas de (1.7),
obtendo, em vista de (1.9):
T ⎛ ∂H (λ , x, u )
⎛ ∂Ψ ( x(T ))
⎞
⎞
− λ T (T ) ⎟ δ x(T ) + ∫ ⎜
+ λ T ⎟δ xdt +
δJ ≅ ⎜
0
∂x
∂x
⎝
⎠
⎝
⎠
∫
T
0
{H (λ , x, v) − H (λ , x, u )}dt .
(1.10)
Vamos agora escolher λ(t) de modo a anular as duas primeiras parcelas de (1.10), ou seja,
−λ (t )T =
∂H (λ (t ), x(t ), u (t ))
∂x
(1.11a)
∂Ψ ( x(T ))
(1.11b)
∂x
A equação diferencial (1.11a) é chamada adjunta e é resolvida de trás para frente com a
condição final (1.11b). Em vista disso, temos de (1.10), em aproximação de 1ª. ordem:
e a condição final λ (T )T =
δJ =
∫
T
0
{H (λ (t ), x(t ), v(t )) − H (λ (t ), x(t ), u (t ))}dt
(1.12)
Ora se o problema for de maximizar o índice de desempenho, a integral acima deverá ser
negativa ou nula; então o u(t) ótimo deverá satisfazer a
H (λ (t ), x(t ), v(t )) ≤ H (λ (t ), x(t ), u (t )) , ∀v ∈ U , ∀t ∈ [0, T ]
(1.13+)
Se, pelo contrário, o problema for de minimizar o índice de desempenho, a condição será,
pelo mesmo raciocínio,
H (λ (t ), x(t ), v(t )) ≥ H (λ (t ), x(t ), u (t )) , ∀v ∈ U , ∀t ∈ [0, T ]
(1.13-)
78
Então concluímos que o índice de desempenho é maximizado / minimizado, maximizandose / minimizando o hamiltoniano. Este é o famoso Princípio de Pontryagin, cuja
demonstração, foi dada acima de forma não rigorosa. (A demonstração rigorosa envolve
conhecimentos de topologia, além do escopo deste curso). Enunciamo-lo:
Teorema de Pontryagin (Princípio do Máximo / Mínimo)
(1.14)
Seja u(t) o controle ótimo para o sistema definido em (1.1) e seja o Hamiltoniano definido
em (1.3), a saber, H (λ , x, u ) = λ T f ( x, u ) + l ( x, u ) .
(1.3 bis)
∂H (λ (t ), x(t ), u (t ))
(1.11a bis)
Então ∃ λ que satisfaz a (1.11), isto é, −λ (t )T =
∂x
∂Ψ ( x(T ))
.
(1.11b bis)
com a condição final λ (T )T =
∂x
Além disso, em se tratando de maximizar o índice de desempenho (1.1d), temos ,
H (λ (t ), x(t ), v(t )) ≤ H (λ (t ), x(t ), u (t )) ∀v ∈ U , ∀t ∈ [0, T ] ;
(1.13+bis)
mas se tratando de minimizar o índice de desempenho, temos
H (λ (t ), x(t ), v(t )) ≥ H (λ (t ), x(t ), u (t )) , ∀v ∈ U , ∀t ∈ [0, T ] .
(1.13-bis)
Observação 1: O que o teorema de Pontryagin nos diz é que para maximizar / minimizar o
índice de desempenho integral (1.1d), temos que maximizar / minimizar, como função de
u, o hamiltoniano (1.3), uma tarefa usualmente bem mais fácil, como veremos nos
exemplos
Observação 2: As variáveis são as componentes de x(t ), u (t ), λ (t ) , ou seja, um total de 2n
+ m variáveis. Mas por outro lado temos 2n equações diferenciais, a saber (1.1a) e (1.11a),
repetida acima, enquanto que (1.13), nas suas duas versões dadas acima, nos dá m
equações. Para ver isso, considere-se o caso em que u(t) é interior a U; obtém-se o u
ótimo diferenciando-se com relação a u o hamiltoniano e igualando-se a zero, o que nos
dá m equações diferenciais; se o u ótimo estiver em fronteiras de U, obtêem-se
equações algébricas, cada qual correspondente a uma fronteira. Veremos isso mais
claramente nos exemplos.
Exemplo
(1.15)
Nosso primeiro exemplo será um problema puramente geométrico, para mostrar a amplidão
das soluções pelo teorema de Pontryagin. Trata-se de determinar a curva x(t), 0 ≤ t ≤ T que
parte de x(0) = 0 e cujo coeficiente angular nunca é maior do que 1 e que atinja um valor
máximo de x em T. O problema é colocado matematicamente na forma para aplicação do
Teorema de Pontryagin: x(t ) = u (t ) , x(0) = 0 , u (t ) ≤ 1 , J = x(T).
Solução: Aplicando o teorema de Pontryagin, temos:
H = λ u , donde - λ (t ) = 0 e portanto λ é constante em [0, T]; por outro lado, Ψ(x(T)) =
x(T) e, portanto, λ(T) = 1, donde que λ =1 em [0, T]. Por conseguinte, H = u , o qual é
maximizado com u = 1 para todo t em [0, T]. Ou seja, a solução é uma reta de coeficiente
angular igual a 1, como já era de se esperar.
79
Exemplo
(1.16)
Agora, temos um problema mais interessante, cuja solução pode não ser óbvia: trata-se de
acelerar um objeto, de modo a maximizar a distância percorrida, menos a energia
despendida, dada aproximadamente pela integral do quadrado da aceleração. Seja x(t) a
distância percorrida, y(t) a velocidade e u(t) a aceleração. Parte-se do repouso. Então as
⎡ x(t ) ⎤ ⎡ y (t ) ⎤
1 T
equações do problema são: ⎢
, x(0) = y(0) = 0, J = x(T) - ∫ u (t ) 2 dt .
=⎢
⎥
⎥
2 0
⎣ y (t ) ⎦ ⎣ u (t ) ⎦
⎡ y⎤ 1
1
∂H
Solução: H (λ , x, u ) = [ λ1 λ2 ] ⎢ ⎥ − u 2 = λ1 y + λ2u − u 2 , e portanto, - λ1 (t ) =
=0
2
∂x
⎣u ⎦ 2
com λ1 (T ) = 1 (de acordo com (1.11b)), donde λ1 (t ) = 1 para todo t; - λ2 (t ) =
∂H
= λ1 (t ) = 1, com λ2 (T ) = 0; donde λ2 (t ) = T – t , e então
∂y
1
H (λ , x, u ) = y + (T − t )u − u 2 . Temos que maximizar este hamiltoniano com relação a u.
2
Derivando parcialmente com relação a u e igualando a zero, temos u(t) = T – t . Observese que a derivada parcial segunda com relação a u é -1, ou seja, trata-se efetivamente de
um ponto de máximo do hamiltoniano. E como se trata de único ponto de máximo do
hamiltoniano, conclui-se que u(t) = T – t é o controle ótimo que maximiza o índice de
desempenho.
Obseração 3: A última afirmação pressupõe que o problema tenha solução, o que é
intuitivo neste caso. Mas o problema das condições de existência de solução do controle
ótimo não é estudado neste breve curso.
Exemplo
(1.17)
Uma colônia de vespas tem um ciclo de vida anual, ao fim do qual só sobrevivem as
“rainhas”, reprodutoras fêmeas, morrendo todas as operárias. Cada rainha que sobrevive
inicia uma nova colônia. O objetivo da colônia é produzir o maior número de rainhas.
Sejam w(t) e q(t) o número de operários (“workers”) e de rainhas (“queens”),
respectivamente, numa colônia. O seguinte modelo matemático expressa a evolução dos
respectivos números ao longo do ano:
w(t ) = bu (t ) w(t ) − µ w(t ) ,
(1.18a)
q (t ) = c(1 − u (t )) w(t ) ,
(1.18b)
onde b, µ, c > 0, µ < b, 0 ≤ µ ≤ 1. u(t) é o “esforço” da colônia, com 0 ≤ u(t) ≤ 1, uma
parte do esforço sendo para aumentar o número de operárias e o complemento para
aumentar o número de rainhas. Seja T o período (1 ano). b e c dependem do ambiente
em que está a colônia e representam a disponibilidade de recursos, µ é a taxa de
mortalidade das operárias. As condições iniciais são w(0) = 1, q(0) = 0, esta última
condição refletindo o fato que a primeira rainha é contada como operária, visto que ela
trabalha para alimentar a primeira ninhada.
Solução: É claro que o índice de desempenho é J = q(T); o hamiltoniano é
(1.19)
H = λ1 (bu − µ ) w + λ2 c(1 − u ) w .
∂H
Donde, −λ1 =
(1.20a)
= λ1 (bu − µ ) + λ2 c(1 − u ) ,
∂w
80
−λ2 =
∂H
= 0,
∂q
(1.20b)
donde λ2 é constante. Mas é claro que Ψ(T) = q(T) , e portanto, λ1 (T) =
∂Ψ
= 0, λ2 (T) =
∂w
∂Ψ
(1.20c)
= 1. Então λ2 = 1 para todo t.
∂q
Re-escrevendo o hamiltoniano: H = (λ1b − c) wu − λ1µ w + cw .
O hamiltoniano é portanto uma função afim de u e deve ser maximizado com relação a
esta variável; como w > 0, temos u = 0 se λ1b − c < 0 e u = 1 se λ1b − c > 0. (1.21)
Mas vimos que λ1 (T) = 0 e portanto u(T) = 0 em vista da primeira desigualdade acima.
Portanto, desde um tempo t s a ser determinado, até T, o controle ótimo é nulo.
Conseqüentemente, de (1.20a) e (1.20c), temos
−λ1 (t ) = − µλ1 (t ) + c , t ∈ [ t s , T] .
c
Integrando esta equação, obtemos λ1 (t ) = (1 − e µ (t −T ) ) , t ∈ [ t s , T].
µ
(1.22)
(1.23)
Para verificar isto, basta diferenciar esta última, obtendo λ1 (t ) = −ce µ (t −T ) . Substituindo
esta e (1.23) em (1.22), obtemos efetivamente uma identidade. De (1.23) verifica-se que
λ1 (t ) aumenta quando se caminha no sentido inverso do tempo a partir de T. De (1.21) vêse que o controle ótimo é igual a 1 com λ1 (ts ) = c / b.
(1.24)
Então, de (1.20a), com u = 1, temos
−λ1 (t ) = (b − µ )λ1 (t ) , ou λ1 (t ) = ( µ − b)λ1 (t ) , t ∈ [0, t s ] ,
(1.25)
lembrando que µ < b . Ou seja, λ1 (t ) continua crescendo quando se caminha no sentido
inverso do tempo a partir do instante de comutação t s , conforme a figura abaixo.
Figura 10
81
De (1.23) e (1.24), vem
c c
µ
µ
= (1 − eµ (ts −T ) ) ∴ = 1 − eµ (ts −T ) ∴ e µ (ts −T ) = 1 −
b µ
b
b
1 ⎛ µ⎞
⎛ µ⎞
(1.26)
∴ µ (ts − T ) = ln ⎜1 − ⎟ ∴ ts = T + ln ⎜1 − ⎟ .
µ ⎝ b⎠
⎝ b⎠
Conclusão: u = 1 se 0 ≤ t ≤ t s ; u = 0 se t s ≤ t ≤ T , onde t s é dado por (1.26).
4.2 Problemas com restrições terminais
Há muitos problemas em que existem restrições no valor do estado final. Este é o tipo de
problema que trataremos nesta seção. Um exemplo simples é o de achar a trajetória mínima
entre dois pontos fixos. Veremos outros... A prova rigorosa da forma do teorema de
Pontryagin que vamos apresentar é extremamente complexa, foi na realidade um dos
grandes feitos matemáticos em meados do século passado. Nosso problema é então:
x(t ) = f ( x(t ), u (t )) , 0 ≤ t ≤ T , T dado
x(0) =: xo.
Os controles permitidos são u(t) ∈ U ,
onde U é conhecido.
T
J = Ψ ( x(T )) + ∫ l ( x(t ), u (t ))dt
0
(2.1a)
(2.1b)
(2.1c)
(2.1d)
Mas agora temos também restrições no estado final:
(2.1e)
xi (T ) = xi , i = 1,2,...., r ,
renumerando as componentes de x, se necessário.
Quando existem restrições terminais, é possível que o problema seja degenerado, no sentido
de que não tenha solução. Ou pode acontecer também que só exista uma trajetória
satisfazendo às restrições terminais, e neste caso não há otimização.
Em vista disso, o hamiltoniano é definido de modo ligeiramente diferente neste problema, a
saber,
H (λ , x, u ) = λ T f ( x, u ) + λ0l ( x, u ) ,
(2.2)
onde λo = 0 se o problema for degenerado e λo = 1, em caso contrário.
Outra diferença é que agora a relação (1.11b) entre o vetor adjunto e o estado no instante
final T não pode valer para todas as variáveis de estado, tendo efetivamente:
∂Ψ ( x(T )) j
, j = r+1, r+2,....,n
(2.3)
λ j (T ) =
∂x
O Teorema para esta classe de problemas é assim enunciado:
Teorema de Pontryagin (com restrições finais no estado)
(2.4)
Seja u(t) o controle ótimo para o sistema definido em (2.1) e seja o Hamiltoniano definido
(2.2 bis)
em (2.2), a saber, H (λ , x, u ) = λ T f ( x, u ) + λ0l ( x, u ) ,
com λo ≥ 0, e λ(t) tal que
∂H (λ (t ), x(t ), u (t ))
(2.5)
−λ (t )T =
∂x
82
com a condição final λ j (T ) =
∂Ψ ( x(T )) j
, j = r+1, r+2,...., n.
∂x
Se se trata de maximizar o índice de desempenho (2.1d), temos ,
H (λ (t ), x(t ), v(t )) ≤ H (λ (t ), x(t ), u (t )) ∀v ∈ U , ∀t ∈ [0, T ] ;
se se trata de minimizar o índice de desempenho, temos
H (λ (t ), x(t ), v(t )) ≥ H (λ (t ), x(t ), u (t )) , ∀v ∈ U , ∀t ∈ [0, T ] .
(2.3 bis)
(2.6a)
(2.6b)
Como foi dito acima, caso o problema seja degenerado, tem-se que fazer λo = 0 para as
equações ficarem consistentes. Na prática, como freqüentemente não se sabe a priori se o
problema é degenerado, faz-se a tentativa com λo = 1. Se o problema for degenerado,
haverá inconsistência nas equações.
Exemplo (menor distância entre dois pontos)
(2.7)
Trata-se de um problema cuja solução é óbvia: achar a curva x(t) que tenha o menor
comprimento entre os pontos x(0) =0 e x(1) = 1. (Figura 11 abaixo)
Solução: Seja u(t) o coeficiente angular da curva, função de t. Então a equação diferencial
do sistema é: x(t ) = u (t ) ,
com as condições inicial e final acima. Seja ds o diferencial do comprimento medido
sobre a curva. Então temos:
⎛ dx 2 ⎞
⎛ ⎞
2
2
2
2
2
(ds ) = (dx) + (dt ) ∴ ds = (dx) + (dt ) = ⎜ ⎜ ⎟ + 1 ⎟ dt = u 2 + 1 dt .
⎜ ⎝ dt ⎠
⎟
⎝
⎠
(
Então o índice de desempenho é J =
∫(
1
0
)
)
u 2 + 1 dt . Conseqüentemente,
∂H
= 0, donde λ é constante. O controle ótimo é
∂x
∂H
u
= 0 , ou seja, λ +
obtido com
=0
∂u
u2 +1
u2
λ
, ou seja, u é constante no
∴ 2
= λ 2 ∴ u 2 = λ 2u 2 + λ 2 ∴ u 2 (1 − λ 2 ) = λ 2 ∴ u = ±
u +1
1− λ2
tempo e seu valor é obtido, integrando-se a equação de estado, ou seja,
H = λ u + u 2 + 1 , e portanto, −λ =
x(1) - x(0) = 1 =
1
1
0
0
∫ udt = u ∫ dt = u . Ou seja, a solução é uma reta com coeficiente angular
igual a 1, ou seja, fazendo ângulo de 45o com a horizontal, como era de se esperar.
Podemos verificar que o ponto é realmente de mínimo do hamiltoniano:
−
1
∂2 H
u 2 + 1 − u (1/ 2)(u 2 + 1) 2 2u (u 2 + 1) − u 2
1
> 0, mostrando que se trata,
=
=
=
3
3
2
2
∂u
u +1
2
2
2
2
(u + 1)
(u + 1)
efetivamente, de mínimo.
83
x
t
Figura 11
Exemplo (O problema isoperimétrico)
(2.8)
Trata-se de um problema clássico do cálculo de variações: achar a curva, de comprimento
dado L que une dois pontos fixos distantes T = 1 um do outro no eixo horizontal e que
circunscreve a maior área possível, sendo 1 < L ≤ Π / 2 (ver figura 12 abaixo).
Solução: Seja u(t) o coeficiente angular da curva, como no exemplo anterior. Então o
problema é definido matematicamente:
1
x(t ) = u (t ) , x(0) = 0, x(1) = 0, J = ∫ xdt .
0
Por outro lado, como vimos no exemplo anterior, o comprimento da curva é
∫(
1
0
)
u 2 + 1 dt = L .
Para resolver este problema, introduzimos uma nova variável, y(t), satisfazendo a
⎡ x⎤ ⎡ u ⎤
y = u 2 + 1 , com y(0) = 0, y(1) = L . Então, temos o estado do sistema: ⎢ ⎥ = ⎢ 2 ⎥
⎣ y ⎦ ⎣⎢ u + 1 ⎥⎦
⎡ x(1) ⎤ ⎡ 0 ⎤
em que a restrição sobre o estado final é ⎢
⎥ = ⎢ ⎥ . O hamiltoniano é:
⎣ y (1) ⎦ ⎣ L ⎦
∂H
∂H
= 1, −λ2 =
= 0 e portanto λ2 é
H = λ1u + λ2 u 2 + 1 + x . Conseqüentemente, −λ1 =
∂y
∂x
u
∂H
λ2u
λ
= 0, donde
constante. Para obtermos o controle ótimo:
= λ1 +
=− 1 ;
2
2
λ2
∂u
u +1
u +1
mas como λ1 é linearmente proporcional a t enquanto que λ2 é constante, podemos
84
escrever
u
u2 +1
= A + Bt, com A e B constantes. Donde,
∴ u 2 (1 − ( A + Bt ) 2 ) = ( A + Bt ) 2 ∴ u = x = ±
A + Bt
1 − ( A + Bt ) 2
u2
= ( A + Bt ) 2
2
u +1
.
(2.9)
x
T
t
Figura 12
Vamos agora provar que esta equação diferencial tem por solução um arco de círculo. Seja,
um círculo com centro em ( t1 , x1 ) e raio r ; sua equção é: ( x − x1 ) 2 + (t − t1 ) 2 = r 2 , (2.9a)
2 x1 ± 4 x12 − 4 x12 − 4(t − t1 ) 2 + 4r 2
=
2
t1 − t
2(
t
−
t
)
1
r
,
(2.10)
x1 ± r 2 − (t − t1 ) 2 ∴ x = ∓
=±
2
2
2
2 r − (t − t1 )
⎛ t1 − t ⎞
1− ⎜
⎟
⎝ r ⎠
que é uma expressão da forma (2.9).
Reportemo-nos à figura 13 abaixo. É dado do enunciado do problema que x(0) = 0, donde
(2.10a)
substituindo em (2.9a), temos x12 + t12 = r 2 ;
ou seja, x 2 − 2 x1 x + x12 + (t − t1 ) 2 − r 2 = 0 ∴ x =
e também do enunciado, x(1) = 0, donde x12 + (1 − t1 )2 = r 2 ∴ x12 + 1 − 2t1 + t12 = r 2 ; subtraindo
esta da anterior, obtemos t1 = ½, o que já seria de se esperar, por simetria.
(2.11)
Observe-se que de (2.10) há duas soluções, correspondendo ao centro do círculo acima ou
abaixo (como na figura 13) do eixo dos t .
85
De (2.10a) e de (2.11), x1 = ± r 2 − 1/ 4 ,
L
.
L = 2rθ, donde r =
2θ
1/ 2
.
E temos também senθ =
r
1 2θ
θ
De (2.13) e (2.14) vem senθ =
∴
=L
2 L senθ
(2.12)
(2.13)
(2.14)
(2.15)
L2 1
1
(2.16)
L2 − θ 2
− ∴ x1 = ±
2
4θ
4
2θ
O problema é resolvido com (2.15), (2.13) e (2.16), observando que (2.15) é uma equação
transcendental, podenso ser resovida facilmente via Matlab, etc.
De (2.12) e (2.13), vem x1 = ±
Nota: foi suposto que L ≤ Π / 2 . Com L = Π / 2 temos o semi-círculo com centro no eixo
horizontal.
Figura 13
4.3 Problemas com tempo final livre
86
Nesta seção consideraremos problemas em que o tempo final não é prefixado, mantendo a
possibilidade de restrições no estado final. Repetindo as equações:
x(t ) = f ( x(t ), u (t )) , 0 ≤ t ≤ T .
x(0) =: xo.
Os controles permitidos, são u(t) ∈ U ,
onde U é conhecido.
T
J = Ψ ( x(T )) + ∫ l ( x(t ), u (t ))dt
0
(3.1a)
(3.1b)
(3.1c)
(3.1d)
(3.1e)
xi (T ) = xi , i = 1,2,...., r .
Trata-se agora de achar T > 0 e u(t), t ∈ [0, T] de modo que (2.1d) seja maximizado /
minimizado.
O índice de desempenho modificado é, como vimos,
T
J = Ψ ( x(T )) + ∫ {H (λ (t ), x(t ), u (t )) − λ (t )T x(t )}dt .
0
(1.4bis)
Perturbando o controle, isto é, u(t) → v(t), sendo u(t) o controle ótimo, passamos da
trajetória ótima x(t) para a trajetória x(t) + δ x(t) e passamos do tempo final ótimo T
para T + δT. O estado final passa a ser x(T) + dx(T ), onde, fazendo aproximação de 1ª.
(3.3)
ordem, temos dx(T ) = δx(T) + x(T )dT = δx(T) + f ( x(T ), u (T ))dT .
Como conseqüência, temos, analogamente como na primeira seção (ver (1.10):
T ⎛ ∂H (λ , x, u )
∂Ψ ( x(T ))
⎞
+ λ T ⎟δ xdt +
dx(T ) − λ (T )T δ x(T ) + l ( x(T ), u (T ))dT + ∫ ⎜
dJ =
0
x
∂
∂x
⎝
⎠
∫
T
0
{H (λ , x, v) − H (λ , x, u )}dt .
(3.4)
Tal como na 1ª. Seção, escolhemos λ de modo a satisfazer à equação adjunta, anulando a
primeira integral. Em seguida, substituímos o valor de δx(T) de (3.3) em (3.4), obtendo
⎛ ∂Ψ ( x(T ))
⎞
− λ (T )T ⎟ dx(T ) + [λ (T )T f ( x(T ), u (T )) + l ( x(T ), u (T ))]dT +
dJ = ⎜
∂x
⎝
⎠
∫
T
0
{H (λ , x, v) − H (λ , x, u )}dt .
(3.5)
Agora, tal como na seção anterior (ver (2.3)), temos as condições terminais
∂Ψ ( x(T )) j
, j = r + 1, r + 2,......, n , anulando a primeria parcela de (3.5). Quanto à
λ j (T ) =
∂x
integral de (3.5) ela deve ser, tal como nas seções anteriores,
H (λ (t ), x(t ), v(t )) ≤ H (λ (t ), x(t ), u (t )) no caso de maximização e invertendo-se a
desigualdade no caso de minimização. Considere-se a parcela
[λ (T )T f ( x(T ), u (T )) + l ( x(T ), u (T ))]dT de (3.5) acima. O que está entre [ ] é o
hamiltoniano no instante T. Ele tem que ser nulo: com efeito, seja o problema de
maximizar o índice de desempenho e suponha que o hamiltoniano no instante final seja
diferente de zero, para concretizar, menor que zero; então para todo dT menor que zero,
haveria um acréscimo no valor do índice desempenho, ou seja, u(t) não estaria
maximizando o índice de desempenho. Então, acabamos de demonstrar o:
87
(3.6)
Teorema de Pontryagin (com restrições finais no estado e tempo final livre)
Seja u(t) o controle ótimo para o sistema definido em (3.1) e seja o Hamiltoniano definido
(3.7)
em (3.2), a saber, H (λ , x, u ) = λ T f ( x, u ) + λ0l ( x, u ) .
Então ∃ λo constante e λ(t) , com λo ≥ 0, e λ(t) tal que
∂H (λ (t ), x(t ), u (t ))
−λ (t )T =
(3.8)
∂x
∂Ψ ( x(T )) j
, j = r+1, r+2,....,n.
(3.9)
com a condição final λ j (T ) =
∂x
Alem disso, se se tratar de maximizar o índice de desempenho (3.1d), temos ,
H (λ (t ), x(t ), v(t )) ≤ H (λ (t ), x(t ), u (t )) ∀v ∈ U , ∀t ∈ [0, T ] ;
(3.10)
se se trata de minimizar o índice de desempenho, temos
H (λ (t ), x(t ), v(t )) ≥ H (λ (t ), x(t ), u (t )) , ∀v ∈ U , ∀t ∈ [0, T ] .
(3.11)
Mais ainda, temos H (λ (T ), x(T ), u (T )) = 0
(3.12)
Portanto, temos as mesmas condições do teorema anterior, com a condição adicional
(3.12).
Exemplo (Problema de Zermelo)
(3.13)
Suponha que eu queira atravessar um rio com um bote em tempo mínimo, chegando a um
ponto especificado na outra margem. (Ver a figura 14 abaixo). A velocidade do barco é
uma constante V . A velocidade do rio é u(y), função da distância à margem. Calcular o
ângulo θ que a direção do barco faz com a correnteza.
Solução: Sejam x(t ) e y (t ) , as coordenadas da posição do barco, as variáveis de estado e
θ a variável de controle. Então as equações de estado são:
(3.14)
x = V cos θ + u ( y ) , y = Vsenθ
De acordo com os dados do problema, x(T) e y(T) são especificados e então no índice de
desempenho (3.2) temos Ψ ( x(T )) = 0. Além disso, como se trata de minimizar o tempo,
temos no índice de desempenho l ( x(t ), u (t )) = 1.
O hamiltoniano é portanto H = λ1V cos θ + λ1u ( y ) + λ2Vsenθ + 1 .
du
.
Conseqüentemente, −λ1 = 0 ∴ λ1 é constante, −λ2 = λ1
dy
∂H
Para minimizar,
= −λ1Vsenθ + λ2V cos θ = 0,
∂θ
e portanto, tgθ (t ) =
λ2 (t )
.
λ1
(3.15)
(3.16)
(3.17)
(3.18)
O passo a seguir não está no “script”: diferenciemos H em relação a t. De (3.15) e (3.16),
temos
dH
du ( y )
y (t ) + λ2Vsenθ (t ) + λ2V cos θ (t )θ (t )
= −λ1Vsenθ (t )θ (t ) + λ1
dt
dy
88
Figura 14
= (−λ1Vsenθ (t ) + λ2V cos θ (t ))θ (t )) + λ1
du ( y )
y (t ) + λ2Vsenθ (t ) . Mas em vista de (3.17),
dy
du ( y )
dH
y + λ2Vsenθ ; substituindo de (3.14) e (3.16), temos
= λ1
dy
dt
du ( y )
du ( y )
dH
= λ1
Vsenθ - λ1
Vsenθ = 0; portanto H é constante e em vista de (3.12),
dy
dy
dt
temos que H = 0 para todo t.
(3.19)
senθ
Substituindo (3.18) em (3.15), temos H = λ1V cos θ + λ1u ( y ) + λ1
Vsenθ + 1 =
cos θ
λ1V cos 2 θ + λ1u ( y ) cos θ + λ1Vsen 2θ
λ (V + u ( y ) cos θ )
+1= 1
+ 1 . E em vista de (3.19),
cos θ
cos θ
−λ1V
V
V + u ( y ) cos θ
1
,
(3.20)
temos
= − ∴ cos θ =
=
1 + λ1u ( y ) − 1 − u ( y )
λ1
cos θ
ficamos com
λ1
λ1 sendo determinável pelas condições inicial e final de x e y, integrando (3.14).
Suponhamos, para simplificar, que a velocidade do rio seja constante, isto é, u(y) =
constante = u. Mais ainda, suporemos x(0) = x(T) = 0. Definamos, para simplificar
1
notacionalmente, A = − .
(3.21)
λ1
Então, de (3.20), cos θ =
V
,
A−u
V2
. Com x(0) = 0, temos x(T) =
A−u
⎛
⎛
V2 ⎞
V2 ⎞
u2 −V 2
⎜u +
⎟ T . Mas com x(T) = 0, então ⎜ u +
⎟ T , = 0 , e portanto, A =
u
A−u ⎠
A−u ⎠
⎝
⎝
(3.21a)
um valor constante. Desta e de (3.14), x = u +
=
89
u-
V2
.
u
(3.22)
V
= - u / V . Este resultado corresponde à
V2
u−
−u
u
nossa intuição: o ângulo tem que ser maior que π / 2 para chegarmos à margem oposta bem
em frente; e por outro lado, V tem que ser maior que u.
Para calcular o tempo mínimo, é só integrar a 2ª. equação (3.14). Calculemo-lo:
Desta e de (3.21a), cos θ =
senθ = 1 − cos 2 θ = 1 −
V
=
A−u
u2
V 2 − u2
=
V2
V
T
T
0
0
∴ y (T ) − y (0) = ∫ Vsenθ dt = ∫ V 2 − u 2 dt = V 2 − u 2 T ∴T =
y (T )
V 2 − u2
, sendo y (T ) a
largura do rio.
Exemplo (Problema do “bang-bang”)
Seja o problema
x1 = x2 , x2 = u ,
-1≤ u ≤ 1 ,
x1 (0) e x2 (0) dados (arbitrários),
(3.23)
(3.24)
x1 (T ) = x2 (T ) = 0,
T
J = ∫ dt .
0
A interpretação mecânica deste problema é óbvia: x1 é espaço, x2 é velocidade, u é
aceleração: trata-se de levar um objeto de um ponto qualquer com velocidade inicial
arbitrária a um ponto determinado, a origem no espaço de estado, chegando com velocidade
nula, em tempo mínimo. A aceleração e desacelaração máximas são limitadas. Exemplo:
um ônibus urbano que vai de um ponto a outro (no caso, x2 (0) = 0). Quais devem ser a
aceleração e desaceleração de modo que ele faça o trajeto em tempo mínimo?
Solução: l = 1, Ψ = 0. Então o hamiltoniano é:
(3.25)
H = λ1 x2 + λ2u + 1 ,
∂H
donde −λ1 =
= 0 , ou seja, λ1 é constante,
∂x1
∂H
−λ2 =
= λ1 donde λ2 = −λ1t + c0 , onde c0 é uma constante.
∂x2
Mas de (3.25) é claro que o hamiltoniano é minimizado com relação a u se só se
u (t ) = − sign[λ2 (t )] = − sign[−λ1 (t ) + c0 ] .
Ou seja, se λ2 for positivo, então u será igual a -1, e se for negativo, u será igual a 1. Mas
sendo λ2 afim em t, é claro que se anula (no máximo) uma vez no intervalo [0, T], e
portanto u só comuta (no máximo) uma vez de -1 para 1, ou vice-versa. Daí entendemos o
90
nome de controle “bang-bang”.
Seja primeiramente u(t) = 1.Da segunda equação de (3.24), vem x2 = t + c1 ,
para alguma constante c1 . E da primeira equação de (3.24). temos x1 =
(3.26)
2
t
+ c1t + c2 , para
2
alguma constante c2 . Substituindo t de (3.26), vem:
x2
c2
( x2 − c1 ) 2
+ c1 ( x2 − c1 ) + c2 , ou, x1 = 2 + c , onde c = c2 − 1 .
(3.27)
2
2
2
Claro que esta é a equação de uma família de parábolas, simétricas com relação ao eixo x1 ,
cada parábola sendo definida pelo valor de c . Este conjunto de parábolas está na figura
15a abaixo. As setas indicam o valor crescente do tempo, como fica claro de (3.26) e a
orientação das parábolas se deve ao fato que, de acordo com (3.27), x2 → +∞ quando
t → ∞ . Observe-se, a propósito, que as parábolas não se prolongam indefinidamente para
baixo, pois c é limitado. Se c > 0, as parábolas ficarão no 4º. e no 1º. quadrantes em vista
de (3.27).
Seja agora u(t) = -1. Então teremos da segunda equação de estado (3.24)
(3.27a)
x2 = −t + d1 ,
x1 =
d1 uma constante, e da primeira, x1 = −
(d − x ) 2
t2
+ d1t + d 2 = − 1 2 + d1 (d1 − x2 ) + d 2 , ou ,
2
2
x22
d2
+ d , onde d = 1 + d 2 .
(3.28)
2
2
O conjunto de parábolas correspondentes a esta equação está na figura 15b abaixo, com as
setas indicando o valor crescente do tempo, conforme (3.27a). Se c < 0, as parábolas
ficarão no 2º. e 3º. quadrantes, em vista de (3.28) abaixo.
Ora, é claro que em cada conjunto de parábolas só há uma que chega a (0,0), que é o estado
final, de acordo com o enunciado do problema.
Na figura 15c abaixo, são representadas as duas semi - parábolas que chegam a (0,0); elas
constituem uma curva contínua que é chamada de curva de comutação. Na mesma figura
estão representados dois estados iniciais x(0) = [ x1 (0), x2 (0)]T , um no primeiro e o outro
no segundo quadrante. O estado do primeiro quadrante não pode ir direto para [0,0]T, pois a
parábola com controle u = 1 o afastaria do ponto, então a única maneira de chegar lá é
aplicar o controle u = -1 até a curva de comutação e, lá chegado, aplicar o controle u = 1.
Raciocínio análogo para o estado inicial x(0) no segundo quadrante. Temos então sempre o
seguinte: se o estado inicial estiver abaixo da curva de comutação, temos que aplicar o
controle u = 1 até o estado atingir a curva de comutação e a partir daí o controle u = -1. Se
o estado inicial estiver acima da curva de comutação, apica-se primeiramente o controle u
= -1 até atingir a curva de comutação e então aplica-se o controle u = 1.
x1 = −
91
Figura 15a
92
Figura 15b
93
Figura 15c
Exemplo (Problema mal-condicionado)
Seja o sistema x(t ) = u 2 (t ) ; x(0) = 0; x(1) = 0;
(3.29)
1
Achar o mínimo do índice de desempenho J = ∫ u (t )dt .
0
Solução: H = λ u 2 + u , −λ =
∂H
= 0 , donde λ é constante. Para achar o mínimo:
∂x
∂H
= 0 , donde 2λu + 1 = 0, donde u = -1 / 2λ,
∂u
(3.30)
1
portanto u é constante. Mas da equação de estado, x(1) – x(0) = u 2 ∫ dt = u2; mas dos
0
dados do problema, concluímos u = 0; mas isto está em contradição com (3.30).
Que está acontecendo? O problema é mal condicionado. Na realidade, como o estado
terminal está submetido a restrição, o hamiltoniano é
λ
∂H
= 2λu + λo = 0 ∴ u = − 0 , e isto implica λo = 0,
H = λu 2 + λ0u , e portanto,
2λ
∂u
eliminando a contradição.
94
4.4 Sistemas lineares com índice de desempenho quadrático
Estudaremos nesta seção uma classe de sistemas muito pesquisada e desenvolvida na
literatura especializada e que tem muitas aplicações. Trata-se de sistemas lineares variantes
no tempo em que o controle não está submetido a restrições e em que o índice de
desempenho é quadrático:
(4.1a)
x(t ) = A(t ) x(t ) + B(t )u (t ) , x(0) = xo
1
1 T
(4.1b)
J = x(T )T Fx(T ) + ∫ [ x(t )T Q(t ) x (t ) + u (t )T R (t )u (t )]dt ,
2
2 0
onde as matrizes F, Q e R são simétricas, F e Q são positivas semi-definidas e R é
positiva definida.
x(t) e u(t) têm as dimensões usuais, F, Q e R têm dimensões apropriadas.
Como não há restrições finais no estado, caímos no primeiro teorema de Pontryagin (1.14 )
O hamiltoniano é:
1
(4.2)
H = λ (t )T A(t ) x(t ) + λ (t )T B(t )u (t ) + [ x(t )T Q(t ) x(t ) + u (t )T R(t )u (t )]
2
e portanto,
∂H
−λ (t )T =
= λ (t )T A(t ) + x(t )T Q(t )
(4.3)
∂x
Por outro lado, não havendo retrição no controle, o controle ótimo deve satisfazer a
∂H
(4.3a)
= 0 ∴ λ (t )T B(t ) + u (t )T R(t ) = 0 , e portanto,
∂u
u (t ) = − R(t ) −1 B (t )T λ (t ) ,
(4.4)
o fato de R(t) ser positiva definida garantindo a sua invertibilidade.
Donde, substituindo esta em (4.1),
x(t ) = A(t ) x(t ) − B (t ) R (t ) −1 B(t )T λ (t ) ,
(4.5)
enquanto que transpondo (4.3), vem
(4.6)
−λ (t ) = Q(t ) x(t ) + A(t )T λ (t )
Quanto ao estado x(t), temos a condição inicial dada em (4.1a) e por outro lado, de (1.11b),
⎛1
⎞
∂ ⎜ x(T ) Fx(T ) ⎟
2
⎠ = x(T )T F ∴ λ (T ) = Fx(T ) .
(4.7)
temos:
λ (T )T = ⎝
∂x
Mas sendo o sistema linear (isto é, as equações (4.1a) e (4.3)), é claro que tanto x(t) como
λ(t) dependem linearmente de xo e portanto λ(t) depende linearmente de x(t). Então
façamos
λ (t ) = P(t ) x(t ) ,
(4.8)
onde P(t) ainda será determinado. Substituindo esta em (4.5), vem
(4.9)
x(t ) = [ A(t ) − B(t ) R(t ) −1 B (t )T P(t )]x(t )
Diferenciando (4.8), temos
λ (t ) = P (t ) x(t ) + P(t ) x(t ) ; disto e de (4.6) com(4.8),vem:
− P (t ) x(t ) − P (t ) x(t ) = [Q(t ) + A(t )T P(t )]x(t ) ; somando esta com (4.9) pré-multiplicada por
P(t), temos
95
− P (t ) x(t ) = [ P(t ) A(t ) + A(t )T P(t ) − P(t ) B(t ) R(t ) −1 B(t )T P(t ) + Q(t )]x(t ) .
Mas esta equação é verdadeira para todo x(t), donde temos a equação
− P (t ) = P(t ) A(t ) + A(t )T P(t ) − P (t ) B (t ) R(t ) −1 B (t )T P(t ) + Q(t ) ,
(4.10)
onde a condição final vem de (4.7) e (4.8), a saber,
(4.11)
P(T ) = F
Esta equação é chamada equação diferencial de Riccati, que tem larga aplicação nos
ramos mais disparatados (ao menos aparentemente) da ciência e da tecnologia.
Agora observe-se que transpondo (4.10),
− PT (t ) = PT (t ) A(t ) + AT (t ) PT (t ) − PT (t ) B(t ) R(t ) −1 BT (t ) PT (t ) + Q(t ) .
Ora, substituindo-se nesta equação PT (t ) por P(t ) , obtemos a equação (4.10). Ou seja,
P(t ) e PT (t ) são soluções da mesma equação diferencial e, portanto, podemos igualá-los
sem perda de generealidade.
Recapitulando, de (4.4) e (4.8), temos
u (t ) = − R (t ) −1 B(t )T P (t ) x(t ) = K(t) x(t) ,
(4.12)
−1
T
com K(t) = − R(t ) B(t ) P(t ) ,
(4.13)
onde P(t), uma matriz simétrica, satisfaz a (4.10) com (4.11).
As duas últimas expressões mostram que a solução ótima é em feedback do estado, ou seja,
o controle ótimo é dado online pré-multiplicando o estado por K(t). Mas note-se que P(t)
tem que ser calculado offline de (4.10) e (4.11). A razão de o cálculo ter que ser offline é o
fato de se conhecer o valor final P(T) e não o valor inicial de P(t).
Finalmente, faltou confirmar que calculamos efetivamente um ponto de mínimo e não de
máximo. É claro que basta raciocinar intuitivamente para responder a esta dúvida, pois o
máximo do índice de desempenho dado em (4.1b) é infinito. Mas para confirmar,
∂2H
= R , uma matriz
calculemos a derivada segunda do hamiltoniano: de (4.3a), temos
∂u 2
positiva definida, comprovando que se trata de ponto de mínimo.
Sistemas invariantes no tempo:
Uma classe muito importante de sistemas tratados nesta seção é a dos sistemas invariantes
no tempo. Eles são bem mais comuns, para todos os efeitos práticos, do que os sistemas
variantes no tempo. Suporemos também que T tende a infinito: esta hipótese é também
muito comum, na realidade isto signifca, para todos os efeitos práticos, que T é “muito
grande”. Diante disto, podemos supor que x(t ) → 0 quando t → ∞ ; se assim não
fosse, o índice de desempenho divergiria, isto é, seria ilimitado. Como conseqüência,
podemos supor F = 0 no índice de desempenho. Ora, a equação de Ricatti é integrada de
trás para frente no tempo, e então podemos supor também que P (t ) → 0 quando t → ∞.
Quando consideramos a equação de Riccati integrada de trás para frente, ela se transforma
na equação algébrica
PA + AT P − PBR −1 BT P + Q = 0 .
(4.14)
Esta é a equação algébrica de Riccati.
Portanto, no caso de sistemas invariantes no tempo com t → ∞ , temos de (4.12) e (4.13),
u (t ) = − R −1 BT Px(t ) = Kx(t),
(4.15)
96
(4.16)
com K = − R −1 BT P ,
P satisfazendo à equação (4.14).
Vale notar que de (4.1a) temos então x(t ) = ( A + BK ) x(t )
(4.17)
Observe-se que como x(t ) → 0 quando t → ∞ , então desta última equação temos que os
auto-valores de A + BK têm que estar no semi-plano aberto da esquerda.
Exemplo
Considere o sistema
x(t ) = x(t ) + u (t ) , escalar, com x(0) = xo, dado; J =
(4.18)
∫
∞
0
( x 2 + u 2 )dt . Achar o controle que
minimize este índice de desempenho.
1 ∞
Solução: J = ∫ (2 x 2 + 2u 2 )dt ; então temos A = B = 1, Q = R = 2. De (4.14), temos
2 0
1
4 ± 16 + 16
= 2 ± 2 2 ; e portanto, de (4.15),
P + P − P P + 2 = 0 ∴ P2 − 4P − 4 = 0∴ P =
2
2
1
vem u = − (2 ± 2 2) x = (−1 ∓ 2)x ; substituindo esta na equação de estado, temos
2
x(t ) = ∓ 2 x . É claro que o mínimo corresponde ao sinal negativo da raiz, ou seja, o
controle ótimo é u (t ) = (−1 − 2) x(t ) .
4.5 Sistemas de tempo discreto
Nas seções anteriores tratamos de sistemas de tempo contínuo, que têm mais apelo do
ponto de vista físico. A objeção segundo a qual usamos computadores e portanto os
sistemas de tempo discreto são mais importantes, torna-se cada vez mais fraca na medida
em que os computadores estão cada vez mais velozes: para todos os efeitos práticos, os
próprios computadores, que são os controladores na maioria dos processos, podem ser
tratados como sistemas de tempo contínuo.
Nossa base de tempo será a usual: k = 0,1,2,......, N-1 .
Nossos sistemas são definidos na forma bastante geral, não linear:
x(k + 1) = f ( x(k ), u (k )) , x(0) = xo
O índice de desempenho é:
(5.1)
N −1
J = Ψ ( x( N )) + ∑ l ( x(k ), u (k )) ,
(5.2)
k =0
observando-se que não há restrições no controle no problema aqui tratado.
Este problema não foi tratado por Pontryagin e/ ou seus colaboradores, mas o método aqui
apresentado para sua solução segue o mesmo espírito da solução dada nas seções anteriores.
Definimos o hamiltoniano
(5.3)
H (λ (k + 1), x(k ), u (k )) = λ (k + 1)T f ( x(k ), u (k )) + l ( x(k ), u (k )) ,
ressaltando-se que nesta definição λ está adiantado no tempo com relação a x e u.
Tal como no tempo contínuo definimos
97
N −1
J = J − ∑ [λ (k + 1)T x(k + 1) − λ (k + 1)T f ( x(k ), u (k ))] ,
(5.4)
k =0
sendo que J = J , porque o somatório acima é nulo em vista de (5.1). Em vista de (5.2),
N −1
N −1
k =0
k =0
J = Ψ ( x( N )) + ∑ l ( x(k ), u (k )) − ∑ [λ (k + 1)T x(k + 1) − λ (k + 1)T f ( x(k ), u (k ))] , o que nos
dá, reagrupando os termos,
N −1
N −1
k =0
k =0
J = Ψ ( x( N )) + ∑ [l ( x(k ), u (k )) + λ (k + 1)T f ( x(k ), u (k ))] − ∑ λ (k + 1)T x(k + 1) ,
ou ainda, reconhecendo nos somandos do primeiro somatório o hamiltoniano em (5.3), vem
N −1
N −1
k =0
k =0
J = Ψ ( x( N )) + ∑ H (λ (k + 1), x(k ), u (k )) − ∑ λ (k + 1)T x(k + 1) .
(5.5)
Mas a última parcela de (5.5) é
N −1
∑ λ (k + 1)
T
x(k + 1) =
k =0
N −1
∑ λ (k )
T
x(k ) −λ (0)T x(0) + λ ( N )T x( N ) .
k =0
Em vista disso, temos de (5.5)
N −1
J = Ψ ( x( N )) + ∑ [H (λ (k + 1), x(k ), u (k )) − λ (k )T x(k )] − λ ( N )T x( N ) + λ (0)T x(0) .
(5.6)
k =0
Então, podemos enunciar o seguinte teorema, cuja demonstração segue os passos, com as
devidas modificações, das demonstrações no caso de sistemas de tempo contínuo.
Teorema- Controle ótimo em sistemas de tempo discreto
Seja o sistema com equações de estado e índice de desempenho definidos em (5.1) e (5.2).
Então existe λ(k) tal que o controle ótimo u(k) e a trajetória ótima x(k) satisfazem às
seguintes condições:
∂ ( H (λ (k + 1), x(k ), u (k ))
,
(5.7)
λ (k )T =
∂ ( x(k ))
∂ (Ψ ( x( N )))
λ ( N )T =
,
(5.8)
∂ ( x( N ))
∂ ( H (λ (k + 1), x(k ), u (k )))
=0 .
(5.9)
∂ (u (k ))
Observe-se que, diferentemente do caso do tempo contínuo, não há sinal negativo na
equação adjunta (5.7). Afora esta diferença e o fato de λ estar adiantado no tempo com
relação a x e u, as equações acima são esperadas: compare-se com o teorema (1.14), onde
as condições (1.13) têm o caso particular análogo a (5.9), como vimos, caso não haja
restrição no controle. Observe-se ainda que a última parcela de (5.6) é fixa: x(0) é dado,
enquanto que λ (0) é calculado a partir de (5.7) e (5.8).
Os teoremas das 2ª. e 3ª. seções têm também aqui sua contra-partida. Assim, por exemplo,
se houver restrições no estado final, pode acontecer que o problema seja mal condicionado
e neste caso teremos que usar λo multiplicando l ( x(k ), u (k )) .
98
Exemplo
Considere o problema escalar
x(k + 1) = x(k ) − u (k ) , com x(0) = A , x( N ) = 0 ,
(5.10)
N −1
Maximizar J = ∑ u (k )1/ 2
k =0
Este problema pode representar o da alocação ótima de recursos, por exemplo, dinheiro:
com efeito a equação de estado indica que a cada passo os recursos são diminuídos;
partindo-se de um total A de recursos, depois de N passos, os recursos chegam a zero.
Investe-se u ( k ) a cada passo, obtendo-se um retorno de u (k )1/ 2 . Pergunta-se qual a
política ótima de investimento, ou dentro de nossa terminologia, qual o controle ótimo ?
Solução:
O hamiltoniano é: H = λ (k + 1) x(k ) − λ (k + 1)u (k ) + u (k )1/ 2 .
A equação adjunta é
∂ ( H (λ (k + 1), x(k ), u (k ))
λ (k ) =
= λ (k + 1) ,
∂ ( x(k ))
ou seja, λ(k) é constante.
Diferenciando o hamiltoniano em relação a u e igualando a zero, temos
∂H
1
= −λ (k + 1) + u (k )−1/ 2 = 0 ,
2
∂u
donde concluímos que u (k ) é constante. Conseqüentemente, o controle ótimo é
A
.
u (k ) =
N
Problemas dados em provas dos anos anteriores
1. Considere o seguinte sistema que corresponde a um carro empurrado com atrito:
d x(t) = y(t),
dt
d y(t) = u(t) - k y(t), onde k é uma constante.
dt
T
O índice de desempenho, que deve ser maximizado, é J = x(T) - ½
∫ u (t )
2
dt .
0
Achar u(t) ótimo em função de k e de T.
2. O seguinte sistema representa a caça (ou pesca) dentro de um espaço limitado, onde x(t)
representa o número de animais (peixes) e u(t) denota a intensidade da atividade (caça / pesca):
d(x(t)) = x(t) - (x(t) u(t))1/2 . O objetivo é maximizar o lucro dentro de um período típico de 1 ano:
dt
T
J =
∫[
x(t )u (t ) − u (t )]dt . Utilizando o Princípio de Pontryagin, demonstrar que o
0
controle ótimo, u(t), é linearmente proporcional ao estado x(t). (Dica: é preciso demonstrar também
que a variável adjunta λ(t) independe explicitamente de u(t) e x(t)).
99
3.Deseja-se que uma bola vá de um ponto para outro, de alturas diferentes, pela ação da gravidade,
em tempo mínimo. Sejam x1 (t ) e x2 (t ) as coordenadas da bola. As equações de estado são
dx1 (t )
dx (t )
= x2 (t ) cos θ (t ) , 2 = x2 (t ) senθ (t ) , onde θ (t ) é o ângulo que a tangente
dt
dt
geométrica à curva faz com a horizontal (eixo x1 ). O índice de desempenho é J =
∫
T
0
dt .
dθ (t )
é constante ao longo da curva (4
dt
pontos). Calcular então a equação paramétrica da curva, isto é, x1 (t ) e x2 (t ) em função de θ (t )
dθ (t )
e de
:= K (constante).
dt
Utilizando o Princípio de Pontryagin, demonstrar que
4. x(t ) = f ( x(t ), u (t )) , J =
∫
T
0
l ( x(t ), u (t ))dt . Queremos maximizar / minimizar o índice de
desempenho J. f ( x(t ), u (t )) e l ( x(t ), u (t )) não dependem explicitamente do tempo e não
há restrições no controle u(t). Utilizando o Teorema de Pontryagin, demonstrar que o
hamiltoniano é constante para todo t, 0 ≤ t ≤ T . Sugestão: calcule a derivada do
hamiltoniano com relação a t.
5. Sistema “bang-bang”:
dx(t) = y(t),
dt
d y(t) = u(t), t ∈ [0,1] , -1 ≤ u(t) ≤ 1, x(0) = −1 , y (0) = x(1) = y (1) = 0 .
dt
1
O índice de desempenho, que deve ser minimizado, é
J =
∫ dt
0
. Achar o controle ótimo e a
trajetória ótima no espaço de estado, bem como, se for o caso, o instante de comutação, tc .
6. Considere o problema escalar
x(k + 1) = x(k ) − u (k ) , com x(0) = A , x( N ) = 0 .
Achar o controle ótimo que maximize J =
N −1
∑u
k =0
2
(k )
Capítulo 5: Controle Ótimo - método da Programação Dinâmica
5.1 Introdução
Este capítulo será breve, pois não trataremos o problema em toda sua amplitude. O conceito
básico tem uma longa história, mas a assim chamada programação dinâmica foi
desenvolvida pelo matemático americano Richard Bellman durante a guerra da Coréia,
para resolver problema logístico do exército americano. Foi também o próprio Bellman
quem cunhou a expressão “programação dinâmica”. (Bellman foi um dos mais produtivos
matemáticos de todos os tempos, tendo escrito mais de 500 artigos científicos, numa vida
100
ceifada pelo câncer quando ele ainda era plenamente criativo. Doutorou-se em tempo
record, apenas 3 meses, em Princeton).
A programação dinâmica se baseia num princípio muito simples e intuitivo, que pode ser
assim enunciado:
Princípio de otimalidade : A partir de qualquer ponto x(t) de uma trajetória ótima do
estado de um sistema, a trajetória restante também é ótima quando considerada como tendo
x(t) como seu ponto de partida.
x(t)
x(T)
t
T
Figura 16
Suponha que a trajetória ótima do estado para ir de zero a x(T) seja a indicada na figura
acima, passando por x(t). Então o Princípio de Otimalidade afirma que a trajetória ótima do
estado para ir de x(t) a x(T) é a mesma sub-trajetória indicada acima. Ou seja: se a
trajetória ótima para ir de zero a x(T) passar por x(t), então a trajetória ótima para ir de
x(t) a x(T) é a sub-trajetória da trajetória global.
O Princípio de Otimalidade é portanto bastante intuitivo e é claro que é bem conhecido há
muito tempo. Mérito de Bellman foi o saber explorá-lo na solução de vários problemas de
otimização.
O Princípio de Otimalidade também pode ser enunciado na forma: “Toda trajetória ótima
do estado de um sistema é constituída de sub-trajetórias ótimas”.
101
5.2 Sistemas de tempo discreto
Começaremos com sistemas de tempo discreto que são bem mais simples para se aplicar o
princípio de otimalidade. Seja então o sistema, onde estado e controle têm as dimensões
usuais.
x(k + 1) = f ( x(k ), u (k )) , x(0) = xo ,
(2.1)
tal como a equação (5.1) do capítulo anterior.
Permitiremos que o controle seja submetido a restrições (o que não acontecia na última
(2.2)
seção do capítulo anterior), a saber, u(t) ∈ U .
O índice de desempenho é:
N −1
J = Ψ ( x( N )) + ∑ l ( x(k ), u (k )) ,
(2.3)
k =0
onde N é dado, tal como na equação (5.2) do capítulo anterior.
Definamos como V ( x( k ), k ) o valor ótimo do índice de desempenho para ir do estado
x(k) no instante k até o estado final. Usaremos com freqüência a notação abreviada
V ( x, k ) para definir este valor ótimo. Se o estado já é o final, é claro que
V ( x, N ) = Ψ ( x( N )) .
(2.4)
Em vista da definição acima, o índice de desempenho ótimo no instante k + 1 será
V ( x, k + 1) . Voltando um instante atrás, é claro que
J = l ( x, u ) + V ( x(k + 1), k + 1)) = l ( x, u ) + V ( f ( x, u ), k + 1) .
E portanto o valor ótimo de J no instante k é
(2.5)
V ( x, k ) = Opt[l ( x, u ) + V ( f ( x, u ), k + 1)]
u∈U
Nesta expressão “opt” significará “max” ou “min”, conforme o caso. A expressão (2.5) com
a condição final (2.4) constituem a solução do problema do controle ótimo para sistemas de
tempo discreto.
Vejamos um exemplo, que é o da última seção do capítulo anterior. Veremos que sua
solução é bem mais difícil, para quem não tem prática, do que a encontrada aplicando o
princípio de Pontryagin. Repetimos o enunciado:
Exemplo
Considere o problema escalar
x(k + 1) = x(k ) − u (k ) ,
com x(0) = A , x( N ) = 0 .
(2.6)
(2.6a)
N −1
Maximizar J = ∑ u (k )
(2.6b)
k =0
Solução: É claro que V ( x, N ) = 0, pois ao final do processo teremos gasto todos os
recursos disponíveis. Ora, se x( N ) = 0 , então, da equação de estado, (2.6a), u(N-1) =
x(N-1) e, portanto, V ( x, N − 1) = x( N − 1) .
Para achar V no instante anterior, usemos (2.5) com (2.6a):
V ( x, N − 2) = Max[ u + V ( x − u , N − 1)] = Max[ u + x − u ] .
u
u
(2.7)
102
Para achar o máximo da última expressão, derivemos e igualemos a zero sua derivada com
relação a u:
∂
(
u + x −u
∂u
)=
1
2 u
−
1
= 0 , ou seja, u = x – u, donde u(N -2) =
2 x−u
x( N − 2)
x
x
, e portanto, de (2.7), V ( x, N − 2) =
(2.8)
+
= 2x
2
2
2
Com (2.5) e (2.6a) novamente, temos V ( x, N − 3) = Max[ u + 2( x − u )] . Para achar o
u
valor de u que maximiza, derivamos com relação a u e igualamos a zero:
∂
(
u + 2( x − u )
∂u
)=
1
2 u
−
1
= 0 , donde 2u = x – u, ou seja,
2( x − u )
u(N-3) =
x( N − 3)
x
x
x
x⎞
⎛
, e portanto, V ( x, N − 3) =
+2
= 3 x . Então
+ 2⎜ x − ⎟ =
3
3
3
3
3⎠
⎝
verificamos que o controle ótimo a ser aplicado no instante N - k é
x( N − k )
(2.9)
u(N - k) =
k
e o índice de desempenho ótimo é V (x(N – k), N – k) = kx( N − k ) .
(2.10)
Vamos provar (2.9) e (2.10) rigorosamente, usando indução matemática, ou seja, sendo
verdadeiro para N – k, provaremos que é verdadeiro também para N – k – 1. Com efeito,
sendo V (x, N – k) = kx , então, de acordo com (2.5) e (2.6a),
V (x, N – k -1) = Max[ u + k ( x − u )] .
u
(2.10a)
Para obter o máximo, derivamos em relação a u e igualamos a zero, obtendo
∂
(
u + k ( x − u)
)=
kx − ku
k
∴ ku = x − u ∴ (k + 1)u = x,
= 0 , donde u =
k2
∂u
2 u 2 k ( x − u)
x( N − k − 1)
,
(2.10b)
ou seja, u ( N − k − 1) =
k +1
comprovando (2.9).
Por outro lado, substituindo em (2.10a), temos
V (x, N – k -1) =
1
−
x
x ⎞
x
x
⎛
+ k⎜x−
+k
= (k + 1) x
⎟=
k +1
k +1⎠
k +1
k +1
⎝
= (k + 1) x( N − k − 1) ,
concluindo a prova por indução matemática.
(2.11)
x( N − k − 1)
; mas da equação de estado,
k +1
x( N − k ) + u ( N − k − 1)
vem x( N − k − 1) = x( N − k ) + u ( N − k − 1) , donde u ( N − k − 1) =
, ou
k +1
1 ⎞
x( N − k )
⎛
seja, ⎜1 −
⎟ u ( N − k − 1) =
k +1
⎝ k +1 ⎠
Por outro lado, de (2.10b), temos u ( N − k − 1) =
103
x( N − k )
, e comparando-se com (2.9), concluik
se u ( N − k − 1) = u ( N − k ) . E portando o controle ótimo é constante.
Esta foi a conclusão a que chegamos muito mais rapidamente usando o Princípio de
Pontryagin na última seção do capítulo anterior (Exemplo (5.10)).
∴ ku ( N − k − 1) = x( N − k ) ∴ u ( N − k − 1) =
Poder-se-ia perguntar qual a vantagem da programação dinâmica. Na realidade, os dois
métodos são, de certa forma, complementares. Característica importante da programação
dinâmica é a de ela dar o controle ótimo em função do estado atual, ou seja, a
implementação do controle ótimo é on-line, o que não ocorre usualmente nos problemas
resolvidos pelo Princípio de Pontryagin. Por outro lado, o equacionamento do problema por
programação dinâmica não é fácil se a pessoa não tiver uma boa prática, enquanto que pelo
Princípio de Pontryagin é usualmente mais fácil, seguindo o algoritmo padrão.
5.2 Sistemas de tempo contínuo
Consideremos sistemas de tempo contínuo na mesma forma quando trabalhamos com o
Princípio de Pontryagin, a saber,
(3.1a)
x(t ) = f ( x(t ), u (t )) , 0 ≤ t ≤ T ,
x(0) =: xo.
(3.1b)
(3.1c)
Os controles permitidos são u(t) ∈ U,
onde U é conhecido. Por sua vez, o índice de desempenho é também como no capítulo
anterior:
T
J = Ψ ( x(T )) + ∫ l ( x(t ), u (t ))dt .
0
(3.1d)
Seja V(x, t) o valor ótimo do índice de desempenho no estado x e instante t. Suponha que
conheçamos o valor de V num instante t + ∆, onde ∆ é suficientemente pequeno. Então,
tal como no caso de tempo discreto, caminhamos para trás no tempo. No caso de o ótimo
ser o máximo, temos:
(3.2)
V ( x, t ) ≅ Max[l ( x, u )∆ + V ( x + f ( x, u )∆, t + ∆ )] .
u∈U
Utilizando o teorema de Taylor com aproximação de 1ª. ordem, tem-se
∂V ( x, t )
∂V ( x, t )
V ( x + f ( x, u ) ∆ , t + ∆ ) ≅ V ( x, t ) +
∆+
f ( x, u ) ∆ .
∂t
∂x
Substituindo-se isto em (3.2), vem
∂V ( x, t )
∂V ( x, t )
V ( x, t ) ≅ Max[l ( x, u )∆ + V ( x, t ) +
∆+
f ( x, u ) ∆ ] .
(3.3)
u∈U
∂t
∂x
Ora, nesta expressão V(x, t) independe explìcitamente de u, o mesmo ocorrendo com
∂V ( x, t )
∆ . Então, (3.3) pode ser re-escrita como
∂t
∂V ( x, t )
∂V ( x, t )
V ( x, t ) ≅ V ( x, t ) +
∆ + Max[l ( x, u )∆ +
f ( x, u ) ∆ ] .
u
∈
U
∂t
∂x
Cancelando V(x, t) dos dois lados da equação acima e dividindo por ∆, obtemos
104
∂V ( x, t )
∂V ( x, t )
+ Max[l ( x, u ) +
f ( x, u )] = 0 ,
u∈U
∂t
∂x
com a condição terminal V(x, T) = Ψ(x(T)) .
(3.4a)
(3.4b)
A equação acima é a famosa equação de Hamilton-Jacobi-Bellman. É possível às vezes,
mas não em geral, resolver analiticamente esta equação. Se for o caso (solução analítica),
obtém - se a família de todas as soluções do problema.
É claro que se tem a mesma equação, substituindo “max” por “min”, se se tratar do
problema de minimizar um índice de desempenho.
Como já foi mencionado antes, vantagem importante do método da programção dinâmica é
o fato de dar a solução u em função do estado, ou seja, em feedback.
Exemplo (Sistemas lineares com índice de desempenho quadrático)
(3.5)
Vamos atacar de novo o problema que foi resolvido na penúltima seção do capítulo anterior
(seção 4.4), pelo método da programação dinâmica. Enunciamos de novo o problema:
x(t ) = A(t ) x(t ) + B(t )u (t ) , x(0) = xo
(3.6a)
T
1
1
(3.6b)
J = x(T )T Fx(T ) + ∫ [ x(t )T Q(t ) x(t ) + u (t )T R(t )u (t )]dt ,
2
2 0
onde as matrizes F, Q e R são simétricas, F e Q são positivas semi-definidas e R é
positiva definida. As matrizes A, B, Q e R podem ser variantes no tempo, como foi
suposto na seção 4.4 do capítulo anterior.
x(t) e u(t) têm as dimensões usuais, F, Q e R têm dimensões apropriadas. Trata-se de
minimizar o índice de desempenho dado em (3.6b).
Aplicando-se (3.4a) e (3.4b) ao problema, temos, omitindo parcialmente o argumento (t):
∂V ( x, t )
1
∂V ( x, t )
⎛1
⎞
+ Min ⎜ xT Qx + u T Ru +
( Ax + Bu ) ⎟ = 0,
(3.7a)
u
∈
U
∂t
2
∂x
⎝2
⎠
1
com V(x, T) = x(T )T Fx(T ) .
(3.7b)
2
1
(3.8a)
Neste ponto fazemos a conjectura que V(x, t) = x(t )T P(t ) x(t ) ,
2
sendo P uma matriz simétrica com as dimensões apropriadas. É claro que
P(T) = F.
(3.8b)
∂V ( x, t ) 1
= ( P (t ) x)T + xT P(t ) = xT P(t ) .
Observe-se inicialmente que de (3.8a) temos
∂x
2
1 T
1 T
⎛1 T
⎞
(3.9)
Então, de (3.7a), x P (t ) x + Min ⎜ x Qx + u Ru + xT P (t )( Ax + Bu ) ⎟ = 0 .
u∈U ⎝ 2
2
2
⎠
Como não há restrição no controle u , o mínimo é obtido derivando com relação a u e
igualando a zero: u T R + xT P(t ) B = 0, donde u = − R −1 BT P (t ) x .
(3.10)
Observe-se que
(
)
105
xT P(t ) Ax =
1 T
1
1
1
x P(t ) Ax + xT P(t ) Ax = xT P(t ) Ax + xT AT P(t ) x =
2
2
2
2
1 T
x [ P(t ) A + AT P(t )]x .
2
Substituindo isto e (3.10) em (3.9), vem
1 T
1
1
1
x P(t ) x + xT Qx + xT P (t ) BR −1 RR −1 BT P(t ) x + xT [ P(t ) A + AT P(t )] x − xT P(t ) BR −1 BT P(t ) x
2
2
2
2
= 0.
Ao subtrairmos a última parcela da terceira e multiplicarmos tudo por 2, obtemos:
xT [ P(t ) + Q + P (t ) A + AT P(t ) − P (t ) BR −1 BT P (t )]x = 0 .
Mas como esta última equação tem que ser verdadeira para todo x, obtemos
(3.11)
P (t ) + Q(t ) + P (t ) A(t ) + AT (t ) P (t ) − P(t ) B (t ) R −1 (t ) BT (t ) P(t ) = 0 ,
com a condição final (3.8b). Esta é a equação diferencial de Ricatti, que obtivemos na
seção 4.4 do capítulo anterior.
Problemas dados em Provas de anos anteriores
1. x(k + 1) = x(k ) − u (k ) , x(N) = 0. Trata-se de maximixar J =
N −1
∑u
k =0
2
(k ) . Utilizando o
método da programação dinâmica, calcular u ( N − k ) e V ( N − k ) como funções de x(N - k)
para k = 1, 2, 3 e 4.
Capítulo 6: Funções Descreventes
Neste capítulo seguiremos essencialmente o excelente já citado texto de M. Vidyasagar,
Nonlinear System Analysis.
O método das funções descreventes é um método aproximado de análises e síntese de
sistemas não lineares, mas que tem ainda bastante aplicação, tendo sido proposto
inicialmente na década 40’s do século passado. A justificação rigorosa do método,
entretanto, só apareceu muitos anos depois.
6.1 Quase-linearização ótima
Seja um sistema (“operador”) não linear N tal que N: C[0, ∞) → C[0, ∞) , ou seja,
transforma funções contínuas em funções contínuas.
O problema que nos ocupará será o de achar uma função (“sistema”) linear invariante no
tempo que melhor aproxime (num sentido preciso, definido logo adiante) a não linearidade
N.
106
Seja r ∈ C [0, ∞) um sinal de referência. Recordamos que se um sistema linear invariante
no tempo H tiver resposta impulsional (= resposta ao impulso unitário) h(t), então a
t
( Hr )(t ) = ∫ r (τ )h(t − τ )dτ
resposta ao sinal r será:
(1.1)
0
Ora, se queremos que H seja uma aproximação de N , temos que definir com precisão em
que sentido isto deve ocorrer. Usaremos a seguinte definição do erro
E(H):
T
1
2
E ( H ) = lim ∫ ( ( Nr )(t ) − ( Hr )(t ) ) dt ,
(1.2)
T →∞ T
0
supondo, é claro, que o limite exista.
Nosso objetivo é achar H tal que E(H) seja minimizado e, neste caso, diremos que temos
uma quase-linearização ótima. Daremos abaixo uma condição necessária e suficiente para
que este problema seja resolvido.
Diremos que x ∈ C [0, ∞) tem potência média finita se
T
1 2
x (t )dt < ∞ .
T →∞ T ∫
0
Em vista disso,
E(H),
e = Nr - Hr .
(1.3)
lim
definida em (1.2), é a potência média da função de erro
(1.3a)
Seja F o sub-conjunto das funções em C [0, ∞) com potência média finita.
(1.3b)
Temos o seguinte resultado inicial:
(1.4)
Lema:
Suponha que x, y ∈ C [0, ∞) tenham potência média finita. Então x + y também tem.
Prova: Considere o produto interno
T
T
x, y T :=
1
x(t ) y (t )dt , donde temos a norma
T ∫0
Ora, da desigualdade de Schwartz, temos
x, y
xT =
T
≤ xT y
x, x =
T
1 2
x (t )dt .
T ∫0
(1.7)
.
(1.8)
Mas omitindo o argumento (t), temos
T
T
1
1
2
2
( x + y )2 dt = ∫ ( x 2 + y 2 + 2 xy )dt = x T + y T + 2 x, y
∫
T
T 0
T 0
esta desigualdade implica
x+ y
2
T
=
T
T
(
≤ xT+ y
T
)
. E
T
1
1
1
( x(t ) + y (t ))2 dt ≤ lim ∫ x 2 (t )dt + lim ∫ y 2 (t )dt < ∞ , concluindo a prova.
∫
T →∞ T
T →∞ T
T →∞ T
0
0
0
lim
2

107
A seguir temos a definição fundamental:
Definição: Suponha que x e y tenham potência média finita. Então a função de correlação
T
1
cruzada Φ x, y (τ ) é definida do seguinte modo: Φ x, y (τ ) = lim ∫ x(t ) y (t + τ )dt .
(1.11)
T →∞ T
0
(Observe-se que Φ x, y (τ ) é bem definida, tendo em vista a desigualdade de Schwartz, pois
x e y têm potência média finita). Temos a seguir:
Teorema: Suponha que tanto o sinal de referência r como a resposta de um sistema não
linear, Nr , tenham potência média finita. Suponha que H é um sistema linear invariante
no tempo (como (1.1)) tal que Hr ∈ F. Então H minimiza o erro (1.2) se só se
(1.13)
Φ x, Hr (τ ) = Φ x, Nr (τ ) ∀τ ≥ 0 .
Prova: Como Nr e Hr pertencem a F definido em (1.3b), segue-se do Lema (1.4) que
E(H) , dado em (1.2), é bem definido e finito. Seja G um outro sistema linear invariante no
t
tempo,
(Gr )(t ) = ∫ g (t − τ )r (τ )dτ ,
(1.14)
0
com Gr ∈ F . Defina-se o operador linear D′ tal que d ′(t ) = g (t ) − h(t ) ;
t
t
0
0
( D′r )(t ) = (Gr )(t ) − ( Hr )(t ) = ∫ d ′(t − τ )r (τ )dτ = ∫ d ′(τ )r (t − τ )dτ .
portanto,
(1.15)
(1.16)
Ora, como Gr ∈ F, E(G), definida como em(1.2), é bem definida. Então,
1
T →∞ T
E(G) - E(H)= lim
T
T
∫0 {[( Nr )(t ) − (Gr )(t )]
2
}
− [( Nr )(t ) − ( Hr )(t )]2 dt
1
= lim ∫ [(Gr )(t )]2 − [( Hr )(t )]2 + 2[( Nr )(t )][( Hr )(t )] − 2[( Nr )(t )][(Gr )(t )] dt .
T →∞ T
0
Por outro lado, temos:
{
}
(1.17)
[( D′r )(t )]2 + 2[( D′r )(t )][( Hr )(t )] − 2[( D′r )(t )][( Nr )(t )]
= [(Gr )(t ) − ( Hr )(t )]2 + 2[(Gr )(t ) − ( Hr )(t )][( Hr )(t )] − 2[(Gr )(t ) − ( Hr )(t )][( Nr )(t )] ;
omitindo o argumento (t), a última expressão é
(Gr ) 2 − 2(Gr )( Hr ) + ( Hr ) 2 + 2(Gr )( Hr ) − 2( Hr ) 2 − 2(Gr )( Nr ) + 2( Hr )( Nr )
= [(Gr )(t )]2 − [( Hr )(t )]2 − 2[( Nr )(t )][(Gr )(t )] + 2[( Nr )(t )][( Hr )(t )] , que é o integrando de
(1.17). Então podemos escrever:
108
T
1
[( D′r )(t )]2 + 2[( D′r )(t )][( Hr )(t ) − ( Nr )(t )] dt . Ora, se E(H) é
T →∞ T ∫
0
mínimo, devemos ter E(G) - E(H) ≥ 0 para todo G. Mas a integral acima é não negativa
para todo G, e portanto para todo D′ , se só se
E(G) - E(H) = lim
{
}
T
1
lim ∫ [( D′r )(t )][( Hr )(t ) − ( Nr )(t )]dt = 0 ∀ D′ .
T →∞ T
0
Definamos e = Hr – Nr.
Em vista de (1.16) e (1.18), temos:
1
0 = lim
T →∞ T
T T
⎞
1 ⎛
r (t − τ )e(t )dt ⎟d ′(τ )dτ .
⎜
∫
∫0 ∫0 d ′(τ )r (t −τ )e(t )dτ dt = Tlim
∫
→∞ T
⎠
0⎝τ
(1.18)
(1.18a)
T t
(1.19)
Mas d ′ é uma resposta impulsional arbitrária, sujeita apenas à condição que Gr ∈ F.
Conseqüentemente, o que multiplica d ′ na expressão acima deve ser identicamente nulo,
T
T
1
1
ou seja, 0 = lim ∫ r (t − τ )e(t )dt = lim ∫ r (t )e(t + τ )dt =: Φ r ,e (τ ) , em vista de (1.11).
T →∞ T
T →∞ T
τ
τ
Ou ainda, tendo em vista a definição de e (1.18a), temos
Φ r , Hr − Nr (τ ) = 0 , ou ainda, de (1.11), Φ r , Hr (τ ) = Φ r , Nr (τ ) ∀τ ≥ 0 , concluindo a prova. 
O teorema que acaba de ser demonstrado é um resultado importante e interessante: o
sistema linear que melhor aproxima o não linear no sentido de minimização do erro
definido em (1.2) é aquele cuja correlação cruzada é igual à do sistema não linear. Mas é
preciso enfatizar que a correlação cruzada depende do sinal de referência, ou seja, satisfeita
a condição (1.13) para um certo r, isto não implica de forma alguma que ela seja satisfeita
para r ′ ≠ r .
Exemplo:
(1.22)
Seja N : C[0, ∞) → C[0, ∞) uma não linearidade sem memória e invariante no tempo, ou
seja, (Nr)(t) = n[r(t)], onde n: R → R é contínua. Suponha que o sinal de referência r seja
uma constante, ou seja, r(t) = k, ∀t ≥ 0 .
Solução: É imediato verificar que tanto r como Nr têm potência média finita. Ora, de
T
1
(1.11), temos Φ r , Nr (τ ) = lim ∫ kn(k )dt = kn(k).
(1.22a)
T →∞ T
0
Vamos agora provar que a resposta ao impulso unitário que satisfaz a (1.13) é
n( k )
h(t ) =
δ (t ) .
(1.22b)
k
Com efeito, de (1.11) e de (1.14), com G substituído por H, temos:
109
T
t
1
k h(t − τ )kdτ dt ; substituindo nesta integral, h(t) dado em (1.22b),
T →∞ T ∫ ∫
0 0
Φ r , Hr (τ ) = lim
T
t
T
1
n( k )
1
δ (t − τ )kdτ dt = lim ∫ kn(k )dt = kn(k), igualando a
k∫
∫
T →∞ T
T →∞ T
0 0 k
0
expressão de (1.22a).
temos
Φ r , Hr (τ ) = lim
6.2 Funções descreventes
Após a seção anterior, introdutória, entramos no âmago deste capítulo, as funções
descreventes. O sinal mais freqüente, de longe, usado no problema da quase-linearização
ótima é a função senoidal:
r(t) = asenωt .
(2.1)
É claro que este r tem potência média finita. Suponha que o sistema não linear seja BIBO
(bounded input / bounded output), ou seja, para toda entrada limitada sua resposta também
o seja. Pode-se demonstrar que, neste caso, a resposta Nr é a soma de duas funções: a do
regime permanente zss (ss = “steady state”), que é periódica, e a do regime transitório,
ztr , que tende a zero com o tempo. O mesmo ocorre (e isto é mais fácil de provar) se o
sinal senoidal for aplicado a um sistema linear invariante no tempo e estável. Temos dois
resultado preliminares:
Lema:
(2.2)
∞
Suponha que r ∈ F e que f ∈ C[0, ∞) satisfaça a
∫f
2
(t )dt < ∞ .
(2.3)
0
Então, Φ r , f = 0.
(2.4)
Prova:
1
É claro que (2.3) implica lim
T →∞ T
T
∫0 f
2
(t )dt = 0. E da definição (1.11), vem:
T
1
r (t ) f (t + τ )dt . Mas usando a desigualdade de Schwartz (1.8), vem
T →∞ T ∫
0
Φ r , f (τ ) = lim
2
⎛1T
⎞⎛ 1 T
⎞
(2.5)
Φ r , f (τ ) ≤ ⎜ ∫ r 2 (t )dt ⎟⎜ ∫ f 2 (t + τ )dt ⎟
T
T
T
⎝ 0
⎠⎝ 0
⎠
Ora, quando T → ∞ , o primeiro fator na desigualdade acima permanece limitado,
enquanto que o segundo tende a zero, de acordo com (2.3), concluindo a prova.

Lema:
(2.6)
Seja r dado em (2.1). Suponha que f ∈ C[0, ∞) é periódica com período 2π / ω . Seja a
expansão em série de Fourier de f:
∞
f = f 0 + ∑ ( f rk senkωt + fik cos kωt ) , k inteiro.
k =1
(2.7)
110
Defina-se f1 = f r1senωt + fi1 cos ωt .
Então, Φ r , f = Φ r , f .
(2.8)
(2.9)
1
Portanto este Lema afirma que a correlação cruzada entre a função senoidal e uma função
periódica só depende do 1º. harmônico da função periódica.
Prova:
Seja T = 2π l / ω , sendo l um inteiro, l ≥ 1. É fato conhecido que
T
∫0 r (t )senkω (t + τ )dt = 0
T
e
∫0 r (t ) cos kω (t + τ )dt = 0 , ∀τ ≥ 0, ∀k ≠ 1 .
T
T
0
0
(2.10)
Portanto, em vista de (2.7), (2.10) e (2.8), ∫ r (t ) f (t + τ )dt = ∫ r (t ) f1 (t + τ )dt , τ ≥ 0 . (2.11)
Dividindo-se os dois lados da igualdade acima por T = 2π l / ω e fazendo-se l → ∞,
obtém-se (2.9).

Passamos ao resultado principal:
(2.12)
Teorema:
Seja r dado em (2.1). Suponha que Nr =: z tenha a forma z = zss + ztr , onde zss é
contínuo e periódico com período 2π / ω e
∞
∫0 ztr (t )dt < ∞ .
2
(2.13)
Suponha também que o sistema linear H é tal que sua função de transferência hˆ( s ) seja
uma função racional, própria e com todos os pólos com parte real negativa. Seja z1 (t ) o
(2.14)
1º. harmônico de zss , com z1 (t ) = g re senωt + gim cos ωt .
Então H é uma quase – linearização ótima de N com relação ao sinal de referência r se
g + jgim
.
(2.15)
só se hˆ( jω ) = re
a
Observação: o teorema acima apresenta uma condição que é chamada na literatura
especializada de princípio de balanceamento harmônico. Sabemos que se um sistema linear
BIBO estável tem sua função de transferência dada por (2.15), então a resposta em regime
g
g
permanente yss ao sinal (2.1) é
yss = re asenωt + im a cos ωt
a
a
= g re senωt + gim cos ωt ,
(2.16)
que é exatamente (2.14). Ou seja, o que este teorema afirma (princípio de balanceamento
harmônico) é que a resposta em regime permanente do sistema linear que melhor aproxima
o sistema não linear (no sentido de minimizar (1.2)) é igual ao 1º. harmônico da resposta
em regime permanente do sistema não linear dado.
Prova do teorema:
(2.17)
Os lemas (2.2) e (2.6) com a condição (2.13) implicam Φ r , Nr = Φ r , z1 .
Ora, o teorema (1.12) nos diz que H é uma quase- linearização ótima de N se só se
111
Φ r , Nr = Φ r , Hr .
(2.18)
Mas o sistema linear sendo BIBO, a resposta transitória decai exponencialmente e,
(2.19)
utilizando de novo o lema (2.2), temos Φ r , Hr = Φ r , yss ,
com yss dado em (2.16). De (2.17)-(2.19), temos Φ r , z1 = Φ r , yss .
(2.20)
T
1
r (t ) [ z1 (t + τ ) − yss ( y + τ )] dt = 0 . Mas esta igualdade é verdadeira
T →∞ T ∫
0
Ora, então lim
independentemente de r(t) e T se só se z1 = yss , concluindo-se a prova.

Vamos agora à definição do título desta seção:
(2.21)
Definição:
Seja r(t) dado em (2.1) e suponha que z = Nr satisfaça a (2.13). Então, a função
descrevente η (a, ω ) do sistema N é dada por (2.14), a saber,
g + jgim
η (a, ω ) = re
.
(2.22a)
a
Observe-se que a função descrevente depende não somente de a, como consta claramente,
mas também de ω , porque g re e gim são funções de ω. Seja lembrado que
η ( a, ω ) =
2
g re2 + gim
a
, η (a, ω ) = arctg
gim
.
g re
(2.22b)
Vejamos uma classe particular de sistemas:
Lema:
Suponha que N seja um sistema sem memória e invariante no tempo, a saber,
(Nr)(t) = n(r(t)),
onde n : R → R é contínua. Então η (a, ω ) não depende de ω.
(2.23)
(2.24)
Observação: Sistema “sem memória” é aquele em que sua resposta não depende de valores
passados do sinal de entrada, mas só dos valores atuais, como expresso acima em (2.24).
Exemplo de sistemas sem memórias são abundantes: resistências elétrica, massa de um
corpo, etc. Sistemas com memória também são abundantes: capacitores, indutores, etc. As
equações que regem sistemas sem memória são equações algébricas, enquanto que os
sistemas com memória são regidos por equações diferenciais. Sistemas invariantes no
tempo, como já foi mencionado várias vezes neste curso, são aqueles em que a relação
entre a resposta e a entrada é uma equação que não depende explicitamente do tempo,
como num circuito R-L-C ou num sistema mecânico massa-mola-atrito, em que os
parâmetros não variam no tempo.
Prova do Lema (2.23):
z(t) = (Nr)(t) = n(asenωt) . É claro que a resposta do sistema é periódica com freqüência
angular ω . É claro também que ztr = 0, pois o sistema é sem memória. Definamos
112
ω
⎛ω ⎞
x(t) = asen ω t; ora, em vista de (2.1), temos r ⎜ t ⎟ = asenω t = asen ω t. Então, x(t) =
ω
⎝ω ⎠
⎛ω ⎞
r ⎜ t ⎟ . Conseqüentemente, x(t) pode ser obtido a partir de r(t) por simples mudança na
⎝ω ⎠
⎛ω ⎞
escala de tempo. Então, (Nx)(t) = ( Nr ) ⎜ t ⎟ , donde que o primeiro harmônico de Nx é
⎝ω ⎠
igual ao de Nr, o que implica que a função descrevente de Nx é igual à de Nr, ou seja,

η (a, ω ) = η (a, ω ) , concluindo a prova.
Lema:
(2.25)
Suponha que N seja da forma (2.24), ou seja, sem memória, e que, além disso, suponha
que N seja uma função ímpar. Então, a função descrevente de N é um número real.
Prova:
Como N não tem memória, podemos denotar a função descrevente, de acordo com o Lema
anterior, por η (a) . A seguir, recorda-se que se n(r) é ímpar, então n(-r) = - n(r) . Ora,
sendo n(r) uma função ímpar, então, (Nr)(t) é uma função impar de t, porque senωt o
é, e portanto, sua expansão em série de Fourier não tem os termos em cosseno, o que
implica que gim = 0 em (2.15). De (2.22a) conclui-se que η (a) é real.

Lema:
(2.26)
Suponha que N seja sem memória, ímpar e, além disso suponha que existam k1 , k2 ∈ R
tais que k1σ 2 ≤ σ n(σ ) ≤ k2σ 2 , ∀σ ∈ R.
Então a função descrevente de N satisfaz a k1 ≤ η (a ) ≤ k2 .
(2.27)
(2.28)
Observação: Já vimos no 4º. Capítulo que uma função que satisfaz à propriedade (2.27) é
dita pertencer ao setor [ k1 , k2 ].
Prova do Lema (2.26):
Recorda-se (ver (2.7)) que toda função f(t) periódica pode ser expandida como série de
Fourier.
∞
f = f 0 + ∑ ( f rk senkωt + fik cos kωt ) , k inteiro, onde
f0 =
2ω
f rk =
k =1
2π / ω
∫0
(2.29a)
f (t )dt ,
(2.29b)
ω 2π / ω
f (t ) sen(kωt )dt
π ∫0
(2.29c)
π
113
fik =
ω 2π / ω
f (t ) cos(kωt )dt ,
π ∫0
(2.29d)
No caso presente, temos f(t) = n(asenωt). Em vista de (2.14), temos então
f r1 = g re =
ω 2π / ω
n(asenωt ) senωtdt . E, portanto, de (2.22a) e do lema anterior,
π ∫0
ω 2π / ω
η (a) =
n(asenωt ) senωtdt . Fazendo θ = ωt nesta última, temos
π a ∫0
1
η (a) =
πa
2π
∫0
1
n(asenθ ) senθ dθ = 2
πa
2π
∫0 n(asenθ )asenθ dtθ .
Mas
em vista da 1ª. desigualdade em (2.27), o integrando acima é maior ou igual a k1 (asenθ )2 .
1
Donde, η (a ) ≥
π a2
2π
∫0 k (asenθ )
1
integrável por partes, obtendo-se
2
dθ = =
2π
k1
π
2π
∫0 sen θ dθ . Esta última integral é clássica,
2
∫0 sen θ dθ = π . E,
2
portanto, η (a ) ≥ k1 , que é a primeira
desigualdade de (2.28). A segunda desigualdade se obtém pelo mesmo raciocínio,
concluindo-se a prova.

Exemplo:
(2.30)
Seja a não linearidade n1 (σ ) = sign(σ ) , conforme a fig. 4.2. Calcular a função descrevente
relativa a (2.1).
114
Solução: Se se aplica o sinal r (t ) = asenωt a este sistema não linear, obtém-se
evidentemente como resposta uma “onda quadrada” cuja amplitude é 1 e cujo período é
2π / ω . Este sistema não linear é sem memória e é uma função ímpar. Conseqüentemente,
de acordo com o Lema (2.25), a função descrevente é real. Então basta calcular f r1 em
(2.29d) e dividir o resultado por a de acordo com (2.22). Ora, de (2.29d)
ω 2π / ω
ω π /ω
ω 2π / ω
f r1 =
n(asenωt ) senωtdt =
n(asenωt ) senωtdt +
n(asenωt ) senωtdt . Ora,
π ∫0
π ∫0
π π ∫/ ω
sendo n uma onda quadrada de amplitude 1, o 1º. integrando é senωt , enquanto que o 2º.
ω 1
π /ω ω 1
2π / ω
é - senωt . Então, f r1 =
(− cos ωt ) 0 +
(−1) (− cos ωt ) π / ω
πω
πω
=
1
π
(− cos π + cos 0) −
temos: η (a) =
1
π
(− cos 2π + cos π ) =
4
π
. Finalmente, em vista do teorema 2.12,
4
.
πa
Exemplo:
(2.31)
Considere a não linearidade da fig. 4.3. Ou seja, se −δ ≤ σ ≤ δ , n(σ ) é uma reta com
coeficiente angular m1 , enquanto que para σ < −δ e para σ > δ , o coeficiente angular
da reta é igual a m2 . Qual a função descrevente do sistema não linear?
115
Como se vê da figura, supomos m1 > m2 .
Solução: O sistema não linear é, de novo, sem memória e ímpar, tal como no exemplo
anterior. É claro que se a ≤ δ , ou seja,
de acordo com (2.29c), f r1 =
2π / ω
partes)
∫0
sen 2ωtdt =
δ
a
≥ 1 , temos n(asenωt ) = m1asenωt . E portanto,
ω 2π / ω
m asen 2ωtdt ; mas sabemos que (fácil a integração por
π ∫0 1
π
, donde que f r1 = m1a , e portanto, η (a ) = m1 se a ≤ δ ,
ω
(2.33) um resultado previsível.
Se a > δ , ou seja,
δ
a
< 1 , definimos t1 tal que asenωt1 = δ , ou seja, t1 =
1
ω
arcsen
δ
a
.
(2.33a)
Observe-se que t1 <
π
π
, pois senωt tem seu máximo em .
2ω
2
116
π −t
π +t
⎛ t1
⎞
ω 1
ω 1
ωa ⎜
⎟
2
2
2
m1sen ωtdt + ∫ m2 sen ωtdt + ∫ m1sen ωtdt ⎟ +
Então, temos de (2.29c), f r1 =
∫
⎜
π ⎜0
π
t1
⎟
−t
ω 1
⎝
⎠
2
π
2
π
⎛ −t1
⎞
ω
⎟
ωa ⎜ ω
2
2
m2 sen ωtdt + ∫ m1sen ωtdt ⎟ .
(2.34)
⎜
∫
π ⎜π
2π
⎟
+t
−t
ω 1
⎝ω 1
⎠
Temos a mesma integral, a menos de constante multiplicativa e dos diferentes limites
inferiores e superiores de integração.
t1
Vamos calcular a primeira: ∫ m1sen 2ωtdt .
Recorda-se que:
0
∫ sen ωtdt = ∫ senωtsenωtdt =
2
−
senωt cos ωt
ω
senωt (− cos ωt )
ω
−∫
− cos ωt
ω
ω cos ωtdt =
1 ⎛ senωt cos ωt ⎞ 1
+ ∫ (1 −sen 2ωt )dt ∴ ∫ sen 2ωtdt = ⎜ t −
⎟=
2⎝
ω
⎠ 2
⎛ sen2ωt ⎞
⎜t −
⎟.
2ω ⎠
⎝
117
t1
Então a primeira integral de (2.34) é, em vista de (2.33a),
m1 ⎛ sen2ωt ⎞
⎜t −
⎟
2 ⎝
2ω ⎠ 0
=
m1 ⎛ 1
δ 1
1
δ t sen 2ωt
sen 2ω arcsen −
⎜ arcsen −
ω
2 ⎝ω
a 2ω
a 2 2ωt
⎞
⎟
t →0 ⎠
=
m1 ⎛
δ
δ
δ ⎞ m1 ⎛
δ δ
δ2 ⎞
arcsen
senarcsen
arcsen
=
−
−
cos
1
arcsen
−
⎜
⎟.
⎜
⎟
a
a
a ⎠ 2ω ⎜⎝
a a
a 2 ⎟⎠
2ω ⎝
Obtém-se, após algum trabalho:
f r1 2(m1 − m2 ) ⎛
δ δ
δ2 ⎞
=
1 − 2 ⎟ + m2 .
⎜ arcsen +
⎜
π
a
a a
a ⎟⎠
⎝
A figura 4.4 acima mostra uma senóide “achatada”, um resultado previsível.
δ
⎛δ ⎞
Definindo-se f ⎜ ⎟ = 1 se ≥ 1 ,
a
⎝a⎠
δ2 ⎞
δ
⎛δ ⎞ 2 ⎛
⎛δ ⎞ δ
f ⎜ ⎟ = ⎜ arcsen ⎜ ⎟ +
1 − 2 ⎟ se 0 ≤ ≤ 1 ,
⎜
⎟
a
a ⎠
⎝a⎠ π ⎝
⎝a⎠ a
então, temos a expressão geral para os dois casos:
⎛δ ⎞
η (a) = (m1 − m2 ) f ⎜ ⎟ + m2 .
⎝a⎠
A figura 4.5 abaixo mostra a função f(.)
η (a) =
(2.36)
(2.37a)
(2.37b)
(2.37c)
118
Exemplo:
Dois casos particulares importantes do problema anterior são:
i) a chamada “zona morta” em que m1 = 0 (fig. 4.6)
(2.38)
119
obtendo-se η (a ) = 0 se
δ
δ
⎛δ ⎞
≥ 1 e η (a) = −m2 f ⎜ ⎟ + m2 se 0 ≤ ≤ 1 ,
a
a
⎝a⎠
(2.39)
⎛δ ⎞
com f ⎜ ⎟ dado em (2.37b).
⎝a⎠
120
ii) o chamado “limitador” em que m2 = 0 (fig. 4.7 acima), obtendo-se
η (a) = m1 se
δ
δ
⎛δ ⎞
≥ 1 e η (a) = m1 f ⎜ ⎟ se 0 ≤ ≤ 1 .
a
a
⎝a⎠
(2.40)
Exemplo:
(2.41)
Considere agora o sinal r (t ) = asenω aplicado a um sistema não linear que é uma histerese
(fig. 4.8).
Observe-se que a no eixo horizontal é a amplitude do sinal de entrada, ou por outras
palavras, a histerese que estamos considerando tem sempre uma “largura” igual à amplitude
do sinal senoidal de entrada. (Caso isto não ocorresse, a solução do problema seria muito
mais complicada). O coeficiente angular das retas inclinadas é m. É claro que ( Nr )(t ) é a
superposição de dois sinais: uma senóide de amplitude ma e uma onda quadrada conforme
a figura 4.10 abaixo
121
Vimos no exemplo (2.30) que se tratava de uma onda quadrada, uma função ímpar. Agora
trata-se de uma onda quadrada que é uma função par, ou seja, sua contribuição para o 1º.
4b
4b
cos ωt . Então, temos z1 (t ) = masenωt + cos ωt , e portanto, de (2.16),
harmônico é
π
π
4b
4b
. Donde que, η (a) = m + j
.
g re = ma , gim =
π
πa
No regime permanente obtém-se a figura 4.9 abaixo:
(2.42)
122
6.3 Sistemas com realimentação
Considere o diagrama de blocos abaixo (figura 4.13). G é um sistema linear invariante no
t
tempo: (Gr )(t ) = ∫ g (t − τ )r (τ )dτ ,
(3.1)
0
∞
satisfazendo à condição
∫ g (t ) dt < ∞ .
(3.2)
0
123
Como vimos, se r (t ) tem potência média finita, (Gr )(t ) também o terá, ou seja, r ∈ F
⇒ Gr ∈ F. N é um sistema não linear que também suporemos N : F → F.
Seja x(t ) a resposta do sistema linear. Então, do diagrama de blocos,
(3.3)
x = −GNx .
Suponhamos que (3.3) tenha uma solução periódica, isto é,
(3.4)
x(t ) = asenω0t ,
(3.5)
onde a e ω0 ainda serão determinados. Seja η (a, ω0 )
a função descrevente de N associada ao sinal dado em (3.4). η (a, ω0 ) é um número
complexo, representemo-lo na sua forma de “fasor”, definindo
µ e jφ = η (a, ω0 ) .
O primeiro harmônico de Nx será então z1 (t ) = µ asen(ω0t + φ ) .
(3.6)
(3.7)
∞
Seja a função de transferência do sistema linear gˆ ( s ) = ∫ g (t )e − st dt .
(3.8)
0
Ora, se z (t ) = −( Nx)(t ) é aplicado a G, obtendo-se x(t ) , definamos suas parcelas em
regime permanente e transitório, respectivamente, isto é, x(t ) = xss (t ) + xtr (t ) .
Definamos γ e jθ := gˆ ( jω0 ) .
(3.9)
Então o 1º. harmônico da resposta do sistema linear é, em vista de (3.7) e de (3.9) igual a
(3.10)
−γµ asen(ω0t + φ + θ ) .
Mas de (3.3), temos (1 + GN)x = 0, ou ainda, considerando o 1º. harmônico, temos
124
(1 + gˆ ( jω0 )η (a, ω0 )) x = 0 . Mas como esta igualdade deve ser verdadeira para todo t , temos
(3.11a)
1 + gˆ ( jω0 )η (a, ω0 ) = 0 ,
(3.11b)
ou ainda, gˆ ( jω0 ) = −1/ η (a, ω0 ) .
Alguns autores se referem às equações (3.11) como princípio do balanceamento harmônico.
Exemplo:
(3.12)
Seja o sistema em malha fechada da figura 4.13, onde gˆ ( jω ) tem o diagrama de Nyquist
representado na fig. 4.14 abaixo, com ω variando de 0 a ∞ e a não linearidade é uma
histerese (fig. 4.10), com a função descrevente dada em (2.42), que repetimos:
η (a) = m + j
4b
πa
,
com m = 0,3 ; b = 0,01. Com estes valores, temos η (a) = 0, 3 + j
(2.42bis)
0, 04
. A figura 4.14
πa
abaixo apresenta o diagrama de Nyquist de gˆ ( jω ) , parametrizado em ω e −1/ η (a)
parametrizado em a. Os dois gráficos se interceptam no ponto -1.23 + j 1,61, que
corresponde aproximadamente a ω0 = 0,62 e a = 0,0325. Então o sinal periódico na
resposta do sistema linear é 0,0325 sen0,62t.
125
Caso interessante é quando a não linearidade é uma função ímpar. Vimos que neste caso a
função descrevente é um número real. Suponha, para concretizar, que a função descrevente
⎡ −1 −1 ⎤
de N esteja no setor [ k1 , k2 ], com k1 ≥ 0 . Então −1/ η (a) estará no intervalo ⎢ , ⎥ .
⎣ k2 k1 ⎦
Então os pontos do diagrama de Nyquist que satisfarão a gˆ ( jω ) = −1/ η (a) serão
⎡ −1 −1 ⎤
precisamente os que estiverem no semi-eixo real negativo, dentro do intervalo ⎢ , ⎥ . É
⎣ k2 k1 ⎦
claro que a cada função não linear no setor [ k1 , k2 ] corresponde uma única função
x(t ) = asenωt
Exemplo:
(3.13)
( s + 20)
. Suponha que o sistema não linear seja um
( s + 1)( s + 2)( s + 3)
limitador com na figura 4.7. No limitador suponha que m1 = 4 e δ = 1. Na figura 4.15
abaixo vê-se o diagrama de Nyquist de gˆ ( jω ) correspondente a ω ∈ [0, ∞) . Como a
função descrevente é real e maior que zero (ver (2.40)), temos que verificar os pontos em
que o diagrama de Nyquist de gˆ ( jω ) intercepta o lado esquerdo do eixo horizontal.
Obtemos da figura 4.15, aproximadamente, gˆ ( j 5, 42) = -2,18 e gˆ ( j11,9) = -0,31. Obtemos
de (3.11b) η1 = 1/ 2,18 = 0,46 e η 2 = 1/ 0,31 = 3,27. Como η1 e η2 ≠ m1 , então
Seja o SMF com gˆ ( s ) =
2
devemos ter (ver (2.40)) f (1/ a1 ) = η1 / 4 = 0,11 e f (1/ a2 ) = η 2 / 4 = 0,82 . E de (2.37b),
obtém-se, usando por exemplo o Matlab, a1 = 11,07 e a2 = 1,42. Então, temos duas
soluções: x1 (t ) = 11,07sen5,42t e x2 (t ) = 1,42sen11,9t .
126
(3.14)
Observação:
Nos casos mais simples, os problemas desta seção podem ser resolvidos analiticamente,
sem necessiade de gráfico. Com efeito, podem-se usar duas das três equações seguintes:
Re[ gˆ ( jω ] = Re[−1/ η (a, ω0 )] ,
Im[ gˆ ( jω ] = Im[−1/ η (a, ω0 )]
gˆ ( jω = −1/ η (a, ω0 ) .
Se essas equações se tornam complicadas, o jeito é usar o gráfico.
127
128

Documentos relacionados