Sistemas Lineares

Transcrição

Sistemas Lineares
Sistemas Lineares
Pedro Luis Dias Peres
Universidade Estadual de Campinas
email: [email protected]
1
Capı́tulo 1
Definições e Exemplos
cap:defexem
Carlos Eduardo Trabuco Dórea
Universidade Federal da Bahia
email: [email protected]
Um sistema pode
ser representado por uma relação causa-a-efeito, como incaixa_preta
dicado na figura 1.1. A reação do sistema às entradas (excitações) u1 , u2 ,...,um
é indicada pelas saı́das (respostas) y1 , y2 ,...,yp . Note-se que os conjuntos de
entradas e saı́das podem ser representados na forma de vetores:




y1
u1
 y2 
 u2 




u =  . , y =  . .
.
.
 . 
 . 
yp
um
PSfrag replacements
u1
y1
u2
y2
Sistema
..
.
..
.
yp
um
Figura 1.1: Representação de um sistema.
caixa_preta
Neste capı́tulo são apresentadas definições básicas, exemplos e modelos
matemáticos de sistemas.
1.1
Linearidade
cetd:sec:linearidade
caixa_preta
Suponhamos que o sistema indicado na figura 1.1 seja representado matematicamente por um operador L[.]. Deste modo, a resposta do sistema a um
vetor de entradas u é a saı́da y = L[u].
2
3
CAPÍTULO 1. DEFINIÇÕES E EXEMPLOS
Definição 1.1.1 Um sistema representado pelo operador L[.] é dito linear se, sistemas
lineares
quaisquer que sejam os vetores de entrada u1 e u2 , a resposta do sistema ao princı́pio da
vetor de entrada u = α1 u1 + α2 u2 é tal que:
superposição
L[α1 u1 + α2 u2 ] = α1 L[u1 ] + α2 L[u2 ],
quaisquer que sejam os escalares α1 e α2 .
Em outras palavras, um sistema é linear se sua resposta, quando excitado
pela combinação linear de duas entradas, é igual à combinação linear das saı́das
resultantes da aplicação isolada de cada entrada. Tal propriedade é conhecida
como Princı́pio da Superposição.
Nesta definição estão resumidas duas propriedades:
sistemas
nãolineares
equações diferenciais
ordinárias
Aditividade: L[u1 + u2 ] = L[u1 ] + L[u2 ];
Homogeneidade: L[αu] = αL[u].
Um sistema que não verifique estas propriedades é dito não-linear.
Exemplo 1.1.1
Consideremos um sistema cuja resposta y(t) a uma entrada u(t) é dada pela
solução da seguinte equação diferencial linear ordinária com coeficientes constantes:
dy(t)
+ 2y(t) = 3u(t).
(1.1) sist_linear
dt
Considerando condições iniciais nulas (y(t0 ) = 0), pode ser verificado que a
resposta deste sistema para t ≥ t0 é dada por:
Z t
2λ
y(t) =
e u(λ)dλ e−2t .
(1.2) saida_ci_nulas
t0
Sejam agora y 1 (t) e y 2 (t) as resposta do sistema às entradas u1 (t) e u2 (t) respectivamente, considerando as condições iniciais nulas. Neste caso, a resposta
à entrada α1 u1 (t) + α2 u2 (t) é dada por:
Z t
Z t
Z t
e2λ u2 (λ)dλ e−2t =
e2λ u1 (λ)dλ e−2t +α2
e2λ [α1 u1 (λ) + α2 u2 (λ)]dλ e−2t = α1
t0
t0
t0
α1 y 1 (t) + α2 u2 (t),
o que mostra que o sistema é linear.
4
Exemplo 1.1.2
Consideremos um sistema cuja relação entrada-saı́da é dada por:
y(t) = [u(t)]2 .
(1.3) nao_linear
CAPÍTULO 1. DEFINIÇÕES E EXEMPLOS
4
sistemas
sem
memória
[α1 u1 (t) + α2 u2 (t)]2 6=
sistemas
α1 y 1 (t) + α2 y 2 (t) = α1 [u1 (t)]2 + α2 [u2 (t)]2 .
dinâmicos
sistema
Portanto, este sistema é não-linear.
4 descritor
sistema
singular
sistemas
causais
1.2 Causalidade e Memória
sistemas
Definição 1.2.1 Diz-se que um sistema é sem memória se suas saı́das em um antecipativos
A resposta à entrada α1 u1 (t) + α2 u2 (t) é dada por:
cetd:sec:causamem
determinado instante de tempo só dependem das entradas aplicadas neste exato
instante de tempo. Caso as saı́das dependam também das entradas aplicadas
antes ou após este instante de tempo, o sistema é dito com memória.
Exemplo 1.2.1
sist_linear
Osaida_ci_nulas
sistema (1.1) tem memória, pois a saı́da y no instante t, conforme a equação
(1.2), depende dos valores da entrada u nonao_linear
intervalo de tempo [0,t].
Por outro lado, o sistema não-linear (1.3) não tem memória, pois a saı́da
y no instante t só depende da entrada u aplicada neste mesmo instante. 4
Sistemas sem memória são também conhecidos como sistemas puramente
algébricos, enquanto
sistemas com memória são também conhecidos como sisBM92
temas dinâmicos (Basile and Marro, 1992).
Sistemas composto por partes dinâmicas e algébricas são conhecido como
sistemas descritores ou sistemas singulares.
Definição 1.2.2 Um sistema é dito causal ou não-antecipativo se suas saı́das
em um determinado instante de tempo não dependem das entradas aplicadas
após este instante de tempo. Caso contrário, o sistema é dito não-causal ou
antecipativo.
Em outras palavras, um sistema é causal se seu comportamento presente
não depende das entradas que serão aplicadas no futuro. Portanto, todo sistema fı́sico é causal.
Exemplo 1.2.2
sist_linear
A resposta do sistema (1.1) a partir do instante t0 depende apenas da entrada
u(t) aplicada a partir de t0 e da condição inicial y(t0 ), o que caracteriza,
portanto, um sistema causal.
nao_linear
Claramente, o sistema (1.3) também é causal.
Por outro lado, o sistema representado pela equação abaixo é claramente
não-causal:
y(t) = u(t + 1).
(1.4) nao_causal
4
5
CAPÍTULO 1. DEFINIÇÕES E EXEMPLOS
1.3
Estado de um Sistema
cetd:sec:estado
As saı́das de um sistema dinâmico causal em um dado instante de tempo
dependem das entradas que foram aplicadas no passado. Evidentemente, de
um modo geral não é possı́vel conhecer o comportamento das entradas desde o
inı́cio dos tempos. Esta dificuldade pode ser contornada por meio do conceito
de estado de um sistema.
estado
variáveis de
estado
Definição 1.3.1 O estado x(t0 ) de um sistema no instante t0 é a informação
em t0 que, junto com a entrada aplicada a partir de t0 , determina de forma
única a saı́da a partir de t0 .
O estado em t0 resume portanto toda a informação desde t = −∞ suficiente
para se determinar o comportamento de um sistema causal a partir de t 0 .
O estado é geralmente representado por um vetor contendo todos os elementos suficientes para a determinação do comportamento do sistema. Tais
elementos são conhecidos como variáveis de estado:



x(t0 ) = 

x1 (t0 )
x2 (t0 )
..
.
xn (t0 )



.

A ordem de um sistema é dada pelo número de suas variáveis de estado.
Exemplo 1.3.1
Consideremos o sistema representado pela seguinte equação diferencial:
dy(t)
d2 y(t)
+ (3t + 1)
+ (t2 )y(t) = 3u(t).
2
dt
dt
(1.5) eq_dif_2ord
É bem sabido que sua solução para t ≥ t0 é unicamente determinada
0)
pela entrada u(t) e pelas condições iniciais y(t0 ) e dy(t
dt , que, deste modo,
qualificam-se como estado do sistema.
eq_dif_2ord
Defindo-se x1 (t) = y(t) e x2 (t) = dy(t)
dt , a equação (1.5) pode ser reescrita
da seguinte forma:
dx1 (t)
= x2 (t)
dt
dx2 (t)
= −(t2 )x1 (t) − (3t + 1)x2 (t) + 3u(t)
dt
y(t) = x1 (t)
Matricialmente,
ẋ1 (t)
0
1
x1 (t)
0
=
+
u(t)
ẋ2 (t)
−(t2 ) −(3t + 1)
x2 (t)
3
6
CAPÍTULO 1. DEFINIÇÕES E EXEMPLOS
estado
vetor de
estado
sistema
relaxado
dxi (t)
x1 (t)
sistema
. x(t) =
sendo ẋi (t) =
é assim o vetor de estado do sistema.
autônomo
x2 (t)
dt
sistemas a
4
parâmetros
concentrados
A resposta de um sistema a partir do instante de tempo t0 depende assim sistemas a
parâmedo estado em t0 e da entrada u(t) para t ≥ t0 .
tros
distribuı́dos
sistemas de
Definição 1.3.2 Um sistema é dito relaxado no instante t0 se sua saı́da para dimensão
infinita
t ≥ t0 só depende da entrada u(t) para t ≥ t0 .
sistemas a
parâmeDefinição 1.3.3 Um sistema é dito autônomo se se sua saı́da para t ≥ t0 só tros
concentrados
y(t) =
1 0
x1 (t)
x2 (t)
,
depende do estado inicial x(t0 ).
Um sistema autônomo é, portanto, um sistema sem excitação externa.
1.4
Parâmetros Concentrados e Parâmetros Distribuı́dos
cetd:sec:concdist
Definição 1.4.1 Um sistema é dito a parâmetros concentrados se possui um
número finito de variáveis de estado. Caso contrário, o sistema é dito a parâmetros distribuı́dos .
Exemplo 1.4.1
Considere o seguinte sistema, cuja saı́da é simplesmente igual à entrada atrasada de uma unidade de tempo:
y(t) = u(t − 1).
(1.6) distribuido
Note-se que, para se determinar a resposta y(t) para t ≥ t0 , junto com a
entrada u(t) para t ≥ t0 , necessita-se também conhecer a entrada u(t) no
intervalo t0 − 1 ≤ t ≤ t0 . Portanto, o estado deste sistema seria o conjunto
{u(t), t0 − 1 ≤ t ≤ t0 }. Trata-se portanto de um sistema de dimensão infinita
, logo, um sistema a parâmetros distribuı́dos.
sist_linear
nao_linear
eq_dif_2ord
Claramente, os sistemas (1.1), (1.3) e (1.5) são sistemas a parâmetros con4
ex_distribuido centrados .
CAPÍTULO 1. DEFINIÇÕES E EXEMPLOS
1.5
7
Sistemas Mono e Multivariáveis
cetd:sec:monomulti
Definição 1.5.1 Um sistema é dito monovariável se possui apenas uma entrada e uma saı́da. Caso contrário (se possui mais de uma entrada ou mais
de uma saı́da), o sistema é dito multivariável .
Sistemas monovariáveis são também conhecidos como sistemas SISO , do
inglês “single-input, single-output”, enquanto sistemas com mais de uma entrada e mais de uma saı́da são conhecidos como sistemas MIMO (“multipleinput, multiple-output”). Podem-se também definir sistemas SIMO (“singleinput, multiple-output”) e MISO (“multiple-input, single-output”).
1.6
Tempo Contı́nuo e Tempo Discreto
cetd:sec:contdisc
As definições a seguir referem-se à maneira como o sinais de entrada e
saı́da
e os estados de um sistema evoluem em relação à evolução do tempo
Oga87
(Ogata, 1987).
Definição 1.6.1 Um sinal é dito de tempo contı́nuo se é definido em uma
faixa contı́nua de tempo.
Um sinal é dito quantizado se sua amplitude assume apenas um conjunto
finito de valores distintos.
Um sinal é dito analógico se é de tempo contı́nuo e sua amplitude pode
assumir valores em uma faixa contı́nua.
Um sinal é dito de tempo discreto se é definido apenas em instantes discretos de tempo.
Um sinal de tempo discreto é dito a dados amostrados se sua amplitude
pode assumir valores em uma faixa contı́nua.
Um sinal digital é um sinal de tempo discreto com amplitude quantizada.
Sinais a dados amostrados são freqüentemente obtidos pela amostragem de
sinais analógicos em instantes discretos de tempo. Sinais digitais são os sinais
processado por computadores digitais.
sinais_tempo
Na figura 1.2 são ilustrados estes diferentes tipos de sinal.
sinais_tempo
A classificação dos sistemas em termos de seu comportamento em relação
ao tempo depende do tipo de sinal a ser processado:
Definição 1.6.2 Um sistema é dito de tempo contı́nuo se seus estados, entradas e saı́das são sinais de tempo contı́nuo.
Em um sistema de tempo contı́nuo, o estado x(t), as entradas u(t) e as
saı́das y(t) são definidas para todo instante de tempo t ∈ IR.
sistemas
monovariáveis
sistemas
multivariáveis
sistemas
SISO
sistemas
MIMO
sistemas de
tempo
contı́nuo
8
CAPÍTULO 1. DEFINIÇÕES E EXEMPLOS
x
x
sistemas de
tempo
discreto
t
t
Sinal de tempo contı́nuuo quantizaado
Sinal de tempo contı́nuo analógico
x
x
PSfrag replacements
Sistema
t
Sinal de tempo discreto amostrado
t
Sinal de tempo discreto digital
Figura 1.2: Tipos de sinal.
Definição 1.6.3 Um sistema é dito de tempo discreto se seus estados, entradas e saı́das são sinais de tempo discreto.
Em um sistema de tempo discreto, os estados, entradas e saı́das só são
definidos em instantes discretos de tempo.
Muitas vezes um sistema de tempo discreto é obtido a partir da discretização de um sistema de tempo contı́nuo. Neste caso, apesar de as variáveis do
sistema estarem definidas em todo instante t ∈ IR, o modelo discreto só leva
em conta seus valores em instantes discretos.
Exemplo 1.6.1
sist_linear
Consideremos novamente o sistema (1.1):
dy(t)
+ 2y(t) = 3u(t).
dt
(1.7) sist_cont
Considerando agora condições iniciais não nulas, pode ser verificado que sua
resposta completa, para cada instante de tempo t ≥ t0 , é dada por:
Z t
−2(t−t0 )
2λ
y(t) = e
y(t0 ) +
e u(λ)dλ e−2t .
(1.8) resp_sist_cont
t0
Trata-se, portanto, de um sistema de tempo contı́nuo.
9
CAPÍTULO 1. DEFINIÇÕES E EXEMPLOS
Suponhamos agora que o sinal de entrada deste sistema seja amostrado a equação a
diferenças
cada T unidades de tempo e passado por um segurador de ordem zero. Tal sistemas indispositivo mantém o valor do sinal de entrada constante dentro do perı́odo de variantes
amostragem kT ≤ t < (k+1)T , k ∈ ZZ, de modo que, na saı́da deste segurador, no tempo
sistemas
tenhamos o sinal:
variantes
no tempo
u∗ (t) = u(kT ), para kT ≤ t < (k + 1)T.
sist_cont
Se o sinal u∗ (t) for aplicado ao sistema (1.7), pode-se verificar a partir de
(1.8) que a saı́da no intervalo kT ≤ t < (k + 1)T é dada por:
Z t
2λ
−2(t−kT )
e u(kT )dλ e−2t .
y(t) = e
y(kT ) +
resp_sist_cont
kT
Assim, para t = (k + 1)T ter-se-ia:
−2T
Z
(k+1)T
2λ
!
e u(kT )dλ e−2(k+1)T
kT
Z T
−2T
2(τ +kT )
= e
y(kT ) +
e
u(kT )dτ e−2(k+1)T
Z0 T
2τ
−2T
e dτ e−2T u(kT ).
= e
y(kT ) +
y((k + 1)T ) = e
y(kT ) +
0
Desse modo, se o perı́odo de amostragem T é conhecido, a evolução do
sistema nos instantes de amostragem kT , com k ∈ ZZ é dada pelo seguinte
modelo de tempo discreto (equação a diferenças) :
y(k + 1) + ay(k) = bu(k),
(1.9) sist_disc
Z T
−2T
2τ
em que: a = −e
,b=
e dτ e−2T , y(k) = y(kT ), u(k) = u(kT ).
0
1.7
4
Sistemas Variantes e Invariantes no Tempo
cetd:sec:vartempo
Definição 1.7.1 Considerem-se o estado de um sistema no instante t0 e uma
entrada aplicada a partir de t0 , gerando uma certa resposta. Um sistema é
dito invariante no tempo se, dado o mesmo estado e aplicando-se a mesma
entrada a partir do instante t0 + ∆t, a mesma resposta é obtida a partir de
t0 + ∆t. Caso contrário, o sistema é dito variante no tempo .
Sistemas invariantes no tempo, portanto, sob as mesmas condições iniciais,
respondem da mesma maneira a um dado sinal de entrada, independentemente
de quando tal sinal é aplicado. É um sistemas cujas caracterı́sticas não mudam
ao longo do tempo.
10
CAPÍTULO 1. DEFINIÇÕES E EXEMPLOS
sistemas
com
atrasos
Exemplo 1.7.1
Consideremos o seguinte sistema autônomo:
dy(t)
+ a(t)y(t) = 0.
dt
(1.10) sist_vt
Consideremos inicialmente que o parâmetro a(t) não varie com o tempo: a(t) =
2. Neste caso, a resposta do sistema
para t ≥ t , com condição inicial y(t0 ) = ȳ,
resp_sist_cont 0
é dada por (vide a equação (1.8)):
y 1 (t) = e−2(t−t0 ) ȳ.
Analisemos agora a respota do sistema para t ≥ t0 + ∆t, sendo que no instante
t0 + ∆t a condição inicial é a mesma do caso anterior, ou seja, y(t0 + ∆t) = ȳ.
A resposta a partir de t0 + ∆t é então dada por:
y 2 (t) = e−2(t−t0 −∆t) ȳ = y 1 (t − ∆t).
Conclui-se portanto que o sistema é invariante no tempo, pois produz a mesma
resposta quando submetido às mesmas condições em outro instante de tempo.
Consideremos agora a(t) variando com o tempo: a(t) = 2(1 − t). Neste
caso, pode ser verificado que a respota para t ≥ t0 , com y(t0 ) = ȳ, é dada por:
2
2
y 1 (t) = e−2t0 +t0 ȳe2t−t .
Agora, submetido à mesma condição inicial a partir de t0 + ∆t, o sistema
responde com o sinal:
2
2
y 2 (t) = e−2(t0 +∆t)+(t0 +∆t) ȳe2t−t ,
que é claramente diferente de y 1 (t−∆t), o que mostra que o sistema é variante
no tempo.
4
Exemplo 1.7.2
sist_linear
nao_linear
nao_causal
distribuido
sist_disc
Os sistemaseq_dif_2ord
(1.1), (1.3), (1.4), (1.6) e (1.9) são invariantes no tempo, enquanto
o sistema (1.5) é variante no tempo.
4
1.8
Sistemas com Atrasos
cetd:sec:atraso
Sistemas com atrasos (retardos, tempos mortos, atrasos de transporte,
etc.) são freqüentemente encontrados em aplicações industriais. Em sistemas
11
CAPÍTULO 1. DEFINIÇÕES E EXEMPLOS
de controle, por exemplo, tais atrasos são usualmente introduzidos no proces- atrasos
discretos
samento dos sinais dos sensores, atuadores e redes industriais, envolvidos nas atrasos
malhas de realimentação.
distribuı́dos
Tais sistemas respondem com um tempo de atraso às excitações. Os atrasos sistemas
podem estar associados tanto às variáveis de entrada quanto às variáveis de neutrais
estado.
Consideremos agora o seguinte modelo geral de sistema linear, de tempo
contı́nuo, invariante no tempo, com atrasos:
ẋ(t) =
q
X
Dl ẋ(t−ωl )+
k
X
(Ai x(t−hi )+Bi u(t−hi ))+
j=1
i=0
l=1
y(t) =
k
X
r Z
X
Ci x(t − hi ) +
i=0
r Z t
X
t
(Gj (θ)x(θ)+Hj (θ)u(θ))dθ,
t−τj
Nj (θ)x(θ)dθ,
(1.11) atraso_estado
(1.12)
t−τj
j=1
com h(0) = 0. Logo i = 0 corresponde ao termo sem atraso.
A partir desse modelo, derivam-se os seguintes tipos de sistemas com atrasos:
Sistemas com atrasos discretos:
ẋ(t) =
k
X
(Ai x(t − hi ) + Bi u(t − hi )),
i=0
y(t) =
k
X
Ci x(t − hi ).
i=0
Quando k > 1 diz-se que o sistema tem múltiplos atrasos.
Sistemas com atrasos distribuı́dos:
ẋ(t) = A0 x(t) + B0 u(t) +
r Z
X
j=1
y(t) = C0 x(t) +
t
(Gj (θ)x(θ) + Hj (θ)u(θ))dθ,
t−τj
r Z
X
j=1
t
Nj (θ)x(θ)dθ.
t−τj
Sistemas neutrais: Há atraso nos termos
relativos às derivadas de maior
atraso_estado
ordem do modelo. Na equação (1.11) a parte neutral está representada
pelas matrizes Di .
ex_distribuido
Como visto no exemplo 1.4.1, sistemas com atraso são sistemas distribuı́dos, de dimensão infinita portanto.
CAPÍTULO 1. DEFINIÇÕES E EXEMPLOS
1.9
12
Sistemas Determinı́sticos e Estocásticos
cetd:sec:detestoc
Definição 1.9.1 Um sistema é dito determinı́stico se para um dado estado
inicial e uma dada entrada houver apenas uma saı́da possı́vel. Caso contrário,
o sistema é dito estocástico .
O termo sistemas estocásticos refere-se, em geral, a sistemas submetidos a
entradas de comportamento incontrolável e aleatório, conhecidas como ruı́do
. É justamente a presença de ruı́dos que faz com que um sistema estocástico
submetido a um mesmo estado inicial e a um mesmo sinal de entrada possa
apresentar sinais de saı́da diferentes.
Exemplo 1.9.1
Todos os exemplos de sistemas apresentados até aqui referem-se a sistemas
determinı́sticos.
Um sistema estocástico pode ser representado por equações diferenciais
estocásticas, como, por exemplo, a que segue:
d2 y(t)
dy(t)
+ (3t + 1)
+ (t2 )y(t) = W 0 (t),
dt2
dt
em que W 0 (t) é uma variável aleatória.
4
Em geral, sistemas estocásticos são analisados em função das propriedades
estatı́sticas dos sinais de ruı́do.
1.10
Exemplos de Modelos Matemáticos
cetd:sec:exempmodmat
Exemplo 1.10.1
Circuitos elétricos a parâmetros concentrados:
rlc
Consideremos o circuito elétrico RLC série representado na figura 1.3:
rlc
Tal circuito pode ser considerado como um sistema monovariável (SISO)
cuja entrada é a tensão v(t) da fonte de tensão independente e a saı́da é
a corrente i(t) que circula no circuito. As tensões e correntes no resistor,
capacitor e indutor relacionam-se, respectivamente, da seguinte forma:
Z
diL (t)
1 t
iC (τ )dτ, vL (t) = L
vR (t) = RiR (t), vC (t) =
.
C t0
dt
Pela lei da tensão de Kirchoff, a soma das tensões no circuito deve ser nula.
Desse modo,
Z
1 t
di(t)
+
i(τ )dτ.
v(t) = Ri(t) + L
dt
C t0
sistemas
determinı́sticos
sistemas
estocásticos
ruı́do
equações diferenciais
estocásticas
circuito
elétrico
13
CAPÍTULO 1. DEFINIÇÕES E EXEMPLOS
representação
de estado
L
R
PSfrag replacements
i(t)
v(t)
C
+
−
Figura 1.3: Circuito RLC série.
Derivando, obtém-se a seguinte equação diferencial linear ordinária de segunda
ordem:
di(t)
1
dv(t)
d2 i(t)
+R
+ i(t) =
.
(1.13) eq_circ
L
2
dt
dt
C
dt
O comportamento da saı́da i(t) para qualquer entrada v(t) e qualquer condição inicial pode assim ser determinado a partir da resolução desta equação.
Trata-se aı́ de um sistema linear, causal, com memória, a parâmetros concentrados, monovariável, de tempo contı́nuo, invariante no tempo e determinı́stico.
Note-se que:
• Se o circuito não tivesse o indutor e o capacitor, a relação entrada saı́da
seria simplesmente v(t) = Ri(t), tratando-se assim de um sistema sem
memória. Qualquer circuito puramente resistivo é um sistema sem memória.
• Se o resistor do circuito fosse trocado por um termistor (dispositivo cuja
resistência varia com a mudança de temperatura), o sistema seria variante no tempo;
• Suponhamos que se queira estudar o efeito do ruı́do térmico,rlc
devido à
agitação térmica de eletrons no resistor, no circuito da figura
1.3. Neste
eq_circ
caso, uma pequena tensão v(t) seria gerada e a equação (1.13) tornarse-ia uma equação diferencial estocástica, representando um sistema estocástico, na qual v(t) seria um ruı́do branco.
4
Exemplo 1.10.2
Representação de estado de circuitos elétricos:
Um sistema pode ser representado
de uma forma que explicite suas variácetd:sec:estado
veis de estado. Como visto na seção 1.3, o estado de um sistema em um dado
14
CAPÍTULO 1. DEFINIÇÕES E EXEMPLOS
instante de tempo é a informação suficiente para, juntamente com a entrada sistema
singular
aplicada a partir deste instante, determinar de forma única sua resposta. No sistema
caso de circuitos elétricos RLC, sabe-se que a resposta pode ser completamente descritor
determinada conhecendo-se as tensões iniciais nos capacitores e as correntes
iniciais nos indutores, que, desse modo, qualificam-se como variáveis de estado
do circuito. Note-se que as variáveis de estado estão associadas aos elementos
armazenadores de energia. Pode-se assim interpretar a energia armazenada
no sistema como sendo sua memória.
rlc
Voltando ao circuito da figura 1.3, definamos como variáveis de estado:
x1 (t) = iL (t),
x2 (t) = vC (t).
Aplicando-se a lei de tensão de Kirchoff, obtém-se a representação do sistema
na forma de equações de estado:
ẋ1 (t) =
Matricialmente:
ẋ1 (t)
ẋ2 (t)
diL (t)
1
R
1
= v(t) − x1 (t) − x2 (t)
dt
L
L
L
1
ẋ2 (t) = x1 (t)
C
i(t) = x1 (t).
=
−R
L
1
C
i(t) =
− L1
0
x1 (t)
x2 (t)
+
1 0
x1 (t)
x2 (t)
.
1
L
0
v(t)
4
Exemplo 1.10.3
Sistema singular:
singular
Consideremos o circuito elétrico representado na figura 1.4, cuja entrada é
uma fonte de corrente independente, contendo uma fonte de corrente dependente com ganho k desconhecido.
singular
Definamos como variáveis de estado a corrente no indutor, x1 (t) e a tensão
no capacitor, x2 (t). A tensão no indutor é dada por:
vL (t) = 1ẋ1 (t).
Segundo a lei de Kirchoff das correntes, a soma das correntes que chegam
em um nó do circuito deve ser nula. Aplicando-a nos nós 1 e 2, obtêm-se,
respectivamente:
vL (t)
+ x1 (t) + 1ẋ2 (t),
i(t) =
1
15
CAPÍTULO 1. DEFINIÇÕES E EXEMPLOS
PSfrag replacements
1F
+
i(t)
1H
1Ω
_
x2 (t)
+
vL (t)
−
1Ω
+
vR (t)
_
kvL (t)
x1 (t)
Figura 1.4: Circuito com fonte de corrente dependente.
vR (t)
= kvL (t) + ẋ2 (t).
1
Aplicando-se a lei das tensões na malha formada pelo indutor, pelo capacitor
e pelo resistor em paralelo com a fonte dependente de corrente, obtém-se:
vL (t) = x2 (t) + vR (t).
Manipulando-se as expressões acima para eliminar vL (t) e vR (t), obtêm-se as
duas equações a seguir:
(1 − k)ẋ1 (t) = ẋ2 (t) + x2 (t),
ẋ1 (t) = −ẋ2 − x1 (t) + i(t).
Substituindo-se a segunda expressão na primeira, obtém-se:
(2 − k)ẋ2 (t) = (k − 1)x1 (t) − x2 (t) + (1 − k)i(t).
Assim, se k = 2, as variáveis de estado x1 (t) e x2 (t) e a entrada i(t) são
relacionadas algebricamente por meio da seguinte expressão:
x1 (t) − x2 (t) − u(t) = 0.
A representação de estado do sistema assume então a seguinte forma:
1 1
0 0
ẋ1 (t)
ẋ2 (t)
=
0 −1
1 −1
x1 (t)
x2 (t)
+
0
−1
i(t)
Trata-se, portanto, de um sistema linear singular (ou descritor) pois suas variáveis de estado estão relacionadas por equações puramente algébricas e equações
dinâmicas.
4
CAPÍTULO 1. DEFINIÇÕES E EXEMPLOS
16
sistema
Exemplo 1.10.4
massaSistema massa-mola:
mola
Trata-se de uma representação de muitos sistemas reais, tais como: amor- sistema de
nı́vel
tecedores, acelerômetros, sismógrafos, etc.
massa-mola
Consideremos então o sistema representado na figura 1.5, composto por
um bloco da massa m, preso a uma parede por meio de uma mola. A entrada
é a força aplicada à massa, u(t), e a saı́da é o deslocamento da massa y(t).
y(t)
PSfrag replacements
k2
m
u(t)
k1
massa-mola
Figura 1.5: Sistema massa-mola.
O atrito entre o chão e o bloco, em geral, consiste em três partes: atrtaito
estático, atrito de Coulomb e atrito viscoso. Desprezando-se os atritos estático e de Coulomb, que apresentam comportamento não-linear em realação
à velocidade da massa, pode-se considerar a força de atrito é proporcional à
velocidade da massa.
A força de reação da mola, em geral, é uma função não-linear do deslocamento. No entanto, para pequenos deslocamentos esta caracterı́stica pode ser
considerada aproximadamente linear.
A partir dessas considerações, um modelo linear do sistema pode ser obtido
aplicando-se a segunda lei de Newton:
d2 y(t)
dy(t)
= u(t) − k1
− k2 y(t),
2
dt
dt
sendo k1 o coeficiente de atrito viscoso e k2 a constante da mola.
m
4
Exemplo 1.10.5
Nı́vel de Lı́quido em Tanques Interligados:
Consideremos
o sistema formado por dois tanques interligados, ilustrado na
dois_tanques
figura 1.6, alimentado por uma tubulação que despeja o lı́quido a uma vazão
igual a qi (t), controlada por uma válvula. Deseja-se obter uma representar
da evolução dos nı́veis de lı́quido em cada um deles, em função da vazão de
entrada.
17
CAPÍTULO 1. DEFINIÇÕES E EXEMPLOS
PSfrag replacements
qi
h1
q1
A1
dois_tanques
Tanque I
R1
A2
h2
Tanque II
q2
R2
Figura 1.6: Sistema de nı́vel de lı́quido em tanques interligados.
Sejam então:
qi (t): Vazão de entrada do lı́quido no tanque I;
q1 (t): Vazão de saı́da do lı́quido do tanque I;
q2 (t): Vazão de saı́da do lı́quido do tanque II;
A1 : Área da seção transversal do tanque I;
A2 : Área da seção transversal do tanque II;
h1 (t): Nı́vel do lı́quido no tanque I;
h2 (t): Nı́vel do lı́quido no tanque II;
R1 : Resistência ao fluxo entre os tanques I e II;
R2 : Resistência ao fluxo na saı́da do tanque II.
A vazão entre tanques depende da resistência associada ao duto que os liga
e à diferença entre os seus nı́veis:
q1 (t) =
h1 (t) − h2 (t)
, se o fluxo for laminar,
R1
p
h1 (t) − h2 (t)
q1 (t) =
, se o fluxo for turbulento.
R1
Na maioria dos processos industriais o fluxo é turbulento.
Assim sendo, a vazão de saı́da q2 é dada por:
p
h2 (t)
q2 (t) =
.
R2
18
CAPÍTULO 1. DEFINIÇÕES E EXEMPLOS
Além disso, o aumento no nı́vel dos tanques é função da diferença entre as sistemas a
parâmetro
vazões de entrada e saı́da:
distribuı́do
A1 dh1 (t) = (qi (t) − q1 (t))dt,
A2 dh2 (t) = (q1 (t) − q2 (t))dt.
Desse modo, o sistema pode ser descrito pelas seguintes equações de estado
não-lineares:
p
h1 (t) − h2 (t)
dh1 (t)
qi (t)
=
−
,
dt
A1
A1 R1
p
p
h1 (t) − h2 (t)
h2 (t)
dh2 (t)
=
−
.
dt
A2 R1
A2 R2
Para efeito de controle automático do nı́vel dos tanques, a variável manipulada seria a abertura da válvula de entrada. Desse modo, a entrada do
sistema seria a vazão logo após a saı́da da válvula, qv i (t), e não a vazão no final
da tubulação que alimenta o tanque I, qi (t). Em função da distância entre a
válvula e o final da tubulação, a vazão de alimentação do tanque sofreria um
atraso τ em relação à vazão qv i (t), de modo que:
qi (t) = qv i (t − τ ),
o que transformaria o sistema em um sistema com atraso.
4
Exemplo 1.10.6
Sistema a parâmetro distribuı́do:
fornoBM92
Consideremos o forno representado na figura 1.7 (Basile and Marro, 1992):
PSfrag replacements
f (z)
z0 u(t)
x(t,z)
z0
z1
z
z0
z1
Figura 1.7: Forno contı́nuo e distribuições de temperatura associadas.
forno
z
CAPÍTULO 1. DEFINIÇÕES E EXEMPLOS
19
Uma lâmina de material homogêneo com seção transversal constante é
transportado com velocidade ajustável u(t) para o interior do forno. Supõe-se
que as distribuições de temperatura no forno e na lâmina variam em relação
ao deslocamento z(t) no interior do forno, mas são uniformes nas direções
ortogonais a este deslocamento. Sejam então:
f (z): temperatura ao longo do forno, suposta constante em relação ao tempo;
x(t,z): a temperatura ao longo da lâmina, que é função tanto do tempo quanto
do deslocamento.
O sistema pode então ser representado pela seguinte equação de propagação
de calor unidimensional:
∂x(t,z)
∂ 2 x(t,z)
∂x(t,z)
= k1
+ u(t)
+ k2 (x(t,z) − f (z)) ,
2
∂t
∂z
∂z
sendo k1 e k2 constantes relacionadas, respectivamente, às condutividades térmicas interna e da superfı́cie da lâmina.
O estado deste sistema é a função x(t,z), com z0 ≤ z ≤ z1 . Trata-se
portanto de um sistema a parâmetros distribuı́dos. Note-se que a distribuição
de temperatura na lâmina, x(t,z) pode ser determinada a partir da resolução
da equação a derivadas parciais acima, sendo dados o estado inicial x(t 0 ,z),
com z0 ≤ z ≤ z1 , a temperatura da lâmina antes de ser aquecida, x(t,z0 )
(condição de contorno) e a função de entrada, a velocidade u(t) para t ≥ t 0 .
4
Exemplo 1.10.7
Pagamento de empréstimo:
Sejam:
k ∈ ZZ: número do mês a partir da data do empréstimo;
y(k): dı́vida no mês k;
u(k): pagamento no mês k;
J(k): taxa de juros no mês k;
y(0): valor do empréstimo.
A evolução da dı́vida com o tempo pode ser representada pela seguinte
equação a diferenças:
y(k) = (1 + J(k))y(k − 1) − u(k).
Ou seja, o valor da dı́vida no mês atual é igual à dı́vida do mês anterior
acrescida de juros, menos o pagamento efetuado no mês atual.
CAPÍTULO 1. DEFINIÇÕES E EXEMPLOS
20
Trata-se aı́ de um sistema linear de tempo discreto, variante no tempo,
causal, com memória, a parâmetros concentrados, monovariável e determinı́stico.
Note-se que se a taxa de juros mensal, J(k), for constante, então o sistema
torna-se invariante no tempo.
4
1.11
Outros Trabalhos na Área
cetd:sec:outros
Diversos são os livros e artigos cientı́ficos que tratam de sistemas dinâmicos.
Definições, propriedades, exemplos e modelos matemáticos
de sistemas são
HV03
encontrados
tanto
em
livros
de
sinais
e
sistemas
(
Haykin
and
Van
Veen, 2001;
OW97
KH00
Oppenheim and
Willsky,
1997;
Kamen
and
Heck,
2000)
quanto
de
sistemas
Oga03
DB01
Nis02
FPE94
de controle (Ogata, 2003; Dorf
and Bishop, 2001; Nise, 2002; Franklin, Powell
Che93
and Emami-Naeini, 1994; Chen, 1993).
Entre os livros que lidam especificamente com Che99
sistemas lineares,
tanto invaKai80
riantes quanto variantes no tempo, destacam-se (Chen, 1999a; Kailath, 1980).
Sistemas de
tempo discreto
são tratados com detalhes em obras sobre conOga87
Kuo92
trole digital (Ogata, 1987; Kuo, 1992).
Uma visão geral sobre sistemas com atrasos e Ric03auto
o ”estado da arte”das pesquisas neste tema pode ser encontrada no artigo (Richard, 2003b).
Sistemas estocásticos, com detalhes sobre equações diferenciais
estocásticas
Pap91
são
tratados
em
livros
de
processos
estocásticos,
tais
como
(
Papoulis,
1991;
HPS72
Hoel, Port and Stione, 1972).
Capı́tulo 2
Sistemas Lineares Invariantes
no Tempo
cap:slti
Edson R. De Pieri
Eugênio Castelan Neto
Moreno
DAS/USFC - 88040 900 Florianópolis - SC
emails: [ edson, eugenio, moreno]@das.usfc.br
2.1
Ubirajara F.
Introdução
sec:intro
A análise e o projeto de sistemas de controle necessita, na maioria dos
casos, de um modelo matemático que descreva de forma adequada o sistema
fı́sico. Várias ferramentas matemáticas auxiliam nessa tarefa: transformada
de Laplace, diagrama de fluxo de sinais, conceito de variáveis de estado, entre
outros. Ainda que existam abordagens usando métodos empı́ricos de análise e
de projeto, a predominância dos métodos analı́ticos deve-se ao fato de permitirem tratar sistemas simples ou complexos, dentro de uma sistemática dividida
em diversas etapas: modelagem, descrição matemática, análise do modelo e
projeto.
Durante um perı́odo considerável houve uma predominância dos modelos
matemáticos usando funções de transferência. O surgimento dos computadores
digitais tornou-se uma grande ferramenta de análise e projeto com tendência
ao uso da representação por variáveis de estado. O surgimento de pacotes de
simulação e o avanço conjunto de diferentes técnicas de controle, sejam elas
usando funções de transferência ou representação por variáveis de estados,
colocou ambas em nı́veis similares de preferência dos profissionais da área.
O objetivo desse capı́tulo é apresentar definições e conceitos básicos de
sistemas de controle para o entendimento da análise e sı́ntese de sistemas
realimentados, tanto no domı́nio do tempo como no domı́nio da freqüencia.
21
CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO
2.2
22
Definições Básicas
sec:def-bas
Definição 2.1 Sistemas são combinações de componentes ou dispositivos que
atuam conjuntamente para realizar uma dada operação. Normalmente o termo
sistema está relacionado a sistemas fı́sicos, biológicos, quı́micos, econômicos,
entre outros.
As entradas e saı́das propiciam a comunicação de um sistema com o meio.
De maneira geral, o meio atua sobre o sistema através dos sinais de entrada
e, por sua vez, o sistema interage com o meio através dos sinais de saı́da.
PSfrag replacements
Definição 2.2 Uma planta é um dispositivo fı́sico ou um conjunto de dispositivos fı́sicos existentes cuja finalidade é desempenhar uma dada operação.
O modelo matemático da planta será chamado Sistema a Controlar ou, simplesmente Sistema. Esquematicamente tem-se:
u1
u2
un
fig:1
.
.
.
SISTEMA
.
.
.
y1
y2
ou
u
SISTEMA
y
yn
.
Figura 2.1: Representação de um Sistema
Definição 2.3 Um sistema é chamado Monovariável se ele possui um único
terminal de entrada e um único terminal de saı́da (m = p = 1). Um sistema é
dito Multivariável se ele possui mais de uma entrada e/ou mais de uma saı́da.
defi:monomulti
2.3
sec:repr-sis
2.3.1
Representação de Sistemas
Linearidade
T
um vetor de excitações. Considere que
Seja ui = ui1 ui2 ... uim
H representa um operador matemático que define de forma única a saı́da do
sistema à aplicação da excitação ui :
yi = Hui
(2.1)
T
com yi = yi1 yi2 ... yip
.
Consideremos o sistema relaxado no instante to de aplicação da excitação
ui . Neste caso o sistema está em repouso, e sua resposta seria nula à aplicação
de uma entrada nula.
O princı́pio da superposicão estabelece que a resposta produzida pela aplicação simultânea de duas forças de excitação diferentes, u 1 e u2 , é igual a soma
das duas respostas individuais:
CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO
H(α1 u1 + α2 u2 ) = α1 Hu1 + α2 Hu2 , ∀u1 ,u2 e ∀α1 ,α2 ∈ <
23
(2.2)
O princı́pio da superposição garante a verificação de duas propriedades:
aditividade
→ H(u1 + u2 ) = Hu1 + Hu2 = y1 + y2
homogeneidade →
H(αu1 )
=
αHu1
=
αy1
Definição 2.4 Um sistema é linear se ele satisfaz o princı́pio da superposição.
Os sistemas para os quais o princı́pio da superposição não pode ser aplicado
def:sislin são chamados sistemas não lineares.
Observe que, para um sistema linear, o princı́pio da superposição permite,
em muitos casos, analisar a solução de problemas complicados a partir do tratamento de problemas mais simples. Por exemplo, a influência de perturbações
na resposta de um sistema é, em geral, um problema complexo de se analisar.
Supondo-se linearidade, a resposta total do sistema é composta pela resposta
devido ao sinal de controle e a resposta devido às entradas de perturbações. A
análise pode, portanto, ser realizada para cada um dos casos separadamente.
Como no caso do controle clássico, estaremos interessados, essencialmente,
em sistemas representados a partir de uma ou mais equações diferenciais ordinárias lineares. No entanto, é importante salientar que o modelo matemático
linear pode estar representando a dinâmica não linear de um sistema fı́sico,
em uma dada faixa de funcionamento ou em torno de um ponto de operação.
Neste caso, temos um modelo linearizado.
Definição 2.5 Uma equação diferencial é linear se os seus coeficientes são
def:edolin constantes ou apenas função da variável independente (geralmente o tempo).
A forma geral de uma equação diferencial linear de ordem n é:
dn y(t)
dy(t)
dm u(t)
+
.
.
.
+
a
(t)
+
a
(t)y(t)
=
b
(t)
+ . . . + bm (t)u(t)
n−1
n
0
dtn
dt
dtm
(2.3)
Pode-se ainda escrever:
ao (t)
(ao (t)pn + . . . + an−1 (t)p + an ) y(t) = (bo (t)pm + . . . + bm (t)) u(t)
(2.4)
onde p é o operador diferencial:
4
p=
N (p)
d
=⇒ y(t) =
u(t)
dt
D(p)
Uma equação diferencial como a acima pode representar a dinâmica de um
sistema linear monovariável. Se seus coeficientes são constantes:
ai (t) = ai
,i = 0,...,n
bj (t) = bj ,j = 0,...,m
CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO
24
PSfrag replacements
1
u(t)
y(t)
y(t − α)
u(t − α)
α
fig:sit
α
.
Figura 2.2: Sistema invariante no tempo
então o sistema é dito Invariante no Tempo. Neste caso:
u1 (t) = u(t − α) =⇒ y1 = y(t − α)
Caso contrário, o sistema é variante no tempo. Um exemplo de sistema
variante no tempo é uma nave espacial, cuja massa varia devido ao consumo
de combustı́vel, e a força da gravidade com a distância da terra.
subsec:laplace
2.3.2
Transformada de Laplace
A transformada de Laplace é uma poderosa ferramenta para a solução
de equações diferenciais e, também, para a respresentação entrada e saı́da de
sistema lineares invariantes no tempo. A aplicação da transformada de Laplace sobre uma equação diferencial permite transformá-la em uma equação
algébrica podendo ser mais facilmente manipulada. A solução da equação
algébrica é obtida em termos de uma variável complexa s. A obtenção da solução da equação diferencial é, então, obtida através do procedimento inverso,
conhecido como anti-transformada de Laplace.
Seja uma variável complexa s definida por:
s = σ + jω
(2.5)
A transformada de Laplace de uma função contı́nua f (t), t ∈ R é definida
por:
Z ∞
4
f (t)e−st dt
(2.6) int_lap
F (s) = L{f (t)} =
0
int_lap
A transformada de Laplace existe se a integral definida em 2.6 converge. Para
que uma função f (t) possua transformada de Laplace é suficiente que:
Z ∞
|f (t)e−st | dt < ∞
(2.7)
0
A inversa da transformada de Laplace é definida como:
Z σ+jω
1
4 −1
f (t) = L {F (s)} =
F (s)est dt
2πj σ−jω
(2.8)
25
CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO
2.3.3
subsec:ft
Sistemas Lineares Monovariáveis - Função de Transferência
O estudo das técnicas de análise e projeto na teoria de controle clássico
basearam-se, principalmente, no conceito de função de transferência (F.T.).
Uma F.T. é uma descrição que relaciona de maneira única a entrada e a saı́da
do sistema. A partir dela, podemos determinar algumas propriedades do sistema, como estabilidade.
Matematicamente a F.T. de um sistema linear invariante no tempo é definida como a relação da transformada de Laplace da saı́da (função resposta)
para a transformada de Laplace de entrada (função excitação), considerandose todas as condições iniciais nulas. Para um sistema linear monovariável
(invariante no tempo) de ordem n, tem-se:
L
bo sm̄ + b1 sm̄−1 + ... + bm̄−1 s + bm̄
4 y(s)
y(t) −→ y(s) =⇒ g(s) =
=
(2.9)
u(s)
ao sn̄ + a1 sn̄−1 + ... + an̄−1 s + an̄
u(t) −→ u(s)
onde m ≤ m e n ≤ n, devido a possibilidade de haver cancelamento entre
as raı́zes dos polinômios N (p) e D(p). Portanto, uma F.T. é “irredutı́vel” e
contém toda a informação do sistema se, e somente se, n = n.
Em geral, os sistemas reais são causais pois a saı́da do sistema no instante
to depende apenas da entrada aplicada em t ≤ to . A F.T. correspondente é
(estritamente) própria:
g(s) =
n(s)
, com grau [n(s)] ≤ grau [d(s)]
d(s)
(2.10)
Os valores de frequência complexa s = µ + jσ para os quais a F.T. se anula
são os zeros da F.T., denotados zj , j = 1, . . . , m −→ g(zj ) = 0.
Os valores de s para os quais a F.T. vale ∞, são chamados pólos da FT e
denotados pi , i = 1, . . . ,n −→ g(pi ) = ∞. Observe que, em geral, os pólos da
F.T. formam um subconjunto das raı́zes caracterı́sticas do polinômio D(p).
Importante:
1. Utilização da F.T.: sistema em repouso ⇐⇒ condições iniciais nulas.
2. F.T. é uma relação entrada saı́da e não fornece, a priori, informações
sobre as relações internas do sistema (propriedades estruturais).
2.3.4
subsec:mt
Sistemas Lineares Multivariáveis - Matriz de Transferência
Considere agora um sistema linear multivariável e invariante no tempo,
onde u ∈ <m é o vetor de entrada e y ∈ <p é o vetor de saı́da. O objetivo
CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO
é estender o conceito de função
Temos:

u1 (t)
 u2 (t)

u(t) = 
..

.
um (t)

y1 (t)
 y2 (t)

y(t) =  .
 ..
yp (t)
26
de transferência aos sistemas multivariáveis.



U1 (s)

 U2 (s) 
 L


U
(s)
=
(2.11)



..
 −→


.
Um (s)



Y1 (s)

 Y2 (s) 
 L


(2.12)
Y (s) =  . 

 −→
 .. 
Yp (s)
Por exemplo, temos a seguinte representação para o caso de duas entradas
e duas saı́das:
Y1 (s)
G11 (s) G12 (s)
U1 (s)
=
Y2 (s)
G21 (s) G22 (s)
U2 (s)
Definição 2.6 A matriz que relaciona a transformada de Laplace do vetor
de saı́da com a transformada de Laplace do vetor de entrada, considerando-se
todas as C.I. nulas (sistema em repouso), é denominada Matriz de (função)
de transferência entre o vetor de entrada e o vetor de saı́da do sistema:
4
Y (s) = G(s)U (s)
(2.13)
com U (s) = L{u(t)} e Y (s) = L{y(t)}.
Em notação vetorial matricial:

onde:




Y1 (s)
Y2 (s)
..
.
Yp (s)


 
 
=
 
G11 (s) G12 (s) ... G1m (s)
G21 (s) G22 (s) ... G2m (s)
..
..
..
..
.
.
.
.
Gp1 (s) Gp2 (s) ... Gpm (s)
4
Glj =
def:matransf





U1 (s)
U2 (s)
..
.
Um (s)





(2.14)
Yl
Uj
relaciona a l-ésima saı́da a j-ésima entrada.
A cada bloco Gij está associada uma equação diferencial como visto anteriormente. Portanto, o sistema multivariável também pode ser descrito por
um conjunto de equações diferenciais ordinárias lineares.
Pelo princı́pio da superposição (aplicável aos sistemas lineares), o efeito
total em qualquer variável de saı́da pode ser obtido adicionando-se os efeitos
de cada entrada:
Yl (s) =
p
X
j=1
Glj (s)Uj (s), i = 1, . . . ,m
(2.15)
PSfrag replacements
CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO
U1 (s)
+
G11
+
27
Y1 (s)
G21
G12
U2 (s)
fig:relinout
+
G22
+
Y2 (s)
.
Figura 2.3: Relação entradas-saı́das
subsec:var-estados
2.3.5
Representação por Variáveis de Estado
O uso de computadores digitais e a busca por uma representação padronizada de diferentes tipos de sistemas, conduziram à formulação no domı́nio
do tempo das equações representando sistemas de controle. A representação
no domı́nio do tempo pode ser facilmente utilizada para representar sistemas
lineares, variantes no tempo, mono ou multi-variáveis. Além disso, a resolução de sistemas no domı́nio do tempo fica bastante facilitada pelo uso de
computadores.
No domı́nio do tempo incluem-se todos os sistemas em que o domı́nio
matemático incorpora a resposta e a representação em termos do tempo t. O
projeto e a análise no domı́nio do tempo utiliza o conceito de estado de um
sistema.
Definição 2.7 O estado de um sistema no tempo t0 é a quantidade de informação em t0 que, juntamente com a excitação u, para todo t ≥ t0 , determina
de forma única o comportamento dinâmico do sistema, para qualquer instante
de tempo t ≥ t0 .
Para sistemas dinâmicos, o estado de um sistema é descrito em termos de
um
conjunto
de variáveis, denominados variáveis de estado x1 (t), x2 (t), · · · , xn (t).
PSfrag
replacements
A forma geral defig:sis-din
um sistema dinâmico, incluindo as variáveis de estado, é mostrada na figura 2.4:
Condições Iniciais
x(0)
Entrada
u(t)
fig:sis-din
Estado
x(t)
Saı́da
y(t)
.
Figura 2.4: Sistema Dinâmico
O estado de um sistema é descrito por um sistema de equações diferenciais de primeira ordem, escrito em termos das variáveis de estado. Nessa representação, x1 , x2 , · · · , xn constituem as variáveis de estado e u1 , u2 , · · · , um
28
CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO
correspondem às variáveis de entrada do sistema. Esse sistema de equações
diferenciais de primeira ordem é escrito sob a forma:

ẋ1 = a11 x1 + a12 x2 + · · · + a1n xn + b11 u1 + · · · + b1m um



 ẋ2 = a21 x1 + a22 x2 + · · · + a2n xn + b21 u1 + · · · + b2m um
..
..

.
.



ẋn = an1 x1 + an2 x2 + · · · + ann xn + bn1 u1 + · · · + bnm um
(2.16)
Escrito sob a forma matricial temos:
ẋ = Ax + Bu
(2.17)
onde,



x=

x1
x2
..
.
xn



 : vetor de estados

A matriz dinâmica
como:

a11 a12
 a21 a22

A= .
..
 ..
.
an1 an2
;



u=

u1
u2
..
.
um



 : vetor de controle

(2.18)
do sistema A e a matriz de entrada B são definidas
···
···
···
···

a1n
a2n
..
.




ann
;



B=

b11
b21
..
.
bn1
···
···
···
···
b1m
b2m
..
.
bnm





(2.19)
Supõe-se que o sistema apresenta p saı́das, escritas em termos das componentes de estados e também das componentes das entradas:
y = Cx + Du
(2.20)
onde,



y=

y1
y2
..
.
yp



 : vetor de saı́das

(2.21)
A matriz de saı́da C e de transmissão direta D são dadas por:



C=

c11 c12
c21 c22
..
..
.
.
cp1 cp2
···
···
···
···
c1n
c2n
..
.
cpn





;



D=

d11 · · ·
d21 · · ·
..
. ···
dp1 · · ·
d1m
d2m
..
.
dpm





(2.22)
CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO
2.3.6
subsec:ft-ss
29
Relação entre a Representação de Estados e Função de
Transferência
Dada uma representação de estados da forma:
ẋ = Ax + Bu
(2.23) eq_estado
y = Cx + Du
(2.24) eq_saida
eq_estado
eq_saida
Aplicado a transformada de Laplace nas equações 2.23 e 2.24, supondo-se
condições inicias nulas temos:
sX(s) = AX(s) + BU (s)
(2.25)
Y (s) = CX(s) = DU (s)
(2.26)
Definindo-se G(s) = Y (s)/U (s) temos:
G(s) = C(sI − A)−1 B + D
2.4
(2.27)
Análise temporal via Função de Transferência
sec:at-ft
Considere um sistema representado por uma função de transferência racional:
n(s)
br sr + br−1 sr−1 + . . . + b1 s + b0
G(s) =
= n
(2.28) eq:ft-nsds
d(s)
s + bn−1 sn−1 + . . . + a1 s + a0
em que, por definição, r ≤ n os polinômios d(s) e n(s) são coprimos. Por simplicidade, supõe-se na seqüência que G(s) é uma função estritamente própria,
i.e.: r < n. Note que no caso r = n, pode-se espressar G(s) como:
G(s) =
n(s)
=
d(s)
l(s)
+d
d(s)
|{z}
estrit. própria
Os pólos do sistema definido por G(s), denotados pi , i = 1, . . . , n, correspondem as n raı́zes da equação d(s) = 0. Pode-se então escrever:
d(s) =
eq:
n
Y
(s − pi )
i=1
A partir de (??), verifica-se que pólos de G(s) estão associados as raı́zes da
equação caracterı́stica det(sI − A) = 0.
Os zeros de G(s), denotados zj , j = 1, . . . , r, correspondem as r raı́zes da
equação n(s) = 0:
r
Y
n(s) =
(s − zj )
j=1
Note que a função de transferência é anulada para os valores de freqüência
correspondentes aos zeros do sistema: G(s = zi ) = 0. Em geral os pólos e
zeros complexos aparecem em pares complexos-conjugados, pois os todos os
coeficientes dos polinômios n(s) e d(s) são reais. Considera-se, então, que
pi+1 = p∗i se pi ∈ C e zj+1 = zj∗ se zj ∈ C
CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO
subsec:frac-parc
2.4.1
30
Resposta ao impulso utilizando frações parciais
Se os pólos são distintos, a parte estritamente própria de G(s) pode ser
expressa por uma expansão em frações parciais:
n
X ri
l(s)
=
a(s)
s − pi
(2.29) eq:expfracparc
i=1
na qual ri+1 = ri∗ se pi+1 = p∗i . Os valores numéricoseq:expfracparc
dos n resı́duos nos
numeradores podem ser encontrados multiplicando-se (2.29) por (s − pi ) e
avaliando a expressão resultante em s = pi , o que leva à fórmula:
rk =
l(s)
n
X
(s − pi )
i=1,i6=k
eq:expfracparc
Como y(s) = G(s)u(s), a partir de (2.29) obtém-se a representação do
sistema sob a forma de uma função de transferência modal:
!
n
X
ri
y(s) =
(2.30) eq:ft-modal
+ d u(s)
s − pi
i=1
{z
}
|
G(s)
A transformada inversa de Laplace de y(s) para u(s) = L{δ(t)} = 1 corresponde à resposta impulsiva do sistema representado por G(s):
y(t) =
n
X
ri epi t + dδ(t)
(2.31) eq:resp_impuls
i=1
Então, a resposta impulsiva de um sistema linear e invariante no tempo é
formada por uma soma ponderada dos seus modos (epi t ), bem como δ(t).
No caso de pólos complexos-conjugados, pode-se ainda expressar a resposta
impulsiva do sistema como uma função a coeficientes somente reais, pois:
p
∗
ri epi t +ri∗ epi t = (ν+jρ)e(µ+jσ)t +(ν−jρ)e(µ−jσ)t = 2 ν 2 + ρ2 eµt cos σt + tan−1 σ/µ
(2.32) eq:resp_parcc
eq:resp_impuls
eq:resp_parcc
A partir de (2.31) e (2.32) verifica-se que a localização dos pólos de um
sistema dinâmico determinam o comportamento ao longo do tempo da sua
resposta impulsiva. Um pólo com parte real negativa, <(s = mu+jσ) = µ < 0,
corresponde a um modo estável que decai exponencialmente. Observe que,
quanto mais próximo um pólo estável estiver do eixo imaginário, mais lento é
o decaimento correpondente. Um sistema no qual todos os pólos encontram-se
no semi-plano complexo estável (<(s) < 0 é dito ser um sistema estável.
Qualquer pólo no semi-plano instável (<(s) < 0), contribui na resposta
impulsiva via um modo que cresce exponencialmente. Qualquer sistema com
pólos instáveis <(s = mu + jσ) = µ > 0, é dito ser um sistema instável. Pólos
CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO
31
sobre o eixo imaginário contribuem com termos sinusoidais, no caso de um par
de pólos puramente imaginários, pi,i+1 = ±jσ, oufig:pole_loc
com um termo constante
no caso de um pólo na origem, pi = 0. A figura ?? mostra algumas localizações de pólos no plano-complexo e a contribuição dos modos correspondentes
Figura (pág 104) ou de outro livro
A expansão em frações parciais também pode ser utilizada para a análise
da resposta temporal de um sistema sujeito outros tipos de entrada (degrau,
rampa, senóide, ...). Nestes caso, pode-se utilizar a expressão da transformada
de Laplace do sinal de entrada e realizar a expansão em frações parciais do produto Gu (s) = G(s)u(s). Como resultado obtém-se uma soma ponderada dos
modos do sistema, estudados anteriormente e dos modos associado a entrada:
y(t) = L
−1
{Gu (s)} =
n
X
ri e
pi t
+
i=1
n̄
X
r̄l ep̄l t + du(t)
l=1
em que n̄, r̄l são quantidades associadas aos modos ep̄l t .
subsec:crit-desemp
2.4.2
Índices de Desempenho
Os ı́ndices de desempenho normalmente são utilizados para definir a qualidade da resposta. Os padrões normalmente utilizados são baseados em sistemas de primeira e de segunda ordem.
Para um sistema de primeira ordem estável com função de transferência
dada por:
g(s) =
K
1 + sτ
A resposta do sistema para uma entrada do tipo degrau unitário é dada
por:
y(t) = K(1 − e−f ractτ
(2.33) saida_primeira_ordem
onde K é o ganho estático do sistema e τ é a constante de tempo.
A resposta
ao degrau unitário para um sistema de primeira ordem é dada
fig:primeira_ordem
na figura 2.5:
Figura 2.5: Resposta de um Sistema de Primeira Ordem
fig:primeira_ordem
O valor de regime é dado por:
y∞ = lim y(t) = K
t7→∞
CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO
32
O tempo de acomodação para sistemas de primeira ordem, normalmente,
é calculado como sendo o tempo necessário para atingir 95% ou 99% do valor
de regime e correspondem, respectivamente, à 3τ e 5τ , conforme pode ser
verificado a seguir:
3τ
y3τ = K(1 − e τ ) = 1 − e−3 ≈ 0.95K
5τ
τ
y5τ = K(1 − e ) = 1 − e
−5
≈ 0.99K
(2.34)
(2.35)
(2.36)
Para sistemas de segunda ordem com pólos complexos estáveis os ı́ndices
mais usados são:
• Sobressinal máximo: Mp É a relação entre o valor máximo que a
resposta atinge e o valor de regime. Este valor, em muitos casos, está
associado a questões de segurança tais como: tensão máxima que um
circuito pode suportar, máxima deformação que uma estrutura pode
suportar sem que haja ruptura do material, etc.
• Tempo de sobressinal ou de pico: tp É o instante em que ocorre o
sobressinal
• Tempo de acomodação: ts É o tempo necessário para que a resposta
atinja o valor de regime. Normalmente utiliza-se valores de 5% ou 2%
acima ou abaixo do valor de regime como variação aceita.
• Tempo de subida:
tr É o tempo necessário para que a resposta
do sistema atinja, pela primeira vez, 90% do valor de regime. Este
parâmetro está associado à velocidade de resposta do sistema. Sistemas
rápidos têm pequenos valores de tr e sistemas lentos têm valores altos
de tr .
Para um sistema de segunda ordem, estes valores estão indicados no gráfico
mostrado a seguir.
As especificações são obtidas para sistemas de segunda ordem sem zeros.
A maioria dos sistemas encontrados na prática são mais complexos que sistemas de segunda ordem sem zeros. As especificações fornecem parâmetros de
comparação entre sistemas mais complexos e sistemas de segunda ordem.
A resposta ao degrau unitário de um sistema de segunda ordem é dada
por:
σ
−σt
y(t) = 1 − e
cos ωd +
sin ωd t
ωd t
p
onde ωd = ωn 1 − ζ 2 e σ = ζωn .
CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO
33
Step Response
From: U(1)
1.4
Mp
1.2
0.8
To: Y(1)
Amplitude
1
0.6
0.4
0.2
0
0
2
t
r
t
p
4
t 6
s
Time (sec.)
8
10
12
Figura 2.6: Resposta de um Sistema de Segunda Ordem
Para a obtenção do sobressinal máximo devemos encontrar o valor de t tal
que a derivada da saı́da é nula:
dy
σ
−σt
= σe
sin ωd t − e−σt (−ωd sin ωd t + σ cos ωd t) = 0
cos ωd t +
dt
ωd
Reescrevendo a equação acima temos:
−e
−σt
σ2
− sin ωd t + ωd sin ωd t
ωd
=0
A primeira vez que o valor máximo ocorre é para ωd t = π, ou seja:
ωd t p = π ⇒ t p =
π
π
p
=
ωd
ωn 1 − ζ 2
Substituindo o valor de tp na equação da resposta temos:
y(tp ) = 1 + Mp
= 1−e
−σπ
ωd
= 1+e
−σπ
ωd
cos π +
σ
sin π
ωd
Portanto,
Mp = e
−σπ
ωd
=e
√−ζπ
1−ζ 2
0≤ζ<1
Um outro parâmetro importante na especificação da qualidade da resposta
de um sistema é o tempo de acomodação ts (5%) ou ts (2%). O tempo de
acomodação é dado dentro de uma precisão de 5% ou 2%.
CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO
34
Nao existe valor exato para o tempo de acomodação e, por analogia com
sistemas de primeira ordem, temos:
3
ζωn
4
ts (2%) = 4τ =
ζωn
ts (5%) = 3τ =
2.5
Análise temporal via Representação de Estados
sec:at-ss
Neste seção, apresenta-se uma análise no domı́nio do tempo de sistemas representados por uma equação dinâmica, composta por uma equação de estado
e uma equação de saı́da, como segue:
ẋ(t) = Ax(t) + Bu(t) , x(0) = xo
(2.37) eq:est
y(t) = Cx(t) + Du(t)
(2.38) eq:saida
nas quais: x ∈ <n , u ∈ <m e y ∈ <p são os vetores de estado, de entrada e de
saı́da, respectivamente, com A ∈ <n×n , B ∈ <n×m , C ∈ <p×n e D ∈ <p×m , e
x(0) = x0 é uma condição inicial arbitrária em t0 = 0.
subsec:ss-enn
2.5.1
Resposta à Entrada Nula
Considere inicialmente o sistema homogêneo (com entrada nula, u(t) = 0
∀ t ≥ 0) representado pelo problema de valor inicial (PVI):
ẋ(t) = Ax(t) , x(0) = x0
(2.39) eq:sishomog
No caso de uma equação diferencial escalar ẋ(t) = ax(t), em que a ∈ <
(ou a ∈ C), sabe-se que a solução do PVI correspondente é dada por:
x(t) = eat x0 , ∀t ≥ 0
em que:
eat
=1+
at
1!
+
a2 t 2
2!
+
a3 t 3
3!
+ ... =
(2.40) eq:solescalar
∞
X
a k tk
.
k!
Para tratar o caso geral de um sistema homogêneo de ordem n, considere
a função exponencial da matriz A, definida como:
k=0
eAt = I +
∞
X A k tk
At A2 t2 A3 t3
+
+
+ ... =
1!
2!
3!
k!
k=0
Em particular, a função eAt satisfaz as propriedades seguintes:
P1. eAt e−At = e−At eAt = I
P2.
d At
dt e
= AeAt = eAt A
(2.41) eq:expmatA
CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO
35
P3. eA(t+v) = eAt eAv
eq:sishomog
Assim, a solução (única) do sistema homogêneo (2.39) pode ser dada em
termos da exponencial da matriz A, como segue:
x(t) = eAt x0 , ∀t ≥ 0
eq:solhomog
(2.42) eq:solhomog
eq:sishomog
Observe que (2.42) verifica o PVI correspondente a (2.39), pois:
ẋ(t) =
d At
e x0 = A eAt x0 e x(0) = eA0 x0 = x0 .
| {z }
dt
x(t)
eq:solhomog
Além disso, nota-se a partir de (2.42) que eAt permite determinar, para qualquer instante de tempo t = tf , a transição entre qualquer estado inicial
x(0) = x0 e o estado atual xf = x(tf ). Por este motivo, eAt também é chamada
de matriz de transição de estados.
Finalmente, aplicando a transformada de
eq:sishomog
Laplace ao sistema homogêneo (2.39), tem-se:
X(s) = (sI − A)−1 x0 ←→ x(t) = L−1 (sI − A)−1 x0
(2.43) eq:homogLapl
eq:solhomog
eq:homogLapl
Então, a partir de (2.42) e (2.43), deduz-se que:
L{eAt } = (sI − A)−1 ←→ eAt = L−1 {(sI − A)−1 }
subsec:ss-solucao
2.5.2
(2.44) eq:siexp
Solução Geral para a Representação de Estados
eq:est
Considere agora a equação de estado não-homogênea ( 2.37), reescrita na
forma:
ẋ(t) − Ax(t) = Bu(t)
(2.45) eq:estreesc
eq:estreesc
Pré-multiplicando ambos os lados de (2.45) por e−At , e aplicando a propriedade
P1, obtém-se:
e−At (ẋ(t) − Ax(t)) =
d −At
e
x(t) = e−At Bu(t)
dt
Então, integrando esta equação entre 0 e t, chega-se a:
e−At x(t) = x0 +
Z
t
e−Aτ Bu(τ )dτ
0
Portanto, aplicando
as propriedades P2 e P3, a solução da equação de estado
eq:est
não-homogênea (2.37) é dada por:
x(t) =
At
e x0
+
| {z }
Resposta à Entrada Nula
Z
t
eA(t−τ ) Bu(τ )dτ
(2.46) eq:soleqest
|0
{z
}
Resposta à Condição Inicial Nula
CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO
36
eq:saida
a qual, substituı́da em (2.38), leva a:
y(t) =
At
+
Ce x0
| {z }
Resposta à Entrada Nula
Z
t
CeA(t−τ ) Bu(τ )dτ + Du(t)
(2.47) eq:soleqsai
|0
{z
}
Resposta à Condição Inicial Nula
eq:soleqest
eq:soleqsai
Observe, a partir de (2.46) e (2.47), que a solução da equação dinâmica
consiste da soma de um termo que representa a transição do estado inicial
(Resposta à Entrada Nula) e de um termo devido a aplicação de um vetor
de entrada (Resposta à Condição Inicial Nula). Por definição, a matriz de
transferência do sistema, G(s) = C(sI − A)−1 B + D, é aeq:soleqsai
transformada de
Laplace da resposta
ao
impulso.
Então,
considerando
em
(
2.47)
que x0 = 0 e
0
u(t) = ∆(t) = δ(t) . . . δ(t) , tem-se:
G(s) = L
Z
t
B∆(τ )dτ + D∆(t)
= L CeAt B + D = CL eAt B + D
Ce
A(t−τ )
0
A matriz G(t) = L−1 {G(s)} = CeAt B + D, de dimensão p × m, é chamada de
matriz de resposta ao impulso.
subsec:ana-modal
2.5.3
Análise Modal
A seguir, introduz-se os conceitos de autovalores e de autovetores, os quais
serão utilizados
naeq:soleqsai
seqüência para analisar a solução analı́tica dada pelas exeq:soleqest
pressões (2.46) e (2.47). Para tanto, será deduzida uma
expressão para eAt ,
eq:expmatA
numa forma alternativa à expansão em série infinita (2.41), a qual permitirá,
em particular, colocar em
evidência algumas propriedades estruturais do siseq:est eq:saida
tema representado por (2.37) e (2.38).
subsub:jordan
Autovalores, Autovetores e Forma de Jordan
Um escalar λ ∈ C é um autovalor de A ∈ <n×n se existe um vetor não-nulo
v ∈ C n tal que
Av = λv
(2.48) eq:avlambdav
O vetor v é chamado deeq:avlambdav
autovetor (à direita) de A associado ao autovalor λ.
Note que a expressão (2.48), pode ser reescrita sob a forma (λI − A)v = 0.
Então, para um valor fixo de λ ∈ C, esta equação admite uma solução nãotrivial, v 6= 0, se e somente se λ ∈ C for uma raiz da equação caracterı́stica de
A:
∆(λ) = det(λI − A) = 0
(2.49) eq:eqcaracteristica
Como A é uma matriz quadrada de dimensão n cujos elementos são números reais, o polinômio caracterı́stico ∆(λ) = det(λI − A), é um polinômio
de grau n, cujos coeficientes são todos reais. Assim, toda matriz A ∈ < n×n
tem n autovalores, os quais podem ser repetidos e, necessariamente, complexos
37
CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO
conjugados no caso de autovalores complexos, i.e.: λi+1 = λ∗i se λi ∈ C. O
espectro de A corresponde ao conjunto (auto-conjugado) de seus autovalores:
σ(A) = {λ1 , λ2 , . . . , λn }. A dimensão algébrica de um autovalor λi , denotada
mi , corresponde ao número de vezes em que este autovalor aparece como raiz
da equação caracterı́stica.
Os autovetores (à direita) associados aos autovalores de A verificam a equação:
(λi I − A)vi = 0
(2.50) eq:calcautovet
com vi+1 = vi∗ se λi+1 = λ∗i . Seja ni a dimensão geométrica do autovalor λi ,
dada pela dimensão do espaço-nulo de (λi I − A). No caso de um autovalor
não-repetido, tem-se: ni = mi = 1. No caso de autovalores repetidos, tem-se
ni ≤ mi . Pode-se, então, mostrar que autovetores associados a autovalores
distintos formam, obrigatoriamente, um conjunto de autovetores linearmente
independentes. Entretanto, no caso de autovalores repetidos, duas situações
diferentes podem ocorrer:
1. o autovalor repetido admite ni = mi autovetores linearmente independentes entre si, os quais são também linearmente independente dos autovetores associados aos demais autovalores;
2. o autovalor repetido admite menos autovalores linearmente independentes do que sua multiplicidade algébrica, ou seja, ni < mi ; neste caso
pode-se definir vetores auxiliares associados ao autovalor λi , denominados autovetores generalizados (à direita), que verificam as relações:
j
= −vkj ,
(λi I − A)vk+1
para j = 1, . . . , ni e k = 0, 1, . . . , n̄k
(2.51) eq:calcautovetgen
ni
X
eq:calcautovet
em que, por definição, v0j é um autovetor LI que satisfaz (2.50), e
n̄j = mi .
j=0
Então, cada cadeia de n̄j autovetores generalizados forma um conjunto
de vetores LI, a qual é linearmente independente das demais cadeias de
autovetores associadas ao mesmo autovalor e também dos autovetores
(generalizados) associados aos demais autovalores.
Um autovetor à esquerda da matriz A, associado ao autovalor λi , é todo
vetor não-nulo qi ∈ C n que satisfaz:
qi0 (λi I − A) = 0 ⇔ (λi I − A0 )qi = 0
(2.52) eq:calcautovetesq
com qi+1 = qi∗ se λi+1 = λ∗i . Os autovetores e autovetores generalizados à
esquerda obedecem as mesmas propriedades descritas anteriormente para os
autovetores e autovetores
generalizados
à direita.
n×n
formada pelos n autovetores geneSejam V = v1 v2 . . . vn ∈ C
 0 
q1
 q0 
 2 
ralizados (à direita) da matriz A, e Q = V −1 =  .  ∈ C n×n cujas linhas
 .. 
qn0
CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO
38
são autovetores generalizados à esquerda da matriz A. Considere a matriz
quasi-diagonal J ∈ C n×n , na forma canônica de Jordan, formada a partir dos
autovalores da matriz A como segue:


λl 1 0 . . . 0 0
 0 λl 1 . . . 0 0 




 0 0 λl . . . 0 0 
n̄l ×n̄l

J = diag J¯l , com J¯l = 
(2.53) eq:forma de Jordan
 ..
..
.. . . . .
..  ∈ C
 .

.
.
.
.
. 

 0 0 0 . . . λl 1 
0 0 0 . . . 0 λl
Note que se n̄l = 1, então J¯l = λl ∈ C. Isto sempre ocorre no caso em que λl é
autovalor simples (nl = 1), mas também pode ocorrer no
caso de
autovalores
eq:calcautovet
eq:calcautovetgen
repetidos quando n̄l = 1. Então, a partir das relações (2.50) e (2.51), pode-se
verificar que AV = V J ⇐⇒ QA = JQ. Portanto, toda matriz A ∈ <n×n
admite a decomposição de Jordan:
A = V −1 JV = QJQ−1
(2.54) eq:decompjordan
Exemplo: Considere A ∈ <3×3 tal que ∆(λ1 ) = (λ1 I − A)3 . Dependendo
da estrutura da matriz A, a sua forma de Jordan pode ser dada por uma das
três matrizes a seguir:






λ1 0 0
λ1 0 0
λ1 1 0
J1 =  0 λ 1 0  ; J2 =  0 λ 1 1  ; J3 =  0 λ 1 1 
0 0 λ1
0 0 λ1
0 0 λ1
{z
}
{z
}
{z
}
|
|
|
n1 =3=m1
n1 =2<m1
n1 =1<m1
Note que a cada um dos casos acima está associada uma estrutura de autovetores e cadeia(s) de autovetores generalizados. Em particular, J 2 indica a
existência de dois autovetores LI, v1 e v2 , e de um autovetor generalizado v3 ,
o qual verifica (λi I − A)v3 = −v2 e forma uma cadeia de grau 2 junto com v2 .
Cayley-Hamilton? ????????????
Por definição, a exponencial da matriz de Jordan é dada por:
eJt = I +
∞
X J k tk
Jt J 2 t2 J 3 t3
+
+
+ ... =
1!
2!
3!
k!
(2.55) eq:expjordan
k=0
eq:decompjordan
Então, utilizando
a decomposição (2.54), a exponencial da matriz da matriz A,
eq:expmatA
definida por (2.41), pode ser obtida a partir exponencial da matriz de Jordan,
como segue:
eAt = V eJt V −1 = Q−1 eJt Q
(2.56) eq:expjordan
CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO
39
A matriz eJt é uma matriz bloco-diagonal, o que decorre da forma blocodiagonal da forma canônica de Jordan:


n̄ −2
tn̄l −1 λl t
e
eλl t teλl t . . . (n̄t l l−2)! eλl t (n̄−1)!


n̄l −2
n̄ −3
 0
eλ l t 
λl . . . (n̄t l l−3)! eλl t (n̄t l −2)!
n o


¯
¯

.
..
..
..
..
, com eJl = 
eJt = diag eJl

 ..
.
.
.
.


λ
t
λ
t
l
l

 0
0
...
e
te
λ
t
0
0
...
0
e l
(2.57) eq:expblocos
eq:sishomog
Exemplo: Considere um sistema homogêneo(2.39), de dimensão
n
= 3,

λ 0 0
cuja matriz A tem a forma de Jordan: J3 =  0 λ 1 . Aplicando a
0 0 λ
transformação x = V x̄, a representação do sistema autônomo na base formada
pelos autovetores generalizados é dada por:




 

x̄10
x̄1 (t)
λ 0 0
x̄˙ 1 (t)
 x̄˙ 2 (t)  =  0 λ 1   x̄2 (t)  , com x̄0 =  x̄20 
(2.58) eq:jordanhomog
x̄30
x̄3 (t)
0 0 λ
x̄˙ 3 (t)
Observe que, nessa nova base, os estados x̄1 e x̄3 estão desacoplados entre si e
do estado x̄2 . Assim:
x̄1 (t) = eλt x̄01 e x̄3 (t) = eλt x̄03 , ∀t ≥ 0
(2.59) eq:barx1x3
Entretanto, o estado x̄2 está acoplado
ao estado x̄ , como indica a equação
eq:jordanhomog 3
escalar a seguir, obtida a partir de (2.58):
x̄˙ 2 (t) − λx̄2 = x̄3 (t)
(2.60) eq:barx2x3
eq:barx1x3
Substituindo x̄3 (t) pelaeq:barx2x3
expressão dada em (2.59), a pré-multiplicação por e−λt
de ambos os lados de (2.60), e sua integração entre 0 e t, implica em:
Z t −λτ
Z t
Z t
d
e
x̄
(τ
)
2
−λτ ˙
−λτ
e
x̄2 (τ ) − e
λx̄2 (τ ) dτ =
x̄30 dτ
dτ =
dτ
0
0
0
Portanto:
x̄2 (t) = eλt x̄20 + tx̄30
(2.61) eq:barx2
eq:barx1x3
eq:barx2
Como x̄(t) = eJt x̄0 , ∀t ≥ 0, partir de (2.59) e (2.61) obtém-se:

 λt
e
0
0
eJt =  0 eλt teλt 
0
0 eλt
(2.62) eq:expJexemp
O procedimento adotado no exemplo anterior pode ser generalizado para
a determinação da exponencial de um bloco de Jordan genérico, de ordem n̄ l ,
CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO
40
eq:expblocos
mostrada em (2.57).
Figura ????
Decomposição Modal
subsub:dec-modal
Considere a seguinte reescrita das expressõeseq:expjordan
que definem
a solução
da
eq:soleqest
eq:soleqsai
equação dinâmica, obtida a partir da utilização (2.56) em (2.46) e (2.47):
x(t) = V eJt x̄0 +
Jt
y(t) = C̄e x̄0 +
nas quais:



B̄ = QB = 

C̄ = CV =
b̄01
b̄02
..
.
b̄0n
Z
Z
t
V eJ(t−τ ) B̄u(τ )dτ
(2.63) eq:solJest
C̄eJ(t−τ ) B̄u(τ )dτ + D̄u(t)
(2.64) eq:solJsai
0
t
0






 , x¯0 = Qx0 = 


c̄1 c̄2 . . . c̄n
x̄01
x̄02
..
.
x̄0n





, D̄ = D
Por simplicidade, considere na discussão a seguir que a matriz A possui
n autovalores distintos
e, portanto,
que eJt é uma matriz diagonal. Pode-se,
eq:solJest
eq:solJsai
então, reescrever (2.63) e (2.64) na forma:
x(t) =
y(t) =
n
X
i=1
n
X
i=1
x̄0i e
λi t
vi +
x̄0i eλi t c̄i +
n Z
X
t
i=1 0
n Z t
X
i=1
0
eλi (t−τ ) vi b̄0i u(τ )dτ
(2.65) eq:solModalest
eλi (t−τ ) c̄i b̄0i u(τ )dτ + D̄u(t)
(2.66) eq:solModalsai
Na descrição acima, cada quantidade eλi t define um modo do sistema. Podese observar, então, que a solução geral de um sistema é composta a partir da
combinação dos modos, dos autovetores (à esquerda e à direita) associados, das
entradas aplicadas e da condição
inicial.
Apresenta-se, a seguir, uma análise
eq:solModalest
eq:solModalsai
mais detalhada das relações (2.65) e (2.66)
1. Análise modal da equação de estados
P
(a) Resposta à entrada nula: Neste caso, x(t) = ni=1 x̄0i eλi t vi , ∀t ≥
0. Portanto, o estado do sistema autônomo, em qualquer instante
de tempo t pode ser calculado como uma combinação linear dos
autovetores de A cujos coeficientes de ponderação são definidos por
CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO
βi (t) = x̄0i eλi t . Além disso, para cada

 0 , se <(λi ) < 0 →
1 , se <(λi ) = 0 →
lim |eλi t | =
t→∞

∞ , se <(λi ) > 0 →
41
modo do sistema, tem-se:
modo assintoticamente estável
modo estável
modo instável
Portanto, para qualquer condição inicial x0 ∈ <n , a convergência
dos estados do sistema autônomo para a origem é garantida se e
somente se todos os modos do sistema são assintoticamente estáveis; nesta situação, o sistema autônomo é dito ser assintóticamente
(internamente) estável. Em outras situações, o sistema é estável se
<(λi ) ≥ 0 ∀i, ou instável se houver algum modo instável 1 .
P Rt
(b) Resposta à condição inicial nula: Neste caso, x(t) = ni=1 0 eλi (t−τ ) vi b̄0i u(τ )dτ
0
qi vi = 1 , ∀i
∀t > 0. Como, QV = I ⇔
, tem-se:
qi0 vj = 0 , ∀j 6= i
Z t
0
0
eλi (t−τ ) u(τ )dτ
x̄i (t) = qi x(t) = b̄i
0
Verifica-se, então, que b̄0i 6= 0 é uma condição necessária para poder
atuar sobre o estado x̄i (t). Este tipo de propriedade está associada
ao conceito de Controlabilidade, a ser estudado no Capı́tulo X.
2. Análise modal da equação de saı́da
P
(a) Resposta à entrada nula: Neste caso, y(t) = ni=1 x̄0i eλi t c̄i , ∀t ≥ 0.
Observe, inicialmente, que se c̄i = 0, então o modo eλi t não estará
presente na saı́da y(t). Verifica-se também que c̄i 6= 0 é uma condição necessária para poder recuperar na saı́da y(t) a informação do
estado inicial x̄0i . Essas propriedades estão associadas ao conceito
de Observabilidade, a ser estudado no Capı́tulo X.
Rt
P
(b) Resposta à condição inicial nula: Neste caso, y(t) = ni=1 Γi 0 eλi (t−τ ) u(τ )dτ +
D̄u(t), ∀t > 0, em que Γi = c̄i b̄0i ∈ C p×m é uma matriz de posto 1 ou
nula quando c̄i = 0 e/ou b̄0i = 0; no caso monovariável, m = p = 1,
tem-se γi = c̄i b̄i ∈ C. Em geral, considerando a resposta ao impulso,
u(t) = ∆(t), e aplicando a transformada de Laplace, obtém-se2 :
G(s) = C(sI − A)−1 B + D =
n
X
i=1
1
Γi + D̄
(s − λi )
Esta expressão pode ser vista como uma expansão em frações parciais para a matriz de transferência G(s). Ela mostra, em particular, que o conjunto de pólos da matriz de transferência G(s)
1
Uma análise de convergência das trajetórias do sistemas para escolhas particulares de
condições iniciais, tomadas na direção de um determinado autovetor ou em um subespaço
determinado por um subconjunto de autovetores também é possı́vel
2
Compare esta expressão com a expansão em frações parciais de uma função de transferência
CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO
42
corresponde, no caso de autovalores distintos, ao subconjunto dos
autovalores da matriz A para os quais Γi 6= 0 .
Para complementar a discussão anterior, considera-se no exemplo a seguir
o caso de um sistema com autovalores repetidos.
Exemplo: Seja um sistema de dimensão 3 representado por matrizes
(A,B,C), cuja forma canônica de Jordan de A é dada por J2 utilizada no
exemplo anterior:



 λt
e 1
0
0
λ1 0 0
J2 =  0 λ1 1  =⇒ eJ1 t =  0 eλ1 t teλ1 t 
0 0 λ1
0
0
e λ1 t
Neste caso
x(t)
y(t)
=
=
(x̄01 v1 + (x̄02 + tx̄03 )v2 + x̄03 c̄3 ) eλ1 t +
(x̄01 c̄1 + (x̄02 + tx̄03 )c̄2 + x̄03 c̄3 ) eλ1 t +
Z
Z
t
0
t
v1 b̄01 + v2 b̄02 + (t − τ )b̄03 + v3 b̄03 eλ1 (t−τ ) u(τ )dτ
(Γ1 + Γ2 + (t − τ )Γ23 + Γ3 ) eλ1 (t−τ ) u(τ )dτ
0
em que Γi = c̄i b̄0i , para i = 1, . . . , 3, e Γ23 = c̄2 b̄03 .
Uma análise detalhada destas expressões permite verificar que a existência
de diferentes blocos de Jordan associados a um mesmo autovalor e, especialmente, a existência do bloco de ordem maior que 1, leva a algumas conclusões
sobre as propriedades estruturais do sistema (estabilidade, controlabilidade,
observabilidade), em parte distintas das obtidas para o caso de autovalores distintos. Em particular, a presença do termo x̄02 + tx̄03 , dependente do tempo,
na resposta à entrada nula, implica na instabilidade do sistema também no
caso em que <(λ1 ) = 0.
2.6
Resposta em freqüência
Para sistemas lineares estáveis, a resposta em regime permanente para uma
entrada harmônica na forma
u(t) = exp(jωt)
onde ω ∈ R, pode ser obtida a partir da equação diferencial do sistema,
supondo uma saı́da particular yp (t) dada por
yp (t) = y0 exp(jωt)
onde y0 ∈ C. Seja um sistema cuja dinâmica é descrita por equação diferencial
na forma
an y n + an−1 y n−1 + . . . + a0 y = bm y m + bm−1 y m−1 + . . . + b0 u
CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO
43
a constante y0 pode ser determinada para u = exp(jωt), supondo y = yp ,
obtendo-se
bm (jω)m + bm−1 (jω)m−1 + . . . + b0
y0 =
.
an (jω)n + an−1 (jω)n−1 + . . . + a0
Portanto, para uma entrada harmônica qualquer u(t) = u0 exp(jωt), com u0 ∈
C, a saı́da em regime permanente yrp (t) é dada por yrp (t) = a exp(jωt + φ),
onde a = ky0 k · ku0 k e φ = arg(y0 ) + arg(u0 ). A constante complexa y0 é
chamada resposta em freqüência do sistema.
Para sinais harmônicos reais na forma u = A cos(ωt + ϕ) ou u = A sin(ωt +
ϕ), a resposta em regime permanente yrp é dada por
yrp = ky0 kA cos(ωt + ϕ + arg(y0 ))
ou
yrp = ky0 kA sin(ωt + ϕ + arg(y0 ))
uma vez que
A sin(ωt + ϕ) =
exp(jωt)+exp(−jωt)
2
exp(jωt)−exp(−jωt)
A exp(jφ)
2j
A cos(ωt + ϕ) = A exp(jφ)
Considerando que a relação entrada-saı́da do sistema pode ser representada
pela função de transferência H(s), conclui-se que a resposta em freqüência
do sistema pode ser determinada por y0 = H(jω), onde ky0 k = kH(jω)k e
arg(y0 ) = arg(G(jω)), sendo que kH(jω)k e arg(H(jω)) são respectivamente
designados como módulo e fase da resposta em freqüência. A resposta em
freqüência de um sistema é uma informação importante, pois a partir dela é
possı́vel analisar o comportamento do sistema como: filtro; sistema de controle
automático, bem como a resposta para entradas periódicas.
A resposta em freqüência, H(jω), é uma função complexa de variável
real, podendo ser representada graficamente de diversas maneiras. As formas
mais comumente utilizadas são: representação linear; logarı́tmica (diagrama
de Bode) e polar (diagrama de Nyquist).
Representação linear
A representação linear da resposta em freqüência é composta por dois gráficos sepadarados: módulo e fase. No gráfico de módulo representa-se kH(jω)k
em função de ω e no de fase representa-se arg(H(jω)).
Diagrama de Bode
O chamado diagrama de Bode desenvolvido por H. W. Bode no laboratório
Bell na década de 1930, consiste em dois gráficos: módulo e fase, considerando
um eixo logarı́tmico para a freqüência, sendo que, o módulo é representado em
decibeis dB, ou seja kH(jω)kdB = 20 log(kH(jω)k).
CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO
44
A principal vantagem desta respresentação é a possibilidade de representar
a resposta em freqüência de funções de transferência a partir da resposta de
funções elementares. Considerando que em geral as funções de transferência
são compostas pelos seguintes termos normalizados
(i) K
(ii) (jω)±1
(iii) (jωτ + 1)±1
±1
2
jω
ω
(iv)
+ 2ξj ωn + 1
ωn
onde K ∈ R e os expoentes positivos representam os zeros e os negativos
representam os pólos.
Uma vez conhecida a representaçào de cada um destes termos, a representação gráfica da resposta em freqüência de H(s) é realizada a partir da adição
da representação de módulo de cada termo, o mesmo ocorrendo com a fase.
Na seqüência são analisadas as representações de módulo e fase de cada um
destes termos.
• K
21
20.8
kH(jω)k(dB)
20.6
20.4
20.2
20
19.8
PSfrag replacements
19.6
19.4
19.2
19
−2
10
]
−1
10
0
10
1
10
ω(rad/s)
2
10
3
10
Figura 2.7: Gráfico do módulo para H(jω = K) fig:1
• (jω)±1
• (jωτ + 1)±1
±1
2
jω
ω
+ 2ξj ωn + 1
•
ωn
Exemplo
Fase não-mı́nima
CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO
45
60
kH(jω)k(dB)
40
20
PSfrag replacements
z
0
−20
p
−40
−60
−80
−2
10
]
−1
10
0
1
10
10
ω (rad/s)
2
10
3
10
Figura 2.8: Gráfico do módulo para pólo na origem (p) e zero na origem (z)
fig:g2m
100
z
arg(H(jω))(graus)
80
60
40
20
PSfrag replacements
0
−20
−40
−60
p
−80
−100
−2
10
]
−1
10
0
10
1
10
ω (rad/s)
2
10
3
10
Figura 2.9: Gráfico fase para pólo na origem (p) e zero na origem (z) fig:g2f
60
kH(jω)k(dB)
40
z
20
PSfrag replacements
0
−20
p
−40
−60
]
−2
10
−1
10
0
10
1
10
ω (rad/s)
2
10
3
10
Figura 2.10: Gráfico de módulo para pólo simples (p) e zero simples (z)
fig:g3m (linha cheia), assı́ntotas correspondentes (linha tracejada)
CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO
46
100
arg(H(jω))(graus)
80
60
z
40
20
PSfrag replacements
0
−20
p
−40
−60
−80
−100
−2
10
]
−1
10
0
1
10
10
ω (rad/s)
2
10
3
10
Figura 2.11: Gráfico de fase para pólo simples (p) e zero simples (z) fig:g3f
20
PSfrag replacements
ξ = 0.1
ξ = 0.5
ξ = 0.7
ξ = 0.9
ξ = 1.0
kH(jω)k(dB)
10
0
−10
−20
−30
−40
−50
−1
10
]
0
10
ω (rad/s)
1
10
Figura 2.12: Gráfico de módulo para sistemas de segunda ordem (linha
fig:g4m cheia) para diversos valores de ξ e assı́ntota correspondente (linha tracejada)
0
ξ = 0.5
ξ = 0.1
ξ = 0.7
ξ = 0.9
ξ = 1.0
−20
arg(H(jω))(graus)
PSfrag replacements
−40
−60
−80
−100
−120
−140
−160
]
−180
−1
10
0
10
ω (rad/s)
1
10
Figura 2.13: Gráfico de fase para sistemas de segunda ordem para diversos
fig:g4f valores de ξ
CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO
47
80
60
kH(jω)k(dB)
40
PSfrag replacements
H2
H1
20
0
H3
−20
−40
−60
−80
−2
10
]
−1
10
0
10
1
10
ω (rad/s)
2
10
3
10
Figura 2.14: Gráfico de módulo correspondente a cada termo padronizado fig:g5mc
35
30
kH(jω)k(dB)
25
20
15
10
PSfrag replacements
5
0
−5
−10
−15
−2
10
]
−1
10
0
10
1
10
ω (rad/s)
2
10
3
10
Figura 2.15: Gráfico de módulo de H(jω) fig:g5m
80
arg(H(jω))(graus)
60
40
20
0
−20
PSfrag replacements
−40
−60
−80
]
−100
−2
10
−1
10
0
10
1
10
ω (rad/s)
2
10
3
10
Figura 2.16: Gráfico de fase de H(jω) fig:g5f
CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO
48
20
0
arg(H(jω))(graus)
H1
−20
−40
−60
PSfrag replacements
−80
−100
−120
−140
−160
H2
−180
]
−200
−2
10
−1
10
0
10
1
10
ω (rad/s)
2
10
3
10
Figura 2.17: Gráfico de fase dos sistemas H1 (fase mı́nima) e H2 (fase nâo
mı́nima)
fig:g6f
Sistema Solar!estabilidade
de
Sistema Solar!comportamento
caótico de
Capı́tulo 3
Estabilidade de sistemas
dinâmicos lineares
cap:estab
Amit Bhaya
COPPE/Universidade Federal do Rio de Janeiro
email: [email protected]
http://www.nacad.ufrj.br/˜amit
3.1
Introdução informal à estabilidade
sec:estab_intro
Estabilidade é um dos temas mais antigos nas ciências básicas e aplicadas.
Pode-se dizer que a preocupação com o estudo sistemático de establidade começou logo após a descoberta das leis de mecânica celestial por Copernicus,
Galileo, Kepler e Newton: a questão fundamental, formalizada matematicamente por Newton, era a estabilidade do Sistema Solar. Este problema permaneceu sem solução definitiva até o final do século XIX quando o rei Oscar II da
Suécia ofereceu, em 1887, um prêmio para quem conseguisse provar a estabilidade do Sistema Solar. O prêmio foi outorgado ao grande matemático Henri
Poincaré, cujo trabalho, embora nãoBG97
resolvesse o problema definitivamente,
deu inı́cio à moderna teoria de caos (Barrow-Green,Laskar90
1997). Há evidências
que
SW92
apontam comportamento caótico do Sistema Solar (Laskar, 1990; Sussman and
Wisdom, 1992).
Muitos matemáticos e fı́sicos do século 18 estudaram a questão de estabilidade de um sistema dinâmico, e Routh, Maxwell, Liapunov, Hurwitz e Schur
são alguns dos nomes mais frequentemente associado com este tema. Alguns
destes cientistas também estudaram questões de estabilidade oriundos de astronomia e uma das primeiras aplicações espetaculares
da então incipiente teoria
Maxwell1859
de estabilidade foi a demonstração, por Maxwell (1859), descobridor das equações de campos eletromagnéticos, de que os anéis de Saturno não poderiam ser
sólidos, pois desintegrariam pelo fato de formarem uma configuração instável,
fato confirmado através de observações telescópicas anos depois, uma vez que
os telescópios da época não eram suficientemente potentes. O tema continua
atual, no contexto de estabilidade de anéis de satélites (de telecomunicação,
49
CAPÍTULO 3. ESTABILIDADE DE SISTEMAS DINÂMICOS LINEARES50
Krish00
por exemplo) orbitando
em torno de um planeta (Krishnaprasad, 2000). Al- Saturno!estabilidade
Max1868
dos anéis
guns anos depois, Maxwell (1868) publicou seu trabalho sobre a estabilidade do de
sistema de controle de velocidade, chamado governador, da máquina a vapor
do James Watt. Este trabalho pode ser considerado o primeiro sobre a teoria
matemática de sistemas e controle, utilizando uma equação diferencial para
modelar o sistema fı́sico e explicando as instabilidades observadas no sistema
realimentado em termos matemáticos. De fato, hoje o desenho do governador
ganhou o status de um ı́cone, tendo sido adotado como o sı́mbolo de diversas
sociedades de controle pelo mundo afora.
Podemos ilustrar os tipos de estabilidade intuitivamente através de um
experimento mental (Gedankenexperiment), imaginando o comportamento de
uma bola rolando na superfı́cie
de uma chapa metálica que assume várias
fig:tipos_estab
formas diferentes (v. Fig. 3.1).
A
C
PSfrag replacements
3
1
B
fig:tipos_estab
D
2
Figura 3.1: Ilustração, através de analogia mecânica, de diferentes tipos de
pontos de equilı́brio estáveis e instáveis: A. Equilı́brio globalmente assintoticamente estável, B. Equilı́brio neutralmente estável, C. equilı́brio instável, D.
Equilı́brio localmente assintoticamente estável
fig:tipos_estab
Na Figura 3.1A, uma perturbação em torno do ponto de equilı́brio causará oscilações decrescentes em torno deste (assumindo atrito entre a bola e a
superfı́cie), cessando com a bola na posição de equilı́brio mostrado na figura,
que corresponde a uma configuração de mı́nima energia potencial. Como esse
resultado não depende do tamanho da perturbação
inicial, o equilı́brio é dito
fig:tipos_estab
globalmente assintoticamente estável. Na Figura 3.1B, a perturbação causará
deslocamento na direção da perturbação, e mais uma vez, o atrito provocará
a parada da bola em novo ponto, a uma distância limitada do ponto original,
porém também um ponto
de equilı́brio. Este tipo de estabilidade é denomifig:tipos_estab
nada neutra. Na Figura 3.1C, sob qualquer perturbação, por menor que seja,
a bola se afasta do ponto de equilı́brio original e não
volta. Este tipo de equifig:tipos_estab
lı́brio é chamado instável. Finalmente, na Figura 3.1D, percebe-se que, para
uma perturbação suficientemente pequena, a bola oscila em torno de e volta
a posição 1; porém se a oscilação for maior do que um determinado tamanho,
a bola poderia “vencer” a barreira (no ponto 3), oscilar em torno de ponto
CAPÍTULO 3. ESTABILIDADE DE SISTEMAS DINÂMICOS LINEARES51
2, onde finalmente cessará movimento. Observe que a mesma descrição vale sistema
dinâmico!contı́nuo
trocando 1 e 2 na frase anterior. Sendo assim, pontos de equilı́brio 1 e 2 são sistema
denominados localmente estáveis.
dinâmico!autônomo
3.2
Estabilidade no sentido de Liapunov
sec:liap
sec:estab_intro
Motivado pela descrição informal da seção 3.1, nesta seção definimos as
noções de equilı́brio, estabilidade, etc. com maior precisão.
Sistemas dinâmicos contı́nuos
Considere uma classe de sistemas dinâmicos modelados pela equação diferencial ordinária (EDO)
ẋ = f (x(t),t),
x(t0 ) = x0 .
(3.1)
sendo x(t) ∈ Rn é o vetor de estado e f : Rn × R → R é uma função assumindo
valores vetoriais, com componentes
fi (x1 , x2 , . . . , xn , t) : Rn × R → R,
i = 1, 2, . . . , n
Adotaremos a hipótese simplificadora de que as funções fi são contı́nuas com
primeiras derivadas parciais contı́nuas
(i.e., fi ∈ C 1 ) a fim de garantir exiseq:ode_basico
tência e unicidade da solução de (3.1), que será denotado x(t) = x(x0 , t). Se
as funções fi independem de t, então o sistema é denominado autônomo ou
invariante no tempo; caso contrário é não-autônomo ou variante no tempo.
Um ponto de equilı́brio ou estado de equilı́brio é um vetor constante x eq tal
que
f (xeq , t) = 0,
para todo t,
sendo, portanto, eq:ode_basico
uma solução constante, também denominada solução de equilı́brio, da EDO (3.1). Podemos, sem perda de generalidade, sempre considerar
que o ponto de equilı́brio ocorre na origem, através de uma mudança de variáveis, ou seja, pela introdução da nova variável
x = x − xeq .
Supondo a mudança de variáveis efetuada, temos
f (0,t) = 0,
para todo t.
e daremos as definições básicas de estabilidade neste contexto, muitas vezes
referido como estabilidade da origem ou da solução nula.
sistema
dinâmico!invariante
no tempo
sistema
dinâmico!não
autônomo
sistema
dinâmico!variante
no tempo
sistema
dinâmico!equilı́brio
de
equilı́brio!ponto
eq:ode_basico
de
equilı́brio!estado
de
equilı́brio!solução
de
solução
nula
CAPÍTULO 3. ESTABILIDADE DE SISTEMAS DINÂMICOS LINEARES52
sistema
dinâmico!discreto
eq:ode_basico
solução
O sistema dinâmico discreto análogo ao sistema contı́nuo (3.1) é descrito
nula!estabilidade
pela equação a diferenças
de
estabilidade!no
sentido de
x(k + 1) = f (x(k),k), x(k0 ) = x0 .
(3.2) eq:sddisc
Liapunov
estabilidade!definição
eq:sddisc
Se a variável k não aparecer explicitamente no lado direito de (3.2), o sistema de
frase mateé denominado autônomo ou invariante no tempo.
mática
Para este sistema, o ponto de equilı́brio é um vetor constante xeq tal que
quantificada!como
jogo
x = f (x , k) para todo k,
Sistemas dinâmicos discretos
eq
eq
De forma análoga
ao caso contı́nuo, se definirmos z(k) := x(k) − x eq , podemos
eq:sddisc
reescrever (3.2) como
z(k + 1) = f (z(k) + xeq , k) − xeq = g(z(k),k),
sendo que z = 0 corresponde a x = xeq , e, mais uma vez, podemos estudar a
estabilidade da solução nula.
Definições formais de estabilidade no sentido de Liapunov
As definições dadas a seguir foram introduzidas no trabalho fundamental
do matemático russo Aleksandr Mikhailovich Liapunov (1857-1918) cujo trabalho pioneiro, publicado em 1892, revolucionou o estudo de estabilidade e
continua inspirando novos enfoques para o estudo deste assunto até os dias
de hoje. Para economizar espaço, as definições são dadas apenas para o caso
de sistemas contı́nuos; as definições correspondentes para sistemas discretos
podem ser obtidos a partir destas imediatemente pela substituição da letra t,
denotando tempo contı́nuo, pela letra k, denotando tempo discreto, em todos
os lugares onde ocorre a primeira.
def:estabnsL
Definição 3.2.1 Um estado de equilı́brio xeq é denominado estável se, para
qualquer t0 e qualquer ε > 0, existe δ = δ(t0 ,ε) positivo tal que, se kx0 −xeq k <
δ, então kx(x0 ,t) − xeq k < ε para todo t ≥ t0 .
Para chegarmos a um entendimento mais concreto desta definição, podemos
imaginar um jogo entre você (o leitor) e um adversário: o adversário começa
o jogo escolhendo uma bola Bε , de raio ε, no espaço de estados e o desafia
a achar outra bola Bδ , cujo raio δ, é claro, dependerá da escolha ε, tal que,
se o estado inicial x0 for confinado a Bδ , todo estado subsequente (x0 ,t) fica
confinado à bola Bε . Se conseguir tal escolha δ, qualquer que seja a escolha ε do
adversário, você, leitor, terá demonstrado a estabilidade do sistema dinâmico
em questão. Para maiores detalhes
sobre a interpretação, como jogos, de frases
Gle66
matemáticas quantificadas, veja Gleason (1966, p.163ff.).
CAPÍTULO 3. ESTABILIDADE DE SISTEMAS DINÂMICOS LINEARES53
def:atrativo
Definição 3.2.2 Um estado de equilı́brio xeq é denominado convergente ou equilı́brio!instável
atrativo, se, para qualquer t0 , existe δ1 = δ1 (t0 ) tal que se kx0 − xeq k < δ1 estabilidade!ilustração
geoméentão
trica
de
lim x(x0 ,t) = xeq .
t→∞
def:estabass
Definição 3.2.3 Um estado de equilı́brio xeq
estável se for estável e atrativo.
sistema
contı́é denominado assintoticamente nuo!linear
e variante
no tempo
Se δ nas definições acima pode ser escolhido independente do tempo inicial
t0 , acrescenta-se o adjetivo uniforme ao tipo de estabilidade correspondente.
Finalmente, um estado de equilı́brio que não seja estável é denominado
instável.
def:eqinstav
Definição 3.2.4 Um estado de equilı́brio xeq é denominado instável se existe
ε > 0 tal que para qualquer δ > 0, existe x0 tal que se kx0 − xeq k < δ, então
kx(t1 ) − xeq k ≥ ε para algum t1 > t0 .
fig:estab2d
A ilustração geométrica destas definições no plano (veja Figura 3.2) mostra
que, se a origem for estável, dada um cı́rculo de raio ε, existe um outro cı́rculo
de raio δ tal que trajetórias que se iniciam dentro do δ-cı́rculo jamais saem
do ε-cı́rculo. Se a origem for assintoticamente estável, então as trajetórias
tendem a solução nula. Se a origem for instável, então existe um ε-cı́rculo tal
que, para todo δ-cı́rculo existe uma trajetória iniciando-se nele e saindo do
ε-cı́rculo em algum instante posterior.
PSfrag replacements
x2
ε
δ
ε
δ
x1
x0
A
fig:estab2d
x2
x2
ε
δ
x1
x0
x0
B
x1
C
Figura 3.2: Ilustração dos conceitos de estabilidade no plano: (A) Origem
(solução nula) estável no sentido de Liapunov; (B) origem assintoticamente
estável; (C) origem instável.
3.3
Estabilidade de sistemas lineares invariantes no
tempo
sec:estab_lin
Nesta seção vemos as caracterizações de estabilidade para um sistema linear
invariante no tempo (SLIT) modelado pela equação
ẋ = Ax,
x(t0 ) = x0 ,
(3.3) eq:slit_cont
eo:slit_cont_av_stab
x:estab_forma_jordan
eo:slit_disc_av_stab
CAPÍTULO 3. ESTABILIDADE DE SISTEMAS DINÂMICOS LINEARES54
estabilidade!caracterizaçã
sendo A ∈ Rn×n .
em termos
As caracterizações de estabilidade em termos dos autovalores da matriz A de
autovalores
são reunidas no seguinte teorema.
eq:slit_cont
estabilidade!assintótica
Teorema 3.3.1
1. A solução nula de (3.3) é estável no sentido de Lia- polinômio!caracterı́stico
punov se e somente se todos os autovalores de A possuirem partes reais polinômio!mı́nimo
negativas ou zero, a aqueles com parte real igual a zero são raı́zes simples
do polinômio mı́nimo de A.
eq:slit_cont
2. A solução nula de (3.3) é assintoticamente estável no sentido de Liapunov se e somente se todos os autovalores de A possuirem partes reais
negativas.
Quando condição 1 (resp. 2) do teorema acima
é satisfeita, dizemos por
eq:slit_cont
abuso de linguagem, dizemos que o sistema (3.3) é estável (resp. assintoticamente estável) ou ainda que a matriz A é estável (resp. assintoticamente
estável).
O seguinte exemplo esclarece a aplicação deste teorema.
Exemplo 3.3.1 Considere

−1
A1 =  0
0
as matrizes



0 0
−1 0 0
0 0  , A2 =  0 0 1  ,
0 0
0 0 0
ambas na forma de Jordan. É fácil calcular os polinômios caracterı́sticos
(pAi (s)) e mı́nimos (mAi (s)) dados na tabela abaixo:
i=1
i=2
pAi (s)
2
s (s + 1)
s2 (s + 1)
mAi (s)
s(s + 1)
s2 (s + 1)
e notamos que, para a matriz A1 o autovalor 0 é raı́z simples (= não repetida)
do polinômio mı́nimo, de modo que podemos concluir que a solução nula de
ẋ = A1 x é apenas estável no sentido de Liapunov. Por outro lado, para
a matriz A2 , o autovalor 0 não é raı́z simples do polinômio mı́nimo, donde
concluimos que a solução nula do sistema ẋ = A2 x não é estável no sentido
de Liapunov.
teo:slit_cont_av_stab
O análogo discreto do Teorema 3.3.1 é dado a seguir.
Teorema 3.3.2
1. A solução nula do sistema x(k + 1) = Ax(k + 1) é
estável no sentido de Liapunov se e somente se todos os autovalores de
A possuirem magnitude menor ou igual a um, e aqueles que tiverem
magnitude igual a um são raı́zes simples do polinômio mı́nimo de A.
2. A solução nula do sistema x(k + 1) = Ax(k + 1) é assintoticamente
estável se e somente se todos os autovalores de A possuirem magnitude
estritamente menor que um.
CAPÍTULO 3. ESTABILIDADE DE SISTEMAS DINÂMICOS LINEARES55
teo:slit_cont_av_stab
teo:slit_disc_av_stab
Repare que testar estabilidade utilizando teoremas 3.3.1 e 3.3.2 requer o estabilidade!via
a equação
cálculo ou a estimativa de todos os autovalores (ou, pelo menos, de suas partes de
reais ou de suas magnitudes). Veremos, a seguir, que, na realidade, como Liapunov
precisamos apenas da informação da localização dos autovalores (se todos estão função!positiva
definida
no semiplano esquerdo do plano complexo, ou dentro do cı́rculo unitário), uma
análise mais refinada, apresentada a seguir, permite concluir estabilidade sem
que os autovalores sejam calculados ou estimados.
3.3.1
Análise de estabilidade via a equação de Liapunov
Seja V : Rn → R : x 7→ V (x) uma função que assume valores reais e
D ⊂ Rn um conjunto compacto que contém a origem x = 0 no seu interior.
def:psd
Definição 3.3.1 A função V = V (x) é positiva semidefinida (p.s.d.) em D
em relação ao equilı́brio x = 0, se
1. V é continuamente diferenciável (V ∈ C 1 ),
2. V (0) = 0,
3. V (x) ≥ 0 para todo x ∈ D.
def:pd
Definição 3.3.2 A função V = V (x) é positiva definida (p.d.) em D em
relação ao equilı́brio x = 0, se
1. V é continuamente diferenciável (V ∈ C 1 ),
2. V (0) = 0,
3. V (x) > 0 para todo x ∈ D, x 6= 0.
def:psd def:pd
Se as desigualdades nas definições 3.3.1 e 3.3.2 forem invertidas, as funções
correspondentes definidas são denominadas negativa semi-definida e negativa
definida, respetivamente.
def:psddef:pd
Existem muitas funções que satisfazem as definições 3.3.1, 3.3.2. Entretanto, a classe de funções quadráticas, também denominadas formas quadráticas, se destaca pela simplicidade e utilizabilidade, levando a uma ubiquidade
desta classe na análise de estabilidade de sistemas dinâmicos, lineares e nãolineares. Consideramos a forma quadrática
V (x) = xT Px,
sendo P ∈ Rn×n é uma matriz simétrica. Verificamos que a derivada temporal
da funçãoeq:slit_cont
V (x(t)) ao longo das trajetórias (também denominada derivada de
Lie) de (3.3) é:
dV (x(t))
= V̇ (t) = ẋT Px(t) + xT (t)Pẋ(t)
dt
CAPÍTULO 3. ESTABILIDADE DE SISTEMAS DINÂMICOS LINEARES56
equação de
Liapunov
teorema!de
V̇ = xT (AT P + PA)x
Liapunov
teorema!de
Com esse prolegômeno, podemos enunciar um dos resultados básicos da teoria Liapunov!interpretação
de estabilidade do Liapunov.
geométrica
Liap1892
Teorema 3.3.3 (Liapunov, 1892) O sistema ẋ = Ax, x(t0 ) = x0 é assin- de
que pode ser escrito como
teo:liap1
toticamente estável se e somente se, para qualquer matriz simetrica positiva
definida Q a equação matricial de Liapunov
AT P + PA = −Q
(3.4) eq:liapeq
possui solução P que também é simétrica e positiva definida.
eq:liapeq
Observamos que a satisfação da equação de Liapunov (3.4) resulta em uma
função V positiva definida
tal que sua derivada, V̇ , ao longo das tajetórias
eq:slit_cont
do sistema dinâmico (3.3), seja negativa definida. Esta forma de enunciar o
teorema permite generalizações para o caso de sistemas dinãmicos não lineares (vistos na seção ?? desta obra), bem como permite uma interpretação
geométrica, dada a seguir.
Pela regra da cadéia, podemos escrever a derivada ao longo das trajetórias,
também conhecida como derivada de Lie, da função de Liapunov da seguinte
maneira
V̇ = ∇V T ẋ = k∇V kkẋk cos φ,
sendo φ é o ângulo entre os vetores ∇V e ẋ. Portanto, a condição V̇ < 0
impõe que o ângulo entre o vetor tangente da trajetória ( ẋ) e o normal a uma
curva de nı́vel (∇V ) seja sempre obtuso (i.e., φ entre 90◦ e 270◦ ), obrigando a
trajetória a penetrar a curva de nı́vel. Como as curvas de nı́vel são aninhadas
em
torno do ponto de equilı́brio, as trajetórias convergem a este (veja Figura
fig:liapgeom
3.3).
∇V
φ
PSfrag replacements
xeq
ẋ
{x : V (x) = n1 }
fig:liapgeom
{x : V (x) = n2 > n1 }
Figura 3.3: Interpretação geométrica do teorema de Liapunov, mostrando a
trajetória penetrando as curvas de nı́vel.
teo:liap1
Um corolário útil do teorema 3.3.3 é dado a seguir.
CAPÍTULO 3. ESTABILIDADE DE SISTEMAS DINÂMICOS LINEARES57
cor:liap_ctrb
Corolário 3.3.1 Todos os autovalores de uma matriz A possuem partes reais equação de
Liapunegativas se e somente se para qualquer matriz C tal que o par (A,C) seja nov!solução
explı́cita
observável, a equação de Liapunov
AT P + PA = −CT C
possui solução única P positiva definida.
Repare que, neste corolário, a matriz CT C do lado direito da equação de
Liapunov pode ser apenas positiva semidefinida.
Por fim, citamos outro resultado importante sobre a solução explı́cita da
equação de Liapunov.
sol_explicit_Liap_eq
Teorema 3.3.4 Se todos os autovalores
de A possuirem partes reais negatieq:liapeq
vas, então a equação de Liapunov (3.4) possui solução única P, para cada
escolha de Q > 0, que pode ser expressa como:
Z ∞
T
P=
eA t QeAt dt.
0
Os teoremas correspondentes para o caso discreto são dados a seguir.
eq:disc_Liap
Teorema 3.3.5 Todos os autovalores de uma matriz A possuem magnitude
estritamente menor do que um se e somente se para qualquer matriz Q > 0
especificada, ou para Q = CT C, sendo o par (A,C) observável, a equação de
Liapunov discreta
P − AT PA = Q
possui solução única P que é positiva definida.
Teorema 3.3.6 Se todos os autovalores de A possuirem magnitude menor
que um, então a solução da equação de Liapunov discreto pode ser escrita da
seguinte maneira
∞
X
P=
(AT )k QAk .
k=0
Maiores
detalhes, incluindo provas dos teoremas, podem ser encontrados
Chen99
em Chen (1999b).
subsec:tempo_test
3.3.2
Testes clássicos de estabilidade
Enfatizamos, através de um exemplo simples, que a equação de Liapunov
é uma equação linear na incógnita matricial P.
0
1
ex:liapuso Exemplo 3.3.2 Seja A =
, e vamos arbitrar Q = I. Seja a
−c −b
p11 p12
. A equação de Liapunov contı́nua neste caso é:
incógnita P =
p12 p22
−2cp12
p11 − bp12 − cp22
−1 0
=
,
0 −1
p11 − bp12 − cp22
2p12 − 2bp22
de
equação de
Liapunov!discreta
CAPÍTULO 3. ESTABILIDADE DE SISTEMAS DINÂMICOS LINEARES58
teorema!de
que pode escrita como uma equação linear nas incógnitas p11 , p12 , p22 :
Liapu
 


nov!ordem
−1
p11
0 −2c
0
de quanti 1 −b −c   p12  =  0 
ficadores
no
p22
−1
0
2
−2b
arranjo
de
b
c+1
1
Routh
+
2c
cuja solução é P = 2c 1 2b c+1
. Para b = 2, c = 1, podemos verificar polinômio!caracterı́stico
2c
2bc
facilmente que a matriz P é positiva definida, comprovando a estabilidade do critério!de
Routh
sistema correspondente.
Podemos resumir a discussão acima na forma de um teste de estabilidade
para sistemas lineares invariantes no tempo, ou seja, estabilidade de matrizes
A que definem tais sistemas. Para testar se uma dada matriz A é assintoticamente estável, basta escolher qualquer matriz Q positiva definida, resolver
a equação de Liapunov discreta ou contı́nua (linear em P), e verificar se a
solução obtida é positiva definida; se for, a matriz A é assintoticamente estável, caso contrário, não poderia ser assintoticamente estável. Como Q poderia
ser escolhida arbitrariamente,
a escolha Q
= I é uma escolha conveniente, por
PT81
SS89_rb
diversos motivos (Patel and Toda, 1981; Sezer and Šiljak, 1989). É importante
enfatizar dois pontos: (i) o teorema de Liapunov estabelece condições necessárias e suficientes, porém é preciso estar atento à ordem de quantificadores no
teorema: mais especificamente, se escolhermos uma matriz P positiva definida
arbitrária, calcularmos Q que não resulta negativa definida, não podemos inferir nada sobre a estabilidade da matriz A; (ii) a estabilidade de uma matriz
A depende apenas da localização de seus autovalores e não dos seus valores
exatos: neste sentido, vemos que a obtenção de uma solução da equação linear
da equação de Liapunov nos fornece esta informação sobre a localização dos
autovalores, sem calculá-los explicitamente.
Critério de Routh
Descrevemos o arranjo de Routh1892
Routh para introduzir o primeiro teste descoberto, pelo matemático inglês Routh (1892), para estabilidade de um polinômio (caracterı́stico):
p(s) = sn + an−1 sn−1 + an−2 sn−2 + · · · + a1 s + a0 .
(3.5) eq:poli_monico
Os coeficientes deste polinômio podem ser arrumados preliminarmente sob a
forma de um arranjo em duas linhas
1
an−2 an−4 · · ·
an−1 an−3 an−5 · · ·
considerando elementos como nulos quando exauridos os coeficientes. Um
máximo de (n − 1) linhas adicionais podem ser geradas, trabalhando ao longo
de cada linha sequencialmente, a partir do primeiro elemento, calculando o
elemento tı́pico rij através da fórmula
rij = [ri−1,1 ri−2,j+1 − ri−2,1 ri−1,j+1 ]/ri−1,1
(3.6) eq:routhform
CAPÍTULO 3. ESTABILIDADE DE SISTEMAS DINÂMICOS LINEARES59
Uma condição necessária e suficiente para que o polinômio mônico p(s) tenha
todas suas raı́zes no semiplano esquerdo, correspondendo portanto a um sistema assintoticamente estável, é que todos os elementos da primeira coluna
sejam positivos,FPE02
i.e., ri1 > 0 para i = 2,3, . . . , n+1, onde definimos r21 = an−1 ,
e rn+1,1 = a0 (Franklin, Powell and Emami-Naeini, 2002).
É possı́vel extrair mais informação do arranjo de Routh: o critério afirma
que o número de raı́zes de p(s) com partes reais positivas é exatamente igual
ao número de trocas de sinais na primeira coluna do arranjo.
ex:routhhur3
Exemplo 3.3.3 Ilustramos a utilização do arranjo de Routh em uma situação
onde o cálculo de raı́zes do polinômio caracterı́stico somente seria possı́vel
através de cálculo simbólico. Dada a matriz


0
1
0
0
1 
A= 0
−k −4 −2
queremos determinar a faixa de valores do parâmetro k para os quais a matriz
A é assintoticamente estável. Como a matriz está na forma companheira,
podemos escrever seu polinômio caracterı́stico por inspeção (pA (s) = s3 +
2s2 + 4s + k), e montar o arranjo de Routh.
tab_routharray
s3
s2
s1
s0
1
2
8−k
2
k
4
k
0
0
Tabela 3.1: O arranjo de Routh
Análise da primeira coluna nos leva à conclusão de que a matriz A é estável para k na faixa 0 < k < 8, pois nesta faixa todos os elementos da primeira
coluna do arranjo são positivos. Reparamos que, para k = 10, teremos duas
mudanças de sinal (de 2 para −1 e depois de −1 para 10. Pelo critério de
Routh, isso significa que o polinômio possui duas raı́zes com partes reais positivas para k = 10. Na verdade, vemos que, para k = 8, temos um zero na
primeira coluna (terceiro elemento) do arranjo. É possı́vel refinar a análise
do arranjo de Routh para inferir que, para este valor de k, temos duas raı́zes
de pA (s) exatamente em cima do eixo imaginário. Para valores maiores de
k, estas raı́zes entram no semiplano à direita (C+ ), conforme previsto acima,
pelo uso do critério de Routh. Retornaremos a este exemplo mais adiante,
refazendo a análise via lugar das raı́zes.
ex:routhhur3
Conforme mencionado no final do exemplo 3.3.3, é possı́vel inferir sobre estabilidade pelo arranjo de Routh até em alguns casos degenerados, i.e., quando
ocorrem zeros na primeira coluna. Porém, dada a grande facilidade de cálculo
de raı́zes de um polinômio ou autovalores de uma matriz, mediante o uso de
programas de software amplamente disponı́veis hoje, não aprofundamos este
CAPÍTULO 3. ESTABILIDADE DE SISTEMAS DINÂMICOS LINEARES60
FPE02
tema aqui (veja Franklin et al. (2002) para maiores detalhes). Uma derivação arranjo de
Routh!invertido
moderna
do critério de Routh a partir da teoria de Liapunov pode ser achada polinômio!Pascal–
Zak03
em Żak (2003).
Routh
matriz!de
Como
comentário
final
sobre
o
arranjo
de
Routh,
mencionamos
o
trabalho
dePaor03
de de Paor (2003). Este trabalho segue uma tendência atual de aproveitar Hurwitz
critério!de
critérios de análise de estabilidade para a sı́ntese (=projeto) de sistemas está- Hurwitz
veis:
em termos gerais, este processo é denominado “ativação” de um conceito
matriz!de
KA01
eq:routhform
(Kokotović and Arcak, 2001). Neste sentido, reparamos que a fórmula ( 3.6) Schwarz
pode ser invertida, colocando ri−2,j+1 em evidência:
ri−2,j+1 = [rij ri−1,1 + ri−2,1 ri−1,j+1 ]/ri−1,1
(3.7) eq:routhform_inv
Evidentemente, se especificarmos n + 1 elementos positivos, começando por
r11 = 1 e terminando em rn+1,1 = a0 , para constituirem a primeira coluna
eq:routhform_inv
de um possı́vel arranjo de Routh, podemos utilizar a fórmula inversa (3.7)
para gerar o restante do arranjo. Em particular, as primeiras duas linhas
do arranjo gerado desta dePaor03
forma especificam os coeficientes de um polinômio
garantidamente estável. de Paor (2003) investiga a utilização do triângulo de
Pascal para a especificação da primeira coluna, e o uso dos polinômios estáveis
gerados desta forma, denominados de polinômios Pascal–Routh, no projeto de
sistemas realimentados.
Critério de Hurwitz
Associamos a matriz de Hurwitz H ∈ Rn×n abaixo
(3.5)

an−1 an−3 an−5 an−7 · · ·
 an an−2 an−4 an−6 · · ·


an−1 an−3 an−5 · · ·
H= 0
 0
an an−2 an−4 · · ·

..
..
..
.
.
.
eq:poli_monico
ao polinômio mônico




.


(3.8) eq:Hurwitz_matriz
O critério de Hurwitz está enunciado no seguinte teorema.
eq:poli_monico
Teorema 3.3.7 Todas as raı́zes do polinômio p(s) (3.5) possuem partes reais
negativas se e somente se todos os menores principais lı́deres da matriz H de
Hurwitz forem positivos.
A prova deste teorema se baseia naBarnett83
construção de uma matriz tridiagonal S, denominada matriz de Schwarz (Barnett, 1983), que é similar, através
de uma matriz de similaridade triangular inferior, à matriz de Hurwitz H.
Especificamente, é possı́vel demonstrar que a matriz S satisfaz a equação de
Liapunovcor:liap_ctrb
com uma solução diagonal positiva P, e a aplicação em seguida do
teorema 3.3.1 permite a conclusão de estabilidade assintótica. Uma exposição
moderna destas idéias baseada na equação de Liapunov,
e incluindo provas
Zak03
dos teoremas omitidas aqui, pode ser encontrada em Żak (2003).
Um resultado notório sobre estabilidade de famı́lias de polinômios é o de
Kha78
Kharitonov (1978), que estudou o problema de estabilidade de polinômios
CAPÍTULO 3. ESTABILIDADE DE SISTEMAS DINÂMICOS LINEARES61
intervalares, isto é, polinômios cujos coeficientes ai pertencem a intervalos
(ai ∈ [ai ,ai ]). O teorema de Kharitonov afirma que a estabilidade da famı́lia inteira (infinita) de polinômios obtidos quando os coeficientes assumem
quaisquer valores dentro dos intervalos estipulados é garantida pela estabilidade de apenas quatro polinômios destacados da famı́lia, hoje denominados
polinômios de Kharitonov. Estes quatro polinômios são construı́dos a partir
dos coeficientes extremos ai , ai de uma maneira sistemática. Este resultado,
aclamado nos anos 80 como um dos mais importantes na área de estabilidade
robusta,
é mais difı́cil de aproveitar para problemas de estabilização. EntreBCK95
tanto, Bhattacharyya, Chapellat and Keel (1995) desenvolvem diversos aspectos desta teoria com demonstrações acessı́veis e aplicações tanto em análise
quanto em sı́ntese de controladores.
polinômio!intervalar
polinômio!de
Kharitonov
teorema!de
Kharitonov
método de
lugar das
raı́zes
lugar das
raı́zes
Método de lugar das raı́zes
O método de lugar das raı́zes é uma maneira gráfica e intuitiva de análise de estabilidade do polinômio caracterı́stico de um sistema realimentado
fig:siso1fdbk
dependente de um único
parâmetro livre (o ganho de malha) (v. Figura 3.4).
Evans48
Ele foi proposto pelo Evans (1948), embora os princı́pios básicos queMax1868
fundamentamVysh1877
o método fossem conhecidos
desde
os
trabalhos
clássicos
de
Maxwell
Routh1892
Hur1895
(1868), Vyshnegradsky (1877), Routh (1892), Hurwitz (1895). A preocupação
maior dos trabalhos na época pre-computador era a derivação de um conjunto
de regras para facilitar a geração, por inspeção (i.e., manualmente), do lugar das raı́zes. Nos dias de hoje, a facilidade de traçar o desenho geométrico
do lugar das raı́zes por computador significa que a idéia básica do método
pode ser estendido à análise de qualquer propriedade de um sistema que seja
dependente de um único parâmetro livre, embora o conjunto das regras clássicas
Evans et al. não sejam aplicáveis nas novas situações. AM89
Um exemplo
PSfragdereplacements
deste tipo de lugar
das raı́zes pode ser visto em controle ótimo ( Anderson and
Kai80
Moore, 1989; Kailath, 1980).
r(s) +
−
k
g(s)
y(s)
fig:siso1fdbk
Figura 3.4: Diagrama de blocos de sistema de uma entrada e uma saı́da e
função de transferência g(s) em configuração de realimentação unitária com
controlador de ganho k.
fig:siso1fdbk
Na Figura 3.4, g(s) representa a função de transferência de um SLIT com
uma entrada e uma saı́da, e k é um número real que representa o ganho do
controlador (chamado proporcional). É fácil verificar que a função de transferência em malha fechada que relaciona r(s) e y(s) pode ser escrita como:
gyr (s) =
y(s)
kg(s)
=
,
r(s)
1 + kg(s)
(3.9) eq:siso_gyr
CAPÍTULO 3. ESTABILIDADE DE SISTEMAS DINÂMICOS LINEARES62
sendo g(s) = n(s)/d(s), e n(s), d(s) polinomiais em s com coeficientes reais. lugar das
raı́A função de transferência em malha fechada pode portanto ser escrito como
zes!regras
gyr (s) =
para
kn(s)
.
d(s) + kn(s)
construção
(3.10) eq:siso_gyr_nd
Como os numeradores de g(s) (f.t. em malha aberta) e gyr (s) (f.t. em malha
fechada) diferem apenas pela constante k, estas duas funções de transferência
possuem os mesmo zeros. Entretanto, os pólos são diferentes, coincidindo
apenas quando k = 0. À medida em que o ganho k varia, os pólos da função
em malha fechada vão se afastando dos pólos em malha aberta e o lugar
geométrico no plano complexo se chama o lugar das raı́zes.
ex:rootlocus
ex:routhhur3
Exemplo 3.3.4 Retornando ao exemplo 3.3.3, podemos reformular o problema de estudar a estabilidade do polinômio s3 + 2s2 + 4s + k em função do
parâmetro k como o problema de lugar
das raı́zes para g(s) = 1/(s3 +2s2 +4s).
fig:rlocus3
dos pólos são, conO resultado é mostrado na Figura 3.5. As posições iniciaisfig:rlocus3
forme discutido, exatamente as de malha aberta. A figura 3.5 fornece bastante
informação útil para projeto de um sistema em malha fechada. Primeiramente
vemos que o controlador que consiste em um ganho simples k basta para estabilizar a planta instável g(s). Ademais, ganhos positivos entre 0 e 8 mantém o
sistema em malha fechada estável, embora com comportamento cada vez mais
oscilatório à medida em que k se aproxima ao valor crı́tico de 8, pois um par
de pólos se aproxima ao eixo imaginário, cruzando-o acima deste valor e passando a possuir parte real positiva (implicando na instabilidade do sistema em
malha fechada). Reparamos que ainda podemos escolher o ganho que resulta
em determinado valor de amortecimento.
Evans48
Citamos algumas regras de construção derivadas por Evans (1948), sem entrar
em detalhes, uma vez que a tendência atual é utilizar um computador para
gerar o lugar das raı́zes.
1. Os pólos em malha aberta, que são as raı́zes de d(s) = 0, são os pontos
do lugar das raı́zes correspondentes ao ganho k = 0 e são os pontos de
partida dos ramos do lugar das raı́zes.
2. O lugar das raı́zes possui exatamente n ramos para um polinômio de
ordem n (i.e., um ramo para cada uma das n raı́zes do polinômio).
3. O lugar das raı́zes é simetrico em relação ao eixo real do plano complexo.
4. Para k não-negativo, qualquer ponto no eixo real que fique à esquerda de
um número ı́mpar de singularidades (contando pólos e zeros) localizados
no eixo real, é um ponto que pertence ao lugar das raı́zes. Pontos no
eixo real que não satisfazem esta condição não pertencem ao lugar das
raı́zes.
5. Se g(s) possui n pólos e m zeros finitos (m ≤ n), então exatamente m
ramos terminam nos zeros finitos quando k → ∞. Os demais n − m
ramos vão para o infinito, quando k → ∞.
CAPÍTULO 3. ESTABILIDADE DE SISTEMAS DINÂMICOS LINEARES63
lugar das
raı́zes!para
sistemas
discretos
Root Locus
4
3
2
Imaginary Axis
1
0
k=8
−1
−2
−3
−4
−5
−4
−3
−2
−1
Real Axis
0
1
2
fig:rlocus3
Figura 3.5: Lugar das raı́zes para função de transferência g(s) = 1/(s 3 +
2s2 + 4s) em configuração de realimentação unitária com controlador de ganho
k.
6. Se g(s) possui n pólos e m zeros finitos (n ≥ m), e k ≥ 0, então os n − m
ramos que terminam no ∞ tendem assintoticamente a retas que passam
pelo ponto
Pn
Pm
i=1 Re(pi ) −
k=1 Re(zk )
σ0 =
n−m
e têm inclinação
γ=±
(1 + 2`)180◦
,
n−m
` = 0,1, . . .
Provas destas propriedades e outras não apresentadas
aqui, bem como
FPE02
exemplos de sua utilização podem ser achadas em Franklin et al. (2002).
Como o lugar das raı́zes pode ser construı́do utilizando apenas propriedades de polinômios, o método de construção pode ser utilizado exatamente da
mesma maneira para sistemas discretos, para os quais substituimos o polinômio g(s) por g(z) e a região de estabilidade no plano complexo passa a ser o
cı́rculo unitário ao invés do semiplano esquerdo.
Na seção ?? são fornecidos mais detalhes sobre o uso do método de lugar
das raı́zes em projeto de controladores retardo-avanço (lead-lag) etc.
Seja o triplo {A,b,c} uma realização da função de transferência
g(s). Aplifig:siso1fdbk
cando realimentação de saı́da na configuração de Figura 3.4, podemos verificar
que, em malha fechada temos
ẋ = (A − kbcT )x
CAPÍTULO 3. ESTABILIDADE DE SISTEMAS DINÂMICOS LINEARES64
de modo que o polinômio caracterı́stico que determina a estabilidade em malha lugar das
raı́fechada é dada pelo polinômio
zes!como
pmf (s) = det(sI − A + kbcT )
cujas raı́zes são funções contı́nuas de k. Portanto, ao variar k, obtemos curvas no plano complexo, parametrizados por k, que constituem exatamente o
lugar das raı́zes. Nesta perspectiva, fica claro que, com apenas um parâmetro
livre, deslocamento dos pólos em malha fechada através da escolha deste único
parâmetro restringe o movimento dos mesmos às curvas chamadas lugar das
raı́zes. Evidentemente, para poder posicionar arbitrariamente as n raı́zes em
malha fechada, necessitaremos de n parâmetros livres, ou seja os n ganhos de
uma realimentação completa do estado x, com um ganho independente para
cada estado.
subsec:nyquist
3.3.3
O critério de Nyquist
Nyq32
Nyquist (1932) utilizou o desenho polar de uma função de transferência no
plano complexo e o princı́pio do argumento para desenvolver uma ferramenta
gráfica de análise de estabilidade de uma SLIT (de uma
entrada e uma saı́da)
fig:siso1fdbk
em configuração de realimentação unitária (Figura 3.4).
Princı́pio do argumento
Consideramos funções
de transferência gi (s), i = 1,2 cujos pólos e zeros
fig:princ_arg
são conhecidos. Figura 3.6A mostra um ponto inicial s arbitrário pertencente
ao contorno C simplesmente conexo1 , para o qual a avaliação de g1 (s) pode
ser feita através dos vetores desenhados na figura. Na representação polar,
g1 (s) = reiα , sendo α = ζ1 + ζ2 − (φ1 + φ2 ), com os ângulos ζ representando os
argumentos dos zeros, e os ângulos φ representando os argumentos dos pólos.
Podemos ver que quando s percorre o contorno C no sentido horário, os ângulos ζi , φi aumentam e diminuem, retornando aos seus valores iniciais quando s
completa uma volta, porém sem completar uma rotação de 360 ◦ . Consequentemente, o argumento α de g1 (s) apresenta o mesmo comportamento (não
sofre mudança lı́quida de 360◦ ),
o que significa que o desenho polar de g1 (s)
fig:princ_arg fig:princ_arg
não engloba a origem (Figura 3.6B). Figuras 3.6C e D mostram que quando
o contorno C engloba um pólo, ocorre que o argumento associado a este pólo
(φ2 ) sofre uma mudança lı́quida de 360◦ quando s percorre o contorno C, o
que se reflete na mudança do argumento de g2 (s), fazendo com que o desenho
polar de g2 (s) englobe a origem uma vez no sentido antihorário.
Esta discussão pode ser resumida na forma do princı́pio do argumento:
Um mapeamento de contorno por uma função complexa meromórfica2 engloba a origem nz − np vezes, sendo nz o número de zeros e np o número de
1
Um domı́nio ou contorno C diz-se simplesmente conexo se qualquer curva fechada em C
pode ser comprimida até se reduzir a um ponto sem abandonar C.
2
Uma função de uma variável complexa é denominada meromórfica em um domı́nio se
todas as suas singularidades no domı́nio são pólos.
realimentação de
saı́da
critério!de
Nyquist
princı́pio do
argumento
englobamento!da
origem
englobamento!sentido
de
englobamento!sentido
horário
englobamento!sentido
antihorário
princı́pio do
argumento
PSfrag replacements
CAPÍTULO 3. ESTABILIDADE DE SISTEMAS DINÂMICOS LINEARES65
Im
Im
ζ1
desenho de
Nyquist
englobamento!do
ponto
$-1$
g1 (s)
C
s
φ1
Re
φ2
α
ζ2
A
B
Im
ζ1
φ1
fig:princ_arg
C
ζ2
Im
g2 (s)
C
s
Re
φ2
Re
α
Re
D
Figura 3.6: Desenho polar ou avaliação de uma função h(s) ao longo de um
contorno C no sentido horário no plano de s. Na Figura A, o contorno C não
engloba nenhum pólo (×) ou zero (◦) de g1 (s) e o desenho polar correspondente
na figura B não engloba a origem. Na figura C, o contorno C engloba um pólo
de g2 (s) e o desenho polar correspondente na figura D engloba a origem uma
vez no sentido antihorário.
pólos da função englobado pelo contorno.
Desenho de Nyquist
Aplicamos este princı́pio ao sistema descrito pela função de transferência
eq:siso_gyr
(3.9). Mais especificamente, como os pólos em malha fechada são as soluções
da equação 1 + kg(s) = 0, aplicamos o princı́pio do argumento à função 1 +
kg(s). Dois pontos são evidentes: (i) devemos trabalhar com o contorno que
engloba todo o semiplano direito (C+ ) do plano complexo, pois queremos
pesquisar a existência de pólos e zeros instáveis; (ii) podemos trabalhar com
a função kg(s), cujo desenho polar, a menos de um deslocamento de uma
unidade para a esquerda), é o mesmo que o desenho polar de 1 + kg(s). A
consequência destas observações é que podemos avaliar o englobamento do
ponto −1 no eixo real pelo desenho polar da função de transferência em malha
aberta kg(s), e concluir sobre o englobamento da origem pelo desenho polar
da função de transferência em malha fechada 1 + kg(s). O desenho polar de
kg(s) é denominado desenho de Nyquist.
Com esse prolegômeno, a aplicãção do princı́pio do argumento pode ser
expresso da seguinte maneira. Um contorno C no sentido horário que engloba
um zero da função 1 + kg(s) (ou seja, um pólo em malha fechada) resultará
no desenho de Nyquist englobando o ponto −1 no eixo real no sentido horário.
Analogamente, se o contorno C engloba um pólo de 1 + kg(s), resultará um
CAPÍTULO 3. ESTABILIDADE DE SISTEMAS DINÂMICOS LINEARES66
englobamento de −1 no sentido antihorário. Podemos concluir que o número
lı́quido de englobamentos horários nh pode ser expresso como o número nz de
zeros instáveis (em C+ ) menos o número np de pólos instáveis (em C+ ):
nh = n z − n p .
PSfrag replacements
Im
Im
g(s)
g(s) : s = −i∞ to 0
ω = −1
α
C
r
ω=∞
ω=0
Re
Re
C
ω=1
g(s) : s = 0 to i∞
fig:nyq_plot
Contorno com raio r infinito
Figura 3.7: Contorno D de Nyquist (à esquerda) e o mapeamento deste
contorno (= desenho de Nyquist) pela função g(s) = 1/(s + 1)2 . Como o
desenho de Nyquist não engloba o ponto −1, n = 0; como g(s) não possui
pólos no semiplano direito, np = 0. Segue daı́ que nz = 0, ou seja, não há
pólos instáveis em malha fechada, permitindo a conclusão de estabilidade, para
k = 1. Podemos concluir ainda que o sistema em malha fechada é estável para
qualquer k positivo, pois k só muda o fator de escala do desenho de Nyquist,
porém não altera o fato deste não englobar o ponto crı́tico −1.
Com isso, chegamos ao seguinte procedimento para traçar o desenho de
Nyquist.
1. Plote kg(s) para −j∞ < s < j∞, avaliando kg(jω) para 0 < ω < ω 1 ,
onde ω1 é grande o suficiente para que kg(jω) seja desprezı́vel para ω >
ω1 . Acrescente, ao traçado obtido, a sua imagem especular no eixo real,
utilizando a simetria do desenho.
2. Avalie o número de englobamentos do ponto −1 no sentido horário da
seguinte maneira. Trace uma reta que se inicia no ponto -1 e atravessa
o desenho obtido em qualquer direção. Contabilize o número de cruzamentos de esquerda para direita da reta pelo desenho polar de kg(s)
como positivos e os da direita para esquerda como negativos. Se os
englobamentos forem no sentido antihorário, nh é negativo.
3. Determine o número np de pólos instáveis de g(s).
4. Calcule o número de pólos instáveis nz em malha fechada:
nz = n h + n p .
CAPÍTULO 3. ESTABILIDADE DE SISTEMAS DINÂMICOS LINEARES67
estabilidade!no
sentido de
entradasaı́da
3.4 Estabilidade no sentido de entrada-saı́da (BIBO) (BIBO)
função!limitada
Considere um sistema linear invariante no tempo com uma entrada e uma BIBO
estável
saı́da, com condição inicial nula, descrito pela integral de convolução:
função!absolutamente
Z t
Z t
integrável
($L 1$)
y(t) =
g(t − τ )u(τ )d τ =
g(τ )u(t − τ )d τ,
(3.11) eq:slit_siso
0
0
função!absolutamente
integrável
onde o núcleo g(t) da integral de convolução é a resposta ao impulso, aplicado ($L 1$)!ilimitada
Para concluir estabilidade do sistema em malha fechada, queremos nz = 0.
sec:bibo
em t = 0 ao sistema dinâmico em questão, u(t) é a entrada do sistema e y(t)
é a saı́da do sistema.
def:limitado
Definição 3.4.1 Uma função f : R → R : t 7→ f (t) é denominada limitada
se exists uma constante c tal que
|f (t)| ≤ c < ∞
para todo t ≥ 0.
eq:slit_siso
Um sistema (3.11) é denominado estável no sentido entrada-saı́da (ou
BIBO estável, a partir da sigla do termo em inglês bounded input, bounded
ouput) se cada entrada limitada u(t) produz uma saı́da y(t) limitada. Este
tipo de estabilidade é definido apenas para sistemas inicialmente relaxados
(i.e., com condição inicial nula) e para a resposta zero-estado. O resultado
principal, que caracteriza estabilidade BIBO, pode ser enunciado da seguinte
maneira.
teo:biboestavel
Teorema
3.4.1 Um sistema linear invariante no tempo, descrito conforme
eq:slit_siso
(3.11), é estável no sentido entrada-saı́da, ou seja BIBO-estável, se e somente
se g(t) for absolutamente integrável em [0,∞) (denotado g ∈ L1 ), ou seja
Z t
|g(τ )|d τ ≤ b < ∞,
0
para alguma constante b.
É importante observar que uma função absolutamente integrável pode não
ser limitada (i.e., em L∞Chen99
) e tampouco tender a zero quando t → ∞. Citamos
um exemplo retirado de Chen (1999b).
Exemplo 3.4.1
f (t) =
n + (t − n)n4 , para n − 1/n3 ≤ t ≤ n;
n − (t − n)n4 , para n < t ≤ n + 1/n3 ,
fig:weirdfn
2
para n = 2, 3, . . ., plotado na Figura 3.8, onde
Pa∞área de2 cada triângulo é 1/n .
Desta forma a integral absoluta fica igual a n=2 (1/n ) < ∞, o que significa
que a função pertence a L1 . Por outro lado, como a altura do triângulo cresce
como n, é evidente que a função não é limitada (i.e., não pertence a L ∞ ).
CAPÍTULO 3. ESTABILIDADE DE SISTEMAS DINÂMICOS LINEARES68
PSfrag replacements
f (t)
sequência!absolutamente
somável
sistema
contı́nuo!linear
e variante
no tempo
n
1
2
3
4
n
5
n+1
t
2
n3
fig:weirdfn
Figura 3.8: Gráfico de uma função que é absolutamente integrável, porém
ilimitada (Chen, 1999).
Outro caracterização fundamental de sistemas lineares BIBO-estáveis estabelece uma conexão entre estabilidade BIBO e estabilidade no sentido de
Liapunov.
Teorema 3.4.2 Um sistema SISO com função de transferência racional e
própria, ĝ(s) é BIBO-estável se e somente se cada pólo de ĝ(s) possui parte
real negativa. Um sistema multivariável, com matriz de transferência G(t) =
(gij (t)) é BIBO-estável se e somente se cada gij (t) é absolutamente integrável
em [0, ∞).
Considere o sistema discreto, causal, linear e invariante no tempo descrito
pela equação:
y(k) =
k
X
g(k − m)u(m) =
m=0
k
X
g(m)u(k − m),
(3.12) eq:dtslit
m=0
onde g(k) é a sequência de resposta ao impulso discreto aplicado ao sistema
em k = 0.
teo:biboestavel
eq:dtslit
O resultado análogo ao teorema 3.4.1 para o sistema (3.12) é dado a seguir.
teo:bibodisc
eq:dtslit
Teorema 3.4.3 O sistema (3.12) é BIBO-estável se e somente se a sequência
g(k) é absolutamente somável in [0,∞), i.e.:
∞
X
|g(k)| ≤ b < ∞,
k=0
para alguma constante b.
3.5
Estabilidade de sistemas lineares variantes no
tempo
sec:lvt
Nesta seção, consideramos o sistema contı́nuo linear e variante no tempo
ẋ = A(t)x
(3.13) eq:sltv_ct
CAPÍTULO 3. ESTABILIDADE DE SISTEMAS DINÂMICOS LINEARES69
sistema discreto!linear
e variante
x(t) = Φ(t,t0 )x(t0 ), t > t0 ,
(3.14) eq:sltv_ct_sol
no tempo
matriz!de
e o sistema discreto linear e variante no tempo
transição
de estados
eq:sltv_dt
x(k + 1) = A(k)x(k)
(3.15) estabilidade!não
determinada
com a solução expressa em termos da matriz de transição de estados Φ:
pelos
autovalores
x(k) = Φ(k,k0 )x(k0 ), k > k0 .
(3.16) eq:sltv_dt_sol
com a solução expressa em termos da matriz de transição de estados Φ:
Para sistemas lineares variantes, em geral, estabilidade não se caracteriza
pela localização de autovalores (que neste caso também poderiam ser variantes
no tempo). Exemplos simples ilustram este fato para sistemas contı́nuos e
discretos.
ex:tv_c_ctrex
eq:sltv_ct
Exemplo 3.5.1 Na equação (3.13) seja
−1 e2t
.
A(t) :=
0 −1
Como A(t) é triangular, vemos que seus autovalores são constantes
e iguais
teo:slit_cont_av_stab
a −1 e −1 para todo t. Poderı́amos conjecturar que teorema 3.3.1 contı́nua
válido. É fácil verificar que a matriz de transição de estados é
−t
e
0.5(et − e−t )
Φ(t,0) =
0
e−t
Como o elemento (1,2) da matriz Φ cresce sem limites, o sistema não é estável
ou assintoticamente estável, muito embora a matriz do sistema, A(t), tenha
autovalores negativos e constantes para todo t. Concluimos que a conjectura
não é válida.
ex:tv_d_ctrex
eq:sltv_dt
Exemplo 3.5.2 Na equação (3.15) seja
 0 0


, k ı́mpar;

2 0 A(k) =
0 2


, k par.

0 0
É fácil verificar que, para a condição incial x0 = (a,b), b 6= 0,
 n 2 b


, n ı́mpar;

0 x(n) =
0


, n par.

2n b
demonstrando a instabilidade do sistema, embora os autovalores de A(k) são
iguais a 0 (e portanto dentro do cı́rculo unitário) para todo k.
CAPÍTULO 3. ESTABILIDADE DE SISTEMAS DINÂMICOS LINEARES70
CD91
Rugh96
estabilidade!exponencial
uniforme
eq:sltv_ct
teorema!de
Teorema 3.5.1
1. A solução nula de (3.13) é assintoticamente estável se
Liapue somente se kΦ(t, t0 )k2 → 0, quando t → ∞.
nov!para
sistemas
eq:sltv_dt
2. A solução nula de (3.15) é assintoticamente estável se e somente se variantes
no tempo
É fácil verificar o seguinte resultado (Callier and Desoer, 1991; Rugh, 1996):
teo:ct_dt_ltv_stab
kΦ(k, k0 )k2 → 0,
quando k → ∞.
No contexto de sistemas lineares variantes no tempo, também podemos utilizar a teoria de Liapunov. É conveniente introduzir a noção de estabilidade
exponencial uniforme.
def:exp_stab_ct_dt
eq:sltv_ct
Definição 3.5.1
1. A solução nula do sistema ( 3.13) é uniformemente exponencialmente estável se existirem constantes c e λ tais que
kx(t)k ≤ ce−λ(t−t0 ) kx(t0 )k,
t ≥ t0 .
eq:sltv_dt
2. A solução nula do sistema (3.15) é uniformemente exponencialmente
estável se existirem constantes c e ρ < 1 tais que
kx(t)k ≤ cρk−k0 kx(k0 )k,
k ≥ k0 .
É fácil verificar que exigir estabilidade exponencial uniforme equivale a exigir
(respetivamente)
kΦ(t, t0 )k ≤ ce−λ(t−t0 ) , t ≥ t0
kΦ(k, k0 )k ≤ cρk−k0 ,
k ≥ k0
Com esses preliminares, podemos enunciar uma versão do teorema de Liapunov
para sistemas lineares variantes no tempo.
teo:ltv_liap
eq:sltv_ct
Teorema 3.5.2
1. A solução nula de (3.13) é uniformemente exponencialmente estável se existirem constantes positivas c1 c2 , e c3 e uma matriz
P(t) simétrica, positiva definida que satisfaz, para todo t
c1 I ≤ P(t) ≤ c2 I
AT (t)P(t) + P(t)A(t) + Ṗ(t) ≤ −c3 I
eq:sltv_dt
2. A solução nula de (3.15) é uniformemente exponencialmente estável se
existirem constantes positivas c1 c2 , e c3 e uma matriz P(k) simétrica,
positiva definida que satisfaz, para todo k
c1 I ≤ P(k) ≤ c2 I
AT (k)P(k + 1)A(k) − P(k) ≤ −c3 I
Para uma prova deste teorema bem como exemplos de sua utilização, veja
Rugh (1996).
Rugh96
CAPÍTULO 3. ESTABILIDADE DE SISTEMAS DINÂMICOS LINEARES71
3.6
Da estabilidade à estabilização
sec:estab_acao
Conforme mencionado acima, um dos desafios na teoria de controle envolve
a utilização de técnicas de análise de sistemas de controle para a sı́ntese dos
mesmos. No que tange o tema de estabilidade, podemos resumir este desafio da
seguinte maneira. Como utilizar as ferramentas de análise de estabilidade para
projetar sistemas de controle que estabilizam plantas especificadas exatamente
ou aproximadamente (= controle robusto)?
Este tema é vasto e nos limitamos a esboçar uma resposta, articulada nos
anos 90, que se baseia na teoria de Liapunov. A chave de uma das abordagens bem sucedidas é a observação de que o resultado básico de Liapunov
permite generalizações teóricas e computacionais quando formulado em termos
de inequações
ao invés de equações. Mais especificamente, podemos reformular
teo:liap1
teorema 3.3.3 da seguinte maneira.
teo:liap1_ineq
teorema!de
Liapunov!em
termos de
LMI
LMI
desigualdade
matricial
linear
(LMI)
programação
semidefinida
Teorema 3.6.1 O sistema ẋ = Ax, x(t0 ) = x0 é assintoticamente estável
se e somente se existe matriz P que satisfaz a desigualdade matricial linear
(muito conhecida pela sigla LMI, do inglês linear matrix inequality) de Liapunov
AT P + PA < 0
(3.17) eq:liap_ineq
P>0
Na linguagem de otimização, o sistema ẋ = Ax é assintoticamente estável
se e
eq:liap_ineq
somente se existe uma matriz P viável para o conjunto de desigualdades ( 3.17).
Em outras palavras, verificar estabilidade equivale a verificar viabilidade ou
factibilidade de um conjunto de desigualdades matriciais lineares na incógnita
matricial P. Sob esta ótica, podemos vislumbrar a tradução de diversos problemas de estabilidade e estabilização em problemas de otimização restrita, desde
que a função objetivo bem como outras restrições possam ser especificadas em
termos de desigualdades matriciais lineares. A história desta abordagem, bem
como
um desenvolvimento abrangente podem ser encontrados no livro pioneiro
BEFB94
de Boyd, Ghaoui, Feron and Balakrishnan (1994). A revolução de métodos
de pontos interiores em otimização tornou uma classe de problemas denominada programação semidefinida, que inclui desigualdades matriciais lineares,
computacionalmente tratávelGN99
e desencadeou pesquisa intensa
nesta área de
BN01
estabilização e estabilidade (Ghaoui and Niculescu, 1999; Ben-Tal and Nemirovski, 2001).
3.7
Panorama de pesquisa sobre estabilidade no Brasil
Existem vários grupos de controle no Brasil, e, à medida em que a estabilidade é um requisito fundamental de qualquer sistema de controle, pode-se
dizer que todos os grupos de controle no Brasil trabalham, em maior ou menor
grau, com este tema.
CAPÍTULO 3. ESTABILIDADE DE SISTEMAS DINÂMICOS LINEARES72
Uma pesquisa feita, no dia 29 de novembro de 2005, na base Web of Science estabilidade!pesquisa
no Brasil
do Insitute of Scientific Information, utilizando a palavra chave “stability” e na área de
exigindo que o endereço do autor contivesse “Brasil” ou “Brazil”, e posteriormente refinando o resultado da busca, exigindo que a palavra “matrix” aparecesse no tı́tulo, resumo ou lista de palavras-chave resultou na recuperação de
122 artigos em periódicos indexados.
Uma pesquisa na base “Grupos de Pesquisa” do CNPq, recupera um conjunto de aproximadamente 15 grupos de pesquisa no tema “estabilidade e
sistemas de controle”, majoritariamente em departamentos de engenharia elétrica, porém constando também grupos em matemática, quı́mica e engenharia
aeroespacial.
Resumidamente, podemos afirmar que há bastante atividade no Brasil na
área de desigualdades matriciais lineares e suas ramificações em estabilidade
e estabilização, estabilidade e estabilização de sistemas lineares com atrasos,
estabilidade e estabilização de sistemas lineares com saltos Markovianos, estabilidade de polinômios e as versões robustas de todos estes tipos de estabilidade
e estabilização (isto é, estabilidade de famı́lias de matrizes, polinômios, etc.).
Além disso, há muita atividade na área de estabilidade e estabilização de sistemas não lineares. Além das maneiras de localizar grupos e pesquisadores
ativos nesta área no Brasil indicadas acima, existem outros sı́tios de busca
gerais como Google, e outros mais especı́ficos, disponı́veis no Portal Periódicos da CAPES, como, por exemplo, Engineering Village, scholar.google.com,
www.scirus.com, WebSPIRS etc.
Capı́tulo 4
Controlabilidade e
Observabilidade
cap:controlaobs
Paulo Sérgio Pereira da Silva
Poli-PTC-USP 05508-900 São Paulo SP
email: [email protected]
4.1
Introdução
ec:intro_controlaobs
Neste capı́tulo trataremos os problemas de controlabilidade e de observabilidade sistemas lineares invariantes no tempo, discretos e contı́nuos. O
ponto de vista aqui adotado considera que um sistema é um ente geométrico
(intrı́nseco), independente de coordenadas. Tal ponto de vista tem a vantagem
de ser mais adequado para o estudo das propriedades estruturais de sistemas
lineares tais como controlabilidade e observabilidade. Para poder definir sistemas lineares a partir desta Won85
premissa, devemos considerar transformações
lineares ao invés de matrizes (Wonham, 1985).
Trabalharemos com os conceitos de desacoplamento da saı́da e de observabilidade para sistemas contı́nuos e discretos. O primeiro é a propriedade de
uma condição inicial provocar uma saı́da nula para um sistema sem entrada.
O segundo é a capacidade de deduzirmos o estado de um sistema a partir
da informação de sua saı́da e da entrada aplicada. Mostraremos que os dois
conceitos estão intimamente relacionados.
Consideraremos as principais formas canônicas e aprensentaremos a teoria da realização para sistemas contı́nuos (que é absolutamente análoga a de
sistemas discretos).
Dada uma matriz de transferência G(s), uma realização de G(s) é um
sistema linear:
ẋ(t) = Ax(t) + Bu(t)
(4.1a)
y(t) = Cx(t) + Du(t)
(4.1b)
x(t0 ) = x0 , t ≤ t0
(4.1c)
tal que a sua matriz de transferência coincida com G(s). Tal problema é
73
CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE
74
evidentemente um problema de sı́ntese, sendo motivado pelas técnicas de implementação de filtros e sistemas de controle analógicos. A teoria que estuda
os problemas de realização é denominada de Teoria da Realização.
Neste capı́tulo estudaremos as formas canônicas controlável e observável
de sistemas monovariáveis, isto é, sistemas com apenas uma entrada e uma
saı́da1 . Tais formas canônicas permitem resolver de forma simples o problema
de realização para sistemas monovariáveis.
Intimamente ligado com o problema da realização, está a Decomposição
de Kalman. Tal decomposição exibe as partes de um sistema que são: a)
não-observável e controlável; b) observável e controlável; c) não observável
e não controlável ; d) observável e não-controlável. Mostraremos, a partir
da decomposição de Kalman, que somente a parte observável e controlável
contribui para a matriz de transferência do sistema e que uma realização é
minimal (isto é, possui a dimensão do espaço de estados mı́nima) se e somente
se a realização é controlável e observável.
Apresentaremos um método de sı́ntese de uma realização minimal de uma
matriz de transferência G(s) baseado na realização coluna a coluna de tal
matriz. Tal método utiliza a forma canônica controlável e gera uma realização
controlável de G(s). Para obter uma realização minimal deve-se extrair a parte
observável da realização.
O algorı́tmo dual (realização por linhas a partir da forma canônica-observável)
será brevemente discutido.
4.2
Sistemas Contı́nuos
temascontcontrolaobs
Trataremos inicialmente os tópicos de controlabilidade, observabilidade e
teoria da realização para sistemas contı́nuos. Uma grande parte do desenvolvimento é análoga para sistemas discretos. Isto fará com que as seções
correspondentes de sistemas discretos sejam muito mais reduzidas.
e1
Consideraremos sistemas da forma:
ẋ(t) = Ax(t) + Bu(t)
(4.2a) e1a
y(t) = Cx(t) + Du(t)
(4.2b) e1b
x(t0 ) = x0 , t ≤ t0
(4.2c) e1c
onde A : X → X , B : U → X , C : X → Y, D : U → Y são transformações
lineares, X , U e Y são espaços vetoriais de dimensão n, m, l, respectivamente.
O espaço vetorial X é chamado espaço de estados (x(t) é o vetor de estado
no instante t), Y é o espaço de saı́das (y(t) é o vetor de saı́das no instante
t) e U é o espaço das entradas (u(t) é o vetor de entradas no instante t). A
entrada externa u(t) pertence ao conjunto U de funções de entrada admissı́veis.
Por simplicidade vamos supor que U é o conjunto das funções contı́nuas por
partes de [t0 , ∞) em U. Fixadas bases {e1 , . . . ,en } de X , {f1 , . . . ,fm } de U
1
Sistemas “SISO” (single input, single output).
CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE
75
e1
e {g1 , . . . , gl } de Y, o sistema (4.2) passa a possuir uma descrição matricial
representada pelas matrizes A, B, C, D e os vetores coluna
x(t) = (x1 (t), . . . ,xn (t))0
u(t) = (u1 (t), . . . ,um (t))0
y(t) = (y1 (t), . . . ,yl (t))0
representarão respectivamente o vetor de estado, o vetor
de entradas e o vetor
e1
de saı́das escrito nestas bases. Note que a equação (4.2) pode ser interpretada
de forma intrı́nseca (pelas transformações lineares A,B,C,D agindo em vetores
x, y, u) ou de forma matricial (pelas matrizes A,B,C,D multiplicando vetores
coluna x,y,u escritos em bases fixadas). A escolha das bases de Y e U em geral
não é livre porque as entradas e saı́das estão relacionadas respectivamente
aos atuadores e sensores do sistema. Embora a escolha da base do espaço de
estados X possa também estar relacionada com grandezas fı́sicas, muitas vezes
esta escolha pode “esconder” propriedades estruturais internas do sistema, que
poderiam ser reveladas em uma base mais adequada. Assim, se {e1 , . . . ,en } é
a base original de X e {η1 , . . . ,ηn } é a nova base em que desejamos escrever o
vetor de estado, definimos a matriz T de mudança de base por :
matriz dos vetores coluna {η1 , . . . ,ηn }
T =
escritos na base {e1 , . . . ,en }
Note que a matriz T transforma vetores escritos na base {e1 , . . . ,en } em vetores
escritos na base {η1 , . . . ,ηn }. Tal propriedade é representada no diagrama
abaixo :
Vetores na base original {e1 , . . . ,en } ← T ← Vetores na base nova {η1 , . . . ,ηn }.
Assim, se A,B,C,D são as matrizes do sistema escritas na base {e1 , . . . ,en }, as
novas matrizes Ã, B̃, C̃, D̃, obtidas a partir da transformação de base
eSimilar
x = Tz
(4.3)
à = T −1 AT
(4.4a)
serão dadas por
B̃ = T
−1
B
(4.4b)
C̃ = CT
(4.4c)
D̃ = D
(4.4d)
e as novas equações matriciais do sistema são dadas por :
ż(t) = Ãz(t) + B̃u(t)
(4.5a)
y(t) = C̃z(t) + D̃u(t)
(4.5b)
z(t0 ) = z0 , t ≥ t0
(4.5c)
76
CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE
e1
Note que as equações acima representam o mesmo sistema (4.2) (em
uma base diferente). Tal interpretação valerá para todas as seções, menos
a de teoria da realização.
OBS. No contexto da teoria
da realização, em particular para o conceito
eSimilar
de equivalência, as relações (4.4) são denominadas de relações de similaridade 2
e portanto não são interpretadas como mudança de base.
subsec:A_invariancia
autonoma
4.2.1
A-invariância e dinâmica da equação autônoma
Considerando apenas o sistema autônomo:
ẋ(t) = Ax(t)
x(t0 ) = x0 , t ≥ t0
(4.6a)
(4.6b)
Considere, sem perda de generalidade que t0 = 0. Sabemos que a (única)
solução do sistema acima para x(0) = x0 é dada por
x(t) = eAt x0
onde eAt é chamada de exponencial da matriz A.
Considere agora uma aplicação linear A : X → X tal que, para um subespaço V, tenhamos que para todo v ∈ V então Av ∈ V. Tal propriedade é
denotada por AV ⊂ V e neste caso dizemos que o subespaço V é A-invariante.
O exemplo mais simples de um subespaço invariante é o subespaço unidimensional V, gerado por um autovetor v de A. A álgebra linear desenvolve teorias
importantes baseadas no conceito de invariância3 . As nossas aplicações ficam,
pelo menos pelo momento, mais restritas ao conteúdo da proposição seguinte
:
Ainvariancia
Proposição 1 Seja uma A : X → X transformação linear, seja V um subespaço de X , autonoma
assuma que dim(X ) = n e dim(V) = k. Considere uma equação
autônoma (4.6) com condição inicial x(t0 ) = x0 . Então as seguintes afirmativas são equivalentes
( i) O subespaço V é A-invariante, isto é , AV ⊂ V.
autonoma
( ii) Se x0 ∈ V, então a solução da equação autônoma (4.6) é tal que x(t) ∈ V
para todo t ∈ [t0 , ∞).
( iii) Dada uma base B = {v1 , . . . , vk , x̂1 , . . . , x̂n−k } de X tais que os primeiros
k vetores formem uma base de V, então quando escrevermos a matriz de A na
base B vamos obter uma matriz à da forma:
A11 A12
à =
0 A22
onde A11 é uma submatriz k × k, A12 é k × (n − k), A22 é (n − k) × (n − k) e
o zero representa uma submatriz (n − k) × k que é nula.
2
(emprestando da álgebra linear o termo usado para as matrizes A e à que obedeçam a
relação à = T −1 AT ).
3
Por exemplo, a Forma Canônica Racional, e a Forma Canônica de Jordan de uma transformação linear é estreitamente relacionada com subespaços A-invariantes.
ubsec:contrcontinuos
CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE
77
A idéia da prova da proposição é resumida a seguir. A prova de que (i)
implica em (iii) é uma conseqüência imediata do fato de que vetores pertencentes a V quando escritos na base B possuem as n − k últimas componentes
todas nulas. A prova de que (iii) implica em (i) é óbvia. Assumindo (iii) e
resolvendo a equação autônoma na base B, teremos:
ż 1 = A11 z 1 + A12 z 2
ż 2 = A22 z 2
Assim para toda condição inicial em V teremos z 2 (t0 ) = 0 e portanto z 2 (t) ≡ 0,
mostrando (ii). Assumindo (ii), suponha por absurdo que existe x0 ∈ V tal
que Ax0 6∈ V. Na base B, isto significa que a derivada de alguma componente
entre as n − k últimas não se anula para condição inicial x0 . Logo, num tempo
t = t0 + com arbitrariamente pequeno, a solução x(t) não pertencerá a V.
Observação:
• Lembremos que se T é a matriz dos vetores coluna {v1 , . . . , vk , x̂1 , . . . , x̂n−k }
escritos na base original de X , então à = T −1 AT . Note também que (i)
é uma caracterização geométrica da A-invariância, (ii) é dinâmica e (iii)
é matricial.
• A observação a seguir é secundária para entendimento do texto, mas
importante para garantir que certos conceitos que serão definidos são
intrı́nsecos. De fato, as matrizes A11 e A12 possuem significados intrı́nsecos. Mostra-se que A11 é a matriz da restrição A|V e A22 é a matriz
do mapa induzido Ā : X /V → X /V. Se ι : V → X é o mapa
de inserção,
Won85
então ι(A|V) = Aι. Se π : X → X /V, então Āπ = πA (Wonham, 1985).
♦
4.2.2
Controlabilidade
Esta seção é dedicada ao estudo da controlabilidade de sistemas lineares
contı́nuos e invariantes no tempo.
Existem diversas definições de controlabilidade. A definição que utilizaremos está relacionada com a capacidade de alcançar4 pontos do espaço de
estados pela aplicação de uma entrada adequada. Tal definição é também
denominada de controlabilidade ponto-a-ponto.
Mostraremos nesta seção que controlabilidade é uma propriedade entradaestado, sendo portanto dependente somente das matrizes (A, B) da representação de estado. Veremos que um sistema é controlável se e somente se o posto
da matriz de controlabilidade é igual à dimensão do estado. Mesmo quando o
4
A capacidade de alcançar pontos do espaço de estados é também chamada de alcançabilidade ou atingibilidade
78
CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE
sistema não for controlável, o conjunto dos estados alcançáveis a partir da origem coincide com a imagem da matriz de controlabilidade. Fica implı́cito na
teoria dada nesta seção que, se um estado é alcançável a partir da origem num
tempo T1 , onde T1 > 0, então tal estado é alcançável num tempo T2 positivo
qualquer. No caso contı́nuo, é óbvio que alcançar estados num tempo T menor
exige mais energia, sendo que no nosso estudo consideramos que o controle não
tem limitação. Será visto que esta última afirmação é conseqüência imediata
da fórmula de construção
da entrada, que precisa inverter o Grammiano de
e:Grammiano
controlabilidade (vide (4.9)).
Sejam A : X → X , B : U → X transformações lineares onde dim X = n e
e2 dim U = m. Considere o sistema
def:controlabilidade
trolabilidade:origem
x(t) = Ax(t) + Bu(t)
x(t0 ) = x0 , t ≤ t0
(4.7a) e2a
(4.7b) e2b
e2
Definição 1 No sistema (4.7) dizemos que x1 é alcançável num tempo T
a partir da origem (ou simplesmente alcançável) se existir
uma entrada u :
e2
[t0 , T ] → U admissı́vel, tal que a solução da equação (4.7), com x(t0 ) = x0 ,
obedeça a x(T ) = x1 .
Denotaremos conjunto dos estados alcançáveis a partir da origem por R 0 .
Teorema 4.2.1 O espaço R0 alcançável a partir da origem é dado por:
R0 =
=
Im B
. . . +An−1 Im B
+ A Im B +n−1
Im B AB . . . A
B
Observação: Durante toda a demonstração do teorema vamos denotar
R = Im B AB . . . An−1 B
porque ainda não sabemos que R = R0 , onde R0 é o conjunto dos estados
alcançáveis a partir da origem. A matriz
C = B AB . . . An−1 B
será denominada matriz de controlabilidade.
Sem perda de generalidade, seja t0 = 0. Assumindo que a condição inicial
x0 é nula, temos que :
Z T
eAτ Bu(T − τ )dτ.
(4.8) forcada
x(T ) =
0
Para provar o teorema
vamos construir uma entrada adequada tal que o estado
forcada
x(T ), dado por (4.8), seja igual ao estado x1 que queremos atingir. Para isso
necessitaremos do conceito de Grammiano de controlabilidade e de dos lemas
a seguir.
♦
CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE
79
Definição 2 Seja T > 0 fixado. Definimos o Grammiano de controlabilidade
V (T ) dada por:
Z T
0
V (T ) =
etA BB 0 etA dt
(4.9) e:Grammiano
0
Teremos que V (T ) assim definida é uma matriz simétrica. Mais ainda,
valem os lemas a seguir :
Vdefinida
Lema 1 Assuma que R = X . Então a matriz V (T ) é definida positiva (e
portanto invertı́vel).
Prova: Tome x ∈ X arbitrário. Teremos
Z T
tA
0 tA0
0
0
e BB e dt x
x V (T )x = x
0
=
=
=
Z
Z
Z
T
0
x0 etA BB 0 etA xdt
0
T
0
T
0
0
B 0 etA x
0 0
B 0 etA x dt
0 tA0 2
B e x dt ≥ 0.
Portanto V (T ) é pelo menos semi-definida positiva. Para mostrar que ela
é definida-positiva, suponha que exista x 6= 0 tal que x0 V (T )x = 0. Da
0 2
0 continuidade de B 0 etA x em função de t segue-se que, B 0 etA x = 0 para
todo t ∈ [0, T ]. Em particular:
0 =
=
Logo
0
di B 0 etA x dti
t=0
0
0 i tA0 B (A ) e x , i = 1, 2, 3, . . .
t=0
B 0 (A0 )i xt=0 = 0 i = 1, 2, 3, . . .
e portanto x0 C = 0. Assim as linhas da matriz de controlabilidade C são
linearmente dependentes e o posto de C não pode ser igual a n = dim X . CasoControlavel
Lema 2 Se R = X , então a entrada u : [0,T ] → R definida por
0
u(t) = B 0 e(T −t)A V (T )−1 x1
faz com que o sistema alcance x1 num tempo T a partir da origem.
CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE
80
forcada
Prova: Substituindo-se a expressão de u(t) em (4.8) vamos obter :
x(T ) =
Z
T
eAτ Bu(T − τ )dτ
0
Z
T
0
eAτ BB 0 eA τ V (T )−1 x1 dτ
0
Z T
0
eAτ BB 0 eA τ dτ V (T )−1 x1
=
=
0
= V (T )V (T )−1 x1
= x1
invariante
Lema 3 O subespaço R = Im C = Im B AB . . . An−1 B é o menor5 Ainvariante que contém Im B.
Prova: O teorema de Cayley-Hamilton nos diz que uma transformação linear
anula seu próprio polinômio caracterı́stico. Em outras palavras, se π(λ) =
.
det(λI −A) = λn −(an−1 λn−1 +. . .+a1 λ+a0 ), então π(A) = An −(an−1 An−1 +
. . . + a1 A + a0 I) = 0. Em particular temos que An é uma combinação linear
das potências inferiores à enésima potência de A.
Seja x ∈ R. Por definição temos que x é uma combinação linear das
colunas de C. Em outras palavras, x = C ū =
para algum ū ∈ U n . DenoP
n−1 j
tando ū = (u00 , . . . , u0n−1 )0 , teremos que x =
j=0 A Buj . Portanto Av =
Pn−1 j+1
n é uma combinação linear das potências inferiores à
A
Bu
.
Como
A
j
j=0
enésima de A, segue-se que Av também é uma combinação linear das colunas
de C. Por fim é imediato que R0 contém Im B e que outro espaço A-invariante
que contém Im B também conterá R0
T:Controlabilidade:origem
Prova:
(do
teorema
4.2.1)
:
Demonstraremos
inicialmente
que
z
∈
/
R
não
pode
acha
ser alcançado num tempo T a partir da origem invariante
para nenhuma entrada aplicada
e nenhum T > 0. De fato, note que do lemaAinvariancia
3 temos que R é um subespaço
A-invariante. Por outro lado da proposição 1 e do fato de Im B ⊂ R segue-se
que, numa nova base de X adaptada a estes subespaços sistema se reescreve
como
1 1 ż
A11 A12
z
B1
=
+
u
(4.10) e:decompoe
ż 2
0 A22
z2
0
1 z
com z 2 6= 0.
Note que dizer que z ∈
/ R é equivalente a dizer que z =
z2
Mas a equação dinâmica que rege a porção z 2 do vetor de estado z(t) é a
equação autônoma dada por:
z 2 (t) = A22 z 2 .
5
“Menor” no sentido da inclusão.
CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE
81
Logo com a condição inicial z(0) = 0, teremos que z 2 (t) ≡ 0 e portanto z ∈
/R
não poderia ser alcançado a partir da origem.
Mostremos agora que x ∈ R pode ser alcançado a partir da origem através
de uma entrada adequada. Do raciocı́nio acima vemos que uma condição
inicial nula implica em z 2 (t) identicamente nulo. Portanto a dinâmica de z 1 (t)
se reduz ao sistema (A11 , B1 ) dado por:
ż 1 (t) = A11 z 1 (t) + B1 u(t)
CasoControlavel
Pelo lema 2 é suficiente mostrar que o sistema (A11 , B1 ) é controlável (porque
aı́ poderı́amos construir a entrada adequada através deste lema).
De fato, isto pode ser mostrado facilmente computando-se a matriz C na
base utilizada no argumento anterior e considerando-se o fato de que:
A11 A12
0 A22
k
=
Ak11 X
0 Ak22
(4.11) ParteContrNaoContr
Assim, vamos obter
C=
B1 A11 B1 . . . An−1
11 B1
0
0
...
0
Como o posto de C coincide com k = dim R, que por sua vez coincide com o
número de linhas (e de colunas) de A11 , segue-se que o posto da matriz
C1 = B1 A11 B1 . . . An−1
11 B1
é igual a k. Pelo teorema de Cayley-Hamilton é fácil mostrar que tal posto
coincide com o posto da matriz
k−1
C¯ = B1 A11 B1 . . . A11
B1
Note que C¯ é a matriz de controlabilidade
do par (A , B1 ). Portanto o par
CasoControlavel11
(A11 , B1 ) obedece as hipóteses do lema 2, como querı́amos demonstrar.
Observação:
• As matrizes B1 , A11 , A12 possuem significados intrı́nsecos. Se ι : R0 → X
é o mapa de inserção e π : X → X /V for a projeção canônica, então B 1 ,
A12 e A22 são unicamente definidos (como transformações
lineares) pelas
Won85
equações: ιB1 = B, ιA11 = Aι, A22 π = πA (Wonham, 1985).
• As definições acima fornecem uma demonstração elegante para a controlabilidade de (A11 , B1 ). De fato, basta notar que ιAk11 B1 = Ak ιB1 =
Ak B. Daı́, usando o teorema de
Cayley-Hamilton, segue-se facilmente a
Won85
controlabilidade de (A11 , B1 ) (Wonham, 1985).
♦
CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE
82
Definição 3 : Um sistema (A,B) tal que R = X é dito completamente controlável (ou simplesmente controlável). Se (A,B) não for controlável, então
(A11 ,B1 ) é denominado parte controlável de (A,B).
O resultado a seguir mostra que um sistema linear controlável (a partir da
origem) é controlável a partir de uma condição inicial arbitrária.
Corolário 1 Num sistema controlável, a entrada u : [0,T ] → R definida por
0
u(t) = −B 0 e(T −t)A V (T )−1 (eT A x0 − x1 )
leva o sistema de x(0) = x0 até x(T ) = x1
Prova: Exercı́cio.
O resultado seguinte pode ser demonstrado6 :
Che70
Kai80
Corolário 2 (Chen, 1970), (Kailath, 1980) As seguintes afirmativas são equivalentes:
(i) O par (A,B) é controlável.
(ii) A matriz C = B AB . . . An−1 B possui posto n = dim X (pleno de linha).
(iii) posto [sI − A B] = n, para todo s ∈ σ(A).
(vi) Im (sI − A) + ImB = X , para todo s ∈ σ(A).
(v) Se h ∈ Cn é um autovetor à esquerda de A, isto é, se h0 A = λh0 com
λ ∈ C, então h0 B 6= 0 (critério de controlabilidade de Hautus).
e:decompoe
A equação (4.10) sugere a decomposição do sistema em partes controlável
e não controlável abaixo:
(Parte controlável)
ż 1 (t) = A11 z 1 (t) + A12 z 2 (t) + B1 u(t)
(Parte não-controlável) ż 2 (t) = A22 z 2 (t)
Note que entrada é completamente desconectada da parte não-controlável.
Note que A11 , A12 , B1 são componentes da parte controlável e A22 é denominado subsistema não controlável. A matriz A12 representa um acoplamento
entre a parte controlável e a parte não-controlável.
subsec:obscontinuos
4.2.3
Observabilidade
Nesta seção trabalharemos com os conceitos de desacoplamento da saı́da
e de observabilidade de sistemas contı́nuos. O primeiro é a propriedade de
uma condição inicial provocar uma saı́da nula para um sistema sem entrada.
O segundo é a capacidade de deduzirmos o estado de um sistema a partir da
informação de sua saı́da e da entrada aplicada.
Mostraremos que a observabilidade e o desacoplamento da saı́da estão diretamente relacionados ao maior subespaço A-invariante contido em ker C, que
chamaremos de N0 , ou ainda de subespaço não-observável.
6
Aqui σ(A) denota o conjunto (com multiplicidade) dos autovalores de A.
CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE
83
Mostraremos que N0 é o núcleo de uma matriz denominada matriz de observabilidade. Mostraremos que um sistema é observável se e somente se N 0
é o subespaço nulo. Obteremos uma decomposição do sistema em uma parte
observável e uma parte não-observável, esta última sendo completamente desconectada da saı́da. Ressaltamos que tais propriedades são duais das obtidas
com relação à controlebiliadade.
Desacoplamento da saı́da
eee1
Seja o sistema (sem entrada)
x(t) = Ax(t)
(4.12a) eee1a
y(t) = Cx(t)
(4.12b) eee1b
x(t0 ) = x0 , t ≤ t0
(4.12c) eee1c
onde A : X → X e C : X → Y, são transformações lineares, X , e Y são espaços
vetoriais de dimensão n e l, respectivamente.
dDesacoplado
Definição 4 Dizemos
que um estado x0 , onde x0 ∈ X , é desacoplado da saı́da
eee1
para o sistema (4.12), se x(t0 ) = x0 implicar em y(t) = Cx(t) = 0 para todo
t ≥ t0 . O conjunto dos estados x0 desacoplados da saı́da será denotado por
N0 .
tDesacoplado
Teorema 4.2.2 O subespaço dos estados desacoplados da saı́da é dado por N 0
tal que:


C
 CA 


N0 = ker O = ker 
(4.13) eMatrizObs

..


.
CAn−1
tDesacoplado
Para mostrar o teorema 4.2.2 precisamos do seguinte lema:
l:OeAinvariante
Lema 4 O subespaço vetorial ker O é A-invariante.
Prova: Seja v ∈ ker O. Vamos mostrar que Av ∈ ker O ou seja que OAv = 0.
De fato, para isto note que:


CA
 CA2 


OAv =  .  v
 .. 
CAn
Mas do fato de Ov = 0 segue-se que CAk v = P
0, k = 0, . . . , n − 1. Lembremos
i
n
que, pelo teorema de Cayley-Hamilton, A = n−1
i são os coefii=0 ai A , onde a
P
n−1
i
n
cientes
do
polinômio
caracterı́stico
de
A.
Portanto
CA
v
=
C
i=0 ai A v =
Pn−1
i
i=0 ai CA v = 0.
84
CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE
tDesacoplado
Prova: (do teorema
4.2.2) Seja x0 um estado desacoplado da saı́da. Então
dDesacoplado
pela definição 4 teremos :
CeA(t−t0 ) x0 = 0, ∀t ≥ t0
e portanto derivando a equação acima sucessivas vezes, tem-se
dk
(CeA(t−t0 ) x0 ) = CAk eA(t−t0 ) x0 = 0, ∀t ≥ t0 .
dtk
em particular, para t = t0 , segue-se que
CAk x0 = 0, k = 0,1, . . . , n − 1
e assim x0 ∈ ker O.
Para mostrar que todo estado de ker O é desacoplado da saı́da, suponha
x0 ∈ ker O e tome uma base em que os primeiros k vetores formam uma base
de ker O. Nesta base, como ker O é A-invariante e ker O ⊂ ker C (mostrar),
eO segue-se que o sistema se reescreve como:
1 1 ż
A11 A12
z
=
(4.14a) eOa
ż 2
0 A22
z2
z1
0 C2
y =
(4.14b) eOb
z2
eOa
A forma da matriz à em (4.14a)
se deve a A-invariância de ker O. Por outro
eOb
lado a forma da matriz C̃ em (4.14b) se deve ao fato de ker O ⊂ ker C.
z1
Note que x0 , quando escrito na nova base, toma a forma x0 =
, onde
z2
eOa
x0 ∈ ker O se e somente se z 2 = 0. Note que, de (4.14a), a dinâmica de z 2 é
dada por
z 2 (t) = A22 z 2 .
eOb
Logo com a condição inicial x0 ∈ ker O, teremos que z 2 (t) ≡ 0. De (4.14b),
segue-se que y(t) é identicamente nulo. Portanto, x0 é desacoplado da saı́da.
Observabilidade
eSistema
Seja o sistema
x(t) = Ax(t) + Bu(t)
(4.15a) eSistemaa
y(t) = Cx(t)
(4.15b) eSistemab
x(t0 ) = x0 , t ≤ t0
(4.15c) eSistemac
Nesta seção
introduziremos o conceito de observabilidade para sistemas na
eSistema
forma (4.15). Veremos que a observabilidade é a propriedade de poder deduzir
o estado de um sistema a partir do conhecimento da entrada aplicada u(·) e
a saı́da obtida y(·) deste sistema. Fica implı́cito nesta definição que também
conhecemos
perfeitamente o sistema em termos de suas matrizes (C,A,B) da
eSistema
equação (4.15).
85
CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE
eSistema
Definição 5 Dizemos que um sistema na forma (4.15) é observável se o estado inicial x(t0 ) puder ser determinado a partir do conhecimento de u(t) e
y(t) no intervalo [t0 , t0 + T ].
Observação:
(i) Se x0 é conhecido então x(t) pode ser determinado através da equação (6)
do cap.2. Assim a definição acima poderia
ser mudada para
eSistema
Dizemos que um sistema na forma (4.15) é observável se o estado inicial x(t)
no intervalo [t0 , T + t0 ] puder ser determinado a partir do conhecimento de
u(t) e y(t) no mesmo intervalo.
(ii) Como mostraremos que a observabilidade é uma propriedade que depende
apenas de A e C, dizemos apenas que o par (C,A) é (ou não) observável ao
invés de dizermos que o sistema é (ou não) observável.
(iii) Pela invariância no tempo, não há perda de generalidade em considerar
t0 = 0.
♦
tObservabilidade
ldual
Teorema 4.2.3 Seja N0 = ker O. O par (C,A) é observável se e somente se
N0 = {0} (espaço nulo).
eSistema
Lema 5 Dado o sistema (C, A) dado por (4.15), considere o sistema dual
ẋ = A1 x + B1 u
onde A1 = A0 e B1 = C 0 . Então o posto da matriz de controlabilidade de
(A1 , B1 ) é igual a dimensão do espaço de estados se e somente se ker O eMatrizObs
= {0},
onde O a matriz de observabilidade construı́da a partir de (C, A) (vide (4.13)).
Prova: Basta notar que a transposta da matriz de controlabilidade de (A 1 , B1 )
é a matriz

 

B10
C

  CA 
B10 A01

 

C10 = 
=
=O
..
..




.
.
B10 (A01 )n−1
CAn−1
portanto o posto de C1 é pleno de linha se e somente se o posto de O for pleno
de coluna, isto é, se e somente se ker O = {0}.
tObservabilidade
Prova: (do teorema 4.2.3) Provemos inicialmente que N0 = {0} implica em
(C,A) observável. Considere a matriz
V (T ) =
Z
T
0
etA C 0 CetA dt.
(4.16) eGrammianoObs
0
A matriz V (T ) é denominada Grammiano de Observabilidade. Note que V (T )
coincide com o grammiano de controlabilidade do sistema dual (A1 , B1 ). Pelo
86
CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE
ldual
lema 5 e o lema 1 do Cap. 2, segue-se que V (T ) é uma matriz simétrica positiva
definida , sendo portanto invertı́vel.
Por outro lado teremos:
Z t
At
y(t) = Ce x0 + C
eA(t−τ ) Bu(τ )dτ
(4.17) eAux
0
eAux
0
portanto, multiplicando ambos os lados de (4.17) por etA C 0 , integrando no
intervalo [0,T ] e isolando o termo dependente de x0 do lado direito, teremos:
Z T
Z t
Z T
A(t−τ )
tA0 0
tA0 0
tA
e
Bu(τ )dτ(4.18a)
dt
e C y(t) − C
e C Ce dt x0 =
0
0
0
= ω (y(·), u(·), A, B, C)
(4.18b) eAux2
Note que para conhecermos ω (y(·), u(·), A, B, C) e V (T ) é preciso conhecer
o sistema (A, B, C) e também
sua entrada e sua saı́da num intervalo [0, T ].
eAux2
Multiplicando-se a equação (4.18b) em ambos os lados por V (T )−1 obtemos:
x0 = V (T )−1 ω (y(·), u(·), A, B, C)
mostrando que N0 = {0} implica em que o sistema seja observável.
Mostremos agora que o sistema ser observável implica em N0 = {0}. Para
isso suponha por absurdo que existe x̄ 6= 0 tal que x̄ ∈ N0 . Assim existem x10
e x20 distintos e tais
que x1 − x20 = x̄ ∈ N0 . Considere agora as soluções de
eSistema 0
x1 (t) e x2 (t) de (4.15) obtidas respectivamente a partir das condições iniciais
x(0) = x10 e x(0) = x20 a partir da mesma entrada u(·) aplicada. Segue-se que
y1 (t) − y2 (t) = C(x1 (t) − x2 (t))
Z t
Z t
At 1
A(t−τ )
At 2
A(t−τ )
= Ce x0 + C
e
Bu(τ )dτ − Ce x0 + C
e
Bu(τ )dτ
=
=
0
At 1
At 2
Ce x0 − Ce x0
CeAt x10 − x10
At
0
= Ce x̄
= 0.
Note que a última igualdade da seqüência de equações acima é decorrente do
fato de x̄ ser desacoplado da saı́da e portanto CeAt x̄ é identicamente nulo.
Do raciocı́nio acima, concluı́mos que os estados x10 e x20 são indistinguı́veis,
pois saı́das idênticas são obtidas a partir destas condições iniciais através da
aplicação de uma mesma entrada. É impossı́vel decidir, a partir do conhecimento da saı́da e da entrada, se a condição inicial adotada foi x 10 ou x20 .
Portanto, se N0 6= {0}, o sistema não é observável.
T
i
Observação: Pode-se mostrar que N0 = n−1
i=0 ker CA e que N0 é o maior
A-invariante contido em ker C. Em outras palavras, se V é um subespaço Ainvariante e V ⊂ ker C então V ⊂ N0 (mostre). Na teoria de sistemas é usual
denominar N0 de subespaço não-observável e denotá-lo por hker C|Ai.
♦
87
CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE
Che70
Kai80
O seguinte resultado pode ser demonstrado (Chen, 1970), (Kailath, 1980):
Corolário 3 As seguintes afirmativas são equivalentes:
(i) (C,A) é observável.
(ii) A matriz de observabilidade



O=

C
CA
..
.
CAn−1





possui posto n = dim X , pleno de coluna.
(ii) N0 = ker O = {0}.
(iv) A matriz de observabilidade O tem colunas independentes, ou equivalentemente, a transformação linear O é injetiva.
(v) O sistema dual (A0 ,C 0 ) é controlável.
(vi) A matriz [sI − A C] possui posto n = dim X para todo s ∈ σ(A) (para
todo s ∈ C).
(vii) ker [sI − A] ∩ ker C = {0} para todo s ∈ σ(A) ( para todo s ∈ C).
( viii ) A matriz A não possui autovetores contidos no ker C (critério de Hautus). Em outras palavras, se h é autovetor de A então Ch 6= 0.
Observação: Do que foi visto acima, se um sistema não for observável, podemos sempre escrever as matrizes do sistema em uma nova base de X em que
os primeiros k vetores formem uma base de N0 . Nesta base,
devido ao fato de
eSistema
N0 ser A-invariante e N0 ⊂ ker C, segue-se que o sistema (4.15) toma a forma:
eOO
ż 1 (t)
ż 2 (t)
eOO
1
A11 A12
B1
z (t)
+
u(t)
0 A22
z 2 (t)
B2
z 1 (t)
0 C2
y =
z 2 (t)
=
(4.19a) eOOa
(4.19b) eOOb
A equação (4.19) sugere a seguinte decomposição do sistema em partes observável e não-observável:
(Parte não-observável)
(Parte observável)
ż 1 (t) = A11 z 1 (t) + A12 z 2 (t) + B1 u(t)
2
ż (t) = A22 z 2 (t) + B2 u(t)
y = C2 z 2 (t)
Note que a saı́da é completamente desconectada da parte não-observável. Note
que A11 , A12 , B1 são componentes da parte não observável e C2 , A22 , B2 é
denominado subsistema observável. A matriz A12 representa um acoplamento
entre a parte observável e a parte não-observável.
♦
CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE
ealizaequivcontinuos
4.2.4
88
Realizações e equivalências
Como dito na introdução, dada uma matriz de transferência G(s), uma
realização
de G(s) é um sistema linear:
ee1
ẋ(t) = Ax(t) + Bu(t)
(4.20a) ee1a
y(t) = Cx(t) + Du(t)
(4.20b) ee1b
x(t0 ) = x0 , t ≤ t0
(4.20c) ee1c
tal que a sua matriz de transferência coincida com G(s). Tal problema é
evidentemente um problema de sı́ntese, sendo motivado pelos problemas de
implementação de filtros e sistemas de controle analógicos. A teoria que estuda
os problemas de realização é denominada de Teoria da Realização.
Nesta seção estudaremos as formas canônicas controlável e observável de
sistemas monovariáveis, isto é, sistemas com apenas uma entrada e uma saı́da.
Tais formas canônicas permitem resolver de forma simples o problema de realização para sistemas monovariáveis.
Intimamente ligado com o problema da realização, está a Decomposição
de Kalman. Tal decomposição exibe as partes de um sistema que são: a)
não-observável e controlável; b) observável e controlável; c) não observável
e não controlável ; d) observável e não-controlável. Mostraremos, a partir
da decomposição de Kalman, que somente a parte observável e controlável
contribui para a matriz de transferência do sistema e que uma realização é
minimal (isto é, possui a dimensão do espaço de estados mı́nima) se e somente
se a realização é controlável e observável.
Apresentaremos um método de sı́ntese de uma realização minimal de uma
matriz de transferência G(s) baseado na realização coluna a coluna de tal
matriz. Tal método utiliza a forma canônica controlável e gera uma realização
controlável de G(s). Para obter uma realização minimal deve-se extrair a parte
observável da realização.
O algorı́tmo dual (realização por linhas a partir da forma canônica-observável)
será brevemente discutido.
ss:Formas:Canonicas
4.2.5
Formas canônicas
Nesta seção apresentaremos algumas formas canônicas de sistemas monovariáveis. Tais formas canônicas permitem resolver de maneira simples o
problema de realização de tal classe de sistemas.
Forma canônica controlável
Suponhamos que queremos fornecer uma realização para a função de transferência:
b 1 s2 + b 2 s + b 3
Y (s)
=
g(s) =
U (s) s3 + a1 s2 + a2 s + a3
(4.21)
g:de:s
89
CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE
Multiplicando-se e dividindo-se o denominador e o numerador de g(s) por 1/s 3
teremos:
Y (s)
b1 /s + b2 /s2 + b3 /s3
=
U (s) 1 + a1 /s + a2 /s2 + a3 /s3
(4.22)
eg:de:s:integrador
(4.23)
eXi1
Seja ξ (3) (s) uma variável auxiliar definida pela equação:
1
ξ (3) (s)
=
U (s)
1 + a1 /s + a2 /s2 + a3 /s3
Segue-se que
Y (s) = (b1 /s + b2 /s2 + b3 /s3 )ξ (3) (s)
eNota
Denotando-se
ξ (2) (s) = (1/s)ξ (3) (s)
ξ
(1)
ξ
(0)
(4.24a)
2
(3)
(s)
(4.24b)
3
(3)
(s)
(4.24c)
(s) = (1/s )ξ
(s) = (1/s )ξ
segue-se que
Y (s) = b1 ξ (2) (s) + b2 ξ (1) (s) + b3 ξ (0) (s)
(4.25)
eY
eXi1
Por outro lado, de (4.23), podemos escrever
(1 + a1 /s + a2 /s2 + a3 /s3 )ξ (3) (s) = U (s)
Portanto
ξ (3) (s) = −(a1 /s)ξ (3) (s) − (a2 /s2 )ξ (3) (s) − (a3 /s3 )ξ (3) (s) + U (s)
eNota
Usando-se (4.24), vem:
ξ (3) (s) = −a1 ξ (2) (s) − a2 ξ (1) (s) − a3 ξ (0) (s) + U (s)
eXi
eY
eNota
(4.26)
Podemos
representar as equações (4.26), (4.25), (4.24) através do diagrama da
f:canonica:controlavel
figura 4.1.
f:canonica:controlavel
O diagrama da figura 4.1 é facilmente convertido na seguinte equação diferencial:
  (0)
  


 ˙(0)
ξ (t)
ξ (t)
0
0
1
0
(1)




 ξ˙(1) (t)  =  0
0
1
ξ (t) + 0  u(t)(4.27a)
1
−a3 −a2 −a1
ξ (2) (t)
ξ˙(2) (t)
 (0)

ξ (t)
b3 b2 b1  ξ (1) (t) 
(4.27b)
y =
(2)
ξ (t)
eXi
CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE
90
y
b2
b1
u
x(2)
x(2)
x(1)
-a1
-a2
b3
x(0)
-a3
canonica:controlavel
Figura 4.1: Forma canônica controlável (terceira ordem).
É fácil mostrar que tal sistema é sempre controlável porque a matriz de controlabilidade é sempre da forma:


0 0 1
C= 0 1 z 
1 x y
Observação: O leitor não terá dificuldade em generalizar essas idéias para
sistemas de ordem diferente de 3. Em geral a forma canônica controlável
correspondente à função de transferência
b1 sn−1 + b2 sn−2 + . . . + bn
g(s) = n
s + a1 sn−1 + a2 sn−2 + . . . + an
91
CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE
sendo dada por:

ξ˙(0)
ξ˙(1)
..
.





 ξ˙(n−2)
ξ˙(n−1)








 = 




0
0
..
.
1
0
..
.
0
1
..
.
...
...
..
.
0
0
..
.

ξ (0)
ξ (1)
..
.





0
0
0
...
1   ξ (n−2)
−an −an−1 −an−2 . . . −a1
ξ (n−1)
 (0) 
ξ
 ξ (1) 




..
bn bn−1 . . . b2 b1 
y =

.


 ξ (n−2) 



0
  0 
  
  .. 
 + (4.28a)
u
  . 
  0 
1
(4.28b)
ξ (n−1)
♦
Forma canônica observável
Consideramos novamente
o problema de fornecer uma realização para a
g:de:s
função
de transferência (4.21). Seja Y (s) = ξ(s). Reescrevendo a equação
eg:de:s:integrador
(4.22), teremos
(1 + a1 /s + a2 /s2 + a3 /s3 )ξ(s) = (b1 /s + b2 /s2 + b3 /s3 )U (s)
e portanto:
ξ(s) = −(a1 /s)ξ(s)−(a2 /s2 )ξ(s)−(a3 /s3 )ξ(s)+(b1 /s)U (s)+(b2 /s2 )U (s)+(b3 /s3 )U (s)
(4.29) eCanObsEq
eCanObsEq
f:canonica:observavel
Note que a equação (4.29) corresponde ao diagrama dafigura 4.2.
f:canonica:observavel
Do diagrama da figura 4.2, segue-se que podemos definir:
x1 = y = ξ
ẋ1 = −a1 x1 + b1 u
ẋ2 = −a2 x1 + b2 u
ẋ3 = −a3 x1 + b3 u
dando origem à seguinte realização:



 

b1
−a1 1 0
x1 (t)
ẋ1 (t)
 ẋ2 (t)  =  −a2 0 1   x2 (t)  +  b2  u(t)
b3
−a3 0 0
x3 (t)
ẋ3 (t)


x1 (t)
1 0 0  x2 (t) 
y =
x3 (t)

(4.30a)
(4.30b)
CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE
92
u
b2
b3
b1
X1
X2
X3
y
-a3
-a2
-a1
:canonica:observavel
Figura 4.2: Forma canônica observável (terceira ordem).
Observação: Tal realização é sempre observável. A mesma idéia pode ser
usada para sintetizar a realização de funções de transferência de ordem diferente de 3. Em geral a forma canônica observável correspondente à função de
transferência
g(s) =
b1 sn−1 + b2 sn−1 + . . . + bn
sn + a1 sn−1 + a2 sn−2 + . . . + an
sendo dada por:

ẋ1 (t)
ẋ2 (t)
..
.





 ẋn−1 (t)
ẋn (t)


y =
−a1
−a2
..
.






 = 


 −an−1

−an
1 0 ...
0 1 ...
.. .. ..
. . .
0 0 ...
0 0 ...




1 0 ... 0 0 


0
0
..
.

x1 (t)
x2 (t)
..
.





1   xn−1 (t)
xn (t)
0

x1 (t)
x2 (t) 


..

.

xn−1 (t) 
xn (t)


 
 
 
+
 
 

b1
b2 


.. (4.31a)
u
. 

bn−1 
bn
(4.31b)
♦
93
CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE
Forma canonica de controlabilidade
f:canonica:controlabilidade
Na figura 4.3 temos uma variante da forma
canônica controlável denomiKai80
nada forma canônica de controlabilidade (Kailath, 1980).
b1
y
b2
X2
X1
X3
u
-a3
-a2
b3
-a1
ica:controlabilidade
Figura 4.3: Forma canônica de controlabilidade (terceira ordem).
g:de:s
Mostra-se que para realizar a função de transferência g(s) dada por ( 4.21)
é necessário escolhermos β1 , β2 e β3 tais que7 :
 
−1 

β1
1
0 0
b1
 β2  =  a1 1 0   b2 
β3
a2 a1 1
b3

(4.32) e:MarkovBeta
As equações de estadof:canonica:controlabilidade
correspondentes podem ser facilmente obtidas a partir do diagrama da figura 4.3. A generalizaçãoe:MarkovBeta
para ordem n é obtida definindose a primeira linha da matriz da equação (4.32) como sendo (1 0 . . . 0), a iésima linha como sendo (ai−1 ai−2 . . . a1 1 0 . . . 0), e a última linha dada por
(an−1 an−2 . . . a1 1).
Forma canônica de observabilidade
f:canonica:observabilidade
Na figura 4.4 temos uma variante da Kai80
forma canônica observável denominada forma canônica de observabilidade (Kailath, 1980).
g:de:s
Mostra-se que para realizar a função de transferência g(s) dada por
(
4.21)
e:MarkovBeta
é necessário escolhermos β1 , β2 e β3 obdecendo a mesma equação (4.32). As
7
Mostra-se que os βi são os parâmetros de Markov da função de transferência g(s)
Kai80
(Kailath, 1980).
CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE
94
u
b3
b1
b2
x3
x2
x1
y
-a1
-a2
-a3
nica:observabilidade
Figura 4.4: Forma canônica de observabilidade (terceira ordem).
equações de estado correspondentes
podem ser facilmente obtidas a partir do
f:canonica:observabilidade
diagrama da figura 4.4. A generalização para ordem n é obtida definindo-se
os coeficientes βi como na forma canônica de controlabilidade.
ssNaoEstrita
4.2.6
Realizações monovariáveis não estritamente próprias
No caso em que g(s) = n(s)/d(s) é própria, mas não é estritamente própria,
devemos fazer a divisão n(s) = Dd(s) + r(s), sendo D o quociente (necessariamente de grau zero) e r(s), o polinômio resto, necessariamente de grau menor
que o grau de d(s). Assim podemos escrever:
n(s)/d(s) = (Dd(s) + r(s))/d(s) = D + r(s)/d(s).
Note que r(s)/d(s) é estritamente próprio e portanto pode ser realizado em
uma forma canônica das seções anteriores. Se (A, B, C) é uma realização de
r(s)/d(s) então (A, B, C, D) será uma realização de g(s) (mostre).
ex1
Exemplo 4.2.1 Seja g(s) = (ds + h)/(s − a). Note que g(s) = d + g1 (s) onde
g1 (s) = b/(s − a), onde b = (h + da). Note também que:
ẋ = [a]x + [b]u
y = [1]x
é uma realização de g1 (s) = b/(s − a). Portanto,
ẋ = [a]x + [b]u
y = [1]x + [d]u
CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE
95
é uma realização de g(s).
ex2
Exemplo 4.2.2 Seja g(s) = d+(b1 s+b2 )/(s2 +a1 s+a2 ). Note que o sistema:
x1
0
ẋ1
0
1
u
+
=
1
−a2 −a1
x2
ẋ2
x1
b2 b1
+ du
y =
x2
é uma realização de g(s).
Realização em cascata
Note que toda função de transferência
g(s) =
b1 sn−1 + b2 sn−1 + . . . + bn
sn + a1 sn−1 + a2 sn−2 + . . . + an
pode ser escrita da forma:
k
Y
gi (s)
i=1
onde os são gi funções de transferência próprias e têm no máximo ordem 2.
Assim a função de transferência g(s) pode ser realizada como um sistema em
cascata a partir dos gi (s).
g1
g2
...
gk
f:cascata
Figura 4.5: Realização em cascata.
Na implementação, normalmente há interesse prático em se utilizar a forma
em cascata por duas possı́veis razões. A primeira é que, em geral, a implementação de polinômios de primeira ou segunda ordem exige menor precisão
relativa dos coeficientes. Segundo, implementando-se os pólos de mais baixa
freqüência nos estágios iniciais da cascata, pode-se evitar saturações internas
por ruı́dos de alta freqüência, já que os estágios iniciais agirão como filtros
passa-baixas.
Realização em paralelo
P
Decompondo g(s) como uma soma de frações parciais g(s) = ki=1 gi (s)
podemos realizar a função de transferência
através da conexão em paralelo dos
f:paralelo
gi (s), como ilustrado na figura 4.6
4.2.7
Decomposição de Kalman e realizações mı́nimais
Nesta seção estudaremos a decomposição de Kalman e a sua relação com as
realizações minimais. Mostraremos que uma realização é minimal se e somente
se ela é controlável e observável.
CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE
96
g1
g2
u
+
...
y
gk
f:paralelo
Figura 4.6: Realização em paralelo.
Decomposição de Kalman
e3
Considere o sistema linear
x(t) = Ax(t) + Bu(t)
(4.33a) e3a
y(t) = Cx(t) + Du(t)
(4.33b) e3b
x(t0 ) = x0 , t ≤ t0
(4.33c) e3c
onde A : X → X , B : U → X , C : X → Y, D : U → Y são transformações
lineares, X , U e Y são espaços vetoriais de dimensão n, m, l, respectivamente.
Sabemos das seções anteriores que podemos determinar os subespaços R 0 e
N0 , denominados respectivamente por subespaço controlável e subespaço nãoobservável. Temos que ambos são subespaços A-invariantes, Im B ⊂ R0 e
N0 ⊂ ker C.
É fácil mostrar que R0 ∩ N0 e R0 + N0 também são A-invariantes. Note
que :
R0 ∩ N 0 ⊂ R 0 ⊂ R 0 + N 0 ⊂ X
R0 ∩ N 0 ⊂ N 0 ⊂ R 0 + N 0 ⊂ X
Seja {λ1 , . . . , λk } uma base de R0 ∩ N0 . Pelo teorema de completamento de
base é possı́vel construir uma base de R0 da forma {λ1 , . . . , λk , ρ1 , . . . , ρs } onde
{ρ1 , . . . , ρs } é um subconjunto de uma base de R0 . Como R0 ∩ N0 ⊂ N0 , analogamente é possı́vel construir uma base de N0 da forma {λ1 , . . . , λk , η1 , . . . , ηp }
onde {η1 , . . . , ηp } é um subconjunto de uma base de N0 . Não é difı́cil mostrar que o conjunto S = {λ1 , . . . , λk , ρ1 , . . . , ρs , η1 , . . . , ηp } é uma base de
R0 + N0 (exercı́cio). Agora complete S até uma base de X , obtendo uma
base B = {λ1 , . . . , λk , ρ1 , . . . , ρs , η1 , . . . , ηp , x1 , . . . , xr }. Defina os seguintes subespaços:
X1 = span {λ1 , . . . , λk } (Estados não-observáveis e controláveis) (4.34)
X2 = span {ρ1 , . . . , ρs } (Estados observáveis e controláveis)
(4.35)
X3 = span {η1 , . . . , ηp } (Estados não-observáveis e não-controláveis)
(4.36)
X4 = span {x1 , . . . , xr } (Estados observáveis e não-controláveis) (4.37)
CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE
t:DecKalman
97
Teorema 4.2.4 (Teorema da decomposição de Kalman) Escrevendo o sistema
(A, B, C, D) na base B de X teremos a seguinte forma canônica (Ã, B̃, C̃, D̃)
, denominada Decomposição de Kalman:




A11 A12 A13 A14
B1
 0 A22 0 A24 


 B̃ =  B2 
à = 
 0


0 A33 A34
0 
0
0 A44 0
0
0
C2
0
C4
C̃ =
D̃ = D
onde o par
A11 A12
0 A22
B1
B2
é controlável (parte controlável do sistema), e o par
A22 A24
C2 C4
0 A44
(4.38) eParteContr
(4.39) eParteObs
é observável (parte observável do sistema).
Prova: Apresentaremos apenas as idéias principais da prova.
Os zeros matriciais que estão abaixo de A11 são conseqüência do fato de
X1 = R0 ∩N–0 ser A-invariante. Os quatro zeros matriciais abaixo da submatriz
»
A11 A12
são conseqüência do fato de R0 = X1 + X2 ser A-invariante. A
0
A
22
forma de B̃ é eParteContr
conseqüência de Im B ⊂ R0 = X1 + X2 . Como R0 = X1 + X2 ,
segue-se que (4.38) é a parte controlável do sistema.
Os três zeros matriciais da última linha de à decorrem da A-invariância
de R0 + N0 = X1 + X2 + X3 . Levando-se em conta a A-invariância de N0 =
X1 + X3 , é fácil mostrar que a submatriz 2,3 de à (da segunda linha e terceira
coluna) tem que ser nula. Os dois zeros matriz C̃ são justificados
pelo fato de
eParteObs
N0 = X1 + X3 ⊂ ker C. Como N0 = X1 + X3 , segue-se que (4.39) é a parte
observável do sistema.
p:TransfContObs
Proposição 2 A matriz de transferência G(s) do sistema depende somente
da parte (A22 , B2 , C2 , D̃) , isto é, da parte controlável e observável do sistema.
Prova: Sabemos que G(s) = C(sI − A)−1 B + D = C̃(sI − Ã)−1 B̃ + D̃. Note
que8
C(sI − Ã)−1 B̃ =
=
=
ˆ
ˆ
0
0
C2
C2
0
0
= C2 (sI − A22 )−1 B2
8
C4
C4
2
˜6
6
4
2
˜6
6
4
3
3−1 2
B1
(sI − A11 )
−A12
−A13
−A14
7 6 B2 7
0
(sI − A22 )
0
−A24
7
7 6
5 4 0 5
0
0
(sI − A33 )
−A34
0 32
0
0
0
(sI − A44 )
(sI − A11 )−1
X
X
X
76
0
(sI − A22 )−1
X
X
76
−1
54
0
0
(sI − A33 )
X
−1
0
0
0
(sI − A44 )
A matrix X denota uma matriz qualquer cujos valores numéricos, ou mesmo as suas
dimensões, não são importantes para o cálculo que estamos realizando no momento.
3
B1
B2 7
7
0 5
0
98
CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE
Assim, G(s) = C2 (sI − A22 )−1 B2 + D̃, que só depende da parte observável e
controlável do sistema.
Considere a seguinte
convenção
de
representação
de
um
subsistema
S
consi
f:convencao
tante na figura 4.7.
Aij
xj
AiJ
Aki
Si
Ci
Aip
»
...
...
Bi
u
Bi
xp
Aki
.
xi
xi
Aii
Aip
Ci
f:convencao
Figura 4.7: Convenção de representação das interconexões do i-ésimo subsistema, i = 1,2,3,4. Note que nem todo subsistema tem Bi e/ou Ci presente.
A decomposição f:Decomposicao:Kalman
de Kalman leva à estrutura do sistema representada pelo
diagrama da figura 4.8.
C4
S4
A34
A14
S3
A13
B1
y
A24
S1
u
A12
B2
S2
C2
:Decomposicao:Kalman
Figura 4.8: Diagrama de conexões do teorema de decomposição de Kalman.
O caminho de setas indica a única ligação entre a entrada e a saı́da.
Realização de ordem mı́nima
Dizemos que (A,B,C,D) é uma realização minimal de uma matriz de transferência G(s) própria se G(s) = C(sI − A)−1 B + D e a realização possuir a
CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE
99
mı́nima ordem possı́vel, isto é, dim X = n é a menor dimensão do espaço de
estados dentre todas as realizações possı́veis.
Antes de estudar as realizações minimais, será útil introduzir os números
(matrizes) de Markov:
Definição 6 Seja G(s) = C(sI − A)−1 B + D a matriz de transferência de um
sistema linear. Os números (matrizes) de Markov associados a esta função de
transferência são dados por:
M−1 = D
Mk = CAk B, k ∈ N
P
P
k k+1 . Em
= L(eAt ) = L[ k∈N (At)k /k!] =
k∈N A /s
Note que (sI − A)−1
particular:
X
X
G(s) = D +
CAk B/sk+1 =
Mk /sk+1
k∈N
k>−1
Note que as matrizes de Markov determinam completamente a matriz de transAt
−1
ferência.
Note também que se g(t) = Ce B + D = L (G(s)), então Mk =
(k)
g (t) t=0 .
Para demonstrar o resultado principal desta seção precisamos do seguinte
resultado auxiliar de álgebra-linear:
lPosto
Lema 6 Sejam O : X → V e C : W → X transformações lineares. Então:
(i) (O posto da composição de transformações é menor ou igual ao mı́nimo
dos postos) O posto de OC é menor ou igual que min{p1 , p2 } onde p1 , p2 são
os postos de O e C, respectivamente.
(ii) Se O é injetiva, isto é, se ker O = {0}, então o posto de OC coincide com
o posto de C.
Prova: Exercı́cio.
Agora podemos enunciar o resultado principal da seção:
Teorema 4.2.5 Uma realização (A,B,C,D) de G(s) é minimal se e somente
se (A, B) for controlável e (C, A) for observável.
Prova: A necessidade decorre da decomposição de Kalman. De fato, se a
realização for não-observável ou for não-controlável, a parte observável e controlável desta realização é também uma realização de G(s), mas com ordem
inferior à realização dada.
Para mostrar a suficiência, suponha que (A, B, C, D) é uma realização de
G(s) com ordem n tal que (C, A) é observável, e (A, B) é controlável. Suponha
por absurdo que a realização (A, B, C, D) não é minimal. Em outras palavras,
existe uma realização (Â, B̂, Ĉ, D̂) de G(s) de ordem n̂ menor que n. Como
as matrizes de transferência dos sistemas acima coincidem com G(s), segue-se
que as matrizes de Markov também coincidem, ou seja:
CAk B = Ĉ Âk B̂
sub:TeoriaRealizacao
100
CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE
Denotando as matrizes de observabilidade e controlabilidade de (A, B, C, D)
por O e C, defina:



M = OC = 

CB
CAB
..
.
CAB
CA2 B
..
.
...
...
..
.
CAn−1 B
CAn B
..
.
CAn−1 B CAn B . . . CA2(n−1) B





Analogamente, seja



M̂ = ÔCˆ = 

Ĉ B̂
Ĉ ÂB̂
..
.
Ĉ ÂB̂
Ĉ Â2 B̂
..
.
...
...
..
.
Ĉ Ân−1 B̂
Ĉ Ân B̂
..
.
Ĉ Ân−1 B̂ Ĉ Ân B̂ . . . Ĉ Â2(n−1) B̂





Segue-se que M = M̂ . Como o (C, A) é observável, segue-se que ker O = {0}.
Como (A, B) é controlável,
então o posto de C é igual a n. Portanto, pela
lPosto
parte (ii) do Lema 6, segue-se que o posto de M é igual a n. Por outro lado,
como n̂ é menor que n e o posto de ÔlPosto
e de Cˆ são limitados superiormente por
n̂, segue-se que da parte (i) do lema 6 que o posto de M̂ é menor ou igual a
n̂. Isto é uma contradição, terminando a demonstração.
4.2.8
Teoria da Realização
Dada uma matriz racional própria G(s), nesta seção vamos mostrar uma
técnica de sı́ntese de uma realização (A,B,C,D) controlável para G(s). Uma
realização minimal pode ser obtida a partir da parte observável desta realização. As idéias da técnica de sı́ntese dual são também discutidas.
O algorı́tmo de realização por colunas
Seja G(s) uma matriz de transferência própria l × m. Considere o seguinte
método de obtenção de uma realização minimal (A, B, C, D) de G(s).
1. Obtenha uma realização controlável (Aj , Bj , Cj , Dj ) para j-ésima coluna
de G(s) (a ser descrita em detalhes).
2. Construa o sistema (Ã, B̃, C̃, D̃) dado por:



à = 

C̃ =
A1 0
0 A2
..
..
.
.
0
0
C1 C2
···
···
···
···
···
0
0
..
.






 B̃ = 


Am Cm
D̃ =
B1 0
0 B2
..
..
.
.
0
0
D1 D2
···
···
···
···
···
0
0
..
.





Bm Dm
CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE
101
3. Extraia a parte observável (A, B, C, D) de (Ã, B̃, C̃, D̃).
Obs : Escrevendo o sistema numa base adequada, obtemos as matrizes
A11 A12
0 A22
,
C1 C2
,
B1
B2
, D̃.
Faça A = A22 , C = C2 , B = B2 e D = D̃.
Pode-se mostrar o seguinte resultado9 :
Teorema 4.2.6 O sistema (A, B, C, D) é uma realização minimal de G(s).
Realização de cada coluna
Fixado j entre 1 e m, considere que gj (s) = (g1j (s), . . . , gmj )T é a j-ésima
coluna de G(s). Mostraremos agora como obter a realização (A j , Bj , Cj , Dj )
de gj .
Seja gij = pij (s)/qij (s). Seja dj (s) o denominador comum da coluna j,
isto é, o denominador comum dos gij para i = 1, . . . , l. Multiplicando-se o
numerador e o denominador de gij por um polinômio adequado, podemos
ssNaoEstrita
sempre escrever (após fazer uma divisão conforme descrito na subseção 4.2.6):
gij = nij (s)/di (s) + dij
onde dij é uma constante e nij (s)/di (s) é estritamente próprio. Seja:
dj (s) = sn + a1 sn−1 + . . . + an
nij
= bi,1 sn−1 + . . . + bi,n , i = 1, . . . , l
Assim, podemos fornecer uma realização (controlável) para coluna g j (s) dada
por (mostrar que tal sistema é mesmo uma realização):




Aj = 


0
0
..
.
1
0
..
.
0
1
..
.
...
...
..
.
0
0
..
.
0
0
0
...
1
−an −an−1 −an−2 . . . −a1

b1,n b1,n−1 . . . b1,2 b1,1
 ..
.. 
..
..
..
Cj =  .
. 
.
.
.
bl,n bl,n−1 . . . bl,2 bl,1
9








0
0
..
.

 
 
 
Bj =  
 
 0 
 1 
d1,j
 .. 
Dj =  . 
dl,j
Na verdade, as únicas dificuldades técnicas para demonstrar este resultado são: (i)
garantir que (Ã, B̃) é controlável (fácil por computação direta da matriz de controlabilidade),
e (ii) garantir que a parte observável de um sistema controlável é controlável (resultado mais
ou menos imediato a partir do critério de controlabilidade de Hautus).
CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE
102
O algorı́tmo de realização por linhas
Transpondo a matriz G(s) podemos fornecer uma realização (A 1 , B1 , C1 , D1 )
de G(s)T usando a mesma metodologia acima. Depois podemos determinar
uma realização de (A,B,C,D) de G(s) através do sistema dual A = A T1 , B =
C1T , C = B1T , D = D1T .
Uma outra abordagem (exercı́cio) seria realizar as linhas de G(s) diretamente através de realizações observáveis, agregá-las de maneira dual ao que
foi feito no algorı́tmo de realização por colunas e depois extrair a parte controlável.
Equivalência
Dois sistemas descritos na forma de estado (A,B,C,D) e (Ã, B̃, C̃, D̃) são
equivalentes
se:
eEquivalente
à = T −1 AT
B̃ = T
−1
B
(4.40a)
(4.40b)
C̃ = CT
(4.40c)
D̃ = D
(4.40d)
Para alguma matriz T não singular. É fácil mostrar que tal relação é reflexiva,
simétrica e trasitiva, sendo portanto uma relação de equivalência. É imediato que tal definição de equivalência implica que dois sistemas equivalentes
tenham mesma matriz de transferência e que os auutovalores de à e A cooincidem. Por outro lado, como a matriz de transferência depende apaenas da
parte controlável e observável do sistema, o fato de dois sistemas possuirem
matrizes de transferência idênticas não implica
que eles sejam equivalentes. Se
eEquivalente
interpretarmos a relação de similaridade (4.40) como uma mudança de base,
decorre que a noção de equivalência passa ser uma “igualdade a menos de mudança de coordenadas”. Assim dois sistemas equivalentes possuem as mesmas
propriedades do ponto de vista externo e interno.
Muito mais interessante do que a equivalência de dois sistemas descritos na
forma de estado é a equivalência de dois
sistemas descritos na forma polinomial.
Ros70
O leitor interessado deve consultar (Rosenbrock, 1970).
4.3
Sistemas discretos
asdiscretcontrolaobs
Nesta seção trataremos das questões de controlabilidade, observabilidade e
realizações para sistemas discretos. Como muitos dos desenvolvimentos feitos
são análogos aos sistemas contı́nuos, a tônica da seção será a de retomar as
noções e resultados de maneira breve, se concentrando principalmente nas
diferencas e particularidades dos sistemas discretos. Conseideraremos sistemas
103
CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE
e:discreto
sec:controladiscreto
discretos da forma
ẋk+1 = Axk + Buk
(4.41a)
yk = Cxk + Duk
(4.41b)
x0 = x̄0 ,
(4.41c)
Onde k ∈ N é o tempo discreto, xk ∈ X = Rn é o vetor de estado, uk ∈ U = Rm
é o vetor de entrada e yk ∈ Rl é o vetor de saı́da.
4.3.1
Controlabilidade
A noção de controlabilidade para sistemas discretos é definida como se
segue:
Definição 7 Dizemos que um estado xf é alcançável a partir de x0 , se existir
k ∈ N e uma seqüência de entradas u0 , . .e:discreto
. , uk tal que, para tal seqüência de
entradas tenhamos xk = xf . O sistema 4.41 é (completamente) controlável
se todo xf for alcançável para toda condição inicial x0 ∈ X . Dizemos que o
sistema é controlável a partir da origem se a última afirmação for válida para
x0 = 0.
Teorema 4.3.1 O conjunto dos estados alcançáveis a partir da origem é o
subespaço R0 dado por
R0 =
=
Im B + A Im B + . . . + An−1
Im B
Im C = B AB . . . An−1 B
Um sistema é completamente controlável se e somente se a matriz C, denominada de matriz de controlabidade, tiver posto n = dim X .
e:discreto
Prova: É fácil mostrar por indução que a solução do sistema (4.41) é da forma:
xk = A k x0 +
k−1
X
Aj Buk−j−1
j=0
i
= A x0 + B AB . . . Ak−1 B (uTk−1 uTk−2 . . . uT0 )T
k
h
Da equação acima e do teorema de Cayley-Hamilton, segue-se que o conjunto
dos estados alcançáveis a partir da origem é a imagem da matriz de controlabilidade. Em particular o sistema é controlável a partir da origem se e somente
se Im C = X , ou seja, se e somente se o posto de C for n = dim X . Que o posto
de C deve ser n para que o sistema seja controlável é óbvio. Por fim, assumindo
que Im C = X , se x0 não for nulo, tomando-se
x̃f = −A k x0 + xf escolhendo
T
T
T
T
se (uk−1 uk−2 . . . u0 ) tal que x̃f = B AB . . . An−1 B (uTk−1 uTk−2 . . . uT0 )T ,
teremos que tal seqüência leva o sistema de x0 (arbitrário) até xn−1 = xf .
invariante
Notemos agora que o espaço alcançável R0 é A-invariante segundo
o
lema
3.
e:decompoe
Portanto, analogamente ao caso contı́nuo descrito na equação ( 4.10), teremos
CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE
104
que o sistema, quando escrito em uma base de X tal que os primeiros k vetores
formem uma base de R0 (através de uma transformação z = T x), fica da forma:
1 1 zk+1
A11 A12
zk
B1
=
+
uk
(4.42) decompoe:discreto
2
zk+1
0 A22
zk2
0
1 zk
e zk1 é o subvetor das primeiras k componentes de z. A
onde z =
zk2
decomposição acima sugere a decomposição do sistema em partes controlável
e não controlável abaixo:
1
(Parte controlável)
żk+1
= A11 zk1 + A12 zk2 + B1 uk
2
(Parte não-controlável) żk+1
= A22 zk2
Note que entrada é completamente desconectada da parte não-controlável.
Note que A11 , A12 , B1 são componentes da parte controlável e A22 é denominado subsistema não controlável. A matriz A12 representa um acoplamento
entre a parte controlável e a parte não-controlável.
subsec:obsdiscreto
4.3.2
Observabilidade
Nesta seção trataremos do problema da observabilidade de sistemas discretos. Para não sermos excessivamente repetitivos, devido à similaridade dos
casos contı́nuo e discreto dos tópicos que tratamos, optamos por um tratamento mais resumido da questão.
Definição 8 Um estado x0 é desacoplado da saı́da se CAk x0 = 0, k ∈ N. Em
outras palavras, a solução yk do sistema sem entrada xk+1 = Axk , yk = Cxk
é identicamente nula para condição inicial x0 .
e:discreto
Definição 9 Um sistema (4.41) é observável se para toda condição inicial
x0 ∈ X existir k ∗ ∈ N tal que x0 possa ser determinado a partir do conhecimento da entrada uk e da saı́da yk para k = 0, . . . , k ∗ .
Na definição acima fica implı́cito que o modelo do sistema é bem conhecido10 . É claro que o conhecimento do modelo, da entrada e do estado inicial
implicam no conhecimento do estado xk , de modo que na definição acima
poderı́amos trocar o conhecimento da condição inicial pelo conhecimento do
estado.
Teorema 4.3.2 Um sistema é observável
de observabilidade O dada por

C
 CA


..

.
CAn−1
for n = dim X .
10
se e somente se o posto da matriz





A observabilidade de modelos com incertezas é uma outra questão, não tratada aqui.
CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE
105
Prova: A idéia da prova é semelhante ao caso contı́nuo. Estabeleceremos as
idéias principais. Temos




 
Du0
C
y0


 y1   CA 
CBu0 + CDu1




 
x
+
=

 ..   ..  0 
..


 .   . 
.
P
k−1 j
k
yk
CA
C j=0 A Buk−j−1 + Cuk−1
| {z } | {z }
{z
}
|
Ok
Y
U
Portanto, para k = n − 1 teremos Ox0 = Y − U. Assim, se o posto de O for
n, então as colunas de O são independentes e portanto podemos determinar
x0 a partir de Y e U (e podemos tomar k ∗ = n − 1). Por outro lado, se
o posto de O (que é igual a dim Im O)for menor que n teremos, do fato de
dim Im O +dim ker O = dim X que a dimensão do ker O é não nula. Seja N0 =
ker O. É facil mostrar pelo teorema de Cayley-Hamilton que tal subespaço
coincide com o conjunto dos estados desacoplados da saı́da. Analogamente ao
caso contı́nuo, é fácil mostrar que dois estados iniciais cuja diferença esteja
em ker O é indistinguı́vel do ponto de vista entrada saı́da, isto é, a aplicação
de uma mesma entrada provoca uma mesma saı́da para essas duas condições
iniciais distintas.
l:OeAinvariante
Pela proposição 4, N0 é um subespaço
A-ivariante contido em ker C. PoreOO
tanto, analogamente à equação (4.19), escrevendo o sistema numa base onde os
eOOd primeiros k vetores formem uma base do espaço não observável N 0 , teremos:
realizaequivdiscreto
1
żk+1
2
żk+1
yk
eOOd
1 A11 A12
B1
zk
+
uk
0 A22
zk2
B2
zk1
0 C2
=
+ Duk
zk2
=
(4.43a) eOOad
(4.43b) eOObd
A equação (4.43) sugere a seguinte decomposição do sistema em partes observável e não-observável:
(Parte não-observável)
(Parte observável)
1
żk+1
= A11 zk1 + A12 zk2 + B1 uk
2
żk+1 = A22 zk2 + B2 uk
yk = C2 zk2 + Duk
Note que a saı́da é completamente desconectada da parte não-observável. Note
que A11 , A12 , B1 são componentes da parte não observável e C2 , A22 , B2 é
denominado subsistema observável. A matriz A12 representa um acoplamento
entre a parte observável e a parte não-observável.
4.3.3
Realizações e equivalências
subsec:realizaequivcontinuos
Há uma grande analogia dos tópicos da seção 4.2.4 com os da presente
seção. Assim, desenvolvimento será feito através desta analogia.
106
CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE
Formas canônicas
ss:Formas:Canonicas
As formas canônicas da seção 4.2.5 podem ser obtidas de maneira análoga para sistemas discretos, quando substituı́mos nas equações de estado a
derivação pela operação de avanço, e nos diagramas de bloco substituı́mos a
integração pela operação de atraso. Por exemplo, a forma canônica controlável
de uma função de transferência
g(z) =
b1 z n−1 + b2 z n−2 + . . . + bn
z n + a1 z n−1 + a2 z n−2 + . . . + an
é dada por:


 0
ξk+1
0
1
0
 0

 ξ1
0
1

 k+1 
 .
 .. 
..
..
 .  =  ..
.
.

 n−2 
 0

 ξ
0
0
k+1
n−1
−an −an−1 −an−2
ξk+1
yk =
bn bn−1 . . . b2
...
...
..
.
0
0
..
.

ξk0
ξk1
..
.





...
1   ξkn−2
. . . −a1
ξkn−1
 0 
ξk
 ξ1 
k 



b1  ... 
 n−2 

 ξ
k
n−1
ξk


 
 
 
+
 
 

0
0 


..(4.44a)
u
. 
 k
0 
1
(4.44b)
f:canonica:controlavel:discreta
correspondendo ao diagrama de blocos da figura 4.9(para dimensão 3).
yk
b2
b1
uk
xk
z
xk-1
-1
-a1
z
-1
b3
xk-2
z
-a2
-1
xk-3
-a3
controlavel:discreta
Figura 4.9: Forma canônica controlável (terceira ordem).
CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE
107
Decomposição de Kalman e realizações mı́nimas
As expressões do espaço alcançável a partir da origem e do espaço não
observável nos
casos contı́nuo e discreto são idênticas. Desta forma o enuciado
t:DecKalman
do teorema 4.2.4 e sua respectiva demonstração são exatamente iguais no
caso discreto. A mesma observação é pertinente
para o tópico de matrizes
p:TransfContObs
de Markov, realizações minimais e a proposição 2.
subsub:Realizacao
eed1
Teoria da realização e equivalência
Dada uma matriz de transferência G(z), uma realização de G(z) é um
sistema linear:
xk+1 = Axk + Buk
(4.45a) ee1da
yk = Cxk + Duk
(4.45b) ee1db
k∈N
(4.45c)
tal que G(z) = C(zI − A)−1 B + D. É imediato que, do ponto de vista algébrico, o problema básico da teoria da realização é exatamente igual ao caso
discreto. De fato, isso é conseqüência imediata do fato da expressão da matriz
de trasferência discreta e contı́nua serem
iguais quando substituı́mos z por s e
subsub:Realizacao
vice-versa. Assim, as técnicas da seção 4.3.3 são idênticas para o caso discreto.
Da mesma
maneira, a noção de equivalência se dá de forma idêntica ao final
sub:TeoriaRealizacao
da seção 4.2.8.
Capı́tulo 5
Sistemas Lineares
apresentando Atrasos de
Tempo
João Manoel Gomes da Silva Jr.
UFRGS
email: [email protected]
Valter Leite
CEFET-MG— UnED Divinópolis
email: [email protected]
O presente capı́tulo tem como objetivo apresentar conceitos básicos e propriedades de uma classe particular de sistemas lineares: sistemas apresentando
atrasos de tempo. Tal classe de sistemas pode ser utilizada na modelagem de
uma ampla gama de sistemas fı́sicos. Além disto, a compreensão dos efeitos do
atraso sobre principalmente a estabilidade destes sistemas é de fundamental
importância em sistemas de controle.
5.1
Introdução
jmgomes:intro
O estudo dos efeitos do atraso de tempo em sistemas deve-se, certamente,
às conseqüências importantes que são produzidas pelo atraso sobre as variáveis
de saı́da. No caso de processos industriais, os efeitos negativos do atraso sobre
o desempenho de variáveis controladas já é bastante conhecido. Existem casos
nos quais um pequeno valor de atraso nos estados ou na saı́da do sistema pode
levar a uma redução significativa do desempenho ou até mesmo à perda da
estabilidade. Por outro lado, há casos em que atrasos relativamente grandes
podem ser usados para assegurar a estabilidade do sistema em malha fechada.
Portanto, um entendimento preciso das conseqüências do atraso de tempo
em sistemas é fundamental para, por exemplo, a otimização da produção em
processos industriais ou para a garantia de qualidade do produto final.
108
CAPÍTULO 5. SISTEMAS LINEARES APRESENTANDO ATRASOS DE TEMPO109
É fácil encontrar casos práticos que são fortemente influenciados por atrasos em processos quı́micos (dinâmica de troca de calor em reações quı́micas,
técnicas de recycle steam para melhorar a eficiência de reações), modelos matemáticos para dinâmicas de processos de combustão (modelo para a dinâmica
do torque médio, usado para aproximar máquinas de combustão interna), sistemas elétricos de potência (modelos de linhas de transmissão elétricas sem
perdas), circuitos eletrônicos (circuitos equivalentes com elementos parciais,
PEEC, do inglês Partial Element Equivalent Circuit), e em sistemas hidráulicos (modelos matemáticos para transitórios de pressão e fluxo de fluidos em
linhas hidráulicas), modelos dinâmicos para as oscilações que ocorrem em cortes de metais em ferramentas de usinagem. A presença do atraso de tempo
pode ser percebida também em outras áreas do conhecimento. Alguns exemplos são os sistemas biológicos (modelos matemáticos para o crescimento de
população), sistemas acionados remotamente (nos quais um sistema escravo
segue um sistema mestre), sistemas de controle de tráfego em redes de comunicação de alto desempenho, modelos para redes neurais (redes de Hopfield
e de Cohen-Grossberg). Há ainda que se mencionar o caso de aproximações
matemáticas no qual um sistema de ordem elevada é aproximado por um modelo de ordem mais baixa e um atraso. No contexto das equações diferenciais
parciais (EDP), uma simplificação freqüentemente adotada é a da aproximação de parâmetros distribuı́dos por parâmetros concentrados. Esse tipo de
aproximação é normalmente feita quando o interesse da modelagem está no
comportamento de um ponto (fixo) do espaço. Nesse caso, é, em geral, possı́vel
aproximar uma EDP por um modelo de sistema com atrasos e com dimensão
finita nos estados.
Em geral, pode-se associar o atraso a três origens possı́veis: o atraso pode
advir de uma caracterı́stica intrı́nseca do sistema; pode ocorrer devido à ação
de realimentação usada para controlar uma variável; ou, ainda, ser introduzido intencionalmente na ação de controle. A primeira delas ocorre quando a
equação diferencial que modela o sistema depende de uma função dos estados
atuais e de estados passados. Um exemplo para essa situação pode ser obtido
na modelagem da vibração em um processo de usinagem em que o metal cortado tal como em um torno. A peça de metal a ser trabalhada gira com uma
velocidade angular ω enquanto uma ferramenta de corte avança ao longo do
eixo de rotação com uma velocidade linear ν que determina a espessura dos
cavacos retirados. A ferramenta de corte gera assim uma superfı́cie na medida
em que o metal é removido e toda vibração da ferramenta é transmitida a
essa superfı́cie. Assim, após transcorrido um intervalo de tempo em que a
peça trabalhada completa uma revolução, (∆t = 2π/ω), a ferramenta estará
atuando sobre a superfı́cie usinada anteriormente. Portanto, a equação dinâmica que modela o avanço dessa ferramenta vai depender dos estados atuais
da ferramenta e também de um estado atrasado de τ = ∆t. Outra possibilidade é vinculada à ação de controle de realimentação ou mesmo de atraso
nas medições. Nesse caso o sistema original não possui atrasos, isto é, a taxa
de variação dos estados depende apenas dos estados atuais. Porém a ação de
CAPÍTULO 5. SISTEMAS LINEARES APRESENTANDO ATRASOS DE TEMPO110
controle em malha fechada pode introduzir um atraso, fazendo com que a taxa
de variação dos estados dependa também de estados passados. Um exemplo
é o controle de aceleração em máquinas de combustão interna. Nessas máquinas, a aceleração, ω̇(t) dependente dos torques atuais, proporcionados pelo
atrito e pela carga, e do torque produzido em um instante passado (mas não
de ω(t − τ )). Ao introduzir uma ação de controle realimentada, as equações
dinâmicas de malha fechada para a variável ω̇(t) passa a depender de valores
anteriores de ω(t), ou seja, de ω(t − τ ). Note que o atraso resultante´não é
intencional, mas conseqüência do controle empregado. Finalmente, existem
casos em que o atraso é intencionalmente introduzido, por meio do sistema
de controle, como forma de melhorar o desempenho do sistema. Exemplos
desses casos são o ressonador com atraso, uma estrutura otimizada a partir
de um absorvedor de vibrações clássico em que um elemento ativo com ação
dependente de um estado atrasado é introduzido, e as colunas de destilação
em que os sinais de controle são atrasados como forma de compensar o forte
acoplamento entre as variáveis do processo.
A variedade de situações nas quais o atraso de tempo apresenta uma forte
influência é, portanto, bastante grande. Por isso mesmo o estudo da estabilidade de sistemas com atraso tem chamado a atenção de estudiosos desde o
século 18, com os trabalhos de Bernoulli, Euler e Lagrange, por exemplo. No
inı́cio do século 20 o foco dos trabalhos é dirigidos para a modelagem de sistemas em engenharia, biologia e ecologia. As questões vinculadas à estabilidade
de tais sistemas recebem atenção a partir do trabalho de Pontryagin (1942) em
que são estudadas as raı́zes de algumas funções transcendentais, entre elas os
quasipolinômios. A partir de 1980 a estabilidade de sistemas com atraso passa
a representar uma importante parcela dos trabalhos técnicos produzidos nas
área de controle e matemática. Em geral, para esse tipo de análise, admite-se
que o sistema esteja descrito por equações diferenciais funcionais (EDF). Essas
equações são mais complexas que as tradicionais equações diferenciais ordinárias (EDO). Por exemplo, para que sejam satisfeitas as condições de existência
e unicidade de soluções, as EDF precisam não apenas do valor dos estados
iniciais, isto é x(t0 ), mas também dos valores dos estados em um intervalo de
tempo t ∈ [t0 − τ, t0 ], τ ≥ 0. Assim, as EDFs determinam uma classe de
sistemas que contem como caso particular a dos sistemas lineares invariantes
no tempo e livres de atraso.
Outra classe importante (e mais geral) de sistemas com atraso é formada
pelos sistemas neutros. Nesse caso, o valor da derivada dos estados atuais
dependente da derivada do estado atrasado além dos valores atuais e passados
dos estados. Nesse caso o sistema pode ser descrito por uma equação diferencial
hiperbólica (EDH) cuja análise é ainda mais complexa que no caso das EDF.
Dada a motivação prática exposta acima e a complexidade matemática
envolvida no tratamento de sistemas apresentando atrasos, esta área tem
sido ativo objeto de estudo de vários pesquisadores e grande é o número de
publicações dedicadas ao tema. Uma sistematização dos proncipais resultahale/book
dos de base podem ser, por exemplo, encontrados nos livros de Hale (Hale
CAPÍTULO 5. SISTEMAS LINEARES APRESENTANDO ATRASOS DE TEMPO111
kol:mys/book
and
Lunel, 1993), Kolmanovski
(Kolmanovskii and Myshkis, 1992), Niculescu
nic/book
gu:kha:che/book
(Niculescu, 2001) e Gu (Gu, Kharitonov and Chen, 2003). Interessantes coletâneas de resultados e uma visão do estado da arte na análise de sistemas
com atraso e estratégias de controle
para este tipogu:nic/asme03
de sistemas podem ser
ric/auto03
encontrados, por exemplo, em (Richard, 2003a), e (Gu and Niculescu, 2003).
O presente capı́tulo tem então por objetivo apresentar, de forma resumida,
as principais definições, conceitos, propriedades e classificações fundamentais
sobre sistemas com atraso, as quais servirão de base para a compreensão da
problemática e para o estudo de resultados mais especı́ficos encontradas na
literatura. Ênfase especial será dada a análise de estabilidade tanto segundo
uma análise freqüêncial, com a conseqüênte análise de equações caracterı́sticas trancedentais, quanto segundo uma representação por espaço de estados,
focalizando sobretudo as abordagens de Liapunov-Krasovskii e Razhumikin.
Alguns exemplos práticos de sistemas com atrasos são discutidos. Ao final do
capı́tulo, alguns trabalhos recentes envolvendo sistemas com atraso, sobretudo
sob o ponto de vista de técnicas de controle, são elencados.
5.2
Definições Básicas e Classificações
jmgomes:def
Um sistema linear pode apresentar atrasos em suas entradas, saı́das e estados. De ric/auto03
uma maneira geral, a descrição desse sistema é dada pelas seguinte
equações (Richard, 2003a):
"
#
q
k
r Z t
X
X
X
d
(Gj x(θ))+Hj u(θ))dθ
x(t) −
D` x(t − φ` ) =
(Ai x(t−τi ))+Bi u(t−τi )+
dt
t−ηj
i=0
`=1
j=1
(5.1) eq:egenerica
y(t) =
k
X
(Ci x(t − τi )) +
i=0
r Z
X
j=1
t
(Nj x(θ))
(5.2) eq:sgenerica
t−ηj
em que h0eq:egenerica
= 0 por definição e τi , ηj e φeq:sgenerica
` representam os atrasos no tempo. A
equação (5.1) é a equação de estado e (5.2) é a equação de saı́da.
Cabe ressaltar que nem todos os termos dessas equações devem estar presentes. Por outro lado, basta que um deles esteja para que consideremos o
sistema como um “sistema com atraso”. A seguir, eq:egenerica
são apresentadas
algumas
eq:sgenerica
definições e considerações com relação ao sistema (5.1)-(5.2).
5.2.1
Sistemas com atrasos × sistemas neutros
eq:egenerica
O sistema (5.1) é chamado sistema neutro ou sistema do tipo neutro se
existe pelo menos uma matriz D` e um atraso φ` , ` = 1, . . . , k, ambos não
nulos. Se D` = 0, ∀`, então o sistema é denominado sistema com atraso. Note
que nos sistemas neutros, a derivada de x(t) depende também de sua derivada
em instantes passados,
x(t − φ` ). Esse fato torna o cálculo de soluções para a
eq:egenerica
equação diferencial (5.1),
e a conseqüente análise de estabilidade do sistema,
bel:zen/TDS01
bem mais complexo (Bellen and Zennaro, 2001).
CAPÍTULO 5. SISTEMAS LINEARES APRESENTANDO ATRASOS DE TEMPO112
5.2.2
Atrasos discretos × atrasos distribuı́dos
eq:egenerica
eq:sgenerica
Os termos associados a x(t − τi ) e u(t − τi ) em (5.1) e (5.2) correspondem a
atrasos discretos, também chamados de concentrados. Por outro lado, os termos associados à integral de x(θ) ou u(θ) correspondem a atrasos distribuı́dos.
Para um sistema apresentando apenas atrasos discretos, diz-se que o mesmo
apresenta atraso simples se k = 1 e múltiplos atrasos se k > 1. Atrasos múltiplos são ditos comensurados se τi , i = 1, . . . , k são multiplos inteiros de um
fator comum τ , isto é, τi = iτ , i = 1, . . . ,k. Caso contrário os atrasos são
denominados incomensurados.
5.2.3
Atrasos invariantes no tempo × atrasos variantes no tempo
Em muitos sistemas práticos os atrasos podem variam ao longo do tempo.
Nesses casos, a dependência de t é adotada na notação: τi (t), ψi (t) e η(t).
Para fins de análise de estabilidade considera-se também que a variação do
atraso dá-se dentro de um certo intervalo, por exemplo τi (t) ∈ [τmin τmax ],
com 0 ≤ τmin e τmax < ∞.
Muitas vezes, os atrasos são invariantes no tempo, mas incertos, ou seja,
podem assumir qualquer valor fixo dentro de um certo intervalo.
5.2.4
O estado em sistemas com atraso
eq:egenerica
A equação 5.1 é dita uma equação diferencial funcional (EDF). Diferentemente de uma equação diferencial ordinária (EDO), uma EDF apresenta
dimensão infinita. Pela presença de atrasos, a solução de uma EDFs não podem ser unicamente caracterizada a partir da condição inicial no instante de
tempo t = t0 e pelo conhecimento da entrada a partir de t = t0 como nas
EDOs. Neste caso, a solução a partir de um dado instante t = t0 será caracterizada de forma única pelo conhecimento do valor do estado e da entrada no
intervalo [t0 − h, t0 ], sendo h = maxi,j,l {τi ,ηj ,φl }, ou seja,
xt0 = x(t0 + θ) = φ(θ),
ut0 = u(t0 + θ),
−h ≤ θ ≤ 0
−h ≤ θ ≤ 0
(5.3) eq:cis
Assim, como ẋ(t) é na verdade uma função de xt = x(t + θ), para −h ≤ θ ≤ 0
o espaço de estados é agora definido sobre um conjunto de funções (e não
mais pontos no espaço euclidiano) que mapeiam o intervalo [−h,0] em <n ,
com topologia de convergência uniforme. Neste caso é natural considerar a
seguinte definição de norma
||xt ||c =
sup ||x(t + θ)||
(5.4) eq:normaC
θ∈[−h,0]
Considerando-se então Ch = C([−h,0], <n ) como o espaço de Banach the funções vetoriais eq:normaC
contı́nuas xt mapeadas do intevalo [−h,0] em <n com norma
definida por (5.4) é também usual considerar que xt pertence ao seguinte conjunto de funções:
Chv = {xt ∈ Ch ; || xt ||c < v, v > 0}
CAPÍTULO 5. SISTEMAS LINEARES APRESENTANDO ATRASOS DE TEMPO113
5.2.5
Estabilidade
Sistemas com atraso
Considere um sistema linear retardado autônomo (u(t) = 0, ∀) descrito de
forma compacta como:
ẋ(t) = f (t, xt )
(5.5) eq:retcompacta
com condição inicial xt0 = φ(θ), ∀θ ∈ [−h,0] e f (t, xt ) : <+ × Chv → <n sendo
uma função linear, tal que f (t,0) = 0. Denotando a solução, ou trajetória,
do sistema para esta condição inicial como x(t0 , φ), tem-se então a seguinte
definição.
eq:retcompacta
Definição 5.2.1
1. A solução trivial x(t) = 0 de (5.5) é dita assintoticamente estável se:
a) para qualquer κ > 0 e para qualquer t0 > 0 existe um δ = δ(κ),
independente de t0 , tal que para qualquer condição inicial φ ∈ Chδ ,
xt (t0 , φ) ∈ Chδ , ∀t ≥ t0 .
b) para qualquer η > 0 e para qualquer t0 ≥ 0 existe um T (η), independente de t0 , e v0 , independente de η e t0 , tal que para qualquer
condição inicial φ ∈ Chv0 tem-se que ||xt (t0 , φ)||c ≤ η, ∀t ≥ t0 +T (η).
eq:retcompacta
2. A solução trivial x(t) = 0 de (5.5) é dita exponencialmente estável se
existe um B > 0 e um α > 0 tais que para toda condição inicial φ ∈ Chv0
tem-se que ||xt (t0 , φ)||c ≤ Be−α(t−t0 ) ||φ||c
Sistemas Neutros
Condições de Estabilidade Dependentes × Independentes do Atraso
Na literatura encontram-se basicamente condições de estabilidade que podem ser classificadas em dois grupos. O primeiro diz respeito a condições que
garantem a estabilidade do sistema não importando o tamanho do(s) atraso(s)
e se o(s) mesmo(s) varia(m) com o tempo. Neste caso diz-se que a condição é
independente do atraso. O segundo grupo considera condições em que há uma
dependência explı́cita do tamanho do atraso e/ou da sua taxa de variação, ou
seja, diz-se que a condição é dependente do atraso. Neste caso, é comum definir condições de estabilidade do estilo ”o sistema é estável para todo atraso
h ∈ [hmin , hmax ] e |ḣ| < d”. De maneira geral, condições independentes do
atraso tendem a ser mais conservativas, uma vez que garantem estabilidade
para qualquer tipo de atraso.
5.3
jmgomes:freq
jmgomes:sistrel
5.3.1
Abordagem Freqüêncial
Sistemas realimentados com atrasos
- motivar discutindo o caso de estabilidade de um sistema realimentado:
mostrar a influência do atraso na estabilidade através de Bode e Lugar das
CAPÍTULO 5. SISTEMAS LINEARES APRESENTANDO ATRASOS DE TEMPO114
raı́zes
gomes:eqcaracterisca
5.3.2
Equações caracterı́sticas
A formulação entrada-saı́da genérica correspondente ao sistema
é obtida
eq:egenerica
eq:sgenerica
a partir da aplicação da transformada de Laplace às equações ( 5.1) e (5.2),
obtendo-se então:
y(s) = C(s)(sI − A(s))−1 B(s)u(s)
com
C(s) =
A(s) =
B(s) =
Pk
Pr 1−e−sηj
−sτi +
l=0 Ci e
s
Pkj=1 −sτ
Pq
Pr
1−e−sηj
−sψl
i +
D
se
A
e
i=0 i
j=1 Gj
l=0 l
s
Pk
Pr
1−e−sηj
−sτ
i
+ j=1 Hj s
i=0 Bi e
(5.6) eq:es-generica
(5.7) eq:matrizesfreq
A exemplo dos sistemas lineares sem atraso, equação caracterı́stica é dada
então por
∆(s) = det(sI − A(s))
(5.8) eq:caracteristica
e o espectro do sistema é definido como σ(A) = {s ∈ C, ∆(s) = 0}
eq:eq:caracteristica
É importante notar que ?? é uma equação transcedental, com um número
infinito de soluções o que leva a conclusão de que o espectro do sistema é de
dimensão infinita.
Como noeq:eq:caracteristica
caso de sistemas lineares sem atraso, as raı́zes da equação caracterı́stica ?? tem um papel fundamental na caracterização da estabilidade
assintótica do sistema, como segue:
Sistemas com atraso (Dl = 0):
Neste caso a extensão do resultado para EDOs é direta, ou seja, o sistema
é dito assintoticamente estável se e somente se todas as raı́zes do polinômio
caracterı́stico possuem parte real estritamente negativa
Sistemas Neutros (Dl 6= 0):
Neste caso a extensão não é direta devido ao fato de que podem aparecer um número infinito de raı́zes do polinômio caracterı́stico
com parte real
P
positiva ou nula (instáveis) devido ao termo −s ql=1 Dl esψl que aparece no
determinante.
jmgomes:estab-freq
5.3.3
Critérios de Estabilidade
Considere a equação caracterı́stica de um sistema retardado dado na genericamente na forma do seguinte quasipolinômio:
P (s, es ) =
q
p X
X
i=0 k=0
aik si eki
CAPÍTULO 5. SISTEMAS LINEARES APRESENTANDO ATRASOS DE TEMPO115
sec:
Como visto na seção ??, a análise da estabilidade de um sistema linear retardado, pode ser feita a partir da análise das raı́zes da equação caracterı́stica.
A seguir são apresentados suscintamente alguns métodos
para tanto. Mais
denic/book
stepan/book
talhes sobre
tais métodos podem ser encontrados em (Niculescu, 2001),(Stépán,
hale/book
1989),(Hale and Lunel, 1993).
pon/53
• Critério de Pontryagin (Pontryagin, 1953):
Suponha que o termo principal de P (s, es ), apq 6= 0. Sejam F (w) e G(w),
respectivamente, a parte real e imaginária de P (s, es ). Então:
– Se todas as raı́zes de P (s, es ) estão em C− , então as raı́zes de F (w)
e G(w) são reais, simples, alternadas e:
F 0 (w)G(w) − F (w)G0 (w) > 0, ∀w ∈ <
(5.9) eq:pontryagin
– Todas as raı́zes de P (s, es ) estão em C− se uma das condições abaixo
é satisfeita:
a) Todas
as raı́zes de F (w) e G(w) são reais, simples, alternadas
eq:pontryagin
e (5.9) é satisfeita para ao menos um w ∈ <.
b) Todas as raı́zes de F (w) (ou G(w)) sãoeq:pontryagin
reais, simples, alternadas e cada uma destas raı́zes verifica (5.9).
Uma recente aplicação
deste método em sistemas de controle, pode ser
sil:dat:bha/ieee02
encontrada em (Silva and Bhattacharyya, 2002)
• Métodos baseados no Princı́pio do Argumento
Tais métodos podem ser vistos como uma extensão dos critérios de Nyquist para sistemas apresentando atrasos.
Considerando um sistema linear com um único atraso (L), tem-se que a
equação caracterı́stica é dada genericamente por:
Fs = sn +
n
X
ak e−Ls
k=1
Assumindo agora que F(s) não possui raı́zes imaginárias, tem-se
que
kol:nos/book
F(jw) = u(w)+jv(w), com u(w) 6= 0. O critério de Michailov (Kolmanovskii
and Nosov, 1986) diz então que o sistema é assintoticamente estável se
e somente se a variação de arg{F(jw)} é nπ
2 quando w varia de 0 a ∞.
Este critério é basicamente um método gráfico ou geométrico.
d
arg{F(jw)}, tem-se que, para sistemas com
Definindo-se I(w) = dw
um único atraso, o critério de Michailov é equivalente
a satisfação da
kol:mys/book
seguinte condição
sobre a integral de I(w) (Kolmanovskii and Myshkra/siam64
kis, 1992),(Krall, 1964).
Z ∞
nπ
I(w) =
2
0
CAPÍTULO 5. SISTEMAS LINEARES APRESENTANDO ATRASOS DE TEMPO116
• Método do Lugar das raı́zes
O método do lugar das raı́zes, como visto no capı́tulo ??, permite avaliar
graficamente o comportamento das raı́zes de um dado polinômio considerando a variação de um de seus parâmetros. Tal método pode ser
extendido a análise do impacto sobre a estabilidade e desempenho provocado pela variação de um certo parâmetro em sistemas realimentados
apresentando atrasos na malha de controle. Uma vez que, a partir de
uma expansão em série de Taylor, pode-se considerar que um termo e −Ls
apresenta infinitos pólos, o lugar das raı́zes neste caso apresentará infinitos ramos e infinitos pontos de cruzamento com o eixo imaginário, os
quais determinarão o valor crı́tico parâmetro variante (e.g. ganho crı́tico
da malha) para o qual
a estabilidade é garantida. Um exemplo deste fato
ogatta/book
é apresentado em (Ogatta, 1994). Outros exemplos e considerações sobre
asuh:bie/ieee82
aplicação do método a sistemas com atraso podem ser encontrados em
(Suh and Bien, 1982)
• τ -decomposição
Este método aplica-se apenas a sistemas apresentando um único atraso.
O método consiste em obter uma função Do isolando-se o termo do atraso
no polinômio caracterı́stico, isto é, e−τ s = Do (s) e, em seguida, avaliar
o comportamento
de Do (jw) com relação ao cı́rculo unitário do plano
hsu/jam70
complexo (Hsu, 1970).
5.3.4
Aproximações Racionais para Atrasos
A fim de evitar o problema de análise de equações caracterı́sticas transcedentais, uma idéia é utilizar aproximações do(s) termo(s) exponenciais e −τ s
através de funções racionais, cujo polinômio do numerador é de grau p e o do
denominador é de grau q. Tais aproximações, consistem basicamente na obtenção uma função racional correspondente
a um truncamento da expansão de
mak/auto90
e−τ s em série de Fourier-Laguerre (Mäkilä, 1990). Como exemplos, podemos
citar:
franklin/book
• Aproximações de 1a ordem de Padé (Franklin, Powell and Naeini, 1994):
1
−τ s ≈ 1−(τ s)/2
e−τ s ≈ 1+τ
s; e
1+(τ s)/2
mak:par/ijc99
1−(τ s)/2n n
• Fórmula de Laguerre (Mäkilä and Partington, 1999): e−τ s ≈ ( 1+(τ
s)/2n )
2
2
s)/2n+(τ s) /8n n
• Fórmula de Kautz: e−τ s ≈ ( 1−(τ
)
1+(τ s)/2n+(τ s)2 /8n2
2
2
s)/2n+(τ s) /12n n
)
• Aproximações de Padé de 2a ordem: e−τ s ≈ ( 1−(τ
1+(τ s)/2n+(τ s)2 /12n2
Via de regra, pode-se dizer que as aproximações tendem a ser melhores
quanto menor for o atraso. É no entanto importante ressaltar que a utilização
de tais aproximações na análise
de estabilidade de sistemas deve ser feita com
sil:dat:bat/cdc01
cuidado. Por exemplo, em (Silva, Datta and Bhattacharyya, 2001), é mostrado
CAPÍTULO 5. SISTEMAS LINEARES APRESENTANDO ATRASOS DE TEMPO117
que utilizar tais aproximações para o projeto de controladores podem levar o
sistema real a um comportamento estável. Discussões
mais detalhadasgu:nic/asme03
e referic/auto03
rências a este respeito podem ser encontradas em (Richard, 2003a) e (Gu and
Niculescu, 2003). Uma comparação de aproximaçoes relativa a suas aplicações
na análise de estabilidade via lugar das raı́zes pode ser encontrada em
5.4
Abordagem Espaço de Estados
jmgomes:ee
A análise de estabilidade de sistemas com atraso utilizando-se modelos
descritos no espaço de estados, consiste basicamente na aplicação do segundo
método de Lyapunov. Duas abordagens podem ser identificadas neste sentido: a abordagem de Krasovskii, onde a evolução do estado é analisada sobre
um espaço de funções e considera-se um funcional de Lyapunov; e a abordagem de Razumikin, pela qual a análise é feita considerando-se a evolução das
trajetórioas em um espaço Euclidiano.
5.4.1
Análise de Estabilidade - Abordagem de Liapunov-Krasovskii
Esta abordagem esta baseada na utilização uma função de Lyapunov que
dependa não apenas de x(t), mas xt , isto é, considera-se um funcional V (t,xt ).
Tal funcional é conhecido como funcional de Liapunov-Krasovskii. A fim de
se concluir sobre a estabilidade do sistema, define-se:
V̇ (t, φ) =
1
d
V (t,xt ) |xt =φ = lim sup∆t→0 [v(t + ∆t, xt+∆t (t, φ) − V (t, φ)]
dt
∆t
Assim, intuitivamente, se V̇ (t, φ) é não crescente, tem-se que xt não ”cresce”com
teo:kra
o passar do tempo. Este fato é formalizado a seguir nos Teoremas 5.4.1 e ??.
mgomes:estab-delayed
Sistemas com atraso
Teorema 5.4.1 (Teorema de Krasovskii) Suponha que a função f : <×Cn,τ →
<n aplique conjuntos limitados de Cn,r em conjuntos limitados de <n , e suponha que u(s), v(s) e w(s) são funções contı́nuas, não-negativas e nãodecrescentes, com u(s), v(s) > 0 for s 6= 0 and u(0) = v(0) = 0.
Se existe uma função V : < × Cn,τ → <n tal que:
(i) u(||φ(0)||) ≤ V (t, φ) ≤ v(||φ||c )
(ii) V̇ (t, φ) ≤ −w(||φ(0)||)
eq:retcompacta
então a solução x = 0 da equação (5.5) é uniformemente estável.
Se u(s) → ∞ quando s → ∞ as suções são uniformemente limitadas.
Se w(s) > 0 para s > 0, então a solução x = 0 é uniformemente asssintoteo:kra ticamente estável.
CAPÍTULO 5. SISTEMAS LINEARES APRESENTANDO ATRASOS DE TEMPO118
Por exemplo, considerando o seguinte sistema linear simples, com um delay
apenas
ẋ = A0 x(t) + A1 x(t − h)
(5.10) eq:sis1delay
o seguinte funcional de Krasovskii pode ser usado para derivar uma condição
suficiente de estabilidade para o sistema:
0
V (t,xt ) = x(t) P x(t) +
Z
0
x(t + θ)0 Sx(t + θ)dθ
−h
eq:sis1delay
Com efeito, avaliando-se V̇ (t, φ) ao longo das trajetórias de 5.10 tem-se que
V (t,xt ) = x(t)0 (A00 P +P A0 x(t)+2x(t)0 P A1 x(t−h)+x(t)0 Sx(t)−x(t−h)0 Sx(t−
h), donde conclui-se que o sistema será asssitoticamente estável se a a seguinte
inequação matricial linear (LMI) for satisfeita:
0
A0 P + P A 0 + S P A 1
<0
A01 P
−S
Note que, como a LMI independe de h, a mesma constitui-se em uma condição de estabilidade independente do atraso. Em geral, condições dependentes
atraso e/ou com atrasos distribuı́dos necessitam da utilização
de funcionais
sec:trans
mais complexos e de certas transformações (vide seção ??). Via de regra, tais
funcionais são gerados a partir da combinação dos seguintes termos:
R0
V1 = x0 (t)P x(t)
V2 = x(t)0 −hi Qi x(t + θ)dθ
R0
R0 Rt
V3 = −hi x(t + θ)0 Si x(t + θ)dθ V4 = −τi t+θ x(t + θ)0 Ri x(t + θ)dθ
R0 R0
R0
V5 = x(t)0 −hi Pi (η)x(t + η)dη V6 = x(t)0 −hi −hi x(t + η)0 Pi (η, θ)x(t + η)dηdθ
Em particular, V 3 e V4 são utilizados para se obter condições para sistemas com atrasos distribuı́dos, ou
condições dependendtes do atraso para siskol:nic:ric/ijc99
temas
com
atrasos
discretos
(
Kolmanovskii,
Niculescu and Richard, 1999),
nic/book
gu:kha:che/book
(Niculescu, 2001), (Gu et al., 2003). V5 e V6 aparecem
na derivação de
inf:cas/jde78
consições
necessárias
e
suficientes
para
estabilidade
(
Infante
and Castelan,
lou/springer91 gu/ijrnc99
1978),(Louisell, 1991),(Gu, 1999).
jmgomes:neutral
Sistemas ”Neutros”
5.4.2
Análise de Estabilidade - Abordagem de Liapunov-Razumikhin
Nesta abordagem utiliza-se uma função V (x) como medida de x(t). Para
tal função define-se:
V̄ (xt ) = max V (x(t + θ))
θ∈[−h,0]
a qual serve como uma medida do ”tamanho”de xt . Assim, se V (x(t)) < V̄ (xt ),
então V̇ (x(t)) > 0 não faz V̄ (xt ) crescer. Neste caso, para que V̄ (xt ) não cresça
é apenas necessário que V̇ (x(t)) seja não eq:raz
positivo quando V (x(t)) = V̄ (xt ).
Este raciocı́nio é formalizado no Teorema ?? a seguir.
CAPÍTULO 5. SISTEMAS LINEARES APRESENTANDO ATRASOS DE TEMPO119
Teorema 5.4.2 (Teorema de Razumikhin) Suponha que a função f : < ×
Cn,τ → <n aplique conjuntos limitados de Cn,r em conjuntos limitados de <n ,
e suponha que u(s), v(s) e w(s) são funções contı́nuas, não-negativas e nãodecrescentes, com u(s), v(s) > 0 for s 6= 0 and u(0) = v(0) = 0.
Se existe uma função contı́nua V : < × <n → < tal que
u(||x||) ≤ V (t,x) ≤ v(||x||)
então segue que
(i) V̇ (t,x(t)) ≤ −w(||x||) se V eq:retcompacta
(t + θ, x(t + θ)) < pV (t,x(t)), ∀θ ∈ [−τ, 0]
então a solução trivial de (5.5) é uniformemente estável.
(ii) Se existe uma função contı́nua e não decrescente p : <+ → <+ , p(s) > s
tal que V̇ (t, x(t)) ≤ −w(||x||) se eq:retcompacta
V (t + θ, x(t + θ)) < pV (t,x(t)), ∀θ ∈
[−τ, 0] então a solução trivial de (5.5) é uniformemente assintoticamente
estável.
teo:raz
Se neste caso u(s) → ∞ quando s → ∞, então a solução trivial é globalmente assintoticamente estável.
Considerando-se, porteo:raz
exemplo, uma função quadrática V (x(t)) = X(t) 0 P x(t),
aplicando-se o Teorema
5.4.2 com p(s) = (1 + )s, > 0, e w(s) = s2 , tem-se
eq:sis1delay
que o sistema (5.10) será estável se
V̇ (x(t)) + α[(1 + )V (x(t)) − V (x(t − τ ))] < −||x(t)||2
com α ≥ 0, o que leva a seguinte condição de estabilidade independente do
atraso na forma de LMI:
0
A0 P + P A0 + αP P A1
<0
A01 P
−αP
5.4.3
Transformações
Algumas transformações envolvendo o termo de atraso permitem re-escrever
o sistema em formas apropriadas com o objetivo principal de se obter condições
de estabilidade dependentes do atraso. A seguir apresentamos 2 transformações bastante usuais.
Outros tipos de transformações
podem ser encontradas,
nic/book
gu:kha:che/book
por exemplo em (Niculescu, 2001) e Gu (Gu et al., 2003).
Transformação de Newton-Leibinitz
Esta transformação é especialmente utilizada na dedução de condições de
estabilidade dependentes do atraso e baseia-se no seguinte fato:
x(t − h) = x(t) −
Z
0
ẋ(t + θ)dθ
−τ
CAPÍTULO 5. SISTEMAS LINEARES APRESENTANDO ATRASOS DE TEMPO120
eq:sis1delay
Usando este fato, o sistema (5.10) é transformado no seguinte sistema apresentando atrasos distribuı́dos:
Z 0
[A0 x(t + θ) + A1 x(t + θ − τ )]dθ
(5.11) eq:sisttrans
ẋ = (A0 + A1 )x(t) − A1
−τ
A presente transformação introduzeq:sisttrans
dinâmicas adicionais ao sistema. Este
a estabilidade donic/book
sistema,
fato faz com que a estabilidade de (5.11)implica
gu:nic/ieee01
mas o inverso nem sempre é verdadeiro (Gu and Niculescu, 2001), (Niculescu,
2001).
Estanic/book
transformação é também conhecida como ”transformação de primeira
ordem”(Niculescu, 2001), uma vez que apenas uma integração foi considerada.
Uma segunda integração geraria uma ”transformação de segunda ordem”e a
assim por diante.
Uma generalização desta
transformação são as transformações de primeira
gou:dam:ric/scl97
ordem
parametrizadas
(Goubet-Bartholomeus, Dambrine and Richard, 1997),
nic/book
ric/auto03
(Niculescu, 2001), (Richard, 2003a).
Transformação em Sistema Descritor
fri:sha/scl01
Proposta inicialmente em (Fridman, 2001), a idéia básica desta transformação é a re-escrita do sistema na forma de um sistema descritor como segue:
I 0
ẋ(t)
0
I
x(t)
0 0
x(t − h)
=
+
(5.12) eq:sistdescriptor
0 0
ẏ(t)
A0 −I
y(t)
A1 0
y(t − h)
A presente transformação, tem se revelado particularmente interessante
na obtenção de condições de estabilidade dependente do atraso e envolvendo
atrasos variantes no tempo
a partir da utilizaçao
de funcionais de Lyapunovfri:sha/scl01
fri:sha/ieee02
Krasovskii apropriados (Fridman, 2001), (Fridman and Shaked, 2002).
jmgomes:discreto
5.4.4
Sistemas em Tempo Discreto
Modelos em tempo discreto, aparecem usualmente quando da modelagem
matemática de sistemas contı́nuos amostrados, como visto no capı́tulo XX, ou
na descrição de comportamentos eminentemente discretos que aparecem entre
outros em economia e sistemas de produção. Neste caso, os atrasos são interpretados como números inteiros, os quais representam uma dada quantidade
de amostras.
A seguir, para fins de análise, consideraremos o seguinte sistema simplificado, apresentando um só atraso 1 :
x(k + 1) = Ax(k) + Ad x(k − τ (k))
(5.13) eq:discreto
onde k, e τ (k) são inteiros maiores ou iguais a zero. Note que para a determinação do estado no instante k + 1 necessitamos não somente de seu valor no
instante k (anterior), mas também de seu valor no instante k − τ (k), isto é, o
valor que o estado apresentava em τ (k) instantes anteriores.
1
a extensão ao caso apresentando múltiplos atrasos é imediata
CAPÍTULO 5. SISTEMAS LINEARES APRESENTANDO ATRASOS DE TEMPO121
Atrasos Invariantes
Considere que τ (k) = h corresponde a um inteiro fixo e bem conhecido
de
eq:discreto
amostras. A partir de um aumento do vetor de estados, o sistema (5.13) pode
então ser re-escrito como:

 


x(k)
A 0 . . . Ad
x(k + 1)
  0 0 . . . 0   x(k − 1) 

x(k)

 


(5.14) eq:aumentado

 =  .. ..

..
..
..  

  . . ...

.
.
. 
x(k − h + 1)
0
0 ...
x(k − h)
0
ou seja, este corresponde ao caso trivial em que o sistema pode ser re-escrito na
forma de um sistema aumentado sem atraso. Observe também que este sistema
apresenta h−1 autovalores na origem. Obviamente que, quanto maior o atraso,
maior será a ordem do sistema aumentado. Para atrasos, suficientemente
grandes, a utilização desta abordagem pode se tornar proibitiva. Neste caso,
convenientes adaptações para o caso discreto das abordagens de Razhumikhin
e de Krasovskii podemeq:discreto
ser usadas para analisar diretamente a estabilidade
equação de diferenças (5.13).
Atrasos Variantes no Tempo
No caso em que o valor exato (em termos de números de amostars) atraso
é desconhecido (incerto) ou varia a cada instante k, torna-se impossı́vel a
representaçao do sistema através de um sistema aumentado.
A idéia neste caso consiste em adaptar os métodos de análise baseados
nos teoremas de Razumikhin e de Krasovskii e a obtenção de condições de
estabilidade dependentes ou independentes do atraso. Por exemplo, no caso
de atrasos incertos
0 < τ (k) ≤ h um funcional de Lyapunov na seguinte forma
lee:kwon/ifac02
pode ser usado (Lee and Kwon, 2004):
0
V (k) = x(k) P x(k)+
−1
X
k
X
0
(x(j)−x(j−1)) Z(x(j)−x(j−1))+
β=−h j=k+β+1
k−1
X
x(j)0 Qx(j)
j=k−h
Maiores detalhes sobre a análise de estabilidadever:iva/cdc95
no caso em que o atraso
élee:kwon/ifac02
incerto, podem ser encontrados
por
exemplo
em
(
Verrist
and Ivanov, 1995),
che:gua:lu/iee03
gao:lam:wag:xu/ijc04
(Lee and Kwon, 2004) (Chen, Guan and Lu, 2003), (Gao, Lam, Wang and
Xu, 2004). wu:hong/ieee94
Os trabalhos considerando
atrasos variantes são escassos (vide por
fri:sha/ijc05
exemplo) (Wu and Hong, 1994) e (Fridman and Shaked, 2005).
jmgomes:exemplos
jmgomes:outros
5.4.5
Exemplos práticos
5.4.6
Outros Trabalhos na Área
Referências Bibliográficas
AM89
Anderson, B. D. O. and Moore, J. B. (1989). Optimal Control: Linear Quadratic Methods, Prentice-Hall, Englewood Cliffs, N.J.
Barnett83
Barnett, S. (1983). Polynomials and Linear Control Theory, Marcel Dekker,
New York.
BG97
Barrow-Green, J. (1997). Poincaré and the Three Body Problem, American
Mathematical Society/London Mathematical Society, Providence, RI.
BM92
Basile, G. and Marro, G. (1992). Controlled and Conditioned Invariants in
Linear System Theory, Prentice-Hall.
bel:zen/TDS01
Bellen, A. and Zennaro, M. (2001). A free step-size implementation of second
order stable methods for neutral delay differential equations, Proc. of the
3rd IFAC Workshop on Time Delay Systems, Sante Fe, USA, pp. 321–335.
BN01
Ben-Tal, A. and Nemirovski, A. (2001). Lectures on Modern Convex Optimization: Analysis, Algorithms, and Engineering Applications, Vol. 2 of
MPS/SIAM Series on Optimization, SIAM, Philadelphia, PA.
BCK95
Bhattacharyya, S. P., Chapellat, H. and Keel, L. H. (1995).
Robust
Control:
The
Parametric
Approach,
PrenticeHall, Upper Saddle River, N. J.
Disponı́vel no sı́tio
http://www.ece.tamu.edu/˜bhatt/books/robustcontrol/robustcontrol.pdf.
BEFB94
Boyd, S., Ghaoui, L. E., Feron, E. and Balakrishnan, V. (1994). Linear Matrix
Inequalities in System and Control Theory, SIAM, Philadelphia.
CD91
Callier, F. M. and Desoer, C. A. (1991). Linear System Theory, Springer
Verlag, New York.
Che70
Chen, C. T. (1970). Introduction to Linear System Theory, Holt, Rinehart
and Winston, New York.
Che93
Chen, C.-T. (1993). Analog & Digital Control System Design, Saunders College Pub.
Che99
Chen, C.-T. (1999a). Linear System Theory and Design, 3rd edn, Oxford
University Press, New York.
122
REFERÊNCIAS BIBLIOGRÁFICAS
123
Chen99
Chen, C.-T. (1999b). Linear System Theory and Design, 3rd edn, Oxford
University Press, New York.
che:gua:lu/iee03
Chen, W. H., Guan, Z. H. and Lu, X. (2003). Delay-dependent guaranteed
cost control for uncertain discrete-time systems with delay, IEE Proc. of
Control Theory and Applications 150: 412–416.
dePaor03
de Paor, A. (2003). Pascal–Routh polynomials: a first exploration in feedback
system design, Internat. J. Control 76(4): 386–389.
DB01
Dorf, R. and Bishop, R. (2001). Sistemas de Controle Modernos, 8 edn, LTC.
Evans48
Evans, W. R. (1948). Graphical analysis of control systems, AIEE Trans.
67: 547–551.
FPE02
Franklin, G. F., Powell, J. D. and Emami-Naeini, A. (2002). Feedback Control
of Dynamic Systems, 4th edn, Prentice Hall, Upper Saddle River, N. J.
FPE94
Franklin, G., Powell, J. and Emami-Naeini, A. (1994). Feedback Control of
Dynamic Systems, 3rd edn, Addison-Wesley.
franklin/book
Franklin, G., Powell, J. and Naeini, A. (1994). Feedback control of dynamic
systems, 3a edn, Addison-Wesley.
fri:sha/scl01
Fridman, E. (2001). New lyapunov-krasovskii functionals for stability of linear
retarded and neutral type systems, Systems and Control Letters 43: 309–
319.
fri:sha/ieee02
Fridman, E. and Shaked, U. (2002). An improved stabilization method for linear systems with time-delay, IEEE Transactions on Automation Control
47: 1931–1937.
fri:sha/ijc05
Fridman, E. and Shaked, U. (2005). Stability and guaranteed cost control of uncertain discrete delay systems, International Journal of Control
78(4): 235–246.
gao:lam:wag:xu/ijc04
Gao, H., Lam, J., Wang, C. and Xu, S. (2004). h∞ model reduction for discrete time-delay systems: delay-independent and dependent approaches,
International Journal of Control 77: 321–335.
GN99
Ghaoui, L. E. and Niculescu, S.-I. (1999). Advances on Linear Matrix Inequality Methods in Control, Advances in Control, SIAM, Philadelphia,
PA.
Gle66
Gleason, A. M. (1966). Fundamentals of Abstract Analysis, Addison Wesley,
Reading, MA.
gou:dam:ric/scl97
Goubet-Bartholomeus, A., Dambrine, M. and Richard, J. P. (1997). Stability
of pertubed systems with time-varying delay, Systems and Control Letters
31: 155–163.
REFERÊNCIAS BIBLIOGRÁFICAS
124
gu/ijrnc99
Gu, K. (1999). A generalized discretization scheme of lyapunov functional in
the stability problem of linear uncertain time-delay systems, Int. J. on
Robust and Nonlinear Control 9: 1–14.
gu:kha:che/book
Gu, K., Kharitonov, V. and Chen, J. (2003). Stability of time-delay systems,
Birkhäuser, Boston.
gu:nic/ieee01
Gu, K. and Niculescu, S. (2001). Further remarks on additional dynamics in
various model transformations, IEEE Trans. Autom. Contr. 46: 497–500.
gu:nic/asme03
Gu, K. and Niculescu, S. (2003). Survey on recent results in the stability and
control of time-delay systems, J. of Dynamic Systems, Measurement and
Control (ASME) 125: 125–165.
hale/book
Hale, J. and Lunel, S. M. V. (1993). Introduction to Functional Differential
Equations, Springer-Verlag, New York.
HV03
Haykin, S. and Van Veen, B. (2001). Signals and Systems, John Wiley &
Sons.
HPS72
Hoel, P., Port, S. and Stione, C. (1972). Introduction to Stochastic Processes,
Waveland Press Inc., Long Grove.
hsu/jam70
Hsu, C. S. (1970). Application of the τ -decomposition method to dynamical
systems subjected to retarded follower forces, J. Appl. Mechanics pp. 258–
266.
Hur1895
Hurwitz, A. (1895). On the conditions under which an equation has only
roots with negative real parts, Mathematische Annalen 46: 273–284. Reeditado na coletânea “Selected Papers on Mathematical Trends in Control
Theory”, editores R. Bellman e R. Kalaba, Dover Publishing, 1964.
inf:cas/jde78
Infante, E. F. and Castelan, W. B. (1978). A lyapunov functional for a
matrix difference-differential equation, Journal of Differential Equations
29: 439–451.
Kai80
Kailath, T. (1980). Linear Systems, Prentice-Hall, Englewood Cliffs.
KH00
Kamen, E. and Heck, B. (2000). Signals and Systems, Prentice-Hall, Upper
Saddle River.
Kha78
Kharitonov, V. L. (1978). Asymptotic stability of an equilibrium position
of a family of systems of linear differential equations, Differentsial’nye
Uravneniya 14: 2086–2088.
KA01
Kokotović, P. and Arcak, M. (2001). Constructive nonlinear control: a historical perspective, Automatica 37(5): 637–662.
kol:mys/book
Kolmanovskii, V. B. and Myshkis, A. D. (1992). Applied Theory of functional
differential equations, Kluwer, Dordrecht, The Netherlands.
REFERÊNCIAS BIBLIOGRÁFICAS
125
kol:nic:ric/ijc99
Kolmanovskii, V. B., Niculescu, S. I. and Richard, J. P. (1999). On the
liapunov-krasovskii functionals for stability analysis of linear delay systems, Int. J. of Control 72(4): 374–384.
kol:nos/book
Kolmanovskii, V. B. and Nosov, V. R. (1986). Applied Theory of functional differential equations, Vol. 180 of Mathematics in Science and Eng.,
Academic Press, New York.
kra/siam64
Krall, A. (1964). Stability criteria for feedback systems with time lag., SIAM
J. Appl. Math. pp. 160–170.
Krish00
Krishnaprasad, P. S. (2000). Relative equilibria and stability of rings of satellites, Proceedings of the 39th IEEE Conference on Decision and Control
(CDC), Sydney, pp. 1285–1288.
Kuo92
Kuo, B. (1992). Digital Control Systems, Saunders College Pub.
Laskar90
Laskar, J. (1990). The chaotic motion of the solar system – a numerical
estimation of the size of chaotic zones, Icarus 88(2): 266–291.
lee:kwon/ifac02
Lee, Y. S. and Kwon, W. H. (2004). Delay-dependent robust stabilization
of uncertain discrete-time state-delayed systems, Proc. of the 15th IFAC
World Congress, Barcelona, Spain.
Liap1892
Liapunov, A. M. (1892). Obshchaya zadacha ob ustoichivosti dvizheniya,
Gostekhizdat, Kharkov. Traduzido ao francês “Problème Général de la
Stabilité du Mouvement”, em 1907 nos “Annales de la Faculté des Sciences de Toulouse”, e publicado em fotoreprodução em 1949 pela Princeton
University Press, como vol. 17 de “Annals of Mathematics Studies”. Publicado, pela primeira vez em inglês, como “Liapunov Centenary Issue of
the International Journal of Control”, vol. 55, no. 3, pp. 531-773, 1992.
lou/springer91
Louisell, J. (1991). A stability analysis for a class of differential-delay equations having time-varying delay, in Busenberg and Martelli (eds), Delay
differential equations and dynamical systems, Vol. 1475 of Lecture Notes
in Mathematics, Springer-Verlag, pp. 225–242.
Maxwell1859
Maxwell, J. C. (1859). On the stability of motions of Saturn’s Rings, Macmillan, Cambridge, UK. Adams Prize Essay for 1856.
Max1868
Maxwell, J. C. (1868). On governors, Proc. Roy. Soc. 16: 270–283. Reeditado na coletânea “Selected Papers on Mathematical Trends in Control
Theory”, editores R. Bellman e R. Kalaba, Dover Publishing, 1964.
mak/auto90
Mäkilä, P. M. (1990). Laguerre series approximation of infinite dimensional
systems, Automatica 26: 985–995.
mak:par/ijc99
Mäkilä, P. M. and Partington, J. R. (1999). Laguerre and kautz shift approximations of delay systems, Int. J. Contr. 72: 932–946.
REFERÊNCIAS BIBLIOGRÁFICAS
nic/book
126
Niculescu, S.-I. (2001). Delay Effects on Stability. A Robust Control Approach,
Springer-Verlag, Berlin, Germany.
Nis02
Nise, N. (2002). Engenharia de Sistemas de Controle, 3 edn, LTC.
Nyq32
Nyquist, H. (1932). Regeneration theory, Bell System Tech. J. 11: 126–147.
Oga87
Ogata, K. (1987). Discrete-Time Control Systems, Prentice-Hall, Englewood
Cliffs.
Oga03
Ogata, K. (2003). Engenharia de Controle Moderno, 4 edn, Prentice-Hall.
ogatta/book
Ogatta, K. (1994). Engenharia de Controle Moderno, 2a edn, Prentice-Hall
do Brasil.
OW97
Oppenheim, A. and Willsky, A. (1997). Signals and Systems, Prentice-Hall,
Upper Saddle River.
Pap91
Papoulis, A. (1991). Probability, Tandom Variables and Stochastic Processes,
3 edn, McGraw-Hill, New York.
PT81
Patel, R. V. and Toda, M. (1981). Quantitative measures of robustness for linear multivariable systems, Proc. of Joint Automatic Control Conference,
San Francisco. paper TP8.
pon/53
Pontryagin, L. S. (1953). On the zeros of some transcedental functions., Doklady Akad. Nauk SSSR 91: 1279–1280. English translation in American
Math. Soc Transl., 1958, 19-20.
ric/auto03
Richard, J. (2003a). Time-delay systems: an overview of some recent advances
and open problems, Automatica 39: 1667–1604.
Ric03auto
Richard, J.-P. (2003b). Time-delay systems: an overview of some recent
advancecs and open problems, Automatica 39: 1667–1694.
Ros70
Rosenbrock, H. H. (1970). State Space and Multivariable Theory, Wiley, New
York.
Routh1892
Routh, E. J. (1892). Dynamics of a system of rigid bodies, Macmillan, New
York.
Rugh96
Rugh, W. J. (1996). Linear System Theory, Prentice-Hall, Upper Saddle
River, N. J.
SS89_rb
Sezer, M. E. and Šiljak, D. D. (1989). A note on robust stability bounds,
IEEE Trans. Automat. Control 34(11): 1212–1215.
sil:dat:bha/ieee02
Silva, G. J. and Bhattacharyya, S. P. (2002). New results on the synthesis of
pid controllers, IEEE Trans. Autom. Control 47(2): 241–252.
REFERÊNCIAS BIBLIOGRÁFICAS
sil:dat:bat/cdc01
127
Silva, G. J., Datta, A. and Bhattacharyya, S. P. (2001). Controller design via Referências
padé approximation can lead to instability, Proc. of the 40th IEEE Conf. notação|textbf
on Decision and Control, Orlando, USA.
stepan/book
Stépán, G. (1989). Retarded dynamical systems: stability and characteristic
function, Vol. 210 of Research Notes in Math. Series, Longman Scientific.,
UK.
suh:bie/ieee82
Suh, I. H. and Bien, Z. (1982). A root-locus technique for linear systems with
delay, IEEE Trans. Automat. Contr. 27: 205–208.
SW92
Sussman, G. J. and Wisdom, J. (1992). Chaotic evolution of the Solar System,
Science 257(5066): 56–62.
ver:iva/cdc95
Verrist, E. and Ivanov, A. (1995). Robust stability of delay-difference equations, Proc. of the IEEE Conference on Decision and Control, New Orleans,
USA, pp. 386–391.
Vysh1877
Vyshnegradsky, I. A. (1877). On controllers of direct action, Izv. SPB Tekhnolog. Inst. .
Won85
Wonham, W. M. (1985). Linear Multivariable Control: a Geometric Approach,
3rd edn, Springer-Verlag, New York.
wu:hong/ieee94
Wu and Hong, K. (1994). Delay-independent exponential stability criteria
for time-varying discrete delay systems, IEEE Transaction on Automatic
Control 39: 811–814.
Zak03
Żak, S. H. (2003). Systems and Control, Oxford University Press, New York.
Índice Remissivo
definição de, 52
exponencial uniforme, 70
ilustração geométrica de, 53
não determinada pelos autovalores, 68
no sentido de entrada-saı́da (BIBO),
66
no sentido de Liapunov, 52
pesquisa no Brasil na área de,
72
via a equação de Liapunov, 55
estado, 5
arranjo de Routh, 58
invertido, 59
atrasos discretos, 11
atrasos distribuı́dos, 11
BIBO estável, 67
circuito elétrico, 12
critério
de Hurwitz, 60
de Nyquist, 64
de Routh, 58
desenho de Nyquist, 65
desigualdade matricial linear (LMI),
71
frase matemática quantificada
como jogo, 52
função
absolutamente integrável (L1 ),
67
ilimitada, 67
limitada, 67
positiva definida, 55
englobamento
da origem, 64
do ponto −1, 65
sentido antihorário, 64
sentido de, 64
sentido horário, 64
equação a diferenças, 9
equação de Liapunov, 55
discreta, 57
solução explı́cita de, 57
equações diferenciais estocásticas, 12
equações diferenciais ordinárias, 3
equilı́brio
estado de, 51
instável, 53
ponto de, 51
solução de, 51
estabilidade
assintótica, 54
caracterização em termos de autovalores, 53
LMI, 71
lugar das raı́zes, 61
como realimentação de saı́da, 63
para sistemas discretos, 63
regras para construção, 62
método de lugar das raı́zes, 61
matriz
de Hurwitz, 60
de Schwarz, 60
de transição de estados, 68
notação, 127
polinômio
caracterı́stico, 54, 58
128
129
ÍNDICE REMISSIVO
de Kharitonov, 60
intervalar, 60
mı́nimo, 54
Pascal–Routh, 60
princı́pio da superposição, 3
princı́pio do argumento, 64
programação semidefinida, 71
Referências, 127
representação de estado, 13
ruı́do, 12
Saturno
estabilidade dos anéis de, 49
sequência
absolutamente somável, 68
sistema autônomo, 6
sistema contı́nuo
linear e variante no tempo, 53,
68
sistema de nı́vel, 16
sistema descritor, 4, 14
sistema dinâmico
autônomo, 51
contı́nuo, 51
discreto, 51
equilı́brio de, 51
invariante no tempo, 51
não autônomo, 51
variante no tempo, 51
sistema discreto
linear e variante no tempo, 68
sistema massa-mola, 16
sistema relaxado, 6
sistema singular, 4, 14
Sistema Solar
comportamento caótico de, 49
estabilidade de, 49
sistemas a parâmetro distribuı́do, 18
sistemas a parâmetros concentrados,
6
sistemas a parâmetros distribuı́dos,
6
sistemas antecipativos, 4
sistemas causais, 4
sistemas com atrasos, 10
sistemas de dimensão infinita, 6
sistemas de tempo contı́nuo, 7
sistemas de tempo discreto, 7
sistemas determinı́sticos, 12
sistemas dinâmicos, 4
sistemas estocásticos, 12
sistemas invariantes no tempo, 9
sistemas lineares, 3
sistemas MIMO, 7
sistemas monovariáveis, 7
sistemas multivariáveis, 7
sistemas não-lineares, 3
sistemas neutrais, 11
sistemas sem memória, 4
sistemas SISO, 7
sistemas variantes no tempo, 9
solução nula, 51
estabilidade de, 52
teorema
de Kharitonov, 60
de Liapunov, 55
em termos de LMI, 70
interpretação geométrica de,
56
ordem de quantificadores no,
58
para sistemas variantes no tempo,
70
variáveis de estado, 5
vetor de estado, 6

Documentos relacionados