Sistemas Lineares
Transcrição
Sistemas Lineares
Sistemas Lineares Pedro Luis Dias Peres Universidade Estadual de Campinas email: [email protected] 1 Capı́tulo 1 Definições e Exemplos cap:defexem Carlos Eduardo Trabuco Dórea Universidade Federal da Bahia email: [email protected] Um sistema pode ser representado por uma relação causa-a-efeito, como incaixa_preta dicado na figura 1.1. A reação do sistema às entradas (excitações) u1 , u2 ,...,um é indicada pelas saı́das (respostas) y1 , y2 ,...,yp . Note-se que os conjuntos de entradas e saı́das podem ser representados na forma de vetores: y1 u1 y2 u2 u = . , y = . . . . . . yp um PSfrag replacements u1 y1 u2 y2 Sistema .. . .. . yp um Figura 1.1: Representação de um sistema. caixa_preta Neste capı́tulo são apresentadas definições básicas, exemplos e modelos matemáticos de sistemas. 1.1 Linearidade cetd:sec:linearidade caixa_preta Suponhamos que o sistema indicado na figura 1.1 seja representado matematicamente por um operador L[.]. Deste modo, a resposta do sistema a um vetor de entradas u é a saı́da y = L[u]. 2 3 CAPÍTULO 1. DEFINIÇÕES E EXEMPLOS Definição 1.1.1 Um sistema representado pelo operador L[.] é dito linear se, sistemas lineares quaisquer que sejam os vetores de entrada u1 e u2 , a resposta do sistema ao princı́pio da vetor de entrada u = α1 u1 + α2 u2 é tal que: superposição L[α1 u1 + α2 u2 ] = α1 L[u1 ] + α2 L[u2 ], quaisquer que sejam os escalares α1 e α2 . Em outras palavras, um sistema é linear se sua resposta, quando excitado pela combinação linear de duas entradas, é igual à combinação linear das saı́das resultantes da aplicação isolada de cada entrada. Tal propriedade é conhecida como Princı́pio da Superposição. Nesta definição estão resumidas duas propriedades: sistemas nãolineares equações diferenciais ordinárias Aditividade: L[u1 + u2 ] = L[u1 ] + L[u2 ]; Homogeneidade: L[αu] = αL[u]. Um sistema que não verifique estas propriedades é dito não-linear. Exemplo 1.1.1 Consideremos um sistema cuja resposta y(t) a uma entrada u(t) é dada pela solução da seguinte equação diferencial linear ordinária com coeficientes constantes: dy(t) + 2y(t) = 3u(t). (1.1) sist_linear dt Considerando condições iniciais nulas (y(t0 ) = 0), pode ser verificado que a resposta deste sistema para t ≥ t0 é dada por: Z t 2λ y(t) = e u(λ)dλ e−2t . (1.2) saida_ci_nulas t0 Sejam agora y 1 (t) e y 2 (t) as resposta do sistema às entradas u1 (t) e u2 (t) respectivamente, considerando as condições iniciais nulas. Neste caso, a resposta à entrada α1 u1 (t) + α2 u2 (t) é dada por: Z t Z t Z t e2λ u2 (λ)dλ e−2t = e2λ u1 (λ)dλ e−2t +α2 e2λ [α1 u1 (λ) + α2 u2 (λ)]dλ e−2t = α1 t0 t0 t0 α1 y 1 (t) + α2 u2 (t), o que mostra que o sistema é linear. 4 Exemplo 1.1.2 Consideremos um sistema cuja relação entrada-saı́da é dada por: y(t) = [u(t)]2 . (1.3) nao_linear CAPÍTULO 1. DEFINIÇÕES E EXEMPLOS 4 sistemas sem memória [α1 u1 (t) + α2 u2 (t)]2 6= sistemas α1 y 1 (t) + α2 y 2 (t) = α1 [u1 (t)]2 + α2 [u2 (t)]2 . dinâmicos sistema Portanto, este sistema é não-linear. 4 descritor sistema singular sistemas causais 1.2 Causalidade e Memória sistemas Definição 1.2.1 Diz-se que um sistema é sem memória se suas saı́das em um antecipativos A resposta à entrada α1 u1 (t) + α2 u2 (t) é dada por: cetd:sec:causamem determinado instante de tempo só dependem das entradas aplicadas neste exato instante de tempo. Caso as saı́das dependam também das entradas aplicadas antes ou após este instante de tempo, o sistema é dito com memória. Exemplo 1.2.1 sist_linear Osaida_ci_nulas sistema (1.1) tem memória, pois a saı́da y no instante t, conforme a equação (1.2), depende dos valores da entrada u nonao_linear intervalo de tempo [0,t]. Por outro lado, o sistema não-linear (1.3) não tem memória, pois a saı́da y no instante t só depende da entrada u aplicada neste mesmo instante. 4 Sistemas sem memória são também conhecidos como sistemas puramente algébricos, enquanto sistemas com memória são também conhecidos como sisBM92 temas dinâmicos (Basile and Marro, 1992). Sistemas composto por partes dinâmicas e algébricas são conhecido como sistemas descritores ou sistemas singulares. Definição 1.2.2 Um sistema é dito causal ou não-antecipativo se suas saı́das em um determinado instante de tempo não dependem das entradas aplicadas após este instante de tempo. Caso contrário, o sistema é dito não-causal ou antecipativo. Em outras palavras, um sistema é causal se seu comportamento presente não depende das entradas que serão aplicadas no futuro. Portanto, todo sistema fı́sico é causal. Exemplo 1.2.2 sist_linear A resposta do sistema (1.1) a partir do instante t0 depende apenas da entrada u(t) aplicada a partir de t0 e da condição inicial y(t0 ), o que caracteriza, portanto, um sistema causal. nao_linear Claramente, o sistema (1.3) também é causal. Por outro lado, o sistema representado pela equação abaixo é claramente não-causal: y(t) = u(t + 1). (1.4) nao_causal 4 5 CAPÍTULO 1. DEFINIÇÕES E EXEMPLOS 1.3 Estado de um Sistema cetd:sec:estado As saı́das de um sistema dinâmico causal em um dado instante de tempo dependem das entradas que foram aplicadas no passado. Evidentemente, de um modo geral não é possı́vel conhecer o comportamento das entradas desde o inı́cio dos tempos. Esta dificuldade pode ser contornada por meio do conceito de estado de um sistema. estado variáveis de estado Definição 1.3.1 O estado x(t0 ) de um sistema no instante t0 é a informação em t0 que, junto com a entrada aplicada a partir de t0 , determina de forma única a saı́da a partir de t0 . O estado em t0 resume portanto toda a informação desde t = −∞ suficiente para se determinar o comportamento de um sistema causal a partir de t 0 . O estado é geralmente representado por um vetor contendo todos os elementos suficientes para a determinação do comportamento do sistema. Tais elementos são conhecidos como variáveis de estado: x(t0 ) = x1 (t0 ) x2 (t0 ) .. . xn (t0 ) . A ordem de um sistema é dada pelo número de suas variáveis de estado. Exemplo 1.3.1 Consideremos o sistema representado pela seguinte equação diferencial: dy(t) d2 y(t) + (3t + 1) + (t2 )y(t) = 3u(t). 2 dt dt (1.5) eq_dif_2ord É bem sabido que sua solução para t ≥ t0 é unicamente determinada 0) pela entrada u(t) e pelas condições iniciais y(t0 ) e dy(t dt , que, deste modo, qualificam-se como estado do sistema. eq_dif_2ord Defindo-se x1 (t) = y(t) e x2 (t) = dy(t) dt , a equação (1.5) pode ser reescrita da seguinte forma: dx1 (t) = x2 (t) dt dx2 (t) = −(t2 )x1 (t) − (3t + 1)x2 (t) + 3u(t) dt y(t) = x1 (t) Matricialmente, ẋ1 (t) 0 1 x1 (t) 0 = + u(t) ẋ2 (t) −(t2 ) −(3t + 1) x2 (t) 3 6 CAPÍTULO 1. DEFINIÇÕES E EXEMPLOS estado vetor de estado sistema relaxado dxi (t) x1 (t) sistema . x(t) = sendo ẋi (t) = é assim o vetor de estado do sistema. autônomo x2 (t) dt sistemas a 4 parâmetros concentrados A resposta de um sistema a partir do instante de tempo t0 depende assim sistemas a parâmedo estado em t0 e da entrada u(t) para t ≥ t0 . tros distribuı́dos sistemas de Definição 1.3.2 Um sistema é dito relaxado no instante t0 se sua saı́da para dimensão infinita t ≥ t0 só depende da entrada u(t) para t ≥ t0 . sistemas a parâmeDefinição 1.3.3 Um sistema é dito autônomo se se sua saı́da para t ≥ t0 só tros concentrados y(t) = 1 0 x1 (t) x2 (t) , depende do estado inicial x(t0 ). Um sistema autônomo é, portanto, um sistema sem excitação externa. 1.4 Parâmetros Concentrados e Parâmetros Distribuı́dos cetd:sec:concdist Definição 1.4.1 Um sistema é dito a parâmetros concentrados se possui um número finito de variáveis de estado. Caso contrário, o sistema é dito a parâmetros distribuı́dos . Exemplo 1.4.1 Considere o seguinte sistema, cuja saı́da é simplesmente igual à entrada atrasada de uma unidade de tempo: y(t) = u(t − 1). (1.6) distribuido Note-se que, para se determinar a resposta y(t) para t ≥ t0 , junto com a entrada u(t) para t ≥ t0 , necessita-se também conhecer a entrada u(t) no intervalo t0 − 1 ≤ t ≤ t0 . Portanto, o estado deste sistema seria o conjunto {u(t), t0 − 1 ≤ t ≤ t0 }. Trata-se portanto de um sistema de dimensão infinita , logo, um sistema a parâmetros distribuı́dos. sist_linear nao_linear eq_dif_2ord Claramente, os sistemas (1.1), (1.3) e (1.5) são sistemas a parâmetros con4 ex_distribuido centrados . CAPÍTULO 1. DEFINIÇÕES E EXEMPLOS 1.5 7 Sistemas Mono e Multivariáveis cetd:sec:monomulti Definição 1.5.1 Um sistema é dito monovariável se possui apenas uma entrada e uma saı́da. Caso contrário (se possui mais de uma entrada ou mais de uma saı́da), o sistema é dito multivariável . Sistemas monovariáveis são também conhecidos como sistemas SISO , do inglês “single-input, single-output”, enquanto sistemas com mais de uma entrada e mais de uma saı́da são conhecidos como sistemas MIMO (“multipleinput, multiple-output”). Podem-se também definir sistemas SIMO (“singleinput, multiple-output”) e MISO (“multiple-input, single-output”). 1.6 Tempo Contı́nuo e Tempo Discreto cetd:sec:contdisc As definições a seguir referem-se à maneira como o sinais de entrada e saı́da e os estados de um sistema evoluem em relação à evolução do tempo Oga87 (Ogata, 1987). Definição 1.6.1 Um sinal é dito de tempo contı́nuo se é definido em uma faixa contı́nua de tempo. Um sinal é dito quantizado se sua amplitude assume apenas um conjunto finito de valores distintos. Um sinal é dito analógico se é de tempo contı́nuo e sua amplitude pode assumir valores em uma faixa contı́nua. Um sinal é dito de tempo discreto se é definido apenas em instantes discretos de tempo. Um sinal de tempo discreto é dito a dados amostrados se sua amplitude pode assumir valores em uma faixa contı́nua. Um sinal digital é um sinal de tempo discreto com amplitude quantizada. Sinais a dados amostrados são freqüentemente obtidos pela amostragem de sinais analógicos em instantes discretos de tempo. Sinais digitais são os sinais processado por computadores digitais. sinais_tempo Na figura 1.2 são ilustrados estes diferentes tipos de sinal. sinais_tempo A classificação dos sistemas em termos de seu comportamento em relação ao tempo depende do tipo de sinal a ser processado: Definição 1.6.2 Um sistema é dito de tempo contı́nuo se seus estados, entradas e saı́das são sinais de tempo contı́nuo. Em um sistema de tempo contı́nuo, o estado x(t), as entradas u(t) e as saı́das y(t) são definidas para todo instante de tempo t ∈ IR. sistemas monovariáveis sistemas multivariáveis sistemas SISO sistemas MIMO sistemas de tempo contı́nuo 8 CAPÍTULO 1. DEFINIÇÕES E EXEMPLOS x x sistemas de tempo discreto t t Sinal de tempo contı́nuuo quantizaado Sinal de tempo contı́nuo analógico x x PSfrag replacements Sistema t Sinal de tempo discreto amostrado t Sinal de tempo discreto digital Figura 1.2: Tipos de sinal. Definição 1.6.3 Um sistema é dito de tempo discreto se seus estados, entradas e saı́das são sinais de tempo discreto. Em um sistema de tempo discreto, os estados, entradas e saı́das só são definidos em instantes discretos de tempo. Muitas vezes um sistema de tempo discreto é obtido a partir da discretização de um sistema de tempo contı́nuo. Neste caso, apesar de as variáveis do sistema estarem definidas em todo instante t ∈ IR, o modelo discreto só leva em conta seus valores em instantes discretos. Exemplo 1.6.1 sist_linear Consideremos novamente o sistema (1.1): dy(t) + 2y(t) = 3u(t). dt (1.7) sist_cont Considerando agora condições iniciais não nulas, pode ser verificado que sua resposta completa, para cada instante de tempo t ≥ t0 , é dada por: Z t −2(t−t0 ) 2λ y(t) = e y(t0 ) + e u(λ)dλ e−2t . (1.8) resp_sist_cont t0 Trata-se, portanto, de um sistema de tempo contı́nuo. 9 CAPÍTULO 1. DEFINIÇÕES E EXEMPLOS Suponhamos agora que o sinal de entrada deste sistema seja amostrado a equação a diferenças cada T unidades de tempo e passado por um segurador de ordem zero. Tal sistemas indispositivo mantém o valor do sinal de entrada constante dentro do perı́odo de variantes amostragem kT ≤ t < (k+1)T , k ∈ ZZ, de modo que, na saı́da deste segurador, no tempo sistemas tenhamos o sinal: variantes no tempo u∗ (t) = u(kT ), para kT ≤ t < (k + 1)T. sist_cont Se o sinal u∗ (t) for aplicado ao sistema (1.7), pode-se verificar a partir de (1.8) que a saı́da no intervalo kT ≤ t < (k + 1)T é dada por: Z t 2λ −2(t−kT ) e u(kT )dλ e−2t . y(t) = e y(kT ) + resp_sist_cont kT Assim, para t = (k + 1)T ter-se-ia: −2T Z (k+1)T 2λ ! e u(kT )dλ e−2(k+1)T kT Z T −2T 2(τ +kT ) = e y(kT ) + e u(kT )dτ e−2(k+1)T Z0 T 2τ −2T e dτ e−2T u(kT ). = e y(kT ) + y((k + 1)T ) = e y(kT ) + 0 Desse modo, se o perı́odo de amostragem T é conhecido, a evolução do sistema nos instantes de amostragem kT , com k ∈ ZZ é dada pelo seguinte modelo de tempo discreto (equação a diferenças) : y(k + 1) + ay(k) = bu(k), (1.9) sist_disc Z T −2T 2τ em que: a = −e ,b= e dτ e−2T , y(k) = y(kT ), u(k) = u(kT ). 0 1.7 4 Sistemas Variantes e Invariantes no Tempo cetd:sec:vartempo Definição 1.7.1 Considerem-se o estado de um sistema no instante t0 e uma entrada aplicada a partir de t0 , gerando uma certa resposta. Um sistema é dito invariante no tempo se, dado o mesmo estado e aplicando-se a mesma entrada a partir do instante t0 + ∆t, a mesma resposta é obtida a partir de t0 + ∆t. Caso contrário, o sistema é dito variante no tempo . Sistemas invariantes no tempo, portanto, sob as mesmas condições iniciais, respondem da mesma maneira a um dado sinal de entrada, independentemente de quando tal sinal é aplicado. É um sistemas cujas caracterı́sticas não mudam ao longo do tempo. 10 CAPÍTULO 1. DEFINIÇÕES E EXEMPLOS sistemas com atrasos Exemplo 1.7.1 Consideremos o seguinte sistema autônomo: dy(t) + a(t)y(t) = 0. dt (1.10) sist_vt Consideremos inicialmente que o parâmetro a(t) não varie com o tempo: a(t) = 2. Neste caso, a resposta do sistema para t ≥ t , com condição inicial y(t0 ) = ȳ, resp_sist_cont 0 é dada por (vide a equação (1.8)): y 1 (t) = e−2(t−t0 ) ȳ. Analisemos agora a respota do sistema para t ≥ t0 + ∆t, sendo que no instante t0 + ∆t a condição inicial é a mesma do caso anterior, ou seja, y(t0 + ∆t) = ȳ. A resposta a partir de t0 + ∆t é então dada por: y 2 (t) = e−2(t−t0 −∆t) ȳ = y 1 (t − ∆t). Conclui-se portanto que o sistema é invariante no tempo, pois produz a mesma resposta quando submetido às mesmas condições em outro instante de tempo. Consideremos agora a(t) variando com o tempo: a(t) = 2(1 − t). Neste caso, pode ser verificado que a respota para t ≥ t0 , com y(t0 ) = ȳ, é dada por: 2 2 y 1 (t) = e−2t0 +t0 ȳe2t−t . Agora, submetido à mesma condição inicial a partir de t0 + ∆t, o sistema responde com o sinal: 2 2 y 2 (t) = e−2(t0 +∆t)+(t0 +∆t) ȳe2t−t , que é claramente diferente de y 1 (t−∆t), o que mostra que o sistema é variante no tempo. 4 Exemplo 1.7.2 sist_linear nao_linear nao_causal distribuido sist_disc Os sistemaseq_dif_2ord (1.1), (1.3), (1.4), (1.6) e (1.9) são invariantes no tempo, enquanto o sistema (1.5) é variante no tempo. 4 1.8 Sistemas com Atrasos cetd:sec:atraso Sistemas com atrasos (retardos, tempos mortos, atrasos de transporte, etc.) são freqüentemente encontrados em aplicações industriais. Em sistemas 11 CAPÍTULO 1. DEFINIÇÕES E EXEMPLOS de controle, por exemplo, tais atrasos são usualmente introduzidos no proces- atrasos discretos samento dos sinais dos sensores, atuadores e redes industriais, envolvidos nas atrasos malhas de realimentação. distribuı́dos Tais sistemas respondem com um tempo de atraso às excitações. Os atrasos sistemas podem estar associados tanto às variáveis de entrada quanto às variáveis de neutrais estado. Consideremos agora o seguinte modelo geral de sistema linear, de tempo contı́nuo, invariante no tempo, com atrasos: ẋ(t) = q X Dl ẋ(t−ωl )+ k X (Ai x(t−hi )+Bi u(t−hi ))+ j=1 i=0 l=1 y(t) = k X r Z X Ci x(t − hi ) + i=0 r Z t X t (Gj (θ)x(θ)+Hj (θ)u(θ))dθ, t−τj Nj (θ)x(θ)dθ, (1.11) atraso_estado (1.12) t−τj j=1 com h(0) = 0. Logo i = 0 corresponde ao termo sem atraso. A partir desse modelo, derivam-se os seguintes tipos de sistemas com atrasos: Sistemas com atrasos discretos: ẋ(t) = k X (Ai x(t − hi ) + Bi u(t − hi )), i=0 y(t) = k X Ci x(t − hi ). i=0 Quando k > 1 diz-se que o sistema tem múltiplos atrasos. Sistemas com atrasos distribuı́dos: ẋ(t) = A0 x(t) + B0 u(t) + r Z X j=1 y(t) = C0 x(t) + t (Gj (θ)x(θ) + Hj (θ)u(θ))dθ, t−τj r Z X j=1 t Nj (θ)x(θ)dθ. t−τj Sistemas neutrais: Há atraso nos termos relativos às derivadas de maior atraso_estado ordem do modelo. Na equação (1.11) a parte neutral está representada pelas matrizes Di . ex_distribuido Como visto no exemplo 1.4.1, sistemas com atraso são sistemas distribuı́dos, de dimensão infinita portanto. CAPÍTULO 1. DEFINIÇÕES E EXEMPLOS 1.9 12 Sistemas Determinı́sticos e Estocásticos cetd:sec:detestoc Definição 1.9.1 Um sistema é dito determinı́stico se para um dado estado inicial e uma dada entrada houver apenas uma saı́da possı́vel. Caso contrário, o sistema é dito estocástico . O termo sistemas estocásticos refere-se, em geral, a sistemas submetidos a entradas de comportamento incontrolável e aleatório, conhecidas como ruı́do . É justamente a presença de ruı́dos que faz com que um sistema estocástico submetido a um mesmo estado inicial e a um mesmo sinal de entrada possa apresentar sinais de saı́da diferentes. Exemplo 1.9.1 Todos os exemplos de sistemas apresentados até aqui referem-se a sistemas determinı́sticos. Um sistema estocástico pode ser representado por equações diferenciais estocásticas, como, por exemplo, a que segue: d2 y(t) dy(t) + (3t + 1) + (t2 )y(t) = W 0 (t), dt2 dt em que W 0 (t) é uma variável aleatória. 4 Em geral, sistemas estocásticos são analisados em função das propriedades estatı́sticas dos sinais de ruı́do. 1.10 Exemplos de Modelos Matemáticos cetd:sec:exempmodmat Exemplo 1.10.1 Circuitos elétricos a parâmetros concentrados: rlc Consideremos o circuito elétrico RLC série representado na figura 1.3: rlc Tal circuito pode ser considerado como um sistema monovariável (SISO) cuja entrada é a tensão v(t) da fonte de tensão independente e a saı́da é a corrente i(t) que circula no circuito. As tensões e correntes no resistor, capacitor e indutor relacionam-se, respectivamente, da seguinte forma: Z diL (t) 1 t iC (τ )dτ, vL (t) = L vR (t) = RiR (t), vC (t) = . C t0 dt Pela lei da tensão de Kirchoff, a soma das tensões no circuito deve ser nula. Desse modo, Z 1 t di(t) + i(τ )dτ. v(t) = Ri(t) + L dt C t0 sistemas determinı́sticos sistemas estocásticos ruı́do equações diferenciais estocásticas circuito elétrico 13 CAPÍTULO 1. DEFINIÇÕES E EXEMPLOS representação de estado L R PSfrag replacements i(t) v(t) C + − Figura 1.3: Circuito RLC série. Derivando, obtém-se a seguinte equação diferencial linear ordinária de segunda ordem: di(t) 1 dv(t) d2 i(t) +R + i(t) = . (1.13) eq_circ L 2 dt dt C dt O comportamento da saı́da i(t) para qualquer entrada v(t) e qualquer condição inicial pode assim ser determinado a partir da resolução desta equação. Trata-se aı́ de um sistema linear, causal, com memória, a parâmetros concentrados, monovariável, de tempo contı́nuo, invariante no tempo e determinı́stico. Note-se que: • Se o circuito não tivesse o indutor e o capacitor, a relação entrada saı́da seria simplesmente v(t) = Ri(t), tratando-se assim de um sistema sem memória. Qualquer circuito puramente resistivo é um sistema sem memória. • Se o resistor do circuito fosse trocado por um termistor (dispositivo cuja resistência varia com a mudança de temperatura), o sistema seria variante no tempo; • Suponhamos que se queira estudar o efeito do ruı́do térmico,rlc devido à agitação térmica de eletrons no resistor, no circuito da figura 1.3. Neste eq_circ caso, uma pequena tensão v(t) seria gerada e a equação (1.13) tornarse-ia uma equação diferencial estocástica, representando um sistema estocástico, na qual v(t) seria um ruı́do branco. 4 Exemplo 1.10.2 Representação de estado de circuitos elétricos: Um sistema pode ser representado de uma forma que explicite suas variácetd:sec:estado veis de estado. Como visto na seção 1.3, o estado de um sistema em um dado 14 CAPÍTULO 1. DEFINIÇÕES E EXEMPLOS instante de tempo é a informação suficiente para, juntamente com a entrada sistema singular aplicada a partir deste instante, determinar de forma única sua resposta. No sistema caso de circuitos elétricos RLC, sabe-se que a resposta pode ser completamente descritor determinada conhecendo-se as tensões iniciais nos capacitores e as correntes iniciais nos indutores, que, desse modo, qualificam-se como variáveis de estado do circuito. Note-se que as variáveis de estado estão associadas aos elementos armazenadores de energia. Pode-se assim interpretar a energia armazenada no sistema como sendo sua memória. rlc Voltando ao circuito da figura 1.3, definamos como variáveis de estado: x1 (t) = iL (t), x2 (t) = vC (t). Aplicando-se a lei de tensão de Kirchoff, obtém-se a representação do sistema na forma de equações de estado: ẋ1 (t) = Matricialmente: ẋ1 (t) ẋ2 (t) diL (t) 1 R 1 = v(t) − x1 (t) − x2 (t) dt L L L 1 ẋ2 (t) = x1 (t) C i(t) = x1 (t). = −R L 1 C i(t) = − L1 0 x1 (t) x2 (t) + 1 0 x1 (t) x2 (t) . 1 L 0 v(t) 4 Exemplo 1.10.3 Sistema singular: singular Consideremos o circuito elétrico representado na figura 1.4, cuja entrada é uma fonte de corrente independente, contendo uma fonte de corrente dependente com ganho k desconhecido. singular Definamos como variáveis de estado a corrente no indutor, x1 (t) e a tensão no capacitor, x2 (t). A tensão no indutor é dada por: vL (t) = 1ẋ1 (t). Segundo a lei de Kirchoff das correntes, a soma das correntes que chegam em um nó do circuito deve ser nula. Aplicando-a nos nós 1 e 2, obtêm-se, respectivamente: vL (t) + x1 (t) + 1ẋ2 (t), i(t) = 1 15 CAPÍTULO 1. DEFINIÇÕES E EXEMPLOS PSfrag replacements 1F + i(t) 1H 1Ω _ x2 (t) + vL (t) − 1Ω + vR (t) _ kvL (t) x1 (t) Figura 1.4: Circuito com fonte de corrente dependente. vR (t) = kvL (t) + ẋ2 (t). 1 Aplicando-se a lei das tensões na malha formada pelo indutor, pelo capacitor e pelo resistor em paralelo com a fonte dependente de corrente, obtém-se: vL (t) = x2 (t) + vR (t). Manipulando-se as expressões acima para eliminar vL (t) e vR (t), obtêm-se as duas equações a seguir: (1 − k)ẋ1 (t) = ẋ2 (t) + x2 (t), ẋ1 (t) = −ẋ2 − x1 (t) + i(t). Substituindo-se a segunda expressão na primeira, obtém-se: (2 − k)ẋ2 (t) = (k − 1)x1 (t) − x2 (t) + (1 − k)i(t). Assim, se k = 2, as variáveis de estado x1 (t) e x2 (t) e a entrada i(t) são relacionadas algebricamente por meio da seguinte expressão: x1 (t) − x2 (t) − u(t) = 0. A representação de estado do sistema assume então a seguinte forma: 1 1 0 0 ẋ1 (t) ẋ2 (t) = 0 −1 1 −1 x1 (t) x2 (t) + 0 −1 i(t) Trata-se, portanto, de um sistema linear singular (ou descritor) pois suas variáveis de estado estão relacionadas por equações puramente algébricas e equações dinâmicas. 4 CAPÍTULO 1. DEFINIÇÕES E EXEMPLOS 16 sistema Exemplo 1.10.4 massaSistema massa-mola: mola Trata-se de uma representação de muitos sistemas reais, tais como: amor- sistema de nı́vel tecedores, acelerômetros, sismógrafos, etc. massa-mola Consideremos então o sistema representado na figura 1.5, composto por um bloco da massa m, preso a uma parede por meio de uma mola. A entrada é a força aplicada à massa, u(t), e a saı́da é o deslocamento da massa y(t). y(t) PSfrag replacements k2 m u(t) k1 massa-mola Figura 1.5: Sistema massa-mola. O atrito entre o chão e o bloco, em geral, consiste em três partes: atrtaito estático, atrito de Coulomb e atrito viscoso. Desprezando-se os atritos estático e de Coulomb, que apresentam comportamento não-linear em realação à velocidade da massa, pode-se considerar a força de atrito é proporcional à velocidade da massa. A força de reação da mola, em geral, é uma função não-linear do deslocamento. No entanto, para pequenos deslocamentos esta caracterı́stica pode ser considerada aproximadamente linear. A partir dessas considerações, um modelo linear do sistema pode ser obtido aplicando-se a segunda lei de Newton: d2 y(t) dy(t) = u(t) − k1 − k2 y(t), 2 dt dt sendo k1 o coeficiente de atrito viscoso e k2 a constante da mola. m 4 Exemplo 1.10.5 Nı́vel de Lı́quido em Tanques Interligados: Consideremos o sistema formado por dois tanques interligados, ilustrado na dois_tanques figura 1.6, alimentado por uma tubulação que despeja o lı́quido a uma vazão igual a qi (t), controlada por uma válvula. Deseja-se obter uma representar da evolução dos nı́veis de lı́quido em cada um deles, em função da vazão de entrada. 17 CAPÍTULO 1. DEFINIÇÕES E EXEMPLOS PSfrag replacements qi h1 q1 A1 dois_tanques Tanque I R1 A2 h2 Tanque II q2 R2 Figura 1.6: Sistema de nı́vel de lı́quido em tanques interligados. Sejam então: qi (t): Vazão de entrada do lı́quido no tanque I; q1 (t): Vazão de saı́da do lı́quido do tanque I; q2 (t): Vazão de saı́da do lı́quido do tanque II; A1 : Área da seção transversal do tanque I; A2 : Área da seção transversal do tanque II; h1 (t): Nı́vel do lı́quido no tanque I; h2 (t): Nı́vel do lı́quido no tanque II; R1 : Resistência ao fluxo entre os tanques I e II; R2 : Resistência ao fluxo na saı́da do tanque II. A vazão entre tanques depende da resistência associada ao duto que os liga e à diferença entre os seus nı́veis: q1 (t) = h1 (t) − h2 (t) , se o fluxo for laminar, R1 p h1 (t) − h2 (t) q1 (t) = , se o fluxo for turbulento. R1 Na maioria dos processos industriais o fluxo é turbulento. Assim sendo, a vazão de saı́da q2 é dada por: p h2 (t) q2 (t) = . R2 18 CAPÍTULO 1. DEFINIÇÕES E EXEMPLOS Além disso, o aumento no nı́vel dos tanques é função da diferença entre as sistemas a parâmetro vazões de entrada e saı́da: distribuı́do A1 dh1 (t) = (qi (t) − q1 (t))dt, A2 dh2 (t) = (q1 (t) − q2 (t))dt. Desse modo, o sistema pode ser descrito pelas seguintes equações de estado não-lineares: p h1 (t) − h2 (t) dh1 (t) qi (t) = − , dt A1 A1 R1 p p h1 (t) − h2 (t) h2 (t) dh2 (t) = − . dt A2 R1 A2 R2 Para efeito de controle automático do nı́vel dos tanques, a variável manipulada seria a abertura da válvula de entrada. Desse modo, a entrada do sistema seria a vazão logo após a saı́da da válvula, qv i (t), e não a vazão no final da tubulação que alimenta o tanque I, qi (t). Em função da distância entre a válvula e o final da tubulação, a vazão de alimentação do tanque sofreria um atraso τ em relação à vazão qv i (t), de modo que: qi (t) = qv i (t − τ ), o que transformaria o sistema em um sistema com atraso. 4 Exemplo 1.10.6 Sistema a parâmetro distribuı́do: fornoBM92 Consideremos o forno representado na figura 1.7 (Basile and Marro, 1992): PSfrag replacements f (z) z0 u(t) x(t,z) z0 z1 z z0 z1 Figura 1.7: Forno contı́nuo e distribuições de temperatura associadas. forno z CAPÍTULO 1. DEFINIÇÕES E EXEMPLOS 19 Uma lâmina de material homogêneo com seção transversal constante é transportado com velocidade ajustável u(t) para o interior do forno. Supõe-se que as distribuições de temperatura no forno e na lâmina variam em relação ao deslocamento z(t) no interior do forno, mas são uniformes nas direções ortogonais a este deslocamento. Sejam então: f (z): temperatura ao longo do forno, suposta constante em relação ao tempo; x(t,z): a temperatura ao longo da lâmina, que é função tanto do tempo quanto do deslocamento. O sistema pode então ser representado pela seguinte equação de propagação de calor unidimensional: ∂x(t,z) ∂ 2 x(t,z) ∂x(t,z) = k1 + u(t) + k2 (x(t,z) − f (z)) , 2 ∂t ∂z ∂z sendo k1 e k2 constantes relacionadas, respectivamente, às condutividades térmicas interna e da superfı́cie da lâmina. O estado deste sistema é a função x(t,z), com z0 ≤ z ≤ z1 . Trata-se portanto de um sistema a parâmetros distribuı́dos. Note-se que a distribuição de temperatura na lâmina, x(t,z) pode ser determinada a partir da resolução da equação a derivadas parciais acima, sendo dados o estado inicial x(t 0 ,z), com z0 ≤ z ≤ z1 , a temperatura da lâmina antes de ser aquecida, x(t,z0 ) (condição de contorno) e a função de entrada, a velocidade u(t) para t ≥ t 0 . 4 Exemplo 1.10.7 Pagamento de empréstimo: Sejam: k ∈ ZZ: número do mês a partir da data do empréstimo; y(k): dı́vida no mês k; u(k): pagamento no mês k; J(k): taxa de juros no mês k; y(0): valor do empréstimo. A evolução da dı́vida com o tempo pode ser representada pela seguinte equação a diferenças: y(k) = (1 + J(k))y(k − 1) − u(k). Ou seja, o valor da dı́vida no mês atual é igual à dı́vida do mês anterior acrescida de juros, menos o pagamento efetuado no mês atual. CAPÍTULO 1. DEFINIÇÕES E EXEMPLOS 20 Trata-se aı́ de um sistema linear de tempo discreto, variante no tempo, causal, com memória, a parâmetros concentrados, monovariável e determinı́stico. Note-se que se a taxa de juros mensal, J(k), for constante, então o sistema torna-se invariante no tempo. 4 1.11 Outros Trabalhos na Área cetd:sec:outros Diversos são os livros e artigos cientı́ficos que tratam de sistemas dinâmicos. Definições, propriedades, exemplos e modelos matemáticos de sistemas são HV03 encontrados tanto em livros de sinais e sistemas ( Haykin and Van Veen, 2001; OW97 KH00 Oppenheim and Willsky, 1997; Kamen and Heck, 2000) quanto de sistemas Oga03 DB01 Nis02 FPE94 de controle (Ogata, 2003; Dorf and Bishop, 2001; Nise, 2002; Franklin, Powell Che93 and Emami-Naeini, 1994; Chen, 1993). Entre os livros que lidam especificamente com Che99 sistemas lineares, tanto invaKai80 riantes quanto variantes no tempo, destacam-se (Chen, 1999a; Kailath, 1980). Sistemas de tempo discreto são tratados com detalhes em obras sobre conOga87 Kuo92 trole digital (Ogata, 1987; Kuo, 1992). Uma visão geral sobre sistemas com atrasos e Ric03auto o ”estado da arte”das pesquisas neste tema pode ser encontrada no artigo (Richard, 2003b). Sistemas estocásticos, com detalhes sobre equações diferenciais estocásticas Pap91 são tratados em livros de processos estocásticos, tais como ( Papoulis, 1991; HPS72 Hoel, Port and Stione, 1972). Capı́tulo 2 Sistemas Lineares Invariantes no Tempo cap:slti Edson R. De Pieri Eugênio Castelan Neto Moreno DAS/USFC - 88040 900 Florianópolis - SC emails: [ edson, eugenio, moreno]@das.usfc.br 2.1 Ubirajara F. Introdução sec:intro A análise e o projeto de sistemas de controle necessita, na maioria dos casos, de um modelo matemático que descreva de forma adequada o sistema fı́sico. Várias ferramentas matemáticas auxiliam nessa tarefa: transformada de Laplace, diagrama de fluxo de sinais, conceito de variáveis de estado, entre outros. Ainda que existam abordagens usando métodos empı́ricos de análise e de projeto, a predominância dos métodos analı́ticos deve-se ao fato de permitirem tratar sistemas simples ou complexos, dentro de uma sistemática dividida em diversas etapas: modelagem, descrição matemática, análise do modelo e projeto. Durante um perı́odo considerável houve uma predominância dos modelos matemáticos usando funções de transferência. O surgimento dos computadores digitais tornou-se uma grande ferramenta de análise e projeto com tendência ao uso da representação por variáveis de estado. O surgimento de pacotes de simulação e o avanço conjunto de diferentes técnicas de controle, sejam elas usando funções de transferência ou representação por variáveis de estados, colocou ambas em nı́veis similares de preferência dos profissionais da área. O objetivo desse capı́tulo é apresentar definições e conceitos básicos de sistemas de controle para o entendimento da análise e sı́ntese de sistemas realimentados, tanto no domı́nio do tempo como no domı́nio da freqüencia. 21 CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO 2.2 22 Definições Básicas sec:def-bas Definição 2.1 Sistemas são combinações de componentes ou dispositivos que atuam conjuntamente para realizar uma dada operação. Normalmente o termo sistema está relacionado a sistemas fı́sicos, biológicos, quı́micos, econômicos, entre outros. As entradas e saı́das propiciam a comunicação de um sistema com o meio. De maneira geral, o meio atua sobre o sistema através dos sinais de entrada e, por sua vez, o sistema interage com o meio através dos sinais de saı́da. PSfrag replacements Definição 2.2 Uma planta é um dispositivo fı́sico ou um conjunto de dispositivos fı́sicos existentes cuja finalidade é desempenhar uma dada operação. O modelo matemático da planta será chamado Sistema a Controlar ou, simplesmente Sistema. Esquematicamente tem-se: u1 u2 un fig:1 . . . SISTEMA . . . y1 y2 ou u SISTEMA y yn . Figura 2.1: Representação de um Sistema Definição 2.3 Um sistema é chamado Monovariável se ele possui um único terminal de entrada e um único terminal de saı́da (m = p = 1). Um sistema é dito Multivariável se ele possui mais de uma entrada e/ou mais de uma saı́da. defi:monomulti 2.3 sec:repr-sis 2.3.1 Representação de Sistemas Linearidade T um vetor de excitações. Considere que Seja ui = ui1 ui2 ... uim H representa um operador matemático que define de forma única a saı́da do sistema à aplicação da excitação ui : yi = Hui (2.1) T com yi = yi1 yi2 ... yip . Consideremos o sistema relaxado no instante to de aplicação da excitação ui . Neste caso o sistema está em repouso, e sua resposta seria nula à aplicação de uma entrada nula. O princı́pio da superposicão estabelece que a resposta produzida pela aplicação simultânea de duas forças de excitação diferentes, u 1 e u2 , é igual a soma das duas respostas individuais: CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO H(α1 u1 + α2 u2 ) = α1 Hu1 + α2 Hu2 , ∀u1 ,u2 e ∀α1 ,α2 ∈ < 23 (2.2) O princı́pio da superposição garante a verificação de duas propriedades: aditividade → H(u1 + u2 ) = Hu1 + Hu2 = y1 + y2 homogeneidade → H(αu1 ) = αHu1 = αy1 Definição 2.4 Um sistema é linear se ele satisfaz o princı́pio da superposição. Os sistemas para os quais o princı́pio da superposição não pode ser aplicado def:sislin são chamados sistemas não lineares. Observe que, para um sistema linear, o princı́pio da superposição permite, em muitos casos, analisar a solução de problemas complicados a partir do tratamento de problemas mais simples. Por exemplo, a influência de perturbações na resposta de um sistema é, em geral, um problema complexo de se analisar. Supondo-se linearidade, a resposta total do sistema é composta pela resposta devido ao sinal de controle e a resposta devido às entradas de perturbações. A análise pode, portanto, ser realizada para cada um dos casos separadamente. Como no caso do controle clássico, estaremos interessados, essencialmente, em sistemas representados a partir de uma ou mais equações diferenciais ordinárias lineares. No entanto, é importante salientar que o modelo matemático linear pode estar representando a dinâmica não linear de um sistema fı́sico, em uma dada faixa de funcionamento ou em torno de um ponto de operação. Neste caso, temos um modelo linearizado. Definição 2.5 Uma equação diferencial é linear se os seus coeficientes são def:edolin constantes ou apenas função da variável independente (geralmente o tempo). A forma geral de uma equação diferencial linear de ordem n é: dn y(t) dy(t) dm u(t) + . . . + a (t) + a (t)y(t) = b (t) + . . . + bm (t)u(t) n−1 n 0 dtn dt dtm (2.3) Pode-se ainda escrever: ao (t) (ao (t)pn + . . . + an−1 (t)p + an ) y(t) = (bo (t)pm + . . . + bm (t)) u(t) (2.4) onde p é o operador diferencial: 4 p= N (p) d =⇒ y(t) = u(t) dt D(p) Uma equação diferencial como a acima pode representar a dinâmica de um sistema linear monovariável. Se seus coeficientes são constantes: ai (t) = ai ,i = 0,...,n bj (t) = bj ,j = 0,...,m CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO 24 PSfrag replacements 1 u(t) y(t) y(t − α) u(t − α) α fig:sit α . Figura 2.2: Sistema invariante no tempo então o sistema é dito Invariante no Tempo. Neste caso: u1 (t) = u(t − α) =⇒ y1 = y(t − α) Caso contrário, o sistema é variante no tempo. Um exemplo de sistema variante no tempo é uma nave espacial, cuja massa varia devido ao consumo de combustı́vel, e a força da gravidade com a distância da terra. subsec:laplace 2.3.2 Transformada de Laplace A transformada de Laplace é uma poderosa ferramenta para a solução de equações diferenciais e, também, para a respresentação entrada e saı́da de sistema lineares invariantes no tempo. A aplicação da transformada de Laplace sobre uma equação diferencial permite transformá-la em uma equação algébrica podendo ser mais facilmente manipulada. A solução da equação algébrica é obtida em termos de uma variável complexa s. A obtenção da solução da equação diferencial é, então, obtida através do procedimento inverso, conhecido como anti-transformada de Laplace. Seja uma variável complexa s definida por: s = σ + jω (2.5) A transformada de Laplace de uma função contı́nua f (t), t ∈ R é definida por: Z ∞ 4 f (t)e−st dt (2.6) int_lap F (s) = L{f (t)} = 0 int_lap A transformada de Laplace existe se a integral definida em 2.6 converge. Para que uma função f (t) possua transformada de Laplace é suficiente que: Z ∞ |f (t)e−st | dt < ∞ (2.7) 0 A inversa da transformada de Laplace é definida como: Z σ+jω 1 4 −1 f (t) = L {F (s)} = F (s)est dt 2πj σ−jω (2.8) 25 CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO 2.3.3 subsec:ft Sistemas Lineares Monovariáveis - Função de Transferência O estudo das técnicas de análise e projeto na teoria de controle clássico basearam-se, principalmente, no conceito de função de transferência (F.T.). Uma F.T. é uma descrição que relaciona de maneira única a entrada e a saı́da do sistema. A partir dela, podemos determinar algumas propriedades do sistema, como estabilidade. Matematicamente a F.T. de um sistema linear invariante no tempo é definida como a relação da transformada de Laplace da saı́da (função resposta) para a transformada de Laplace de entrada (função excitação), considerandose todas as condições iniciais nulas. Para um sistema linear monovariável (invariante no tempo) de ordem n, tem-se: L bo sm̄ + b1 sm̄−1 + ... + bm̄−1 s + bm̄ 4 y(s) y(t) −→ y(s) =⇒ g(s) = = (2.9) u(s) ao sn̄ + a1 sn̄−1 + ... + an̄−1 s + an̄ u(t) −→ u(s) onde m ≤ m e n ≤ n, devido a possibilidade de haver cancelamento entre as raı́zes dos polinômios N (p) e D(p). Portanto, uma F.T. é “irredutı́vel” e contém toda a informação do sistema se, e somente se, n = n. Em geral, os sistemas reais são causais pois a saı́da do sistema no instante to depende apenas da entrada aplicada em t ≤ to . A F.T. correspondente é (estritamente) própria: g(s) = n(s) , com grau [n(s)] ≤ grau [d(s)] d(s) (2.10) Os valores de frequência complexa s = µ + jσ para os quais a F.T. se anula são os zeros da F.T., denotados zj , j = 1, . . . , m −→ g(zj ) = 0. Os valores de s para os quais a F.T. vale ∞, são chamados pólos da FT e denotados pi , i = 1, . . . ,n −→ g(pi ) = ∞. Observe que, em geral, os pólos da F.T. formam um subconjunto das raı́zes caracterı́sticas do polinômio D(p). Importante: 1. Utilização da F.T.: sistema em repouso ⇐⇒ condições iniciais nulas. 2. F.T. é uma relação entrada saı́da e não fornece, a priori, informações sobre as relações internas do sistema (propriedades estruturais). 2.3.4 subsec:mt Sistemas Lineares Multivariáveis - Matriz de Transferência Considere agora um sistema linear multivariável e invariante no tempo, onde u ∈ <m é o vetor de entrada e y ∈ <p é o vetor de saı́da. O objetivo CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO é estender o conceito de função Temos: u1 (t) u2 (t) u(t) = .. . um (t) y1 (t) y2 (t) y(t) = . .. yp (t) 26 de transferência aos sistemas multivariáveis. U1 (s) U2 (s) L U (s) = (2.11) .. −→ . Um (s) Y1 (s) Y2 (s) L (2.12) Y (s) = . −→ .. Yp (s) Por exemplo, temos a seguinte representação para o caso de duas entradas e duas saı́das: Y1 (s) G11 (s) G12 (s) U1 (s) = Y2 (s) G21 (s) G22 (s) U2 (s) Definição 2.6 A matriz que relaciona a transformada de Laplace do vetor de saı́da com a transformada de Laplace do vetor de entrada, considerando-se todas as C.I. nulas (sistema em repouso), é denominada Matriz de (função) de transferência entre o vetor de entrada e o vetor de saı́da do sistema: 4 Y (s) = G(s)U (s) (2.13) com U (s) = L{u(t)} e Y (s) = L{y(t)}. Em notação vetorial matricial: onde: Y1 (s) Y2 (s) .. . Yp (s) = G11 (s) G12 (s) ... G1m (s) G21 (s) G22 (s) ... G2m (s) .. .. .. .. . . . . Gp1 (s) Gp2 (s) ... Gpm (s) 4 Glj = def:matransf U1 (s) U2 (s) .. . Um (s) (2.14) Yl Uj relaciona a l-ésima saı́da a j-ésima entrada. A cada bloco Gij está associada uma equação diferencial como visto anteriormente. Portanto, o sistema multivariável também pode ser descrito por um conjunto de equações diferenciais ordinárias lineares. Pelo princı́pio da superposição (aplicável aos sistemas lineares), o efeito total em qualquer variável de saı́da pode ser obtido adicionando-se os efeitos de cada entrada: Yl (s) = p X j=1 Glj (s)Uj (s), i = 1, . . . ,m (2.15) PSfrag replacements CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO U1 (s) + G11 + 27 Y1 (s) G21 G12 U2 (s) fig:relinout + G22 + Y2 (s) . Figura 2.3: Relação entradas-saı́das subsec:var-estados 2.3.5 Representação por Variáveis de Estado O uso de computadores digitais e a busca por uma representação padronizada de diferentes tipos de sistemas, conduziram à formulação no domı́nio do tempo das equações representando sistemas de controle. A representação no domı́nio do tempo pode ser facilmente utilizada para representar sistemas lineares, variantes no tempo, mono ou multi-variáveis. Além disso, a resolução de sistemas no domı́nio do tempo fica bastante facilitada pelo uso de computadores. No domı́nio do tempo incluem-se todos os sistemas em que o domı́nio matemático incorpora a resposta e a representação em termos do tempo t. O projeto e a análise no domı́nio do tempo utiliza o conceito de estado de um sistema. Definição 2.7 O estado de um sistema no tempo t0 é a quantidade de informação em t0 que, juntamente com a excitação u, para todo t ≥ t0 , determina de forma única o comportamento dinâmico do sistema, para qualquer instante de tempo t ≥ t0 . Para sistemas dinâmicos, o estado de um sistema é descrito em termos de um conjunto de variáveis, denominados variáveis de estado x1 (t), x2 (t), · · · , xn (t). PSfrag replacements A forma geral defig:sis-din um sistema dinâmico, incluindo as variáveis de estado, é mostrada na figura 2.4: Condições Iniciais x(0) Entrada u(t) fig:sis-din Estado x(t) Saı́da y(t) . Figura 2.4: Sistema Dinâmico O estado de um sistema é descrito por um sistema de equações diferenciais de primeira ordem, escrito em termos das variáveis de estado. Nessa representação, x1 , x2 , · · · , xn constituem as variáveis de estado e u1 , u2 , · · · , um 28 CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO correspondem às variáveis de entrada do sistema. Esse sistema de equações diferenciais de primeira ordem é escrito sob a forma: ẋ1 = a11 x1 + a12 x2 + · · · + a1n xn + b11 u1 + · · · + b1m um ẋ2 = a21 x1 + a22 x2 + · · · + a2n xn + b21 u1 + · · · + b2m um .. .. . . ẋn = an1 x1 + an2 x2 + · · · + ann xn + bn1 u1 + · · · + bnm um (2.16) Escrito sob a forma matricial temos: ẋ = Ax + Bu (2.17) onde, x= x1 x2 .. . xn : vetor de estados A matriz dinâmica como: a11 a12 a21 a22 A= . .. .. . an1 an2 ; u= u1 u2 .. . um : vetor de controle (2.18) do sistema A e a matriz de entrada B são definidas ··· ··· ··· ··· a1n a2n .. . ann ; B= b11 b21 .. . bn1 ··· ··· ··· ··· b1m b2m .. . bnm (2.19) Supõe-se que o sistema apresenta p saı́das, escritas em termos das componentes de estados e também das componentes das entradas: y = Cx + Du (2.20) onde, y= y1 y2 .. . yp : vetor de saı́das (2.21) A matriz de saı́da C e de transmissão direta D são dadas por: C= c11 c12 c21 c22 .. .. . . cp1 cp2 ··· ··· ··· ··· c1n c2n .. . cpn ; D= d11 · · · d21 · · · .. . ··· dp1 · · · d1m d2m .. . dpm (2.22) CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO 2.3.6 subsec:ft-ss 29 Relação entre a Representação de Estados e Função de Transferência Dada uma representação de estados da forma: ẋ = Ax + Bu (2.23) eq_estado y = Cx + Du (2.24) eq_saida eq_estado eq_saida Aplicado a transformada de Laplace nas equações 2.23 e 2.24, supondo-se condições inicias nulas temos: sX(s) = AX(s) + BU (s) (2.25) Y (s) = CX(s) = DU (s) (2.26) Definindo-se G(s) = Y (s)/U (s) temos: G(s) = C(sI − A)−1 B + D 2.4 (2.27) Análise temporal via Função de Transferência sec:at-ft Considere um sistema representado por uma função de transferência racional: n(s) br sr + br−1 sr−1 + . . . + b1 s + b0 G(s) = = n (2.28) eq:ft-nsds d(s) s + bn−1 sn−1 + . . . + a1 s + a0 em que, por definição, r ≤ n os polinômios d(s) e n(s) são coprimos. Por simplicidade, supõe-se na seqüência que G(s) é uma função estritamente própria, i.e.: r < n. Note que no caso r = n, pode-se espressar G(s) como: G(s) = n(s) = d(s) l(s) +d d(s) |{z} estrit. própria Os pólos do sistema definido por G(s), denotados pi , i = 1, . . . , n, correspondem as n raı́zes da equação d(s) = 0. Pode-se então escrever: d(s) = eq: n Y (s − pi ) i=1 A partir de (??), verifica-se que pólos de G(s) estão associados as raı́zes da equação caracterı́stica det(sI − A) = 0. Os zeros de G(s), denotados zj , j = 1, . . . , r, correspondem as r raı́zes da equação n(s) = 0: r Y n(s) = (s − zj ) j=1 Note que a função de transferência é anulada para os valores de freqüência correspondentes aos zeros do sistema: G(s = zi ) = 0. Em geral os pólos e zeros complexos aparecem em pares complexos-conjugados, pois os todos os coeficientes dos polinômios n(s) e d(s) são reais. Considera-se, então, que pi+1 = p∗i se pi ∈ C e zj+1 = zj∗ se zj ∈ C CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO subsec:frac-parc 2.4.1 30 Resposta ao impulso utilizando frações parciais Se os pólos são distintos, a parte estritamente própria de G(s) pode ser expressa por uma expansão em frações parciais: n X ri l(s) = a(s) s − pi (2.29) eq:expfracparc i=1 na qual ri+1 = ri∗ se pi+1 = p∗i . Os valores numéricoseq:expfracparc dos n resı́duos nos numeradores podem ser encontrados multiplicando-se (2.29) por (s − pi ) e avaliando a expressão resultante em s = pi , o que leva à fórmula: rk = l(s) n X (s − pi ) i=1,i6=k eq:expfracparc Como y(s) = G(s)u(s), a partir de (2.29) obtém-se a representação do sistema sob a forma de uma função de transferência modal: ! n X ri y(s) = (2.30) eq:ft-modal + d u(s) s − pi i=1 {z } | G(s) A transformada inversa de Laplace de y(s) para u(s) = L{δ(t)} = 1 corresponde à resposta impulsiva do sistema representado por G(s): y(t) = n X ri epi t + dδ(t) (2.31) eq:resp_impuls i=1 Então, a resposta impulsiva de um sistema linear e invariante no tempo é formada por uma soma ponderada dos seus modos (epi t ), bem como δ(t). No caso de pólos complexos-conjugados, pode-se ainda expressar a resposta impulsiva do sistema como uma função a coeficientes somente reais, pois: p ∗ ri epi t +ri∗ epi t = (ν+jρ)e(µ+jσ)t +(ν−jρ)e(µ−jσ)t = 2 ν 2 + ρ2 eµt cos σt + tan−1 σ/µ (2.32) eq:resp_parcc eq:resp_impuls eq:resp_parcc A partir de (2.31) e (2.32) verifica-se que a localização dos pólos de um sistema dinâmico determinam o comportamento ao longo do tempo da sua resposta impulsiva. Um pólo com parte real negativa, <(s = mu+jσ) = µ < 0, corresponde a um modo estável que decai exponencialmente. Observe que, quanto mais próximo um pólo estável estiver do eixo imaginário, mais lento é o decaimento correpondente. Um sistema no qual todos os pólos encontram-se no semi-plano complexo estável (<(s) < 0 é dito ser um sistema estável. Qualquer pólo no semi-plano instável (<(s) < 0), contribui na resposta impulsiva via um modo que cresce exponencialmente. Qualquer sistema com pólos instáveis <(s = mu + jσ) = µ > 0, é dito ser um sistema instável. Pólos CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO 31 sobre o eixo imaginário contribuem com termos sinusoidais, no caso de um par de pólos puramente imaginários, pi,i+1 = ±jσ, oufig:pole_loc com um termo constante no caso de um pólo na origem, pi = 0. A figura ?? mostra algumas localizações de pólos no plano-complexo e a contribuição dos modos correspondentes Figura (pág 104) ou de outro livro A expansão em frações parciais também pode ser utilizada para a análise da resposta temporal de um sistema sujeito outros tipos de entrada (degrau, rampa, senóide, ...). Nestes caso, pode-se utilizar a expressão da transformada de Laplace do sinal de entrada e realizar a expansão em frações parciais do produto Gu (s) = G(s)u(s). Como resultado obtém-se uma soma ponderada dos modos do sistema, estudados anteriormente e dos modos associado a entrada: y(t) = L −1 {Gu (s)} = n X ri e pi t + i=1 n̄ X r̄l ep̄l t + du(t) l=1 em que n̄, r̄l são quantidades associadas aos modos ep̄l t . subsec:crit-desemp 2.4.2 Índices de Desempenho Os ı́ndices de desempenho normalmente são utilizados para definir a qualidade da resposta. Os padrões normalmente utilizados são baseados em sistemas de primeira e de segunda ordem. Para um sistema de primeira ordem estável com função de transferência dada por: g(s) = K 1 + sτ A resposta do sistema para uma entrada do tipo degrau unitário é dada por: y(t) = K(1 − e−f ractτ (2.33) saida_primeira_ordem onde K é o ganho estático do sistema e τ é a constante de tempo. A resposta ao degrau unitário para um sistema de primeira ordem é dada fig:primeira_ordem na figura 2.5: Figura 2.5: Resposta de um Sistema de Primeira Ordem fig:primeira_ordem O valor de regime é dado por: y∞ = lim y(t) = K t7→∞ CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO 32 O tempo de acomodação para sistemas de primeira ordem, normalmente, é calculado como sendo o tempo necessário para atingir 95% ou 99% do valor de regime e correspondem, respectivamente, à 3τ e 5τ , conforme pode ser verificado a seguir: 3τ y3τ = K(1 − e τ ) = 1 − e−3 ≈ 0.95K 5τ τ y5τ = K(1 − e ) = 1 − e −5 ≈ 0.99K (2.34) (2.35) (2.36) Para sistemas de segunda ordem com pólos complexos estáveis os ı́ndices mais usados são: • Sobressinal máximo: Mp É a relação entre o valor máximo que a resposta atinge e o valor de regime. Este valor, em muitos casos, está associado a questões de segurança tais como: tensão máxima que um circuito pode suportar, máxima deformação que uma estrutura pode suportar sem que haja ruptura do material, etc. • Tempo de sobressinal ou de pico: tp É o instante em que ocorre o sobressinal • Tempo de acomodação: ts É o tempo necessário para que a resposta atinja o valor de regime. Normalmente utiliza-se valores de 5% ou 2% acima ou abaixo do valor de regime como variação aceita. • Tempo de subida: tr É o tempo necessário para que a resposta do sistema atinja, pela primeira vez, 90% do valor de regime. Este parâmetro está associado à velocidade de resposta do sistema. Sistemas rápidos têm pequenos valores de tr e sistemas lentos têm valores altos de tr . Para um sistema de segunda ordem, estes valores estão indicados no gráfico mostrado a seguir. As especificações são obtidas para sistemas de segunda ordem sem zeros. A maioria dos sistemas encontrados na prática são mais complexos que sistemas de segunda ordem sem zeros. As especificações fornecem parâmetros de comparação entre sistemas mais complexos e sistemas de segunda ordem. A resposta ao degrau unitário de um sistema de segunda ordem é dada por: σ −σt y(t) = 1 − e cos ωd + sin ωd t ωd t p onde ωd = ωn 1 − ζ 2 e σ = ζωn . CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO 33 Step Response From: U(1) 1.4 Mp 1.2 0.8 To: Y(1) Amplitude 1 0.6 0.4 0.2 0 0 2 t r t p 4 t 6 s Time (sec.) 8 10 12 Figura 2.6: Resposta de um Sistema de Segunda Ordem Para a obtenção do sobressinal máximo devemos encontrar o valor de t tal que a derivada da saı́da é nula: dy σ −σt = σe sin ωd t − e−σt (−ωd sin ωd t + σ cos ωd t) = 0 cos ωd t + dt ωd Reescrevendo a equação acima temos: −e −σt σ2 − sin ωd t + ωd sin ωd t ωd =0 A primeira vez que o valor máximo ocorre é para ωd t = π, ou seja: ωd t p = π ⇒ t p = π π p = ωd ωn 1 − ζ 2 Substituindo o valor de tp na equação da resposta temos: y(tp ) = 1 + Mp = 1−e −σπ ωd = 1+e −σπ ωd cos π + σ sin π ωd Portanto, Mp = e −σπ ωd =e √−ζπ 1−ζ 2 0≤ζ<1 Um outro parâmetro importante na especificação da qualidade da resposta de um sistema é o tempo de acomodação ts (5%) ou ts (2%). O tempo de acomodação é dado dentro de uma precisão de 5% ou 2%. CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO 34 Nao existe valor exato para o tempo de acomodação e, por analogia com sistemas de primeira ordem, temos: 3 ζωn 4 ts (2%) = 4τ = ζωn ts (5%) = 3τ = 2.5 Análise temporal via Representação de Estados sec:at-ss Neste seção, apresenta-se uma análise no domı́nio do tempo de sistemas representados por uma equação dinâmica, composta por uma equação de estado e uma equação de saı́da, como segue: ẋ(t) = Ax(t) + Bu(t) , x(0) = xo (2.37) eq:est y(t) = Cx(t) + Du(t) (2.38) eq:saida nas quais: x ∈ <n , u ∈ <m e y ∈ <p são os vetores de estado, de entrada e de saı́da, respectivamente, com A ∈ <n×n , B ∈ <n×m , C ∈ <p×n e D ∈ <p×m , e x(0) = x0 é uma condição inicial arbitrária em t0 = 0. subsec:ss-enn 2.5.1 Resposta à Entrada Nula Considere inicialmente o sistema homogêneo (com entrada nula, u(t) = 0 ∀ t ≥ 0) representado pelo problema de valor inicial (PVI): ẋ(t) = Ax(t) , x(0) = x0 (2.39) eq:sishomog No caso de uma equação diferencial escalar ẋ(t) = ax(t), em que a ∈ < (ou a ∈ C), sabe-se que a solução do PVI correspondente é dada por: x(t) = eat x0 , ∀t ≥ 0 em que: eat =1+ at 1! + a2 t 2 2! + a3 t 3 3! + ... = (2.40) eq:solescalar ∞ X a k tk . k! Para tratar o caso geral de um sistema homogêneo de ordem n, considere a função exponencial da matriz A, definida como: k=0 eAt = I + ∞ X A k tk At A2 t2 A3 t3 + + + ... = 1! 2! 3! k! k=0 Em particular, a função eAt satisfaz as propriedades seguintes: P1. eAt e−At = e−At eAt = I P2. d At dt e = AeAt = eAt A (2.41) eq:expmatA CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO 35 P3. eA(t+v) = eAt eAv eq:sishomog Assim, a solução (única) do sistema homogêneo (2.39) pode ser dada em termos da exponencial da matriz A, como segue: x(t) = eAt x0 , ∀t ≥ 0 eq:solhomog (2.42) eq:solhomog eq:sishomog Observe que (2.42) verifica o PVI correspondente a (2.39), pois: ẋ(t) = d At e x0 = A eAt x0 e x(0) = eA0 x0 = x0 . | {z } dt x(t) eq:solhomog Além disso, nota-se a partir de (2.42) que eAt permite determinar, para qualquer instante de tempo t = tf , a transição entre qualquer estado inicial x(0) = x0 e o estado atual xf = x(tf ). Por este motivo, eAt também é chamada de matriz de transição de estados. Finalmente, aplicando a transformada de eq:sishomog Laplace ao sistema homogêneo (2.39), tem-se: X(s) = (sI − A)−1 x0 ←→ x(t) = L−1 (sI − A)−1 x0 (2.43) eq:homogLapl eq:solhomog eq:homogLapl Então, a partir de (2.42) e (2.43), deduz-se que: L{eAt } = (sI − A)−1 ←→ eAt = L−1 {(sI − A)−1 } subsec:ss-solucao 2.5.2 (2.44) eq:siexp Solução Geral para a Representação de Estados eq:est Considere agora a equação de estado não-homogênea ( 2.37), reescrita na forma: ẋ(t) − Ax(t) = Bu(t) (2.45) eq:estreesc eq:estreesc Pré-multiplicando ambos os lados de (2.45) por e−At , e aplicando a propriedade P1, obtém-se: e−At (ẋ(t) − Ax(t)) = d −At e x(t) = e−At Bu(t) dt Então, integrando esta equação entre 0 e t, chega-se a: e−At x(t) = x0 + Z t e−Aτ Bu(τ )dτ 0 Portanto, aplicando as propriedades P2 e P3, a solução da equação de estado eq:est não-homogênea (2.37) é dada por: x(t) = At e x0 + | {z } Resposta à Entrada Nula Z t eA(t−τ ) Bu(τ )dτ (2.46) eq:soleqest |0 {z } Resposta à Condição Inicial Nula CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO 36 eq:saida a qual, substituı́da em (2.38), leva a: y(t) = At + Ce x0 | {z } Resposta à Entrada Nula Z t CeA(t−τ ) Bu(τ )dτ + Du(t) (2.47) eq:soleqsai |0 {z } Resposta à Condição Inicial Nula eq:soleqest eq:soleqsai Observe, a partir de (2.46) e (2.47), que a solução da equação dinâmica consiste da soma de um termo que representa a transição do estado inicial (Resposta à Entrada Nula) e de um termo devido a aplicação de um vetor de entrada (Resposta à Condição Inicial Nula). Por definição, a matriz de transferência do sistema, G(s) = C(sI − A)−1 B + D, é aeq:soleqsai transformada de Laplace da resposta ao impulso. Então, considerando em ( 2.47) que x0 = 0 e 0 u(t) = ∆(t) = δ(t) . . . δ(t) , tem-se: G(s) = L Z t B∆(τ )dτ + D∆(t) = L CeAt B + D = CL eAt B + D Ce A(t−τ ) 0 A matriz G(t) = L−1 {G(s)} = CeAt B + D, de dimensão p × m, é chamada de matriz de resposta ao impulso. subsec:ana-modal 2.5.3 Análise Modal A seguir, introduz-se os conceitos de autovalores e de autovetores, os quais serão utilizados naeq:soleqsai seqüência para analisar a solução analı́tica dada pelas exeq:soleqest pressões (2.46) e (2.47). Para tanto, será deduzida uma expressão para eAt , eq:expmatA numa forma alternativa à expansão em série infinita (2.41), a qual permitirá, em particular, colocar em evidência algumas propriedades estruturais do siseq:est eq:saida tema representado por (2.37) e (2.38). subsub:jordan Autovalores, Autovetores e Forma de Jordan Um escalar λ ∈ C é um autovalor de A ∈ <n×n se existe um vetor não-nulo v ∈ C n tal que Av = λv (2.48) eq:avlambdav O vetor v é chamado deeq:avlambdav autovetor (à direita) de A associado ao autovalor λ. Note que a expressão (2.48), pode ser reescrita sob a forma (λI − A)v = 0. Então, para um valor fixo de λ ∈ C, esta equação admite uma solução nãotrivial, v 6= 0, se e somente se λ ∈ C for uma raiz da equação caracterı́stica de A: ∆(λ) = det(λI − A) = 0 (2.49) eq:eqcaracteristica Como A é uma matriz quadrada de dimensão n cujos elementos são números reais, o polinômio caracterı́stico ∆(λ) = det(λI − A), é um polinômio de grau n, cujos coeficientes são todos reais. Assim, toda matriz A ∈ < n×n tem n autovalores, os quais podem ser repetidos e, necessariamente, complexos 37 CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO conjugados no caso de autovalores complexos, i.e.: λi+1 = λ∗i se λi ∈ C. O espectro de A corresponde ao conjunto (auto-conjugado) de seus autovalores: σ(A) = {λ1 , λ2 , . . . , λn }. A dimensão algébrica de um autovalor λi , denotada mi , corresponde ao número de vezes em que este autovalor aparece como raiz da equação caracterı́stica. Os autovetores (à direita) associados aos autovalores de A verificam a equação: (λi I − A)vi = 0 (2.50) eq:calcautovet com vi+1 = vi∗ se λi+1 = λ∗i . Seja ni a dimensão geométrica do autovalor λi , dada pela dimensão do espaço-nulo de (λi I − A). No caso de um autovalor não-repetido, tem-se: ni = mi = 1. No caso de autovalores repetidos, tem-se ni ≤ mi . Pode-se, então, mostrar que autovetores associados a autovalores distintos formam, obrigatoriamente, um conjunto de autovetores linearmente independentes. Entretanto, no caso de autovalores repetidos, duas situações diferentes podem ocorrer: 1. o autovalor repetido admite ni = mi autovetores linearmente independentes entre si, os quais são também linearmente independente dos autovetores associados aos demais autovalores; 2. o autovalor repetido admite menos autovalores linearmente independentes do que sua multiplicidade algébrica, ou seja, ni < mi ; neste caso pode-se definir vetores auxiliares associados ao autovalor λi , denominados autovetores generalizados (à direita), que verificam as relações: j = −vkj , (λi I − A)vk+1 para j = 1, . . . , ni e k = 0, 1, . . . , n̄k (2.51) eq:calcautovetgen ni X eq:calcautovet em que, por definição, v0j é um autovetor LI que satisfaz (2.50), e n̄j = mi . j=0 Então, cada cadeia de n̄j autovetores generalizados forma um conjunto de vetores LI, a qual é linearmente independente das demais cadeias de autovetores associadas ao mesmo autovalor e também dos autovetores (generalizados) associados aos demais autovalores. Um autovetor à esquerda da matriz A, associado ao autovalor λi , é todo vetor não-nulo qi ∈ C n que satisfaz: qi0 (λi I − A) = 0 ⇔ (λi I − A0 )qi = 0 (2.52) eq:calcautovetesq com qi+1 = qi∗ se λi+1 = λ∗i . Os autovetores e autovetores generalizados à esquerda obedecem as mesmas propriedades descritas anteriormente para os autovetores e autovetores generalizados à direita. n×n formada pelos n autovetores geneSejam V = v1 v2 . . . vn ∈ C 0 q1 q0 2 ralizados (à direita) da matriz A, e Q = V −1 = . ∈ C n×n cujas linhas .. qn0 CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO 38 são autovetores generalizados à esquerda da matriz A. Considere a matriz quasi-diagonal J ∈ C n×n , na forma canônica de Jordan, formada a partir dos autovalores da matriz A como segue: λl 1 0 . . . 0 0 0 λl 1 . . . 0 0 0 0 λl . . . 0 0 n̄l ×n̄l J = diag J¯l , com J¯l = (2.53) eq:forma de Jordan .. .. .. . . . . .. ∈ C . . . . . . 0 0 0 . . . λl 1 0 0 0 . . . 0 λl Note que se n̄l = 1, então J¯l = λl ∈ C. Isto sempre ocorre no caso em que λl é autovalor simples (nl = 1), mas também pode ocorrer no caso de autovalores eq:calcautovet eq:calcautovetgen repetidos quando n̄l = 1. Então, a partir das relações (2.50) e (2.51), pode-se verificar que AV = V J ⇐⇒ QA = JQ. Portanto, toda matriz A ∈ <n×n admite a decomposição de Jordan: A = V −1 JV = QJQ−1 (2.54) eq:decompjordan Exemplo: Considere A ∈ <3×3 tal que ∆(λ1 ) = (λ1 I − A)3 . Dependendo da estrutura da matriz A, a sua forma de Jordan pode ser dada por uma das três matrizes a seguir: λ1 0 0 λ1 0 0 λ1 1 0 J1 = 0 λ 1 0 ; J2 = 0 λ 1 1 ; J3 = 0 λ 1 1 0 0 λ1 0 0 λ1 0 0 λ1 {z } {z } {z } | | | n1 =3=m1 n1 =2<m1 n1 =1<m1 Note que a cada um dos casos acima está associada uma estrutura de autovetores e cadeia(s) de autovetores generalizados. Em particular, J 2 indica a existência de dois autovetores LI, v1 e v2 , e de um autovetor generalizado v3 , o qual verifica (λi I − A)v3 = −v2 e forma uma cadeia de grau 2 junto com v2 . Cayley-Hamilton? ???????????? Por definição, a exponencial da matriz de Jordan é dada por: eJt = I + ∞ X J k tk Jt J 2 t2 J 3 t3 + + + ... = 1! 2! 3! k! (2.55) eq:expjordan k=0 eq:decompjordan Então, utilizando a decomposição (2.54), a exponencial da matriz da matriz A, eq:expmatA definida por (2.41), pode ser obtida a partir exponencial da matriz de Jordan, como segue: eAt = V eJt V −1 = Q−1 eJt Q (2.56) eq:expjordan CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO 39 A matriz eJt é uma matriz bloco-diagonal, o que decorre da forma blocodiagonal da forma canônica de Jordan: n̄ −2 tn̄l −1 λl t e eλl t teλl t . . . (n̄t l l−2)! eλl t (n̄−1)! n̄l −2 n̄ −3 0 eλ l t λl . . . (n̄t l l−3)! eλl t (n̄t l −2)! n o ¯ ¯ . .. .. .. .. , com eJl = eJt = diag eJl .. . . . . λ t λ t l l 0 0 ... e te λ t 0 0 ... 0 e l (2.57) eq:expblocos eq:sishomog Exemplo: Considere um sistema homogêneo(2.39), de dimensão n = 3, λ 0 0 cuja matriz A tem a forma de Jordan: J3 = 0 λ 1 . Aplicando a 0 0 λ transformação x = V x̄, a representação do sistema autônomo na base formada pelos autovetores generalizados é dada por: x̄10 x̄1 (t) λ 0 0 x̄˙ 1 (t) x̄˙ 2 (t) = 0 λ 1 x̄2 (t) , com x̄0 = x̄20 (2.58) eq:jordanhomog x̄30 x̄3 (t) 0 0 λ x̄˙ 3 (t) Observe que, nessa nova base, os estados x̄1 e x̄3 estão desacoplados entre si e do estado x̄2 . Assim: x̄1 (t) = eλt x̄01 e x̄3 (t) = eλt x̄03 , ∀t ≥ 0 (2.59) eq:barx1x3 Entretanto, o estado x̄2 está acoplado ao estado x̄ , como indica a equação eq:jordanhomog 3 escalar a seguir, obtida a partir de (2.58): x̄˙ 2 (t) − λx̄2 = x̄3 (t) (2.60) eq:barx2x3 eq:barx1x3 Substituindo x̄3 (t) pelaeq:barx2x3 expressão dada em (2.59), a pré-multiplicação por e−λt de ambos os lados de (2.60), e sua integração entre 0 e t, implica em: Z t −λτ Z t Z t d e x̄ (τ ) 2 −λτ ˙ −λτ e x̄2 (τ ) − e λx̄2 (τ ) dτ = x̄30 dτ dτ = dτ 0 0 0 Portanto: x̄2 (t) = eλt x̄20 + tx̄30 (2.61) eq:barx2 eq:barx1x3 eq:barx2 Como x̄(t) = eJt x̄0 , ∀t ≥ 0, partir de (2.59) e (2.61) obtém-se: λt e 0 0 eJt = 0 eλt teλt 0 0 eλt (2.62) eq:expJexemp O procedimento adotado no exemplo anterior pode ser generalizado para a determinação da exponencial de um bloco de Jordan genérico, de ordem n̄ l , CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO 40 eq:expblocos mostrada em (2.57). Figura ???? Decomposição Modal subsub:dec-modal Considere a seguinte reescrita das expressõeseq:expjordan que definem a solução da eq:soleqest eq:soleqsai equação dinâmica, obtida a partir da utilização (2.56) em (2.46) e (2.47): x(t) = V eJt x̄0 + Jt y(t) = C̄e x̄0 + nas quais: B̄ = QB = C̄ = CV = b̄01 b̄02 .. . b̄0n Z Z t V eJ(t−τ ) B̄u(τ )dτ (2.63) eq:solJest C̄eJ(t−τ ) B̄u(τ )dτ + D̄u(t) (2.64) eq:solJsai 0 t 0 , x¯0 = Qx0 = c̄1 c̄2 . . . c̄n x̄01 x̄02 .. . x̄0n , D̄ = D Por simplicidade, considere na discussão a seguir que a matriz A possui n autovalores distintos e, portanto, que eJt é uma matriz diagonal. Pode-se, eq:solJest eq:solJsai então, reescrever (2.63) e (2.64) na forma: x(t) = y(t) = n X i=1 n X i=1 x̄0i e λi t vi + x̄0i eλi t c̄i + n Z X t i=1 0 n Z t X i=1 0 eλi (t−τ ) vi b̄0i u(τ )dτ (2.65) eq:solModalest eλi (t−τ ) c̄i b̄0i u(τ )dτ + D̄u(t) (2.66) eq:solModalsai Na descrição acima, cada quantidade eλi t define um modo do sistema. Podese observar, então, que a solução geral de um sistema é composta a partir da combinação dos modos, dos autovetores (à esquerda e à direita) associados, das entradas aplicadas e da condição inicial. Apresenta-se, a seguir, uma análise eq:solModalest eq:solModalsai mais detalhada das relações (2.65) e (2.66) 1. Análise modal da equação de estados P (a) Resposta à entrada nula: Neste caso, x(t) = ni=1 x̄0i eλi t vi , ∀t ≥ 0. Portanto, o estado do sistema autônomo, em qualquer instante de tempo t pode ser calculado como uma combinação linear dos autovetores de A cujos coeficientes de ponderação são definidos por CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO βi (t) = x̄0i eλi t . Além disso, para cada 0 , se <(λi ) < 0 → 1 , se <(λi ) = 0 → lim |eλi t | = t→∞ ∞ , se <(λi ) > 0 → 41 modo do sistema, tem-se: modo assintoticamente estável modo estável modo instável Portanto, para qualquer condição inicial x0 ∈ <n , a convergência dos estados do sistema autônomo para a origem é garantida se e somente se todos os modos do sistema são assintoticamente estáveis; nesta situação, o sistema autônomo é dito ser assintóticamente (internamente) estável. Em outras situações, o sistema é estável se <(λi ) ≥ 0 ∀i, ou instável se houver algum modo instável 1 . P Rt (b) Resposta à condição inicial nula: Neste caso, x(t) = ni=1 0 eλi (t−τ ) vi b̄0i u(τ )dτ 0 qi vi = 1 , ∀i ∀t > 0. Como, QV = I ⇔ , tem-se: qi0 vj = 0 , ∀j 6= i Z t 0 0 eλi (t−τ ) u(τ )dτ x̄i (t) = qi x(t) = b̄i 0 Verifica-se, então, que b̄0i 6= 0 é uma condição necessária para poder atuar sobre o estado x̄i (t). Este tipo de propriedade está associada ao conceito de Controlabilidade, a ser estudado no Capı́tulo X. 2. Análise modal da equação de saı́da P (a) Resposta à entrada nula: Neste caso, y(t) = ni=1 x̄0i eλi t c̄i , ∀t ≥ 0. Observe, inicialmente, que se c̄i = 0, então o modo eλi t não estará presente na saı́da y(t). Verifica-se também que c̄i 6= 0 é uma condição necessária para poder recuperar na saı́da y(t) a informação do estado inicial x̄0i . Essas propriedades estão associadas ao conceito de Observabilidade, a ser estudado no Capı́tulo X. Rt P (b) Resposta à condição inicial nula: Neste caso, y(t) = ni=1 Γi 0 eλi (t−τ ) u(τ )dτ + D̄u(t), ∀t > 0, em que Γi = c̄i b̄0i ∈ C p×m é uma matriz de posto 1 ou nula quando c̄i = 0 e/ou b̄0i = 0; no caso monovariável, m = p = 1, tem-se γi = c̄i b̄i ∈ C. Em geral, considerando a resposta ao impulso, u(t) = ∆(t), e aplicando a transformada de Laplace, obtém-se2 : G(s) = C(sI − A)−1 B + D = n X i=1 1 Γi + D̄ (s − λi ) Esta expressão pode ser vista como uma expansão em frações parciais para a matriz de transferência G(s). Ela mostra, em particular, que o conjunto de pólos da matriz de transferência G(s) 1 Uma análise de convergência das trajetórias do sistemas para escolhas particulares de condições iniciais, tomadas na direção de um determinado autovetor ou em um subespaço determinado por um subconjunto de autovetores também é possı́vel 2 Compare esta expressão com a expansão em frações parciais de uma função de transferência CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO 42 corresponde, no caso de autovalores distintos, ao subconjunto dos autovalores da matriz A para os quais Γi 6= 0 . Para complementar a discussão anterior, considera-se no exemplo a seguir o caso de um sistema com autovalores repetidos. Exemplo: Seja um sistema de dimensão 3 representado por matrizes (A,B,C), cuja forma canônica de Jordan de A é dada por J2 utilizada no exemplo anterior: λt e 1 0 0 λ1 0 0 J2 = 0 λ1 1 =⇒ eJ1 t = 0 eλ1 t teλ1 t 0 0 λ1 0 0 e λ1 t Neste caso x(t) y(t) = = (x̄01 v1 + (x̄02 + tx̄03 )v2 + x̄03 c̄3 ) eλ1 t + (x̄01 c̄1 + (x̄02 + tx̄03 )c̄2 + x̄03 c̄3 ) eλ1 t + Z Z t 0 t v1 b̄01 + v2 b̄02 + (t − τ )b̄03 + v3 b̄03 eλ1 (t−τ ) u(τ )dτ (Γ1 + Γ2 + (t − τ )Γ23 + Γ3 ) eλ1 (t−τ ) u(τ )dτ 0 em que Γi = c̄i b̄0i , para i = 1, . . . , 3, e Γ23 = c̄2 b̄03 . Uma análise detalhada destas expressões permite verificar que a existência de diferentes blocos de Jordan associados a um mesmo autovalor e, especialmente, a existência do bloco de ordem maior que 1, leva a algumas conclusões sobre as propriedades estruturais do sistema (estabilidade, controlabilidade, observabilidade), em parte distintas das obtidas para o caso de autovalores distintos. Em particular, a presença do termo x̄02 + tx̄03 , dependente do tempo, na resposta à entrada nula, implica na instabilidade do sistema também no caso em que <(λ1 ) = 0. 2.6 Resposta em freqüência Para sistemas lineares estáveis, a resposta em regime permanente para uma entrada harmônica na forma u(t) = exp(jωt) onde ω ∈ R, pode ser obtida a partir da equação diferencial do sistema, supondo uma saı́da particular yp (t) dada por yp (t) = y0 exp(jωt) onde y0 ∈ C. Seja um sistema cuja dinâmica é descrita por equação diferencial na forma an y n + an−1 y n−1 + . . . + a0 y = bm y m + bm−1 y m−1 + . . . + b0 u CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO 43 a constante y0 pode ser determinada para u = exp(jωt), supondo y = yp , obtendo-se bm (jω)m + bm−1 (jω)m−1 + . . . + b0 y0 = . an (jω)n + an−1 (jω)n−1 + . . . + a0 Portanto, para uma entrada harmônica qualquer u(t) = u0 exp(jωt), com u0 ∈ C, a saı́da em regime permanente yrp (t) é dada por yrp (t) = a exp(jωt + φ), onde a = ky0 k · ku0 k e φ = arg(y0 ) + arg(u0 ). A constante complexa y0 é chamada resposta em freqüência do sistema. Para sinais harmônicos reais na forma u = A cos(ωt + ϕ) ou u = A sin(ωt + ϕ), a resposta em regime permanente yrp é dada por yrp = ky0 kA cos(ωt + ϕ + arg(y0 )) ou yrp = ky0 kA sin(ωt + ϕ + arg(y0 )) uma vez que A sin(ωt + ϕ) = exp(jωt)+exp(−jωt) 2 exp(jωt)−exp(−jωt) A exp(jφ) 2j A cos(ωt + ϕ) = A exp(jφ) Considerando que a relação entrada-saı́da do sistema pode ser representada pela função de transferência H(s), conclui-se que a resposta em freqüência do sistema pode ser determinada por y0 = H(jω), onde ky0 k = kH(jω)k e arg(y0 ) = arg(G(jω)), sendo que kH(jω)k e arg(H(jω)) são respectivamente designados como módulo e fase da resposta em freqüência. A resposta em freqüência de um sistema é uma informação importante, pois a partir dela é possı́vel analisar o comportamento do sistema como: filtro; sistema de controle automático, bem como a resposta para entradas periódicas. A resposta em freqüência, H(jω), é uma função complexa de variável real, podendo ser representada graficamente de diversas maneiras. As formas mais comumente utilizadas são: representação linear; logarı́tmica (diagrama de Bode) e polar (diagrama de Nyquist). Representação linear A representação linear da resposta em freqüência é composta por dois gráficos sepadarados: módulo e fase. No gráfico de módulo representa-se kH(jω)k em função de ω e no de fase representa-se arg(H(jω)). Diagrama de Bode O chamado diagrama de Bode desenvolvido por H. W. Bode no laboratório Bell na década de 1930, consiste em dois gráficos: módulo e fase, considerando um eixo logarı́tmico para a freqüência, sendo que, o módulo é representado em decibeis dB, ou seja kH(jω)kdB = 20 log(kH(jω)k). CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO 44 A principal vantagem desta respresentação é a possibilidade de representar a resposta em freqüência de funções de transferência a partir da resposta de funções elementares. Considerando que em geral as funções de transferência são compostas pelos seguintes termos normalizados (i) K (ii) (jω)±1 (iii) (jωτ + 1)±1 ±1 2 jω ω (iv) + 2ξj ωn + 1 ωn onde K ∈ R e os expoentes positivos representam os zeros e os negativos representam os pólos. Uma vez conhecida a representaçào de cada um destes termos, a representação gráfica da resposta em freqüência de H(s) é realizada a partir da adição da representação de módulo de cada termo, o mesmo ocorrendo com a fase. Na seqüência são analisadas as representações de módulo e fase de cada um destes termos. • K 21 20.8 kH(jω)k(dB) 20.6 20.4 20.2 20 19.8 PSfrag replacements 19.6 19.4 19.2 19 −2 10 ] −1 10 0 10 1 10 ω(rad/s) 2 10 3 10 Figura 2.7: Gráfico do módulo para H(jω = K) fig:1 • (jω)±1 • (jωτ + 1)±1 ±1 2 jω ω + 2ξj ωn + 1 • ωn Exemplo Fase não-mı́nima CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO 45 60 kH(jω)k(dB) 40 20 PSfrag replacements z 0 −20 p −40 −60 −80 −2 10 ] −1 10 0 1 10 10 ω (rad/s) 2 10 3 10 Figura 2.8: Gráfico do módulo para pólo na origem (p) e zero na origem (z) fig:g2m 100 z arg(H(jω))(graus) 80 60 40 20 PSfrag replacements 0 −20 −40 −60 p −80 −100 −2 10 ] −1 10 0 10 1 10 ω (rad/s) 2 10 3 10 Figura 2.9: Gráfico fase para pólo na origem (p) e zero na origem (z) fig:g2f 60 kH(jω)k(dB) 40 z 20 PSfrag replacements 0 −20 p −40 −60 ] −2 10 −1 10 0 10 1 10 ω (rad/s) 2 10 3 10 Figura 2.10: Gráfico de módulo para pólo simples (p) e zero simples (z) fig:g3m (linha cheia), assı́ntotas correspondentes (linha tracejada) CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO 46 100 arg(H(jω))(graus) 80 60 z 40 20 PSfrag replacements 0 −20 p −40 −60 −80 −100 −2 10 ] −1 10 0 1 10 10 ω (rad/s) 2 10 3 10 Figura 2.11: Gráfico de fase para pólo simples (p) e zero simples (z) fig:g3f 20 PSfrag replacements ξ = 0.1 ξ = 0.5 ξ = 0.7 ξ = 0.9 ξ = 1.0 kH(jω)k(dB) 10 0 −10 −20 −30 −40 −50 −1 10 ] 0 10 ω (rad/s) 1 10 Figura 2.12: Gráfico de módulo para sistemas de segunda ordem (linha fig:g4m cheia) para diversos valores de ξ e assı́ntota correspondente (linha tracejada) 0 ξ = 0.5 ξ = 0.1 ξ = 0.7 ξ = 0.9 ξ = 1.0 −20 arg(H(jω))(graus) PSfrag replacements −40 −60 −80 −100 −120 −140 −160 ] −180 −1 10 0 10 ω (rad/s) 1 10 Figura 2.13: Gráfico de fase para sistemas de segunda ordem para diversos fig:g4f valores de ξ CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO 47 80 60 kH(jω)k(dB) 40 PSfrag replacements H2 H1 20 0 H3 −20 −40 −60 −80 −2 10 ] −1 10 0 10 1 10 ω (rad/s) 2 10 3 10 Figura 2.14: Gráfico de módulo correspondente a cada termo padronizado fig:g5mc 35 30 kH(jω)k(dB) 25 20 15 10 PSfrag replacements 5 0 −5 −10 −15 −2 10 ] −1 10 0 10 1 10 ω (rad/s) 2 10 3 10 Figura 2.15: Gráfico de módulo de H(jω) fig:g5m 80 arg(H(jω))(graus) 60 40 20 0 −20 PSfrag replacements −40 −60 −80 ] −100 −2 10 −1 10 0 10 1 10 ω (rad/s) 2 10 3 10 Figura 2.16: Gráfico de fase de H(jω) fig:g5f CAPÍTULO 2. SISTEMAS LINEARES INVARIANTES NO TEMPO 48 20 0 arg(H(jω))(graus) H1 −20 −40 −60 PSfrag replacements −80 −100 −120 −140 −160 H2 −180 ] −200 −2 10 −1 10 0 10 1 10 ω (rad/s) 2 10 3 10 Figura 2.17: Gráfico de fase dos sistemas H1 (fase mı́nima) e H2 (fase nâo mı́nima) fig:g6f Sistema Solar!estabilidade de Sistema Solar!comportamento caótico de Capı́tulo 3 Estabilidade de sistemas dinâmicos lineares cap:estab Amit Bhaya COPPE/Universidade Federal do Rio de Janeiro email: [email protected] http://www.nacad.ufrj.br/˜amit 3.1 Introdução informal à estabilidade sec:estab_intro Estabilidade é um dos temas mais antigos nas ciências básicas e aplicadas. Pode-se dizer que a preocupação com o estudo sistemático de establidade começou logo após a descoberta das leis de mecânica celestial por Copernicus, Galileo, Kepler e Newton: a questão fundamental, formalizada matematicamente por Newton, era a estabilidade do Sistema Solar. Este problema permaneceu sem solução definitiva até o final do século XIX quando o rei Oscar II da Suécia ofereceu, em 1887, um prêmio para quem conseguisse provar a estabilidade do Sistema Solar. O prêmio foi outorgado ao grande matemático Henri Poincaré, cujo trabalho, embora nãoBG97 resolvesse o problema definitivamente, deu inı́cio à moderna teoria de caos (Barrow-Green,Laskar90 1997). Há evidências que SW92 apontam comportamento caótico do Sistema Solar (Laskar, 1990; Sussman and Wisdom, 1992). Muitos matemáticos e fı́sicos do século 18 estudaram a questão de estabilidade de um sistema dinâmico, e Routh, Maxwell, Liapunov, Hurwitz e Schur são alguns dos nomes mais frequentemente associado com este tema. Alguns destes cientistas também estudaram questões de estabilidade oriundos de astronomia e uma das primeiras aplicações espetaculares da então incipiente teoria Maxwell1859 de estabilidade foi a demonstração, por Maxwell (1859), descobridor das equações de campos eletromagnéticos, de que os anéis de Saturno não poderiam ser sólidos, pois desintegrariam pelo fato de formarem uma configuração instável, fato confirmado através de observações telescópicas anos depois, uma vez que os telescópios da época não eram suficientemente potentes. O tema continua atual, no contexto de estabilidade de anéis de satélites (de telecomunicação, 49 CAPÍTULO 3. ESTABILIDADE DE SISTEMAS DINÂMICOS LINEARES50 Krish00 por exemplo) orbitando em torno de um planeta (Krishnaprasad, 2000). Al- Saturno!estabilidade Max1868 dos anéis guns anos depois, Maxwell (1868) publicou seu trabalho sobre a estabilidade do de sistema de controle de velocidade, chamado governador, da máquina a vapor do James Watt. Este trabalho pode ser considerado o primeiro sobre a teoria matemática de sistemas e controle, utilizando uma equação diferencial para modelar o sistema fı́sico e explicando as instabilidades observadas no sistema realimentado em termos matemáticos. De fato, hoje o desenho do governador ganhou o status de um ı́cone, tendo sido adotado como o sı́mbolo de diversas sociedades de controle pelo mundo afora. Podemos ilustrar os tipos de estabilidade intuitivamente através de um experimento mental (Gedankenexperiment), imaginando o comportamento de uma bola rolando na superfı́cie de uma chapa metálica que assume várias fig:tipos_estab formas diferentes (v. Fig. 3.1). A C PSfrag replacements 3 1 B fig:tipos_estab D 2 Figura 3.1: Ilustração, através de analogia mecânica, de diferentes tipos de pontos de equilı́brio estáveis e instáveis: A. Equilı́brio globalmente assintoticamente estável, B. Equilı́brio neutralmente estável, C. equilı́brio instável, D. Equilı́brio localmente assintoticamente estável fig:tipos_estab Na Figura 3.1A, uma perturbação em torno do ponto de equilı́brio causará oscilações decrescentes em torno deste (assumindo atrito entre a bola e a superfı́cie), cessando com a bola na posição de equilı́brio mostrado na figura, que corresponde a uma configuração de mı́nima energia potencial. Como esse resultado não depende do tamanho da perturbação inicial, o equilı́brio é dito fig:tipos_estab globalmente assintoticamente estável. Na Figura 3.1B, a perturbação causará deslocamento na direção da perturbação, e mais uma vez, o atrito provocará a parada da bola em novo ponto, a uma distância limitada do ponto original, porém também um ponto de equilı́brio. Este tipo de estabilidade é denomifig:tipos_estab nada neutra. Na Figura 3.1C, sob qualquer perturbação, por menor que seja, a bola se afasta do ponto de equilı́brio original e não volta. Este tipo de equifig:tipos_estab lı́brio é chamado instável. Finalmente, na Figura 3.1D, percebe-se que, para uma perturbação suficientemente pequena, a bola oscila em torno de e volta a posição 1; porém se a oscilação for maior do que um determinado tamanho, a bola poderia “vencer” a barreira (no ponto 3), oscilar em torno de ponto CAPÍTULO 3. ESTABILIDADE DE SISTEMAS DINÂMICOS LINEARES51 2, onde finalmente cessará movimento. Observe que a mesma descrição vale sistema dinâmico!contı́nuo trocando 1 e 2 na frase anterior. Sendo assim, pontos de equilı́brio 1 e 2 são sistema denominados localmente estáveis. dinâmico!autônomo 3.2 Estabilidade no sentido de Liapunov sec:liap sec:estab_intro Motivado pela descrição informal da seção 3.1, nesta seção definimos as noções de equilı́brio, estabilidade, etc. com maior precisão. Sistemas dinâmicos contı́nuos Considere uma classe de sistemas dinâmicos modelados pela equação diferencial ordinária (EDO) ẋ = f (x(t),t), x(t0 ) = x0 . (3.1) sendo x(t) ∈ Rn é o vetor de estado e f : Rn × R → R é uma função assumindo valores vetoriais, com componentes fi (x1 , x2 , . . . , xn , t) : Rn × R → R, i = 1, 2, . . . , n Adotaremos a hipótese simplificadora de que as funções fi são contı́nuas com primeiras derivadas parciais contı́nuas (i.e., fi ∈ C 1 ) a fim de garantir exiseq:ode_basico tência e unicidade da solução de (3.1), que será denotado x(t) = x(x0 , t). Se as funções fi independem de t, então o sistema é denominado autônomo ou invariante no tempo; caso contrário é não-autônomo ou variante no tempo. Um ponto de equilı́brio ou estado de equilı́brio é um vetor constante x eq tal que f (xeq , t) = 0, para todo t, sendo, portanto, eq:ode_basico uma solução constante, também denominada solução de equilı́brio, da EDO (3.1). Podemos, sem perda de generalidade, sempre considerar que o ponto de equilı́brio ocorre na origem, através de uma mudança de variáveis, ou seja, pela introdução da nova variável x = x − xeq . Supondo a mudança de variáveis efetuada, temos f (0,t) = 0, para todo t. e daremos as definições básicas de estabilidade neste contexto, muitas vezes referido como estabilidade da origem ou da solução nula. sistema dinâmico!invariante no tempo sistema dinâmico!não autônomo sistema dinâmico!variante no tempo sistema dinâmico!equilı́brio de equilı́brio!ponto eq:ode_basico de equilı́brio!estado de equilı́brio!solução de solução nula CAPÍTULO 3. ESTABILIDADE DE SISTEMAS DINÂMICOS LINEARES52 sistema dinâmico!discreto eq:ode_basico solução O sistema dinâmico discreto análogo ao sistema contı́nuo (3.1) é descrito nula!estabilidade pela equação a diferenças de estabilidade!no sentido de x(k + 1) = f (x(k),k), x(k0 ) = x0 . (3.2) eq:sddisc Liapunov estabilidade!definição eq:sddisc Se a variável k não aparecer explicitamente no lado direito de (3.2), o sistema de frase mateé denominado autônomo ou invariante no tempo. mática Para este sistema, o ponto de equilı́brio é um vetor constante xeq tal que quantificada!como jogo x = f (x , k) para todo k, Sistemas dinâmicos discretos eq eq De forma análoga ao caso contı́nuo, se definirmos z(k) := x(k) − x eq , podemos eq:sddisc reescrever (3.2) como z(k + 1) = f (z(k) + xeq , k) − xeq = g(z(k),k), sendo que z = 0 corresponde a x = xeq , e, mais uma vez, podemos estudar a estabilidade da solução nula. Definições formais de estabilidade no sentido de Liapunov As definições dadas a seguir foram introduzidas no trabalho fundamental do matemático russo Aleksandr Mikhailovich Liapunov (1857-1918) cujo trabalho pioneiro, publicado em 1892, revolucionou o estudo de estabilidade e continua inspirando novos enfoques para o estudo deste assunto até os dias de hoje. Para economizar espaço, as definições são dadas apenas para o caso de sistemas contı́nuos; as definições correspondentes para sistemas discretos podem ser obtidos a partir destas imediatemente pela substituição da letra t, denotando tempo contı́nuo, pela letra k, denotando tempo discreto, em todos os lugares onde ocorre a primeira. def:estabnsL Definição 3.2.1 Um estado de equilı́brio xeq é denominado estável se, para qualquer t0 e qualquer ε > 0, existe δ = δ(t0 ,ε) positivo tal que, se kx0 −xeq k < δ, então kx(x0 ,t) − xeq k < ε para todo t ≥ t0 . Para chegarmos a um entendimento mais concreto desta definição, podemos imaginar um jogo entre você (o leitor) e um adversário: o adversário começa o jogo escolhendo uma bola Bε , de raio ε, no espaço de estados e o desafia a achar outra bola Bδ , cujo raio δ, é claro, dependerá da escolha ε, tal que, se o estado inicial x0 for confinado a Bδ , todo estado subsequente (x0 ,t) fica confinado à bola Bε . Se conseguir tal escolha δ, qualquer que seja a escolha ε do adversário, você, leitor, terá demonstrado a estabilidade do sistema dinâmico em questão. Para maiores detalhes sobre a interpretação, como jogos, de frases Gle66 matemáticas quantificadas, veja Gleason (1966, p.163ff.). CAPÍTULO 3. ESTABILIDADE DE SISTEMAS DINÂMICOS LINEARES53 def:atrativo Definição 3.2.2 Um estado de equilı́brio xeq é denominado convergente ou equilı́brio!instável atrativo, se, para qualquer t0 , existe δ1 = δ1 (t0 ) tal que se kx0 − xeq k < δ1 estabilidade!ilustração geoméentão trica de lim x(x0 ,t) = xeq . t→∞ def:estabass Definição 3.2.3 Um estado de equilı́brio xeq estável se for estável e atrativo. sistema contı́é denominado assintoticamente nuo!linear e variante no tempo Se δ nas definições acima pode ser escolhido independente do tempo inicial t0 , acrescenta-se o adjetivo uniforme ao tipo de estabilidade correspondente. Finalmente, um estado de equilı́brio que não seja estável é denominado instável. def:eqinstav Definição 3.2.4 Um estado de equilı́brio xeq é denominado instável se existe ε > 0 tal que para qualquer δ > 0, existe x0 tal que se kx0 − xeq k < δ, então kx(t1 ) − xeq k ≥ ε para algum t1 > t0 . fig:estab2d A ilustração geométrica destas definições no plano (veja Figura 3.2) mostra que, se a origem for estável, dada um cı́rculo de raio ε, existe um outro cı́rculo de raio δ tal que trajetórias que se iniciam dentro do δ-cı́rculo jamais saem do ε-cı́rculo. Se a origem for assintoticamente estável, então as trajetórias tendem a solução nula. Se a origem for instável, então existe um ε-cı́rculo tal que, para todo δ-cı́rculo existe uma trajetória iniciando-se nele e saindo do ε-cı́rculo em algum instante posterior. PSfrag replacements x2 ε δ ε δ x1 x0 A fig:estab2d x2 x2 ε δ x1 x0 x0 B x1 C Figura 3.2: Ilustração dos conceitos de estabilidade no plano: (A) Origem (solução nula) estável no sentido de Liapunov; (B) origem assintoticamente estável; (C) origem instável. 3.3 Estabilidade de sistemas lineares invariantes no tempo sec:estab_lin Nesta seção vemos as caracterizações de estabilidade para um sistema linear invariante no tempo (SLIT) modelado pela equação ẋ = Ax, x(t0 ) = x0 , (3.3) eq:slit_cont eo:slit_cont_av_stab x:estab_forma_jordan eo:slit_disc_av_stab CAPÍTULO 3. ESTABILIDADE DE SISTEMAS DINÂMICOS LINEARES54 estabilidade!caracterizaçã sendo A ∈ Rn×n . em termos As caracterizações de estabilidade em termos dos autovalores da matriz A de autovalores são reunidas no seguinte teorema. eq:slit_cont estabilidade!assintótica Teorema 3.3.1 1. A solução nula de (3.3) é estável no sentido de Lia- polinômio!caracterı́stico punov se e somente se todos os autovalores de A possuirem partes reais polinômio!mı́nimo negativas ou zero, a aqueles com parte real igual a zero são raı́zes simples do polinômio mı́nimo de A. eq:slit_cont 2. A solução nula de (3.3) é assintoticamente estável no sentido de Liapunov se e somente se todos os autovalores de A possuirem partes reais negativas. Quando condição 1 (resp. 2) do teorema acima é satisfeita, dizemos por eq:slit_cont abuso de linguagem, dizemos que o sistema (3.3) é estável (resp. assintoticamente estável) ou ainda que a matriz A é estável (resp. assintoticamente estável). O seguinte exemplo esclarece a aplicação deste teorema. Exemplo 3.3.1 Considere −1 A1 = 0 0 as matrizes 0 0 −1 0 0 0 0 , A2 = 0 0 1 , 0 0 0 0 0 ambas na forma de Jordan. É fácil calcular os polinômios caracterı́sticos (pAi (s)) e mı́nimos (mAi (s)) dados na tabela abaixo: i=1 i=2 pAi (s) 2 s (s + 1) s2 (s + 1) mAi (s) s(s + 1) s2 (s + 1) e notamos que, para a matriz A1 o autovalor 0 é raı́z simples (= não repetida) do polinômio mı́nimo, de modo que podemos concluir que a solução nula de ẋ = A1 x é apenas estável no sentido de Liapunov. Por outro lado, para a matriz A2 , o autovalor 0 não é raı́z simples do polinômio mı́nimo, donde concluimos que a solução nula do sistema ẋ = A2 x não é estável no sentido de Liapunov. teo:slit_cont_av_stab O análogo discreto do Teorema 3.3.1 é dado a seguir. Teorema 3.3.2 1. A solução nula do sistema x(k + 1) = Ax(k + 1) é estável no sentido de Liapunov se e somente se todos os autovalores de A possuirem magnitude menor ou igual a um, e aqueles que tiverem magnitude igual a um são raı́zes simples do polinômio mı́nimo de A. 2. A solução nula do sistema x(k + 1) = Ax(k + 1) é assintoticamente estável se e somente se todos os autovalores de A possuirem magnitude estritamente menor que um. CAPÍTULO 3. ESTABILIDADE DE SISTEMAS DINÂMICOS LINEARES55 teo:slit_cont_av_stab teo:slit_disc_av_stab Repare que testar estabilidade utilizando teoremas 3.3.1 e 3.3.2 requer o estabilidade!via a equação cálculo ou a estimativa de todos os autovalores (ou, pelo menos, de suas partes de reais ou de suas magnitudes). Veremos, a seguir, que, na realidade, como Liapunov precisamos apenas da informação da localização dos autovalores (se todos estão função!positiva definida no semiplano esquerdo do plano complexo, ou dentro do cı́rculo unitário), uma análise mais refinada, apresentada a seguir, permite concluir estabilidade sem que os autovalores sejam calculados ou estimados. 3.3.1 Análise de estabilidade via a equação de Liapunov Seja V : Rn → R : x 7→ V (x) uma função que assume valores reais e D ⊂ Rn um conjunto compacto que contém a origem x = 0 no seu interior. def:psd Definição 3.3.1 A função V = V (x) é positiva semidefinida (p.s.d.) em D em relação ao equilı́brio x = 0, se 1. V é continuamente diferenciável (V ∈ C 1 ), 2. V (0) = 0, 3. V (x) ≥ 0 para todo x ∈ D. def:pd Definição 3.3.2 A função V = V (x) é positiva definida (p.d.) em D em relação ao equilı́brio x = 0, se 1. V é continuamente diferenciável (V ∈ C 1 ), 2. V (0) = 0, 3. V (x) > 0 para todo x ∈ D, x 6= 0. def:psd def:pd Se as desigualdades nas definições 3.3.1 e 3.3.2 forem invertidas, as funções correspondentes definidas são denominadas negativa semi-definida e negativa definida, respetivamente. def:psddef:pd Existem muitas funções que satisfazem as definições 3.3.1, 3.3.2. Entretanto, a classe de funções quadráticas, também denominadas formas quadráticas, se destaca pela simplicidade e utilizabilidade, levando a uma ubiquidade desta classe na análise de estabilidade de sistemas dinâmicos, lineares e nãolineares. Consideramos a forma quadrática V (x) = xT Px, sendo P ∈ Rn×n é uma matriz simétrica. Verificamos que a derivada temporal da funçãoeq:slit_cont V (x(t)) ao longo das trajetórias (também denominada derivada de Lie) de (3.3) é: dV (x(t)) = V̇ (t) = ẋT Px(t) + xT (t)Pẋ(t) dt CAPÍTULO 3. ESTABILIDADE DE SISTEMAS DINÂMICOS LINEARES56 equação de Liapunov teorema!de V̇ = xT (AT P + PA)x Liapunov teorema!de Com esse prolegômeno, podemos enunciar um dos resultados básicos da teoria Liapunov!interpretação de estabilidade do Liapunov. geométrica Liap1892 Teorema 3.3.3 (Liapunov, 1892) O sistema ẋ = Ax, x(t0 ) = x0 é assin- de que pode ser escrito como teo:liap1 toticamente estável se e somente se, para qualquer matriz simetrica positiva definida Q a equação matricial de Liapunov AT P + PA = −Q (3.4) eq:liapeq possui solução P que também é simétrica e positiva definida. eq:liapeq Observamos que a satisfação da equação de Liapunov (3.4) resulta em uma função V positiva definida tal que sua derivada, V̇ , ao longo das tajetórias eq:slit_cont do sistema dinâmico (3.3), seja negativa definida. Esta forma de enunciar o teorema permite generalizações para o caso de sistemas dinãmicos não lineares (vistos na seção ?? desta obra), bem como permite uma interpretação geométrica, dada a seguir. Pela regra da cadéia, podemos escrever a derivada ao longo das trajetórias, também conhecida como derivada de Lie, da função de Liapunov da seguinte maneira V̇ = ∇V T ẋ = k∇V kkẋk cos φ, sendo φ é o ângulo entre os vetores ∇V e ẋ. Portanto, a condição V̇ < 0 impõe que o ângulo entre o vetor tangente da trajetória ( ẋ) e o normal a uma curva de nı́vel (∇V ) seja sempre obtuso (i.e., φ entre 90◦ e 270◦ ), obrigando a trajetória a penetrar a curva de nı́vel. Como as curvas de nı́vel são aninhadas em torno do ponto de equilı́brio, as trajetórias convergem a este (veja Figura fig:liapgeom 3.3). ∇V φ PSfrag replacements xeq ẋ {x : V (x) = n1 } fig:liapgeom {x : V (x) = n2 > n1 } Figura 3.3: Interpretação geométrica do teorema de Liapunov, mostrando a trajetória penetrando as curvas de nı́vel. teo:liap1 Um corolário útil do teorema 3.3.3 é dado a seguir. CAPÍTULO 3. ESTABILIDADE DE SISTEMAS DINÂMICOS LINEARES57 cor:liap_ctrb Corolário 3.3.1 Todos os autovalores de uma matriz A possuem partes reais equação de Liapunegativas se e somente se para qualquer matriz C tal que o par (A,C) seja nov!solução explı́cita observável, a equação de Liapunov AT P + PA = −CT C possui solução única P positiva definida. Repare que, neste corolário, a matriz CT C do lado direito da equação de Liapunov pode ser apenas positiva semidefinida. Por fim, citamos outro resultado importante sobre a solução explı́cita da equação de Liapunov. sol_explicit_Liap_eq Teorema 3.3.4 Se todos os autovalores de A possuirem partes reais negatieq:liapeq vas, então a equação de Liapunov (3.4) possui solução única P, para cada escolha de Q > 0, que pode ser expressa como: Z ∞ T P= eA t QeAt dt. 0 Os teoremas correspondentes para o caso discreto são dados a seguir. eq:disc_Liap Teorema 3.3.5 Todos os autovalores de uma matriz A possuem magnitude estritamente menor do que um se e somente se para qualquer matriz Q > 0 especificada, ou para Q = CT C, sendo o par (A,C) observável, a equação de Liapunov discreta P − AT PA = Q possui solução única P que é positiva definida. Teorema 3.3.6 Se todos os autovalores de A possuirem magnitude menor que um, então a solução da equação de Liapunov discreto pode ser escrita da seguinte maneira ∞ X P= (AT )k QAk . k=0 Maiores detalhes, incluindo provas dos teoremas, podem ser encontrados Chen99 em Chen (1999b). subsec:tempo_test 3.3.2 Testes clássicos de estabilidade Enfatizamos, através de um exemplo simples, que a equação de Liapunov é uma equação linear na incógnita matricial P. 0 1 ex:liapuso Exemplo 3.3.2 Seja A = , e vamos arbitrar Q = I. Seja a −c −b p11 p12 . A equação de Liapunov contı́nua neste caso é: incógnita P = p12 p22 −2cp12 p11 − bp12 − cp22 −1 0 = , 0 −1 p11 − bp12 − cp22 2p12 − 2bp22 de equação de Liapunov!discreta CAPÍTULO 3. ESTABILIDADE DE SISTEMAS DINÂMICOS LINEARES58 teorema!de que pode escrita como uma equação linear nas incógnitas p11 , p12 , p22 : Liapu nov!ordem −1 p11 0 −2c 0 de quanti 1 −b −c p12 = 0 ficadores no p22 −1 0 2 −2b arranjo de b c+1 1 Routh + 2c cuja solução é P = 2c 1 2b c+1 . Para b = 2, c = 1, podemos verificar polinômio!caracterı́stico 2c 2bc facilmente que a matriz P é positiva definida, comprovando a estabilidade do critério!de Routh sistema correspondente. Podemos resumir a discussão acima na forma de um teste de estabilidade para sistemas lineares invariantes no tempo, ou seja, estabilidade de matrizes A que definem tais sistemas. Para testar se uma dada matriz A é assintoticamente estável, basta escolher qualquer matriz Q positiva definida, resolver a equação de Liapunov discreta ou contı́nua (linear em P), e verificar se a solução obtida é positiva definida; se for, a matriz A é assintoticamente estável, caso contrário, não poderia ser assintoticamente estável. Como Q poderia ser escolhida arbitrariamente, a escolha Q = I é uma escolha conveniente, por PT81 SS89_rb diversos motivos (Patel and Toda, 1981; Sezer and Šiljak, 1989). É importante enfatizar dois pontos: (i) o teorema de Liapunov estabelece condições necessárias e suficientes, porém é preciso estar atento à ordem de quantificadores no teorema: mais especificamente, se escolhermos uma matriz P positiva definida arbitrária, calcularmos Q que não resulta negativa definida, não podemos inferir nada sobre a estabilidade da matriz A; (ii) a estabilidade de uma matriz A depende apenas da localização de seus autovalores e não dos seus valores exatos: neste sentido, vemos que a obtenção de uma solução da equação linear da equação de Liapunov nos fornece esta informação sobre a localização dos autovalores, sem calculá-los explicitamente. Critério de Routh Descrevemos o arranjo de Routh1892 Routh para introduzir o primeiro teste descoberto, pelo matemático inglês Routh (1892), para estabilidade de um polinômio (caracterı́stico): p(s) = sn + an−1 sn−1 + an−2 sn−2 + · · · + a1 s + a0 . (3.5) eq:poli_monico Os coeficientes deste polinômio podem ser arrumados preliminarmente sob a forma de um arranjo em duas linhas 1 an−2 an−4 · · · an−1 an−3 an−5 · · · considerando elementos como nulos quando exauridos os coeficientes. Um máximo de (n − 1) linhas adicionais podem ser geradas, trabalhando ao longo de cada linha sequencialmente, a partir do primeiro elemento, calculando o elemento tı́pico rij através da fórmula rij = [ri−1,1 ri−2,j+1 − ri−2,1 ri−1,j+1 ]/ri−1,1 (3.6) eq:routhform CAPÍTULO 3. ESTABILIDADE DE SISTEMAS DINÂMICOS LINEARES59 Uma condição necessária e suficiente para que o polinômio mônico p(s) tenha todas suas raı́zes no semiplano esquerdo, correspondendo portanto a um sistema assintoticamente estável, é que todos os elementos da primeira coluna sejam positivos,FPE02 i.e., ri1 > 0 para i = 2,3, . . . , n+1, onde definimos r21 = an−1 , e rn+1,1 = a0 (Franklin, Powell and Emami-Naeini, 2002). É possı́vel extrair mais informação do arranjo de Routh: o critério afirma que o número de raı́zes de p(s) com partes reais positivas é exatamente igual ao número de trocas de sinais na primeira coluna do arranjo. ex:routhhur3 Exemplo 3.3.3 Ilustramos a utilização do arranjo de Routh em uma situação onde o cálculo de raı́zes do polinômio caracterı́stico somente seria possı́vel através de cálculo simbólico. Dada a matriz 0 1 0 0 1 A= 0 −k −4 −2 queremos determinar a faixa de valores do parâmetro k para os quais a matriz A é assintoticamente estável. Como a matriz está na forma companheira, podemos escrever seu polinômio caracterı́stico por inspeção (pA (s) = s3 + 2s2 + 4s + k), e montar o arranjo de Routh. tab_routharray s3 s2 s1 s0 1 2 8−k 2 k 4 k 0 0 Tabela 3.1: O arranjo de Routh Análise da primeira coluna nos leva à conclusão de que a matriz A é estável para k na faixa 0 < k < 8, pois nesta faixa todos os elementos da primeira coluna do arranjo são positivos. Reparamos que, para k = 10, teremos duas mudanças de sinal (de 2 para −1 e depois de −1 para 10. Pelo critério de Routh, isso significa que o polinômio possui duas raı́zes com partes reais positivas para k = 10. Na verdade, vemos que, para k = 8, temos um zero na primeira coluna (terceiro elemento) do arranjo. É possı́vel refinar a análise do arranjo de Routh para inferir que, para este valor de k, temos duas raı́zes de pA (s) exatamente em cima do eixo imaginário. Para valores maiores de k, estas raı́zes entram no semiplano à direita (C+ ), conforme previsto acima, pelo uso do critério de Routh. Retornaremos a este exemplo mais adiante, refazendo a análise via lugar das raı́zes. ex:routhhur3 Conforme mencionado no final do exemplo 3.3.3, é possı́vel inferir sobre estabilidade pelo arranjo de Routh até em alguns casos degenerados, i.e., quando ocorrem zeros na primeira coluna. Porém, dada a grande facilidade de cálculo de raı́zes de um polinômio ou autovalores de uma matriz, mediante o uso de programas de software amplamente disponı́veis hoje, não aprofundamos este CAPÍTULO 3. ESTABILIDADE DE SISTEMAS DINÂMICOS LINEARES60 FPE02 tema aqui (veja Franklin et al. (2002) para maiores detalhes). Uma derivação arranjo de Routh!invertido moderna do critério de Routh a partir da teoria de Liapunov pode ser achada polinômio!Pascal– Zak03 em Żak (2003). Routh matriz!de Como comentário final sobre o arranjo de Routh, mencionamos o trabalho dePaor03 de de Paor (2003). Este trabalho segue uma tendência atual de aproveitar Hurwitz critério!de critérios de análise de estabilidade para a sı́ntese (=projeto) de sistemas está- Hurwitz veis: em termos gerais, este processo é denominado “ativação” de um conceito matriz!de KA01 eq:routhform (Kokotović and Arcak, 2001). Neste sentido, reparamos que a fórmula ( 3.6) Schwarz pode ser invertida, colocando ri−2,j+1 em evidência: ri−2,j+1 = [rij ri−1,1 + ri−2,1 ri−1,j+1 ]/ri−1,1 (3.7) eq:routhform_inv Evidentemente, se especificarmos n + 1 elementos positivos, começando por r11 = 1 e terminando em rn+1,1 = a0 , para constituirem a primeira coluna eq:routhform_inv de um possı́vel arranjo de Routh, podemos utilizar a fórmula inversa (3.7) para gerar o restante do arranjo. Em particular, as primeiras duas linhas do arranjo gerado desta dePaor03 forma especificam os coeficientes de um polinômio garantidamente estável. de Paor (2003) investiga a utilização do triângulo de Pascal para a especificação da primeira coluna, e o uso dos polinômios estáveis gerados desta forma, denominados de polinômios Pascal–Routh, no projeto de sistemas realimentados. Critério de Hurwitz Associamos a matriz de Hurwitz H ∈ Rn×n abaixo (3.5) an−1 an−3 an−5 an−7 · · · an an−2 an−4 an−6 · · · an−1 an−3 an−5 · · · H= 0 0 an an−2 an−4 · · · .. .. .. . . . eq:poli_monico ao polinômio mônico . (3.8) eq:Hurwitz_matriz O critério de Hurwitz está enunciado no seguinte teorema. eq:poli_monico Teorema 3.3.7 Todas as raı́zes do polinômio p(s) (3.5) possuem partes reais negativas se e somente se todos os menores principais lı́deres da matriz H de Hurwitz forem positivos. A prova deste teorema se baseia naBarnett83 construção de uma matriz tridiagonal S, denominada matriz de Schwarz (Barnett, 1983), que é similar, através de uma matriz de similaridade triangular inferior, à matriz de Hurwitz H. Especificamente, é possı́vel demonstrar que a matriz S satisfaz a equação de Liapunovcor:liap_ctrb com uma solução diagonal positiva P, e a aplicação em seguida do teorema 3.3.1 permite a conclusão de estabilidade assintótica. Uma exposição moderna destas idéias baseada na equação de Liapunov, e incluindo provas Zak03 dos teoremas omitidas aqui, pode ser encontrada em Żak (2003). Um resultado notório sobre estabilidade de famı́lias de polinômios é o de Kha78 Kharitonov (1978), que estudou o problema de estabilidade de polinômios CAPÍTULO 3. ESTABILIDADE DE SISTEMAS DINÂMICOS LINEARES61 intervalares, isto é, polinômios cujos coeficientes ai pertencem a intervalos (ai ∈ [ai ,ai ]). O teorema de Kharitonov afirma que a estabilidade da famı́lia inteira (infinita) de polinômios obtidos quando os coeficientes assumem quaisquer valores dentro dos intervalos estipulados é garantida pela estabilidade de apenas quatro polinômios destacados da famı́lia, hoje denominados polinômios de Kharitonov. Estes quatro polinômios são construı́dos a partir dos coeficientes extremos ai , ai de uma maneira sistemática. Este resultado, aclamado nos anos 80 como um dos mais importantes na área de estabilidade robusta, é mais difı́cil de aproveitar para problemas de estabilização. EntreBCK95 tanto, Bhattacharyya, Chapellat and Keel (1995) desenvolvem diversos aspectos desta teoria com demonstrações acessı́veis e aplicações tanto em análise quanto em sı́ntese de controladores. polinômio!intervalar polinômio!de Kharitonov teorema!de Kharitonov método de lugar das raı́zes lugar das raı́zes Método de lugar das raı́zes O método de lugar das raı́zes é uma maneira gráfica e intuitiva de análise de estabilidade do polinômio caracterı́stico de um sistema realimentado fig:siso1fdbk dependente de um único parâmetro livre (o ganho de malha) (v. Figura 3.4). Evans48 Ele foi proposto pelo Evans (1948), embora os princı́pios básicos queMax1868 fundamentamVysh1877 o método fossem conhecidos desde os trabalhos clássicos de Maxwell Routh1892 Hur1895 (1868), Vyshnegradsky (1877), Routh (1892), Hurwitz (1895). A preocupação maior dos trabalhos na época pre-computador era a derivação de um conjunto de regras para facilitar a geração, por inspeção (i.e., manualmente), do lugar das raı́zes. Nos dias de hoje, a facilidade de traçar o desenho geométrico do lugar das raı́zes por computador significa que a idéia básica do método pode ser estendido à análise de qualquer propriedade de um sistema que seja dependente de um único parâmetro livre, embora o conjunto das regras clássicas Evans et al. não sejam aplicáveis nas novas situações. AM89 Um exemplo PSfragdereplacements deste tipo de lugar das raı́zes pode ser visto em controle ótimo ( Anderson and Kai80 Moore, 1989; Kailath, 1980). r(s) + − k g(s) y(s) fig:siso1fdbk Figura 3.4: Diagrama de blocos de sistema de uma entrada e uma saı́da e função de transferência g(s) em configuração de realimentação unitária com controlador de ganho k. fig:siso1fdbk Na Figura 3.4, g(s) representa a função de transferência de um SLIT com uma entrada e uma saı́da, e k é um número real que representa o ganho do controlador (chamado proporcional). É fácil verificar que a função de transferência em malha fechada que relaciona r(s) e y(s) pode ser escrita como: gyr (s) = y(s) kg(s) = , r(s) 1 + kg(s) (3.9) eq:siso_gyr CAPÍTULO 3. ESTABILIDADE DE SISTEMAS DINÂMICOS LINEARES62 sendo g(s) = n(s)/d(s), e n(s), d(s) polinomiais em s com coeficientes reais. lugar das raı́A função de transferência em malha fechada pode portanto ser escrito como zes!regras gyr (s) = para kn(s) . d(s) + kn(s) construção (3.10) eq:siso_gyr_nd Como os numeradores de g(s) (f.t. em malha aberta) e gyr (s) (f.t. em malha fechada) diferem apenas pela constante k, estas duas funções de transferência possuem os mesmo zeros. Entretanto, os pólos são diferentes, coincidindo apenas quando k = 0. À medida em que o ganho k varia, os pólos da função em malha fechada vão se afastando dos pólos em malha aberta e o lugar geométrico no plano complexo se chama o lugar das raı́zes. ex:rootlocus ex:routhhur3 Exemplo 3.3.4 Retornando ao exemplo 3.3.3, podemos reformular o problema de estudar a estabilidade do polinômio s3 + 2s2 + 4s + k em função do parâmetro k como o problema de lugar das raı́zes para g(s) = 1/(s3 +2s2 +4s). fig:rlocus3 dos pólos são, conO resultado é mostrado na Figura 3.5. As posições iniciaisfig:rlocus3 forme discutido, exatamente as de malha aberta. A figura 3.5 fornece bastante informação útil para projeto de um sistema em malha fechada. Primeiramente vemos que o controlador que consiste em um ganho simples k basta para estabilizar a planta instável g(s). Ademais, ganhos positivos entre 0 e 8 mantém o sistema em malha fechada estável, embora com comportamento cada vez mais oscilatório à medida em que k se aproxima ao valor crı́tico de 8, pois um par de pólos se aproxima ao eixo imaginário, cruzando-o acima deste valor e passando a possuir parte real positiva (implicando na instabilidade do sistema em malha fechada). Reparamos que ainda podemos escolher o ganho que resulta em determinado valor de amortecimento. Evans48 Citamos algumas regras de construção derivadas por Evans (1948), sem entrar em detalhes, uma vez que a tendência atual é utilizar um computador para gerar o lugar das raı́zes. 1. Os pólos em malha aberta, que são as raı́zes de d(s) = 0, são os pontos do lugar das raı́zes correspondentes ao ganho k = 0 e são os pontos de partida dos ramos do lugar das raı́zes. 2. O lugar das raı́zes possui exatamente n ramos para um polinômio de ordem n (i.e., um ramo para cada uma das n raı́zes do polinômio). 3. O lugar das raı́zes é simetrico em relação ao eixo real do plano complexo. 4. Para k não-negativo, qualquer ponto no eixo real que fique à esquerda de um número ı́mpar de singularidades (contando pólos e zeros) localizados no eixo real, é um ponto que pertence ao lugar das raı́zes. Pontos no eixo real que não satisfazem esta condição não pertencem ao lugar das raı́zes. 5. Se g(s) possui n pólos e m zeros finitos (m ≤ n), então exatamente m ramos terminam nos zeros finitos quando k → ∞. Os demais n − m ramos vão para o infinito, quando k → ∞. CAPÍTULO 3. ESTABILIDADE DE SISTEMAS DINÂMICOS LINEARES63 lugar das raı́zes!para sistemas discretos Root Locus 4 3 2 Imaginary Axis 1 0 k=8 −1 −2 −3 −4 −5 −4 −3 −2 −1 Real Axis 0 1 2 fig:rlocus3 Figura 3.5: Lugar das raı́zes para função de transferência g(s) = 1/(s 3 + 2s2 + 4s) em configuração de realimentação unitária com controlador de ganho k. 6. Se g(s) possui n pólos e m zeros finitos (n ≥ m), e k ≥ 0, então os n − m ramos que terminam no ∞ tendem assintoticamente a retas que passam pelo ponto Pn Pm i=1 Re(pi ) − k=1 Re(zk ) σ0 = n−m e têm inclinação γ=± (1 + 2`)180◦ , n−m ` = 0,1, . . . Provas destas propriedades e outras não apresentadas aqui, bem como FPE02 exemplos de sua utilização podem ser achadas em Franklin et al. (2002). Como o lugar das raı́zes pode ser construı́do utilizando apenas propriedades de polinômios, o método de construção pode ser utilizado exatamente da mesma maneira para sistemas discretos, para os quais substituimos o polinômio g(s) por g(z) e a região de estabilidade no plano complexo passa a ser o cı́rculo unitário ao invés do semiplano esquerdo. Na seção ?? são fornecidos mais detalhes sobre o uso do método de lugar das raı́zes em projeto de controladores retardo-avanço (lead-lag) etc. Seja o triplo {A,b,c} uma realização da função de transferência g(s). Aplifig:siso1fdbk cando realimentação de saı́da na configuração de Figura 3.4, podemos verificar que, em malha fechada temos ẋ = (A − kbcT )x CAPÍTULO 3. ESTABILIDADE DE SISTEMAS DINÂMICOS LINEARES64 de modo que o polinômio caracterı́stico que determina a estabilidade em malha lugar das raı́fechada é dada pelo polinômio zes!como pmf (s) = det(sI − A + kbcT ) cujas raı́zes são funções contı́nuas de k. Portanto, ao variar k, obtemos curvas no plano complexo, parametrizados por k, que constituem exatamente o lugar das raı́zes. Nesta perspectiva, fica claro que, com apenas um parâmetro livre, deslocamento dos pólos em malha fechada através da escolha deste único parâmetro restringe o movimento dos mesmos às curvas chamadas lugar das raı́zes. Evidentemente, para poder posicionar arbitrariamente as n raı́zes em malha fechada, necessitaremos de n parâmetros livres, ou seja os n ganhos de uma realimentação completa do estado x, com um ganho independente para cada estado. subsec:nyquist 3.3.3 O critério de Nyquist Nyq32 Nyquist (1932) utilizou o desenho polar de uma função de transferência no plano complexo e o princı́pio do argumento para desenvolver uma ferramenta gráfica de análise de estabilidade de uma SLIT (de uma entrada e uma saı́da) fig:siso1fdbk em configuração de realimentação unitária (Figura 3.4). Princı́pio do argumento Consideramos funções de transferência gi (s), i = 1,2 cujos pólos e zeros fig:princ_arg são conhecidos. Figura 3.6A mostra um ponto inicial s arbitrário pertencente ao contorno C simplesmente conexo1 , para o qual a avaliação de g1 (s) pode ser feita através dos vetores desenhados na figura. Na representação polar, g1 (s) = reiα , sendo α = ζ1 + ζ2 − (φ1 + φ2 ), com os ângulos ζ representando os argumentos dos zeros, e os ângulos φ representando os argumentos dos pólos. Podemos ver que quando s percorre o contorno C no sentido horário, os ângulos ζi , φi aumentam e diminuem, retornando aos seus valores iniciais quando s completa uma volta, porém sem completar uma rotação de 360 ◦ . Consequentemente, o argumento α de g1 (s) apresenta o mesmo comportamento (não sofre mudança lı́quida de 360◦ ), o que significa que o desenho polar de g1 (s) fig:princ_arg fig:princ_arg não engloba a origem (Figura 3.6B). Figuras 3.6C e D mostram que quando o contorno C engloba um pólo, ocorre que o argumento associado a este pólo (φ2 ) sofre uma mudança lı́quida de 360◦ quando s percorre o contorno C, o que se reflete na mudança do argumento de g2 (s), fazendo com que o desenho polar de g2 (s) englobe a origem uma vez no sentido antihorário. Esta discussão pode ser resumida na forma do princı́pio do argumento: Um mapeamento de contorno por uma função complexa meromórfica2 engloba a origem nz − np vezes, sendo nz o número de zeros e np o número de 1 Um domı́nio ou contorno C diz-se simplesmente conexo se qualquer curva fechada em C pode ser comprimida até se reduzir a um ponto sem abandonar C. 2 Uma função de uma variável complexa é denominada meromórfica em um domı́nio se todas as suas singularidades no domı́nio são pólos. realimentação de saı́da critério!de Nyquist princı́pio do argumento englobamento!da origem englobamento!sentido de englobamento!sentido horário englobamento!sentido antihorário princı́pio do argumento PSfrag replacements CAPÍTULO 3. ESTABILIDADE DE SISTEMAS DINÂMICOS LINEARES65 Im Im ζ1 desenho de Nyquist englobamento!do ponto $-1$ g1 (s) C s φ1 Re φ2 α ζ2 A B Im ζ1 φ1 fig:princ_arg C ζ2 Im g2 (s) C s Re φ2 Re α Re D Figura 3.6: Desenho polar ou avaliação de uma função h(s) ao longo de um contorno C no sentido horário no plano de s. Na Figura A, o contorno C não engloba nenhum pólo (×) ou zero (◦) de g1 (s) e o desenho polar correspondente na figura B não engloba a origem. Na figura C, o contorno C engloba um pólo de g2 (s) e o desenho polar correspondente na figura D engloba a origem uma vez no sentido antihorário. pólos da função englobado pelo contorno. Desenho de Nyquist Aplicamos este princı́pio ao sistema descrito pela função de transferência eq:siso_gyr (3.9). Mais especificamente, como os pólos em malha fechada são as soluções da equação 1 + kg(s) = 0, aplicamos o princı́pio do argumento à função 1 + kg(s). Dois pontos são evidentes: (i) devemos trabalhar com o contorno que engloba todo o semiplano direito (C+ ) do plano complexo, pois queremos pesquisar a existência de pólos e zeros instáveis; (ii) podemos trabalhar com a função kg(s), cujo desenho polar, a menos de um deslocamento de uma unidade para a esquerda), é o mesmo que o desenho polar de 1 + kg(s). A consequência destas observações é que podemos avaliar o englobamento do ponto −1 no eixo real pelo desenho polar da função de transferência em malha aberta kg(s), e concluir sobre o englobamento da origem pelo desenho polar da função de transferência em malha fechada 1 + kg(s). O desenho polar de kg(s) é denominado desenho de Nyquist. Com esse prolegômeno, a aplicãção do princı́pio do argumento pode ser expresso da seguinte maneira. Um contorno C no sentido horário que engloba um zero da função 1 + kg(s) (ou seja, um pólo em malha fechada) resultará no desenho de Nyquist englobando o ponto −1 no eixo real no sentido horário. Analogamente, se o contorno C engloba um pólo de 1 + kg(s), resultará um CAPÍTULO 3. ESTABILIDADE DE SISTEMAS DINÂMICOS LINEARES66 englobamento de −1 no sentido antihorário. Podemos concluir que o número lı́quido de englobamentos horários nh pode ser expresso como o número nz de zeros instáveis (em C+ ) menos o número np de pólos instáveis (em C+ ): nh = n z − n p . PSfrag replacements Im Im g(s) g(s) : s = −i∞ to 0 ω = −1 α C r ω=∞ ω=0 Re Re C ω=1 g(s) : s = 0 to i∞ fig:nyq_plot Contorno com raio r infinito Figura 3.7: Contorno D de Nyquist (à esquerda) e o mapeamento deste contorno (= desenho de Nyquist) pela função g(s) = 1/(s + 1)2 . Como o desenho de Nyquist não engloba o ponto −1, n = 0; como g(s) não possui pólos no semiplano direito, np = 0. Segue daı́ que nz = 0, ou seja, não há pólos instáveis em malha fechada, permitindo a conclusão de estabilidade, para k = 1. Podemos concluir ainda que o sistema em malha fechada é estável para qualquer k positivo, pois k só muda o fator de escala do desenho de Nyquist, porém não altera o fato deste não englobar o ponto crı́tico −1. Com isso, chegamos ao seguinte procedimento para traçar o desenho de Nyquist. 1. Plote kg(s) para −j∞ < s < j∞, avaliando kg(jω) para 0 < ω < ω 1 , onde ω1 é grande o suficiente para que kg(jω) seja desprezı́vel para ω > ω1 . Acrescente, ao traçado obtido, a sua imagem especular no eixo real, utilizando a simetria do desenho. 2. Avalie o número de englobamentos do ponto −1 no sentido horário da seguinte maneira. Trace uma reta que se inicia no ponto -1 e atravessa o desenho obtido em qualquer direção. Contabilize o número de cruzamentos de esquerda para direita da reta pelo desenho polar de kg(s) como positivos e os da direita para esquerda como negativos. Se os englobamentos forem no sentido antihorário, nh é negativo. 3. Determine o número np de pólos instáveis de g(s). 4. Calcule o número de pólos instáveis nz em malha fechada: nz = n h + n p . CAPÍTULO 3. ESTABILIDADE DE SISTEMAS DINÂMICOS LINEARES67 estabilidade!no sentido de entradasaı́da 3.4 Estabilidade no sentido de entrada-saı́da (BIBO) (BIBO) função!limitada Considere um sistema linear invariante no tempo com uma entrada e uma BIBO estável saı́da, com condição inicial nula, descrito pela integral de convolução: função!absolutamente Z t Z t integrável ($L 1$) y(t) = g(t − τ )u(τ )d τ = g(τ )u(t − τ )d τ, (3.11) eq:slit_siso 0 0 função!absolutamente integrável onde o núcleo g(t) da integral de convolução é a resposta ao impulso, aplicado ($L 1$)!ilimitada Para concluir estabilidade do sistema em malha fechada, queremos nz = 0. sec:bibo em t = 0 ao sistema dinâmico em questão, u(t) é a entrada do sistema e y(t) é a saı́da do sistema. def:limitado Definição 3.4.1 Uma função f : R → R : t 7→ f (t) é denominada limitada se exists uma constante c tal que |f (t)| ≤ c < ∞ para todo t ≥ 0. eq:slit_siso Um sistema (3.11) é denominado estável no sentido entrada-saı́da (ou BIBO estável, a partir da sigla do termo em inglês bounded input, bounded ouput) se cada entrada limitada u(t) produz uma saı́da y(t) limitada. Este tipo de estabilidade é definido apenas para sistemas inicialmente relaxados (i.e., com condição inicial nula) e para a resposta zero-estado. O resultado principal, que caracteriza estabilidade BIBO, pode ser enunciado da seguinte maneira. teo:biboestavel Teorema 3.4.1 Um sistema linear invariante no tempo, descrito conforme eq:slit_siso (3.11), é estável no sentido entrada-saı́da, ou seja BIBO-estável, se e somente se g(t) for absolutamente integrável em [0,∞) (denotado g ∈ L1 ), ou seja Z t |g(τ )|d τ ≤ b < ∞, 0 para alguma constante b. É importante observar que uma função absolutamente integrável pode não ser limitada (i.e., em L∞Chen99 ) e tampouco tender a zero quando t → ∞. Citamos um exemplo retirado de Chen (1999b). Exemplo 3.4.1 f (t) = n + (t − n)n4 , para n − 1/n3 ≤ t ≤ n; n − (t − n)n4 , para n < t ≤ n + 1/n3 , fig:weirdfn 2 para n = 2, 3, . . ., plotado na Figura 3.8, onde Pa∞área de2 cada triângulo é 1/n . Desta forma a integral absoluta fica igual a n=2 (1/n ) < ∞, o que significa que a função pertence a L1 . Por outro lado, como a altura do triângulo cresce como n, é evidente que a função não é limitada (i.e., não pertence a L ∞ ). CAPÍTULO 3. ESTABILIDADE DE SISTEMAS DINÂMICOS LINEARES68 PSfrag replacements f (t) sequência!absolutamente somável sistema contı́nuo!linear e variante no tempo n 1 2 3 4 n 5 n+1 t 2 n3 fig:weirdfn Figura 3.8: Gráfico de uma função que é absolutamente integrável, porém ilimitada (Chen, 1999). Outro caracterização fundamental de sistemas lineares BIBO-estáveis estabelece uma conexão entre estabilidade BIBO e estabilidade no sentido de Liapunov. Teorema 3.4.2 Um sistema SISO com função de transferência racional e própria, ĝ(s) é BIBO-estável se e somente se cada pólo de ĝ(s) possui parte real negativa. Um sistema multivariável, com matriz de transferência G(t) = (gij (t)) é BIBO-estável se e somente se cada gij (t) é absolutamente integrável em [0, ∞). Considere o sistema discreto, causal, linear e invariante no tempo descrito pela equação: y(k) = k X g(k − m)u(m) = m=0 k X g(m)u(k − m), (3.12) eq:dtslit m=0 onde g(k) é a sequência de resposta ao impulso discreto aplicado ao sistema em k = 0. teo:biboestavel eq:dtslit O resultado análogo ao teorema 3.4.1 para o sistema (3.12) é dado a seguir. teo:bibodisc eq:dtslit Teorema 3.4.3 O sistema (3.12) é BIBO-estável se e somente se a sequência g(k) é absolutamente somável in [0,∞), i.e.: ∞ X |g(k)| ≤ b < ∞, k=0 para alguma constante b. 3.5 Estabilidade de sistemas lineares variantes no tempo sec:lvt Nesta seção, consideramos o sistema contı́nuo linear e variante no tempo ẋ = A(t)x (3.13) eq:sltv_ct CAPÍTULO 3. ESTABILIDADE DE SISTEMAS DINÂMICOS LINEARES69 sistema discreto!linear e variante x(t) = Φ(t,t0 )x(t0 ), t > t0 , (3.14) eq:sltv_ct_sol no tempo matriz!de e o sistema discreto linear e variante no tempo transição de estados eq:sltv_dt x(k + 1) = A(k)x(k) (3.15) estabilidade!não determinada com a solução expressa em termos da matriz de transição de estados Φ: pelos autovalores x(k) = Φ(k,k0 )x(k0 ), k > k0 . (3.16) eq:sltv_dt_sol com a solução expressa em termos da matriz de transição de estados Φ: Para sistemas lineares variantes, em geral, estabilidade não se caracteriza pela localização de autovalores (que neste caso também poderiam ser variantes no tempo). Exemplos simples ilustram este fato para sistemas contı́nuos e discretos. ex:tv_c_ctrex eq:sltv_ct Exemplo 3.5.1 Na equação (3.13) seja −1 e2t . A(t) := 0 −1 Como A(t) é triangular, vemos que seus autovalores são constantes e iguais teo:slit_cont_av_stab a −1 e −1 para todo t. Poderı́amos conjecturar que teorema 3.3.1 contı́nua válido. É fácil verificar que a matriz de transição de estados é −t e 0.5(et − e−t ) Φ(t,0) = 0 e−t Como o elemento (1,2) da matriz Φ cresce sem limites, o sistema não é estável ou assintoticamente estável, muito embora a matriz do sistema, A(t), tenha autovalores negativos e constantes para todo t. Concluimos que a conjectura não é válida. ex:tv_d_ctrex eq:sltv_dt Exemplo 3.5.2 Na equação (3.15) seja 0 0 , k ı́mpar; 2 0 A(k) = 0 2 , k par. 0 0 É fácil verificar que, para a condição incial x0 = (a,b), b 6= 0, n 2 b , n ı́mpar; 0 x(n) = 0 , n par. 2n b demonstrando a instabilidade do sistema, embora os autovalores de A(k) são iguais a 0 (e portanto dentro do cı́rculo unitário) para todo k. CAPÍTULO 3. ESTABILIDADE DE SISTEMAS DINÂMICOS LINEARES70 CD91 Rugh96 estabilidade!exponencial uniforme eq:sltv_ct teorema!de Teorema 3.5.1 1. A solução nula de (3.13) é assintoticamente estável se Liapue somente se kΦ(t, t0 )k2 → 0, quando t → ∞. nov!para sistemas eq:sltv_dt 2. A solução nula de (3.15) é assintoticamente estável se e somente se variantes no tempo É fácil verificar o seguinte resultado (Callier and Desoer, 1991; Rugh, 1996): teo:ct_dt_ltv_stab kΦ(k, k0 )k2 → 0, quando k → ∞. No contexto de sistemas lineares variantes no tempo, também podemos utilizar a teoria de Liapunov. É conveniente introduzir a noção de estabilidade exponencial uniforme. def:exp_stab_ct_dt eq:sltv_ct Definição 3.5.1 1. A solução nula do sistema ( 3.13) é uniformemente exponencialmente estável se existirem constantes c e λ tais que kx(t)k ≤ ce−λ(t−t0 ) kx(t0 )k, t ≥ t0 . eq:sltv_dt 2. A solução nula do sistema (3.15) é uniformemente exponencialmente estável se existirem constantes c e ρ < 1 tais que kx(t)k ≤ cρk−k0 kx(k0 )k, k ≥ k0 . É fácil verificar que exigir estabilidade exponencial uniforme equivale a exigir (respetivamente) kΦ(t, t0 )k ≤ ce−λ(t−t0 ) , t ≥ t0 kΦ(k, k0 )k ≤ cρk−k0 , k ≥ k0 Com esses preliminares, podemos enunciar uma versão do teorema de Liapunov para sistemas lineares variantes no tempo. teo:ltv_liap eq:sltv_ct Teorema 3.5.2 1. A solução nula de (3.13) é uniformemente exponencialmente estável se existirem constantes positivas c1 c2 , e c3 e uma matriz P(t) simétrica, positiva definida que satisfaz, para todo t c1 I ≤ P(t) ≤ c2 I AT (t)P(t) + P(t)A(t) + Ṗ(t) ≤ −c3 I eq:sltv_dt 2. A solução nula de (3.15) é uniformemente exponencialmente estável se existirem constantes positivas c1 c2 , e c3 e uma matriz P(k) simétrica, positiva definida que satisfaz, para todo k c1 I ≤ P(k) ≤ c2 I AT (k)P(k + 1)A(k) − P(k) ≤ −c3 I Para uma prova deste teorema bem como exemplos de sua utilização, veja Rugh (1996). Rugh96 CAPÍTULO 3. ESTABILIDADE DE SISTEMAS DINÂMICOS LINEARES71 3.6 Da estabilidade à estabilização sec:estab_acao Conforme mencionado acima, um dos desafios na teoria de controle envolve a utilização de técnicas de análise de sistemas de controle para a sı́ntese dos mesmos. No que tange o tema de estabilidade, podemos resumir este desafio da seguinte maneira. Como utilizar as ferramentas de análise de estabilidade para projetar sistemas de controle que estabilizam plantas especificadas exatamente ou aproximadamente (= controle robusto)? Este tema é vasto e nos limitamos a esboçar uma resposta, articulada nos anos 90, que se baseia na teoria de Liapunov. A chave de uma das abordagens bem sucedidas é a observação de que o resultado básico de Liapunov permite generalizações teóricas e computacionais quando formulado em termos de inequações ao invés de equações. Mais especificamente, podemos reformular teo:liap1 teorema 3.3.3 da seguinte maneira. teo:liap1_ineq teorema!de Liapunov!em termos de LMI LMI desigualdade matricial linear (LMI) programação semidefinida Teorema 3.6.1 O sistema ẋ = Ax, x(t0 ) = x0 é assintoticamente estável se e somente se existe matriz P que satisfaz a desigualdade matricial linear (muito conhecida pela sigla LMI, do inglês linear matrix inequality) de Liapunov AT P + PA < 0 (3.17) eq:liap_ineq P>0 Na linguagem de otimização, o sistema ẋ = Ax é assintoticamente estável se e eq:liap_ineq somente se existe uma matriz P viável para o conjunto de desigualdades ( 3.17). Em outras palavras, verificar estabilidade equivale a verificar viabilidade ou factibilidade de um conjunto de desigualdades matriciais lineares na incógnita matricial P. Sob esta ótica, podemos vislumbrar a tradução de diversos problemas de estabilidade e estabilização em problemas de otimização restrita, desde que a função objetivo bem como outras restrições possam ser especificadas em termos de desigualdades matriciais lineares. A história desta abordagem, bem como um desenvolvimento abrangente podem ser encontrados no livro pioneiro BEFB94 de Boyd, Ghaoui, Feron and Balakrishnan (1994). A revolução de métodos de pontos interiores em otimização tornou uma classe de problemas denominada programação semidefinida, que inclui desigualdades matriciais lineares, computacionalmente tratávelGN99 e desencadeou pesquisa intensa nesta área de BN01 estabilização e estabilidade (Ghaoui and Niculescu, 1999; Ben-Tal and Nemirovski, 2001). 3.7 Panorama de pesquisa sobre estabilidade no Brasil Existem vários grupos de controle no Brasil, e, à medida em que a estabilidade é um requisito fundamental de qualquer sistema de controle, pode-se dizer que todos os grupos de controle no Brasil trabalham, em maior ou menor grau, com este tema. CAPÍTULO 3. ESTABILIDADE DE SISTEMAS DINÂMICOS LINEARES72 Uma pesquisa feita, no dia 29 de novembro de 2005, na base Web of Science estabilidade!pesquisa no Brasil do Insitute of Scientific Information, utilizando a palavra chave “stability” e na área de exigindo que o endereço do autor contivesse “Brasil” ou “Brazil”, e posteriormente refinando o resultado da busca, exigindo que a palavra “matrix” aparecesse no tı́tulo, resumo ou lista de palavras-chave resultou na recuperação de 122 artigos em periódicos indexados. Uma pesquisa na base “Grupos de Pesquisa” do CNPq, recupera um conjunto de aproximadamente 15 grupos de pesquisa no tema “estabilidade e sistemas de controle”, majoritariamente em departamentos de engenharia elétrica, porém constando também grupos em matemática, quı́mica e engenharia aeroespacial. Resumidamente, podemos afirmar que há bastante atividade no Brasil na área de desigualdades matriciais lineares e suas ramificações em estabilidade e estabilização, estabilidade e estabilização de sistemas lineares com atrasos, estabilidade e estabilização de sistemas lineares com saltos Markovianos, estabilidade de polinômios e as versões robustas de todos estes tipos de estabilidade e estabilização (isto é, estabilidade de famı́lias de matrizes, polinômios, etc.). Além disso, há muita atividade na área de estabilidade e estabilização de sistemas não lineares. Além das maneiras de localizar grupos e pesquisadores ativos nesta área no Brasil indicadas acima, existem outros sı́tios de busca gerais como Google, e outros mais especı́ficos, disponı́veis no Portal Periódicos da CAPES, como, por exemplo, Engineering Village, scholar.google.com, www.scirus.com, WebSPIRS etc. Capı́tulo 4 Controlabilidade e Observabilidade cap:controlaobs Paulo Sérgio Pereira da Silva Poli-PTC-USP 05508-900 São Paulo SP email: [email protected] 4.1 Introdução ec:intro_controlaobs Neste capı́tulo trataremos os problemas de controlabilidade e de observabilidade sistemas lineares invariantes no tempo, discretos e contı́nuos. O ponto de vista aqui adotado considera que um sistema é um ente geométrico (intrı́nseco), independente de coordenadas. Tal ponto de vista tem a vantagem de ser mais adequado para o estudo das propriedades estruturais de sistemas lineares tais como controlabilidade e observabilidade. Para poder definir sistemas lineares a partir desta Won85 premissa, devemos considerar transformações lineares ao invés de matrizes (Wonham, 1985). Trabalharemos com os conceitos de desacoplamento da saı́da e de observabilidade para sistemas contı́nuos e discretos. O primeiro é a propriedade de uma condição inicial provocar uma saı́da nula para um sistema sem entrada. O segundo é a capacidade de deduzirmos o estado de um sistema a partir da informação de sua saı́da e da entrada aplicada. Mostraremos que os dois conceitos estão intimamente relacionados. Consideraremos as principais formas canônicas e aprensentaremos a teoria da realização para sistemas contı́nuos (que é absolutamente análoga a de sistemas discretos). Dada uma matriz de transferência G(s), uma realização de G(s) é um sistema linear: ẋ(t) = Ax(t) + Bu(t) (4.1a) y(t) = Cx(t) + Du(t) (4.1b) x(t0 ) = x0 , t ≤ t0 (4.1c) tal que a sua matriz de transferência coincida com G(s). Tal problema é 73 CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE 74 evidentemente um problema de sı́ntese, sendo motivado pelas técnicas de implementação de filtros e sistemas de controle analógicos. A teoria que estuda os problemas de realização é denominada de Teoria da Realização. Neste capı́tulo estudaremos as formas canônicas controlável e observável de sistemas monovariáveis, isto é, sistemas com apenas uma entrada e uma saı́da1 . Tais formas canônicas permitem resolver de forma simples o problema de realização para sistemas monovariáveis. Intimamente ligado com o problema da realização, está a Decomposição de Kalman. Tal decomposição exibe as partes de um sistema que são: a) não-observável e controlável; b) observável e controlável; c) não observável e não controlável ; d) observável e não-controlável. Mostraremos, a partir da decomposição de Kalman, que somente a parte observável e controlável contribui para a matriz de transferência do sistema e que uma realização é minimal (isto é, possui a dimensão do espaço de estados mı́nima) se e somente se a realização é controlável e observável. Apresentaremos um método de sı́ntese de uma realização minimal de uma matriz de transferência G(s) baseado na realização coluna a coluna de tal matriz. Tal método utiliza a forma canônica controlável e gera uma realização controlável de G(s). Para obter uma realização minimal deve-se extrair a parte observável da realização. O algorı́tmo dual (realização por linhas a partir da forma canônica-observável) será brevemente discutido. 4.2 Sistemas Contı́nuos temascontcontrolaobs Trataremos inicialmente os tópicos de controlabilidade, observabilidade e teoria da realização para sistemas contı́nuos. Uma grande parte do desenvolvimento é análoga para sistemas discretos. Isto fará com que as seções correspondentes de sistemas discretos sejam muito mais reduzidas. e1 Consideraremos sistemas da forma: ẋ(t) = Ax(t) + Bu(t) (4.2a) e1a y(t) = Cx(t) + Du(t) (4.2b) e1b x(t0 ) = x0 , t ≤ t0 (4.2c) e1c onde A : X → X , B : U → X , C : X → Y, D : U → Y são transformações lineares, X , U e Y são espaços vetoriais de dimensão n, m, l, respectivamente. O espaço vetorial X é chamado espaço de estados (x(t) é o vetor de estado no instante t), Y é o espaço de saı́das (y(t) é o vetor de saı́das no instante t) e U é o espaço das entradas (u(t) é o vetor de entradas no instante t). A entrada externa u(t) pertence ao conjunto U de funções de entrada admissı́veis. Por simplicidade vamos supor que U é o conjunto das funções contı́nuas por partes de [t0 , ∞) em U. Fixadas bases {e1 , . . . ,en } de X , {f1 , . . . ,fm } de U 1 Sistemas “SISO” (single input, single output). CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE 75 e1 e {g1 , . . . , gl } de Y, o sistema (4.2) passa a possuir uma descrição matricial representada pelas matrizes A, B, C, D e os vetores coluna x(t) = (x1 (t), . . . ,xn (t))0 u(t) = (u1 (t), . . . ,um (t))0 y(t) = (y1 (t), . . . ,yl (t))0 representarão respectivamente o vetor de estado, o vetor de entradas e o vetor e1 de saı́das escrito nestas bases. Note que a equação (4.2) pode ser interpretada de forma intrı́nseca (pelas transformações lineares A,B,C,D agindo em vetores x, y, u) ou de forma matricial (pelas matrizes A,B,C,D multiplicando vetores coluna x,y,u escritos em bases fixadas). A escolha das bases de Y e U em geral não é livre porque as entradas e saı́das estão relacionadas respectivamente aos atuadores e sensores do sistema. Embora a escolha da base do espaço de estados X possa também estar relacionada com grandezas fı́sicas, muitas vezes esta escolha pode “esconder” propriedades estruturais internas do sistema, que poderiam ser reveladas em uma base mais adequada. Assim, se {e1 , . . . ,en } é a base original de X e {η1 , . . . ,ηn } é a nova base em que desejamos escrever o vetor de estado, definimos a matriz T de mudança de base por : matriz dos vetores coluna {η1 , . . . ,ηn } T = escritos na base {e1 , . . . ,en } Note que a matriz T transforma vetores escritos na base {e1 , . . . ,en } em vetores escritos na base {η1 , . . . ,ηn }. Tal propriedade é representada no diagrama abaixo : Vetores na base original {e1 , . . . ,en } ← T ← Vetores na base nova {η1 , . . . ,ηn }. Assim, se A,B,C,D são as matrizes do sistema escritas na base {e1 , . . . ,en }, as novas matrizes Ã, B̃, C̃, D̃, obtidas a partir da transformação de base eSimilar x = Tz (4.3) à = T −1 AT (4.4a) serão dadas por B̃ = T −1 B (4.4b) C̃ = CT (4.4c) D̃ = D (4.4d) e as novas equações matriciais do sistema são dadas por : ż(t) = Ãz(t) + B̃u(t) (4.5a) y(t) = C̃z(t) + D̃u(t) (4.5b) z(t0 ) = z0 , t ≥ t0 (4.5c) 76 CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE e1 Note que as equações acima representam o mesmo sistema (4.2) (em uma base diferente). Tal interpretação valerá para todas as seções, menos a de teoria da realização. OBS. No contexto da teoria da realização, em particular para o conceito eSimilar de equivalência, as relações (4.4) são denominadas de relações de similaridade 2 e portanto não são interpretadas como mudança de base. subsec:A_invariancia autonoma 4.2.1 A-invariância e dinâmica da equação autônoma Considerando apenas o sistema autônomo: ẋ(t) = Ax(t) x(t0 ) = x0 , t ≥ t0 (4.6a) (4.6b) Considere, sem perda de generalidade que t0 = 0. Sabemos que a (única) solução do sistema acima para x(0) = x0 é dada por x(t) = eAt x0 onde eAt é chamada de exponencial da matriz A. Considere agora uma aplicação linear A : X → X tal que, para um subespaço V, tenhamos que para todo v ∈ V então Av ∈ V. Tal propriedade é denotada por AV ⊂ V e neste caso dizemos que o subespaço V é A-invariante. O exemplo mais simples de um subespaço invariante é o subespaço unidimensional V, gerado por um autovetor v de A. A álgebra linear desenvolve teorias importantes baseadas no conceito de invariância3 . As nossas aplicações ficam, pelo menos pelo momento, mais restritas ao conteúdo da proposição seguinte : Ainvariancia Proposição 1 Seja uma A : X → X transformação linear, seja V um subespaço de X , autonoma assuma que dim(X ) = n e dim(V) = k. Considere uma equação autônoma (4.6) com condição inicial x(t0 ) = x0 . Então as seguintes afirmativas são equivalentes ( i) O subespaço V é A-invariante, isto é , AV ⊂ V. autonoma ( ii) Se x0 ∈ V, então a solução da equação autônoma (4.6) é tal que x(t) ∈ V para todo t ∈ [t0 , ∞). ( iii) Dada uma base B = {v1 , . . . , vk , x̂1 , . . . , x̂n−k } de X tais que os primeiros k vetores formem uma base de V, então quando escrevermos a matriz de A na base B vamos obter uma matriz à da forma: A11 A12 à = 0 A22 onde A11 é uma submatriz k × k, A12 é k × (n − k), A22 é (n − k) × (n − k) e o zero representa uma submatriz (n − k) × k que é nula. 2 (emprestando da álgebra linear o termo usado para as matrizes A e à que obedeçam a relação à = T −1 AT ). 3 Por exemplo, a Forma Canônica Racional, e a Forma Canônica de Jordan de uma transformação linear é estreitamente relacionada com subespaços A-invariantes. ubsec:contrcontinuos CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE 77 A idéia da prova da proposição é resumida a seguir. A prova de que (i) implica em (iii) é uma conseqüência imediata do fato de que vetores pertencentes a V quando escritos na base B possuem as n − k últimas componentes todas nulas. A prova de que (iii) implica em (i) é óbvia. Assumindo (iii) e resolvendo a equação autônoma na base B, teremos: ż 1 = A11 z 1 + A12 z 2 ż 2 = A22 z 2 Assim para toda condição inicial em V teremos z 2 (t0 ) = 0 e portanto z 2 (t) ≡ 0, mostrando (ii). Assumindo (ii), suponha por absurdo que existe x0 ∈ V tal que Ax0 6∈ V. Na base B, isto significa que a derivada de alguma componente entre as n − k últimas não se anula para condição inicial x0 . Logo, num tempo t = t0 + com arbitrariamente pequeno, a solução x(t) não pertencerá a V. Observação: • Lembremos que se T é a matriz dos vetores coluna {v1 , . . . , vk , x̂1 , . . . , x̂n−k } escritos na base original de X , então à = T −1 AT . Note também que (i) é uma caracterização geométrica da A-invariância, (ii) é dinâmica e (iii) é matricial. • A observação a seguir é secundária para entendimento do texto, mas importante para garantir que certos conceitos que serão definidos são intrı́nsecos. De fato, as matrizes A11 e A12 possuem significados intrı́nsecos. Mostra-se que A11 é a matriz da restrição A|V e A22 é a matriz do mapa induzido Ā : X /V → X /V. Se ι : V → X é o mapa de inserção, Won85 então ι(A|V) = Aι. Se π : X → X /V, então Āπ = πA (Wonham, 1985). ♦ 4.2.2 Controlabilidade Esta seção é dedicada ao estudo da controlabilidade de sistemas lineares contı́nuos e invariantes no tempo. Existem diversas definições de controlabilidade. A definição que utilizaremos está relacionada com a capacidade de alcançar4 pontos do espaço de estados pela aplicação de uma entrada adequada. Tal definição é também denominada de controlabilidade ponto-a-ponto. Mostraremos nesta seção que controlabilidade é uma propriedade entradaestado, sendo portanto dependente somente das matrizes (A, B) da representação de estado. Veremos que um sistema é controlável se e somente se o posto da matriz de controlabilidade é igual à dimensão do estado. Mesmo quando o 4 A capacidade de alcançar pontos do espaço de estados é também chamada de alcançabilidade ou atingibilidade 78 CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE sistema não for controlável, o conjunto dos estados alcançáveis a partir da origem coincide com a imagem da matriz de controlabilidade. Fica implı́cito na teoria dada nesta seção que, se um estado é alcançável a partir da origem num tempo T1 , onde T1 > 0, então tal estado é alcançável num tempo T2 positivo qualquer. No caso contı́nuo, é óbvio que alcançar estados num tempo T menor exige mais energia, sendo que no nosso estudo consideramos que o controle não tem limitação. Será visto que esta última afirmação é conseqüência imediata da fórmula de construção da entrada, que precisa inverter o Grammiano de e:Grammiano controlabilidade (vide (4.9)). Sejam A : X → X , B : U → X transformações lineares onde dim X = n e e2 dim U = m. Considere o sistema def:controlabilidade trolabilidade:origem x(t) = Ax(t) + Bu(t) x(t0 ) = x0 , t ≤ t0 (4.7a) e2a (4.7b) e2b e2 Definição 1 No sistema (4.7) dizemos que x1 é alcançável num tempo T a partir da origem (ou simplesmente alcançável) se existir uma entrada u : e2 [t0 , T ] → U admissı́vel, tal que a solução da equação (4.7), com x(t0 ) = x0 , obedeça a x(T ) = x1 . Denotaremos conjunto dos estados alcançáveis a partir da origem por R 0 . Teorema 4.2.1 O espaço R0 alcançável a partir da origem é dado por: R0 = = Im B . . . +An−1 Im B + A Im B +n−1 Im B AB . . . A B Observação: Durante toda a demonstração do teorema vamos denotar R = Im B AB . . . An−1 B porque ainda não sabemos que R = R0 , onde R0 é o conjunto dos estados alcançáveis a partir da origem. A matriz C = B AB . . . An−1 B será denominada matriz de controlabilidade. Sem perda de generalidade, seja t0 = 0. Assumindo que a condição inicial x0 é nula, temos que : Z T eAτ Bu(T − τ )dτ. (4.8) forcada x(T ) = 0 Para provar o teorema vamos construir uma entrada adequada tal que o estado forcada x(T ), dado por (4.8), seja igual ao estado x1 que queremos atingir. Para isso necessitaremos do conceito de Grammiano de controlabilidade e de dos lemas a seguir. ♦ CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE 79 Definição 2 Seja T > 0 fixado. Definimos o Grammiano de controlabilidade V (T ) dada por: Z T 0 V (T ) = etA BB 0 etA dt (4.9) e:Grammiano 0 Teremos que V (T ) assim definida é uma matriz simétrica. Mais ainda, valem os lemas a seguir : Vdefinida Lema 1 Assuma que R = X . Então a matriz V (T ) é definida positiva (e portanto invertı́vel). Prova: Tome x ∈ X arbitrário. Teremos Z T tA 0 tA0 0 0 e BB e dt x x V (T )x = x 0 = = = Z Z Z T 0 x0 etA BB 0 etA xdt 0 T 0 T 0 0 B 0 etA x 0 0 B 0 etA x dt 0 tA0 2 B e x dt ≥ 0. Portanto V (T ) é pelo menos semi-definida positiva. Para mostrar que ela é definida-positiva, suponha que exista x 6= 0 tal que x0 V (T )x = 0. Da 0 2 0 continuidade de B 0 etA x em função de t segue-se que, B 0 etA x = 0 para todo t ∈ [0, T ]. Em particular: 0 = = Logo 0 di B 0 etA x dti t=0 0 0 i tA0 B (A ) e x , i = 1, 2, 3, . . . t=0 B 0 (A0 )i xt=0 = 0 i = 1, 2, 3, . . . e portanto x0 C = 0. Assim as linhas da matriz de controlabilidade C são linearmente dependentes e o posto de C não pode ser igual a n = dim X . CasoControlavel Lema 2 Se R = X , então a entrada u : [0,T ] → R definida por 0 u(t) = B 0 e(T −t)A V (T )−1 x1 faz com que o sistema alcance x1 num tempo T a partir da origem. CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE 80 forcada Prova: Substituindo-se a expressão de u(t) em (4.8) vamos obter : x(T ) = Z T eAτ Bu(T − τ )dτ 0 Z T 0 eAτ BB 0 eA τ V (T )−1 x1 dτ 0 Z T 0 eAτ BB 0 eA τ dτ V (T )−1 x1 = = 0 = V (T )V (T )−1 x1 = x1 invariante Lema 3 O subespaço R = Im C = Im B AB . . . An−1 B é o menor5 Ainvariante que contém Im B. Prova: O teorema de Cayley-Hamilton nos diz que uma transformação linear anula seu próprio polinômio caracterı́stico. Em outras palavras, se π(λ) = . det(λI −A) = λn −(an−1 λn−1 +. . .+a1 λ+a0 ), então π(A) = An −(an−1 An−1 + . . . + a1 A + a0 I) = 0. Em particular temos que An é uma combinação linear das potências inferiores à enésima potência de A. Seja x ∈ R. Por definição temos que x é uma combinação linear das colunas de C. Em outras palavras, x = C ū = para algum ū ∈ U n . DenoP n−1 j tando ū = (u00 , . . . , u0n−1 )0 , teremos que x = j=0 A Buj . Portanto Av = Pn−1 j+1 n é uma combinação linear das potências inferiores à A Bu . Como A j j=0 enésima de A, segue-se que Av também é uma combinação linear das colunas de C. Por fim é imediato que R0 contém Im B e que outro espaço A-invariante que contém Im B também conterá R0 T:Controlabilidade:origem Prova: (do teorema 4.2.1) : Demonstraremos inicialmente que z ∈ / R não pode acha ser alcançado num tempo T a partir da origem invariante para nenhuma entrada aplicada e nenhum T > 0. De fato, note que do lemaAinvariancia 3 temos que R é um subespaço A-invariante. Por outro lado da proposição 1 e do fato de Im B ⊂ R segue-se que, numa nova base de X adaptada a estes subespaços sistema se reescreve como 1 1 ż A11 A12 z B1 = + u (4.10) e:decompoe ż 2 0 A22 z2 0 1 z com z 2 6= 0. Note que dizer que z ∈ / R é equivalente a dizer que z = z2 Mas a equação dinâmica que rege a porção z 2 do vetor de estado z(t) é a equação autônoma dada por: z 2 (t) = A22 z 2 . 5 “Menor” no sentido da inclusão. CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE 81 Logo com a condição inicial z(0) = 0, teremos que z 2 (t) ≡ 0 e portanto z ∈ /R não poderia ser alcançado a partir da origem. Mostremos agora que x ∈ R pode ser alcançado a partir da origem através de uma entrada adequada. Do raciocı́nio acima vemos que uma condição inicial nula implica em z 2 (t) identicamente nulo. Portanto a dinâmica de z 1 (t) se reduz ao sistema (A11 , B1 ) dado por: ż 1 (t) = A11 z 1 (t) + B1 u(t) CasoControlavel Pelo lema 2 é suficiente mostrar que o sistema (A11 , B1 ) é controlável (porque aı́ poderı́amos construir a entrada adequada através deste lema). De fato, isto pode ser mostrado facilmente computando-se a matriz C na base utilizada no argumento anterior e considerando-se o fato de que: A11 A12 0 A22 k = Ak11 X 0 Ak22 (4.11) ParteContrNaoContr Assim, vamos obter C= B1 A11 B1 . . . An−1 11 B1 0 0 ... 0 Como o posto de C coincide com k = dim R, que por sua vez coincide com o número de linhas (e de colunas) de A11 , segue-se que o posto da matriz C1 = B1 A11 B1 . . . An−1 11 B1 é igual a k. Pelo teorema de Cayley-Hamilton é fácil mostrar que tal posto coincide com o posto da matriz k−1 C¯ = B1 A11 B1 . . . A11 B1 Note que C¯ é a matriz de controlabilidade do par (A , B1 ). Portanto o par CasoControlavel11 (A11 , B1 ) obedece as hipóteses do lema 2, como querı́amos demonstrar. Observação: • As matrizes B1 , A11 , A12 possuem significados intrı́nsecos. Se ι : R0 → X é o mapa de inserção e π : X → X /V for a projeção canônica, então B 1 , A12 e A22 são unicamente definidos (como transformações lineares) pelas Won85 equações: ιB1 = B, ιA11 = Aι, A22 π = πA (Wonham, 1985). • As definições acima fornecem uma demonstração elegante para a controlabilidade de (A11 , B1 ). De fato, basta notar que ιAk11 B1 = Ak ιB1 = Ak B. Daı́, usando o teorema de Cayley-Hamilton, segue-se facilmente a Won85 controlabilidade de (A11 , B1 ) (Wonham, 1985). ♦ CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE 82 Definição 3 : Um sistema (A,B) tal que R = X é dito completamente controlável (ou simplesmente controlável). Se (A,B) não for controlável, então (A11 ,B1 ) é denominado parte controlável de (A,B). O resultado a seguir mostra que um sistema linear controlável (a partir da origem) é controlável a partir de uma condição inicial arbitrária. Corolário 1 Num sistema controlável, a entrada u : [0,T ] → R definida por 0 u(t) = −B 0 e(T −t)A V (T )−1 (eT A x0 − x1 ) leva o sistema de x(0) = x0 até x(T ) = x1 Prova: Exercı́cio. O resultado seguinte pode ser demonstrado6 : Che70 Kai80 Corolário 2 (Chen, 1970), (Kailath, 1980) As seguintes afirmativas são equivalentes: (i) O par (A,B) é controlável. (ii) A matriz C = B AB . . . An−1 B possui posto n = dim X (pleno de linha). (iii) posto [sI − A B] = n, para todo s ∈ σ(A). (vi) Im (sI − A) + ImB = X , para todo s ∈ σ(A). (v) Se h ∈ Cn é um autovetor à esquerda de A, isto é, se h0 A = λh0 com λ ∈ C, então h0 B 6= 0 (critério de controlabilidade de Hautus). e:decompoe A equação (4.10) sugere a decomposição do sistema em partes controlável e não controlável abaixo: (Parte controlável) ż 1 (t) = A11 z 1 (t) + A12 z 2 (t) + B1 u(t) (Parte não-controlável) ż 2 (t) = A22 z 2 (t) Note que entrada é completamente desconectada da parte não-controlável. Note que A11 , A12 , B1 são componentes da parte controlável e A22 é denominado subsistema não controlável. A matriz A12 representa um acoplamento entre a parte controlável e a parte não-controlável. subsec:obscontinuos 4.2.3 Observabilidade Nesta seção trabalharemos com os conceitos de desacoplamento da saı́da e de observabilidade de sistemas contı́nuos. O primeiro é a propriedade de uma condição inicial provocar uma saı́da nula para um sistema sem entrada. O segundo é a capacidade de deduzirmos o estado de um sistema a partir da informação de sua saı́da e da entrada aplicada. Mostraremos que a observabilidade e o desacoplamento da saı́da estão diretamente relacionados ao maior subespaço A-invariante contido em ker C, que chamaremos de N0 , ou ainda de subespaço não-observável. 6 Aqui σ(A) denota o conjunto (com multiplicidade) dos autovalores de A. CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE 83 Mostraremos que N0 é o núcleo de uma matriz denominada matriz de observabilidade. Mostraremos que um sistema é observável se e somente se N 0 é o subespaço nulo. Obteremos uma decomposição do sistema em uma parte observável e uma parte não-observável, esta última sendo completamente desconectada da saı́da. Ressaltamos que tais propriedades são duais das obtidas com relação à controlebiliadade. Desacoplamento da saı́da eee1 Seja o sistema (sem entrada) x(t) = Ax(t) (4.12a) eee1a y(t) = Cx(t) (4.12b) eee1b x(t0 ) = x0 , t ≤ t0 (4.12c) eee1c onde A : X → X e C : X → Y, são transformações lineares, X , e Y são espaços vetoriais de dimensão n e l, respectivamente. dDesacoplado Definição 4 Dizemos que um estado x0 , onde x0 ∈ X , é desacoplado da saı́da eee1 para o sistema (4.12), se x(t0 ) = x0 implicar em y(t) = Cx(t) = 0 para todo t ≥ t0 . O conjunto dos estados x0 desacoplados da saı́da será denotado por N0 . tDesacoplado Teorema 4.2.2 O subespaço dos estados desacoplados da saı́da é dado por N 0 tal que: C CA N0 = ker O = ker (4.13) eMatrizObs .. . CAn−1 tDesacoplado Para mostrar o teorema 4.2.2 precisamos do seguinte lema: l:OeAinvariante Lema 4 O subespaço vetorial ker O é A-invariante. Prova: Seja v ∈ ker O. Vamos mostrar que Av ∈ ker O ou seja que OAv = 0. De fato, para isto note que: CA CA2 OAv = . v .. CAn Mas do fato de Ov = 0 segue-se que CAk v = P 0, k = 0, . . . , n − 1. Lembremos i n que, pelo teorema de Cayley-Hamilton, A = n−1 i são os coefii=0 ai A , onde a P n−1 i n cientes do polinômio caracterı́stico de A. Portanto CA v = C i=0 ai A v = Pn−1 i i=0 ai CA v = 0. 84 CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE tDesacoplado Prova: (do teorema 4.2.2) Seja x0 um estado desacoplado da saı́da. Então dDesacoplado pela definição 4 teremos : CeA(t−t0 ) x0 = 0, ∀t ≥ t0 e portanto derivando a equação acima sucessivas vezes, tem-se dk (CeA(t−t0 ) x0 ) = CAk eA(t−t0 ) x0 = 0, ∀t ≥ t0 . dtk em particular, para t = t0 , segue-se que CAk x0 = 0, k = 0,1, . . . , n − 1 e assim x0 ∈ ker O. Para mostrar que todo estado de ker O é desacoplado da saı́da, suponha x0 ∈ ker O e tome uma base em que os primeiros k vetores formam uma base de ker O. Nesta base, como ker O é A-invariante e ker O ⊂ ker C (mostrar), eO segue-se que o sistema se reescreve como: 1 1 ż A11 A12 z = (4.14a) eOa ż 2 0 A22 z2 z1 0 C2 y = (4.14b) eOb z2 eOa A forma da matriz à em (4.14a) se deve a A-invariância de ker O. Por outro eOb lado a forma da matriz C̃ em (4.14b) se deve ao fato de ker O ⊂ ker C. z1 Note que x0 , quando escrito na nova base, toma a forma x0 = , onde z2 eOa x0 ∈ ker O se e somente se z 2 = 0. Note que, de (4.14a), a dinâmica de z 2 é dada por z 2 (t) = A22 z 2 . eOb Logo com a condição inicial x0 ∈ ker O, teremos que z 2 (t) ≡ 0. De (4.14b), segue-se que y(t) é identicamente nulo. Portanto, x0 é desacoplado da saı́da. Observabilidade eSistema Seja o sistema x(t) = Ax(t) + Bu(t) (4.15a) eSistemaa y(t) = Cx(t) (4.15b) eSistemab x(t0 ) = x0 , t ≤ t0 (4.15c) eSistemac Nesta seção introduziremos o conceito de observabilidade para sistemas na eSistema forma (4.15). Veremos que a observabilidade é a propriedade de poder deduzir o estado de um sistema a partir do conhecimento da entrada aplicada u(·) e a saı́da obtida y(·) deste sistema. Fica implı́cito nesta definição que também conhecemos perfeitamente o sistema em termos de suas matrizes (C,A,B) da eSistema equação (4.15). 85 CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE eSistema Definição 5 Dizemos que um sistema na forma (4.15) é observável se o estado inicial x(t0 ) puder ser determinado a partir do conhecimento de u(t) e y(t) no intervalo [t0 , t0 + T ]. Observação: (i) Se x0 é conhecido então x(t) pode ser determinado através da equação (6) do cap.2. Assim a definição acima poderia ser mudada para eSistema Dizemos que um sistema na forma (4.15) é observável se o estado inicial x(t) no intervalo [t0 , T + t0 ] puder ser determinado a partir do conhecimento de u(t) e y(t) no mesmo intervalo. (ii) Como mostraremos que a observabilidade é uma propriedade que depende apenas de A e C, dizemos apenas que o par (C,A) é (ou não) observável ao invés de dizermos que o sistema é (ou não) observável. (iii) Pela invariância no tempo, não há perda de generalidade em considerar t0 = 0. ♦ tObservabilidade ldual Teorema 4.2.3 Seja N0 = ker O. O par (C,A) é observável se e somente se N0 = {0} (espaço nulo). eSistema Lema 5 Dado o sistema (C, A) dado por (4.15), considere o sistema dual ẋ = A1 x + B1 u onde A1 = A0 e B1 = C 0 . Então o posto da matriz de controlabilidade de (A1 , B1 ) é igual a dimensão do espaço de estados se e somente se ker O eMatrizObs = {0}, onde O a matriz de observabilidade construı́da a partir de (C, A) (vide (4.13)). Prova: Basta notar que a transposta da matriz de controlabilidade de (A 1 , B1 ) é a matriz B10 C CA B10 A01 C10 = = =O .. .. . . B10 (A01 )n−1 CAn−1 portanto o posto de C1 é pleno de linha se e somente se o posto de O for pleno de coluna, isto é, se e somente se ker O = {0}. tObservabilidade Prova: (do teorema 4.2.3) Provemos inicialmente que N0 = {0} implica em (C,A) observável. Considere a matriz V (T ) = Z T 0 etA C 0 CetA dt. (4.16) eGrammianoObs 0 A matriz V (T ) é denominada Grammiano de Observabilidade. Note que V (T ) coincide com o grammiano de controlabilidade do sistema dual (A1 , B1 ). Pelo 86 CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE ldual lema 5 e o lema 1 do Cap. 2, segue-se que V (T ) é uma matriz simétrica positiva definida , sendo portanto invertı́vel. Por outro lado teremos: Z t At y(t) = Ce x0 + C eA(t−τ ) Bu(τ )dτ (4.17) eAux 0 eAux 0 portanto, multiplicando ambos os lados de (4.17) por etA C 0 , integrando no intervalo [0,T ] e isolando o termo dependente de x0 do lado direito, teremos: Z T Z t Z T A(t−τ ) tA0 0 tA0 0 tA e Bu(τ )dτ(4.18a) dt e C y(t) − C e C Ce dt x0 = 0 0 0 = ω (y(·), u(·), A, B, C) (4.18b) eAux2 Note que para conhecermos ω (y(·), u(·), A, B, C) e V (T ) é preciso conhecer o sistema (A, B, C) e também sua entrada e sua saı́da num intervalo [0, T ]. eAux2 Multiplicando-se a equação (4.18b) em ambos os lados por V (T )−1 obtemos: x0 = V (T )−1 ω (y(·), u(·), A, B, C) mostrando que N0 = {0} implica em que o sistema seja observável. Mostremos agora que o sistema ser observável implica em N0 = {0}. Para isso suponha por absurdo que existe x̄ 6= 0 tal que x̄ ∈ N0 . Assim existem x10 e x20 distintos e tais que x1 − x20 = x̄ ∈ N0 . Considere agora as soluções de eSistema 0 x1 (t) e x2 (t) de (4.15) obtidas respectivamente a partir das condições iniciais x(0) = x10 e x(0) = x20 a partir da mesma entrada u(·) aplicada. Segue-se que y1 (t) − y2 (t) = C(x1 (t) − x2 (t)) Z t Z t At 1 A(t−τ ) At 2 A(t−τ ) = Ce x0 + C e Bu(τ )dτ − Ce x0 + C e Bu(τ )dτ = = 0 At 1 At 2 Ce x0 − Ce x0 CeAt x10 − x10 At 0 = Ce x̄ = 0. Note que a última igualdade da seqüência de equações acima é decorrente do fato de x̄ ser desacoplado da saı́da e portanto CeAt x̄ é identicamente nulo. Do raciocı́nio acima, concluı́mos que os estados x10 e x20 são indistinguı́veis, pois saı́das idênticas são obtidas a partir destas condições iniciais através da aplicação de uma mesma entrada. É impossı́vel decidir, a partir do conhecimento da saı́da e da entrada, se a condição inicial adotada foi x 10 ou x20 . Portanto, se N0 6= {0}, o sistema não é observável. T i Observação: Pode-se mostrar que N0 = n−1 i=0 ker CA e que N0 é o maior A-invariante contido em ker C. Em outras palavras, se V é um subespaço Ainvariante e V ⊂ ker C então V ⊂ N0 (mostre). Na teoria de sistemas é usual denominar N0 de subespaço não-observável e denotá-lo por hker C|Ai. ♦ 87 CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE Che70 Kai80 O seguinte resultado pode ser demonstrado (Chen, 1970), (Kailath, 1980): Corolário 3 As seguintes afirmativas são equivalentes: (i) (C,A) é observável. (ii) A matriz de observabilidade O= C CA .. . CAn−1 possui posto n = dim X , pleno de coluna. (ii) N0 = ker O = {0}. (iv) A matriz de observabilidade O tem colunas independentes, ou equivalentemente, a transformação linear O é injetiva. (v) O sistema dual (A0 ,C 0 ) é controlável. (vi) A matriz [sI − A C] possui posto n = dim X para todo s ∈ σ(A) (para todo s ∈ C). (vii) ker [sI − A] ∩ ker C = {0} para todo s ∈ σ(A) ( para todo s ∈ C). ( viii ) A matriz A não possui autovetores contidos no ker C (critério de Hautus). Em outras palavras, se h é autovetor de A então Ch 6= 0. Observação: Do que foi visto acima, se um sistema não for observável, podemos sempre escrever as matrizes do sistema em uma nova base de X em que os primeiros k vetores formem uma base de N0 . Nesta base, devido ao fato de eSistema N0 ser A-invariante e N0 ⊂ ker C, segue-se que o sistema (4.15) toma a forma: eOO ż 1 (t) ż 2 (t) eOO 1 A11 A12 B1 z (t) + u(t) 0 A22 z 2 (t) B2 z 1 (t) 0 C2 y = z 2 (t) = (4.19a) eOOa (4.19b) eOOb A equação (4.19) sugere a seguinte decomposição do sistema em partes observável e não-observável: (Parte não-observável) (Parte observável) ż 1 (t) = A11 z 1 (t) + A12 z 2 (t) + B1 u(t) 2 ż (t) = A22 z 2 (t) + B2 u(t) y = C2 z 2 (t) Note que a saı́da é completamente desconectada da parte não-observável. Note que A11 , A12 , B1 são componentes da parte não observável e C2 , A22 , B2 é denominado subsistema observável. A matriz A12 representa um acoplamento entre a parte observável e a parte não-observável. ♦ CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE ealizaequivcontinuos 4.2.4 88 Realizações e equivalências Como dito na introdução, dada uma matriz de transferência G(s), uma realização de G(s) é um sistema linear: ee1 ẋ(t) = Ax(t) + Bu(t) (4.20a) ee1a y(t) = Cx(t) + Du(t) (4.20b) ee1b x(t0 ) = x0 , t ≤ t0 (4.20c) ee1c tal que a sua matriz de transferência coincida com G(s). Tal problema é evidentemente um problema de sı́ntese, sendo motivado pelos problemas de implementação de filtros e sistemas de controle analógicos. A teoria que estuda os problemas de realização é denominada de Teoria da Realização. Nesta seção estudaremos as formas canônicas controlável e observável de sistemas monovariáveis, isto é, sistemas com apenas uma entrada e uma saı́da. Tais formas canônicas permitem resolver de forma simples o problema de realização para sistemas monovariáveis. Intimamente ligado com o problema da realização, está a Decomposição de Kalman. Tal decomposição exibe as partes de um sistema que são: a) não-observável e controlável; b) observável e controlável; c) não observável e não controlável ; d) observável e não-controlável. Mostraremos, a partir da decomposição de Kalman, que somente a parte observável e controlável contribui para a matriz de transferência do sistema e que uma realização é minimal (isto é, possui a dimensão do espaço de estados mı́nima) se e somente se a realização é controlável e observável. Apresentaremos um método de sı́ntese de uma realização minimal de uma matriz de transferência G(s) baseado na realização coluna a coluna de tal matriz. Tal método utiliza a forma canônica controlável e gera uma realização controlável de G(s). Para obter uma realização minimal deve-se extrair a parte observável da realização. O algorı́tmo dual (realização por linhas a partir da forma canônica-observável) será brevemente discutido. ss:Formas:Canonicas 4.2.5 Formas canônicas Nesta seção apresentaremos algumas formas canônicas de sistemas monovariáveis. Tais formas canônicas permitem resolver de maneira simples o problema de realização de tal classe de sistemas. Forma canônica controlável Suponhamos que queremos fornecer uma realização para a função de transferência: b 1 s2 + b 2 s + b 3 Y (s) = g(s) = U (s) s3 + a1 s2 + a2 s + a3 (4.21) g:de:s 89 CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE Multiplicando-se e dividindo-se o denominador e o numerador de g(s) por 1/s 3 teremos: Y (s) b1 /s + b2 /s2 + b3 /s3 = U (s) 1 + a1 /s + a2 /s2 + a3 /s3 (4.22) eg:de:s:integrador (4.23) eXi1 Seja ξ (3) (s) uma variável auxiliar definida pela equação: 1 ξ (3) (s) = U (s) 1 + a1 /s + a2 /s2 + a3 /s3 Segue-se que Y (s) = (b1 /s + b2 /s2 + b3 /s3 )ξ (3) (s) eNota Denotando-se ξ (2) (s) = (1/s)ξ (3) (s) ξ (1) ξ (0) (4.24a) 2 (3) (s) (4.24b) 3 (3) (s) (4.24c) (s) = (1/s )ξ (s) = (1/s )ξ segue-se que Y (s) = b1 ξ (2) (s) + b2 ξ (1) (s) + b3 ξ (0) (s) (4.25) eY eXi1 Por outro lado, de (4.23), podemos escrever (1 + a1 /s + a2 /s2 + a3 /s3 )ξ (3) (s) = U (s) Portanto ξ (3) (s) = −(a1 /s)ξ (3) (s) − (a2 /s2 )ξ (3) (s) − (a3 /s3 )ξ (3) (s) + U (s) eNota Usando-se (4.24), vem: ξ (3) (s) = −a1 ξ (2) (s) − a2 ξ (1) (s) − a3 ξ (0) (s) + U (s) eXi eY eNota (4.26) Podemos representar as equações (4.26), (4.25), (4.24) através do diagrama da f:canonica:controlavel figura 4.1. f:canonica:controlavel O diagrama da figura 4.1 é facilmente convertido na seguinte equação diferencial: (0) ˙(0) ξ (t) ξ (t) 0 0 1 0 (1) ξ˙(1) (t) = 0 0 1 ξ (t) + 0 u(t)(4.27a) 1 −a3 −a2 −a1 ξ (2) (t) ξ˙(2) (t) (0) ξ (t) b3 b2 b1 ξ (1) (t) (4.27b) y = (2) ξ (t) eXi CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE 90 y b2 b1 u x(2) x(2) x(1) -a1 -a2 b3 x(0) -a3 canonica:controlavel Figura 4.1: Forma canônica controlável (terceira ordem). É fácil mostrar que tal sistema é sempre controlável porque a matriz de controlabilidade é sempre da forma: 0 0 1 C= 0 1 z 1 x y Observação: O leitor não terá dificuldade em generalizar essas idéias para sistemas de ordem diferente de 3. Em geral a forma canônica controlável correspondente à função de transferência b1 sn−1 + b2 sn−2 + . . . + bn g(s) = n s + a1 sn−1 + a2 sn−2 + . . . + an 91 CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE sendo dada por: ξ˙(0) ξ˙(1) .. . ξ˙(n−2) ξ˙(n−1) = 0 0 .. . 1 0 .. . 0 1 .. . ... ... .. . 0 0 .. . ξ (0) ξ (1) .. . 0 0 0 ... 1 ξ (n−2) −an −an−1 −an−2 . . . −a1 ξ (n−1) (0) ξ ξ (1) .. bn bn−1 . . . b2 b1 y = . ξ (n−2) 0 0 .. + (4.28a) u . 0 1 (4.28b) ξ (n−1) ♦ Forma canônica observável Consideramos novamente o problema de fornecer uma realização para a g:de:s função de transferência (4.21). Seja Y (s) = ξ(s). Reescrevendo a equação eg:de:s:integrador (4.22), teremos (1 + a1 /s + a2 /s2 + a3 /s3 )ξ(s) = (b1 /s + b2 /s2 + b3 /s3 )U (s) e portanto: ξ(s) = −(a1 /s)ξ(s)−(a2 /s2 )ξ(s)−(a3 /s3 )ξ(s)+(b1 /s)U (s)+(b2 /s2 )U (s)+(b3 /s3 )U (s) (4.29) eCanObsEq eCanObsEq f:canonica:observavel Note que a equação (4.29) corresponde ao diagrama dafigura 4.2. f:canonica:observavel Do diagrama da figura 4.2, segue-se que podemos definir: x1 = y = ξ ẋ1 = −a1 x1 + b1 u ẋ2 = −a2 x1 + b2 u ẋ3 = −a3 x1 + b3 u dando origem à seguinte realização: b1 −a1 1 0 x1 (t) ẋ1 (t) ẋ2 (t) = −a2 0 1 x2 (t) + b2 u(t) b3 −a3 0 0 x3 (t) ẋ3 (t) x1 (t) 1 0 0 x2 (t) y = x3 (t) (4.30a) (4.30b) CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE 92 u b2 b3 b1 X1 X2 X3 y -a3 -a2 -a1 :canonica:observavel Figura 4.2: Forma canônica observável (terceira ordem). Observação: Tal realização é sempre observável. A mesma idéia pode ser usada para sintetizar a realização de funções de transferência de ordem diferente de 3. Em geral a forma canônica observável correspondente à função de transferência g(s) = b1 sn−1 + b2 sn−1 + . . . + bn sn + a1 sn−1 + a2 sn−2 + . . . + an sendo dada por: ẋ1 (t) ẋ2 (t) .. . ẋn−1 (t) ẋn (t) y = −a1 −a2 .. . = −an−1 −an 1 0 ... 0 1 ... .. .. .. . . . 0 0 ... 0 0 ... 1 0 ... 0 0 0 0 .. . x1 (t) x2 (t) .. . 1 xn−1 (t) xn (t) 0 x1 (t) x2 (t) .. . xn−1 (t) xn (t) + b1 b2 .. (4.31a) u . bn−1 bn (4.31b) ♦ 93 CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE Forma canonica de controlabilidade f:canonica:controlabilidade Na figura 4.3 temos uma variante da forma canônica controlável denomiKai80 nada forma canônica de controlabilidade (Kailath, 1980). b1 y b2 X2 X1 X3 u -a3 -a2 b3 -a1 ica:controlabilidade Figura 4.3: Forma canônica de controlabilidade (terceira ordem). g:de:s Mostra-se que para realizar a função de transferência g(s) dada por ( 4.21) é necessário escolhermos β1 , β2 e β3 tais que7 : −1 β1 1 0 0 b1 β2 = a1 1 0 b2 β3 a2 a1 1 b3 (4.32) e:MarkovBeta As equações de estadof:canonica:controlabilidade correspondentes podem ser facilmente obtidas a partir do diagrama da figura 4.3. A generalizaçãoe:MarkovBeta para ordem n é obtida definindose a primeira linha da matriz da equação (4.32) como sendo (1 0 . . . 0), a iésima linha como sendo (ai−1 ai−2 . . . a1 1 0 . . . 0), e a última linha dada por (an−1 an−2 . . . a1 1). Forma canônica de observabilidade f:canonica:observabilidade Na figura 4.4 temos uma variante da Kai80 forma canônica observável denominada forma canônica de observabilidade (Kailath, 1980). g:de:s Mostra-se que para realizar a função de transferência g(s) dada por ( 4.21) e:MarkovBeta é necessário escolhermos β1 , β2 e β3 obdecendo a mesma equação (4.32). As 7 Mostra-se que os βi são os parâmetros de Markov da função de transferência g(s) Kai80 (Kailath, 1980). CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE 94 u b3 b1 b2 x3 x2 x1 y -a1 -a2 -a3 nica:observabilidade Figura 4.4: Forma canônica de observabilidade (terceira ordem). equações de estado correspondentes podem ser facilmente obtidas a partir do f:canonica:observabilidade diagrama da figura 4.4. A generalização para ordem n é obtida definindo-se os coeficientes βi como na forma canônica de controlabilidade. ssNaoEstrita 4.2.6 Realizações monovariáveis não estritamente próprias No caso em que g(s) = n(s)/d(s) é própria, mas não é estritamente própria, devemos fazer a divisão n(s) = Dd(s) + r(s), sendo D o quociente (necessariamente de grau zero) e r(s), o polinômio resto, necessariamente de grau menor que o grau de d(s). Assim podemos escrever: n(s)/d(s) = (Dd(s) + r(s))/d(s) = D + r(s)/d(s). Note que r(s)/d(s) é estritamente próprio e portanto pode ser realizado em uma forma canônica das seções anteriores. Se (A, B, C) é uma realização de r(s)/d(s) então (A, B, C, D) será uma realização de g(s) (mostre). ex1 Exemplo 4.2.1 Seja g(s) = (ds + h)/(s − a). Note que g(s) = d + g1 (s) onde g1 (s) = b/(s − a), onde b = (h + da). Note também que: ẋ = [a]x + [b]u y = [1]x é uma realização de g1 (s) = b/(s − a). Portanto, ẋ = [a]x + [b]u y = [1]x + [d]u CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE 95 é uma realização de g(s). ex2 Exemplo 4.2.2 Seja g(s) = d+(b1 s+b2 )/(s2 +a1 s+a2 ). Note que o sistema: x1 0 ẋ1 0 1 u + = 1 −a2 −a1 x2 ẋ2 x1 b2 b1 + du y = x2 é uma realização de g(s). Realização em cascata Note que toda função de transferência g(s) = b1 sn−1 + b2 sn−1 + . . . + bn sn + a1 sn−1 + a2 sn−2 + . . . + an pode ser escrita da forma: k Y gi (s) i=1 onde os são gi funções de transferência próprias e têm no máximo ordem 2. Assim a função de transferência g(s) pode ser realizada como um sistema em cascata a partir dos gi (s). g1 g2 ... gk f:cascata Figura 4.5: Realização em cascata. Na implementação, normalmente há interesse prático em se utilizar a forma em cascata por duas possı́veis razões. A primeira é que, em geral, a implementação de polinômios de primeira ou segunda ordem exige menor precisão relativa dos coeficientes. Segundo, implementando-se os pólos de mais baixa freqüência nos estágios iniciais da cascata, pode-se evitar saturações internas por ruı́dos de alta freqüência, já que os estágios iniciais agirão como filtros passa-baixas. Realização em paralelo P Decompondo g(s) como uma soma de frações parciais g(s) = ki=1 gi (s) podemos realizar a função de transferência através da conexão em paralelo dos f:paralelo gi (s), como ilustrado na figura 4.6 4.2.7 Decomposição de Kalman e realizações mı́nimais Nesta seção estudaremos a decomposição de Kalman e a sua relação com as realizações minimais. Mostraremos que uma realização é minimal se e somente se ela é controlável e observável. CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE 96 g1 g2 u + ... y gk f:paralelo Figura 4.6: Realização em paralelo. Decomposição de Kalman e3 Considere o sistema linear x(t) = Ax(t) + Bu(t) (4.33a) e3a y(t) = Cx(t) + Du(t) (4.33b) e3b x(t0 ) = x0 , t ≤ t0 (4.33c) e3c onde A : X → X , B : U → X , C : X → Y, D : U → Y são transformações lineares, X , U e Y são espaços vetoriais de dimensão n, m, l, respectivamente. Sabemos das seções anteriores que podemos determinar os subespaços R 0 e N0 , denominados respectivamente por subespaço controlável e subespaço nãoobservável. Temos que ambos são subespaços A-invariantes, Im B ⊂ R0 e N0 ⊂ ker C. É fácil mostrar que R0 ∩ N0 e R0 + N0 também são A-invariantes. Note que : R0 ∩ N 0 ⊂ R 0 ⊂ R 0 + N 0 ⊂ X R0 ∩ N 0 ⊂ N 0 ⊂ R 0 + N 0 ⊂ X Seja {λ1 , . . . , λk } uma base de R0 ∩ N0 . Pelo teorema de completamento de base é possı́vel construir uma base de R0 da forma {λ1 , . . . , λk , ρ1 , . . . , ρs } onde {ρ1 , . . . , ρs } é um subconjunto de uma base de R0 . Como R0 ∩ N0 ⊂ N0 , analogamente é possı́vel construir uma base de N0 da forma {λ1 , . . . , λk , η1 , . . . , ηp } onde {η1 , . . . , ηp } é um subconjunto de uma base de N0 . Não é difı́cil mostrar que o conjunto S = {λ1 , . . . , λk , ρ1 , . . . , ρs , η1 , . . . , ηp } é uma base de R0 + N0 (exercı́cio). Agora complete S até uma base de X , obtendo uma base B = {λ1 , . . . , λk , ρ1 , . . . , ρs , η1 , . . . , ηp , x1 , . . . , xr }. Defina os seguintes subespaços: X1 = span {λ1 , . . . , λk } (Estados não-observáveis e controláveis) (4.34) X2 = span {ρ1 , . . . , ρs } (Estados observáveis e controláveis) (4.35) X3 = span {η1 , . . . , ηp } (Estados não-observáveis e não-controláveis) (4.36) X4 = span {x1 , . . . , xr } (Estados observáveis e não-controláveis) (4.37) CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE t:DecKalman 97 Teorema 4.2.4 (Teorema da decomposição de Kalman) Escrevendo o sistema (A, B, C, D) na base B de X teremos a seguinte forma canônica (Ã, B̃, C̃, D̃) , denominada Decomposição de Kalman: A11 A12 A13 A14 B1 0 A22 0 A24 B̃ = B2 à = 0 0 A33 A34 0 0 0 A44 0 0 0 C2 0 C4 C̃ = D̃ = D onde o par A11 A12 0 A22 B1 B2 é controlável (parte controlável do sistema), e o par A22 A24 C2 C4 0 A44 (4.38) eParteContr (4.39) eParteObs é observável (parte observável do sistema). Prova: Apresentaremos apenas as idéias principais da prova. Os zeros matriciais que estão abaixo de A11 são conseqüência do fato de X1 = R0 ∩N–0 ser A-invariante. Os quatro zeros matriciais abaixo da submatriz » A11 A12 são conseqüência do fato de R0 = X1 + X2 ser A-invariante. A 0 A 22 forma de B̃ é eParteContr conseqüência de Im B ⊂ R0 = X1 + X2 . Como R0 = X1 + X2 , segue-se que (4.38) é a parte controlável do sistema. Os três zeros matriciais da última linha de à decorrem da A-invariância de R0 + N0 = X1 + X2 + X3 . Levando-se em conta a A-invariância de N0 = X1 + X3 , é fácil mostrar que a submatriz 2,3 de à (da segunda linha e terceira coluna) tem que ser nula. Os dois zeros matriz C̃ são justificados pelo fato de eParteObs N0 = X1 + X3 ⊂ ker C. Como N0 = X1 + X3 , segue-se que (4.39) é a parte observável do sistema. p:TransfContObs Proposição 2 A matriz de transferência G(s) do sistema depende somente da parte (A22 , B2 , C2 , D̃) , isto é, da parte controlável e observável do sistema. Prova: Sabemos que G(s) = C(sI − A)−1 B + D = C̃(sI − Ã)−1 B̃ + D̃. Note que8 C(sI − Ã)−1 B̃ = = = ˆ ˆ 0 0 C2 C2 0 0 = C2 (sI − A22 )−1 B2 8 C4 C4 2 ˜6 6 4 2 ˜6 6 4 3 3−1 2 B1 (sI − A11 ) −A12 −A13 −A14 7 6 B2 7 0 (sI − A22 ) 0 −A24 7 7 6 5 4 0 5 0 0 (sI − A33 ) −A34 0 32 0 0 0 (sI − A44 ) (sI − A11 )−1 X X X 76 0 (sI − A22 )−1 X X 76 −1 54 0 0 (sI − A33 ) X −1 0 0 0 (sI − A44 ) A matrix X denota uma matriz qualquer cujos valores numéricos, ou mesmo as suas dimensões, não são importantes para o cálculo que estamos realizando no momento. 3 B1 B2 7 7 0 5 0 98 CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE Assim, G(s) = C2 (sI − A22 )−1 B2 + D̃, que só depende da parte observável e controlável do sistema. Considere a seguinte convenção de representação de um subsistema S consi f:convencao tante na figura 4.7. Aij xj AiJ Aki Si Ci Aip » ... ... Bi u Bi xp Aki . xi xi Aii Aip Ci f:convencao Figura 4.7: Convenção de representação das interconexões do i-ésimo subsistema, i = 1,2,3,4. Note que nem todo subsistema tem Bi e/ou Ci presente. A decomposição f:Decomposicao:Kalman de Kalman leva à estrutura do sistema representada pelo diagrama da figura 4.8. C4 S4 A34 A14 S3 A13 B1 y A24 S1 u A12 B2 S2 C2 :Decomposicao:Kalman Figura 4.8: Diagrama de conexões do teorema de decomposição de Kalman. O caminho de setas indica a única ligação entre a entrada e a saı́da. Realização de ordem mı́nima Dizemos que (A,B,C,D) é uma realização minimal de uma matriz de transferência G(s) própria se G(s) = C(sI − A)−1 B + D e a realização possuir a CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE 99 mı́nima ordem possı́vel, isto é, dim X = n é a menor dimensão do espaço de estados dentre todas as realizações possı́veis. Antes de estudar as realizações minimais, será útil introduzir os números (matrizes) de Markov: Definição 6 Seja G(s) = C(sI − A)−1 B + D a matriz de transferência de um sistema linear. Os números (matrizes) de Markov associados a esta função de transferência são dados por: M−1 = D Mk = CAk B, k ∈ N P P k k+1 . Em = L(eAt ) = L[ k∈N (At)k /k!] = k∈N A /s Note que (sI − A)−1 particular: X X G(s) = D + CAk B/sk+1 = Mk /sk+1 k∈N k>−1 Note que as matrizes de Markov determinam completamente a matriz de transAt −1 ferência. Note também que se g(t) = Ce B + D = L (G(s)), então Mk = (k) g (t) t=0 . Para demonstrar o resultado principal desta seção precisamos do seguinte resultado auxiliar de álgebra-linear: lPosto Lema 6 Sejam O : X → V e C : W → X transformações lineares. Então: (i) (O posto da composição de transformações é menor ou igual ao mı́nimo dos postos) O posto de OC é menor ou igual que min{p1 , p2 } onde p1 , p2 são os postos de O e C, respectivamente. (ii) Se O é injetiva, isto é, se ker O = {0}, então o posto de OC coincide com o posto de C. Prova: Exercı́cio. Agora podemos enunciar o resultado principal da seção: Teorema 4.2.5 Uma realização (A,B,C,D) de G(s) é minimal se e somente se (A, B) for controlável e (C, A) for observável. Prova: A necessidade decorre da decomposição de Kalman. De fato, se a realização for não-observável ou for não-controlável, a parte observável e controlável desta realização é também uma realização de G(s), mas com ordem inferior à realização dada. Para mostrar a suficiência, suponha que (A, B, C, D) é uma realização de G(s) com ordem n tal que (C, A) é observável, e (A, B) é controlável. Suponha por absurdo que a realização (A, B, C, D) não é minimal. Em outras palavras, existe uma realização (Â, B̂, Ĉ, D̂) de G(s) de ordem n̂ menor que n. Como as matrizes de transferência dos sistemas acima coincidem com G(s), segue-se que as matrizes de Markov também coincidem, ou seja: CAk B = Ĉ Âk B̂ sub:TeoriaRealizacao 100 CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE Denotando as matrizes de observabilidade e controlabilidade de (A, B, C, D) por O e C, defina: M = OC = CB CAB .. . CAB CA2 B .. . ... ... .. . CAn−1 B CAn B .. . CAn−1 B CAn B . . . CA2(n−1) B Analogamente, seja M̂ = ÔCˆ = Ĉ B̂ Ĉ ÂB̂ .. . Ĉ ÂB̂ Ĉ Â2 B̂ .. . ... ... .. . Ĉ Ân−1 B̂ Ĉ Ân B̂ .. . Ĉ Ân−1 B̂ Ĉ Ân B̂ . . . Ĉ Â2(n−1) B̂ Segue-se que M = M̂ . Como o (C, A) é observável, segue-se que ker O = {0}. Como (A, B) é controlável, então o posto de C é igual a n. Portanto, pela lPosto parte (ii) do Lema 6, segue-se que o posto de M é igual a n. Por outro lado, como n̂ é menor que n e o posto de ÔlPosto e de Cˆ são limitados superiormente por n̂, segue-se que da parte (i) do lema 6 que o posto de M̂ é menor ou igual a n̂. Isto é uma contradição, terminando a demonstração. 4.2.8 Teoria da Realização Dada uma matriz racional própria G(s), nesta seção vamos mostrar uma técnica de sı́ntese de uma realização (A,B,C,D) controlável para G(s). Uma realização minimal pode ser obtida a partir da parte observável desta realização. As idéias da técnica de sı́ntese dual são também discutidas. O algorı́tmo de realização por colunas Seja G(s) uma matriz de transferência própria l × m. Considere o seguinte método de obtenção de uma realização minimal (A, B, C, D) de G(s). 1. Obtenha uma realização controlável (Aj , Bj , Cj , Dj ) para j-ésima coluna de G(s) (a ser descrita em detalhes). 2. Construa o sistema (Ã, B̃, C̃, D̃) dado por: à = C̃ = A1 0 0 A2 .. .. . . 0 0 C1 C2 ··· ··· ··· ··· ··· 0 0 .. . B̃ = Am Cm D̃ = B1 0 0 B2 .. .. . . 0 0 D1 D2 ··· ··· ··· ··· ··· 0 0 .. . Bm Dm CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE 101 3. Extraia a parte observável (A, B, C, D) de (Ã, B̃, C̃, D̃). Obs : Escrevendo o sistema numa base adequada, obtemos as matrizes A11 A12 0 A22 , C1 C2 , B1 B2 , D̃. Faça A = A22 , C = C2 , B = B2 e D = D̃. Pode-se mostrar o seguinte resultado9 : Teorema 4.2.6 O sistema (A, B, C, D) é uma realização minimal de G(s). Realização de cada coluna Fixado j entre 1 e m, considere que gj (s) = (g1j (s), . . . , gmj )T é a j-ésima coluna de G(s). Mostraremos agora como obter a realização (A j , Bj , Cj , Dj ) de gj . Seja gij = pij (s)/qij (s). Seja dj (s) o denominador comum da coluna j, isto é, o denominador comum dos gij para i = 1, . . . , l. Multiplicando-se o numerador e o denominador de gij por um polinômio adequado, podemos ssNaoEstrita sempre escrever (após fazer uma divisão conforme descrito na subseção 4.2.6): gij = nij (s)/di (s) + dij onde dij é uma constante e nij (s)/di (s) é estritamente próprio. Seja: dj (s) = sn + a1 sn−1 + . . . + an nij = bi,1 sn−1 + . . . + bi,n , i = 1, . . . , l Assim, podemos fornecer uma realização (controlável) para coluna g j (s) dada por (mostrar que tal sistema é mesmo uma realização): Aj = 0 0 .. . 1 0 .. . 0 1 .. . ... ... .. . 0 0 .. . 0 0 0 ... 1 −an −an−1 −an−2 . . . −a1 b1,n b1,n−1 . . . b1,2 b1,1 .. .. .. .. .. Cj = . . . . . bl,n bl,n−1 . . . bl,2 bl,1 9 0 0 .. . Bj = 0 1 d1,j .. Dj = . dl,j Na verdade, as únicas dificuldades técnicas para demonstrar este resultado são: (i) garantir que (Ã, B̃) é controlável (fácil por computação direta da matriz de controlabilidade), e (ii) garantir que a parte observável de um sistema controlável é controlável (resultado mais ou menos imediato a partir do critério de controlabilidade de Hautus). CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE 102 O algorı́tmo de realização por linhas Transpondo a matriz G(s) podemos fornecer uma realização (A 1 , B1 , C1 , D1 ) de G(s)T usando a mesma metodologia acima. Depois podemos determinar uma realização de (A,B,C,D) de G(s) através do sistema dual A = A T1 , B = C1T , C = B1T , D = D1T . Uma outra abordagem (exercı́cio) seria realizar as linhas de G(s) diretamente através de realizações observáveis, agregá-las de maneira dual ao que foi feito no algorı́tmo de realização por colunas e depois extrair a parte controlável. Equivalência Dois sistemas descritos na forma de estado (A,B,C,D) e (Ã, B̃, C̃, D̃) são equivalentes se: eEquivalente à = T −1 AT B̃ = T −1 B (4.40a) (4.40b) C̃ = CT (4.40c) D̃ = D (4.40d) Para alguma matriz T não singular. É fácil mostrar que tal relação é reflexiva, simétrica e trasitiva, sendo portanto uma relação de equivalência. É imediato que tal definição de equivalência implica que dois sistemas equivalentes tenham mesma matriz de transferência e que os auutovalores de à e A cooincidem. Por outro lado, como a matriz de transferência depende apaenas da parte controlável e observável do sistema, o fato de dois sistemas possuirem matrizes de transferência idênticas não implica que eles sejam equivalentes. Se eEquivalente interpretarmos a relação de similaridade (4.40) como uma mudança de base, decorre que a noção de equivalência passa ser uma “igualdade a menos de mudança de coordenadas”. Assim dois sistemas equivalentes possuem as mesmas propriedades do ponto de vista externo e interno. Muito mais interessante do que a equivalência de dois sistemas descritos na forma de estado é a equivalência de dois sistemas descritos na forma polinomial. Ros70 O leitor interessado deve consultar (Rosenbrock, 1970). 4.3 Sistemas discretos asdiscretcontrolaobs Nesta seção trataremos das questões de controlabilidade, observabilidade e realizações para sistemas discretos. Como muitos dos desenvolvimentos feitos são análogos aos sistemas contı́nuos, a tônica da seção será a de retomar as noções e resultados de maneira breve, se concentrando principalmente nas diferencas e particularidades dos sistemas discretos. Conseideraremos sistemas 103 CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE e:discreto sec:controladiscreto discretos da forma ẋk+1 = Axk + Buk (4.41a) yk = Cxk + Duk (4.41b) x0 = x̄0 , (4.41c) Onde k ∈ N é o tempo discreto, xk ∈ X = Rn é o vetor de estado, uk ∈ U = Rm é o vetor de entrada e yk ∈ Rl é o vetor de saı́da. 4.3.1 Controlabilidade A noção de controlabilidade para sistemas discretos é definida como se segue: Definição 7 Dizemos que um estado xf é alcançável a partir de x0 , se existir k ∈ N e uma seqüência de entradas u0 , . .e:discreto . , uk tal que, para tal seqüência de entradas tenhamos xk = xf . O sistema 4.41 é (completamente) controlável se todo xf for alcançável para toda condição inicial x0 ∈ X . Dizemos que o sistema é controlável a partir da origem se a última afirmação for válida para x0 = 0. Teorema 4.3.1 O conjunto dos estados alcançáveis a partir da origem é o subespaço R0 dado por R0 = = Im B + A Im B + . . . + An−1 Im B Im C = B AB . . . An−1 B Um sistema é completamente controlável se e somente se a matriz C, denominada de matriz de controlabidade, tiver posto n = dim X . e:discreto Prova: É fácil mostrar por indução que a solução do sistema (4.41) é da forma: xk = A k x0 + k−1 X Aj Buk−j−1 j=0 i = A x0 + B AB . . . Ak−1 B (uTk−1 uTk−2 . . . uT0 )T k h Da equação acima e do teorema de Cayley-Hamilton, segue-se que o conjunto dos estados alcançáveis a partir da origem é a imagem da matriz de controlabilidade. Em particular o sistema é controlável a partir da origem se e somente se Im C = X , ou seja, se e somente se o posto de C for n = dim X . Que o posto de C deve ser n para que o sistema seja controlável é óbvio. Por fim, assumindo que Im C = X , se x0 não for nulo, tomando-se x̃f = −A k x0 + xf escolhendo T T T T se (uk−1 uk−2 . . . u0 ) tal que x̃f = B AB . . . An−1 B (uTk−1 uTk−2 . . . uT0 )T , teremos que tal seqüência leva o sistema de x0 (arbitrário) até xn−1 = xf . invariante Notemos agora que o espaço alcançável R0 é A-invariante segundo o lema 3. e:decompoe Portanto, analogamente ao caso contı́nuo descrito na equação ( 4.10), teremos CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE 104 que o sistema, quando escrito em uma base de X tal que os primeiros k vetores formem uma base de R0 (através de uma transformação z = T x), fica da forma: 1 1 zk+1 A11 A12 zk B1 = + uk (4.42) decompoe:discreto 2 zk+1 0 A22 zk2 0 1 zk e zk1 é o subvetor das primeiras k componentes de z. A onde z = zk2 decomposição acima sugere a decomposição do sistema em partes controlável e não controlável abaixo: 1 (Parte controlável) żk+1 = A11 zk1 + A12 zk2 + B1 uk 2 (Parte não-controlável) żk+1 = A22 zk2 Note que entrada é completamente desconectada da parte não-controlável. Note que A11 , A12 , B1 são componentes da parte controlável e A22 é denominado subsistema não controlável. A matriz A12 representa um acoplamento entre a parte controlável e a parte não-controlável. subsec:obsdiscreto 4.3.2 Observabilidade Nesta seção trataremos do problema da observabilidade de sistemas discretos. Para não sermos excessivamente repetitivos, devido à similaridade dos casos contı́nuo e discreto dos tópicos que tratamos, optamos por um tratamento mais resumido da questão. Definição 8 Um estado x0 é desacoplado da saı́da se CAk x0 = 0, k ∈ N. Em outras palavras, a solução yk do sistema sem entrada xk+1 = Axk , yk = Cxk é identicamente nula para condição inicial x0 . e:discreto Definição 9 Um sistema (4.41) é observável se para toda condição inicial x0 ∈ X existir k ∗ ∈ N tal que x0 possa ser determinado a partir do conhecimento da entrada uk e da saı́da yk para k = 0, . . . , k ∗ . Na definição acima fica implı́cito que o modelo do sistema é bem conhecido10 . É claro que o conhecimento do modelo, da entrada e do estado inicial implicam no conhecimento do estado xk , de modo que na definição acima poderı́amos trocar o conhecimento da condição inicial pelo conhecimento do estado. Teorema 4.3.2 Um sistema é observável de observabilidade O dada por C CA .. . CAn−1 for n = dim X . 10 se e somente se o posto da matriz A observabilidade de modelos com incertezas é uma outra questão, não tratada aqui. CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE 105 Prova: A idéia da prova é semelhante ao caso contı́nuo. Estabeleceremos as idéias principais. Temos Du0 C y0 y1 CA CBu0 + CDu1 x + = .. .. 0 .. . . . P k−1 j k yk CA C j=0 A Buk−j−1 + Cuk−1 | {z } | {z } {z } | Ok Y U Portanto, para k = n − 1 teremos Ox0 = Y − U. Assim, se o posto de O for n, então as colunas de O são independentes e portanto podemos determinar x0 a partir de Y e U (e podemos tomar k ∗ = n − 1). Por outro lado, se o posto de O (que é igual a dim Im O)for menor que n teremos, do fato de dim Im O +dim ker O = dim X que a dimensão do ker O é não nula. Seja N0 = ker O. É facil mostrar pelo teorema de Cayley-Hamilton que tal subespaço coincide com o conjunto dos estados desacoplados da saı́da. Analogamente ao caso contı́nuo, é fácil mostrar que dois estados iniciais cuja diferença esteja em ker O é indistinguı́vel do ponto de vista entrada saı́da, isto é, a aplicação de uma mesma entrada provoca uma mesma saı́da para essas duas condições iniciais distintas. l:OeAinvariante Pela proposição 4, N0 é um subespaço A-ivariante contido em ker C. PoreOO tanto, analogamente à equação (4.19), escrevendo o sistema numa base onde os eOOd primeiros k vetores formem uma base do espaço não observável N 0 , teremos: realizaequivdiscreto 1 żk+1 2 żk+1 yk eOOd 1 A11 A12 B1 zk + uk 0 A22 zk2 B2 zk1 0 C2 = + Duk zk2 = (4.43a) eOOad (4.43b) eOObd A equação (4.43) sugere a seguinte decomposição do sistema em partes observável e não-observável: (Parte não-observável) (Parte observável) 1 żk+1 = A11 zk1 + A12 zk2 + B1 uk 2 żk+1 = A22 zk2 + B2 uk yk = C2 zk2 + Duk Note que a saı́da é completamente desconectada da parte não-observável. Note que A11 , A12 , B1 são componentes da parte não observável e C2 , A22 , B2 é denominado subsistema observável. A matriz A12 representa um acoplamento entre a parte observável e a parte não-observável. 4.3.3 Realizações e equivalências subsec:realizaequivcontinuos Há uma grande analogia dos tópicos da seção 4.2.4 com os da presente seção. Assim, desenvolvimento será feito através desta analogia. 106 CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE Formas canônicas ss:Formas:Canonicas As formas canônicas da seção 4.2.5 podem ser obtidas de maneira análoga para sistemas discretos, quando substituı́mos nas equações de estado a derivação pela operação de avanço, e nos diagramas de bloco substituı́mos a integração pela operação de atraso. Por exemplo, a forma canônica controlável de uma função de transferência g(z) = b1 z n−1 + b2 z n−2 + . . . + bn z n + a1 z n−1 + a2 z n−2 + . . . + an é dada por: 0 ξk+1 0 1 0 0 ξ1 0 1 k+1 . .. .. .. . = .. . . n−2 0 ξ 0 0 k+1 n−1 −an −an−1 −an−2 ξk+1 yk = bn bn−1 . . . b2 ... ... .. . 0 0 .. . ξk0 ξk1 .. . ... 1 ξkn−2 . . . −a1 ξkn−1 0 ξk ξ1 k b1 ... n−2 ξ k n−1 ξk + 0 0 ..(4.44a) u . k 0 1 (4.44b) f:canonica:controlavel:discreta correspondendo ao diagrama de blocos da figura 4.9(para dimensão 3). yk b2 b1 uk xk z xk-1 -1 -a1 z -1 b3 xk-2 z -a2 -1 xk-3 -a3 controlavel:discreta Figura 4.9: Forma canônica controlável (terceira ordem). CAPÍTULO 4. CONTROLABILIDADE E OBSERVABILIDADE 107 Decomposição de Kalman e realizações mı́nimas As expressões do espaço alcançável a partir da origem e do espaço não observável nos casos contı́nuo e discreto são idênticas. Desta forma o enuciado t:DecKalman do teorema 4.2.4 e sua respectiva demonstração são exatamente iguais no caso discreto. A mesma observação é pertinente para o tópico de matrizes p:TransfContObs de Markov, realizações minimais e a proposição 2. subsub:Realizacao eed1 Teoria da realização e equivalência Dada uma matriz de transferência G(z), uma realização de G(z) é um sistema linear: xk+1 = Axk + Buk (4.45a) ee1da yk = Cxk + Duk (4.45b) ee1db k∈N (4.45c) tal que G(z) = C(zI − A)−1 B + D. É imediato que, do ponto de vista algébrico, o problema básico da teoria da realização é exatamente igual ao caso discreto. De fato, isso é conseqüência imediata do fato da expressão da matriz de trasferência discreta e contı́nua serem iguais quando substituı́mos z por s e subsub:Realizacao vice-versa. Assim, as técnicas da seção 4.3.3 são idênticas para o caso discreto. Da mesma maneira, a noção de equivalência se dá de forma idêntica ao final sub:TeoriaRealizacao da seção 4.2.8. Capı́tulo 5 Sistemas Lineares apresentando Atrasos de Tempo João Manoel Gomes da Silva Jr. UFRGS email: [email protected] Valter Leite CEFET-MG— UnED Divinópolis email: [email protected] O presente capı́tulo tem como objetivo apresentar conceitos básicos e propriedades de uma classe particular de sistemas lineares: sistemas apresentando atrasos de tempo. Tal classe de sistemas pode ser utilizada na modelagem de uma ampla gama de sistemas fı́sicos. Além disto, a compreensão dos efeitos do atraso sobre principalmente a estabilidade destes sistemas é de fundamental importância em sistemas de controle. 5.1 Introdução jmgomes:intro O estudo dos efeitos do atraso de tempo em sistemas deve-se, certamente, às conseqüências importantes que são produzidas pelo atraso sobre as variáveis de saı́da. No caso de processos industriais, os efeitos negativos do atraso sobre o desempenho de variáveis controladas já é bastante conhecido. Existem casos nos quais um pequeno valor de atraso nos estados ou na saı́da do sistema pode levar a uma redução significativa do desempenho ou até mesmo à perda da estabilidade. Por outro lado, há casos em que atrasos relativamente grandes podem ser usados para assegurar a estabilidade do sistema em malha fechada. Portanto, um entendimento preciso das conseqüências do atraso de tempo em sistemas é fundamental para, por exemplo, a otimização da produção em processos industriais ou para a garantia de qualidade do produto final. 108 CAPÍTULO 5. SISTEMAS LINEARES APRESENTANDO ATRASOS DE TEMPO109 É fácil encontrar casos práticos que são fortemente influenciados por atrasos em processos quı́micos (dinâmica de troca de calor em reações quı́micas, técnicas de recycle steam para melhorar a eficiência de reações), modelos matemáticos para dinâmicas de processos de combustão (modelo para a dinâmica do torque médio, usado para aproximar máquinas de combustão interna), sistemas elétricos de potência (modelos de linhas de transmissão elétricas sem perdas), circuitos eletrônicos (circuitos equivalentes com elementos parciais, PEEC, do inglês Partial Element Equivalent Circuit), e em sistemas hidráulicos (modelos matemáticos para transitórios de pressão e fluxo de fluidos em linhas hidráulicas), modelos dinâmicos para as oscilações que ocorrem em cortes de metais em ferramentas de usinagem. A presença do atraso de tempo pode ser percebida também em outras áreas do conhecimento. Alguns exemplos são os sistemas biológicos (modelos matemáticos para o crescimento de população), sistemas acionados remotamente (nos quais um sistema escravo segue um sistema mestre), sistemas de controle de tráfego em redes de comunicação de alto desempenho, modelos para redes neurais (redes de Hopfield e de Cohen-Grossberg). Há ainda que se mencionar o caso de aproximações matemáticas no qual um sistema de ordem elevada é aproximado por um modelo de ordem mais baixa e um atraso. No contexto das equações diferenciais parciais (EDP), uma simplificação freqüentemente adotada é a da aproximação de parâmetros distribuı́dos por parâmetros concentrados. Esse tipo de aproximação é normalmente feita quando o interesse da modelagem está no comportamento de um ponto (fixo) do espaço. Nesse caso, é, em geral, possı́vel aproximar uma EDP por um modelo de sistema com atrasos e com dimensão finita nos estados. Em geral, pode-se associar o atraso a três origens possı́veis: o atraso pode advir de uma caracterı́stica intrı́nseca do sistema; pode ocorrer devido à ação de realimentação usada para controlar uma variável; ou, ainda, ser introduzido intencionalmente na ação de controle. A primeira delas ocorre quando a equação diferencial que modela o sistema depende de uma função dos estados atuais e de estados passados. Um exemplo para essa situação pode ser obtido na modelagem da vibração em um processo de usinagem em que o metal cortado tal como em um torno. A peça de metal a ser trabalhada gira com uma velocidade angular ω enquanto uma ferramenta de corte avança ao longo do eixo de rotação com uma velocidade linear ν que determina a espessura dos cavacos retirados. A ferramenta de corte gera assim uma superfı́cie na medida em que o metal é removido e toda vibração da ferramenta é transmitida a essa superfı́cie. Assim, após transcorrido um intervalo de tempo em que a peça trabalhada completa uma revolução, (∆t = 2π/ω), a ferramenta estará atuando sobre a superfı́cie usinada anteriormente. Portanto, a equação dinâmica que modela o avanço dessa ferramenta vai depender dos estados atuais da ferramenta e também de um estado atrasado de τ = ∆t. Outra possibilidade é vinculada à ação de controle de realimentação ou mesmo de atraso nas medições. Nesse caso o sistema original não possui atrasos, isto é, a taxa de variação dos estados depende apenas dos estados atuais. Porém a ação de CAPÍTULO 5. SISTEMAS LINEARES APRESENTANDO ATRASOS DE TEMPO110 controle em malha fechada pode introduzir um atraso, fazendo com que a taxa de variação dos estados dependa também de estados passados. Um exemplo é o controle de aceleração em máquinas de combustão interna. Nessas máquinas, a aceleração, ω̇(t) dependente dos torques atuais, proporcionados pelo atrito e pela carga, e do torque produzido em um instante passado (mas não de ω(t − τ )). Ao introduzir uma ação de controle realimentada, as equações dinâmicas de malha fechada para a variável ω̇(t) passa a depender de valores anteriores de ω(t), ou seja, de ω(t − τ ). Note que o atraso resultante´não é intencional, mas conseqüência do controle empregado. Finalmente, existem casos em que o atraso é intencionalmente introduzido, por meio do sistema de controle, como forma de melhorar o desempenho do sistema. Exemplos desses casos são o ressonador com atraso, uma estrutura otimizada a partir de um absorvedor de vibrações clássico em que um elemento ativo com ação dependente de um estado atrasado é introduzido, e as colunas de destilação em que os sinais de controle são atrasados como forma de compensar o forte acoplamento entre as variáveis do processo. A variedade de situações nas quais o atraso de tempo apresenta uma forte influência é, portanto, bastante grande. Por isso mesmo o estudo da estabilidade de sistemas com atraso tem chamado a atenção de estudiosos desde o século 18, com os trabalhos de Bernoulli, Euler e Lagrange, por exemplo. No inı́cio do século 20 o foco dos trabalhos é dirigidos para a modelagem de sistemas em engenharia, biologia e ecologia. As questões vinculadas à estabilidade de tais sistemas recebem atenção a partir do trabalho de Pontryagin (1942) em que são estudadas as raı́zes de algumas funções transcendentais, entre elas os quasipolinômios. A partir de 1980 a estabilidade de sistemas com atraso passa a representar uma importante parcela dos trabalhos técnicos produzidos nas área de controle e matemática. Em geral, para esse tipo de análise, admite-se que o sistema esteja descrito por equações diferenciais funcionais (EDF). Essas equações são mais complexas que as tradicionais equações diferenciais ordinárias (EDO). Por exemplo, para que sejam satisfeitas as condições de existência e unicidade de soluções, as EDF precisam não apenas do valor dos estados iniciais, isto é x(t0 ), mas também dos valores dos estados em um intervalo de tempo t ∈ [t0 − τ, t0 ], τ ≥ 0. Assim, as EDFs determinam uma classe de sistemas que contem como caso particular a dos sistemas lineares invariantes no tempo e livres de atraso. Outra classe importante (e mais geral) de sistemas com atraso é formada pelos sistemas neutros. Nesse caso, o valor da derivada dos estados atuais dependente da derivada do estado atrasado além dos valores atuais e passados dos estados. Nesse caso o sistema pode ser descrito por uma equação diferencial hiperbólica (EDH) cuja análise é ainda mais complexa que no caso das EDF. Dada a motivação prática exposta acima e a complexidade matemática envolvida no tratamento de sistemas apresentando atrasos, esta área tem sido ativo objeto de estudo de vários pesquisadores e grande é o número de publicações dedicadas ao tema. Uma sistematização dos proncipais resultahale/book dos de base podem ser, por exemplo, encontrados nos livros de Hale (Hale CAPÍTULO 5. SISTEMAS LINEARES APRESENTANDO ATRASOS DE TEMPO111 kol:mys/book and Lunel, 1993), Kolmanovski (Kolmanovskii and Myshkis, 1992), Niculescu nic/book gu:kha:che/book (Niculescu, 2001) e Gu (Gu, Kharitonov and Chen, 2003). Interessantes coletâneas de resultados e uma visão do estado da arte na análise de sistemas com atraso e estratégias de controle para este tipogu:nic/asme03 de sistemas podem ser ric/auto03 encontrados, por exemplo, em (Richard, 2003a), e (Gu and Niculescu, 2003). O presente capı́tulo tem então por objetivo apresentar, de forma resumida, as principais definições, conceitos, propriedades e classificações fundamentais sobre sistemas com atraso, as quais servirão de base para a compreensão da problemática e para o estudo de resultados mais especı́ficos encontradas na literatura. Ênfase especial será dada a análise de estabilidade tanto segundo uma análise freqüêncial, com a conseqüênte análise de equações caracterı́sticas trancedentais, quanto segundo uma representação por espaço de estados, focalizando sobretudo as abordagens de Liapunov-Krasovskii e Razhumikin. Alguns exemplos práticos de sistemas com atrasos são discutidos. Ao final do capı́tulo, alguns trabalhos recentes envolvendo sistemas com atraso, sobretudo sob o ponto de vista de técnicas de controle, são elencados. 5.2 Definições Básicas e Classificações jmgomes:def Um sistema linear pode apresentar atrasos em suas entradas, saı́das e estados. De ric/auto03 uma maneira geral, a descrição desse sistema é dada pelas seguinte equações (Richard, 2003a): " # q k r Z t X X X d (Gj x(θ))+Hj u(θ))dθ x(t) − D` x(t − φ` ) = (Ai x(t−τi ))+Bi u(t−τi )+ dt t−ηj i=0 `=1 j=1 (5.1) eq:egenerica y(t) = k X (Ci x(t − τi )) + i=0 r Z X j=1 t (Nj x(θ)) (5.2) eq:sgenerica t−ηj em que h0eq:egenerica = 0 por definição e τi , ηj e φeq:sgenerica ` representam os atrasos no tempo. A equação (5.1) é a equação de estado e (5.2) é a equação de saı́da. Cabe ressaltar que nem todos os termos dessas equações devem estar presentes. Por outro lado, basta que um deles esteja para que consideremos o sistema como um “sistema com atraso”. A seguir, eq:egenerica são apresentadas algumas eq:sgenerica definições e considerações com relação ao sistema (5.1)-(5.2). 5.2.1 Sistemas com atrasos × sistemas neutros eq:egenerica O sistema (5.1) é chamado sistema neutro ou sistema do tipo neutro se existe pelo menos uma matriz D` e um atraso φ` , ` = 1, . . . , k, ambos não nulos. Se D` = 0, ∀`, então o sistema é denominado sistema com atraso. Note que nos sistemas neutros, a derivada de x(t) depende também de sua derivada em instantes passados, x(t − φ` ). Esse fato torna o cálculo de soluções para a eq:egenerica equação diferencial (5.1), e a conseqüente análise de estabilidade do sistema, bel:zen/TDS01 bem mais complexo (Bellen and Zennaro, 2001). CAPÍTULO 5. SISTEMAS LINEARES APRESENTANDO ATRASOS DE TEMPO112 5.2.2 Atrasos discretos × atrasos distribuı́dos eq:egenerica eq:sgenerica Os termos associados a x(t − τi ) e u(t − τi ) em (5.1) e (5.2) correspondem a atrasos discretos, também chamados de concentrados. Por outro lado, os termos associados à integral de x(θ) ou u(θ) correspondem a atrasos distribuı́dos. Para um sistema apresentando apenas atrasos discretos, diz-se que o mesmo apresenta atraso simples se k = 1 e múltiplos atrasos se k > 1. Atrasos múltiplos são ditos comensurados se τi , i = 1, . . . , k são multiplos inteiros de um fator comum τ , isto é, τi = iτ , i = 1, . . . ,k. Caso contrário os atrasos são denominados incomensurados. 5.2.3 Atrasos invariantes no tempo × atrasos variantes no tempo Em muitos sistemas práticos os atrasos podem variam ao longo do tempo. Nesses casos, a dependência de t é adotada na notação: τi (t), ψi (t) e η(t). Para fins de análise de estabilidade considera-se também que a variação do atraso dá-se dentro de um certo intervalo, por exemplo τi (t) ∈ [τmin τmax ], com 0 ≤ τmin e τmax < ∞. Muitas vezes, os atrasos são invariantes no tempo, mas incertos, ou seja, podem assumir qualquer valor fixo dentro de um certo intervalo. 5.2.4 O estado em sistemas com atraso eq:egenerica A equação 5.1 é dita uma equação diferencial funcional (EDF). Diferentemente de uma equação diferencial ordinária (EDO), uma EDF apresenta dimensão infinita. Pela presença de atrasos, a solução de uma EDFs não podem ser unicamente caracterizada a partir da condição inicial no instante de tempo t = t0 e pelo conhecimento da entrada a partir de t = t0 como nas EDOs. Neste caso, a solução a partir de um dado instante t = t0 será caracterizada de forma única pelo conhecimento do valor do estado e da entrada no intervalo [t0 − h, t0 ], sendo h = maxi,j,l {τi ,ηj ,φl }, ou seja, xt0 = x(t0 + θ) = φ(θ), ut0 = u(t0 + θ), −h ≤ θ ≤ 0 −h ≤ θ ≤ 0 (5.3) eq:cis Assim, como ẋ(t) é na verdade uma função de xt = x(t + θ), para −h ≤ θ ≤ 0 o espaço de estados é agora definido sobre um conjunto de funções (e não mais pontos no espaço euclidiano) que mapeiam o intervalo [−h,0] em <n , com topologia de convergência uniforme. Neste caso é natural considerar a seguinte definição de norma ||xt ||c = sup ||x(t + θ)|| (5.4) eq:normaC θ∈[−h,0] Considerando-se então Ch = C([−h,0], <n ) como o espaço de Banach the funções vetoriais eq:normaC contı́nuas xt mapeadas do intevalo [−h,0] em <n com norma definida por (5.4) é também usual considerar que xt pertence ao seguinte conjunto de funções: Chv = {xt ∈ Ch ; || xt ||c < v, v > 0} CAPÍTULO 5. SISTEMAS LINEARES APRESENTANDO ATRASOS DE TEMPO113 5.2.5 Estabilidade Sistemas com atraso Considere um sistema linear retardado autônomo (u(t) = 0, ∀) descrito de forma compacta como: ẋ(t) = f (t, xt ) (5.5) eq:retcompacta com condição inicial xt0 = φ(θ), ∀θ ∈ [−h,0] e f (t, xt ) : <+ × Chv → <n sendo uma função linear, tal que f (t,0) = 0. Denotando a solução, ou trajetória, do sistema para esta condição inicial como x(t0 , φ), tem-se então a seguinte definição. eq:retcompacta Definição 5.2.1 1. A solução trivial x(t) = 0 de (5.5) é dita assintoticamente estável se: a) para qualquer κ > 0 e para qualquer t0 > 0 existe um δ = δ(κ), independente de t0 , tal que para qualquer condição inicial φ ∈ Chδ , xt (t0 , φ) ∈ Chδ , ∀t ≥ t0 . b) para qualquer η > 0 e para qualquer t0 ≥ 0 existe um T (η), independente de t0 , e v0 , independente de η e t0 , tal que para qualquer condição inicial φ ∈ Chv0 tem-se que ||xt (t0 , φ)||c ≤ η, ∀t ≥ t0 +T (η). eq:retcompacta 2. A solução trivial x(t) = 0 de (5.5) é dita exponencialmente estável se existe um B > 0 e um α > 0 tais que para toda condição inicial φ ∈ Chv0 tem-se que ||xt (t0 , φ)||c ≤ Be−α(t−t0 ) ||φ||c Sistemas Neutros Condições de Estabilidade Dependentes × Independentes do Atraso Na literatura encontram-se basicamente condições de estabilidade que podem ser classificadas em dois grupos. O primeiro diz respeito a condições que garantem a estabilidade do sistema não importando o tamanho do(s) atraso(s) e se o(s) mesmo(s) varia(m) com o tempo. Neste caso diz-se que a condição é independente do atraso. O segundo grupo considera condições em que há uma dependência explı́cita do tamanho do atraso e/ou da sua taxa de variação, ou seja, diz-se que a condição é dependente do atraso. Neste caso, é comum definir condições de estabilidade do estilo ”o sistema é estável para todo atraso h ∈ [hmin , hmax ] e |ḣ| < d”. De maneira geral, condições independentes do atraso tendem a ser mais conservativas, uma vez que garantem estabilidade para qualquer tipo de atraso. 5.3 jmgomes:freq jmgomes:sistrel 5.3.1 Abordagem Freqüêncial Sistemas realimentados com atrasos - motivar discutindo o caso de estabilidade de um sistema realimentado: mostrar a influência do atraso na estabilidade através de Bode e Lugar das CAPÍTULO 5. SISTEMAS LINEARES APRESENTANDO ATRASOS DE TEMPO114 raı́zes gomes:eqcaracterisca 5.3.2 Equações caracterı́sticas A formulação entrada-saı́da genérica correspondente ao sistema é obtida eq:egenerica eq:sgenerica a partir da aplicação da transformada de Laplace às equações ( 5.1) e (5.2), obtendo-se então: y(s) = C(s)(sI − A(s))−1 B(s)u(s) com C(s) = A(s) = B(s) = Pk Pr 1−e−sηj −sτi + l=0 Ci e s Pkj=1 −sτ Pq Pr 1−e−sηj −sψl i + D se A e i=0 i j=1 Gj l=0 l s Pk Pr 1−e−sηj −sτ i + j=1 Hj s i=0 Bi e (5.6) eq:es-generica (5.7) eq:matrizesfreq A exemplo dos sistemas lineares sem atraso, equação caracterı́stica é dada então por ∆(s) = det(sI − A(s)) (5.8) eq:caracteristica e o espectro do sistema é definido como σ(A) = {s ∈ C, ∆(s) = 0} eq:eq:caracteristica É importante notar que ?? é uma equação transcedental, com um número infinito de soluções o que leva a conclusão de que o espectro do sistema é de dimensão infinita. Como noeq:eq:caracteristica caso de sistemas lineares sem atraso, as raı́zes da equação caracterı́stica ?? tem um papel fundamental na caracterização da estabilidade assintótica do sistema, como segue: Sistemas com atraso (Dl = 0): Neste caso a extensão do resultado para EDOs é direta, ou seja, o sistema é dito assintoticamente estável se e somente se todas as raı́zes do polinômio caracterı́stico possuem parte real estritamente negativa Sistemas Neutros (Dl 6= 0): Neste caso a extensão não é direta devido ao fato de que podem aparecer um número infinito de raı́zes do polinômio caracterı́stico com parte real P positiva ou nula (instáveis) devido ao termo −s ql=1 Dl esψl que aparece no determinante. jmgomes:estab-freq 5.3.3 Critérios de Estabilidade Considere a equação caracterı́stica de um sistema retardado dado na genericamente na forma do seguinte quasipolinômio: P (s, es ) = q p X X i=0 k=0 aik si eki CAPÍTULO 5. SISTEMAS LINEARES APRESENTANDO ATRASOS DE TEMPO115 sec: Como visto na seção ??, a análise da estabilidade de um sistema linear retardado, pode ser feita a partir da análise das raı́zes da equação caracterı́stica. A seguir são apresentados suscintamente alguns métodos para tanto. Mais denic/book stepan/book talhes sobre tais métodos podem ser encontrados em (Niculescu, 2001),(Stépán, hale/book 1989),(Hale and Lunel, 1993). pon/53 • Critério de Pontryagin (Pontryagin, 1953): Suponha que o termo principal de P (s, es ), apq 6= 0. Sejam F (w) e G(w), respectivamente, a parte real e imaginária de P (s, es ). Então: – Se todas as raı́zes de P (s, es ) estão em C− , então as raı́zes de F (w) e G(w) são reais, simples, alternadas e: F 0 (w)G(w) − F (w)G0 (w) > 0, ∀w ∈ < (5.9) eq:pontryagin – Todas as raı́zes de P (s, es ) estão em C− se uma das condições abaixo é satisfeita: a) Todas as raı́zes de F (w) e G(w) são reais, simples, alternadas eq:pontryagin e (5.9) é satisfeita para ao menos um w ∈ <. b) Todas as raı́zes de F (w) (ou G(w)) sãoeq:pontryagin reais, simples, alternadas e cada uma destas raı́zes verifica (5.9). Uma recente aplicação deste método em sistemas de controle, pode ser sil:dat:bha/ieee02 encontrada em (Silva and Bhattacharyya, 2002) • Métodos baseados no Princı́pio do Argumento Tais métodos podem ser vistos como uma extensão dos critérios de Nyquist para sistemas apresentando atrasos. Considerando um sistema linear com um único atraso (L), tem-se que a equação caracterı́stica é dada genericamente por: Fs = sn + n X ak e−Ls k=1 Assumindo agora que F(s) não possui raı́zes imaginárias, tem-se que kol:nos/book F(jw) = u(w)+jv(w), com u(w) 6= 0. O critério de Michailov (Kolmanovskii and Nosov, 1986) diz então que o sistema é assintoticamente estável se e somente se a variação de arg{F(jw)} é nπ 2 quando w varia de 0 a ∞. Este critério é basicamente um método gráfico ou geométrico. d arg{F(jw)}, tem-se que, para sistemas com Definindo-se I(w) = dw um único atraso, o critério de Michailov é equivalente a satisfação da kol:mys/book seguinte condição sobre a integral de I(w) (Kolmanovskii and Myshkra/siam64 kis, 1992),(Krall, 1964). Z ∞ nπ I(w) = 2 0 CAPÍTULO 5. SISTEMAS LINEARES APRESENTANDO ATRASOS DE TEMPO116 • Método do Lugar das raı́zes O método do lugar das raı́zes, como visto no capı́tulo ??, permite avaliar graficamente o comportamento das raı́zes de um dado polinômio considerando a variação de um de seus parâmetros. Tal método pode ser extendido a análise do impacto sobre a estabilidade e desempenho provocado pela variação de um certo parâmetro em sistemas realimentados apresentando atrasos na malha de controle. Uma vez que, a partir de uma expansão em série de Taylor, pode-se considerar que um termo e −Ls apresenta infinitos pólos, o lugar das raı́zes neste caso apresentará infinitos ramos e infinitos pontos de cruzamento com o eixo imaginário, os quais determinarão o valor crı́tico parâmetro variante (e.g. ganho crı́tico da malha) para o qual a estabilidade é garantida. Um exemplo deste fato ogatta/book é apresentado em (Ogatta, 1994). Outros exemplos e considerações sobre asuh:bie/ieee82 aplicação do método a sistemas com atraso podem ser encontrados em (Suh and Bien, 1982) • τ -decomposição Este método aplica-se apenas a sistemas apresentando um único atraso. O método consiste em obter uma função Do isolando-se o termo do atraso no polinômio caracterı́stico, isto é, e−τ s = Do (s) e, em seguida, avaliar o comportamento de Do (jw) com relação ao cı́rculo unitário do plano hsu/jam70 complexo (Hsu, 1970). 5.3.4 Aproximações Racionais para Atrasos A fim de evitar o problema de análise de equações caracterı́sticas transcedentais, uma idéia é utilizar aproximações do(s) termo(s) exponenciais e −τ s através de funções racionais, cujo polinômio do numerador é de grau p e o do denominador é de grau q. Tais aproximações, consistem basicamente na obtenção uma função racional correspondente a um truncamento da expansão de mak/auto90 e−τ s em série de Fourier-Laguerre (Mäkilä, 1990). Como exemplos, podemos citar: franklin/book • Aproximações de 1a ordem de Padé (Franklin, Powell and Naeini, 1994): 1 −τ s ≈ 1−(τ s)/2 e−τ s ≈ 1+τ s; e 1+(τ s)/2 mak:par/ijc99 1−(τ s)/2n n • Fórmula de Laguerre (Mäkilä and Partington, 1999): e−τ s ≈ ( 1+(τ s)/2n ) 2 2 s)/2n+(τ s) /8n n • Fórmula de Kautz: e−τ s ≈ ( 1−(τ ) 1+(τ s)/2n+(τ s)2 /8n2 2 2 s)/2n+(τ s) /12n n ) • Aproximações de Padé de 2a ordem: e−τ s ≈ ( 1−(τ 1+(τ s)/2n+(τ s)2 /12n2 Via de regra, pode-se dizer que as aproximações tendem a ser melhores quanto menor for o atraso. É no entanto importante ressaltar que a utilização de tais aproximações na análise de estabilidade de sistemas deve ser feita com sil:dat:bat/cdc01 cuidado. Por exemplo, em (Silva, Datta and Bhattacharyya, 2001), é mostrado CAPÍTULO 5. SISTEMAS LINEARES APRESENTANDO ATRASOS DE TEMPO117 que utilizar tais aproximações para o projeto de controladores podem levar o sistema real a um comportamento estável. Discussões mais detalhadasgu:nic/asme03 e referic/auto03 rências a este respeito podem ser encontradas em (Richard, 2003a) e (Gu and Niculescu, 2003). Uma comparação de aproximaçoes relativa a suas aplicações na análise de estabilidade via lugar das raı́zes pode ser encontrada em 5.4 Abordagem Espaço de Estados jmgomes:ee A análise de estabilidade de sistemas com atraso utilizando-se modelos descritos no espaço de estados, consiste basicamente na aplicação do segundo método de Lyapunov. Duas abordagens podem ser identificadas neste sentido: a abordagem de Krasovskii, onde a evolução do estado é analisada sobre um espaço de funções e considera-se um funcional de Lyapunov; e a abordagem de Razumikin, pela qual a análise é feita considerando-se a evolução das trajetórioas em um espaço Euclidiano. 5.4.1 Análise de Estabilidade - Abordagem de Liapunov-Krasovskii Esta abordagem esta baseada na utilização uma função de Lyapunov que dependa não apenas de x(t), mas xt , isto é, considera-se um funcional V (t,xt ). Tal funcional é conhecido como funcional de Liapunov-Krasovskii. A fim de se concluir sobre a estabilidade do sistema, define-se: V̇ (t, φ) = 1 d V (t,xt ) |xt =φ = lim sup∆t→0 [v(t + ∆t, xt+∆t (t, φ) − V (t, φ)] dt ∆t Assim, intuitivamente, se V̇ (t, φ) é não crescente, tem-se que xt não ”cresce”com teo:kra o passar do tempo. Este fato é formalizado a seguir nos Teoremas 5.4.1 e ??. mgomes:estab-delayed Sistemas com atraso Teorema 5.4.1 (Teorema de Krasovskii) Suponha que a função f : <×Cn,τ → <n aplique conjuntos limitados de Cn,r em conjuntos limitados de <n , e suponha que u(s), v(s) e w(s) são funções contı́nuas, não-negativas e nãodecrescentes, com u(s), v(s) > 0 for s 6= 0 and u(0) = v(0) = 0. Se existe uma função V : < × Cn,τ → <n tal que: (i) u(||φ(0)||) ≤ V (t, φ) ≤ v(||φ||c ) (ii) V̇ (t, φ) ≤ −w(||φ(0)||) eq:retcompacta então a solução x = 0 da equação (5.5) é uniformemente estável. Se u(s) → ∞ quando s → ∞ as suções são uniformemente limitadas. Se w(s) > 0 para s > 0, então a solução x = 0 é uniformemente asssintoteo:kra ticamente estável. CAPÍTULO 5. SISTEMAS LINEARES APRESENTANDO ATRASOS DE TEMPO118 Por exemplo, considerando o seguinte sistema linear simples, com um delay apenas ẋ = A0 x(t) + A1 x(t − h) (5.10) eq:sis1delay o seguinte funcional de Krasovskii pode ser usado para derivar uma condição suficiente de estabilidade para o sistema: 0 V (t,xt ) = x(t) P x(t) + Z 0 x(t + θ)0 Sx(t + θ)dθ −h eq:sis1delay Com efeito, avaliando-se V̇ (t, φ) ao longo das trajetórias de 5.10 tem-se que V (t,xt ) = x(t)0 (A00 P +P A0 x(t)+2x(t)0 P A1 x(t−h)+x(t)0 Sx(t)−x(t−h)0 Sx(t− h), donde conclui-se que o sistema será asssitoticamente estável se a a seguinte inequação matricial linear (LMI) for satisfeita: 0 A0 P + P A 0 + S P A 1 <0 A01 P −S Note que, como a LMI independe de h, a mesma constitui-se em uma condição de estabilidade independente do atraso. Em geral, condições dependentes atraso e/ou com atrasos distribuı́dos necessitam da utilização de funcionais sec:trans mais complexos e de certas transformações (vide seção ??). Via de regra, tais funcionais são gerados a partir da combinação dos seguintes termos: R0 V1 = x0 (t)P x(t) V2 = x(t)0 −hi Qi x(t + θ)dθ R0 R0 Rt V3 = −hi x(t + θ)0 Si x(t + θ)dθ V4 = −τi t+θ x(t + θ)0 Ri x(t + θ)dθ R0 R0 R0 V5 = x(t)0 −hi Pi (η)x(t + η)dη V6 = x(t)0 −hi −hi x(t + η)0 Pi (η, θ)x(t + η)dηdθ Em particular, V 3 e V4 são utilizados para se obter condições para sistemas com atrasos distribuı́dos, ou condições dependendtes do atraso para siskol:nic:ric/ijc99 temas com atrasos discretos ( Kolmanovskii, Niculescu and Richard, 1999), nic/book gu:kha:che/book (Niculescu, 2001), (Gu et al., 2003). V5 e V6 aparecem na derivação de inf:cas/jde78 consições necessárias e suficientes para estabilidade ( Infante and Castelan, lou/springer91 gu/ijrnc99 1978),(Louisell, 1991),(Gu, 1999). jmgomes:neutral Sistemas ”Neutros” 5.4.2 Análise de Estabilidade - Abordagem de Liapunov-Razumikhin Nesta abordagem utiliza-se uma função V (x) como medida de x(t). Para tal função define-se: V̄ (xt ) = max V (x(t + θ)) θ∈[−h,0] a qual serve como uma medida do ”tamanho”de xt . Assim, se V (x(t)) < V̄ (xt ), então V̇ (x(t)) > 0 não faz V̄ (xt ) crescer. Neste caso, para que V̄ (xt ) não cresça é apenas necessário que V̇ (x(t)) seja não eq:raz positivo quando V (x(t)) = V̄ (xt ). Este raciocı́nio é formalizado no Teorema ?? a seguir. CAPÍTULO 5. SISTEMAS LINEARES APRESENTANDO ATRASOS DE TEMPO119 Teorema 5.4.2 (Teorema de Razumikhin) Suponha que a função f : < × Cn,τ → <n aplique conjuntos limitados de Cn,r em conjuntos limitados de <n , e suponha que u(s), v(s) e w(s) são funções contı́nuas, não-negativas e nãodecrescentes, com u(s), v(s) > 0 for s 6= 0 and u(0) = v(0) = 0. Se existe uma função contı́nua V : < × <n → < tal que u(||x||) ≤ V (t,x) ≤ v(||x||) então segue que (i) V̇ (t,x(t)) ≤ −w(||x||) se V eq:retcompacta (t + θ, x(t + θ)) < pV (t,x(t)), ∀θ ∈ [−τ, 0] então a solução trivial de (5.5) é uniformemente estável. (ii) Se existe uma função contı́nua e não decrescente p : <+ → <+ , p(s) > s tal que V̇ (t, x(t)) ≤ −w(||x||) se eq:retcompacta V (t + θ, x(t + θ)) < pV (t,x(t)), ∀θ ∈ [−τ, 0] então a solução trivial de (5.5) é uniformemente assintoticamente estável. teo:raz Se neste caso u(s) → ∞ quando s → ∞, então a solução trivial é globalmente assintoticamente estável. Considerando-se, porteo:raz exemplo, uma função quadrática V (x(t)) = X(t) 0 P x(t), aplicando-se o Teorema 5.4.2 com p(s) = (1 + )s, > 0, e w(s) = s2 , tem-se eq:sis1delay que o sistema (5.10) será estável se V̇ (x(t)) + α[(1 + )V (x(t)) − V (x(t − τ ))] < −||x(t)||2 com α ≥ 0, o que leva a seguinte condição de estabilidade independente do atraso na forma de LMI: 0 A0 P + P A0 + αP P A1 <0 A01 P −αP 5.4.3 Transformações Algumas transformações envolvendo o termo de atraso permitem re-escrever o sistema em formas apropriadas com o objetivo principal de se obter condições de estabilidade dependentes do atraso. A seguir apresentamos 2 transformações bastante usuais. Outros tipos de transformações podem ser encontradas, nic/book gu:kha:che/book por exemplo em (Niculescu, 2001) e Gu (Gu et al., 2003). Transformação de Newton-Leibinitz Esta transformação é especialmente utilizada na dedução de condições de estabilidade dependentes do atraso e baseia-se no seguinte fato: x(t − h) = x(t) − Z 0 ẋ(t + θ)dθ −τ CAPÍTULO 5. SISTEMAS LINEARES APRESENTANDO ATRASOS DE TEMPO120 eq:sis1delay Usando este fato, o sistema (5.10) é transformado no seguinte sistema apresentando atrasos distribuı́dos: Z 0 [A0 x(t + θ) + A1 x(t + θ − τ )]dθ (5.11) eq:sisttrans ẋ = (A0 + A1 )x(t) − A1 −τ A presente transformação introduzeq:sisttrans dinâmicas adicionais ao sistema. Este a estabilidade donic/book sistema, fato faz com que a estabilidade de (5.11)implica gu:nic/ieee01 mas o inverso nem sempre é verdadeiro (Gu and Niculescu, 2001), (Niculescu, 2001). Estanic/book transformação é também conhecida como ”transformação de primeira ordem”(Niculescu, 2001), uma vez que apenas uma integração foi considerada. Uma segunda integração geraria uma ”transformação de segunda ordem”e a assim por diante. Uma generalização desta transformação são as transformações de primeira gou:dam:ric/scl97 ordem parametrizadas (Goubet-Bartholomeus, Dambrine and Richard, 1997), nic/book ric/auto03 (Niculescu, 2001), (Richard, 2003a). Transformação em Sistema Descritor fri:sha/scl01 Proposta inicialmente em (Fridman, 2001), a idéia básica desta transformação é a re-escrita do sistema na forma de um sistema descritor como segue: I 0 ẋ(t) 0 I x(t) 0 0 x(t − h) = + (5.12) eq:sistdescriptor 0 0 ẏ(t) A0 −I y(t) A1 0 y(t − h) A presente transformação, tem se revelado particularmente interessante na obtenção de condições de estabilidade dependente do atraso e envolvendo atrasos variantes no tempo a partir da utilizaçao de funcionais de Lyapunovfri:sha/scl01 fri:sha/ieee02 Krasovskii apropriados (Fridman, 2001), (Fridman and Shaked, 2002). jmgomes:discreto 5.4.4 Sistemas em Tempo Discreto Modelos em tempo discreto, aparecem usualmente quando da modelagem matemática de sistemas contı́nuos amostrados, como visto no capı́tulo XX, ou na descrição de comportamentos eminentemente discretos que aparecem entre outros em economia e sistemas de produção. Neste caso, os atrasos são interpretados como números inteiros, os quais representam uma dada quantidade de amostras. A seguir, para fins de análise, consideraremos o seguinte sistema simplificado, apresentando um só atraso 1 : x(k + 1) = Ax(k) + Ad x(k − τ (k)) (5.13) eq:discreto onde k, e τ (k) são inteiros maiores ou iguais a zero. Note que para a determinação do estado no instante k + 1 necessitamos não somente de seu valor no instante k (anterior), mas também de seu valor no instante k − τ (k), isto é, o valor que o estado apresentava em τ (k) instantes anteriores. 1 a extensão ao caso apresentando múltiplos atrasos é imediata CAPÍTULO 5. SISTEMAS LINEARES APRESENTANDO ATRASOS DE TEMPO121 Atrasos Invariantes Considere que τ (k) = h corresponde a um inteiro fixo e bem conhecido de eq:discreto amostras. A partir de um aumento do vetor de estados, o sistema (5.13) pode então ser re-escrito como: x(k) A 0 . . . Ad x(k + 1) 0 0 . . . 0 x(k − 1) x(k) (5.14) eq:aumentado = .. .. .. .. .. . . ... . . . x(k − h + 1) 0 0 ... x(k − h) 0 ou seja, este corresponde ao caso trivial em que o sistema pode ser re-escrito na forma de um sistema aumentado sem atraso. Observe também que este sistema apresenta h−1 autovalores na origem. Obviamente que, quanto maior o atraso, maior será a ordem do sistema aumentado. Para atrasos, suficientemente grandes, a utilização desta abordagem pode se tornar proibitiva. Neste caso, convenientes adaptações para o caso discreto das abordagens de Razhumikhin e de Krasovskii podemeq:discreto ser usadas para analisar diretamente a estabilidade equação de diferenças (5.13). Atrasos Variantes no Tempo No caso em que o valor exato (em termos de números de amostars) atraso é desconhecido (incerto) ou varia a cada instante k, torna-se impossı́vel a representaçao do sistema através de um sistema aumentado. A idéia neste caso consiste em adaptar os métodos de análise baseados nos teoremas de Razumikhin e de Krasovskii e a obtenção de condições de estabilidade dependentes ou independentes do atraso. Por exemplo, no caso de atrasos incertos 0 < τ (k) ≤ h um funcional de Lyapunov na seguinte forma lee:kwon/ifac02 pode ser usado (Lee and Kwon, 2004): 0 V (k) = x(k) P x(k)+ −1 X k X 0 (x(j)−x(j−1)) Z(x(j)−x(j−1))+ β=−h j=k+β+1 k−1 X x(j)0 Qx(j) j=k−h Maiores detalhes sobre a análise de estabilidadever:iva/cdc95 no caso em que o atraso élee:kwon/ifac02 incerto, podem ser encontrados por exemplo em ( Verrist and Ivanov, 1995), che:gua:lu/iee03 gao:lam:wag:xu/ijc04 (Lee and Kwon, 2004) (Chen, Guan and Lu, 2003), (Gao, Lam, Wang and Xu, 2004). wu:hong/ieee94 Os trabalhos considerando atrasos variantes são escassos (vide por fri:sha/ijc05 exemplo) (Wu and Hong, 1994) e (Fridman and Shaked, 2005). jmgomes:exemplos jmgomes:outros 5.4.5 Exemplos práticos 5.4.6 Outros Trabalhos na Área Referências Bibliográficas AM89 Anderson, B. D. O. and Moore, J. B. (1989). Optimal Control: Linear Quadratic Methods, Prentice-Hall, Englewood Cliffs, N.J. Barnett83 Barnett, S. (1983). Polynomials and Linear Control Theory, Marcel Dekker, New York. BG97 Barrow-Green, J. (1997). Poincaré and the Three Body Problem, American Mathematical Society/London Mathematical Society, Providence, RI. BM92 Basile, G. and Marro, G. (1992). Controlled and Conditioned Invariants in Linear System Theory, Prentice-Hall. bel:zen/TDS01 Bellen, A. and Zennaro, M. (2001). A free step-size implementation of second order stable methods for neutral delay differential equations, Proc. of the 3rd IFAC Workshop on Time Delay Systems, Sante Fe, USA, pp. 321–335. BN01 Ben-Tal, A. and Nemirovski, A. (2001). Lectures on Modern Convex Optimization: Analysis, Algorithms, and Engineering Applications, Vol. 2 of MPS/SIAM Series on Optimization, SIAM, Philadelphia, PA. BCK95 Bhattacharyya, S. P., Chapellat, H. and Keel, L. H. (1995). Robust Control: The Parametric Approach, PrenticeHall, Upper Saddle River, N. J. Disponı́vel no sı́tio http://www.ece.tamu.edu/˜bhatt/books/robustcontrol/robustcontrol.pdf. BEFB94 Boyd, S., Ghaoui, L. E., Feron, E. and Balakrishnan, V. (1994). Linear Matrix Inequalities in System and Control Theory, SIAM, Philadelphia. CD91 Callier, F. M. and Desoer, C. A. (1991). Linear System Theory, Springer Verlag, New York. Che70 Chen, C. T. (1970). Introduction to Linear System Theory, Holt, Rinehart and Winston, New York. Che93 Chen, C.-T. (1993). Analog & Digital Control System Design, Saunders College Pub. Che99 Chen, C.-T. (1999a). Linear System Theory and Design, 3rd edn, Oxford University Press, New York. 122 REFERÊNCIAS BIBLIOGRÁFICAS 123 Chen99 Chen, C.-T. (1999b). Linear System Theory and Design, 3rd edn, Oxford University Press, New York. che:gua:lu/iee03 Chen, W. H., Guan, Z. H. and Lu, X. (2003). Delay-dependent guaranteed cost control for uncertain discrete-time systems with delay, IEE Proc. of Control Theory and Applications 150: 412–416. dePaor03 de Paor, A. (2003). Pascal–Routh polynomials: a first exploration in feedback system design, Internat. J. Control 76(4): 386–389. DB01 Dorf, R. and Bishop, R. (2001). Sistemas de Controle Modernos, 8 edn, LTC. Evans48 Evans, W. R. (1948). Graphical analysis of control systems, AIEE Trans. 67: 547–551. FPE02 Franklin, G. F., Powell, J. D. and Emami-Naeini, A. (2002). Feedback Control of Dynamic Systems, 4th edn, Prentice Hall, Upper Saddle River, N. J. FPE94 Franklin, G., Powell, J. and Emami-Naeini, A. (1994). Feedback Control of Dynamic Systems, 3rd edn, Addison-Wesley. franklin/book Franklin, G., Powell, J. and Naeini, A. (1994). Feedback control of dynamic systems, 3a edn, Addison-Wesley. fri:sha/scl01 Fridman, E. (2001). New lyapunov-krasovskii functionals for stability of linear retarded and neutral type systems, Systems and Control Letters 43: 309– 319. fri:sha/ieee02 Fridman, E. and Shaked, U. (2002). An improved stabilization method for linear systems with time-delay, IEEE Transactions on Automation Control 47: 1931–1937. fri:sha/ijc05 Fridman, E. and Shaked, U. (2005). Stability and guaranteed cost control of uncertain discrete delay systems, International Journal of Control 78(4): 235–246. gao:lam:wag:xu/ijc04 Gao, H., Lam, J., Wang, C. and Xu, S. (2004). h∞ model reduction for discrete time-delay systems: delay-independent and dependent approaches, International Journal of Control 77: 321–335. GN99 Ghaoui, L. E. and Niculescu, S.-I. (1999). Advances on Linear Matrix Inequality Methods in Control, Advances in Control, SIAM, Philadelphia, PA. Gle66 Gleason, A. M. (1966). Fundamentals of Abstract Analysis, Addison Wesley, Reading, MA. gou:dam:ric/scl97 Goubet-Bartholomeus, A., Dambrine, M. and Richard, J. P. (1997). Stability of pertubed systems with time-varying delay, Systems and Control Letters 31: 155–163. REFERÊNCIAS BIBLIOGRÁFICAS 124 gu/ijrnc99 Gu, K. (1999). A generalized discretization scheme of lyapunov functional in the stability problem of linear uncertain time-delay systems, Int. J. on Robust and Nonlinear Control 9: 1–14. gu:kha:che/book Gu, K., Kharitonov, V. and Chen, J. (2003). Stability of time-delay systems, Birkhäuser, Boston. gu:nic/ieee01 Gu, K. and Niculescu, S. (2001). Further remarks on additional dynamics in various model transformations, IEEE Trans. Autom. Contr. 46: 497–500. gu:nic/asme03 Gu, K. and Niculescu, S. (2003). Survey on recent results in the stability and control of time-delay systems, J. of Dynamic Systems, Measurement and Control (ASME) 125: 125–165. hale/book Hale, J. and Lunel, S. M. V. (1993). Introduction to Functional Differential Equations, Springer-Verlag, New York. HV03 Haykin, S. and Van Veen, B. (2001). Signals and Systems, John Wiley & Sons. HPS72 Hoel, P., Port, S. and Stione, C. (1972). Introduction to Stochastic Processes, Waveland Press Inc., Long Grove. hsu/jam70 Hsu, C. S. (1970). Application of the τ -decomposition method to dynamical systems subjected to retarded follower forces, J. Appl. Mechanics pp. 258– 266. Hur1895 Hurwitz, A. (1895). On the conditions under which an equation has only roots with negative real parts, Mathematische Annalen 46: 273–284. Reeditado na coletânea “Selected Papers on Mathematical Trends in Control Theory”, editores R. Bellman e R. Kalaba, Dover Publishing, 1964. inf:cas/jde78 Infante, E. F. and Castelan, W. B. (1978). A lyapunov functional for a matrix difference-differential equation, Journal of Differential Equations 29: 439–451. Kai80 Kailath, T. (1980). Linear Systems, Prentice-Hall, Englewood Cliffs. KH00 Kamen, E. and Heck, B. (2000). Signals and Systems, Prentice-Hall, Upper Saddle River. Kha78 Kharitonov, V. L. (1978). Asymptotic stability of an equilibrium position of a family of systems of linear differential equations, Differentsial’nye Uravneniya 14: 2086–2088. KA01 Kokotović, P. and Arcak, M. (2001). Constructive nonlinear control: a historical perspective, Automatica 37(5): 637–662. kol:mys/book Kolmanovskii, V. B. and Myshkis, A. D. (1992). Applied Theory of functional differential equations, Kluwer, Dordrecht, The Netherlands. REFERÊNCIAS BIBLIOGRÁFICAS 125 kol:nic:ric/ijc99 Kolmanovskii, V. B., Niculescu, S. I. and Richard, J. P. (1999). On the liapunov-krasovskii functionals for stability analysis of linear delay systems, Int. J. of Control 72(4): 374–384. kol:nos/book Kolmanovskii, V. B. and Nosov, V. R. (1986). Applied Theory of functional differential equations, Vol. 180 of Mathematics in Science and Eng., Academic Press, New York. kra/siam64 Krall, A. (1964). Stability criteria for feedback systems with time lag., SIAM J. Appl. Math. pp. 160–170. Krish00 Krishnaprasad, P. S. (2000). Relative equilibria and stability of rings of satellites, Proceedings of the 39th IEEE Conference on Decision and Control (CDC), Sydney, pp. 1285–1288. Kuo92 Kuo, B. (1992). Digital Control Systems, Saunders College Pub. Laskar90 Laskar, J. (1990). The chaotic motion of the solar system – a numerical estimation of the size of chaotic zones, Icarus 88(2): 266–291. lee:kwon/ifac02 Lee, Y. S. and Kwon, W. H. (2004). Delay-dependent robust stabilization of uncertain discrete-time state-delayed systems, Proc. of the 15th IFAC World Congress, Barcelona, Spain. Liap1892 Liapunov, A. M. (1892). Obshchaya zadacha ob ustoichivosti dvizheniya, Gostekhizdat, Kharkov. Traduzido ao francês “Problème Général de la Stabilité du Mouvement”, em 1907 nos “Annales de la Faculté des Sciences de Toulouse”, e publicado em fotoreprodução em 1949 pela Princeton University Press, como vol. 17 de “Annals of Mathematics Studies”. Publicado, pela primeira vez em inglês, como “Liapunov Centenary Issue of the International Journal of Control”, vol. 55, no. 3, pp. 531-773, 1992. lou/springer91 Louisell, J. (1991). A stability analysis for a class of differential-delay equations having time-varying delay, in Busenberg and Martelli (eds), Delay differential equations and dynamical systems, Vol. 1475 of Lecture Notes in Mathematics, Springer-Verlag, pp. 225–242. Maxwell1859 Maxwell, J. C. (1859). On the stability of motions of Saturn’s Rings, Macmillan, Cambridge, UK. Adams Prize Essay for 1856. Max1868 Maxwell, J. C. (1868). On governors, Proc. Roy. Soc. 16: 270–283. Reeditado na coletânea “Selected Papers on Mathematical Trends in Control Theory”, editores R. Bellman e R. Kalaba, Dover Publishing, 1964. mak/auto90 Mäkilä, P. M. (1990). Laguerre series approximation of infinite dimensional systems, Automatica 26: 985–995. mak:par/ijc99 Mäkilä, P. M. and Partington, J. R. (1999). Laguerre and kautz shift approximations of delay systems, Int. J. Contr. 72: 932–946. REFERÊNCIAS BIBLIOGRÁFICAS nic/book 126 Niculescu, S.-I. (2001). Delay Effects on Stability. A Robust Control Approach, Springer-Verlag, Berlin, Germany. Nis02 Nise, N. (2002). Engenharia de Sistemas de Controle, 3 edn, LTC. Nyq32 Nyquist, H. (1932). Regeneration theory, Bell System Tech. J. 11: 126–147. Oga87 Ogata, K. (1987). Discrete-Time Control Systems, Prentice-Hall, Englewood Cliffs. Oga03 Ogata, K. (2003). Engenharia de Controle Moderno, 4 edn, Prentice-Hall. ogatta/book Ogatta, K. (1994). Engenharia de Controle Moderno, 2a edn, Prentice-Hall do Brasil. OW97 Oppenheim, A. and Willsky, A. (1997). Signals and Systems, Prentice-Hall, Upper Saddle River. Pap91 Papoulis, A. (1991). Probability, Tandom Variables and Stochastic Processes, 3 edn, McGraw-Hill, New York. PT81 Patel, R. V. and Toda, M. (1981). Quantitative measures of robustness for linear multivariable systems, Proc. of Joint Automatic Control Conference, San Francisco. paper TP8. pon/53 Pontryagin, L. S. (1953). On the zeros of some transcedental functions., Doklady Akad. Nauk SSSR 91: 1279–1280. English translation in American Math. Soc Transl., 1958, 19-20. ric/auto03 Richard, J. (2003a). Time-delay systems: an overview of some recent advances and open problems, Automatica 39: 1667–1604. Ric03auto Richard, J.-P. (2003b). Time-delay systems: an overview of some recent advancecs and open problems, Automatica 39: 1667–1694. Ros70 Rosenbrock, H. H. (1970). State Space and Multivariable Theory, Wiley, New York. Routh1892 Routh, E. J. (1892). Dynamics of a system of rigid bodies, Macmillan, New York. Rugh96 Rugh, W. J. (1996). Linear System Theory, Prentice-Hall, Upper Saddle River, N. J. SS89_rb Sezer, M. E. and Šiljak, D. D. (1989). A note on robust stability bounds, IEEE Trans. Automat. Control 34(11): 1212–1215. sil:dat:bha/ieee02 Silva, G. J. and Bhattacharyya, S. P. (2002). New results on the synthesis of pid controllers, IEEE Trans. Autom. Control 47(2): 241–252. REFERÊNCIAS BIBLIOGRÁFICAS sil:dat:bat/cdc01 127 Silva, G. J., Datta, A. and Bhattacharyya, S. P. (2001). Controller design via Referências padé approximation can lead to instability, Proc. of the 40th IEEE Conf. notação|textbf on Decision and Control, Orlando, USA. stepan/book Stépán, G. (1989). Retarded dynamical systems: stability and characteristic function, Vol. 210 of Research Notes in Math. Series, Longman Scientific., UK. suh:bie/ieee82 Suh, I. H. and Bien, Z. (1982). A root-locus technique for linear systems with delay, IEEE Trans. Automat. Contr. 27: 205–208. SW92 Sussman, G. J. and Wisdom, J. (1992). Chaotic evolution of the Solar System, Science 257(5066): 56–62. ver:iva/cdc95 Verrist, E. and Ivanov, A. (1995). Robust stability of delay-difference equations, Proc. of the IEEE Conference on Decision and Control, New Orleans, USA, pp. 386–391. Vysh1877 Vyshnegradsky, I. A. (1877). On controllers of direct action, Izv. SPB Tekhnolog. Inst. . Won85 Wonham, W. M. (1985). Linear Multivariable Control: a Geometric Approach, 3rd edn, Springer-Verlag, New York. wu:hong/ieee94 Wu and Hong, K. (1994). Delay-independent exponential stability criteria for time-varying discrete delay systems, IEEE Transaction on Automatic Control 39: 811–814. Zak03 Żak, S. H. (2003). Systems and Control, Oxford University Press, New York. Índice Remissivo definição de, 52 exponencial uniforme, 70 ilustração geométrica de, 53 não determinada pelos autovalores, 68 no sentido de entrada-saı́da (BIBO), 66 no sentido de Liapunov, 52 pesquisa no Brasil na área de, 72 via a equação de Liapunov, 55 estado, 5 arranjo de Routh, 58 invertido, 59 atrasos discretos, 11 atrasos distribuı́dos, 11 BIBO estável, 67 circuito elétrico, 12 critério de Hurwitz, 60 de Nyquist, 64 de Routh, 58 desenho de Nyquist, 65 desigualdade matricial linear (LMI), 71 frase matemática quantificada como jogo, 52 função absolutamente integrável (L1 ), 67 ilimitada, 67 limitada, 67 positiva definida, 55 englobamento da origem, 64 do ponto −1, 65 sentido antihorário, 64 sentido de, 64 sentido horário, 64 equação a diferenças, 9 equação de Liapunov, 55 discreta, 57 solução explı́cita de, 57 equações diferenciais estocásticas, 12 equações diferenciais ordinárias, 3 equilı́brio estado de, 51 instável, 53 ponto de, 51 solução de, 51 estabilidade assintótica, 54 caracterização em termos de autovalores, 53 LMI, 71 lugar das raı́zes, 61 como realimentação de saı́da, 63 para sistemas discretos, 63 regras para construção, 62 método de lugar das raı́zes, 61 matriz de Hurwitz, 60 de Schwarz, 60 de transição de estados, 68 notação, 127 polinômio caracterı́stico, 54, 58 128 129 ÍNDICE REMISSIVO de Kharitonov, 60 intervalar, 60 mı́nimo, 54 Pascal–Routh, 60 princı́pio da superposição, 3 princı́pio do argumento, 64 programação semidefinida, 71 Referências, 127 representação de estado, 13 ruı́do, 12 Saturno estabilidade dos anéis de, 49 sequência absolutamente somável, 68 sistema autônomo, 6 sistema contı́nuo linear e variante no tempo, 53, 68 sistema de nı́vel, 16 sistema descritor, 4, 14 sistema dinâmico autônomo, 51 contı́nuo, 51 discreto, 51 equilı́brio de, 51 invariante no tempo, 51 não autônomo, 51 variante no tempo, 51 sistema discreto linear e variante no tempo, 68 sistema massa-mola, 16 sistema relaxado, 6 sistema singular, 4, 14 Sistema Solar comportamento caótico de, 49 estabilidade de, 49 sistemas a parâmetro distribuı́do, 18 sistemas a parâmetros concentrados, 6 sistemas a parâmetros distribuı́dos, 6 sistemas antecipativos, 4 sistemas causais, 4 sistemas com atrasos, 10 sistemas de dimensão infinita, 6 sistemas de tempo contı́nuo, 7 sistemas de tempo discreto, 7 sistemas determinı́sticos, 12 sistemas dinâmicos, 4 sistemas estocásticos, 12 sistemas invariantes no tempo, 9 sistemas lineares, 3 sistemas MIMO, 7 sistemas monovariáveis, 7 sistemas multivariáveis, 7 sistemas não-lineares, 3 sistemas neutrais, 11 sistemas sem memória, 4 sistemas SISO, 7 sistemas variantes no tempo, 9 solução nula, 51 estabilidade de, 52 teorema de Kharitonov, 60 de Liapunov, 55 em termos de LMI, 70 interpretação geométrica de, 56 ordem de quantificadores no, 58 para sistemas variantes no tempo, 70 variáveis de estado, 5 vetor de estado, 6