modelagem matemática de sistemas de rastreamento de veículos

Transcrição

modelagem matemática de sistemas de rastreamento de veículos
1
MODELAGEM MATEMÁTICA DE SISTEMAS DE RASTREAMENTO DE
VEÍCULOS
Luiz Carlos Figueiredo
Doutorando em Engenharia Elétrica pelo PPGEE – UFMG e professor do UnilesteMG.
RESUMO
Procura-se revisar as principais técnicas utilizadas para estimar a posição de veículos
terrestres baseadas em modelos determinísticos e estocásticos. A melhoria da robustez do
sistema a distúrbios e incertezas é abordada através da descrição de algumas técnicas que
utilizam a integração–fusão de sensores fazendo uso do filtro de Kalman. Os modelos
considerados, acrescidos de dinâmica e representados no espaço de estados, baseiam-se nas
equações cinemáticas do sistema. A técnica de fluxo de imagem é revista, bem como o
desenvolvimento de uma estrutura de modelo para utilização do estimador por mínimos
quadrados estendido.
Unitermos: modelagem de veículos; sistemas de controle; veículos autônomos.
ABSTRACT
It tries to revise the main techniques used to compute the position of terrestrial vehicles based
on deterministic and stochastically models. The system robustness improvement to
disturbances and uncertainties is approached through the description of some techniques that
use the sensor integration–fusion making use of the Kalman filter. The considered models
base on the kinematical equations of the system plus it dynamics are represented in the states
space. The technique of image flow is reviewed, as well as the development of a model
structure for use with a minimum square estimator.
Keywords: vehicle models; control systems; autonomous vehicles.
INTRODUÇÃO
O rastreamento de veículos tem sido objeto de exaustivas pesquisas recentemente. As
técnicas resultantes de tais pesquisas, assim que bem desenvolvidas, encontrarão aplicações
práticas imediatas. O veículo do futuro será capaz de navegar com segurança e precisão, de
forma autônoma, em vias expressas eletronicamente controladas. A exploração espacial já faz
uso de algumas dessas tecnologias, assim como a exploração de petróleo em plataformas
marítimas.
O problema básico de controle de um veículo autônomo pode ser descrito como: dada a
posição atual do veículo (posição e orientação) e a posição objetivada sobre um determinado
eixo de coordenadas, deve-se determinar uma trajetória, garantir que o veículo siga este
caminho, identificar e evitar qualquer obstáculo inesperado. Para navegar satisfatoriamente ao
longo de uma trajetória pré-determinada, um veículo autônomo deve dispor de algum meio
para determinar precisamente e consistentemente sua posição e orientação.
Este trabalho concentra-se no estudo de alguns modelos utilizados para determinar ou
estimar a posição do veículo baseado em informações que podem sofrer distorções ou conter
1
um alto grau de incerteza. Portanto, são descritos alguns tipos de dispositivos de
sensoreamento de posição para um veículo, os tipos de veículos terrestres mais comuns e
modelos matemáticos baseados em leis físicas, no fluxo ótico e na estimação recursiva de
parâmetros e é abordada a integração ou fusão de sensores através da utilização do filtro de
Kalman.
DISPOSITIVOS DE SENSOREAMENTO DE POSIÇÃO PARA UM VEÍCULO
O rastreamento e controle de veículos autônomos tem sido objeto de intensa pesquisa nos
últimos anos. Tal interesse se justifica baseado na diversidade de dispositivos de
sensoreamento de baixo custo disponíveis no mercado e avanços na área de robótica. Os
dispositivos mais utilizados são sistemas inerciais de navegação, Global Positioning System
(GPS), câmeras de vídeo externas ou embarcadas, sensores de distância por ultra-som,
acelerômetros, odômetros, dentre outros.
Sistemas de navegação inercial
Sistemas de navegação inercial usam, tipicamente, um conjunto de sensores inerciais,
basicamente acelerômetros e giroscópios. Os sistemas de acelerômetros e giroscópios estão
interligados, podendo ser classificados como livres ou presos. Nos sistemas livres, os sensores
estão encapsulados num dispositivo mecânico capaz de girar em três dimensões e o
acelerômetro pode ser mantido num quadro de referência estável: os giroscópios medem a
rotação angular em torno dos eixos e a resposta adequada é aplicada ao sistema. No sistema
preso, a montagem do sensor inercial é fixa e não pode mover-se. Um quadro de referência
estável é determinado por um programa de computador, usando as medições do giroscópio
como entradas do algoritmo.
Sistemas de posicionamento global
O GPS é baseado no Navstar Global Positioning System, que consiste em uma constelação
de 21 satélites (mais três reservas) girando na órbita da Terra a cada 12 horas, a uma altura de
aproximadamente 10.900 milhas náuticas. Cada um dos seis planos orbitais contém quatro
satélites e apresenta um ângulo de inclinação de 55º em relação ao plano da Terra no Equador.
O controle do sistema é assistido por cinco estações de monitoramento ao redor do mundo.
Estas estações avaliam continuamente o desempenho do sistema e carregam dados que serão
difundidos aos usuários. Cada satélite transmite informações em duas freqüências portadoras
diferentes: L1, de 1.575,42 mHz e L2, de l.227,60 mHz. A portadora L1 é modulada com os
códigos Coarse Acquisition (C/A) e Formerly Precision (Y). A portadora L2 é modulada
apenas com o código Y. A criptografia desse código garante que apenas os usuários com
1
chaves autorizadas ou equipamento equivalente recebam dados precisos de posição. Além
disto, os militares introduzem intencionalmente erros epsilon e dither, coletivamente
conhecidos como “disponibilidade seletiva”, para evitar que forças inimigas utilizem o GPS
para fins militares. Sob estas condições, a precisão da posição pode chegar a até 80 metros.
Para melhorar a precisão do sistema, um método conhecido como GPS Diferencial (DGPS)
pode ser utilizado: um receptor GPS é instalado num local conhecido, denominado estação
base e outro é colocado no veículo móvel. Usando os conhecimentos sobre a posição da
estação base pode-se determinar o erro sistemático ou polarização a partir do sinal recebido. O
erro será utilizado para calcular a posição correta do veículo. Utilizando o DGPS a precisão
pode ser melhorada para 0,5 metros em 85% dos casos.
Um método conhecido como GPS com Fase Diferencial (PDGPS), usando dois receptores,
pode ser empregado para melhorar ainda mais a precisão. Em vez de usar pseudocódigos, a
fase da portadora pode ser medida em ambos os canais L1 e L2, levando a precisão a
centímetros.
Sensores de vídeo e processamento de imagem
Os recentes avanços tecnológicos nessa área permitem, agora, o efetivo uso de dados de
visão em malhas de controle de um robô. Com relação a aplicações em robótica, isto irá
permitir tratar incertezas e/ou variações no ambiente – por exemplo, compensar pequenos
erros de posicionamento, pegar objetos que se movem sobre uma esteira etc. Com relação aos
aspectos de imagem, é possível controlar o movimento da câmera, melhorando o
reconhecimento, localização e inspeção do ambiente.
INTEGRAÇÃO DE SENSORES
Integração de sensores inerciais e PDGPS
Sensores inerciais e PDGPS podem ser combinados utilizando o filtro de Kalman
(WRIGHT LABORATORY, 1998). Ele estima os erros nos dados primários do sistema de
navegação inercial processando as medições executadas pelo sistema PDGPS no algoritmo do
filtro. Além de utilizar o erro estimado para solucionar o problema de navegação do veículo,
com o tempo, o filtro constrói um modelo do erro para o sistema. Se, por um lapso ou má
qualidade do sinal, os dados do PDGPS ficarem indisponíveis, esta estimativa assegura a
precisão do sistema de navegação. Assim, o filtro de Kalman é uma forma de suavizar
descontinuidades nos dados do PDGPS.
A integração do sistema inercial com o PDGPS aumenta significativamente o desempenho
do sistema pois ambos se complementam: enquanto o primeiro fornece dados contínuos, com
1
alta taxa de transmissão, o segundo limita a deriva do erro de posição através da aplicação do
filtro de Kalman.
Integração de odômetros e visão
Pode-se utilizar abordagem semelhante para combinar informações do deslocamento do
veículo e imagens de uma câmera para correção de erros usando o filtro de Kalman
(MARCHANT et al., 1997, p. 167). Neste caso, as duas fontes de informação são utilizadas
para manter uma estimativa da posição do veículo: enquanto um sistema de análise de
imagem fornece uma medida do desvio do veículo em relação à trajetória – tanto o offset
quanto a atitude –, odômetros usados em conjunto com o modelo cinemático do veículo
fornecem uma medida de seu deslocamento. As informações da posição do veículo,
provenientes destas duas fontes, são combinadas usando o Filtro de Kalman Estendido (EKF).
O EKF produz uma estimativa da posição atualizada a cada 20 m. O filtro funciona em um
modo preditivo–corretivo.
Considera-se, aqui, que dados válidos do sistema de análise de imagem tenham sido
recebidos no instante j e que a posição estimada do veículo ou seu estado neste instante é
igual a x̂ j .
No instante j + 1 o estado anterior é usado em conjunto com o deslocamento incremental
das rodas, medido pelos odômetros entre o intervalo [j, j+1], para predizer, usando um
modelo cinemático do veículo, a estimativa do estado atual xˆ ( j + 1) .
Esse processo de predição é repetido a cada instante de tempo até que novos dados da visão
estejam disponíveis no instante k. Neste ponto, o estado predito xˆ (k ) – baseado nos dados de
visão e medidas de odometria anteriores – é corrigido usando os dados de visão y(k), gerando
uma estimativa correta de xˆ (k ) .
O processo de correção explora modelos estocásticos dos erros – presentes nas medições
de odometria e análise de imagem – para obter uma combinação dos dados próxima ao ótimo,
a partir das duas fontes. Além disto, essa informação estocástica permite identificar e
descartar medições da análise de imagem que extrapolem o intervalo de confiança definido,
neste caso, em 90% da predição baseada na odometria. Isto garante um grau de robustez a
dados incorretos.
Uma característica importante desse procedimento de estimação da posição é que muitos
passos de predição podem ser efetuados entre correções sucessivas. Assim, a estimação da
posição pode ser gerada e entregue ao sistema de controle a uma taxa de amostragem maior
1
do que a que o sistema de análise de imagem permite. Além disto, o filtro interpola sobre os
dados de visão que forem perdidos ou que estejam errados.
O filtro de Kalman tem sido citado como ferramenta básica para integração ou fusão de
sensores em robótica (PEREIRA et al., 1999, p. 3317).
TIPOS DE VEÍCULOS
O modelo matemático deve considerar a topologia do sistema sob estudo. O rastreamento
de veículos móveis pode compreender veículos e robôs que se deslocam no espaço aéreo,
terrestre ou submarino. O foco principal deste trabalho são os veículos terrestres.
Os veículos terrestres podem ter duas ou quatro rodas.
Nos primeiros, o acionamento das rodas é individual, o que lhes permite girar na mesma
posição: aciona-se uma roda num sentido e a outra no sentido reverso. Seu emprego em
robótica é amplo e constituem a base dos robôs utilizados no futebol de robôs (PEREIRA et
al., 1999, p. 3312).
Os veículos de quatro rodas podem ter chassi único (monobloco) ou articulado –
semelhante aos caminhões de grande porte. Em ambos, pode ocorrer o acionamento tanto das
rodas dianteiras quanto das traseiras, com sistema de giro independente (direção) ou
individual nas rodas dianteiras.
Em veículos de quatro rodas, o sentido de movimentação é fundamental para determinar
sua posição através de modelos. Portanto, se for articulado e estiver movimentando para
frente ou para trás, tais informações devem ser consideradas pelo modelo. Esta restrição não
se aplica aos veículos de duas rodas.
MODELAGEM MATEMÁTICA
Modelos baseados na cinemática do sistema
O modelo mais simples encontrado na literatura (KONG; KOSKO, 1992, p. 340) para
simulação da movimentação de um veículo, utiliza equações cinemáticas para representar seu
movimento (ver Figura 1).
Figura 1 – Diagrama do veículo simulado
1
Assim, se o veículo sair da posição (x, y) e for para a posição (x', y') em uma iteração,
podemos usar:
x' = x + r. cos(ϕ ' )
y ' = y + r. sen(ϕ ' )
ϕ'= ϕ + θ
(1)
onde r denota uma distância fixa de movimento do veículo; θ o ângulo das rodas em relação
ao eixo do carro e ϕ o ângulo do eixo do carro em relação aos eixos de coordenadas do
sistema.
Jiang e Nijmeijer (1997, p. 1394) relatam uma abordagem semelhante para o caso de um
robô móvel com rodas com dois graus de liberdade. A dinâmica do robô é descrita pelas
seguintes equações diferenciais:
x! = v. cos θ
y! = v. sen θ
θ! = w
(2)
onde v é a velocidade linear e w é a velocidade angular do robô móvel; (x, y) são as
coordenadas cartesianas do centro de massa do veículo e θ é o ângulo entre a direção à frente
e o eixo x.
Sistemas como (2) e similares e outros sistemas não-holonômicos têm sido assunto de
muitas pesquisas em andamento. Num sistema holonômico, qualquer direção de movimento
desejada é realizável (SHKEL; LUMELSKY, 1997, p. 1220), o que não ocorre em um
sistema não-holonômico, em que o número de variáveis de controle é menor que o
dimensionamento do problema, como estacionar um veículo, por exemplo.
O problema considerado aqui é o de rastreamento, isto é, deseja-se encontrar leis de
controle para v e w tais que o veículo siga uma referência, com posição pr = (xr, yr, θr)T e
entradas vr e wr. Chamando as coordenadas de erro como:
 x c   cos θ
 y  = − sen θ
 c 
θ c   0
sen θ
cos θ
0
0   x r − x  


0   y r − y  
1  θ r − θ  
(3)
a dinâmica do erro será:
x! c = wy c − v + v r cos θ c
y! c = − wx c + v r sen θ c
θ!c = wr − w
(4)
Neste caso, desenvolve-se um algoritmo que garanta que o erro de rastreamento seja
uniformemente limitado e convirja para zero (JIANG; NIJMEIJER, 1997, p. 1397).
1
Uma abordagem um pouco mais elaborada é realizada em Shkel e Lumelsky (1997, p.
1223). Chamando de (x, y) ∈ R2 a posição do veículo e de θ o ângulo entre o vetor velocidade
V = (Vx, Vy) = ( x!, y! ) e o eixo x, o processo de planejamento da trajetória consiste no cálculo
dos controles u = (p, q), que a cada passo define o vetor de velocidade e, eventualmente, o
caminho (x(t), y(t)) como uma função do tempo. Considerando unitária a massa do veículo, as
equações do movimento são apresentadas como:
!x! = p cos θ − q sen θ
!y! = p sen θ + q cos θ
(5)
O ângulo θ entre o vetor V = (Vx, Vy) e o eixo x é calculado como sendo:
 arctan(V x / V y )..........(V x ≥ 0)
θ =
arctan(V y / V x ) + π ....(V x < 0)
A posição do veículo será determinada por:
(6)
2 p cos θ (t ) + q sen θ (t ) 2
V (t ) + A
4p2 + q2
q cos θ (t ) − 2 p sen θ (t ) 2
y (t ) = −
V (t ) + B
4p2 + q2
x(t ) =
(7)
onde:
A = x0 −
V02 (2 p cos θ 0 + q sen θ 0 )
4 p2 + q2
B = y0 +
V02 (q cosθ 0 − 2 p sen θ 0 )
4p2 + q2
(8)
e
V (t ) = pt + V0
θ (t ) = θ 0 +
q log(1 + tp / Vi )
p
(9)
Alguns modelos cinemáticos consideram apenas o deslocamento lateral do veículo em
relação a uma determinada trajetória (HUNT et al., 1996, p. 1046; MARCHANT et al., 1997,
p. 166). Um modelo linearizado no espaço de estados para a dinâmica lateral de um veículo
(HUNT et al., 1996, p. 1046), é dado por (ver Figura 2):
y! = v(ψ + β )
v
ψ! = δ
a
2k
v
 k
β! = −
β +
− δ
mv
 mv a 
(10)
1
onde y é o deslocamento lateral em relação à trajetória; ψ é o ângulo do veículo em relação
à trajetória; β é o ângulo de deslocamento lateral; δ é o ângulo entre a roda e o eixo do
veículo; v é a velocidade; m é a massa do veículo; a é a base da roda e k é o coeficiente de
atrito lateral.
Figura 2 – Controle da posição lateral de um veículo
Em contraste com outros métodos, considera-se que a aceleração lateral ψ!! pode ser
desprezada. A saída do sistema é o deslocamento lateral y. A entrada de controle é o ângulo
entre a roda e o eixo longitudinal do veículo δ. Este ângulo é geralmente estabelecido por um
atuador do tipo integral. O sinal de controle u para o sistema está, portanto, relacionado com o
ângulo entre a roda e o eixo do veículo por:
δ! = u
(11)
Combinando as equações (10) e (11), a função de transferência entre a entrada u –
fisicamente, a taxa de variação do ângulo da roda – é obtida como:
2v 

s + 
y ( s) k 
a  (12)
= .
2k  3
u ( s) m 
s +
s
mv 

É importante notar que, nesta função de transferência, os coeficientes dos polinômios
dependem da velocidade v do veículo.
Uma versão discreta de (12) tem a forma:
y (t ) =
q − d B(q −1 ; v(t ))
u (t )
A(q −1 ; v(t ))
(13)
onde A e B são polinômios no operador q-1, cujos coeficientes dependem da velocidade v.
Modelos baseados em imagens
1
Existe uma tendência de utilizar modelos baseados em imagem diretamente no sistema de
controle (CHAUMETTE et al., 1991, p. 2248; PAPANIKOLOPOULOS et al., 1991, p. 857)
A técnica utilizada baseia-se no fluxo ótico.
Considera-se, no presente desenvolvimento, um modelo para a câmera com um quadro Rs
anexado a ela (PAPANIKOLOPOULOS et al., 1991, p. 858), uma projeção em perspectiva e
comprimento focal unitário. Um ponto P com coordenadas (Xs, Ys, Zs) em Rs é projetado sobre
um ponto p no plano da imagem com coordenadas (x, y). Considerando que a câmera move-se
em um ambiente estático com a velocidade translacional T = (Tx, Ty, Tz )T e com uma
velocidade angular R = ( Rx, Ry, Rz)T com relação ao quadro da câmera Rs, as equações do
fluxo ótico são dadas por:
u = [x
Ts T x
−
] + [ xyR x − (1 + x 2 ) R y + yR s ]
Zs Zs
v = [y
Ts T y
−
] + [(1 + y 2 ) R x − xyR y − xR s ]
Zs Zs
onde u é a derivada de x (velocidade no eixo x) e v é a derivada de y (velocidade no eixo y).
Agora, ao invés de considerar um objeto estático e uma câmera móvel, se for considerado
uma câmera estática e um objeto móvel, os mesmos resultados podem ser obtidos, exceto pelo
sinal trocado. Além disto, por razões de precisão, pode ser usada uma técnica baseada no
casamento, também conhecida como a soma das diferenças quadráticas (SSD) do fluxo ótico.
Para cada ponto pA = ( xA, yA) na imagem A queremos achar o ponto pB = (xA + u, yA + v),
para o qual o ponto pA move-se na imagem B. Consideramos que a intensidade na vizinhança
L de pA permanece sempre constante, tal que o ponto pB está dentro de uma área S de pA e que
as velocidades estão normalizadas pelo tempo T para obter os deslocamentos. Assim, para o
ponto pA, o estimador SSD seleciona o deslocamento d = (u, v) que minimiza a medida SSD:
e( p A , d ) =
∑
m , n∈N
[i A ( x A + m, y A + n) −
I B ( x A + m + u , y A + n + v)] 2
onde u, v ∈ S, e N é uma área ao redor do pixel que estamos interessados.
Está técnica pode ser melhorada usando o ajuste de subpixel e técnicas multigrade ao custo
do aumento na complexidade computacional. A precisão também pode ser melhorada pela
seleção adequada de uma pequena área N e tendo-se os campos de velocidade com poucos
níveis de quantização.
A formulação matemática do problema visual, apresentada em Papanikolopoulos (1991, p.
859), considera um alvo que se move em um plano com um traço, localizado no ponto P, o
qual se deseja rastrear. A projeção deste ponto sobre o plano da imagem é o ponto p.
1
Considerando também uma vizinhança Sw de p no plano da imagem, o problema do
rastreamento visual 2-D de um ponto com um único traço pode ser definido como: “encontre
uma translação da câmera (Tx, Ty) com relação ao quadro da câmera que mantém Sw
estacionário numa área So ao redor da origem do quadro da imagem”.
Considerando que, na inicialização do processo de rastreamento, a área Sw é trazida para a
origem do quadro de imagem e que o plano de movimento é perpendicular ao eixo ótico da
câmera, o problema do rastreamento visual de um ponto com traço único também pode ser
definido como “encontre a rotação da câmera (Rx, Ry) com relação ao quadro da câmera que
mantém Sw estacionário numa área So ao redor da origem do quadro da imagem”. A segunda
definição do problema do rastreamento visual não requer o cálculo da profundidade Zs do
ponto P. Ambas as definições podem ser usadas simultaneamente.
Considerando que o fluxo ótico do ponto p no instante de tempo kT é (u(kT), v(kT)) onde T
é o tempo entre dois quadros consecutivos, pode ser mostrado que, no tempo (k + 1)T, o fluxo
ótico será:
u((k+1)T) = u(kT) + uc((k-d)T)
v((k+1)R) = v(kT) + vc((k-d)T) (14)
onde uc((k-d)T), vc((k-d)T) são as componentes do fluxo ótico induzidas pelo movimento de
rastreamento da câmera e d é o fator de atraso. Por enquanto, o fator de atraso será
considerado igual a zero. As equações (14) estão baseadas na consideração de que o fluxo
ótico induzido pelo movimento do traço não muda no intervalo de tempo T. Portanto, T deve
ser tão pequeno quanto possível. Para manter a notação simples e sem qualquer perda de
generalização, as equações (14) serão usadas com k e (k + 1) ao invés de kT e (k + 1)T,
respectivamente.
Se a câmera rastreia o ponto do traço com translação Tx(k) e Ty(k) com relação ao quadro da
câmera, então o fluxo ótico que é gerado pelo movimento da câmera com Tx(k) e Ty(k) vale:
u c (k ) = −
Tx (k )
Zs
v c (k ) = −
T y (k )
(15)
Zs
Considerando que, para o rastreamento visual 2-D a profundidade Zs permanece constante,
quando o movimento de rastreamento da câmera é a rotação com Rx(k) e Ry(k), o fluxo ótico
induzido pelo movimento da câmera será:
u c (k ) = R x (k ) x(k ) y (k ) − R y (k )[ x 2 (k ) + 1]
v c (k ) = R x (k )[ y 2 (k ) + 1] − R y (k ) x(k ) y (k )
1
As equações (14) podem ser transformadas após alguns cálculos simples para a forma no
espaço de estado como (as imprecisões do modelo são modeladas como ruído branco):
(16)
x(k+1) = Ax(k) + Buc(k) + Ed(k) + Hv(k)
onde A = H = I2, B = E = T I2. x(k) ∈ R , uc(k) ∈ R , d(k) ∈ R e v(k) ∈ R2. O vetor x(k) =
2
2
2
(x(k), y(k))T é o vetor de estado; uc(k) = (uc(k), vc(k))T é o vetor da entrada de controle; d(k) =
(u(k), v(k))T é o vetor de distúrbio exógeno e v(k) = (v1(k), v2(k))T é o vetor de ruído branco. O
vetor de medição z(k) = (z1(k), z2(k))T é dado por:
(17)
z(k) = C.x(k) + w(k)
onde w(k) é um vetor de ruído branco e C = I2. O vetor de medição é calculado usando o
algoritmo SSD.
O mesmo modelo pode ser usado para manter o traço do ponto estacionário na área Sr
diferente da origem. Considerando que (rx, ry) é o centro desta área Sr, um modelo similar
àquele previamente mencionado pode ser derivado pela transformação das variáveis de estado
x(k) e y(k) num novo par de variáveis de estado, xN(k) e yN(k). As novas variáveis de estado
são xN(k) = x(k) – rx e yN(k) = y(k) – ry. As matrizes A, B, C, E, H permanecem inalteradas sob
a transformação. O algoritmo SSD calcula continuamente o vetor de deslocamento do traço
do ponto a partir de sua posição desejada. Assim, tem-se a habilidade de compensar erros de
medição anteriores que tendem a acumular.
Considerando um alvo que se move num plano que é perpendicular ao eixo ótico da
câmera, cuja projeção no plano de imagem é a área Sw, o problema do rastreamento visual 2-D
de um simples objeto pode ser definido como: “encontre a translação da câmera (Tx, Ty) e
rotação (Rz) com relação ao quadro da câmera que mantém Sw estacionário”. Considerando
que o alvo gira em torno do eixo Z o qual, em k = 0, coincide com o eixo ótico da câmera, o
modelo matemático deste problema na forma de espaço de estados será:
x(k+1) = Ax(k) + Buc(k) + E.d(k) + H.v(k)
(18)
onde A=H=I3, B=E=TI3, x(k) ∈R , uc(k) ∈ R , d(k) ∈ R e v(k) ∈ R3. O vetor x(k) = (x(k),
3
3
3
y(k), θ(k))T é o vetor de estado; uc(k) = (uc(k), vc(k), Rz(k))T é o vetor da entrada de controle;
d(k) = (u(k), v(k), w(k))T é o vetor de distúrbio exógeno e v(k) = (v1(k), v2(k), v3(k))T é o vetor
de ruído branco. x(k), y(k), θ(k) são, agora, X, Y e componente de giro do erro de
rastreamento, respectivamente. O vetor de medição z(k) = (z1(k), z2(k), z3(k))T é dado por:
z(k) = C.x(k) + w(k)
(19)
onde w(k) é o vetor de ruído branco e C = I3.
O vetor de medição é obtido de um modo ligeiramente diferente que no caso do
rastreamento visual de um ponto com traço simples. Primeiro, o erro de rastreamento da
1
projeção dos dois pontos de traço diferentes no plano da imagem é computado usando-se o
algoritmo SSD. Depois, um sistema algébrico de quatro equações – duas equações com o erro
de rastreamento por ponto – é formulado. A solução do sistema são as componentes X, Y e de
giro do erro de rastreamento. Se a projeção dos traços dos dois pontos sobre o plano da
imagem não são as mesmas, garante-se que o sistema de equações tenha uma solução.
Considera-se que cada um destes traços no instante t = 0 está alocado na sua posição
desejada.
Chaumette (1991, p. 2248) destaca dois métodos diferentes no controle baseado em
imagens: o primeiro é baseado num servo-sistema de posicionamento 3D e o segundo é
baseado em um servo-controle das características visuais.
No método Ver e Mover, a tarefa consiste no direcionamento de uma câmera para uma
determinada posição r*, o que implica numa locação e atitude desejada entre a câmera e a
cena. A cada iteração da malha de controle, uma estimativa r^ da posição atual deve ser
encontrada a partir dos dados da imagem. Este esquema trabalha em malha aberta com relação
aos dados de imagem e não leva em consideração variações bruscas ou grandes variações da
cena, imprecisões e incertezas que ocorrem durante o processamento. Além disto, tal
abordagem precisa identificar perfeitamente todos os modelos 3D– geometria do sensor,
modelos do ambiente e do robô.
No método de rastreamento visual, a tarefa é diretamente especificada em termos da
regulação da imagem. Isto requer o projeto de um conjunto s de características visuais, as
quais são suficientes e relevantes para a execução da tarefa. Assim, uma malha fechada pode
realmente ser executada a partir de dados da imagem, os quais permitem compensar as
perturbações usando um esquema de controle robusto.
Modelo Estocástico
Recentemente, modelos estocásticos têm sido utilizados para estimação da posição de
veículos com duas rodas e acionamento individual por roda, a exemplo dos utilizados no
futebol de robôs Mirosot.
Pereira (1999, p. 3313) descreve o modelo estocástico de tal sistema partindo de equações
cinemáticas como:
x k = x k −1 + V x / k −1T
y k = y k −1 + V y / k −1T
θ k = θ k −1 + wk −1T
(20)
1
onde xk indica o valor de x no instante k; xk-1 indica o valor desta variável no intervalo de
amostragem anterior; T, Vx e Vy são as componentes da velocidade em relação aos eixos x e y,
respectivamente, e w é a velocidade angular do robô dada pela razão entre as diferenças de
velocidade das duas rodas e a distância entre as mesmas.
Considerando as equações dinâmicas determinadas pelo uso da Segunda Lei de Newton,
chega-se ao modelo físico:
T2
] cos(θ k −1 )
m
T2
+ Fa 2|k −1 )
] sen(θ k −1 )
m
x k = x k −1 + [Vk −1T + ( a1U 1|k − d + a 2U 2|k − d + Fa1|k −1 + Fa 2|k −1 )
y k = y k −1 + [V k −1T + (a1U 1|k − d + a 2U 2|k − d + Fa1|k −1
θ k = θ k −1 + wk −1T + (a1U 1|k − d − a 2U 2|k − d )
T2
2I
Como alguns parâmetros no modelo acima são difíceis de se obter na prática – como, por
exemplo, atrito e velocidade através de imagem –, pode-se simplificar o modelo e representálo como um modelo auto-regressivo com entrada exógena (ARX). Para reduzir efeitos de
polarização sobre os parâmetros do modelo a serem estimados, aplicou-se o método dos
mínimos quadrados estendido, que considera o modelo como sendo do tipo:
10
x k = a1X x k −1 + a 2X x k − 2 + [b1X U 1|k − d + b2X U 2|k − d + d 1X ] cos(θ k −1 ) + ∑ c iX e x (k − i )
i =1
10
y k = a1Y y k −1 + a 2Y y k − 2 + [b1Y U 1|k − d + b2Y U 2|k − d + d 1Y ] sen(θ k −1 ) + ∑ ciY e y (k − i)
i =1
10
θ k = a1Θθ k −1 + a 2Θθ k − 2 + b1ΘU 1|k − d + b2ΘU 2|k − d + d 1Θ + ∑ ciΘ eΘ (k − i)
i =1
Portanto, o modelo físico só foi utilizado para determinação da estrutura do modelo
estocástico.
CONCLUSÃO
Pode-se melhorar bastante a robustez de sistemas através da utilização do filtro de Kalman.
Desta forma, promove-se a integração de sensores com diferentes taxas de amostragem e
precisão, criando-se regiões ou envelopes em que pode-se garantir a precisão do sistema de
posicionamento.
A integração pode ser promovida a partir de sensores diferentes ou através de modelo–
sensor. Neste último caso, usa-se um modelo para estimar a posição do veículo e sensores
com uma boa precisão para validação–correção do sistema.
Modelos físicos (determinísticos) têm precisão limitada e servem para simulações e
determinação da estrutura de modelos estocásticos. Sistemas de medição de posição de
1
veículos estão sujeitos a uma grande variedade de distúrbios como: ausência temporária da
informação de posição (GPS e Imagem), deslizamentos laterais devido a irregularidades do
terreno ou presença de pedras, areia, óleos etc. – que podem não ser captados pelos sensores
(odômetros) – e imperfeições em lentes etc. Portanto, modelos estocásticos devem ser
preferidos aos determinísticos.
Técnicas
baseadas
no
fluxo
de
imagem
têm
merecido
estudos
por
reduzir
consideravelmente a carga computacional, em comparação às técnicas tradicionais de
tratamento de imagem.
REFERÊNCIAS BIBLIOGRÁFICAS
CHAUMETTE, F.; RIVES, P.; ESPIAU, B. 1991, Positioning of a robot with respect to an
object, tracking it and estimating its velocity by visual servoing. In: INTERNATIONAL
CONFERENCE ON ROBOTICS AND AUTOMATION, 1991, Sacramento. Proceedings…
Sacramento: IEEE, 1991, p. 2248–2253.
HUNT, K. J.; HAAS, R.; KALKKUHL, J. C. Local controller network for autonomous
vehicle steering. Control Eng. Practice, Great Britain, v. 4, n. 8, p. 1045–1051, 1996.
JIANG, Z. P.; NIJMEIJER, H. Tracking control of mobile robots: a case study in back
stepping. Automatica, Great Britain, v. 33, n. 7, p. 1393–1399, 1997.
KONG, S. G; KOSKO, B. Comparison of fuzzy and neural truck backer-upper control
systems. In: ______. Neural networks and fuzzy systems. Englewood Cliffs: Prentice Hall,
1992. p. 339–361. ISBN 0-13-611435-0.
MARCHANT, J. A.; HAGUE, T.; TILLET, N. D. Row-following accuracy of an autonomous
vision-guided agricultural vehicle. Computers and Electronics in Agriculture, Great
Britain: Elsevier Science, n. 16, p. 165–175, 1997.
PAPANIKOLOPOULOS, N.; KHOSLA, P. K.;KANADE, T. Vision and control techniques
for robotic visual tracking. In: INTERNATIONAL CONFERENCE ON ROBOTICS AND
AUTOMATION, 1991, Sacramento. Proceedings… Sacramento: IEEE, 1991, p. 857–864.
PEREIRA, G. A. S.; CAMPOS, M. F. M.; AGUIRRE, L. A. Data based dynamical modeling
of vision observed small robots. In: CONFERENCE ON SYSTEMS, MAN AND
CYBERNETICS, 2000, Nashville. Proceedings … Nashville: IEEE, 2000, p. 3312-3317.
SHKEL, A. M.; LUMELSKY, V. J. The jogger's problem: control of dynamics in real-time
motion planning. Automatica, Great Britain, v. 33, n. 7, p. 1219–1233, 1997.
WRIGHT LABORATORY AT TYNDALL AIR FORCE BASE. Autonomous Vehicle
Development. Florida, 1998. Disponível em: <http://cimar.me.ufl.edu/~carl/af/position.html>
Acesso em: 11 set. 1999.

Documentos relacionados