pdf - fmpfm

Transcrição

pdf - fmpfm
ISSN 2236-0468
Fundação Educacional Guaçuana – FEG
Presidente – Bruno Franco de Almeida
Faculdade Municipal Prof. Franco Montoro - FMPFM
Diretor Geral – Prof. Me. Márcio Antonio Ferreira
Secretária Geral – Profa. Alessandra Zaganin Falaschi
Coordenadora do Curso de Administração – Profa. Me. Marli Delfino Campos
Coordenador do Curso de Ciências da Computação – Prof. Dr. José Tarcísio Franco de Camargo
Coordenador do Curso de Engenharia Ambiental – Prof. Dr. Mário Roberto Barraza Larios
Coordenadora do Curso de Engenharia Química – Profa. Dra. Vanessa Dias Alves
Coordenadora do Curso de Nutrição – Profa. Me. Daniela Soares de Oliveira
Coordenadora do Curso de Psicologia – Profa. Esp. Luciene Aparecida Scanavachi de Jesus
Editor: Prof. Dr. Norian Marranghello - Professor de Sistemas Digitais - UNESP - Campus de São José do Rio Preto
Co-Editor: Prof. Dr. José Tarcísio Franco de Camargo
Conselho Editorial
Profa. Dra. Ana Olivia Barufi Franco de Magalhães
Prof. Dr. Antonio Medina Rivilla – Universidad Nacional de Educación a Distáncia (España)
Profa. Dra. Daniela Melaré – Universidade Aberta de Lisboa (Portugal)
Prof. Dr. Erico Fernando Lopes Pereira-Silva
Prof. Dr. Francisco García García – Universidad Complutense de Madrid (España)
Prof. Dr. João Alexandre Bortoloti
Prof. Dr. José Tarcísio Franco de Camargo
Prof. Esp. Luiz Carlos Aceti Junior
Profa. Dra. Maria Suzett Biembengut Santade
Prof. Dr. Moacyr Rodrigo Hoedmaker de Almeida
Prof. Dr. Norian Marranghello - UNESP
Prof. Dr. Paulo Roberto Alves Pereira
Pareceristas
Prof. Dr. Alexandre César Rodrigues da Silva (UNESP)
Prof. Dr. Alexandre Levada (UFSCar)
Profa. Dra. Ana Carolina Lorena (UFABC)
Prof. Dr. José Arnaldo Roveda (UNESP)
Profa. Dra. Maria Istela Cagnin (UFMS)
Prof. Dr. Pedro Corrêa ((USP)
Profa. Dra. Sarita Mazzini Bruschi (USP)
Prof. Dr. Tiago de Oliveira (UFABC)
Prof. Dr. Wagner Luiz Alves de Oliveira (UEFS)
Prof. Dr. Wagner Tanaka Botelho (UFABC)
Diagramação e Arte
Edmar Pereira
Gilson Anacleto da Mota
Editora FMPFM
FICHA CATALOGRÁFICA
Ficha Catalográfica: Adriano Madaleno Miossi – CRB 8 / nº 6981
Os textos publicados na revista são de inteira responsabilidade de seus autores.
Permite-se a reprodução desde que citada a fonte e o autor.
Endereço para correspondência e contato:
REVISTA INTERCIÊNCIA & SOCIEDADE
Faculdade Municipal Professor Franco Montoro – FMPFM
Rua dos Estudantes, s/nº, Cachoeira de Cima, Caixa Postal 293,
CEP: 13843-971 - Mogi Guaçu - SP.
Fone: (19) 3861-6255 e 3861-6606
Homepage: www. fmpfm.edu.br
e-mail: [email protected]
EDITORIAL
Há cerca de um ano, quando eu iniciava o planejamento do II “Workshop” do Programa de
Pós-Graduação em Ciência da Computação (WPPGCC) da UNESP, em conversa com o Prof.
Dr. José Tarcísio Franco de Camargo sugeri a possibilidade de lançarmos um número especial da revista Interciência & Sociedade, com artigos do referido evento.
O Prof. Tarcísio gostou da ideia e a levou ao Prof. Dr. Estéfano Vizconde Veraszto, diretor da
Faculdade Municipal Professor Franco Montoro (FMPFM), e ao Prof. Dr. Moacyr Rodrigo Hoedmaker de Almeida, editor da revista, que se interessaram pelo projeto e me invitaram a atuar
como editor convidado deste número especial, o que aceitei com muito entusiasmo.
O II WPPGCC ocorreu nos dias 19 e 20 de abril de 2012, tendo contado com cinco palestras
convidadas, mais 34 trabalhos apresentados pelos alunos do programa. Os palestrantes que
nos deram a honra de compartilhar suas experiências foram: o Prof. Dr. Gerhard Wilhelm
Dueck, Diretor do Escritório de Relações Internacionais da Universidade de New Brunswick,
Canadá; o Prof. Dr. Paulo César Masiero, membro do Comitê Assessor de Ciências de Computação da CAPES e docente da USP de São Carlos; a Profª Drª Silvana Aparecida Borsetti Gregório Vidotti, docente da UNESP de Marília, representando a Profª Drª Marilza Vieira
Cunha Rudge, Pró-Reitora de Pós -Graduação (ProPG) da UNESP; o Prof. Dr. José Celso
Freire Júnior, assessor chefe de relações externas (AREx) da UNESP; e o Prof. Dr. Aparecido
Nilceu Marana, coordenador do PPGCC/UNESP.
Além dos palestrantes convidados, contamos também com a inestimável colaboração do Prof.
Dr. Moacir Pereira Ponti Júnior, da USP de São Carlos; do Prof. Dr. Tiago de Oliveira, da
UNIFESP; e do Prof. Dr. Wagner Tanaka Botelho, da UFABC. Estes professores foram responsáveis por um trabalho que considero muito importante e que desejávamos fazer desde
a primeira edição do nosso “workshop”, qual seja, a avaliação, tanto dos trabalhos apresentados quanto do evento propriamente. Entendo que esta avaliação externa por colegas de
outras instituições é muito importante, para nortear nossas discussões sobre futuras ações
com vistas à evolução do PPGCC/UNESP.
Da seleção feita pelos avaliadores convidamos 12 trabalhos, três de cada uma das linhas de
atuação dos docentes do PPGCC/UNESP, a saber: Arquiteturas de Computadores e Sistemas Distribuídos; Engenharia de Software e Bancos de Dados; Visão Computacional e Processamento de Imagens; e Matemática Computacional e Inteligência Artificial. Nos
últimos seis meses estive, junto com o corpo de revisores, trabalhando nesses artigos e, por
fim, chegamos ao conjunto de 10 artigos que compõem esta edição especial da revista Interciência & Sociedade.
Gostaria de agradecer a todos aqueles que contribuíram para o sucesso de nosso “workshop”,
bem como para a realização deste número especial da revista Interciência & Sociedade. Todos foram muito importantes para que pudéssemos concluir essas atividades com o devido
êxito. Não me arriscarei a citar cada indivíduo que contribuiu por duas razões: primeiro ,
porque provavelmente eu incorreria na injustiça de esquecer algum nome; e segundo, porque a lista ficaria, certamente, muito longa. Todavia, acho importante mencionar algumas
instituições que concorreram para o bom termo de nosso evento e, ao citá-las, estendo meus
agradecimentos a todos os seus colaboradores que, direta ou indiretamente, se envolveram
com o nosso evento, são elas: FAPESP, FUNDUNESP, VUNESP e a UNESP/PROPG, pelo
apoio financeiro; UNESP/AREx, UNESP/PPGCC, UNESP/IBILCE/GBD e UNESP/IBILCE/
SEDI, pelo apoio logístico; às direções das quatro unidades envolvidas com o PPGCC, quais
sejam: FC/Bauru, FCT/Presidente Prudente, IGCE/Rio Claro e IBILCE/São José do Rio Preto,
pelos apoios financeiro e logístico; e à direção da FMPFM por todo o apoio relativo à edição
da revista.
Acredito que o resultado deste trabalho tenha se materializado em um conjunto de artigos cuja
leitura seja proveitosa a todos.Meus agradecimentos e boa leitura.
Norian Marranghello
Editor Convidado
SUMÁRIO
GESTÃO DE RECURSOS HUMANOS EM PROJETOS DE
SOFTWARE: PROPOSTA INTEGRADA AO PROCESSO PESSOAL
ESTECA, Antonio Marcos Neves; SOUZA, Rogéria Cristiane
Gratão; SANTOS, Adriana Barbosa; VALÊNCIO, Carlos Roberto
09
APLICAÇÕES DO FLUXO DE RICCI À TEORIA DA RELATIVIDADE GERAL: ESTUDO DOS BURACOS NEGROS
FRANCHI, Claudia M. G. Gonçalves; BORGES, Manoel Ferreira
Neto
19
DESENVOLVIMENTO DE UM SISTEMA PARA NAVEGAÇÃO DE
ROBÔS MÓVEIS POR CAMINHOS EM PLANTAÇÕES
JODAS, Danilo Samuel; PEREIRA, Aledir Silveira; GUIDO, Rodrigo
Capobianco
27
ANÁLISE DE FORMAS PLANAS EM IMAGENS DIGITAIS
SOUZA, Gustavo Botelho de; MARANA, Aparecido Nilceu
ARQUITETURA DE UM SISTEMA MULTIAGENTE AUTÔNOMO
PARA SUPERVISÃO E CONTROLE
QUEIROZ, Jonas Felipe Pereira de; GUILHERME, Ivan Rizzo
SIMULAÇÃO DE PROBLEMAS DE ELETROHIDRODINÂMICA
USANDO O MÉTODO DOS ELEMENTOS FINITOS
MOMENTE, Julio Cesar; MACHADO, José Márcio
39
51
63
BUSCA QUÂNTICA EM BANCOS DE DADOS XML USANDO ALGORITMO DE GROVER
PONTES, Michael A.; BORGES, Manoel F.
71
CARACTERIZAÇÃO DE LESÕES DE PELE EM IMAGENS DIGITAIS A PARTIR DA MÁQUINA DE VETOR DE SUPORTE
OLIVEIRA, Roberta Barbosa; GUIDO, Rodrigo Capobianco;
MARRANGHELLO, Norian; ARAUJO, Alex F. de; TAVARES, João
Manuel R. S.; ROSSETTI, Ricardo Baccaro; PEREIRA, Aledir
Silveira
83
GESTÃO DE RECURSOS HUMANOS EM PROJETOS DE SOFTWARE:
PROPOSTA INTEGRADA AO PROCESSO PESSOAL
ESTECA, Antonio Marcos Neves
Universidade Estadual Paulista “Júlio de Mesquita Filho” (UNESP)
[email protected]
SOUZA, Rogéria Cristiane Gratão
Universidade Estadual Paulista “Júlio de Mesquita Filho” (UNESP)
[email protected]
SANTOS, Adriana Barbosa
Universidade Estadual Paulista “Júlio de Mesquita Filho” (UNESP)
[email protected]
VALÊNCIO, Carlos Roberto
Universidade Estadual Paulista “Júlio de Mesquita Filho” (UNESP)
[email protected]
RESUMO: A qualidade de software representa um atributo cada vez mais importante para a sobrevivência e crescimento das indústrias de software. Visando a garantia da qualidade dos produtos
construídos, várias práticas têm sido incorporadas ao processo de desenvolvimento. Neste contexto,
algumas organizações produtoras de software bem-sucedidas estão investindo em uma abordagem
diferenciada para a gestão de recursos humanos, que consiste em integrar as atividades gerenciais a
um processo pessoal de software denominado Personal Software Process - PSP, o qual tem levado a
manutenção de maior disciplina e controle sobre todas as fases do desenvolvimento. Diante disso, este
trabalho apresenta uma proposta para a integração das técnicas estabelecidas no PSP a um sistema
web previamente desenvolvido, denominado Sistema de Apoio à Gerência de Projetos - SAGP.
PALAVRAS CHAVE: Qualidade de software, Gerenciamento de recursos humanos, Processo
pessoal.
ABSTRACT: The software quality represents a more and more important attribute for the survival and
growth of software industries. In order to ensure the quality of products manufactured, various practices
have been incorporated into the development process. In this context, some successful software organizations have invested in an approach to human resource management, which consists in integrating
the management activities with a personal process called Personal Software Process - PSP, which has
led to the maintenance of greater discipline and control over all development phases. Given this, this
work presents a proposal for integration of techniques set out in the PSP with a web system previously
developed, which is called System to Aid Project Management - SAPM.
KEYWORDS: Software quality, Human resources management, Personal process.
1. INTRODUÇÃO
A atual concorrência entre organizações tem tornado cada vez mais necessária a obtenção de informações de maneira
rápida e segura, para que decisões adequadas possam ser tomadas em tempo hábil,
de modo a aumentar o potencial competitivo das empresas. Com isso, os processos
organizacionais tornam-se dependentes de
sistemas de informação, o que eleva a demanda por software de qualidade (SILVA,
2006).
Neste contexto, é necessário incorporar um conjunto de boas práticas ao
processo de desenvolvimento de software,
dentre as quais está a gerência dos projetos, que consiste na aplicação de conhecimentos, habilidades, ferramentas e técnicas
nas atividades do projeto a fim de atender
Interciência
& Sociedade
9
ESTECA, A. M. N.; SOUZA, R. C. G.; SANTOS, A. B.; VALÊNCIO, C. R.
aos requisitos, bem como satisfazer as necessidades e expectativas dos interessados
(stakeholders) (PRESSMAN, 2006; SOMMERVILLE, 2007; PMBOK, 2008). Porém,
apesar das técnicas de gerenciamento estarem em constante aperfeiçoamento, os
resultados obtidos nos projetos de desenvolvimento de software ainda estão muito
aquém do esperado, conforme revela o estudo CHAOS (STANDISH GROUP, 2009),
segundo o qual 44% dos projetos concluídos apresentam alterações em relação às
estimativas iniciais, 24% falham e apenas
32% são concluídos com sucesso e dentro
das expectativas iniciais.
Assim, com o intuito de obterem
melhores resultados em seus projetos, organizações produtoras de software bem-sucedidas têm adotado uma abordagem
diferenciada em relação à gestão dos recursos humanos, considerando a integração
dos benefícios oriundos de um processo
para capacitação individual e monitoramento rigoroso dos membros da equipe, denominado Personal Software Process – PSP,
com a realização sistemática de atividades
gerenciais. Como resultado, tem-se a manutenção de maior disciplina e controle em
todas as fases do desenvolvimento e, conseqüentemente, um significativo aumento
da taxa de sucesso dos projetos (HUMPHREY, 2005). De modo geral, o PSP pode
ser definido como um processo de auto-melhoria que incorpora gradualmente um
conjunto de roteiros, formulários, medições
e padrões ao trabalho dos desenvolvedores de software com o intuito de ajudá-los
a controlar, administrar e melhorar o modo
como trabalham (HUMPHREY, 2005).
Segundo um dos principais guias
de apoio ao gerenciamento de projetos, o
Project Management Body of Knowledge
– PMBoK (PMBOK, 2008), a gestão de recursos humanos representa uma das nove
áreas de conhecimento que devem ser consideradas durante a gerência de um projeto. Neste contexto, este trabalho apresenta
uma proposta de expansão de um sistema
web de apoio à gerência de projetos, buscando viabilizar a efetivação das atividades
relacionadas à gerência de recursos humanos baseada em parâmetros obtidos a
partir de um processo pessoal, o PSP. Para
10
tanto, é proposta a integração das técnicas
do PSP ao Sistema de Apoio à Gerência de
Projetos - SAGP (ESTECA, 2010; SOUZA,
et al., 2011), que foi previamente desenvolvido pelo Grupo de Estudos e Pesquisas
em Engenharia de Software (GEPES) com
o intuito inicial de apoiar a aplicação das
diretrizes do guia PMBoK às atividades cotidianas de gerenciamento de projetos. Com
tal proposta, espera-se que os potenciais
benefícios e vantagens do PSP, capazes
de contribuir para a melhoria da maturidade dos recursos humanos (HUMPHREY,
2005), possam ser adequadamente explorados pelos gerentes de projetos de software, auxiliando na efetivação de suas atividades.
O restante deste artigo está organizado da seguinte forma: na seção 2 são
apresentados trabalhos relacionados à
gestão de projetos e ao PSP; na seção 3 é
apresentada a metodologia adotada para o
desenvolvimento deste trabalho; na seção
4 são apresentados os resultados obtidos;
por fim, na seção 5, são apresentadas as
considerações finais e propostas para trabalhos futuros.
2. Trabalhos Relacionados
Uma gerência eficiente dos recursos humanos pode trazer importantes benefícios às organizações, tais como: melhor seleção de recursos humanos; maior
controle sobre os recursos humanos; maior
comprometimento dos membros da equipe;
maior eficácia no gerenciamento de conflitos; entre outros (HUMPHREY, 2005; OLIVEIRA, 2009; PMI, 2011).
Diante disso, diversos trabalhos
vêm sendo publicados em torno desse assunto, sendo que a maioria concentra-se
na proposta e avaliação de boas práticas
gerenciais (KOCHAN, 2004; KISHORE, et
al., 2005; ESTEVES, 2008; PMBOK, 2008).
Além disso, alguns trabalhos propõem ferramentas computacionais de apoio a gerência de recursos humanos (MENVIE, 2012;
MSPROJECT, 2012; PRIMAVERA, 2012;
RHTM, 2012), visando maior agilidade na
execução das atividades relacionadas.
O emprego do PSP, por sua vez,
também contribui para a obtenção de resulInterciência
& Sociedade
Gestão de recursos humanos em projetos de software: proposta integrada ao processo
pessoal
tados positivos no cotidiano das organizações, dentre os quais destacam-se (WOHLIN, 1998): aumento da produtividade;
diminuição da taxa de produção de defeitos;
melhoria da qualidade dos produtos de software; estimativas de custo e cronograma
cada vez mais próximas da realidade; diminuição do tempo de realização de testes
nos produtos de software e consequente redução do tempo total de desenvolvimento;
atendimento, pelo menos parcial, de 12 das
18 Key Process Areas (KPAs) do Capability
Maturity Model (CMM); geração de indicadores sobre os desenvolvedores.
Devido aos benefícios que pode
trazer, as publicações em torno do PSP
concentram-se no estudo de suas potenciais contribuições em diferentes contextos
(WOHLIN, 1998; LEE; BAIK, 2008). Porém,
também destacam-se trabalhos que abordam a criação de ferramentas computacionais de apoio ao seu emprego (ETXANIZ,
2007; SHIN; CHOI; BAIK, 2007), bem como
a proposição de adaptações que permitam
adequá-lo a realidades específicas (BUBLITZ, 1999; WILLIAMS, 2000).
Cabe ressaltar que, durante a revisão bibliográfica, não foram encontrados
trabalhos que abordassem em conjunto os
temas gerência de recursos humanos em
projetos e PSP, o que atesta a originalidade
deste trabalho.
3. Metodologia
A metodologia adotada para o desenvolvimento deste trabalho dividiu-se em
três principais etapas:
- Revisão bibliográfica: esta etapa consistiu na seleção e estudo de artigos
relacionados aos temas abordados, com o
intuito de identificar o estado da arte e, com
isso, demonstrar a originalidade e contribuições do presente trabalho;
- Integração do PSP ao SAGP:
esta etapa consistiu na definição da forma
como as técnicas propostas pelo PSP po-
deriam ser incorporadas ao SAGP de modo
a apoiar o processo de melhoria da maturidade dos recursos humanos e, ao mesmo
tempo, auxiliar os gerentes de projetos de
software em suas atividades. Com isso,
foram definidas as funções que o sistema
deve oferecer aos usuários, garantindo uma
abrangência adequada;
- Projeto de interface: esta etapa consistiu na projeção de uma interface
que permitisse o emprego do PSP tanto em
nível pessoal, pelos recursos humanos em
geral, como em nível de projeto, pelos gerentes de projetos de software, com o intuito
de apoiar a efetivação de suas atividades
de maneira ágil e consistente com o uso do
SAGP.
A partir destas etapas, foram estabelecidos os requisitos funcionais capazes
de nortear a expansão do SAGP, de forma
a contribuir para a qualidade do trabalho realizado tanto pelos membros da equipe de
desenvolvimento de software quanto pelos
gerentes de projetos, o que deverá conduzir
a uma melhoria da qualidade dos projetos
de software desenvolvidos.
4. Resultados Obtidos
A partir da metodologia adotada,
inicialmente foram identificadas as funções
que o sistema deve oferecer para apoiar
adequadamente o emprego do PSP a nível
pessoal e também pelos gerentes de projetos para obtenção de informações que os
auxiliem em suas tomadas de decisão. Para
tanto, foram estabelecidos os requisitos
funcionais (RFs) a serem contemplados
pelo sistema em desenvolvimento, os quais
estão apresentados no Quadro 1, sendo organizados em sete categorias: uma geral e
outras seis referentes a cada nível do PSP.
A categoria geral reúne os requisitos cujo
principal objetivo é viabilizar a integração do
PSP ao SAGP, enquanto as outras seis reúnem os requisitos específicos necessários
para atender a cada nível do PSP.
Interciência
& Sociedade
11
ESTECA, A. M. N.; SOUZA, R. C. G.; SANTOS, A. B.; VALÊNCIO, C. R.
Quadro 1: Requisitos identificados para a integração do PSP ao SAGP.
Requisito
Descrição
Requisitos gerais
RF. 1
Registro do interesse Durante o cadastro de um projeto, o sistema deve registrar o
em empregar o PSP nos interesse do gerente do projeto em empregar o PSP para que
projetos
sejam disponibilizadas informações geradas pelo processo. Da
mesma forma, deve ser registrado o interesse dos recursos humanos em empregar o PSP, bem como o nível desejado, para
que eles possam ter acesso a uma área exclusiva de emprego
do PSP. Observa-se que só poderão ser selecionados níveis já
empregados em projetos anteriores ou um nível acima do mais
alto, como forma de garantir um ganho gradual de maturidade.
RF. 2
Disponibilização de pai- O sistema deve disponibilizar um painel em que os gerentes de
nel para apresentação projetos possam acessar indicadores gráficos e numéricos gerade indicadores pessoais dos sobre os recursos humanos a partir da aplicação individual
do PSP.
RF. 3
Apresentação das ati- O sistema deve apresentar as atividades de cada recurso huvidades do projeto aos mano na área exclusiva do PSP, direcionando a definição das
recursos humanos res- atividades pessoais.
ponsáveis
RF. 4
Controle do fluxo de trabalho entre os recursos
humanos para registro
dos dados obtidos nos
testes dos programas
RF. 5
Geração do sumário do O sistema deve reunir, sumarizar e organizar os dados regisplano de projeto
trados pelos usuários sobre cada programa desenvolvido para
gerar o sumário do plano de projeto.
RF. 6
Disponibilização de ins- O sistema deve disponibilizar instruções que guiem os usuários
truções do PSP
no emprego do PSP.
O sistema deve permitir que os programas criados por um recurso humano possam ser testados por outros e que os dados
sobre os testes sejam armazenados dentre os registros do autor
do programa, conforme proposto pelo PSP.
Requisitos referentes ao PSP 0
RF. 7
Registro dos programas O sistema deve permitir que cada recurso humano que esteja
a serem construídos
empregando o PSP possa registrar o nome e a linguagem dos
programas que irá construir.
RF. 8
Definição de atividades O sistema deve permitir que sejam registradas as atividades a
pessoais
serem realizadas para a construção de cada programa.
RF. 9
Estimativa de tempo de O sistema deve permitir que os recursos humanos registrem a
construção dos progra- quantidade total de minutos que esperam gastar para o desenmas
volvimento de cada programa.
RF. 10
Disponibilização
dos O sistema deve oferecer um dispositivo que registre o tempo
logs de registro de tem- gasto pelos recursos humanos para o desenvolvimento de cada
po e defeitos
atividade pessoal, bem como a duração das interrupções ocorridas. Além disso, para cada defeito encontrado, deve ser registrado o tempo gasto para corrigi-los e a fase em que foram
injetados e removidos.
RF. 11
Registro da conclusão O sistema deve permitir que os recursos humanos mantenham
de atividades e progra- atualizado o status das atividades pessoais e dos programas
mas
(em andamento ou concluídos).
Requisitos referentes ao PSP 0.1
RF. 12
12
Registro do padrão de O sistema deve permitir que os recursos humanos registrem o
codificação
padrão de codificação empregado para cada linguagem de programação, o qual deverá ser seguido para viabilizar um adequado processo de medição e manutenção de software.
Interciência
& Sociedade
Gestão de recursos humanos em projetos de software: proposta integrada ao processo
pessoal
RF. 13
Registro dos dados obtidos com as medições
de software
O sistema deve permitir que os usuários registrem o tamanho
(em linhas de código) dos programas construídos. As linhas de
código devem ser classificadas de acordo com o tipo, conforme
proposto pelo PSP: linhas do código base, linhas adicionadas,
linhas modificadas, linhas deletadas, linhas reusadas.
RF. 14
Disponibilização de formulário para coleta de
sugestões para melhoria do processo
O sistema deve permitir que os usuários cadastrem propostas
para a melhoria do processo pessoal de desenvolvimento de
software.
Requisitos referentes ao PSP 1
RF. 15
Disponibilização do método PROxy-Based Estimating (PROBE) para
estimativa de tamanho
e tempo de desenvolvimento de programas
O sistema deve oferecer funções que permitam que os usuários
empreguem o método PROBE para estimativa de tamanho e
tempo de desenvolvimento de programas. Para tanto, deve ser
possível: registrar um proxy para cada linguagem de programação, o qual consiste em uma unidade de programação, como
objetos, classes ou arquivos de um programa; cadastrar categorias funcionais de proxies, que são os tipos de funções que
um proxy pode assumir (cálculos, busca, etc); registrar dados
históricos (tamanho e função) de proxies obtidos em programas
já concluídos; gerar automaticamente a tabela de tamanho relativo, que apresenta o tamanho médio de um proxy de cada
categoria funcional para cada tamanho relativo (muito pequeno, pequeno, médio, grande e muito grande), mostrando, por
exemplo, o tamanho médio de uma classe em Java (proxy) que
realiza buscas (categoria funcional) e é muito grande (tamanho
relativo); registrar as partes estimadas para composição de um
programa, sendo possível que o usuário declare quantas unidades de cada tipo de proxy são esperadas em um programa,
bem como o tamanho relativo esperado. A partir disso, o sistema deve executar os cálculos para estimativa de tamanho (em
linhas de código) e tempo (em minutos) de desenvolvimento do
programa e apresentar os resultados aos usuários.
RF. 16
Cálculo do intervalo de
previsão de 70%
O sistema deve reunir dados históricos dos usuários e calcular
o intervalo de variação no qual há 70% de probabilidade de caírem os valores de tamanho e tempo estimados pelo PROBE.
RF. 17
Registro do tempo
estimado para cada
atividade
O sistema deve permitir que os usuários estimem o tempo de
duração de cada atividade envolvida na construção de um programa. No entanto, a soma do tempo de cada atividade não
pode estar fora do intervalo de 70% calculado para o programa.
Requisitos referentes ao PSP 1.1
RF. 18
Distribuição automática
do tempo estimado entre as fases do PSP.
O sistema deve permitir que o tempo estimado pelo PROBE
para desenvolvimento de um programa seja distribuído automaticamente entre as fases do PSP, de acordo com o percentual
histórico de cada usuário. Deste modo, o tempo total das atividades de uma determinada fase deve corresponder ao percentual
de tempo comumente consumido pela fase.
RF. 19
Geração do planejamento de tempo dos
usuários
O sistema deve analisar o tempo de alocação de cada usuário
nos projetos e, com isso, gerar o planejamento para execução
de suas atividades pessoais com base na duração de cada uma
delas. Esse planejamento deve envolver a distribuição do tempo
de duração das atividades ao tempo de alocação do usuário ao
projeto, resultando na definição da data de início e término de
cada atividade.
Interciência
& Sociedade
13
ESTECA, A. M. N.; SOUZA, R. C. G.; SANTOS, A. B.; VALÊNCIO, C. R.
RF. 20
Cálculo automático do O sistema deve calcular automaticamente o CPI de cada usuCost Performance Index ário, o qual indica o percentual de variação do tempo real em
(CPI)
relação ao tempo planejado para as atividades.
RF. 21
Registro e disponibiliza- O sistema deve permitir que o usuário registre o checklist de
ção de checklist de revi- revisão de código, o qual varia de acordo com a linguagem emsão de código
pregada. Além disso, deve ser oferecido apoio ao emprego do
checklist de revisão de código, permitindo registrar os itens já
verificados em cada programa.
RF. 22
Disponibilização do che- O sistema deve oferecer apoio ao emprego do checklist de recklist de revisão de pro- visão de projeto, permitindo registrar os itens já verificados em
jeto
cada programa. Este checklist não precisa ser registrado, pois é
padrão para o PSP.
RF. 23
Cálculo automático de O sistema deve reunir dados sobre os usuários para calcular auindicadores de qualida- tomaticamente vários indicadores de qualidade propostos pelo
de
PSP.
RF. 24
Geração automática de O sistema deve gerar automaticamente a estimativa do número
estimativa do número de de defeitos, baseando-se nos dados históricos sobre o número
defeitos.
de defeitos gerados para cada 1000 linhas de código produzidas.
Requisitos referentes ao PSP 2
Requisitos referentes ao PSP 2.1
RF. 25
Disponibilização
dos O sistema deve oferecer os quatro modelos de especificação de
modelos de especifica- projeto propostos pelo PSP, a saber: modelo de especificação
ção de projeto
funcional, modelo de especificação operacional, modelo de especificação lógica e modelo de especificação de estados. Cada
um desses modelos pode ser empregado para a descrição de
cada programa
RF. 26
Disponibilização do che- O sistema deve oferecer um checklist de revisão de projeto mais
cklist de revisão de pro- detalhado, o qual é proposto pelo PSP.
jeto
Os requisitos apresentados permitem constatar que a integração do PSP ao
SAGP disponibilizará uma grande quantidade de informações sobre o trabalho desenvolvido pelos usuários, a qual será útil não
apenas aos recursos humanos em geral,
mas também aos gerentes de projetos, que
poderão conhecer melhor as habilidades e
dificuldades de cada membro de equipe dos
projetos.
Na Figura 1, é esquematizada tal
integração, indicando que o funcionamento
do sistema baseia-se na troca de dados gerados pelo SAGP e pelo novo componen-
14
te. Verifica-se também que os membros de
equipe dos projetos de software podem utilizar o SAGP de forma independente, usufruindo dos benefícios intrínsecos à uma
ferramenta de apoio à gerência de projetos,
ou de maneira integrada ao PSP, fornecendo e acessando seus dados por meio do
componente de apoio ao PSP. Como o PSP
é um processo incremental, o componente
de apoio ao PSP fornecerá acesso gradual
aos seus seis níveis, liberando recursos de
um nível apenas quando o anterior já tiver
sido empregado em algum projeto.
Interciência
& Sociedade
Gestão de recursos humanos em projetos de software: proposta integrada ao processo
pessoal
Figura 1: Integração do SAGP ao componente de apoio ao PSP.
A etapa posterior à identificação
dos requisitos funcionais consistiu na elaboração de um projeto de interface que permitisse integrar o PSP ao SAGP de modo
a facilitar e incentivar o seu uso tanto em
nível individual, pelos recursos humanos
dos projetos, como em nível de projeto,
pelos gerentes de projetos. Na Figura 2, é
apresentada a página inicial do SAGP, que
é exibida ao usuário logo após a seleção
de um dos projetos de seu portfólio. Como
proposta de integração com o PSP, foi projetada a inserção de dois novos itens referentes ao PSP no menu original do SAGP.
O item “Indicadores do PSP” dará acesso
aos indicadores gerados pelo sistema sobre
os recursos humanos que aplicam o PSP.
Este item será exibido apenas aos usuários
que podem acessar todas as informações
do projeto, que são os gerentes de projetos e outros usuários escolhidos por eles.
Já o item “Área exclusiva” permitirá que os
recursos humanos acessem a área do sistema ilustrada na Figura 3, na qual serão
disponibilizadas todas as funções de apoio
ao emprego pessoal do PSP, bem como
dados oriundos da aplicação do processo.
Este item será exibido aos usuários que optaram por empregar o PSP no projeto selecionado.
Interciência
& Sociedade
15
ESTECA, A. M. N.; SOUZA, R. C. G.; SANTOS, A. B.; VALÊNCIO, C. R.
Figura 2: Menu principal do SAGP com destaque para os itens relacionados ao PSP.
Figura 3: Página inicial da Área exclusiva para emprego do PSP.
16
Interciência
& Sociedade
Gestão de recursos humanos em projetos de software: proposta integrada ao processo
pessoal
De modo geral, pode-se verificar
que a interface projetada para integração
do PSP ao SAGP tem como objetivo oferecer facilidade para os usuários, uma vez
permitirá o acesso rápido aos indicadores
do PSP e à área de emprego pessoal do
processo. Além disso, conforme ilustrado
na Figura 3, o menu de acesso às funções
relacionadas ao emprego do PSP será organizado de acordo com os níveis do PSP,
o que facilitará o uso da ferramenta por usuários que conhecem o processo e, por outro
lado, facilitará o aprendizado por usuários
inexperientes.
realizar a validação junto a profissionais do
mercado de tecnologia da informação, com
o intuito de ratificar a contribuição do sistema desenvolvido, bem como identificar melhorias a serem incorporadas. Futuramente, pesquisas podem ser desenvolvidas de
modo a integrar novos processos e métodos
para a gestão de outras áreas de conhecimento em projetos, buscando obter um ambiente cada vez mais completo que permita
a aplicação de métodos eficientes durante
as atividades gerenciais, contribuindo para
a obtenção de bons resultados aos projetos
executados.
5. CONSIDERAÇÕES FINAIS E TRABALHOS FUTUROS
REFERÊNCIAS BIBLIOGRÁFICAS
Neste trabalho é apresentada uma
proposta de integração das práticas estabelecidas pelo PSP a um ambiente web de
apoio à gerência de projetos previamente
desenvolvido, denominado SAGP. A partir
desta proposta, buscou-se viabilizar a gerência de recursos humanos integrada ao
processo pessoal fornecido pelo PSP. Com
isso, espera-se contribuir para a melhoria
da maturidade dos recursos humanos e,
ao mesmo tempo, gerar e fornecer informações que possam direcionar os gerentes
de projetos em suas tomadas de decisão,
o que pode trazer diversos benefícios, tais
como: definição de estimativas de tempo e
custo mais próximas da realidade; melhor
planejamento e controle da qualidade; seleção de recursos humanos pautada em dados históricos relevantes; entre outros.
Por meio da metodologia adotada,
foram definidos os requisitos funcionais a
serem atendidos para a integração das práticas propostas pelo PSP ao SAGP. Além
disso, foi projetada a interface para permitir
aos usuários empregarem o PSP tanto em
nível pessoal como em nível de projeto. No
momento, os requisitos identificados estão
sendo analisados para o estabelecimento
de uma arquitetura de software capaz de
nortear a etapa de implementação, seguindo a interface definida, de modo a obter um
sistema completo e de fácil utilização.
Os próximos passos deste trabalho visam concluir a arquitetura e a implementação do sistema para, posteriormente,
BUBLITZ, J. C. Aplicação do modelo PSP - Personal Software Process em um protótipo de sistema
de gerenciamento do setor de engenharia de segurança do trabalho. Monografia (Trabalho de conclusão de curso), Blumenau: Universidade Regional
de Blumenau, 1999.
ESTECA, A. M. N. Gerência de Projetos: Apoio automatizado para efetivação das atividades. Monografia (Trabalho de Conclusão de Curso), São José
do Rio Preto: Universidade Estadual Paulista, 2010.
ESTEVES, M. T. F. P. Práticas de gestão de recursos humanos e atitudes e comportamentos de
trabalho: estudo de caso no sector bancário português. Tese (Doutorado) - Departamento de Psicologia Social e das Organizações, Instituto Superior de
Ciências do Trabalho e da Empresa, Lisboa, 2008.
ETXANIZ, I. A Tool to Improve the Software Process
Quality in an R&D Center Using PSP. WSEAS Transactions on Information Science and Applications, v. 4, n. 4, p. 763 - 770, Abril de 2007.
HUMPHREY, W. S. PSP: A Self-Improvement Process for Software Engineers. Reading: Addison-Wesley Publishers, 2005. 368 p.
KISHORE, A.; URBAN, T. P.; MOREIRA, M. M. S. C.;
CODA, R. Gestão estratégica de recursos humanos a
partir da dinâmica de sistemas. In: VIII Seminários em Administração FEA-USP, 2005, Anais...
São Paulo: FEA-USP, 2005.
KOCHAN, T. A. Restoring trust in the human resource management profession. Asia Pacific Journal of
Human Resources, v. 42, n. 2, p. 132 - 146, 2004.
LEE, T.; BAIK, D. Cost Benefit Analysis of Personal
Software Process Training Pro-gram. In Proceedings
of the IEEE 8th International Conference on Computer and Information Technology Workshops,
Sydney, Australia, p. 631 - 636, Julho de 2008.
Interciência
& Sociedade
17
ESTECA, A. M. N.; SOUZA, R. C. G.; SANTOS, A. B.; VALÊNCIO, C. R.
MENVIE. Menvie Recursos Humanos. Disponível
em: http://www.menvie.com.br/ install/qualified_install.exe. Acesso em: 02/06/2012.
MSPROJECT. Microsoft Project 2007. Disponível em: http://msdn.microsoft.com/en-us/ library/
ms507336(v=office.12).aspx. Acesso em: 02/06/2012.
OLIVEIRA, R. A. A importância da gestão estratégica de recursos humanos no incremento do lucro
- Um estudo de caso. Tese (Doutorado) - Departamento de Gestão de Empresas, Instituto Superior de
Ciências do Trabalho e da Empresa, Lisboa, 2009.
PMBOK. Guide of Project Management Body of
Knowledge. 4 ed. Newtown Square: Project Management Institute – PMI, 2008.
PMI, Project Management Institute. PMSURVEY.
ORG 2011. National Report. Brasil: Chapters Brasileiros, 2011. 100 p.
PRESSMAN, R. Software Engineering: A
Practitioner’s Approach. 7 ed. New York: McGraw-Hill, 2009. 928 p.
PRIMAVERA. Primavera P6. Disponível em: http://
www.oracle.com/us/corporate/acquisitions/ primavera/index.html. Acesso em: 02/06/2012.
RHTM. RHTM- Software de Gestão de Recursos
Humanos. Disponível em: http://www.rhtm.com.br.
Acesso em: 28/01/2012.
SHIN, H.; CHOI, H. J.; BAIK, J. JASMINE: A PSP Supporting Tool. In Proceedings of the 2007 Internacional Conference on Software Process, Minneapolis,
USA, p. 73 - 83, Maio de 2007.
SILVA, R. A. C. PSP e métodos ágeis na melhoria
da qualidade em produção de software: um estudo de caso. Dissertação (Mestrado). Viçosa: Universidade Federal de Viçosa, 2006.
SOMMERVILLE, I. Software Engineering. 9 ed. New
York: Pearson Addison Wesley, 2010. 792 p.
SOUZA, R. C. G.; ESTECA, A. M. N.; SANTOS, A. B.;
VALÊNCIO, C. R.; HONDA, M. T. Web System to Aid
Project Management. In Proceedings of the SEKE
23rd Conference on Software Engineering and
Knowledge Engineering, Miami, USA, p. 325 – 330,
Julho de 2011.
STANDISH GROUP. Chaos Report. Boston: The
Standish Group International, 2009.
WILLIAMS, L. A. The Collaborative Software Process. Tese (Doutorado), Utah: University of Utah,
2000.
WOHLIN, C. The Personal Software Process as a
Context for Empirical Studies. IEEE TCSE Software
Process Newsletter, n. 12, p. 7 - 12, 1998.
Antonio Marcos Neves Esteca nasceu em Ribeirão Preto, São Paulo, Brasil, em 10 de julho de 1989. Graduou-se Bacharel em Ciência da Computação no Instituto de Biociências, Letras e Ciências Exatas da Universidade
Estadual Paulista “Júlio de Mesquita Filho” em 2010, onde atualmente cursa Mestrado em Ciência da Computação.
Possui interesse nos seguintes temas: Engenharia de Software, Processo de Software, Qualidade de Software,
Arquitetura de Software e Gerência de Projetos.
Rogéria Cristiane Gratão de Souza nasceu em São José do Rio Preto, São Paulo, Brasil, em 12 de novembro de
1973. Graduou-se Tecnóloga em Processamento de Dados na Faculdade de Tecnologia de Sorocaba em 1995,
Mestre em Ciência da Computação na Universidade Federal de São Carlos em 1998 e Doutora em Engenharia
Elétrica na Escola Politécnica da Universidade de São Paulo em 2003. Trabalha no Departamento de Ciências de
Computação e Estatística do Instituto de Biociências, Letras e Ciências Exatas da Universidade Estadual Paulista
“Júlio de Mesquita Filho”, onde é Professora Assistente Doutora desde 2004. Possui interesse nos seguintes temas: Engenharia de Requisitos, Processo de Software, Qualidade de Software e Gerência de Projetos.
Adriana Barbosa Santos nasceu em Santos, São Paulo, Brasil, em 15 de abril de 1965. Graduou-se Bacharel em
Estatística na Universidade Estadual de Campinas em 1986, Mestre em Estatística na Universidade Estadual de
Campinas em 1991 e Doutora em Engenharia de Produção na Universidade de Federal de São Carlos em 2006.
Trabalha no Departamento de Ciências de Computação e Estatística do Instituto de Biociências, Letras e Ciências
Exatas da Universidade Estadual Paulista “Júlio de Mesquita Filho” desde 1989, onde é Professora Assistente
Doutora. Possui interesse nos seguintes temas: Gestão da Qualidade, Seis Sigma, Gerenciamento de Projetos e
Estatística Médica.
Carlos Roberto Valêncio nasceu em São José do Rio Preto, São Paulo, Brasil, em 23 de maio de 1961. Graduou-se Bacharel em Matemática no Instituto de Biociências, Letras e Ciências Exatas da Universidade Estadual Paulista “Júlio de Mesquita Filho” em 1985, Mestre em Ciência da Computação no Instituto de Ciências Matemáticas
e de Computação da Universidade de São Paulo em 1994 e Doutor em Física Computacional no Instituto de Física
da Universidade de São Paulo em 2000. Trabalha no Departamento de Ciências de Computação e Estatística
do Instituto de Biociências, Letras e Ciências Exatas da Universidade Estadual Paulista “Júlio de Mesquita Filho”
desde 1989, onde é Professor Assistente Doutor. Possui interesse nos seguintes temas: Banco de Dados, Análise
de Dados e Engenharia de Software.
Os autores agradecem à Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP) pelo apoio financeiro concedido a esta pesquisa (Processo no 2010/13478-8).
18
Interciência
& Sociedade
APLICAÇÕES DO FLUXO DE RICCI À TEORIA DA RELATIVIDADE
GERAL: ESTUDO DOS BURACOS NEGROS
FRANCHI, Claudia Maria Gregorini Gonçalves
Instituto de Biociências, Letras e Ciências Exatas de São José do Rio Preto
[email protected]
BORGES, Manoel Ferreira Neto
Instituto de Biociências, Letras e Ciências Exatas de São José do Rio Preto
[email protected]
RESUMO: O fluxo de Ricci é uma ferramenta analítica e, um análogo da equação do calor para a
geometria, um processo difusivo que atua sobre as métricas de uma variedade Riemanniana e assim,
pode ser utilizado na matemática para entender a topologia de variedades e também no estudo das
teorias geométricas. Sendo assim, a curvatura de Ricci desempenha um papel importante na Teoria da
Relatividade Geral, uma teoria geométrica, em que é o termo dominante nas equações de campo de
Einstein. O presente trabalho tem como principais objetivos desenvolver e aplicar técnicas de fluxo de
Ricci à Relatividade Geral, no caso, uma métrica Riemanniana tridimensional assintoticamente plana
como um conjunto de dados iniciais para equações de Einstein e estabelecer relações e comparações
entre os mesmos.
PALAVRAS-CHAVE: matemática computacional, computação científica, relatividade, entropia.
ABSTRACT: The flow of Ricci is an analytical tool, and a similar equation for heat geometry, a diffusive
process which acts on a variety of metrics Riemannian and thus can be used in mathematics to understand the topology of varieties and also in the study geometric theories. Thus, the Ricci curvature plays
an important role in the General Theory of Relativity, characterized as a geometric theory, which is the
dominant term in the Einstein field equations. The present work has as main objectives to develop and
apply Ricci flow techniques to general relativity, in this case, a three-dimensional asymptotically flat Riemannian metric as a set of initial data for Einstein equations and establish relations and comparisons
between them.
KEYWORDS: computational mathematics, scientific computing, relativity, entropy.
1. INTRODUÇÃO
Historicamente foi no ramo da física que o fluxo de Ricci fez sua primeira
aparição, em um grupo de renormalização
para modelos bidimensionais sigma. Posteriormente, foi introduzido na matemática
por Hamilton (HAMILTON, 1982) como uma
ferramenta para o estudo da topologia das
variedades. Hamilton (op. cit.), entre outros trabalhos, desenvolveu um programa,
recentemente apresentado por Perelman,
para provar a conjectura da geometrização
de Thurston sobre a classificação de 3-va-
riedades (PERELMAN, 2002, PERELMAN,
2003, PERELMAN, 2003).
O fluxo de Ricci fora em princípio
utilizado pelos matemáticos para entender
a topologia de variedades em dimensão
três (MORGAN; TIAN, 2006, HAMILTON,
1982). Pode-se observar a possibilidade
destes desenvolvimentos matemáticos para
a física, no estudo das teorias geométricas,
como a Teoria da Relatividade Geral.
O trabalho inicial fora desenvolvido
por Richard Hamilton (op. cit.), sob a égide
dos trabalhos de Eells e Sampson (EELLS;
SAMPSON, 1964), ao qual Hamilton (op.
Interciência
& Sociedade
19
FRANCHI, C. M. G. G.; BORGES, M. F. N.
cit.) faz referências em artigos de 1975 a
1982, em que, introduzem o mapa harmônico do fluxo de calor, fazendo uso do mesmo
para provar a existência de mapas harmônicos e objetivando que as curvaturas seccionais não são positivas. Hamilton edifica
seu estudo sobre problemas pertinentes
ao estudo das Conjecturas de Poincaré e
Smith (GIFFEN, 1966, ROLFSEN, 1976),
culminando posteriormente na completa
elaboração do programa de Geometrização
de Thurston (THURSTON, 1982).
Em 1974, Firey (FIREY, 1974)
propôs que o fluxo de curvatura de Gauss
modelaria as formas de pedras gastas e
considerando o caso em que a superfície
é invariante e, no caso, menor que a identidade. Gauss escreveu um trabalho sobre
um problema físico, a situação das pedras
nas praias, cujas ondas batem e promovem
desgaste de maneira suave, de formas irregulares, às vezes aparentemente elipsoidais e até mesmo esféricas. Firey (op.cit.),
iniciou o trabalho com uma idealização do
processo de desgaste para materiais isotrópicos, em seguida, desenvolveu uma
equação que rege-o e passou a evidenciar
que uma pedra que é inicialmente convexa e com simetria central tendia a assumir
uma forma esférica como consequência da
equação que a rege.
Em física, a Teoria da Relatividade
Geral é a generalização da Teoria da gravitação de Newton e foi publicada em 1915
por Albert Einstein. Um dos elementos mais
importantes da Teoria da Relatividade Geral é a interpretação geométrica da gravidade: a densidade da matéria numa certa
região e, portanto a intensidade do campo
gravitacional é proporcional à curvatura do espaço­tempo na métrica pseudo­
Riemanniana.
Com a estrutura das variedades
diferenciáveis é possível definir alguns objetos geométricos importantes para a obtenção e análise das soluções advindas da
Teoria da Relatividade Geral de Einstein e
assim fazer correlações com o fluxo de Ricci. Pode este objeto conseguir medir normas de vetores (ou co-vetores) do espaço
tangente (ou co-tangente) à variedade. E
ainda, pode ser o objeto responsável pela
relação entre as componentes dos elemen-
20
tos dos espaços tangente e co-tangente.
De acordo com a Teoria da Relatividade Geral, um buraco negro é uma região do espaço da qual nada pode escapar.
Este é o resultado da deformação do espaço-tempo causada por uma matéria maciça
e altamente compacta. Um buraco negro
é limitado pela superfície denominada horizonte de eventos, que marca a região a
partir da qual não se pode mais voltar.
Partindo-se do princípio que os
buracos negros são estruturas descritas no
arcabouço matemático da Teoria da Relatividade Geral, pode-se descrevê-los por
intermédio da geometria da Teoria da Relatividade Geral. Assim, o fluxo de Ricci,
utilizado sobretudo para estudar o comportamento de variedades pode ser útil para
o estudo da evolução dos buracos negros,
uma vez que faz uso do mesmo ferramental
matemático da Teoria da Relatividade Geral.
Assim, nos próximos tópicos, far-se-á uma breve exposição da Teoria da
Relatividade Geral, evolução do estudo dos
buracos negros e da ferramenta fluxo de
Ricci e ao final, serão apresentadas relações entre a Teoria da Relatividade Geral e
o fluxo de Ricci e também as considerações
finais e conclusões do presente trabalho.
2. Teoria da relatividade geral
A Teoria da Relatividade Geral
(TRG) foi publicada em 1915 por Albert
Einstein e, é a generalização da Teoria da
Relatividade Especial (TRE). Um dos fundamentos da TRG é o Princípio de Equivalência, que estabelece que um referencial
inercial não acelerado na presença de um
campo gravitacional e um referencial acelerado, mas agora sem um campo gravitacional são fisicamente equivalentes. Essencialmente, a TRG é uma teoria clássica de
campos a qual descreve os efeitos gravitacionais produzidos pela geometria do espaço-tempo, e é modelada por uma variedade
pseudo-Riemanniana livre de torção. Se a
variedade em questão possui uma conexão
com uma parte antissimétrica, a variedade
é dita ser do tipo Riemann-Cartan e a teoria a qual correspondentemente descreve
o campo gravitacional é chamada teoria de
Interciência
& Sociedade
Aplicações do fluxo de Ricci à teoria da relatividade geral: estudo dos buracos negros
Einstein-Cartan (FRIEDRICH, 1976).
Dentre as consequências mais importantes da TRG, pode-se citar a de deflexão da luz em um campo gravitacional, o redshift gravitacional, a precessão do periélio
de Mercúrio e a previsão de ondas gravitacionais. O redshift gravitacional faz com que
o comprimento de onda dos fótons diminua
nas proximidades de um campo gravitacional suficientemente forte. O fenômeno da
precessão do periélio de Mercúrio, já era
estudado pela mecânica clássica, a qual
computava um valor discrepante ao observado (HAWKING; ELLIS, 1976). As elipses
que designam o movimento dos corpos celestes não são fechadas em virtude das perturbações de outros planetas, as quais alteram o ponto do periélio (ponto mais próximo
do sol), fazendo assim o periélio precessionar. Mas a questão é que ainda restavam
43’’ por século nas previsões da Mecânica
Clássica, o que foi interpretado por Einstein
como modificações do espaço-tempo para
tal situação. De acordo com as palavras de
Einstein em seu trabalho de 1915:
Nós iremos, portanto assumir a completa equivalência física entre um campo
gravitacional e a correspondente aceleração de um sistema de referência. Esta
hipótese estende o princípio da relatividade especial para sistemas de referência uniformemente acelerados.
Conceitos como singularidades e
estrutura causal (HAWKING; ELLIS, 1976),
também ocorrem como previsões da Teoria
da Relatividade Geral e serão abordados
nos próximos tópicos.
onde,
são os símbolos de Christofell.
Aplicando-se novamente a derivada covariante
na equação (2), obtém-se,
tal que, efetuando-se uma permutação inicial
na equação (3), resulta,
Subtraindo-se a equação (4) da equação (3), bem como se efetuando as substituições
iniciais necessárias e levando-se em consideração a comutatividade das derivadas parciais
bem como a simetria dos índices inferiores do
símbolos de Christoffel, isto é,
,a
expressão rearranjada para o comutador torna-se
onde, o termo entre parênteses é identificado como tensor de Riemann
pode-se notar que o tensor de Riemann aparece
como um tensor de quarta ordem e, portanto,
de 256 componentes. Mas, devido às propriedades de simetria e antissimetria, suas componentes se reduzem a 20 (SILVA, 2012),
2.1 Tensor de Curvatura
O tensor de curvatura, também
chamado tensor de Riemann-Christoffel é
de grande importância na Teoria da Relatividade Geral. Quando vetores são transportados paralelamente num circuito fechado
em uma variedade, eles geralmente sofrem
transformações, estas sendo relacionadas
com a curvatura da variedade em questão.
O mapeamento local da curvatura é realizado pelo tensor de Riemann. A derivada
covariante de um vetor contravariante tem
a seguinte forma
2.2 Tensor de Ricci e escalar de curvatura
Pode-se agora, por uma contração
do tensor de Riemann, obter um tensor de
segunda ordem que porta um número de 10
componentes independentes no caso mais
geral, chamado tensor de Ricci,
pela propriedade de simetria, pode-se dizer
que o tensor de Ricci é simétrico, isto é,
Interciência
& Sociedade
21
FRANCHI, C. M. G. G.; BORGES, M. F. N.
tal que, em termos das componentes de conexão, tem-se
Pela propriedade de antissimetria pode-se assegurar que
é o único tensor de
segunda ordem que pode ser formado a partir
do tensor de Riemann a menos de um sinal arbitrário. Também, pode-se contrair o tensor de
Ricci
e construir o escalar de Ricci, denominado escalar de curvatura e dado por,
O escalar de Ricci especifica um
número real em cada ponto da variedade
em consideração, determinando a curvatura intrínseca da variedade nesse ponto (SILVA, 2012).
3. Buracos Negros
A expressão buraco negro foi adotada em 1969, pelo cientista americano
John Wheeler (WHEELER, 1969), como
descrição gráfica de uma ideia que, retrocedendo pelo menos 200 anos, chega a
um tempo em que John Michell (MICHELL,
1784) postulou que “uma estrela com massa suficientemente compacta poderia ter
um campo gravitacional tão forte que a luz
não poderia escapar. Qualquer luz emitida
pela superfície da estrela seria puxada de
volta por uma atração gravitacional antes
que conseguisse se afastar”. Esses objetos
são os chamados atualmente de buracos
negros, pois são vácuos escuros no espaço.
No entanto, uma teoria adequada
que justifique como a gravidade atua sobre
a luz só foi sugerida por Einstein (EINSTEIN, 1905, EINSTEIN, 1905, EINSTEIN,
1915), em 25 de novembro de 1915, em um
seminário onde, comunicou as equações finais da Teoria da Relatividade Geral para a
Academia de Berlim. Mesmo assim, decorreu um longo período antes que as implicações da teoria para estrelas compactas
fossem compreendidas.
Em 1915, Karl Schwarzschild
(SCHWARZSCHILD, 1916) encontrou entre
08 de novembro e o fim do ano, um mês
após a publicação da Teoria da Relatividade
Geral de Einstein, a Solução de Schwarzs22
child. Foi a primeira solução exata para as
equações de campo de Einstein executando-se a solução trivial para o espaço plano.
Nas coordenadas de Schwarzschild (op. cit.), a métrica poderia ser expressa como,
em que, corresponde a constante de gravitação universal,
é entendida como a
massa do objeto e,
,
corresponde a um elemento de ângulo sólido. A constante
é entendida
como raio de Schwarzschild e desempenha uma função importante na solução de
Schwarzschild. A métrica de Schwarzschild
é a solução para as equações de campo
gravitacional no vácuo, válida apenas externamente ao corpo em questão. Portanto,
em um corpo esférico de raio
, a solução
é válida para
. Se
for menor que
o raio de Schwarzschild , então a solução descreve o que seria um buraco negro.
Para determinar o campo gravitacional dentro ou fora do corpo em questão, deve-se
descobrir a solução de Schwarzschild para
. Adotando-se
ou
,
obtém-se a métrica de Minkowski, (MINKOWSKI, 1907/1915),
Em 1972, Jacob Bekenstein
(BEKENSTEIN, 1973) propôs a ideia de que
o horizonte de eventos seria uma medida da
entropia de um buraco negro, verificou-se
então que se o horizonte de eventos de um
buraco negro fosse realmente uma medida
de sua entropia, ele deveria emitir radiação,
algo impossível para um buraco negro, já
que por sua própria definição, nada pode
sair de seu interior.
A entropia é uma medida do número de estados internos que um buraco
negro poderia ter sem parecer diferente para um observador externo, que pode
apenas observar sua massa, rotação e
carga e é dada pela seguinte equação:
Interciência
& Sociedade
Aplicações do fluxo de Ricci à teoria da relatividade geral: estudo dos buracos negros
em que, = área do buraco negro, =
constante de Planck, = constante de Boltzmann, = força gravitacional, e = velocidade da luz.
As equações que governam todas
estas interações eram longas e complexas, mas em uma das maiores percepções
da física moderna, Stephen Hawking (HAWKING, 1975) conseguiu unir todas essas
equações em uma única expressão.
Nessa elegante equação (14) estão todos os ramos da física que podem
afetar um buraco negro, desde o
do confuso mundo quântico ao
da termodinâmica. A lógica que deriva dessa expressão
é realmente muito elaborada, porém é uma
fórmula simples.
O horizonte de eventos, limite da
região do espaço-tempo do qual não é possível escapar, age quase como uma membrana de direção única em volta do buraco
negro, em que objetos podem cair dentro
dele, mas nada, jamais, poderá sair de lá
pelo mesmo caminho. O horizonte de eventos é a trajetória, através do espaço-tempo,
percorrida pela luz que está tentando escapar do buraco negro, e nada pode se deslocar mais rapidamente do que a luz.
definido pela equação de evolução geométrica,
O fluxo de Ricci é um análogo da
equação do calor para a geometria, que diz
que o calor flui das regiões de maior temperatura para as regiões de menor temperatura, para se entender o comportamento
da métrica sob a ação do fluxo de Ricci,
substitui-se a palavra temperatura pela palavra curvatura, assim ocorre um processo
difusivo que atua sobre a métrica de uma
variedade Riemanniana onde, à medida
que o tempo evolui, a métrica se altera de
acordo com a equação do fluxo, como pode
ser observado na figura 1, onde parte-se
de uma variedade irregular (parte superior
da figura) e então, o haltere irregularmente
curvo relaxa em uma superfície curvada de
modo uniforme, numa versão 2-dimensional
do fluxo de Ricci (parte inferior da figura).
4. O Fluxo de Ricci
Historicamente foi no ramo da física que o fluxo de Ricci fez sua primeira
aparição, em um grupo de renormalização
para modelos bidimensionais sigma. Posteriormente, foi introduzido na matemática
por Hamilton (op. cit.) como uma ferramenta para o estudo da topologia das variedades. Entre outras coisas, desenvolveu um
programa, recentemente apresentado por
Perelman, para provar a conjectura da geometrização de Thurston sobre a classificação de 3-variedades (PERELMAN, 2002,
PERELMAN, 2003, PERELMAN, 2003).
O fluxo de Ricci é utilizado pelos
matemáticos para entender a topologia de
variedades em dimensão três, sendo estes
desenvolvimentos matemáticos aplicados
no estudo de teorias geométricas, como a
Teoria da Relatividade Geral.
Considerando-se o tensor métrico
e o tensor de Ricci associados, funções da
variável tempo, o fluxo de Ricci pode ser
Figura 1: Comportamento da variedade sob a
ação do fluxo de Ricci (disponível na Revista
Science 22 Dezembro 2006 vol. 314, 5807, páginas 1825-1972).
5. Teoria da Relatividade versus Fluxo de
Ricci
Sabendo-se que na Teoria da Relatividade Geral, a área de horizontes aparente é relacionada à entropia do buraco negro
e a massa de Hawking uma 2-esfera assintótica é a energia ADM, pode-se desenvolver relações entre o fluxo de Ricci à teoria
da Relatividade Geral, particularmente ao
estudo dos buracos negros e sua evolução.
Interciência
& Sociedade
23
FRANCHI, C. M. G. G.; BORGES, M. F. N.
Definida uma variedade Riemanniana com tensor métrico gij,
pode-se calcular o tensor de Ricci Rij, que
contém informações sobre as médias das
curvaturas seccionais em uma espécie de
“traço” do tensor de curvatura de Riemann.
Considerando-se o tensor métrico
e o tensor de Ricci associados funções da
variável tempo, o fluxo de Ricci pode ser
definido pela equação de evolução geométrica. Seja M uma variedade fechada, define-se um fluxo de Ricci em M como sendo
um parâmetro da família
de métricas
Riemannianas sobre M e que satisfaçam a
equação,
em que,
é tensor da métrica e
é
o tensor da curvatura de Ricci e é o parâmetro “tempo” de deformação.
O fluxo de Ricci tende a não preservar o volume da variedade, por isso, introduz-se a constante cosmológica, passando
a ser denominado então, fluxo de Ricci normalizado, que faz sentido para variedades
compactas e é dado pela equação:
Sendo Ravg, a média da curvatura
escalar e
a dimensão da variedade
.
Esta equação normalizada preserva o volume da métrica, sendo que o sinal negativo
do fluxo de Ricci é definido para tempos positivos suficientemente pequenos. Se o sinal
for alterado, o fluxo de Ricci normalmente
será definido para os pequenos momentos
negativos, o que evidencia a analogia entre
a equação do calor que se apresenta positiva quando considerada a favor do tempo.
Visando evidenciar a aplicabilidade
ao estudo dos buracos negros, considera-se
a variedade Riemanniana sendo assintoticamente plana e tridimensional. Definem-se os buracos negros como as regiões do
espaço-tempo a partir da qual escapar para
o infinito é impossível e, portanto, referem-se a uma estrutura assintótica. Exige-se
que a métrica tenda a uma métrica plana
fixa
no infinito:
Dada a métrica inicial gij, o fluxo de
Ricci evolui a métrica consoante ao seu ten-
24
sor de Ricci. A evolução do parâmetro t e da
família de métricas em
satisfaz
a equação de fluxo de Ricci, Equação (16).
A equação de campo de Einstein é
a lógica que encerra todas as suas conclusões sobre o espaço e o tempo
em que,
, representa a distorção do espaço-tempo produzida pelo tensor de Ricci,
, expressa o potencial da gravidade
(métrica), , representa a distorção escalar,
é uma constante,
representa o
vetor energia impulso.
Pode-se observar que a Teoria da
Relatividade Geral e o fluxo de Ricci estão
diretamente relacionados, pois ambas são
teorias geométricas e ambas utilizam o tensor métrico. Como o fluxo de Ricci evolui
com o tempo, pode-se utiliza-lo para entender alguns fenômenos da Relatividade
Geral, como por exemplo, a formação de
buracos negros.
6. CONSIDERAÇÕES FINAIS E CONCLUSÕES
Da analogia fluxo de Ricci versus
equação do calor, convém observar outra,
envolvendo ideias oriundas do orbe da termofísica, em 1972, Bekenstein (BEKENSTEIN, 1973), como descrito anteriormente,
foi o primeiro a sugerir que os buracos negros devem ter uma entropia bem definida.
Então, formula a Segunda Lei Generalizada
da Termodinâmica, para sistemas incluindo
os buracos negros. Stephen Hawking (HAWKING, 1975) propôs a existência da Radiação de Hawking e em princípio opôs-se
a ideia de Bekenstein (op. cit.), quando da
sua exposição primordial, não obstante, reviu os fatos indo além da premissa original.
No escopo da termodinâmica,
energia e entropia figuram como quantidades de interesse físico, em Relatividade Geral, assumem um significado puramente geométrico-diferencial: a entropia relaciona-se
intrinsecamente com a área do horizonte
do buraco negro e a energia para a massa
ADM no infinito.
Conjectura-se ser possível a partir
do estudo das propriedades do fluxo de Ricci verificar as propriedades supra descritas
Interciência
& Sociedade
Aplicações do fluxo de Ricci à teoria da relatividade geral: estudo dos buracos negros
relativas à entropia intrínseca dos buracos
negros como as propriedades das variedades relativas ao fluxo de Ricci.
Observando-se os trabalhos de
Vulcanov e Rubinstein (VULCANOV, 2008,
RUBINSTEIN, 2005), pode-se encontrar
alternativas viáveis tanto do ponto de vista geométrico, em que pode-se utilizar as
superfícies mergulhadas, como uma resolução do problema por métodos numéricos
que tornam esse estudo e o desenvolvimento dos resultados possíveis.
De acordo com o que foi demonstrado neste trabalho, a Teoria da Relatividade Geral é uma teoria eminentemente
geométrica e isso valida o desenvolvimento
de tal trabalho. Pode-se ainda, verificar que
existem vários trabalhos em relatividade numérica na literatura, o que justifica o uso de
métodos numéricos.
7. REFERÊNCIAS BIBLIOGRÁFICAS
BEKENSTEIN, J. D.; Black Holes and Entropy, Physical, New York, US: American Physical Society Review, V. D7, p. 2333-2346, 1973.
CAO, H. D., XI, P.; Z; A Complete Proof of the Poincaré and Geometrization Conjectures - application of
the Hamilton-Perelman theory of the Ricci flow, Asian
Journal of Mathematics, 10, 2006.
CARROL, S. M.; An Introduction to General Relativity - Space-time and Geometry, Pearson Education,
San Francisco, USA, 2004.
EELLS, J. and SAMPSON, J. H.; Harmonic mappings
of Riemannian manifolds, American journal of mathematics, Baltimore, Md., US: American Mathematical
Society, V. 86, n. 1, p. 109-160, 1964.
EINSTEIN, A.; On the Electrodynamics of Moving
Bodies, Annalen der Physik, Leipzig, Alemanha, DE:
Johann Ambrosius Barth Verlag, V. 17, p. 891-921,
1905, doi: 10.1002.
EINSTEIN A.; Does the Inertia of a Body Depend
Upon Its Energy Content, Annalen der Physik, Leipzig, Alemanha, DE: Johann Ambrosius Barth Verlag, V. 18, p. 639-641, 1905.
EINSTEIN, A.; Die Feldgleichungen der Gravitation (The Field Equations of Gravitation), Koniglich
Preussische Akademie der Wissenschaften, Berlin, p. 844-847, 1915.
FIREY, W. J.; Shapes of worn stones, Mathematica:
Journal of pure and pplied mathematics, London,
GB: University College, Department of Mathematics,
V. 21, p. 1-11, 1974.
FRIEDRICH W., HEHL, et. al., Rev. Mod. Phys., Vol.
48, 1976.
GIFFEN, C. H.; “The Generalized Smith Conjecture.”
American Journal Mathematics, n.88, p. 187-198,
1966.
HAMILTON, R.; Three-Manifolds with positive Ricci
Curvature, Journal of Diferential Geometry, Bethlehem, Pa., US: American Mathematical Society, V.
17, n.2, p. 255- 306, 1982.
HAWKING, S. W. and ELLIS, G. F. R.; The Large
Scale Structure of Space-Time, Cambridge University Press, 1973.
HAWKING, S. W.; Particle Creation by Black Holes,
Communications in Mathematical Physics, New
York, US: Springer Verlag, V. 43, p. 199-220, 1975.
MICHELL, J.; On the means of discovering the distance, magnitude etc. of the fixed stars, Philosophical
Transactions of the Royal Society, p. 35-57, & Tab
III, 1784.
MINKOWSKI, H.; Das Relativity atsprinzip, Annalen
der Physik, Leipzig, Alemanha, DE: Johann Ambrosius Barth Verlag, V. 352, n. 15, p. 927-938,
1907/1915, doi: 10.1002.
MISNER, C. W, THORNE, K. S., and WHEELER, J.
A.; Gravitacion, W. H. Freeman and Company, 1973.
MORGAN, J., TIAN G.; Ricci Flow and the Poincaré
Conjecture, American Mathematical Society, Clay
Mathematics Institute, Translations of mathematical
monographs / American Mathematical Society, Providence, RI, US, 2006.
MULLINS, W. M.; Two-dimensional motion of idealized grain boundaries, ournal of applied physics, New
York, US: American Institute of Physics, V. 27, p.
900-904, 1956.
PERELMAN, G.; The entropy formula for the
Ricci and its geometric applications, arXiv:
math/0211159v1, 2002.
PERELMAN G.; Ricci ow with surgery on three-manifolds, arXiv: math/0303109 vol.1, 2003.
PERELMAN, G.; Finite extinction time for the solutions to the Ricci on certain three-manifolds, arXiv:
math/0307245v1, 2003.
ROLFSEN, D. Knots and LINKS, W., DE: Publish or
Perish Press, pp. 350-351, 1976.
RUBINSTEIN, J. H. and SINCLAIR, R., Exp.Math.,
14, nr.3 (2005), math.DG/0506189
SCHWARZSCHILD, K.; Uber das Gravitationsfeld
eines Massenpunktes nach der Einstein’schen Theorie, Sitzungsberichte der Preussischen Akademie
der Wissenschaften. Physikalisch-mathematische
Interciência
& Sociedade
25
FRANCHI, C. M. G. G.; BORGES, M. F. N.
klasse, Reimer, Berlin, S., V. 3, p.189-196, 1916.
357-381, 1982.
SILVA, P. M. G. L. T.; Uma Descrição da Expansão e
Aceleração do Universo no Contexto das Teorias
F(R), Joinvile, SC, 2012.
VULCANOV, D. N.; Numerical simulations with Ricci
flow on surfaces: A review and some recent results,
Physics AUC, Vol. 18, p. 120-129, 2008.
THURSTON, W. P.; Three-dimensional manifolds,
Kleinian groups and hyperbolic geometry, Bulletin of
the American Mathematical Society, Lancaster, Pa.,
US: American Mathematical Society, V. 6, n. 3, p.
WHEELER, J. A.; Our Universe: the Know and the
unknow; The Physics Teacher, College Park, Md., US:
American Association of Physics Teachers, V. 7, n.
1, p. 24, 1969.
Claudia Maria Gregorini Gonçalves Franchi é graduada em Matemática (Licenciatura) pelo Centro Universitário
de São José do Rio Preto - UNIRP. Pós Graduada (Lato Sensu) em Física pela Universidade Federal de Lavras
- UFLA. Mestranda em Ciências da Computação pela Universidade Estadual Paulista - UNESP, na área de Matemática Computacional. Atualmente é professora na União das faculdades dos Grandes Lagos - UNILAGO, e no
Colégio Futuro. Áreas de atuação: Matemática, Cálculo Diferencial, Cálculo Tensorial, Estatística, Física, Física-Matemática, Computação e Radiologia.
Manoel Ferreira Borges Neto é graduado em Física pela Universidade de Brasília (UnB), Doutorado em Matemática pelo “Kings College - University of London” e Pós-doutorado pelo “Department of Mathematics and Applied
Mathematics - University of Cape Town (UCT)”. Professor titular da Universidade Estadual Paulista (UNESP).
Membro da “International Association of Mathematical Physics (IAMP)”. Membro e revisor da “American Mathematical Society (AMS)”. Membro da “European Society of Computational Methods in Sciences and Engineering
(ESCMSE)”. Co-fundador e membro permanente do “World Peace and Diplomacy Forum (WPDF)”, Cambridge.
Vasta experiência na área de matemática e matemática aplicada atuando principalmente nos temas: i) Geometrias
Hipercomplexas; ii) Aspectos geométricos da Física-Matemática, notadamente das Teorias Alternativas da Gravitação, e suas relações com Variedades Topológicas; iii) Criptografia e Computação Quântica.
26
Interciência
& Sociedade
DESENVOLVIMENTO DE UM SISTEMA PARA NAVEGAÇÃO DE ROBÔS MÓVEIS POR CAMINHOS EM PLANTAÇÕES
JODAS, Danilo Samuel
Universidade Estadual Paulista “Julio de Mesquita Filho” (UNESP)
[email protected]
MARRANGHELLO, Norian
Universidade Estadual Paulista “Julio de Mesquita Filho” (UNESP)
[email protected]
PEREIRA, Aledir Silveira
Universidade Estadual Paulista “Julio de Mesquita Filho” (UNESP)
[email protected]
GUIDO, Rodrigo Capobianco
Universidade Estadual Paulista “Julio de Mesquita Filho” (UNESP)
[email protected]
RESUMO: A utilização de robôs móveis na agricultura mostra-se importante em tarefas de cultivo e na
aplicação de agrotóxicos em quantidades mínimas para reduzir a poluição do meio ambiente. Neste artigo apresentamos o desenvolvimento de um sistema para controlar a navegação de um robô móvel autônomo por caminhos em plantações. O controle da direção do robô é realizado com base em imagens
das trilhas as quais, após um processamento prévio, para extração de características, são submetidas
a uma máquina de vetores de suporte para a definição da rota a ser seguida. O objetivo do projeto no
qual este trabalho se insere é o controle do robô em tempo real, para tanto, o sistema será embarcado
em hardware. Neste trabalho, relata-se a implementação de uma máquina de vetores de suporte a qual
apresentou uma precisão em torno de 93% da rota adequada.
PALAVRAS-CHAVE: robótica móvel, processamento de imagens, redes neurais artificiais, máquinas
de vetores de suporte.
ABSTRACT: TThe use of mobile robots in the agriculture turns out to be interesting in tasks of cultivation and application of pesticides in minute quantities to reduce environmental pollution. In this paper we
present the development of a system to control an autonomous mobile robot navigation through tracks
in plantations. Track images are used to control robot direction by preprocessing them to extract image
features, and then submitting such characteristic features to a support vector machine to find out the
most appropriate route. As the overall goal of the project to which this work is connected is the robot
control in real time, the system will be embedded onto a hardware platform. However, in this paper we
report the software implementation of a support vector machine, which so far presented around 93%
accuracy in predicting the appropriate route.
KEYWORDS: mobile robotics, image processing, artificial neural network, support vector machine.
1. INTRODUÇÃO
Nos últimos anos, houve um aumento significativo da utilização de robôs
móveis em diversas áreas, tais como exploração espacial e operações de resgate.
Esse aumento se deve à execução de atividades em locais de difícil acesso ou em
situações que podem ocasionar riscos aos
seres humanos.
O surgimento de algoritmos inteligentes foi um fator que contribuiu significativamente para o avanço da robótica móvel
devido a possibilidade de criação de agentes inteligentes que atuem de forma autônoma e confiável na execução de atividades para os quais foram projetados, sem
a intervenção de um especialista humano.
Interciência
& Sociedade
27
JODAS, D. S.; PEREIRA, A. S.; GUIDO, R. C.
Grande parte dos trabalhos desenvolvidos
em robótica móvel abrange a utilização de
redes neurais artificiais como sistemas inteligentes, as quais determinam uma saída
baseando-se nos dados de entrada do ambiente externo, sendo estes capturados por
algum tipo de sensor. Esses dados de saída são utilizados para realizar algum tipo de
controle do agente móvel.
A combinação de algoritmos inteligentes com visão computacional tem proporcionado bons resultados em aplicações
onde robôs móveis necessitam de um mapeamento do ambiente de atuação, com o
intuito de evitar colisão com outros objetos
ou determinar a direção para um local. Neste caso, as imagens são capturadas por
uma câmera de vídeo e são utilizadas por
algoritmos de pré-processamento e segmentação para extração das características
relevantes da imagem, sendo estas utilizadas como dados de entrada pelos algoritmos inteligentes para a determinação de
uma saída.
O surgimento de processadores
com maior capacidade computacional também teve importância nesse cenário, já que
a execução dessas tarefas necessitam de
respostas em tempo real para garantir a
viabilidade da implementação em hardware
dos algoritmos computacionais de controle
do robô móvel. Dispositivos FPGA (Field
Programmable Gate Array) também são utilizados na implementação de robôs móveis
devido à possibilidade de reconfiguração da
sua estrutura interna de dispositivos lógicos,
podendo isto pode melhorar significativamente o desempenho na execução das ati-
vidades do robô móvel devido a adaptação
do hardware para um algoritmo específico.
2. Objetivos
O objetivo deste trabalho é apresentar um sistema de navegação baseado
em algoritmos de processamento de imagens e máquinas de vetores de suporte,
o qual será posteriormente implementado
em hardware, para garantir a dirigibilidade
de um robô móvel por caminhos de plantações. O sistema de navegação é utilizado
para manter o robô na trilha da plantação e
controlar sua direção baseando-se em imagens do terreno, as quais são utilizadas por
algoritmos de processamento de imagens
que são aplicados para a melhoria da qualidade da imagem e na extração das características do caminho. O caminho identificado
é utilizado por uma máquina de vetores de
suporte para a determinação do ângulo de
direção do robô móvel.
O desenvolvimento do sistema de
navegação é direcionado para a agricultura.
Além desta atividade, outras serão aplicadas neste cenário, tais como a detecção de
pragas em plantações e controle da aplicação de agrotóxicos para erradicá-las. Portanto, o controle de navegação é um elemento essencial para o sucesso das outras
atividades.
3. Método desenvolvido
Na figura 1 é mostrado o diagrama
de funcionamento do sistema de navegação proposto.
Módulo de processamento de
imagem
pré-processamento
Módulo de reconhecimento
segmentação
Máquina de Vetor de Suporte
esqueletização
translação
Figura 1: Diagrama de funcionamento do sistema de navegação.
28
Interciência
& Sociedade
Desenvolvimento de um sistema para navegação de robôs móveis por caminhos em
plantações
No módulo de processamento de
imagens são aplicadas técnicas para melhoria da qualidade da imagem e extração
do caminho da plantação. No submódulo
de pré-processamento é aplicado um filtro
de suavização para a eliminação dos ruídos
presentes na imagem. No submódulo de
segmentação é feita a separação do caminho da área da plantação e a esqueletização do caminho identificado. No submódulo
de translação é feito o deslocamento do caminho identificado para o centro da imagem
com o objetivo de padronizar a representação dos dados para o módulo de reconhecimento.
O módulo de reconhecimento é
composto por uma máquina de vetores de
suporte, a qual recebe os pixels da imagem
resultante do módulo de processamento de
imagens e determina uma saída que representa o ângulo de direção para o padrão de
pixels apresentado. O uso de uma máquina de vetores de suporte se deve ao baixo
tempo de treinamento e a capacidade de
generalização semelhante ao perceptron de
múltiplas camadas.
O sistema de navegação foi desenvolvido em software para realização de
testes iniciais. O desenvolvimento dos algo-
ritmos de processamento das imagens foi
realizado na linguagem de programação
C em conjunto com a biblioteca OpenCV
(Open Computer Vision Library). O desenvolvimento do algoritmo da máquina de vetores de suporte também foi realizado na
linguagem de programação C.
Para a realização dos testes, formou-se um banco de imagens composto
por imagens de plantações de amendoim
e soja, as quais foram adquiridas por uma
câmera digital Kodak, modelo M531, sob diversas condições de iluminação. O banco
é composto por 1186 imagens, sendo 570
imagens de amendoim e 616 imagens de
soja. Cada imagem foi redimensionada à
uma resolução de 300x225 pixels para diminuir o tempo de execução dos algoritmos
de pré-processamento e segmentação.
As imagens do banco foram submetidas a ruídos, procedimento efetuado
com as funções da biblioteca OpenCV, para
a realização de testes com técnicas de suavização. A filtragem mediana foi utilizada
para remover os ruídos presentes na imagem. Na figura 2 (b) é visualizado o resultado da filtragem mediana com uma máscara
7x7 em uma imagem submetida a ruído.
a)
b)
Figura 2: a) imagem submetida a ruídos b) resultado da aplicação da filtragem mediana.
Interciência
& Sociedade
29
JODAS, D. S.; PEREIRA, A. S.; GUIDO, R. C.
A segmentação consiste em obter
uma imagem binária onde a área verde, a
qual corresponde à plantação, é representada pela cor branca e a área correspondente ao caminho é representada pela cor
preta. O modelo de cor HSV foi utilizado
para identificação da área verde correspondente à plantação. No HSV, a imagem é representada por três componentes:
• Hue (Matiz): Representando a cor
pura;
• Saturation (Saturação): Representando o grau de diluição da cor pura
por luz branca;
• Value (Valor): Representando o
a)
contraste da imagem;
A vantagem em utilizar o modelo
de cor HSV é a separação da informação
de cor da informação de intensidade. Uma
deficiência do uso desta abordagem pode
surgir quando uma imagem possui sombras. Uma sombra é uma região escura na
imagem formada pelo bloqueio da iluminação por um objeto. Sombras podem prejudicar a segmentação de uma imagem devido
à semelhança com regiões escuras pertencentes às áreas de interesse ou por serem
processadas como extensão de um objeto
presente na imagem. Na figura 3 é ilustrada a incorreta identificação do caminho da
plantação em uma imagem com sombras.
b)
c)
Figura 3: a) imagem com sombras b) componente matiz c) identificação incorreta do caminho da plantação.
É possível notar na figura 3 (c) a
identificação parcial do caminho da plantação. Isto se deve ao fato da região da sombra ser processada como parte integrante
da área da plantação, como pode ser observado na figura 3 (b), devido a semelhança
com a trilha da plantação esquerda. Portanto, a região correspondente à sombra,
quando representada no componente matiz, possui os mesmos valores do intervalo
considerado para identificação da área da
plantação. Diante desta dificuldade, é necessário que sombras sejam identificadas e
desconsideradas no procedimento de extração do caminho. A abordagem utilizada neste trabalho é a obtenção de uma imagem
com valores de pixels no espaço logarítmico, denominada imagem do espaço log-cromático, a qual é invariante a iluminação
30
e livre de sombras (FINLAYSON, 2004). O
método pode ser escrito conforme a equação 1, a qual é utilizada para obter uma imagem no espaço log-cromático (XU, 2006).
r
b
inv = cos(è ).ln  + sin (è ).ln 
g
g
(1)
Na equação 1, [r,g,b] são os valores de cores da imagem no modelo RGB e
Θ é a direção de projeção da sombra. Esta
equação segue um princípio que diz que
uma imagem no modelo de cor RGB pode
ser convertida em uma imagem em nível de
cinza a qual representa apenas a propriedade de refletância (FINLAYSON, 2004). Na
figura 4 (b) é exibido o resultado da aplicação da equação 1 sobre uma imagem com
sombra.
Interciência
& Sociedade
Desenvolvimento de um sistema para navegação de robôs móveis por caminhos em
plantações
a)
b)
c)
Figura 4: a) imagem com sombra b) imagem invariante a iluminação c) imagem invariante a iluminação
binarizada.
É possível perceber na figura 4 (b)
que os efeitos da sombra foram minimizados no caminho da plantação. A imagem
invariante à sombras foi submetida ao processo de binarização, conforme é mostrado
na figura 4 (c), onde foi possível identificar a
área da plantação pela cor preta e o caminho pela cor branca. A imagem invariante a
iluminação binarizada é utilizada juntamente
com o componente matiz para gerar a imagem com o caminho extraído. A condição a
ser satisfeita para que o caminho seja identificado corretamente é quando os valores
de pixels no componente matiz estiverem
entre 60º e 180º e os valores dos pixels correspondentes na imagem invariante a iluminação for igual à 0 (preto). Desta maneira,
a região do caminho referente à sombra no
componente matiz não é identificada como
área da plantação, pois nesta situação a
condição mencionada resulta em um valor
lógico falso. Como a imagem invariante à
sombras foi suficiente para a identificação
do caminho, não foi necessário eliminar as
sombras da imagem original.
A operação morfológica de fechamento (GONZALEZ, 2000, p. 373) foi utilizada para suavizar as bordas do caminho
identificado, eliminar pequenos buracos na
imagem e eliminar pequenos istmos com
a trilha adjacente, os quais são gerados
devido a falhas na plantação. Este procedimento auxilia na melhor representação
do esqueleto do caminho, minimizando os
efeitos de proeminências que podem ser
gerados devido a irregularidades nas bordas da imagem. Na figura 5 (b) é ilustrada a
operação de fechamento sobre o resultado
da segmentação do caminho da figura 5 (a)
utilizando um elemento estruturante em forma de elipse de dimensões 20x20. Foram
utilizadas 20 iterações do fechamento sobre
a imagem segmentada para obter mais suavização das bordas. A definição do elemento estruturante e do número de iterações foi
feita empiricamente mediante vários testes.
a)
b)
Figura 5: . a) imagem segmentada b) resultado do fechamento.
Interciência
& Sociedade
31
JODAS, D. S.; PEREIRA, A. S.; GUIDO, R. C.
Devido ao posicionamento da câmera no terreno, é possível que hajam na
imagem capturada caminhos adjacentes a
trilha principal. A eliminação desses caminhos reduz a quantidade de informações a
ser transmitida para a máquina de vetores
de suporte. Para a eliminação desses caminhos, foi utilizado o algoritmo de crescimento de regiões por agregação de pixels
(GONZALEZ, 2000, p. 326). O algoritmo
inicia com a seleção de pixels “sementes”,
sendo que a condição de escolha são os pixels com menor nível de cinza, ou seja, em
uma imagem binária são pixels que tenham
a cor preta. Esse nível de cinza pertence
aos caminhos identificados na imagem.
Em uma imagem com três caminhos identificados, é possível selecionar três pixels
sementes, um para cada caminho. O procedimento de crescimento de regiões é rea-
lizado e, simultaneamente a este processo,
é feita a contagem de pixels pertencentes
a cada região. Cada região é rotulada com
um valor inteiro e ao final do processo é
possível determinar qual região – caminho
da imagem – possui a maior quantidade de
pixels, sendo que este caminho é o que prevalecerá na imagem. Os outros caminhos
são eliminados mediante a alteração dos
seus valores de níveis de cinza para branco. Na figura 6 é ilustrado o resultado deste
processo em uma imagem com dois caminhos. Na imagem mostrada na figura 6 (a),
os caminhos são representados pela cor
preta, sendo possível notar que o caminho
da direita é o que possui a maior quantidade
de pixels em relação ao caminho adjacente.
Na imagem da figura 6 (b) o caminho adjacente foi eliminado.
a)
b)
Figura 6: a) imagem com dois caminhos, representados pela cor preta b) Imagem com caminhos adjacentes eliminados
A próxima etapa foi o afinamento
do caminho identificado (ZHANG e SUEN,
1984). O objetivo da obtenção do esqueleto
da imagem é reduzir a quantidade de informações do caminho identificado a serem
passadas para a máquina de vetores de suporte, reduzindo assim a sua complexidade.
Na figura 7 (a) é ilustrado o processo de afinamento em uma imagem de plantação já
segmentada.
O caminho extraído da imagem de
uma plantação pode estar sujeito à deslocamentos devido ao posicionamento da câmera. Isto pode ocasionar dificuldades no
reconhecimento da direção, pois cada deslocamento é classificado pela máquina de
vetores de suporte em um ângulo diferen32
te, mesmo que tenham ângulos idênticos.
Portanto, o reconhecimento da direção do
esqueleto deve ser independente do seu
deslocamento na imagem. Neste trabalho
foi utilizado o algoritmo de invariância à
translação (YÜCCER e OFLAZER, 1993),
o qual é utilizado para calcular o centro do
objeto na imagem e fazer com que ele coincida com o centro da imagem. O centro do
objeto é obtido pela média das coordenadas (x,y) que contêm pixels brancos e é representada pelas equações 2 e 3.
x av =
1
M
N
∑∑
i=1 j= 1
Interciência
& Sociedade
M
N
∑∑ f (x , y ).x
f (xi , y j ) i=1
j= 1
i
j
i
(2)
Desenvolvimento de um sistema para navegação de robôs móveis por caminhos em
plantações
y av =
1
M
M
N
∑∑ f (x , y )
i=1 j= 1
i
j
f t ( xi , y i ) = ((M / 2 ) − Xav, ( N / 2 ) − Yav ) (4)
N
∑∑ f (x , y ). y
i=1 j= 1
i
j
j
(3)
onde f(x, y) é a intensidade de
cinza nas coordenadas (x,y), M e N representam as quantidades de linhas e colunas
da imagem, respectivamente. A função de
mapeamento dos pixels do objeto para o
centro da imagem é realizada mediante a
equação 4.
onde M e N representam as quantidades de linhas e colunas da imagem,
respectivamente. O procedimento consiste
em calcular a diferença entre o centro (Xav,
Yav) do objeto – neste caso o esqueleto e o centro (x,y) da imagem e utilizar esta
diferença para deslocar os pixels do objeto
para o centro da imagem. Na figura 7 (b) é
ilustrado este procedimento.
a)
b)
Figura 7: a) imagem com esqueleto deslocado do centro b) esqueleto centralizado
A imagem esqueletizada, com seu
esqueleto centralizado por meio das equações 2, 3 e 4, foi transformada em um vetor
de 690 elementos, os quais representam os
pixels da imagem. O vetor de elementos é
utilizado como entrada para uma SVM (Support Vector Machine), a qual é utilizada para
determinar a direção de navegação do robô
móvel. Foram estabelecidos 19 ângulos de
direção, representados no intervalo de -45º
a 45º, com intervalos de 5º de discretização.
Máquinas de vetores de suporte permitem
a classificação de padrões em duas classes separadas por um hiperplano de decisão. A construção de um hiperplano ótimo
como superfície de decisão é fundamental
para que a separação entre os exemplos
seja máxima, sendo esta tarefa realizada
na etapa de treinamento da SVM. Foi utilizada uma máquina de vetores de suporte
para classificar as imagens de entrada em
um padrão de direção. A topologia da SVM
é composta de 690 elementos de entrada,
71 elementos intermediários e 1 elemento
de saída. O número de elementos intermediários foi determinado de acordo com a
quantidade de exemplos utilizados no treinamento. Em cada elemento intermediário
foram utilizadas duas funções de kernel, as
quais são apresentadas na tabela 1.
Tabela 1. Núcleos do produto interno utilizados em SVM.
Tipo
Função do núcleo
Núcleo de função de base radial
Hardware Friendly Kernel
2
 -1
exp 2 x − y 
 2ó

2
− ã x− y 1
Interciência
& Sociedade
33
JODAS, D. S.; PEREIRA, A. S.; GUIDO, R. C.
O primeiro kernel apresentado na
tabela 1 é uma função gaussiana, onde x
é o vetor de entrada, y é o valor do vetor
de suporte e γ é o valor que determina a
largura da curva gaussiana. A segunda função de kernel apresentada na tabela 1, denominada Hardware Friendly Kernel, foi desenvolvida para reduzir a complexidade de
implementação em hardware de funções de
kernel de SVM (ANGUITA, D. et al, 2006).
O uso deste kernel é mais apropriado para
implementação em hardware do que o kernel de função de base radial, pois evita o
cálculo de divisões e exponenciais. Desta
maneira, o kernel Hardware Friendly torna-se mais rápido no treinamento e no reconhecimento de padrões. O parâmetro γ é
um valor inteiro definido como uma potência
de dois, isto é, γ= 2±p, com p = 0, 1, 2,...,Z.
A norma da distância entre os exemplos de
entrada x e os vetores de suporte y é representada como ||x – y||. O uso da norma ao
invés da distância euclidiana evita o cálculo
da raiz quadrada e da exponencial, tornando a implementação em hardware menos
complexa.
No elemento de saída é apresentado um valor real o qual é o ângulo de direção classificado pela SVM.
4. Experimentos
Os testes foram realizados com
imagens de amendoim e soja. Foram realizados três testes com Máquina de Vetores
de Suporte, cada um utilizando uma abordagem diferente. As funções de kernel utilizadas nas SVMs foram a de base radial e o
hardware-friendly kernel. O valor escolhido
para o parâmetro γ, do hardware-friendly
kernel, foi 0.0625, correspondente à 2-4. A
escolha do valor de γ foi feita empiricamente por meio de testes. Em cada teste, foram
consideradas as seguintes informações:
• Quantidade de acertos exatos
• Quantidade de acertos aproximados
• Erros
• magens não classificadas
• Percentual de acerto
Os acertos exatos indicam a quan-
34
tidade de imagens onde os ângulos de direção desejado e calculado pela SVM coincidiram exatamente. Os acertos aproximados
indicam a quantidade de imagens onde os
ângulos de direção desejado e calculado
pela SVM tiveram uma diferença de 5º. Os
erros representam a quantidade de imagens que tiveram uma diferença de 10º ou
mais entre o ângulo desejado e o calculado
pela SVM. O percentual de acerto no reconhecimento foi calculado considerando os
acertos exatos e aproximados. Os acertos
aproximados foram considerados devido à
semelhança dos esqueletos que possuem
ângulos com 5º de diferença, fazendo com
que a SVM classifique uma imagem com
a informação aproximada do ângulo. A tolerância pode ser aceitável se o tempo de
processamento for baixo o suficiente para
evitar que a próxima saída seja feita após
uma longa distância percorrida pelo robô
móvel, podendo isto minimizar a diferença
de distância fora da rota.
A determinação dos parâmetros
de treinamento da máquina de vetores de
suporte foi feita utilizando a transformada
de Hough (GONZALEZ, 2000, p. 308) e o
método dos mínimos quadrados. O primeiro método consiste em transformar as retas
da imagem representadas no espaço (x,y)
para o espaço de parâmetros (ρ,θ), onde ρ
é a distância da reta em relação à coordenada (0,0) e θ representa o ângulo de inclinação da reta. Portanto, o valor de θ é associado à imagem e utilizado como referência
no aprendizado supervisionado da máquina
de vetores de suporte. O segundo método
consiste em obter os parâmetros da equação da reta que melhor se ajustam a uma
amostra de pontos. A equação da reta é representada por α.x + b, onde α é o ângulo
de inclinação da reta e b representa o deslocamento da reta em relação ao eixo y. Os
pontos da amostra são representados pelas
coordenadas dos pixels que compõem o
esqueleto do caminho identificado e o valor obtido para o parâmetro α é utilizado no
treinamento da máquina de vetores de suporte. Entretanto, a transformada de Hough e método dos mínimos quadrados foram
utilizados apenas na etapa de treinamento
e não são técnicas integrantes do sistema
de navegação, pois em tempo de execução
Interciência
& Sociedade
Desenvolvimento de um sistema para navegação de robôs móveis por caminhos em
plantações
a SVM, após ter sido treinada, deve ser capaz de reconhecer o ângulo de direção de
novas imagens que não foram utilizadas na
etapa de treinamento.
4.1. Primeiro teste
O primeiro teste foi realizado com
1186 imagens, todas pertencentes ao banco de imagens de plantações. Foram utilizadas 800 imagens para treinamento, sendo
400 imagens de amendoim e 400 de soja,
e 386 imagens para verificação, sendo 170
imagens de amendoim e 216 imagens de
soja. Foram utilizadas 19 SVMs para classificação, sendo todas compostas por 690
elementos de entrada, 800 elementos intermediários e 1 elemento de saída. O número
de elementos intermediários foi determinado de acordo com o número de exemplos
utilizados no treinamento. Os exemplos de
treinamento foram apresentados para cada
SVM, inclusive a saída desejada. O ângulo
de direção foi determinado pela SVM que
apresentou saída 1. Na tabela 2 são apresentados os resultados obtidos neste primeiro teste para cada kernel usado no treinamento e reconhecimento da SVM.
Tabela 2. Estatísticas do reconhecimento do primeiro teste.
Função de base radial
Hardware Friendly Kernel
Acertos exatos
260
262
Acertos aproximados
20
22
Erros
4
5
Imagens não classificadas
102
97
Percentual de acerto
72,5%
73,6%
Os resultados obtidos dos kernels
de função de base radial e do Hardware-Friendly forem equivalentes. O fator prejudicial neste teste foi a quantidade de imagens
que não foram classificadas. Essa situação
ocorre quando a saída das 19 SVMs é -1,
fato que ocorre devido a imagem apresentada não ter sido reconhecida em nenhum
ângulo de direção. A quantidade insuficiente
de imagens de treinamento para um determinado ângulo de direção foi um fator que
contribui para que algumas imagens apresentadas às SVMs não pudessem ser classificadas.
4.2. Segundo teste
A implementação em hardware de
19 SVMs pode não ser possível devido a
grande quantidade de elementos de processamento que pode exceder a capacidade de armazenamento do hardware. Cada
SVM possui 690 elementos de entrada,
800 elementos intermediários e 1 elemento de saída, totalizando 1.491 elementos
de processamento, sendo que a utilização
de 19 SVMs totalizará 28.329 elementos
de processamento a serem implementados
em hardware. Diante disso, foi estudado a
possibilidade de implementação de apenas
uma SVM que classifique todos os padrões
de direção. Além de diminuir consideravelmente o espaço para síntese da SVM em
hardware, o resultado da classificação foi
melhor em relação ao teste anterior devido
às imagens não classificadas terem sido reconhecidas como acertos exatos ou aproximados. Entretanto, a quantidade de erros
também pode aumentar devido a saída da
SVM estar sujeita a erros.
Neste teste foi utilizada apenas
uma SVM com 690 elementos de entrada,
800 elementos intermediários e 1 elemento
de saída, o qual possui saída entre -45 a
45, ao invés de 1 ou -1. Os resultados foram melhores em relação ao teste anterior,
conforme pode ser visto na tabela 3. Apesar da quantidade de erros ter aumentado
boa parte das imagens que não haviam sido
classificadas anteriormente foram classificadas com a tolerância de 5º de diferença,
ocasionando um aumento na quantidade de
acertos aproximados e consequentemente
no percentual de acerto.
Interciência
& Sociedade
35
JODAS, D. S.; PEREIRA, A. S.; GUIDO, R. C.
Tabela 3. Estatísticas do reconhecimento para o segundo teste.
Hardware Friendly Kernel
Função de base radial
Acertos exatos
238
216
Acertos aproximados
118
141
30
29
Erros
Imagens não classificadas
Percentual de acerto
4.3. Terceiro teste
O uso de 800 imagens de treinamento gera 800 vetores de suporte e 800
pesos para compor os parâmetros de reconhecimento da SVM. Sendo cada vetor
de suporte representado por uma imagem
de treinamento de 690 pixels de 1 byte, então são necessários 552.000 bytes ou 539
kbytes de memória para armazenamento
de tais parâmetros, os quais podem não ser
suportados pela memória interna de determinados modelos de dispositivos de FPGA.
Além disso, a utilização de um grande número de imagens de treinamento pode di-
0
0
92,2%
92,5%
minuir a capacidade de generalização no
reconhecimento pela SVM. Diante disso,
neste teste foram utilizadas 71 imagens de
treinamento e 1057 imagens de verificação,
todas pertencentes ao banco de imagens
de plantações. Desta maneira, a SVM ficou
composta por 690 elementos de entrada,
71 elementos intermediários e 1 elemento
de saída. Foram removidas 58 imagens do
banco inadequadas para teste. A redução
do número de imagens de treinamento permite, além de solucionar o problema de limitação do FPGA, aumentar a capacidade de
generalização no reconhecimento da SVM.
Os resultados podem ser vistos na tabela 4.
Tabela 4. Estatísticas do reconhecimento para o terceiro teste.
Função de base radial
Hardware Friendly Kernel
Acertos exatos
776
810
Acertos aproximados
197
175
Erros
84
72
Imagens não classificadas
0
0
Percentual de acerto
92,05%
93,19%
Devido ao aumento no número
de imagens de teste, o número de acertos
aproximados e erros também aumentou.
Entretanto, nota-se que houve uma pequena diferença no percentual de acerto em
relação ao teste anterior, principalmente no
percentual de acerto do segundo kernel.
Além disso, os resultados obtidos por meio
do hardware-friendly kernel neste teste foram melhores em relação ao kernel de função de base radial. O armazenamento em
hardware diminui significativamente com
a redução do número de imagens de treinamento, pois são necessários apenas 48
kbytes para armazenamento dos vetores de
suporte e dos pesos.
36
4.4. Análise de desempenho
Os testes foram realizados em
computador com 4 Gibabytes de memória
RAM e um processador Intel Dual Core de
2200 Mhz. O tempo de execução de cada
função de kernel para o treinamento e reconhecimento da SVM é apresentado no
gráfico da figura 8. O kernel HFK (Hardware
Friendly Kernel) apresentou um tempo de
execução duas vezes mais rápido que o
kernel RBF (Radial Basis Function) e, além
disso, foi o kernel que apresentou melhores resultados no último teste. Independentemente da função de kernel utilizada, o
uso de SVM mostra-se mais vantajoso em
Interciência
& Sociedade
Desenvolvimento de um sistema para navegação de robôs móveis por caminhos em
plantações
relação ao tempo de treinamento do que
redes neurais artificiais do tipo perceptron
de múltiplas camadas, já que na SVM não
há ciclos de retropropagação de erro como
ocorre neste tipo de rede neural artificial.
2
Isto possibilita a implementação de treinamento on-line para agregar a classificação
de novos padrões em diferentes campos de
plantações.
Tempo de execução da SVM
Tempo (em segundos)
1,8
1,6
1,4
1,2
Treinamento
1
Reconhecimento
0,8
0,6
0,4
0,2
0
HFK
Tempo (em milisegundos)
3,0
RBF
Tempo de execução por imagem
2,5
2,0
Treinamento
1,5
Reconhecimento
1,0
0,5
0,0
HFK
RBF
Figura 8: a) tempo de execução médio b) tempo de execução por imagem.
5. CONCLUSÕES
Neste trabalho foi apresentado um
sistema de navegação para dirigibilidade
de robôs móveis por caminhos em plantações, baseado em visão computacional e
máquinas de vetores de suporte, além das
etapas do desenvolvimento do sistema e os
resultados obtidos por meio dos testes em
software. O principal objetivo do trabalho
foi obter um percentual de acerto superior
a 90% utilizando uma pequena quantidade
de informações da imagem, isto é, apenas o
esqueleto do caminho da plantação.
A maior dificuldade enfrentada
nesta etapa do trabalho foi atingir um percentual de acerto exato no reconhecimento,
fato este que ocorre devido a semelhança
dos esqueletos que possuem valores próximos de ângulos. Entretanto, verificou-se
que o reconhecimento para a maioria das
imagens diferiu 5º em relação ao ângulo
desejado, sendo que isto permitiu verificar a possibilidade de considerar o acerto
aproximado por meio da análise da diferença da rota desejada. Verificou-se que uma
diferença de 5º no reconhecimento causa
7 centímetros de desvio em relação à rota
correta de navegação. Portanto, o tempo
de execução do algoritmo deve ser rápido o
Interciência
& Sociedade
37
JODAS, D. S.; PEREIRA, A. S.; GUIDO, R. C.
suficiente para que essa aproximação seja
considerada e permitir taxas de atualização
do ângulo de navegação a distâncias menores.
6. REFERÊNCIAS BIBLIOGRÁFICAS
ANGUITA, D. et al. Feed-Forward Support Vector
Machine Without Multipliers. IEEE Transactions on
Neural Networks, volume 17, nº 5, pp. 1328-1331,
setembro de 2006
FINLAYSON, G. D.; DREW, M. S.; CHENG, L. Intrinsic Images by Entropy Minimization. European Conference on Computer Vision, pp. 582-595, de 2004
GONZALEZ, R. C. ; WOODS, R. E. Processamento de imagens digitais. Edgar Blücher, São Paulo,
2000
HEARST, M. Support Vector Machines. IEEE Intelligent Systems, pp. 18-21, julho e agosto de 2008
MARQUES FILHO, O.; VIEIRA NETO, H. Processamento digital de imagens. Brasport, Rio de Janeiro,
1999
XU, L.; QI, F.; JIANG, R. Shadow Removal from a
Single Image. Proceedings of the Sixth International Conference on Intelligent Systems Design and
Applications, volume 2, pp. 1049-1054, outubro de
2006
YÜCEER, C. OFLAZER, K. A rotation, scaling, and
translation invariant pattern classification system.
Journal of Pattern Recognition, volume 26, nº 5, pp.
687-710, maio de 1993
ZHANG, T. Y.; SUEN, C. Y. A fast parallel algorithm
for thinning digital patterns. Communications of the
ACM, volume 27, nº 3, pp. 236-239, Março de 1984
HAYKIN, S. Redes Neurais: Princípios e prática.
Bookman, Porto Alegre, 2001
Danilo Samuel Jodas possui graduação em Ciência da Computação pelo Centro Universitário do Norte Paulista e
atualmente é aluno do Programa de Pós Graduação em Ciência da Computação do Instituto de Biociências, Letras
e Exatas de São José do Rio Preto. Tem experiência na área de Ciência da Computação, com ênfase em Processamento Digital de Imagens, e atua nos seguintes temas: processamento de imagens, reconhecimento de padrões
e computação reconfigurável. Atualmente trabalha em pesquisa direcionada ao reconhecimento de padrões para
a robótica móvel.
Norian Marranghello possui graduação em Engenharia Eletrônica pela Pontifícia Universidade Católica do Rio
Grande do Sul (1982), mestrado em Engenharia Elétrica pela Universidade Estadual de Campinas (1987), doutorado em Engenharia Elétrica pela Universidade Estadual de Campinas (1992), é pós-doutorado em Sistemas
de Computação pela Universidade de Aarhus na Dinamarca (1998) e livre-docência em Sistemas Digitais pela
Universidade Estadual Paulista (1998). Atualmente é Professor Titular da Universidade Estadual Paulista. Tem
experiência nas áreas de Engenharia Elétrica e de Ciência da Computação, com ênfase em Sistemas Digitais,
atuando principalmente nos seguintes temas: sistemas digitais integráveis, modelagem e simulação de sistemas,
arquiteturas reconfiguráveis, redes de Petri e síntese de sistemas digitais.
Aledir Silveira Pereira possui graduação em Engenharia Elétrica pela Fundação Educacional de Barretos (1980),
mestrado em Engenharia Elétrica pela Universidade de São Paulo (1987) e doutorado em Física Aplicada Computacional pela Universidade de São Paulo (1995). Atualmente é professor assistente doutor da Universidade
Estadual Paulista Júlio de Mesquita Filho. Tem experiência na área de Ciência da Computação, com ênfase em
Processamento Digital de Imagens e Sistemas de Controle e Automação, atuando principalmente nos seguintes
temas: processamento de imagens, imagens médicas, controle e automação, ferramenta de software e ensino de
computação.
Rodrigo Capobianco Guido possui graduação em Ciência da Computação pela UNESP - câmpus de São José
do Rio Preto-SP e graduação em Engenharia de Computação pela Fundação Educacional de Votuporanga – FEV.
Obteve o grau de Mestre em Engenharia Elétrica pela Faculdade de Engenharia Elétrica e de Computacão da
UNICAMP, de Doutor em Física Aplicada Computacional pelo Instituto de Física de São Carlos da USP e o título de
Livre-docente na área de Processamento Digital de Sinais pelo Departamento de Engenharia Elétrica da Escola de
Engenharia de São Carlos da USP. Atua na área de processamento de sinais, especialmente com base na transformada wavelet associada com técnicas inteligentes para aprendizado de máquina e reconhecimento de padrões.
38
Interciência
& Sociedade
ANÁLISE DE FORMAS PLANAS EM IMAGENS DIGITAIS
SOUZA, Gustavo Botelho de
Universidade Estadual Paulista (UNESP)
[email protected]
MARANA, Aparecido Nilceu
Universidade Estadual Paulista (UNESP)
[email protected]
RESUMO: Com a difusão do uso dos computadores, o reconhecimento de padrões visuais tem sido
automatizado em especial para poder tratar a enorme quantidade de imagens digitais disponíveis.
Aplicações de diversas áreas utilizam técnicas de processamento de imagens bem como algoritmos de
extração de características e reconhecimento de padrões visuais a fim de identificar pessoas, facilitar o
diagnóstico de doenças, classificar objetos, etc. a partir de imagens digitais. Dentre as características
que podem ser analisadas nas imagens encontra-se a forma de objetos ou regiões. Em alguns casos
a forma é a única característica passível de análise com precisão. Este trabalho apresenta alguns dos
mais importantes métodos de análise de formas descritos na literatura e compara seus desempenhos
quando aplicados em três bases de dados públicas contendo imagens de formas. Por fim, propõe-se a
criação de um novo descritor de formas baseado na Transformada de Hough.
PALAVRAS-CHAVE: análise de formas; análise de imagens; transformada de Hough.
ABSTRACT: Given the widespread use of computers, the visual pattern recognition task has been automated in order to address the huge amount of available digital images. Many applications use image
processing techniques as well as feature extraction and visual pattern recognition algorithms in order to
identify people, to make the disease diagnosis process easier, to classify objects, etc. based on digital
images. Among the features that can be extracted and analyzed from images is the shape of objects or
regions. In some cases, shape is the unique feature that can be extracted with a relatively high accuracy
from the image. In this work we present some of most important shape analysis methods and compare
their performance when applied on three well-known shape image databases. Finally, we propose the
development of a new shape descriptor based on the Hough Transform.
KEYWORDS: shape analysis; image analysis; Hough transform.
INTRODUÇÃO
A habilidade que o ser humano
tem no trato com imagens é extremamente
grande. Desde seu surgimento, o homem
desenvolveu sistemas neurais altamente
sofisticados voltados à tarefa de “processamento de imagens” e “reconhecimento de
padrões visuais” (DUDA et al., 2000). Neste
sentido, com o surgimento dos computadores, pesquisadores e empresas de todo o
mundo voltaram suas expectativas à tentativa de mecanização do processo de captura,
melhoramento, extração de características
e reconhecimento de padrões a partir de
imagens digitais dada a grande variedade
de aplicações derivadas do trato automatizado das imagens.
Atualmente, diversas técnicas de
análise de imagens e hardwares mais eficientes e baratos estão disponíveis para a
construção de sistemas de visão computacional. Entretanto, os desempenhos dos
sistemas computacionais ainda estão distantes dos apresentados pelos sistemas
visuais biológicos (como o sistema visual
humano, por exemplo) em relação ao tratamento de imagens. Isto pode ser explicado
pelo fato de ainda não se ter compreendido
perfeita e completamente o processo de inteligência humana e pelo uso de processamento primordialmente serial.
Neste contexto, novas técnicas
de análise de imagens continuam surgindo
aprimorando as já existentes ou tratando os
problemas a partir de novas abordagens na
Interciência
& Sociedade
39
SOUZA, G. B.; MARANA, A. N.
tentativa de automatizar o processo de análise de imagens tipicamente realizado pelos
seres humanos. Hardwares mais rápidos
e eficientes também estão sendo criados.
Com tudo isso, as máquinas cada vez mais
se assemelham aos seres humanos em se
tratando do processo de reconhecimento
de padrões visuais e assim se tornam mais
úteis aos mesmos.
A análise de imagens pode se basear em várias características extraídas das
mesmas a fim de obter informações sobre
seus conteúdos. A forma de objetos ou regiões é uma das principais. Além de possuir
grande poder de distinção entre elementos
diferentes das imagens, em alguns casos a
forma é a única passível de extração e análise com precisão. Deste modo, a análise de
formas se configura como uma ferramenta
essencial ao reconhecimento de padrões
visuais nas imagens.
Neste artigo são apresentados
alguns dos mais importantes métodos de
análise de formas descritos na literatura especializada. Os desempenhos desses métodos são avaliados sobre três bases de dados contendo formas de objetos (silhuetas).
Ao final, é proposta a criação de um novo
descritor de formas (rápido e preciso) baseado na Transformada de Hough (DUDA e
HART,1972).
1. DEFINIÇÃO DE FORMA
Como dito, dentre as características que podem ser analisadas em uma
imagem a fim de descobrir informações sobre seu conteúdo encontra-se a forma de
objetos ou regiões da mesma.
Apesar de o ser humano lidar com
formas (e seu reconhecimento) a todo instante, a definição em termos matemáticos
do conceito “forma” (no caso deste trabalho,
planas) não é uma tarefa fácil.
De acordo com Costa e Júnior
(2000), uma forma pode ser entendida como
qualquer entidade visual singular. Em outras palavras, quando se menciona “forma”
faz-se alusão a um objeto como um todo,
um conjunto de pontos conectados (quer no
espaço discreto ou no contínuo).
Segundo Latecki e Lakämper
(2000), independente do método usado
40
na análise de formas, ele deve funcionar
como o nosso sistema de percepção visual. Isto significa que ele deve apresentar as
seguintes características: (i) a medida de
similaridade entre formas deve permitir o
reconhecimento de objetos visualmente similares, mesmo que não matematicamente
idênticos; (ii) deve abstrair distorções, como
ruídos da digitalização e erros de segmentação (localização e demarcação de estruturas na imagem); (iii) deve dar atenção à
partes visuais significantes dos objetos e
(iv) não deve depender da escala, orientação e posição dos objetos.
2. Descritores de formas
Os métodos de análise de formas
apresentados na literatura se baseiam em
diferentes propriedades a fim de representá-las e identificá-las. Dentre estas propriedades podemos citar: a área, a curvatura da
borda (contorno), a quantidade de concavidades, a posição dos seus pontos de borda,
dentre outras. A seguir são apresentados alguns descritores de formas tradicionais encontrados na literatura.
2.1. BAS (Beam Angle Statistics)
Um importante e eficiente descritor
de formas proposto por Árica e Vural (2003)
é o BAS (Beam Angle Statistics). O método
BAS se baseia na ideia da representação
do contorno de um objeto (que por natureza é uma função 2-D) através de uma função 1-D. Esta função 1-D deve representar
todas as concavidades e convexidades do
contorno do objeto com o mínimo de distorções.
Uma borda (contorno) B previamente segmentada, isto é, localizada e
demarcada na imagem sob análise, é representada por uma sequência de pontos
conectados pi=(xi,yi), onde i=1, 2, ..., N,
sendo N o número de pontos da borda e
pi=pi+N. Para cada ponto da borda pi, os
raios (beams) de pi podem ser representados pelo conjunto de vetores L(pi)={Vi+j,
Vi-j} onde Vi+j e Vi-j são os vetores posterior
e anterior que conectam pi aos pontos de
borda pi+j e pi-j, respectivamente, na borda
B, para j=1, 2, ..., N/2.
Interciência
& Sociedade
Análise de formas planas em imagens digitais
O ângulo entre o par de raios posterior (Vi+j) e anterior (Vi-j) de pi, fixado um
valor de j (valor inteiro entre 1 e N/2), é definido por Cj(i). A Figura 1 exibe o ângulo
C4(i), entre os raios de um ponto de borda
pi, obtido fixando-se o valor de j=4.
racterísticas da forma contém três valores
(os três momentos amostrados das funções
em uma certa posição).
Durante a fase de reconhecimento, o vetor de características da imagem
de teste é comparado com os vetores das
imagens da base de dados por meio do algoritmo OCS (Optimal Correspondent Subsequence) proposto por Wang e Pavlidis
(1990). A cada forma da base de dados é
associada uma distância em relação à forma de teste com base na comparação de
seus vetores de características. A forma de
teste é então classificada como sendo da
mesma classe da imagem da base de dados que apresentou a menor distância, ou
seja, da mesma classe da imagem da base
de dados mais similar (com vetor de características mais parecido).
Figura 1: Ângulo C4(i) entre o par de raios Vi-4
e Vi+4 (ou seja, j=4) do ponto p(i) (ou ainda pi)
(FALGUERA e MARANA, 2008).
2.2. Dimensão Fractal Multiescala
O processo de encontrar os ângulos Cj(i) entre cada par de raios L(pi)={Vi+j,
Vi-j} associados a pi e com j=1, 2, ..., N/2
é realizado para todos os pontos da borda
da forma. A partir do conjunto de ângulos
encontrados e associados a cada ponto pi
da borda calcula-se os três primeiros momentos (média, desvio padrão e momento
de ordem 3) dos valores dos mesmos e
associa-se ao ponto pi, não mais o conjunto
de ângulos Cj(i), mas sim estes três valores de momentos, calculados com base no
conjunto.
Dado um ponto de referência da
borda da forma e percorrendo-se a borda
em sentido horário a partir deste ponto obtém-se três funções 1-D com base nos três
valores de momentos associados a cada
ponto da borda (cada valor de momento
gera uma função).
Dada uma forma de teste, suas três
funções 1-D são encontradas e a partir delas um vetor de características de tamanho
k é gerado para a forma ao se amostrar as
três funções em um número k de posições.
Deste modo, cada elemento do vetor de ca-
Disseminada
por
Mandelbrot
(1982), a dimensão fractal, que pode ser
expressa por números fracionários, provê
um eficiente meio de caracterizar a auto-semelhança de objetos abstratos e reais
chamados fractais (TORRES et al., 2004).
Dada uma forma, representada pelo conjunto S de todos seus pontos,
e sendo Sr a dilatação exata (TORRES et
al., 2004) da mesma por um disco de raio
r, considerando-se Ar a área da versão dilatada da forma (Sr). A dimensão fractal de
Minkowski-Bouligand (F), da forma operando-se em um espaço bidimensional, é definida por:
log( Ar )
r →0 log( r )
F = 2 − lim
(1)
A dimensão fractal é, portanto, um
número no intervalo [0, 2]. Ela pode ser estimada por meio de uma interpolação linear
da curva logarítmica da área Ar em função
do raio de dilatação r. Após encontrar a reta
que melhor se “aproxima” dos pontos da
curva logarítmica, seu coeficiente angular
Ar’ pode ser utilizado para encontrar o valor
de F aproximado por meio da equação:
F = 2 − Ar'
Interciência
& Sociedade
(2)
41
SOUZA, G. B.; MARANA, A. N.
A Figura 2 ilustra esta interpolação
para uma forma fractal e o cálculo do valor
da dimensão fractal (F) a partir da mesma.
entre eles a fim de verificar a similaridade
dos mesmos e permitir classificar a forma
sob análise como sendo da mesma classe
da forma da base de dados com menor distância, ou seja, mais similar.
2.3. Saliências do Contorno
Figura 2: Forma similar à estrela de Koch à
esquerda e à direita os valores de log(Ar) em
função de log(r) e a reta (tracejada) que melhor
representa os pontos. A partir do coeficiente angular (Ar’) desta reta pode-se obter o valor de F
(TORRES et al., 2004).
A representação de formas por
meio de um único valor (dimensão fractal
tradicional) pode ser muito pobre e perder
informações relevantes das formas uma
vez que a curva log-log (extremamente
complexa) é “aproximada” por uma simples
reta. Para tratar este problema foi proposta
a dimensão fractal multiescala. Diferente da
dimensão fractal tradicional, a qual utiliza
uma interpolação linear para estimar o coeficiente angular da curva log-log, esse método explora o limite infinitesimal da interpolação linear por meio da derivada. A partir da
curva log-log obtém-se, por exemplo, uma
curva polinomial por regressão que melhor
represente os pontos da primeira e gera-se
como que uma função baseada na derivada
da função polinomial (adaptação da Equação 1), a qual é chamada de dimensão fractal multiescala da forma sendo analisada
(TORRES et al., 2004).
Nesta técnica, para se gerar o vetor de características da forma em análise
faz-se uma amostragem da função de dimensão fractal multiescala em n posições.
Após, dados os vetores de características da forma sob análise e das formas da
base de dados (extraídos das funções de
dimensão fractal multiescala das mesmas),
utiliza-se a métrica L2 para a comparação
42
Costa et al. (2001) propuseram o
uso das saliências dos contornos das formas como meio de representá-las. As saliências do contorno de uma forma são definidas como as áreas máximas de influência
de seus pontos (do contorno) de maiores
curvaturas, denominados pontos de saliência, respeitando as regiões de Voronoi dos
pontos e limitando-se as áreas a regiões
próximas aos pontos apenas (TORRES e
FALCÃO, 2007).
O algoritmo proposto por Costa
et al. (2001), e adaptado por Torres e Falcão (2007) para determinar as saliências
de uma forma opera de maneira que, dado
um conjunto S de sementes (pixels da borda da forma), ele associa a cada pixel p da
imagem um valor C(p) e um rótulo R(p) os
quais são, respectivamente, a distância euclidiana entre p e a semente mais próxima
e o rótulo (identificação) da semente mais
próxima de p.
Após encontrar as áreas de influências internas e externas ao contorno da
forma associadas aos pixels da borda (sementes), estes passam a ser representados
pelos valores de suas respectivas áreas
máximas. As áreas de influência de pontos
de maiores curvaturas na borda, chamados
de pontos de saliência, em geral, são maiores que as áreas de outros pixels da borda da forma e assim, para localizar estes
na borda da forma basta aplicar um limiar
nos pontos de borda selecionando os que
apresentam áreas (valores de saliência)
acima desse limiar. Com isto os pontos de
saliência da borda da forma são encontrados (TORRES e FALCÃO, 2007). A Figura
3 ilustra as áreas de influências (internas
e externas) de pontos de saliência de uma
forma (polígono).
Interciência
& Sociedade
Análise de formas planas em imagens digitais
Figura 3: Áreas de influência internas e externas de pontos de saliência convexos (A, B, D e E), isto
é, cujas áreas de influência externas são maiores que as internas, e côncavos (C), no caso oposto. As
áreas são limitadas por um ângulo θ (que respeita os limites das regiões de Voronoi dos pontos) e por
uma distância r que garante que não se afaste muito dos pontos da borda (TORRES e FALCÃO, 2007).
Após encontrar os pontos de saliência do contorno da forma representa-se a
mesma pelos valores de saliência (maiores
áreas de influência) associados aos mesmos.
O descritor Saliências do Contorno (TORRES e FALCÃO, 2007) se baseia
nesta representação para classificar as formas presentes em imagens digitais. Neste descritor, após determinar os pontos de
saliência do contorno, pontos de saliência
côncavos têm seus valores de saliência tomados como negativos e pontos de saliência convexos continuam com seus valores
de saliência positivos. Um ponto de saliência aleatório é tomado como referência e
o método calcula as posições relativas de
cada ponto de saliência do contorno em relação ao ponto de referência.
Então, os valores de saliências dos
pontos de saliência do contorno e suas posições relativas formam dois vetores de características de mesmo tamanho, os quais
são usados pelo descritor Saliências do
Contorno na comparação entre formas. A
Figura 4 ilustra estes vetores para um contorno poligonal.
Figura 4: Polígono (forma) e seus pontos de saliência à direita e os vetores de características da forma
representados no gráfico à esquerda. O ponto de saliência de referência neste caso é o ponto A (TORRES e FALCÃO, 2007).
Interciência
& Sociedade
43
SOUZA, G. B.; MARANA, A. N.
O descritor Saliências do Contorno
usa um algoritmo de casamento heurístico
de vetores de características que alinha os
vetores usando os pontos de referência e
calcula suas similaridades considerando
a diferença de tamanhos entre eles. Ele é
baseado no algoritmo proposto por Mokhtarian e Abbasi (2002). Após comparar a forma sob análise com as formas da base de
dados, pode-se considerar a primeira como
sendo da mesma classe que a forma mais
parecida da base de dados.
2.4. Tensor Scale
Saha (2005) introduz um método
local para análise de imagens em tons de
cinza, chamado Tensor Scale, o qual se resume em encontrar, para cada ponto p da
forma, a maior elipse centrada em p dentro
da região homogênea deste ponto na forma
sendo analisada.
O primeiro passo para se encontrar
a elipse centrada em um ponto p corresponde em traçar segmentos de reta opostos em
relação ao ponto e iniciando nele, variando
suas inclinações em relação ao eixo x no intervalo [0º, 180º), conforme mostra a Figura
5(a). Um vetor unitário é usado para representar a direção de cada segmento, existindo assim m pares destes vetores (onde m
não equivale a 180 necessariamente, isto é,
pode-se “espaçar” mais ou menos os segmentos de reta em relação aos seus ângu-
los) (ANDALÓ et al., 2007).
Após traçar os segmentos a partir
do ponto p verifica-se, para cada um deles,
o ponto da borda da forma mais próximo de
p por onde o segmento passa como mostrado na Figura 5(b). Para encontrar estes
pontos a intensidade (nível de cinza) presente ao longo de cada segmento de reta
é verificada. Como uma observação, caso
a distância entre o ponto de borda a ser
encontrado sobre o segmento e o ponto p
ultrapasse o valor de L escolhido (valor máximo de distância), o ponto escolhido para
o segmento é o que está à distância L de
p no mesmo (último ponto no segmento).
Isto ocorre com dois segmentos na Figura
5(b) na parte inferior direita do objeto sob
análise.
Depois de encontrar o ponto da
borda associado a cada segmento, em
cada par de segmentos de reta (opostos),
o ponto de borda com maior distância em
relação ao ponto p é “deslocado” sobre o
segmento de forma a ficar com a mesma
distância em relação a p que o ponto de
borda oposto (Figura 5(c)) a fim de garantir a simetria da elipse a ser gerada para o
ponto p. Com os pontos todos rearranjados,
uma elipse (que melhor se aproxima da
posição dos mesmos) é obtida através da
Análise do Componente Principal (Principal
Component Analysis – PCA) como mostrado na Figura 5(d).
Figura 5: “Cálculo” da elipse associada ao ponto vermelho. Em (a) são traçados os segmentos de reta, em (b) os pontos de borda do objeto são localizados sobre os segmentos, em (c) os pontos são rearranjados e em (d) a
elipse é traçada (SAHA, 2005).
44
Interciência
& Sociedade
Análise de formas planas em imagens digitais
Miranda et al. (2005) otimizam algumas partes deste método e o usam como
descritor de formas. Este descritor atua de
forma que a todo ponto da forma (da sua
borda ou interno à mesma) realiza-se o processo de encontrar a elipse centrada nele.
Após encontrar a elipse para um dado ponto, a orientação dela é associada ao mesmo.
A partir disto, o descritor Tensor
Scale calcula o histograma das orientações
locais dos pontos da forma sendo investigada (orientações das elipses centradas nos
pontos da forma e encontradas como descrito anteriormente) e usa o mesmo como
vetor de característica da forma.
O casamento de duas imagens
pelo método Tensor Scale é realizado por
meio da diferença absoluta das áreas de
seus histogramas após corrigir eventuais
deslocamentos causados por rotações no
objeto. A forma sob análise pode ser classificada como pertencente à mesma classe
da forma da base de dados mais parecida
(menor distância).
3. Comparação dos métodos de análise
de formas
Os métodos de análise de formas
apresentados possuem princípios e estratégias de funcionamento bastante diferentes na extração de características, representação e classificação de formas. Com
o objetivo de avaliar e comparar seus desempenhos, alguns experimentos foram realizados sobre três bases de imagens públicas contendo formas (silhuetas de objetos).
3.1. Base Kimia-99
O primeiro experimento foi realizado usando-se a base de imagens Kimia-99
(SEBASTIAN et al., 2004). Nesta base existem 99 imagens de 9 classes de objetos
(11 imagens por classe). Em cada imagem
há a silhueta de um objeto em preto e um
fundo branco. As dimensões das imagens
não passam de 200 pixels e algumas das
silhuetas estão rotacionadas, deformadas e
transladadas.
Cada descritor (BAS, Dimensão
Fractal Multiescada, Saliências do Contorno e Tensor Scale) foi testado em separado
e para analisar seus desempenhos foram
calculados os valores “Top n” dos mesmos
da seguinte forma: dada forma de consulta, toda vez que ela e a imagem da base
de dados mais parecida com ela (menor
distância) segundo o descritor realmente
eram da mesma classe, incrementava-se
em uma unidade o valor “Top 1” do método.
De forma similar, toda vez que as duas imagens da base de dados recuperadas como
sendo as duas mais parecidas com a forma
de consulta segundo o descritor eram da
mesma classe desta, o valor de “Top 2” do
descritor era incrementado em uma unidade. Processo análogo foi repetido para se
calcular o valor “Top 3” para cada descritor.
As 99 imagens da base de dados
foram tomadas, uma por vez, como imagens
de consulta. Desta forma um descritor ideal
(com 100% de acerto) teria os valores “Top
1”=99, “Top 2”=99 e “Top 3”=99. Os valores
de “Top 1”, “Top 2” e “Top 3” dos descritores avaliados são mostrados na Tabela 1.
O melhor desempenho foi obtido pelo método BAS e o pior pelo método Saliências do
Contorno.
Tabela 1. Total de acertos operando-se com a base Kimia-99 (SEBASTIAN et al., 2004). Os métodos
estão ordenados (nas linhas) pelos seus desempenhos, iniciando pelo melhor (BAS) e terminando pelo
pior (Saliências do Contorno).
Descritor
Top 1
Top 2
Top 3
BAS (40 amostras)
97
95
93
Dimensão Fractal Multiescala
94
88
81
Tensor Scale
84
66
52
Saliências do Contorno 70
45
30
Interciência
& Sociedade
45
SOUZA, G. B.; MARANA, A. N.
3.2. Base Kimia-216
to existem 18 classes de objetos, com cada
uma delas contendo 12 amostras (imagens
de silhuetas), totalizando 216 imagens na
base.
Os valores de “Top 1”, “Top 2” e
“Top 3” dos descritores são mostrados na
Tabela 2. Novamente os métodos BAS e
Saliências do Contorno apresentaram o melhor e o pior resultados, respectivamente.
A mesma metodologia de avaliação utilizada nos experimentos com a base
Kimia-99 (SEBASTIAN et al., 2004) foi repetida com a base de imagens de formas
Kimia-216 (SEBASTIAN et al., 2004), a qual
é uma extensão da Kimia-99. Nesta base
as imagens apresentam as mesmas características que as da base anterior, no entan-
Tabela 2. Total de acertos operando-se sobre a base Kimia-216 (SEBASTIAN et al., 2004). Os métodos
estão ordenados (nas linhas) pelo desempenho: iniciando pelo melhor (BAS) e terminando pelo pior
(Saliências do Contorno).
Descritor
Top 1
Top 2
Top 3
BAS (40 amostras)
212
207
200
Dimensão Fractal Multiescala
200
179
154
Tensor Scale
184
154
133
Saliências do Contorno
139
98
75
3.3. Base MPEG-7 (Part B)
laridade interclasses, o que torna esta base
bastante desafiadora aos métodos de análise de formas.
A metodologia de avaliação consistiu em calcular as curvas de Precisão-Revocação (Precision-Recall) para cada um dos
descritores sendo analisados. Essas curvas são exibidas na Figura 6. Vale observar que quanto mais “alta” (mais próxima de
“Precisão”=1 e “Revocação”=1) for a curva
gerada por um descritor, melhor é o seu desempenho. Assim como nos experimentos
realizados com as duas bases de dados Kimia, o BAS teve o melhor desempenho e o
Saliências do Contorno o pior.
O terceiro experimento para avaliação dos desempenhos dos descritores de
formas foi realizado utilizando-se as imagens da base MPEG-7 Part B (The MPEG
Project), que possui 1400 imagens de formas, sendo 20 amostras para cada uma
das 70 classes de formas. As silhuetas dos
objetos nas imagens desta base de dados
estão em branco sobre um fundo em preto.
Esta base apresenta mais rotações, translações e mudanças na escala, bem como
deformações e ruídos nas silhuetas, do que
as imagens das bases Kimia. Além disso,
há grande variabilidade intraclasse e simi-
Precision-Recall
1,2
1
Precision
0,8
BAS (40 samples)
BAS (60 samples)
Contour Saliences
Multiscale Fractal
Tensor Scale
0,6
0,4
0,2
0
0
0,1
0,15
0,2
0,25 0,3
0,35
0,4
0,45
0,5
0,55
0,6
0,65
0,7
0,75 0,8
0,85
0,9
0,95
1
Recall
Figura 6: Curvas Precision-Recall dos descritores testados sobre a base MPEG-7 Part B.
46
Interciência
& Sociedade
Análise de formas planas em imagens digitais
4. DISCUSSÃO
A partir dos resultados obtidos nos
experimentos pode-se perceber que o método BAS apresenta melhor desempenho
nos testes realizados com as três bases
de imagens e há uma boa diferença entre
as taxas de acerto deste em relação ao segundo melhor método, o Dimensão Fractal
Multiescada. Mesmo tendo sido proposto
em 2003, o método BAS ainda apresenta
desempenho superior em relação a outros
métodos mais novos. A ideia do funcionamento deste descritor é relativamente simples, mas ele é capaz de analisar e classificar as formas com eficiência.
Apesar dos bons resultados do
BAS, este descritor pode ser muito lento
quando as imagens são grandes ou as bordas apresentam muitos pontos. A complexidade da fase de extração de características
do BAS é θ(n2) uma vez que para gerar as
funções 1-D associada a uma certa forma
é necessário calcular, para cada um dos n
pontos da borda do objeto, n/2 ângulos. A
fase de casamento do descritor BAS, a qual
emprega o algoritmo OCS, também tem
complexidade quadrática.
Com o aumento do poder de armazenamento e a evolução dos sensores de
captura, as bases de imagens e as próprias
imagens tendem a se tornar cada vez maiores. Desta forma, o BAS pode acabar não
sendo indicado para ser utilizado em aplicações onde o baixo tempo de processamento é um dos principais requisitos.
Neste sentido, a criação de novos
descritores de formas robustos, mas também ágeis, é um campo de pesquisa promissor. Uma abordagem ainda não utilizada
nos trabalhos de análise de formas, mas
que pode ser usada na descrição e classificação eficiente de formas corresponde à
representação das bordas dos objetos por
meio da Transformada de Hough (DUDA e
HART, 1972).
Para detectar retas em imagens
por meio da Transformada de Hough, Duda
e Hart (1972) propuseram a utilização da
equação da reta definida por coordenadas
polares, ρ=x∙cos(θ)+y∙sen(θ), uma vez que
os parâmetros θ e ρ desta equação são limitados e, portanto, mais indicados que os
parâmetros a e b da equação tradicional da
reta y=a∙x+b. Como ilustrado na Figura 7,
esta parametrização representa cada reta
da imagem por meio do ângulo θ de seu vetor normal e de sua distância ρ em relação
à origem do sistema (origem da imagem).
Figura 6: Representação de retas através
dos parâmetros θ e ρ.
Se restringirmos θ ao intervalo [0,
π), então os parâmetros ρ e θ de uma dada
reta são únicos. Com esta restrição, toda
reta no plano x-y corresponde a um único
ponto no plano θ-ρ (espaço de parâmetros
ou espaço de Hough).
Cada ponto da imagem com suas
coordenadas (xi,yi) é representado por uma
senóide (obtida a partir das coordenadas do
ponto e da equação da reta citada) no espaço θ-ρ.
Uma importante propriedade da
Transformada de Hough (geração do espaço θ-ρ com base no espaço da imagem) é
que as senóides do espaço de parâmetros
θ-ρ que representam pontos colineares da
imagem têm um ponto de intersecção comum (θ0, ρ0) o qual representa a reta da
imagem à qual os pontos pertencem.
Desta forma, após gerar o espaço
de Hough de uma dada forma, isto é, após
representar todos seus pontos de borda
no espaço de parâmetros θ-ρ por meio de
senóides, pontos da borda pertencentes a
segmentos de reta da borda terão senóides
que passam por posições onde há grande
quantidade de intersecções de senóides no
espaço de parâmetros (posições que representam os segmentos de reta da borda
Interciência
& Sociedade
47
SOUZA, G. B.; MARANA, A. N.
neste espaço). Por outro lado, pontos de
regiões arredondadas da borda terão senóides que não passam por posições do espaço de parâmetros de alta concentração de
senóides, isto é, o número de senóides que
cruzam a curva senoidal do ponto no espaço θ-ρ estará bem distribuído ao longo da
extensão da mesma.
Com isto diversos descritores de
formas podem ser criados, por exemplo,
baseando-se na disposição das intersecções das senóides no espaço de parâmetros ou então na quantidade e disposição de
intersecções ao longo de cada senóide. Diversas outras medidas podem ser extraídas
deste espaço o qual pode ser representado
por uma matriz de inteiros, estrutura de fá-
cil armazenamento e acesso, viabilizando o
desenvolvimento de descritores de formas
rápidos e robustos, talvez até melhores que
o BAS.
A capacidade que os espaços de
Hough têm de armazenar informações a
respeito de formas a fim de se poder, com
base nestas, caracterizar e identificar objetos presentes em imagens é grande. A Figura 8 mostra os espaços de Hough gerados a partir dos pontos de borda de quatro
silhuetas de objetos. Nota-se que objetos
semelhantes apresentam espaços de Hough similares, enquanto que objetos distintos
apresentam espaços de Hough também
distintos.
Figura 8: Exemplos de espaços de Hough gerados a partir de silhuetas de maçãs (esquerda) e ossos
(direita). Cada espaço de Hough foi gerado a partir da borda da respectiva forma. As regiões mais
claras do espaço de Hough indicam posições de grande concentração de intersecções de senóides
(as quais representam cada um dos pontos da borda da forma da imagem no espaço de parâmetros).
CONSIDERAÇÕES FINAIS
Com base nos descritores apresentados e nos resultados dos experimentos realizados percebe-se que existem várias abordagens para a caracterização e
reconhecimento de formas.
Dependendo da abordagem utilizada, um descritor de formas pode obter
melhor ou pior desempenho dada uma base
48
de imagens. Nos experimentos realizados
neste trabalho o descritor bas se configurou como o melhor método de análise de
formas.
Apesar dos bons resultados o bas
pode se tornar muito lento, em especial
quando se trabalha com grandes bases de
imagens ou com imagens de grandes dimensões uma vez que tanto para extrair as
funções 1-d de uma borda quanto para caInterciência
& Sociedade
Análise de formas planas em imagens digitais
sar vetores de características de duas bordas diferentes ele apresenta complexidade
θ(n2).
Desta forma, novos métodos de
descrição e identificação de formas continuam surgindo. Independente do enfoque do
método na análise de formas, ele deve, pelo
menos, ser invariante à translação, rotação
e escala.
Uma abordagem que pode ser empregada na análise de formas corresponde
ao uso de espaços de hough na representação das mesmas. Estes espaços guardam
grande quantidade de informações as quais
podem ser extraídas a fim de identificar os
objetos. Além disto, a criação do espaço de
hough para uma dada forma é simples (usa-se uma matriz de inteiros) e o acesso ao
mesmo é bastante rápido.
Desse modo, descritores de formas baseados na transformada de hough
se apresentam como uma ideia inovadora
e promissora. Extraindo as medidas certas
dos espaços de hough, excelentes resultados (até melhores que os do bas) poderão
ser obtidos de maneira mais rápida.
REFERÊNCIAS BIBLIOGRÁFICAS
ANDALÓ, F. A.; MIRANDA, P. A. V.; TORRES, R. S.;
FALCÃO, A. X. A New Shape Descriptor Based on
Tensor Scale. Proceedings of the 8th International
Symposium on Mathematical Morphology, v. 1, p.
141-152, 2007.
ARICA, N.; VURAL, F. T. Y. BAS: a Perceptual Shape Descriptor Based on the Beam Angle Statistics.
Pattern Recognition Letters, v. 24, n. 9-10, p. 16271639, 2003.
COSTA, L. F.; JÚNIOR, R. M. C. Shape Analysis and
Classification – Theory and Practice. Estados Unidos: CRC Press, 2000.
COSTA, L. F.; CAMPOS, A.; MANOEL, E. An Integrated Approach to Shape Analysis: Results and Perspectives. Proceedings of the International Conference on Quality Control by Artificial Vision, p.
23-34, Maio, 2001.
DUDA, R. O.; HART, P. E. Use of the Hough Transformation to Detect Lines and Curves in Pictures. Communications of ACM, n. 1, p. 1-15, 1972.
DUDA, R. O.; HART, P. E.; STORK, D. G. Pattern
Classification. Estados Unidos: Wiley-Interscience,
2000.
FALGUERA, J. R.; MARANA, A. N. Reconhecimento Automático de Sinus Frontais para Identificação Humana Forense Baseada na Transformada
Imagem-Floresta e no Contexto da Forma, 2008.
Dissertação (Mestrado em Ciência da Computação)
- Instituto de Biociências, Letras e Ciências Exatas,
Universidade Estadual Paulista (UNESP), São José
do Rio Preto. Disponível em: <http://www.dcce.ibilce.
unesp.br/ppgcc/dissert/Diss-03-Juan.pdf>.
Acesso
em: 10 jun. 2012.
LATECKI, L. J.; LAKÄMPER, R. Shape Similarity
Measure Based on Correspondence of Visual Parts.
IEEE Transactions on Pattern Analysis and Machine Intelligence, v. 22, n.10, p. 1185–1190, 2000.
MANDELBROT, B. The Fractal Geometry of Nature.
Estados Unidos: H. Freeman and Co., 1982.
MIRANDA, P. A. V.; TORRES, R. S.; FALCÃO, A. X.
TSD: a Shape Descriptor Based on a Distribution of
Tensor Scale Local Orientation. Proceedings of Brazilian Symposium on Computer Graphics and Image Processing, p. 139-146, 2005.
MOKHTARIAN, F.; ABBASI, S. Shape Similarity Retrieval under Affine Transforms. Pattern Recognition, n. 35, v. 1, p. 31-41, 2002.
SAHA, P. K. Tensor Scale: a Local Morphometric
Parameter with Applications to Computer Vision and
Image Processing. Computer Vision and Image Understanding, n. 3, p. 384-413, 2005.
SEBASTIAN, T.; KLEIN, P.; KIMIA, B. Recognition of
Shapes by Editing their Shock Graphs. IEEE Transactions on Pattern Analysis and Machine Intelligence, v. 26, p. 551-571, Maio, 2004.
TORRES, R. S.; FALCÃO, A. X.; COSTA, L. F. A Graph-Based Approach for Multiscale Shape Analysis.
Pattern Recognition, n. 37, p. 1163-1174, 2004.
TORRES, R. S.; FALCÃO, A. X. Contour Salience
Descriptors for Effective Image Retrieval and Analysis. Image and Video Computing, n. 25, p. 3-13,
2007.
The MPEG Project. Disponível em: <http://www.chiariglione.org/mpeg>. Acesso em: 10 jun. 2012.
WANG, Y. P.; PAVLIDIS, T. Optimal Correspondence
of String Subsequences. IEEE Transactions on Pattern Analysis and Machine Intelligence, n. 11, v. 12,
p. 1080-1087, 1990.
Interciência
& Sociedade
49
SOUZA, G. B.; MARANA, A. N.
Gustavo Botelho de Souza é técnico em informática pelo Colégio Técnico Industrial da Universidade Estadual
Paulista (UNESP), campus de Bauru, e bacharel em Ciência da Computação pela mesma universidade. Atualmente é aluno de mestrado (em Ciência da Computação) da UNESP, campus de São José do Rio Preto. Tem interesse
nas áreas de pesquisa: análise de imagens, visão computacional e biometria.
Aparecido Nilceu Marana é graduado em Matemática pelo Instituto de Biociências, Letras e Ciências Exatas,
UNESP, São José do Rio Preto. Mestre em Ciência da Computação pelo Instituto de Computação da UNICAMP,
Campinas, e doutor em Engenharia Elétrica pela Faculdade de Engenharia Elétrica e de Computação da UNICAMP, Campinas. Realizou pós-doutorado na Michigan State University na área de biometria. É livre-docente em
Sistemas Biométricos pela Universidade Estadual Paulista. Também tem interesse nas áreas de pesquisa: análise
de imagens, visão computacional e biometria.
50
Interciência
& Sociedade
ARQUITETURA DE UM SISTEMA MULTIAGENTE AUTÔNOMO PARA
SUPERVISÃO E CONTROLE
QUEIROZ, Jonas Felipe Pereira de
Universidade Estadual Paulista (UNESP – Rio Claro)
[email protected]
GUILHERME, Ivan Rizzo
Universidade Estadual Paulista (UNESP – Rio Claro)
[email protected]
RESUMO: Neste trabalho é apresentada uma arquitetura multiagentes voltada para o desenvolvimento
de sistemas de supervisão e controle de processos, tendo como objetivo principal automatizar tarefas
que são repetitivas e cansativas, além de sujeitas a erros quando realizadas por seres humanos. A
partir do estudo de um conjunto de aplicações, presentes na literatura, que utilizam a abordagem de
sistemas multiagentes para a integração de dados e monitoramento de processos para a detecção e
diagnósticos de falhas, foram identificados um conjunto de agentes que são utilizados como base na
definição da arquitetura multiagente proposta. Um protótipo de um sistema para a análise de anormalidades durante a perfuração de poços de petróleo foi desenvolvido.
PALAVRAS-CHAVE: agentes de software; arquitetura multiagente; sistemas de supervisão e controle.
ABSTRACT: This paper presents a multi-agent architecture that was designed to develop processes
supervision and control systems, with the main objective to automate tasks that are repetitive and stressful, and error prone when performed by humans. A set of agents were identified, based on the study of
a number of applications found in the literature, that use the approach of multi-agent systems for data
integration and process monitoring to faults detection and diagnosis, these agents are used as basis
of the proposed multi-agent architecture. A prototype system for the analysis of abnormalities during oil
wells drilling was developed.
KEYWORDS: software agents; multi-agent architecture; supervisory and control systems.
1. INTRODUÇÃO
Nas ultimas décadas, especialmente devido ao desenvolvimento de novas tecnologias, houve um aumento na utilização
de controladores e sensores nas indústrias,
principalmente nos setores de produção,
gerando ambientes complexos caracterizados por um grande número de componentes
heterogêneos e a alta conectividade entre
eles. Esses componentes correspondem a
equipamentos, instrumentos e outros sistemas instalados nos ambientes industriais, e
são responsáveis pela medição de parâmetros, controle de equipamentos e máquinas,
e gerenciamento dos processos envolvidos.
Nesses ambientes complexos é gerado
um grande volume de dados em diversos
formatos, provenientes dos vários componentes, e com isso cresce a demanda pela
integração e análise desses dados a fim de
melhorar o gerenciamento dos processos e
do controle das operações. A grande quantidade de informações produzidas criam cenários onde pessoas não são mais capazes
de administrar, supervisionar e controlar
todas as atividades envolvidas (BRAZIER,
KEPHART, et al., 2009).
A fim de automatizar o gerenciamento e execução dos diversos processos
e tarefas nesses ambientes há a necessidade de abordagens que suportem o projeto e
desenvolvimento de sistemas computacionais para a integração e o controle dos vários componentes, fornecendo também ferramentas para auxiliar os profissionais no
monitoramento dos processos e nas tomadas de decisão. Nesse sentido, a abordagem de sistemas multiagente (SMA) é uma
tecnologia que vem sendo muito usada, não
só nas pesquisas acadêmicas, mas em alguns projetos industriais (PECHOUčEK e
Interciência
& Sociedade
51
QUEIROZ, J. F. P.; GUILHERME, I. R.
MARÍK, 2008), e é apontada como uma das
mais promissoras técnicas para o desenvolvimento de sistemas complexos. Essa
abordagem oferece um caminho promissor
e inovador para entender, desenvolver, gerenciar e manter sistemas computacionais
distribuídos, em larga escala, dinâmicos,
abertos e heterogêneos (JENNINGS, 2001).
Um outro aspecto importante é que
o gerenciamento desses sistemas além de
exigir muito tempo dos profissionais, envolve atividades que demandam de mão
de obra específica e qualificada para tratar
situações imprevistas, como a reconfiguração do sistema em caso de mudanças no
ambiente, restabelecer o funcionamento do
sistema em caso de falhas, entre outras.
Para lidar com esses problemas há a necessidade de sistemas computacionais com
capacidades de se auto-gerenciar, de forma
que seja necessária a mínima intervenção
humana, liberando os profissionais das tarefas que podem ser automatizadas para
que possam executar atividades de mais
alto nível.
Nesse sentido, neste trabalho é
apresentado os resultados de um estudo
para o desenvolvimento de uma arquitetura de software utilizando a abordagem
de sistemas multiagentes para a construção de sistemas autônomos para a supervisão e controle de processos. No estudo
foram identificados, em trabalhos correlatos, os aspectos relacionados a sistemas
multiagentes voltados para as atividades
de supervisão e controle. A arquitetura em
questão deverá apresentar características
e mecanismos para a análise e integração
dos dados gerados, recuperação de falhas,
se adaptar a mudanças no ambiente, otimizar seus processos, e fornecer interfaces
gráficas para auxiliar os usuários na supervisão e controle dos processos assim como
nas tomadas de decisão.
2. Sistemas multiagentes
O paradigma de sistemas multiagentes apresenta uma nova abordagem
para o desenvolvimento de sistemas de software, diferente da abordagem Orientada a
Objetos (OO), mas não é vista como uma
abordagem para substituir a abordagem
52
OO. Ao invés disso é proposto como uma
nova solução para complementar esse paradigma no desenvolvimento de aplicações
onde as abordagens convencionais não
oferecem os recursos e abstrações necessárias. Esse paradigma viabiliza a resolução de problemas de outra forma que não
a tradicional, apresentando novas formas
para resolver problemas complexos e distribuídos.
Segundo (JENNINGS, 2000; WOOLDRIDGE, 2002), um agente é um sistema computacional encapsulado que está
situado em um ambiente e que é capaz de
agir de forma flexível e autônoma neste ambiente, a fim de alcançar seus objetivos de
projeto. Assim, agentes são componentes
com interfaces bem definidas (sensores e
atuadores), através das quais são capazes
de perceber e agir no ambiente de forma
autônoma, ou seja, possuem controle sobre
seus estados e comportamentos, a fim de
realizar tarefas para alcançar seus objetivos. Eles podem agir em respostas a mudanças do ambiente e são independentes
da intervenção humana ou de outros sistemas para tomar decisões.
Os agentes apresentam um conjunto de propriedades (WOOLDRIDGE e
JENNINGS, 1995; WOOLDRIDGE, 2002):
autonomia – operam sem a intervenção direta de humanos ou outros sistemas e possuem controle sobre suas ações e estados;
habilidade social – capacidade de interagir com outros agentes utilizando uma linguagem de comunicação que permite aos
agentes negociarem e cooperarem para
alcançar seus objetivos; reatividade – capacidade de agir em resposta ao ambiente;
pró-atividade – capacidade de exibir comportamento direcionado a objetivos, tomando a iniciativa para satisfazer seus objetivos
de projeto.
Existem sistemas onde um único
agente é suficiente para a realização de algumas tarefas, mas na maioria das vezes
são necessários mais de um agente, dessa
forma caracterizando um sistema Multiagentes (SMA). Um SMA pode ser definido
como (WOOLDRIDGE, 2002): um conjunto de agentes, que interagem uns com os
outros. No caso mais geral, os agentes vão
agir em favor de usuários com diferentes
Interciência
& Sociedade
Arquitetura de um sistema multiagente autônomo para supervisão e controle
objetivos e motivações. Para terem sucesso
nas interações, eles vão requerer habilidades de cooperação, coordenação e negociação.
A abordagem multiagente é uma
nova solução para o desenvolvimento de
sistemas complexos (JENNINGS, 2001),
estendendo as abordagens convencionais
e fornecendo a abstração necessária para o
desenvolvimento de sistemas: heterogêneos – formados por diversas entidades; dinâmicos – capazes de se adaptar a variações
nas condições do ambiente em que estão
situados; abertos – componentes podem
entrar ou deixar o sistema em tempo de
execução; distribuído – não possui necessariamente um controle centralizado, formados por entidades autônomas (agentes)
que são capazes de se organizar, negociar
e cooperar para alcançar os objetivos do
sistema.
3. Sistemas de produção
Sistemas de produção consistem
de um ambiente formado por um conjunto
de máquinas e equipamentos de diferentes
tipos agrupados para a produção de bens
a partir do processamento de matéria-prima
(CHRYSSOLOURIS, 2006). Geralmente,
cada um dos equipamentos nesse ambiente (também chamado de chão de fábrica)
desempenha diferentes tarefas, onde cada
uma dessas operações agrega certo valor
a matéria-prima que ao final de uma sequência de operações se transforma em um
produto acabado pronto para ser comercializados ou usado para a fabricação de outros produtos. Há também a necessidade
de mão de obra para gerenciar os diversos
processos envolvidos na cadeia de produção, responsáveis pela operação e o controle dos equipamentos, que demanda profissionais qualificados, com conhecimento
técnico e especializado.
Os sistemas de produção são classificados em dois grandes grupos: sistemas
de processos contínuos e sistemas de processos discretos. Os sistemas que tratam
processos contínuos envolvem a produção
de bens que não podem ser identificados
individualmente, exemplos de sistemas de
produção contínuos são processos das in-
dústrias de produtos químicos, petróleo e
derivados, energia elétrica. Já nos que lidam com processos discretos esses bens
podem ser isolados, em lotes ou unidades
o que permite a distinção entre eles, exemplos de sistemas de produção discretos são
processos das indústrias de automóveis,
eletrodomésticos, e produtos cerâmicos.
A internacionalização do mercado
e da economia mundial nos últimos anos
trouxe também um grande aumento na
competitividade entre as empresas. Para se
adaptar as novas necessidades do mercado, as indústrias vêm adotando novas estratégias para melhorar o desempenho da
produção. Nesse sentido as indústrias tem
buscado novos meios para otimizar a utilização dos recursos, maximizar a qualidade
enquanto minimiza os custos e o tempo de
produção. Nesse cenário, a automação da
produção tem um papel fundamental nessa
busca por melhor qualidade e redução dos
custos.
Os avanços tecnológicos ocorrido nos últimos anos, principalmente em
relação a máquinas, sensores e equipamentos, contribuiu para a diminuição dos
custos desses componentes, consequentemente aumentando sua utilização na indústria. Nesse contexto, o aumento do uso
de instrumentos de medição responsáveis
pelo monitoramento das condições dos
componentes e das operações, ocasionou
o aumento da quantidade de informações
geradas pelos equipamentos e processos.
Muitas dessas informações ainda não são
devidamente aproveitadas principalmente
porque as diferentes máquinas e equipamentos utilizam protocolos e tecnologias
específicas o que dificulta a comunicação
entre esses sistemas.
Algumas das principais características identificadas nos ambientes de produção são:
• Variedade de equipamentos – geralmente são constituídos por um
grande número de componentes que
podem ser tanto hardware (ex. sensores) como software (ex. sistemas
de aquisição de dados);
• Natureza distribuída – os diversos
componentes que formam o sisteInterciência
& Sociedade
53
QUEIROZ, J. F. P.; GUILHERME, I. R.
ma como: máquinas, equipamentos,
sensores, controladores, etc.; se
encontram distribuídos ao longo da
planta de produção;
• Sistemas heterogêneos – grande
parte dos equipamentos, sensores
e outros sistemas utilizam interfaces
proprietárias o que pode dificultar a
integração desses componentes;
• Flexibilidade de produção – habilidade do sistema de mudar para
produzir novos produtos, a ordem de
operações executadas, usar múltiplas máquinas para a mesma operação, e também absorver mudanças
em relação ao volume de produção;
• Grande quantidade de informação
– proveniente principalmente de sensores instalados nos equipamentos.
Nesse sentido já existem alguns
sistemas e ferramentas computacionais
voltados para integrar e monitorar as informações dos diversos equipamentos. Esses
sistemas de supervisão e controle, desenvolvidos especialmente com o objetivo de
gerenciar e automatizar os processos de
produção e assim garantir o funcionamento correto dos equipamentos e a segurança
das operações.
Analisando esse cenário, o grande
desafio no desenvolvimento de sistemas de
supervisão e controle industrial é a integração dos diversos componentes, sistemas e
subsistemas. Desta forma, fazer com que
haja comunicação entre todos eles, já que
os mesmos muitas vezes são baseados em
plataformas, interfaces e utilizam tecnologias diferentes. Tendo como o objetivo principal a coleta e integração das informações
produzidas no chão de fábrica para que
possam ser armazenadas e analisadas, e
assim melhor aproveitadas pelos operadores e engenheiros.
Ferramentas para a automação
das tarefas de análise das informações são
essenciais para a indústria. Os resultados,
obtidos com a análise das informações,
podem ser utilizados para diversas finalidades, como por exemplo, previsão dos tempos de produção, identificação da variação
de desempenho dos equipamentos indicando problemas de mau funcionamento e de-
54
gradação, identificação de anormalidades
nos processos que também podem afetar a
quantidade e qualidade do produto final. E
também através da análise de informações
em tempo real, provenientes de sensores,
prever a ocorrência de possíveis falhas.
Nesse sentido, o monitoramento em tempo
real dessas informações também tem um
papel fundamental para garantir a segurança e o bom funcionamento das operações.
Considerando todos esses aspectos, o desenvolvimento de sistemas de
supervisão e controle mais inteligentes,
capazes de gerenciar e processar todas
as informações dos processos, tornam-se
cada vez mais necessários para a indústria. Dessa forma, melhorando significativamente a produção, fornecendo um maior
entendimento do negócio e do ambiente, e
com isso possibilitando analisar, monitorar
e controlar as operações de forma mais segura.
4. Sistema multiagente de supervisão e
controle
A tecnologia de agentes vem sendo utilizada para uma variedade de aplicações no setor industrial tais como: sistemas
para automação de controle, supervisão e
diagnóstico, planejamento da produção, gerenciamento de riscos, logística e gerenciamento de recursos, simulação, entre outras
(PECHOUčEK e MARÍK, 2008). A abordagem multiagente tem sido adotada por fornecer as abstrações e ferramentas adequadas para o desenvolvimento de sistemas
complexos que apresentam características
como as encontradas nos ambientes de
produção.
Com a utilização da tecnologia de
agentes, cada um dos componentes envolvidos são transformados em componentes
autônomos e independentes, capazes de se
coordenar e cooperar para a realização das
tarefas. Dessa forma facilitando também a
integração entre os componentes heterogêneos, sendo que nesta infraestrutura os
agentes trocam recursos e serviços através
da utilização de uma linguagem de comunicação de agentes (ACL – Agent Communication Language).
Também devido ao comportamenInterciência
& Sociedade
Arquitetura de um sistema multiagente autônomo para supervisão e controle
to autônomo dos agentes, podem ser atingidos maiores níveis de flexibilidade para sistemas de produção dinâmicos. Facilitando
as mudanças tanto na reorganização das
operações, como entrada de novos equipamentos ou saída de componentes do
sistema que também podem ser causadas
pela falha dos mesmos. Além de possibilitar
a continuidade operacional de uma determinada parte local da produção, caso haja
problemas em outras partes da produção
por falhas de equipamentos que não podem
ser substituídos entre outros problemas. A
adoção de sistemas baseados em agentes
com essas características eliminam ou pelo
menos diminuem o trabalho manual de re-configuração e restauração do sistema,
que é uma tarefa complexa e que necessita
de conhecimentos especializados para ser
realizado pelos operadores e responsáveis
pelos mesmos, caso o sistema seja executado em um ambiente aberto e sujeito a falhas ou mudanças que não foram previstas.
Nesse sentido, várias arquiteturas
têm sido definidas utilizando as abordagens multiagentes para a solução de uma
variedade de problemas que vão desde a
integração de componentes e sistemas heterogêneos, bases de informações distribuídas (CAPRETZ e HRYB, 2005; PURVIS,
CRANEFIELD e NOWOSTAWSKI, 2000),
até sistemas mais complexos para monitorar ambientes e processos a fim de prever
e identificar a ocorrência de anormalidades
(BUNCH, et al., 2005; CERRADA, et al.,
2007; NG e SRINIVASAN, 2010). As arquiteturas multiagentes apresentadas nesses
trabalhos foram analisadas a fim de identificar os principais aspectos desses SMAs,
que inclui a forma como os agentes são empregados, quais os papéis e funções desses agentes e como eles interagem para
a execução de suas tarefas, e também a
organização arquitetural desses sistemas.
A análise realizada foi utilizada como referência para auxiliar na especificação e desenvolvimento da arquitetura multiagentes
proposta, que é apresentada na seção seguinte.
5. Arquitetura multiagente para supervisão e controle
Na análise dos SMAs utilizados
como referência foi possível observar que
esses sistemas apresentam várias características em comum, mas também possuem
características que são específicas do domínio da aplicação para a qual foram propostos. Entre as características em comum,
em muitas das abordagens foram identificados agentes que desempenham as mesmas funções dentro do sistema, embora
apareçam com nomes diferentes.
Para a definição dos agentes que
compõem a arquitetura multiagente proposta foi realizada uma análise de cada um dos
agentes utilizados por essas abordagens,
seus papéis e organização dentro do sistema. Com isso, foi identificado um conjunto
de agentes necessários para desempenhar
as tarefas de gerenciamento, supervisão
e controle de processos. Onde as funções
e capacidades dos agentes, assim como
seus relacionamentos foram determinados.
A seguir, é apresentada a organização arquitetural do SMA (Figura 1) em
termos de seus componentes e alguns de
seus relacionamentos, essa arquitetura está
dividida em três componentes principais:
• Interface do usuário – composto
pelas interfaces gráficas responsáveis por apresentar as funcionalidades e recursos do sistema para os
usuários, através das quais o usuário pode supervisionar e controlar os
diversos processos envolvidos;
• Sistema Multiagente – formado por
um conjunto de agentes responsáveis por automatizar as tarefas de
supervisão e controle, como integração monitoramento, e análise dos
dados e processos, a fim de identificar situações indesejadas emitindo
alarmes e notificações para que as
medidas necessárias possam ser tomadas.
Interciência
& Sociedade
55
QUEIROZ, J. F. P.; GUILHERME, I. R.
Figura 1: Organização arquitetural do Sistema Multiagente.
• Dados e serviços – representa as
entidades físicas que compõem os
ambientes industriais, como: sensores, controladores e outros dispositivos, bases de dados do sistema e
fontes de informação, métodos usados para a análise dos dados a fim
de identificar e prever a ocorrência
de anormalidades, e também outros sistemas, os quais podem estar
disponíveis através de interfaces de
serviços.
No componente Sistema Multiagente (Figura 1) estão representados os
tipos de agentes que podem fazer parte
do sistema, onde cada um representa um
ou mais agentes responsáveis por desempenhar tarefas específicas de acordo com
suas especialidades. Por exemplo, em um
sistema pode haver vários agentes Recurso, onde cada um possui acesso a uma fonte de informação que pode ser utilizada pelo
sistema. A seguir são descritos os tipos de
agentes que compõem o SMA e suas capacidades (Figura 1):
56
• Interface do usuário – representam
um conjunto de agentes responsáveis por realizar a comunicação entre
o SMA e os usuários, apresentando
as funcionalidades do sistema através de interfaces gráficas e também
pelo gerenciamento das requisições
e preferências, baseado nas características dos dispositivos e no perfil
de cada usuário. Para cada usuário
que entra no sistema um novo agente é inicializado com o perfil desse
usuário, o qual fica responsável por
gerenciar a comunicação entre esse
usuário e o SMA;
• Gerenciador de dados – representam um conjunto de agentes responsáveis pelo gerenciamento dos
dados do sistema. Esses agentes
implementam interfaces que permitem basicamente a recuperação e
o registro das informações geradas
pelo sistema, como: as condições
dos processos (medidas ou calculadas), os logs dos eventos, entre outras;
• Recurso – um conjunto de agentes
Interciência
& Sociedade
Arquitetura de um sistema multiagente autônomo para supervisão e controle
responsáveis por fornecer acesso
aos recursos externos, como os dados dos sensores e outros equipamentos. Esses agentes implementam as interfaces de acesso a esses
componentes. No sistema pode haver um agente desse tipo para cada
recurso externo a ser utilizado pelo
sistema, assim é possível que novos
recursos sejam inseridos ou removidos do sistema sem afetar o resto da
aplicação;
• Analisador – representam um conjunto de agentes responsáveis pelo
processamento e análise dos dados
usados para a identificação de possíveis anormalidades durante as operações. Esses agentes implementam
interfaces que permite a utilização de
métodos inteligentes para identificar
ou prever a ocorrência desses eventos. Os eventos gerados devem ser
notificados, por exemplo, através de
alarmes ou alertas, para os usuários
ou outros agentes (como os supervisores) para que sejam devidamente
tratados;
• Controlador – representam um
conjunto de agentes que dão acesso
aos dispositivos como controladores
e atuadores. Esses agentes devem
implementar as interfaces desses
dispositivos para permitir a execução das operações de controle. Essas operações são passadas pelos
agentes Supervisores e representam
ações de controle e planos corretivos
a serem executados para reestabilizar ou restaurar os processos;
• Monitor – um conjunto de agentes
responsáveis pelo monitoramento
dos diversos parâmetros, variáveis
e condições dos processos e operações. Podem existir um conjunto
desses agentes no sistema, onde
cada um seria responsável pelo
monitoramento de determinados
processos. Esses agentes também
podem lançar alarmes em caso de
situações indesejáveis, notificando os agentes Supervisores para
que as medidas necessárias sejam
tomadas para restaurar o funcionamento dos processos;
• Corretor – um agente responsável
por manter um registro de todos os
agentes presentes no sistema e os
serviços prestados por eles. Quando
um novo agente entra no sistema ele
deve registrar seus serviços junto a
um agente Corretor. Assim os agentes do sistema podem consultar um
agente Corretor para dinamicamente
encontrar quais agentes prestam os
serviços necessários para a execução de suas tarefas;
• Conhecimento – um agente responsável por manter uma base de
conhecimento com regras e diretrizes necessárias nas tomadas de decisões e que determinam o comportamento global do sistema;
• Supervisor – agentes responsáveis pela supervisão dos processos
e tratamento das situações indesejadas. Esses agentes, a partir das
notificações de eventos geradas pelos agentes Monitor e Analisador e
das diretrizes de funcionamento dos
processos obtido dos agentes de
Conhecimento, realizam o planejamento e geram os planos corretivos
e ações para o gerenciamento e controle dos processos.
• Coordenador – agentes responsáveis pela coordenação dos agentes
para alcançarem os objetivos comuns do sistema. Esses agentes, a
partir das requisições dos usuários,
gerenciam os outros agentes na
execução de suas tarefas para automatizar as atividades de monitoramento e análise dos processos. Eles
também podem consolidar os resultados de eventos gerados por diferentes agentes Analisadores para
obter informações mais confiáveis.
Em algumas das abordagens estudadas algumas das funcionalidades
do agente Coordenador também são
assumidas pelo agente Supervisor;
Interciência
& Sociedade
57
QUEIROZ, J. F. P.; GUILHERME, I. R.
6. Aplicação da arquitetura proposta
Utilizando a arquitetura proposta
foi implementado um protótipo de um sistema Web para automatizar o processo de
análise e integração de dados. O objetivo do
sistema é supervisionar e analisar o grande
volume de dados produzidos na perfuração de poços de petróleo a fim de facilitar a
identificação da ocorrência de anormalidades durante o processo de perfuração.
Muitas atividades da perfuração de
poços de petróleo são complexas e dispendiosas, envolvendo vários profissionais especializados que precisam monitorar continuamente os vários parâmetros de sensores
e equipamentos para identificar e diagnosticar falhas ou comportamentos indesejados.
Uma das anormalidades que pode ocorrer
durante a perfuração de poços de petróleo
é o Packer Hidráulico (TAVARES, 2006). O
protótipo desenvolvido visa o monitoramento da perfuração de poços de petróleo para
a identificação do Packer Hidráulico.
Nesse protótipo foram implementados os três componentes da arquitetura:
Interface do usuário, Sistema Multiagente e Dados e serviços. No componente de
Interface do usuário foram implementadas
algumas interfaces Web em XHTML com o
auxilio do framework JSF (JavaServer Faces). Essas interfaces, que podem ser visualizadas através de qualquer navegador,
apresentam os dados da perfuração e os
resultados dos processos de análise para
os usuários. Na interface do protótipo implementado (Figura 2) é apresentado os gráficos com quatro parâmetros monitorados e
os resultados da análise (alertas sobre as
condições de operação) realizada para a
identificação da anormalidade Packer Hidráulico.
Figura 2: Interface do protótipo para análise de anormalidades dos dados de perfuração.
No componente de Dados e serviços foram implementados dois serviços
Web que permitem aos agentes o acesso
aos dados e ao método utilizado para a
análise da anormalidade. Os dados utilizados representam um conjunto de dados da
perfuração coletados de sensores que são
utilizados na análise, e também um outro
58
conjunto de dados, de poços já perfurados,
onde especialistas classificaram a ocorrência da anormalidade Packer Hidráulico. Os
dados utilizados para a análise e identificação dessa anormalidade são do trabalho de
(TAVARES, 2006) e representam um conjunto de parâmetros de perfuração, como:
Torque, SPP (pressão no Stand Pipe), ROP
Interciência
& Sociedade
Arquitetura de um sistema multiagente autônomo para supervisão e controle
(taxa de penetração) e WOH (carga no gancho). Esses dados, disponíveis em um banco de dados, podem ser acessados através
do serviço Web implementado.
Ainda no componente de Dados
e serviços foi implementado um método
inteligente utilizado para a identificação
da anormalidade. Esse método consiste
de uma Rede Neural Artificial (RNA) Multi-Layer Perceptron (HAYKIN, 1998) que foi
implementada utilizando o framework Joone (JOONE, 2012). A RNA foi definida com
quatro neurônios na camada de entrada
correspondentes aos quatro parâmetros de
perfuração monitorados (Torque, SPP, ROP,
WOH), duas camadas ocultas com quatro
neurônios e uma camada de saída com
um neurônio, que indica a ocorrência dessa anormalidade. A RNA foi treinada para
o reconhecimento da anormalidade Packer
Hidráulico, utilizando um conjunto de dados
previamente classificados por especialistas.
Posteriormente esse método foi encapsulado como um serviço Web para ser utilizado
pelo agente Analisador, para diagnosticar o
status da operação, acusando diferentes níveis de alerta relacionados a ocorrência da
anormalidade.
No componente Sistema Multiagente foram desenvolvidos e implementados alguns agentes com a utilização da plataforma Jadex (JADEX, 2012). Os agentes
implementados foram: Interface do usuário,
Coordenador, Recurso, Analisador e Corretor. O agente Interface do usuário gerencia
as interfaces gráficas apresentadas aos
usuários. O agente Coordenador trata as
requisições e coordena os outros agentes
na execução das tarefas. O agente Recurso
faz a aquisição dos parâmetros de perfuração através do serviço Web implementado
no componente de Dados e serviços. O
agente Analisador utiliza os dados fornecidos pelo agente Recurso para a análise
da anormalidade. Para o agente Corretor
foi utilizado um agente da plataforma Jadex
que oferece os serviços de registro, esse
agente é chamado de Directory Facilitator
(DF).
Na Figura 3 é apresentado o diagrama de sequência do processo de análise, este diagrama exemplifica como é o
relacionamento e a comunicação entre os
agentes do sistema para realizar a tarefa de
análise da anormalidade Packer Hidráulico.
Nesse cenário o usuário faz uma requisição
de análise através de uma interface Web,
essa requisição é interpretada pelo agente Interface Usuário que faz uma requisição para o agente Coordenador trata-la. O
agente Coordenador analisa a requisição e
então faz uma busca, solicitando ao agente DF (Corretor), por agentes que desempenham as atividades necessárias para a
execução da análise da anormalidade. O
agente DF fornece uma lista com os agentes que prestam os serviços relacionados
à análise requisitada, que nesse caso são
os agentes do tipo Analisador que realiza a
análise da anormalidade Packer Hidráulico
e também os agentes Recurso que fornecem os dados utilizados para esta análise.
Conhecendo os agentes necessários, o
Coordenador requisita a análise para um
agente Analisador que foi encontrado na
busca. Em seguida o Analisador solicita ao
agente Recurso os dados necessários para
o processo de análise. Posteriormente, com
esses dados o agente Analisador invoca o
serviço Web para a análise do Packer Hidráulico (PHWS), implementado no componente de Dados e serviços. Os resultados
da análise são informados para o Coordenador, que se necessário pode processar
essas informações, gerando o resultado
final que é repassado ao agente Interface
Usuário, e este apresenta ao usuário os resultados atualizando as interfaces Web.
Interciência
& Sociedade
59
QUEIROZ, J. F. P.; GUILHERME, I. R.
Figura 3: Diagrama de sequência do processo de análise.
7. CONSIDERAÇÕES FINAIS E TRABALHOS FUTUROS
No desenvolvimento desse trabalho foi possível verificar que a abordagem
multiagente está sendo utilizada para o desenvolvimento de sistemas computacionais
complexos em vários domínios. No setor
industrial, esses sistemas são usados para
gerenciar grandes quantidades de informações, controlar processos, auxiliar profissionais em situações de tomada de decisões,
automatizar atividades, entre outras tarefas,
a fim de garantir a segurança e o funcionamento das operações e também automatizar algumas tarefas que são consideradas
repetitivas ou cansativas para os seres
humanos. Esses SMAs apresentam uma
forma de controle descentralizado onde os
agentes podem ser executados em plataformas distribuídas e com um grau de autonomia, são adaptativos e abertos sendo
capazes de se adaptar a novas situações
e permitem que componentes entrem ou
saiam do sistema dinamicamente.
Assim, a utilização de uma arquitetura multiagente fornece uma infraestrutura
mais apropriada para lidar com a complexidade dos ambientes industriais. Possibilitando o desenvolvimento de sistemas de
60
supervisão e controle mais inteligentes,
onde pode ser feita a analisa, monitoramento e controle das etapas produtivas de forma
mais eficaz. Nesse contexto, a arquitetura
apresentada define um conjunto de agentes, seus comportamentos e organização
que atendam aos requisitos de sistemas de
supervisão e controle de processos. Desta
forma, essa arquitetura pode ser utilizada
como base para o desenvolvimento de sistemas de supervisão e controle de processos em vários domínios.
Um protótipo foi implementado utilizando a arquitetura proposta. Para o teste
do protótipo foi desenvolvido um sistema
Web multiagente para a supervisão dos
processos de perfuração de poços de petróleo. Alguns agentes necessários foram
implementados e também uma RNA como
método para análise da anormalidade Packer Hidráulico.
Como trabalhos futuros para o
aperfeiçoamento da arquitetura proposta
será feito um estudo visando a definição de
mecanismos e diretrizes que sirvam para
guiar o comportamento do sistema multiagente nas operações de supervisão e controle. Dessa forma o sistema será capaz de
se reconfigurar automaticamente para se
adaptar as variações do ambiente como a
Interciência
& Sociedade
Arquitetura de um sistema multiagente autônomo para supervisão e controle
saída ou entrada de novos agentes, assim
como se recuperar de falhas. Também serão definidos mecanismos para o SMA continuamente avaliar suas operações e com
isso identificar oportunidades para se tornar
mais eficiente, otimizando a performance.
Posteriormente o protótipo do sistema Web
desenvolvido será evoluído para contemplar os mecanismos definidos.
REFERÊNCIAS BIBLIOGRÁFICAS
BRAZIER, F. M. T. et al. Agents and service-oriented computing for autonomic computing: A research agenda. Internet Computing, IEEE, v. 13, n. 3, p.
82–87, 2009.
BUNCH, L. et al. KARMEN - Multi-agent monitoring and Notification for Complex Processes. In
LNAI No. 3593. Heidelberg: Springer Verlag. 2005. p.
197–206.
CAPRETZ, M. A. M.; HRYB, M. C. Software integration using a dynamic wrapper agent. WSEAS Conferences. 2005. p. 1-6.
CERRADA, M. et al. Agents-based design for fault
management systems in industrial processes.
Computers in Industry, 58, n. 4, 2007. 313-328.
CHRYSSOLOURIS, G. Manufacturing Systems:
Theory and Practice (Mechanical Engineering Series). 2nd. ed. New York: Springer, 2006. 602 p.
HAYKIN, S. Neural Networks: A Comprehensive
Foundations. Second Edition. 1998.
JADEX. BDI Agent System - Jadex Software Projects, 2012 Disponível em: <http://jadex.informatik.
uni-hamburg.de/>. Acesso em: 27 Julho 2012.
JENNINGS, N. R. On agent-based software engineering. Artificial intelligence, v. 117, n. 2, p. 277–296,
2000.
JENNINGS, N. R. An agent-based approach for
building complex software systems. Communications of the ACM, 44, n. 4, 2001. 35-41.
JOONE. Java Object Oriented Neural Engine, 2012
Disponível em: <http://sourceforge.net/projects/joone/>. Acesso em: 2 Setembro 2012
NG, Y. S.; SRINIVASAN, R. Multi-agent based collaborative fault detection and identification in chemical processes. Engineering Applications of Artificial Intelligence, 23, n. 6, 2010. 934-949.
PECHOUčEK, M.; MARÍK, V. Industrial deployment
of multi-agent technologies: review and selected
case studies. Autonomous Agents and Multi-Agent
Systems, 17, n. 3, 2008. 397–431.
PURVIS, M.; CRANEFIELD, S.; NOWOSTAWSKI, M.
A distributed architecture for environmental information systems. In Environmental Software Systems-Environmental Information and Decision Support.
2000. p. 49-56.
TAVARES, R. M. Interpretação e Análise de Dados
de Perfuração em Poços de Petróleo. Dissertação
de Mestrado (Universidade Estadual de Campinas).
2006.
WOOLDRIDGE, M. An Introduction to MultiAgent
Systems. John Wiley & Sons, 2002.
WOOLDRIDGE, M.; JENNINGS, N. R. Intelligent
Agents: Theory and Practice. The Knowledge Engineering Review, v. 10, n. 2, p. 115-152, 1995.
Jonas Felipe Pereira de Queiroz é graduado em Ciências da Computação (2007) pela UNESP – Rio Claro. E
mestrando em Ciências da Computação pela UNESP no Programa de Pós-graduação em Ciências da Computação (PPGCC). Realiza pesquisas na área de Sistemas Multiagentes.
Ivan Rizzo Guilherme é formado em Ciências da Computação pela Universidade Federal de São Carlos (UFScar)
em 1985, Mestre e Doutor em Engenharia Elétrica e Computação pela Universidade de Campinas (UNICAMP)
em 1990 e 1996 respectivamente. Atualmente professor assistente e doutor na Universidade Estadual Paulista
(UNESP – Rio Claro).
Interciência
& Sociedade
61
62
Interciência
& Sociedade
SIMULAÇÃO DE PROBLEMAS DE ELETROHIDRODINÂMICA USANDO O MÉTODO DOS ELEMENTOS FINITOS
MOMENTE, Julio Cesar
Universidade Estadual Paulista Júlio de Mesquita Filho (UNESP)
[email protected]
MACHADO, José Márcio
Universidade Estadual Paulista Júlio de Mesquita Filho (UNESP)
[email protected]
RESUMO: As descargas corona e a geração de fluxo eletrohidrodinâmico têm sido objeto de estudo de
diversas pesquisas devido à sua grande aplicabilidade em processos industriais. Com o intuito de se
analisar e estudar a fundo estes fenômenos, a simulação computacional das equações que os regem
se faz necessária. O método dos elementos finitos apresenta-se como uma técnica numérica bastante
robusta e precisa para a simulação destas equações e análise destes fenômenos.
PALAVRAS-CHAVE: fluxo eletrohidrodinâmico (EHD), método dos elementos finitos, descargas corona.
ABSTRACT: Corona discharges and electrohydrodynamic flow generation have been widely studied
due to their large industrial applicability. In order to achieve a deep understanding on these phenomena,
a computational simulation of their governing equations need to be performed. Thereby, the finite element method appears as a robust and reliable numerical method to perform this simulation, ensuring a
good analysis of these phenomena.
KEYWORDS: electrohydrodynamic (EHD) flow, finite element method, Corona discharges.
1. INTRODUÇÃO
“A eletrohidrodinâmica é o estudo
das interações entre um campo elétrico e
um campo de fluxo” (Brown e Lai, 2009). A
aplicação de uma grande diferença de potencial entre um conjunto de eletrodos é
capaz de gerar uma descarga elétrica, conhecida como descarga corona, que é capaz de induzir o movimento do fluido, gás
ou líquido, ao redor dos eletrodos. Este fluxo de fluido gerado pelas descargas corona
é chamado de fluxo eletrohidrodinâmico ou,
simplesmente, fluxo EHD. (Zhao e Adamiak,
2009) e (Labergue et al., 2005).
A geração de fluxos EHD tem sido
amplamente estudada para a aplicação em
diversos processos industriais, tais como
bombeamento de fluido, resfriamento de
microcomponentes, coleta de partículas em
suspensão, dentre diversos outros processos (Chang et al., 2009) e (Brown e Lai,
2009). Os diversos estudos realizados têm
mostrado que a aplicação de fluxo EHD a
tais processos industriais têm provido melhorias, como ganho em eficiência e maior
precisão no controle do fluxo, a estes.
As descargas corona e a consequente obtenção de fluxo EHD são regidas
por um conjunto de equações de campo elétrico e de dinâmica de fluidos. A simulação
dessas equações permite que os efeitos
dessas descargas elétricas e do fluxo gerado sejam analisados previamente, permitindo a elaboração de técnicas que busquem
otimizar a sua utilização nos processos industriais (Zhao e Adamiak, 2006) e (Zhao e
Adamiak, 2008).
Os problemas em eletrohidrodinâmica são regidos por equações diferenciais
parciais as quais, em geral, são intrinsecamente não lineares. Além disso, a geometria dos problemas que envolvem a geração
de fluxo EHD, comumente, não é trivial, ou
seja, normalmente a geometria desses problemas não possui características de simeInterciência
& Sociedade
63
MOMENTE, J. C.; MACHADO, J. M.
tria que permitam a simplificação do mesmo
(Stishkov e Chirkov, 2008). Devido a estas
características de não linearidade e geometrias que não permitem simplificações no
modelo, a solução analítica das equações
que regem as descargas corona e a geração de fluxo EHD torna-se impraticável.
A fim de se realizar a simulação
das equações que regem esses efeitos,
métodos numéricos apresentam-se como
uma alternativa factível, visto que a solução
analítica destas equações, normalmente,
não possível de ser obtida. Neste cenário,
o método dos elementos finitos mostra-se
como uma boa opção para a simulação das
equações que regem estes fenômenos. O
método dos elementos finitos é uma técnica
robusta e confiável para a solução de sistemas de equações diferenciais, a qual é
capaz de lidar com não linearidades e geometrias não regulares apresentando boa
precisão nos resultados (Davies, 1980).
O objetivo deste trabalho é realizar
a implementação do método dos elementos finitos para se realizar a simulação das
equações regentes dos problemas de eletrohidrodinâmica.
2. Fundamentação Teórica
Quando uma grande diferença de
potencial é aplicada a um par de eletrodos,
presencia-se a formação de um campo elétrico suficientemente forte para formar uma
camada de ionização ao redor dos eletrodos (Moreau, Léger e Touchard, 2006). Esta
diferença de potencial tem de ser da ordem
de milhares de volts. Devido ao forte campo elétrico formado entre os eletrodos, uma
pequena parcela do fluido que está presente ao redor desses se ioniza, formando uma
camada de plasma não-térmico (Brown e
Lai, 2009).
A presença deste forte campo elétrico e da camada de ionização faz com que
haja o deslocamento de íons de um eletrodo
ao outro. Neste deslocamento, os íons chocam-se com as partículas neutras do fluido
e acabam por produzir um deslocamento
deste fluido. (Zhao e Adamiak, 2005). A toda
esta configuração de formação da camada
de ionização e deslocamento de íons devido o campo elétrico é dado o nome de des-
64
carga corona (Labergue et al., 2005).
A ocorrência de descargas corona,
normalmente, ocorre em eletrodos de grande curvatura, também conhecidos como
sharp electrodes. Uma configuração de eletrodos bastante utilizada para a geração de
descargas corona é composta por um par
de eletrodos, sendo que um deles é aterrado e ao outro é aplicado um alto valor de
tensão. Este último é denominado de eletrodo corona e é ao redor dele que se forma
a camada de ionização (Zhao e Adamiak,
2005).
A geração de fluxo EHD pode ser
influenciada por diversos fatores, tais como
o valor de tensão aplicada ao eletrodo corona, a geometria dos eletrodos, a distância
de separação e o fluido que cerca os eletrodos (Brown e Lai, 2009). Estes fatores
podem influenciar na eficiência da geração
do fluxo, na velocidade do fluxo gerado e
na corrente estabelecida pelo deslocamento de íons de um eletrodo ao outro. Todos
estes aspectos devem ser analisados ao se
aplicar uma configuração de geração de fluxo EHD a algum processo industrial, visto
que estes possuem impacto direto no ganho ou melhoria esperados para o processo
(Moreau, Léger e Touchard, 2006).
Um aspecto importante a ser analisado é o tipo de camada de plasma que
se forma ao redor do eletrodo corona. Há
dois tipos possíveis de descargas de plasma. Descargas do tipo glow são descargas
de plasma que ficam contidas no entorno
do eletrodo corona, proporcionando uma
geração mais uniforme de fluxo EHD, à
baixa velocidade. Descargas do tipo spark
estendem-se de um eletrodo ao outro na
forma de uma faísca ou raio. Estas descargas produzem velocidades maiores de
fluxo EHD, mas não são uniformes e nem
constantes, durando por menor período de
tempo. Desta forma, é preferível realizar a
geração de fluxo EHD através de descargas
do tipo glow, mesmo que estas apresentem
menor velocidade do fluxo e limitação no
valor de tensão aplicado (Moreau, Léger e
Touchard, 2006).
A geração de fluxo EHD pode ser
dividida em duas partes, no que diz respeito
às equações que regem este efeito, a parte
elétrica e a parte de fluxo (Zhao e Adamiak,
Interciência
& Sociedade
Simulação de problemas de eletrohidrodinâmica usando o método dos elementos
finitos
⇒
K∇ ⋅
2006). As grandezas envolvidas na parte
elétrica são o campo elétrico, a densidade
espacial de carga e a corrente elétrica. Para
as equações do fluxo as grandezas envolvidas são a velocidade do fluxo, as forças
atuantes, a pressão e o campo de temperaturas (Adamiak, Atrazhev e Atten, 2005).
Neste trabalho têm-se desenvolvido apenas a simulação das equações da
parte elétrica, para que, com resultados
consistentes desta
r simulação possa-se ini- r
∇
⋅
⋅
K
E
0 de⇒fluxo
K∇
ciar a abordagem da=parte
do proqE
r
r
blema.
= 0 ⇒ ∇ ⋅
= 0 ⇒
qE
qE
As equações que regem a parte elétrica do problema são a equação de
Poisson, Eq. 1,
(
( )
∇ 2Ö
=
−
)
( )
(1)
=
q
r
r
KE + u
(
)
− D∇
(2)
q
r
onde j é a densidade de corrente, K é a
r
mobilidade dos íons, E é o campo elétrico,
r
u é a velocidade do fluxo e D é o coeficiente de difusão de íons. E, finalmente,
a equação de conservação da carga ∇ ⋅ rj
. (Zhao e Adamiak, 2008), (Feng, 1999) e
(Zhao e Adamiak, 2005).
Aplicando-se a equação de conservação de carga à equação de densidade
de corrente temos:
∇ ⋅
(
q
r
KE +
q
r
u − D∇
q
)
=
0
(3)
Aplicando-se, então o divergente à
equação 3 obtém-se:
r
r
.
∇ ⋅
K
E
+ u ⋅ ∇ − ∇ ⋅ D∇
q
(
∇
− ∇ ⋅
(D∇ )
q
)
=
(
0
(4)
Temos na equação 4 três termos,
o primeiro corresponde ao termo de condução, o segundo ao termo de convecção e
o terceiro ao termo de difusão. Os termos
de convecção e difusão possuem pouca influência no valor da equação, sendo o termo de difusão o preponderante. Sendo assim, com o intuito de simplificar a equação,
=
0
(5)
Aplicando-se o divergente e sabendo que a mobilidade de íons K é constante, temos:
r
( KE )
∇ ⋅
=
0
=
⇒ ∇ ⋅
r
E + ∇ q
q∇ ⋅
0
⇒
r
E
q
r
⋅ E
( )
q
)
r
K∇ ⋅
( E)
=
0
⇒
=
0
q
=
0
⇒
r
E +
q∇ ⋅
(6)
Deste desenvolvimento resulta que
o conjunto de equações 7 rege a parte elétrica de problemas em eletrohidrodinâmica
(Martins e Pinheiro, 2011).
∇ 2Ö = − q / å0
r
r
∇
⋅
∇
⋅
E
+
E
=
q
q
onde Φ é o potencial elétrico, ϱ q é a densidade espacial de carga e ε0 é a permissividade do meio. A equação de densidade de
corrente, Eq. 2,
r
j
r
(KE )
∇ ⋅
( )
/ å0
q
desconsideramos os termos de convecção
e difusão, obtendo-se (Martins e Pinheiro,
2011):
0
(7)
O Método dos Elementos Finitos
(MEF) foi a técnica escolhida para realizar a simulação destas equações. O MEF
apresenta-se como uma técnica numérica
para a resolução de equações e sistemas
de equações diferenciais com boa precisão
e robustez (Feng, 1999).
A ideia central do método dos elementos finitos é a divisão do domínio do
problema em regiões pequenas, onde se
possa resolver o problema através de uma
aproximação que torne a solução mais fácil.
Quão menores forem as partes em que o
domínio for dividido quão mais preciso será
o resultado da simulação. Utilizando-se desta estratégia, o MEF é capaz de solucionar
problemas lineares e não lineares (Davies,
1980) e (Azevedo, 2003).
O método dos elementos finitos é
dividido
= 0 em três etapas. A etapa de pré-processamento, que corresponde à definição
do problema, especificação da geometria e
condições de contorno e a geração da malha de elementos finitos, que é o conjunto
das regiões em que o domínio foi dividido. A
etapa de processamento, na qual se realiza
a solução do problema para cada um dos
elementos da malha e constrói-se a solução
do problema como um todo com base nas
contribuições de cada elemento. Por fim, a
etapa de pós-processamento contempla a
Interciência
& Sociedade
65
MOMENTE, J. C.; MACHADO, J. M.
análise dos resultados e a obtenção de informações sobre o problema com base nos
resultados obtidos (Cardoso, 1995).
3.Trabalhos relacionados
Muitas pesquisas têm sido realizadas com o intuito de prover um completo
entendimento das descargas corona e da
geração de fluxo EHD a fim de que estes
fenômenos possam ser utilizados em processos industriais de forma a garantir uma
melhoria nestes.
O bombeamento de fluidos é um
processo em que a geração de fluxo EHD
é capaz de prover melhorias significativas
no que diz respeito ao controle do fluxo e a
dimensão do aparato utilizado para o bombeamento. Dispositivos de bombeamento
de fluidos EHD, que utilizam a geração de
fluxo EHD para realizar o bombeamento,
possuem controle do fluxo de alta precisão,
além de poderem ser utilizados dispositivos
em escala reduzida (Adamiak et al., 2007)e
(Moon, Hwang e Geum, 2009).
A aplicação de geração de fluxo
EHD para bombeamento de fluido tem sido
estudada para aplicação na indústria farmacêutica para a produção de fármacos e
também para o resfriamento de microcomponentes eletrônicos. A utilização de fluxo
EHD, nestes casos, mostrou-se mais eficiente do que os dispositivos que utilizam
partes mecânicas móveis (Adamiak et al.,
2007)e (Moon, Hwang e Geum, 2009).
Outra importante aplicação de descargas corona e fluxos EHD é na coleta de
partículas em suspensão. Sistemas de filtros de micropartículas utilizam descargas
corona e fluxos EHD há alguns anos. Contudo, somente com os recentes avanços em
termos de poder computacional, o estudo da
eficiência e otimização destes fenômenos
pôde ser completamente realizado (Zhao e
Adamiak, 2008) (Farnoosh, Adamiak e Castle, 2011).
No trabalho desenvolvido por
Zhang et al. (2011), acerca de precipitadores eletrostáticos (dispositivos para coleta
de partícula em suspensão por meio da geração de fluxo EHD e descargas corona),
mostrou-se a melhora na taxa de coleta de
partículas menores que 10 (micrometros),
66
que são extremamente prejudiciais a saúde.
Há ainda a aplicação das descargas corona no controle ativo de fluxo em
aeronaves. As descargas corona são utilizadas para modificar o fluxo de ar que percorre uma aeronave a fim de reduzir a força
de arrasto sofrida pela aeronave (El-Kharaby e Colver, 1997).
A utilização das descargas corona
tem mostrado resultados bastante satisfatórios, sendo capaz de, além de reduzir o
arrasto sofrido pela aeronave, aumentar a
força de sustentação, deixando a aeronave mais estável, e, como consequência da
redução do arrasto, promover uma redução
no gasto de combustível. (Labergue et al.,
2005) e (El-Kharaby e Colver, 1997).
Por fim, a geração de fluxo EHD
e as descargas corona são utilizadas em
dispositivos de propulsão eletrostática, tais
como levitadores eletrostáticos (Zhao e
Adamiak, 2004).
Dispositivos de propulsão eletrostática têm sido estudados para a aplicação
na fabricação de telas de cristal líquido,
LCD, pois, segundo o estudo realizado por
Woo e Higuchi (2010), estes dispositivos
são capazes de prover uma força de sustentação uniforme, o que permite que a camada de separação entre as duas placas
de vidro que formam uma tela de cristal
líquido seja reduzida, tornando possível a
produção de telas mais finas e com maior
eficiência energética.
4. Desenvolvimento
O presente trabalho contempla a
execução de três etapas para que uma análise da parte elétrica de problemas de geração de fluxo EHD seja realizada. As etapas
são: modelagem, geração do modelo e das
malhas e resolução pelo método dos elementos finitos.
4.1 Geração de modelos e malhas
A primeira etapa a ser executada
foi a criação dos modelos gráficos do domínio do problema. Esta representação gráfica é a especificação geométrica do domínio
com todas as características de posição,
elementos, materiais e fronteiras. Estes
Interciência
& Sociedade
Simulação de problemas de eletrohidrodinâmica usando o método dos elementos
finitos
modelos foram construídos utilizando-se
o software Blender (disponível em <http://
blender.org>), um software para a criação
de modelos tridimensionais de objetos e
estruturas. A figura 1 mostra dois modelos
gerados pelo Blender. A figura 1.a. mostra o
modelo de um capacitor de placas paralelas
e a figura 1.b mostra o modelo de um dispositivo de bombeamento de fluidos cuja configuração de eletrodos não é trivial (Moon,
Hwang e Geum, 2009).
Após os modelos terem sido cria-
dos, as respectivas malhas de elementos
finitos foram criadas utilizando-se o software TetGen (disponível em <http://tetgen.
org>),um software para a geração de malhas de elementos finitos tetraédricas. Para
que esta geração de malhas fosse executada, houve a necessidade de se realizar a
conversão do formato suportado pelo Blender para o formato de arquivo aceito pelo
TetGen. Esta conversão foi realizada por
meio de uma programa em linguagem C escrito para este projeto.
a)
b)
Figura 1: Modelos geométricos para aplicação do método dos elementos finitos.
A figura 2 mostra as malhas de
elementos finitos geradas pelo TetGen. A
figura 2.a mostra a malha de elementos tetraédricos do capacitor de placas paralelas.
A figura 2.b mostra a malha de elementos
tetraédricos do dispositivo de bombeamento de fluidos (Moon, Hwang e Geum, 2009).
A figura 2 mostra as malhas de
elementos finitos geradas pelo TetGen. A
figura 2.a mostra a malha de elementos tetraédricos do capacitor de placas paralelas.
A figura 2.b mostra a malha de elementos
tetraédricos do dispositivo de bombeamento de fluidos (Moon, Hwang e Geum, 2009).
a)
b)
Figura 2: Modelos de malhas gerados pelo software.
4.2 Modelagem
A etapa de modelagem consiste
em transformar as equações regentes do
problema em uma forma que seja possível
de ser implementada computacionalmente.
Neste trabalho realizou-se a modelagem tridimensional de problemas de eletrohidrodinâmica, utilizando malhas de elementos tetraédricos, ou seja, o domínio do problema
Interciência
& Sociedade
67
MOMENTE, J. C.; MACHADO, J. M.
foi dividido em pequenos tetraedros, dentro
dos quais se fez a análise do problema.
Sendo o resultado obtido para cada elemento combinado, ao final, para a obtenção
da solução geral.
Para tanto, o método de resíduos
ponderados (ou método de Galerkin) foi utilizado para converter as equações que regem a parte elétrica do problema em uma
forma matricial, que é facilmente implementado computacionalmente (Feng, 1999).
este trabalho realizou-se a simulação da equação de Laplace, Eq. 8,
∇ 2Ö
=
0
(8)
que rege a parte elétrica de problemas onde
não há densidade de carga no ambiente. A
equação de Laplace em sua forma matricial
é dada pela equação 9,
[S]V= 0
(9)
onde a matriz [S] é dada facilmente encontrada na literatura (Silvester e Ferrari, 1996).
4.3 Resolução pelo método dos elementos
finitos
Com a malha gerada e as equações em sua forma matricial, o problema
foi resolvido utilizando o método dos elementos finitos, o qual foi implementado em
linguagem C, utilizando aproximações lineares para o cálculo da equação de Laplace
em cada elemento.
Seguindo a metodologia do método
dos elementos finitos, uma solução global
foi construída com base nos elementos da
malha. Os valores de potencial elétrico foram calculados para todos os nós da malha,
permitindo uma análise do comportamento
do potencial para o capacitor de placas pa-
ralelas. Este exemplo mais simples foi utilizado devido a possibilidade de validação
com modelos teóricos já conhecidos, o que
não seria possível para o modelo do dispositivo e bombeamento de fluidos proposto
por Moon, Hwang e Geum. (2009).
5. RESULTADOS
Depois de gerados o modelo e a
malha de elementos finitos e ao término da
execução do método dos elementos finitos,
obtém-se os valores de potencial para o
modelo. Neste trabalho foi realizada a simulação da equação de Laplace, Eq. 8, para o
capacitor de placas paralelas.
Para o modelo do capacitor foi
gerada uma malha de mais de 13 mil elementos tetraédricos, a qual foi utilizada para
gerar a solução pelo método dos elementos
finitos.
Com o intuito de validar os resultados obtidos pela implementação do método dos elementos finitos, foi realizada uma
comparação de um modelo com as mesmas
dimensões no software LevSoft (software
para a simulação de problemas de eletromagnetismo para modelos em duas dimensões produzido pelo Instituto de Estudos
Avançados do Departamento de Ciência e
Tecnologia Aeroespacial – IEAv DCTA).
Devido a restrições do software, o
modelo executado no LevSoft é um modelo
em duas dimensões, o que não compromete a validação, pois o modelo do capacitor
de placas paralelas pode ser planificado
sem perda de qualidade da solução.
O resultado obtido para o modelo
tridimensional e a comparação com o resultado obtido pelo LevSoft são mostrados na
figura 3.
Figura 3: Comparação de resultados para o modelo do capacitor de placas paralelas.
68
Interciência
& Sociedade
Simulação de problemas de eletrohidrodinâmica usando o método dos elementos
finitos
Conforme mostrado na figura 3, a
implementação do método dos elementos
finitos gerou bons resultados, bastante próximos dos resultados obtidos pelo software
LevSoft, que é um software específico para
o cálculo de problemas de eletromagnetismo e do qual obtém-se resultados confiáveis. É possível ainda observar que, nas
regiões externas às placas do capacitor,
há uma discrepância de resultados, o que
pode ser explicado pelo fato de a simulação
efetuada neste trabalha ser tridimensional,
permitindo uma análise mais detalhada do
comportamento do campo elétrico.
Além da precisão do método implementado, como pode ser notado na figura
3, esta implementação também é computacionalmente interessante, pois demanda
um curto tempo de execução para gerar os
resultados. A simulação foi efetuada em
uma máquina com 8GB de memória RAM,
processador intel® core i7, com sistema
operacional linux OpenSuse 12.1 e levou
cerca de 2 minutos para concluir os cálculos
e fornecer o resultado. A geração da malha
também se deu de forma rápida, aproximadamente 30 segundos, utilizando as mesmas configurações. Estes resultados são
bastante expressivos, principalmente por
utilizar somente códigos desenvolvidos durante o projeto e, para a modelagem e geração das malhas softwares livres e de fácil
obtenção;
6. CONCLUSÕES
Como pode ser visto os problemas
em eletrohidrodinâmica são de grande interesse devido à sua grande aplicabilidade
em processos industriais, onde a geração
de fluxo EHD e as descargas corona podem gerar melhorias e tornar tais processos
mais confiáveis.
Um dos grandes desafios da simulação de problemas em eletrohidrodinâmica
é a dificuldade em se resolver as equações
que os regem devido às suas características de não linearidade e de modelos geralmente assimétricos, não permitindo simplificações. Neste sentido o método dos
elementos finitos se apresenta como uma
alternativa confiável e robusta para simular
essas equações.
Conforme mostrado pelos resultados obtidos, a solução encontrada pelo
programa desenvolvido neste projeto apresenta-se bastante próxima da encontra pelo
software LevSoft, que possui resultados validados com resultados teóricos.
O presente trabalho mostra um
avanço no que diz respeito à realização de
simulação computacional de modelos tridimensionais. Como trabalhos futuros pretende-se realizar a simulação do conjunto de
equações da parte elétrica de problemas
EHD com a presença de densidade espacial de carga, o que representa uma dificuldade adicional, pois a validação deve ser
realizada com base em resultados experimentais e a simulação deve contemplar a
não linearidade das equações.
REFERÊNCIAS BIBLIOGRÁFICAS
ADAMIAK, K.; MIZUNO, A. NAKANO, M. Electrohydrodynamic flow in optoelectrostatics micropump.
Experiment versus numerical simulation. In: Industry
Applications Conference, 2007. 42nd IAS Annual
Meeting. Conference Record of the 2007 IEEE., p.
32-37, 2007.
ADAMIAK, K.; ATRAZHEV, V. ATTEN, P. Corona discharge in the hyperbolic point-plane configuration:
direct ionization criterion versus approximate formulations. Dielectrics and Electrical Insulation, IEEE
Transactions on, v. 12, n. 5, p. 1015-1024, 2005.
AZEVEDO, A. Método dos elementos finitos. Porto –
Portugal: Faculdade de Engenharia da Universidade
do Porto, 2003. 258p.
BROWN, N.; LAI, F. Electrohydrodynamic gas pump
in a vertical tube. Journal of Electrostatics, v.67, n.
4, p. 709714, 2009.
CARDOSO, J.R. Introdução ao método dos elementos finitos para engenheiros eletricistas. São Paulo,
Brasil: Editoração Própria, 1995. 110p.
CHANG, J. et al. Mechanism of electrohydrodynamically induced flow in wire-non-parallel plate electrode
type gas pump. Journal of Electrostatics, v. 67, n.
2-3, p. 335-339, 2009.
DAVIES, A. The finite element method: A first approach. Clarendon Press, 1980. (Oxford applied mathematics and computing science series).
EL-KHARABY, S.; COLVER, G.M. Drag reduction by
DC corona discharge along an electrically conductive
flat plate for small Reynolds number flow. AIP,v.9, n.3,
p.587-599, 1997.
Interciência
& Sociedade
69
MOMENTE, J. C.; MACHADO, J. M.
FARNOOSH, N.; ADAMIAK, K. CASTLE, G. Three-dimensional analysis of electrohydrodynamic flow in a
spiked electrode plate electrostatic precipitator. Journal of Electrostatics, v.69, n. 5, p. 419-428, 2011.
FENG, J.Q. Application of galerkin finite-element method with newton iterations in computing steady-state
solutions of unipolar charge currents in corona devices. Journal of Computational Physics, v.151, n.2,
p.969 – 989, 1999.
LABERGUE, A. et al. Effect of a plasma actuator on
an airflow along an inclined wall: P.I.V. and wall pressure measurements. Journal of Electrostatics, v.
63, n. 6-10, p 961967, 2005.
MARTINS, A.A.; PINHEIRO, M.J. Modeling of na
EHD corona flow in nitrogen gas using an asymmetric
capacitor for propulsion. Journal of Electrostatics,
v.69, n. 2, p. 133-138, 2011.
MOON, J.D.; HWANG, D.H.; GEUM, S.T. An EHD gas
pump utilizing a ring/needle electrode. Dielectrics and
Electrical Insulation, IEEE Transactions on, v.16, n. 2,
p. 352-358, 2009.
MOREAU, E.; LÉGER, L.; TOUCHARD, G. effect of a
DC surface-corona discharge on a flat plate boundary layer for air flow velocity up to 25m/s. Journal of
Electrostatics, v. 64, n. 3-4, p. 215-225, 2006.
SILVESTER, P.; FERRARI, R. Finite elements for electrical engineers. Cambridge University Press,1996.
STISHKOV, Y.; CHIRKOV, V. Computer simulation of
EHD flows in a needle-plane electrode system. Te-
chnical Physics, MAIK Nauka/Interperiodica distributed exclusively by Springer Science+Business
Media LLC., v.53, p. 1407-1413, 2008.
WOO, S.J.;HIGUCHI, T. Electric field and force modeling for electrostatic levitation of lossy dielectric plates.
AIP, v.108, n.10, 2010.
ZHANG, J.P. et al. A numerical simulation of diffusion
charging effect on collection efficiency in wire-plate
electrostatic precipitators. Plasma Science, IEEE
Transactions on, v.39, n.5, p.1823-1828, 2011.
ZHAO, L.; ADAMIAK, K. Effects of EHD and external
airflows on electric corona discharge in point-plane/
mesh configurations. Industry Application, IEEE
Transactions on, c. 45, n.1, p. 16-21. 2009.
ZHAO, L.; ADAMIAK, K. Numerical simulation of the
electrohydrodynamic flow in a single wire-plate electrostatic precipitator. Industry Applications, IEEE
Transactions on, v.44, n. 3, p. 683-691, 2008.
ZHAO, L; ADAMIAK, K. EHD gas flow in air electrostatic levitation unit. Journal of Electrostatics, v.64, n
7-9, p. 639-645, 2006.
ZHAO, L.; ADAMIAK, K. Numerical analysis of forces
in electrostatic levitation unit. Journal of Electrostatics, v.63, n.6-10, p.729-734, 2005.
ZHAO, L.; ADAMIAK, K. EHD flow in air produced by
electric corona discharge in pin-plate configuration.
Journal of Electrostatics, v. 63, n. 3-4, p. 337-350,
2004.
Julio Cesar Momente é bacharel em ciência da computação pela Universidade Estadual Paulista Júlio de Mesquita Filho, UNESP, Câmpus de São José do Rio Preto/SP. Atua na área de eletromagnetismo computacional.
José Márcio Machado é professor Doutor da Universidade Estadual Paulista Júlio de Mesquita Filho, UNESP,
Câmpus de São José do Rio Preto/SP. Atua na área de eletromagnetismo computacional e soluções de alto-desempenho para problemas de bioinformática.
70
Interciência
& Sociedade
BUSCA QUÂNTICA EM BANCOS DE DADOS XML USANDO ALGORITMO DE GROVER
PONTES, Michael Alexandre
Universidade Estadual Paulista (UNESP)
[email protected]
BORGES, Manoel Ferreira Neto
Universidade Estadual Paulista (UNESP)
[email protected]
RESUMO: Este artigo apresenta a implementação de um algoritmo de busca quântica com pequenas modificações. A idéia desse algoritmo é ser hibrido, podendo funcionar em sistemas clássicos e
sistemas quânticos. São apresentados os conceitos quânticos das buscas e introduzido um pseudo-framework capaz de gerar códigos para computadores clássicos (C++) e computadores quânticos
(QCL). Os algoritmos foram submetidos a simulações, que resultaram em um estudo comparativo do
funcionamento do algoritmo de Grover em ambos os sistemas, realizando buscas em uma massa de
dados em arquivos no formato XML. Como resultado, observa-se números muito parecidos entre sistemas clássicos e quânticos, isso gera uma expectativa de que a busca em computadores quânticos
reais seja muito mais eficiente.
PALAVRAS-CHAVE: busca quântica, grover, QCL, emaranhamento, sobreposição.
ABSTRACT: This paper presents a quantum search algorithm implementation with small modifications.
The algorithm idea is to be hybrid, capable to run on classical systems and quantum systems. We
present the concepts of quantum search and introduced a pseudo-framework able to generate code
for classical computers (C++) and quantum computers (QCL). The algorithms were submitted to simulations, which resulted in a comparative study of the operation of Grover’s algorithm on both systems,
carrying out searches in a mass of data in XML format files. As a result, we see very similar numbers
between classical and quantum systems, this creates an expectation that the search in real quantum
computers is much more efficient.
KEYWORDS: quantum search, grover, qcl, entanglement, superposition.
INTRODUÇÃO
Como todas as simples ideias na
ciência, levou tempo para que se notasse a
conexão entre os conceitos de computação
e as características de sistemas físicos microscópicos, propriedades como emaranhamento e superposição coerentes de estados
distintos estão presentes nos fundamentos
da mecânica quântica e sempre foram considerados aspectos mais estranhos desta
teoria (NIELSEN; CHUANG, 2005). O reconhecimento de que a informação, muito
mais que um conceito matemático abstrato,
é uma propriedade de sistemas físicos, levou a enormes avanços na interpretação da
Mecânica Quântica.
Com a utilização da Computação
Quântica, tempos impraticáveis necessários
para executar certas tarefas na computação
clássica, passam a ser tempos normais em
computadores quânticos. Como afirma HAWKING, 2009, problemas praticamente insolúveis para computação clássica passam
a ser solúveis em computação quântica.
Computadores quânticos oferecem
computação mais poderosa (SIMON, 1994)
do que os computadores clássicos, devido
à capacidade dos computadores quânticos de terem alguns estados que não têm
equivalência em um computador clássico.
Características como a superposição de
valores e/ou o emaranhamento de estados
são aspectos que representam o “coração”
do funcionamento de um sistema quântico.
Isso tudo somado ao paralelismo quântico,
Interciência
& Sociedade
71
PONTES, M. A.; BORGES NETO, M. F.
representa um diferencial considerável frente à computação que estamos habituados.
Visando contribuir com a área pouco explorada da Computação Quântica,
este artigo propõe a implementação de um
sistema híbrido de busca em bancos de dados não estruturados. Tal sistema visa realizar buscas clássicas e buscas quânticas,
ambas baseadas no mesmo algoritmo de
busca, o Algoritmo de Grover. Este algoritmo é conhecido na área quântica, porém
sua implementação de forma híbrida é um
desafio novo. A proposta de um mesmo engine capaz de realizar buscas em sistemas
quânticos e clássicos é o que justifica e define a originalidade deste trabalho.
As buscas realizadas pelo algoritmo proposto poderão ser aplicadas em
sistemas de computação clássica, computação quântica ou computação hibrida
(SCHUBOTZ, 2007; ÖMER, 2000). Neste
artigo, o algoritmo proposto utiliza um simulador quântico para testar os algoritmos em
sistemas quânticos, e realiza as buscas em
bancos de dados baseados em estruturas
XML (eXtensible Markup Language).
1. COMPUTAÇÃO QUÂNTICA
Na computação clássica, a memória do computador é organizada em bits,
onde cada bit representa um ou zero. Na
computação quântica, por outro lado, existem alguns fenômenos da mecânica quântica, como superposição e emaranhamento
de estados, que são utilizados para executar operações em dados (MUTIARA; REFIANTI, 1994).
Computadores Quânticos foram
propostos no início dos anos 1980 (BENIOFF, 1980) e em muitos aspectos, mostraram-se tão poderosos quanto os computadores
clássicos. A descrição formal dos computadores quânticos só foi realizada no final dos
anos 80 e início dos anos 90 (DEUTSCH,
1985; BERTHIAUME; BRASSARD, 1994;
BERNSTEIN; VAZIRANI, 1993; YAO, 1993)
e os computadores quânticos, em vários
problemas específicos, se mostraram mais
poderosos que os computadores clássicos.
No início de 1994, (SHOR, 1994)
demonstrou que um computador quântico poderia resolver de forma eficiente um
72
problema bem conhecido, para o qual não
havia algoritmo eficiente usando computadores clássicos. Este é o problema de fatoração, isto é, encontrando os fatores de
um determinado número inteiro , em um
tempo que é polinomial em
.
A pesquisa na área de computação
e informação quântica ganhou um imenso
interesse com os resultados apresentados para o problema de fatoração (SHOR,
1994). Na sequência, os algoritmos de busca (GROVER, 1996) também passaram a
chamar bastante atenção para sua eficiência. Esses resultados comprovam o enorme poder computacional de uma máquina
quântica. No entanto, a construção de computadores quânticos representa um imenso
desafio tecnológico e, neste momento, o
hardware quântico só está disponível em laboratórios de pesquisa. Diante desse cenário, os simuladores quânticos tornaram-se
instrumentos valiosos no desenvolvimento
e testes de algoritmos quânticos, bem como
na simulação de modelos físicos (CARAIMAN; MANTA, 2010).
Um dos grandes atrativos na computação quântica é que no lugar de usar
bits, são usados qubits (bits quânticos). Um
único qubit pode representar um, zero, ou
ambos ao mesmo tempo, o que é chamado
de superposição. Com essa capacidade, a
computação quântica pode realizar várias
tarefas simultaneamente de forma mais rápida do que a computação clássica.
Há também outro fenômeno em
computação quântica, que é chamado emaranhamento. Se dois qubits receberem uma
força externa, então os qubits podem estar
na condição de emaranhados. Isso significa
que, mesmo à distância um do outro, qualquer influência que um dos qubits receber,
irá afetar o outro também (MUTIARA; REFIANTI, 1994).
Sistemas de informação quântica,
em geral, são baseados no uso de matemática intensa. Porém, o grande truque desses
sistemas é a utilização de um modelo simples de construção por blocos de abstração:
bits quânticos, portas e algoritmos (OSKIN;
CHONG; CHUANG, 2002), o que facilita
sua implementação.
Nessa pequema introdução sobre
computação quântica, é possível perceber
Interciência
& Sociedade
Busca quântica em bancos de dados xml usando algoritmo de Grover
a riqueza desse novo sistema de computação. A utilização de conceitos quânticos
na computação ultrapassa fronteiras, oferecendo novas formas de processamento.
Nas próximas sessões, será explorada algumas características dos sistemas quânticos, visando atingir o objetivo proposto por
esse artigo.
2. Problema de busca
Encontrar um dado em um banco de dados não-estruturado é conhecido
como problema de pesquisa em banco de
dados não-ordenados (UDS – unsorted
database search), este problema é muito
comum e difícil de ser solucionado. Muitos
problemas científicos podem ser reduzidos
a problemas de UDS e esta tem larga aplicação em ciência e tecnologia (LONG; LIU,
2007; HU; ZHANG; LU, 2009).
Mesmo em ciência da computação teórica, são bastante comuns problemas em que seja necessário examinar uma
série de possibilidades diferentes para ver
se uma delas satisfaz dada condição. Esta
situação é análoga ao problema de busca
descrito acima, e o ponto de observação
mais crítico em problemas de busca é sempre o desempenho e eficiência do algoritmo
utilizado (GROVER, 1996).
2.1. Busca quântica
Os algoritmos quânticos são probabilísticos, isso oferece um ótimo ponto de
partida para se pensar em suas possíveis
aplicações (BERNSTEIN; VAZIRANI, 1993).
Nestes algoritmos, o sistema não
está em um estado especificado, ao contrário disso, está em uma distribuição de vários estados com certa probabilidade de ser
cada um deles. Em cada etapa, há uma probabilidade de acontecer uma transição de
um estado para o outro. A evolução do sistema é obtida através da pré-multiplicação
do vetor de probabilidades pelo estado de
transição da matriz (GROVER, 1996).
Suponha que se tenha um mapa
contendo muitas cidades, e que se deseje
encontrar o menor caminho entre elas. Um
algoritmo simples para resolver esse problema consiste em encontrar todas as rotas
possíveis, mantendo gravada a de menor
comprimento. Em um computador clássico,
se existirem N rotas, serão obviamente necessárias
operações para se determinar o menor caminho (NIELSEN; CHUANG,
2005; LONG; LIU, 2007).
O algoritmo quântico de Grover aumenta significativamente a velocidade dessa busca, necessitando apenas de
operações. Além disso, o algoritmo quântico de busca é geral, no sentido de que ele
pode ser aplicado para acelerar diversos
algoritmos clássicos que usam rotinas de
busca (GROVER, 1996).
Tais algoritmos representam papéis muito importantes nos campos da informação e computação. Tomando como
exemplo a tarefa de encontrar o proprietário de um número telefônico decifrando
um código como DES (BRASSARD, 1997),
resolvendo o problema de Simon (BRASSARD; HOYER, 1997), solucionando o problema de contagem quântica (BRASSARD;
HOYER; TAPP, 1998). O espaço pode ser
vasculhado de forma altamente eficiente
por um robô quântico usando o algoritmo de
busca (BENIOFF, 2000). Esses algoritmos
também podem acelerar a resolução de
problemas de raiz quadradas considerados
difíceis, como o problema do deslocamento oculto (TWAMLEY, 2000), o problema do
circuito hamiltoniano (DESURVIRE, 2009) e
problemas NP-completos em geral (GUO;
LONG; LI, 2002).
O algoritmo de Grover, utilizando
as propriedades quânticas da superposição
e do emaranhamento, também pode ser
usado para procurar um elemento em uma
lista não estruturada de elementos
quadrática com velocidade superior aos algoritmos clássicos (BRICKMAN; et al, 2005).
3. Algoritmo de Grover
Na seção anterior, superposição e
emaranhamento de estados quânticos foram apontados como os fatores essenciais
para a obtenção do desempenho dos sistemas quânticos. O algoritmo de busca de
Grover (BUGAJSKI, 2001; GROVER, 1996;
KLAMKA, 2002) faz uso desses fenômenos. A complexidade da pesquisa clássica
de uma coleção não ordenada de itens é
Interciência
& Sociedade
73
PONTES, M. A.; BORGES NETO, M. F.
de
. Usando o algoritmo quântico, podemos reduzir esse fator para
.
O algoritmo utiliza um quregister
único de
qubits, onde
. Para simplificar, assumimos que
é uma potência
de e
. Como segue:
1a está situação está representada por um
registro de 4-qubit, que contém 16 valores
diferentes. A soma dos quadrados de todas
as amplitudes é 1, o valor de cada amplitude é demonstrado na sequência em (1):
1. No primeiro passo, uma superposição de todos estados é gerado.
2. Uma transformação é realizada
para fazer com que a amplitude da
probabilidade do estado se diferencie das outras (Oráculo Quântico).
3. Outra transformação (difusão) é
realizada para ampliar a probabilidade deste estado.
4. Os passos (2) e (3) são iterados
quantas vezes forem necessárias.
5. O algoritmo termina quanto a
probabilidade do estado desejado
está próxima de 1. Na sequência,
uma medição é realizada.
O Oráculo Quântico é o segundo
passo do algoritmo, esse é o ponto em que
o item procurado é identificado. O Oráculo
decide se o argumento é o item que está
sendo procurado, e é simultaneamente chamado para cada item presente na lista de
estados. A operação tem que ser reversível, portanto nenhuma informação pode ser
perdida. Isto é obtido através da negação
da amplitude do item procurado (Figura 1b).
Dado que é o estado que está sendo pesquisado, temos em (2):
A superposição é uma operação
realizada através do operador quântico Hadamard, que resulta no mesmo valor para
todas as amplitudes possíveis. Na Figura
(1)
(2)
A medida da amplitude é complexa, a operação de negação é descrita antes
como a rotação do estado marcado por uma
fase de π. De qualquer modo, esta operação não irá afetar a possibilidade de detecção deste estado em uma medição feita
nesse ponto.
Figura 1: Etapas iniciais do Algoritmo de Grover.
Fonte: Adaptado de: FRANCIK, 2002.
O operador de difusão é o próximo
passo do algoritmo, nessa etapa, é feita a
operação de interferência. Esta operação é
muitas vezes referenciada como inversão
sobre a média, como é dado a seguir em
(3):
(3)
74
onde é a média de todas as amplitudes.
Esta operação é aplicada sobre um vetor no
qual todos os componentes, exceto um, são
iguais a um valor, como α; o componente
um, que é diferente, é negativo (Figura 1b).
A média ā é aproximadamente igual a ,
então
componentes não alteram de
forma significativa o resultado da inversão
sobre a média. O componente um, que estava negativo, torna-se positivo e aumenta
cerca de
(Figura 2c).
Interciência
& Sociedade
Busca quântica em bancos de dados xml usando algoritmo de Grover
Figura 2: Iterações do Algoritmo de Grover.
Fonte: FRANCIK, 2002.
Iteração: o ganho efetivo obtido por
uma inversão única sobre a média não é o
suficiente, especialmente se for notado que
mais estados possuem ganhos menores.
Após certo número de iterações, possivelmente a amplitude se aproximará de 1.
Porém a amplitude nunca será
igual a 1, pelo fato do algoritmo de Grover
ser probabilístico: o resultado mais adequado é obtido com uma alta probabilidade,
mas não é garantido totalmente.
Iterações consecutivas são mostradas da Figura 2c até Figura 2f. Na terceira iteração (Figura 2e) a amplitude do
estado desejado atingiu o máximo (para
o caso de 16 estados); após isso, diminui
(Figura 2f). O valor do componente
,
denotado , lentamente diminui uma vez
que se aproxima de zero, e o ganho efetivo
inverte. Na verdade, ambos os valores são
quantificados em uma função periódica (a
amplitude desejada cresce novamente depois das iterações 9, 15 e assim por diante).
O problema é: quantas vezes devemos iterar para obter o resultado ideal?
Vamos denotar , sendo o valor de todas as
amplitudes acrescido de um, e β é a amplitude do estado iniciando a pesquisa em .
Então, a média é dada por (4):
(4)
Usando (3), (2) e (1), temos:
(5)
onde
e β.
e
e
são os estados anteriores, e
são os próxmos estados de α
A solução (5) leva a uma equação
quadrática com raízes complexas. A abordagem analítica pode ser complicada, mas
observa-se que, depois de uma substituição
, a equação (5) torna-se uma
equação de rotação de um ponto
ao
redor do centro das coordenadas do sistema por um ângulo
. O melhor
resultado é alcançado quando o ângulo
atinge π/2, então o número de iterações é
apresentado em (6):
(6)
Após a última iteração, a medição
final é executada.
3.1. Grover sem emaranhamento quântico
A propriedade de emaranhamento quântico é considerada necessária para
que os algoritmos quânticos superem os
Interciência
& Sociedade
75
PONTES, M. A.; BORGES NETO, M. F.
clássicos. Porém, diversos autores, dentre
eles LLOYD (1999) e MEYER (2000) observaram em suas pesquisas que o algoritmo
de busca quântico de Grover pode ser implementado sem o emaranhamento quântico. Isso só é possível com a realização de
substituições de partículas múltiplas (características quânticas) por uma partícula única, porém com muitos estados exponencialmente associados a ela.
Segundo LLOYD (1999), qualquer
algoritmo quântico pode ser reescrito sem
o uso de emaranhamento. Para tal, basta
simplesmente desconsidedar a estrutura do
produto tensorial do espaço de Hilbert. Fazendo isso, naturalmente, haverá um custo
extra de utilização do sistema, já que a computação quântica estará sendo subjulgada.
Não se deve concluir que o emaranhamento é desnecessário. Para algoritmos iterativos, pode haver redução do número de consultas necessárias, reduzindo
o caminho até a solução. Já nos algoritmos
de contagens (funções locais), há perda
de desempenho e aumento no uso dos recursos para sua execução. Simon (1994)
demonstrou em seu algoritmo que a implementação da fatoração de Shor (1994) sem
o emaranhamento não apresentavam resultados satisfatórios.
Concluímos que alguns algoritmos quânticos podem ter seus equivalentes clássicos, abrindo mão de propriedades
quânticas, em especial, o emaranhamento.
Por outro lado, nem todos os algoritmos
respondem bem a esse tipo de adaptação.
Para o contexto desse artigo, as pesquisas
de LLOYD (1999) e MEYER (2000) mostram que o algoritmo de busca quântico de
Grover não sofre perdas ao retirar a propriedade de emaranhamento quântico, sendo
assim, será conceitualizado o algoritmo de
Grover em sistemas clássicos, visto que o
objetivo do artigo é a criação de um sistema
híbrido de buscas.
76
3.2. Implementação híbrida do algoritmo de
Grover
Conforme a sessão 3.1, o algoritmo
de Grover pode ser implementado sem utilizar algumas propriedades que são exclusivamente quânticas. Diante disso, é possível
a criação de um modelo de algoritmo que
seja híbrido, e possa ser executado tanto
em sistemas clássicos quanto em sistemas
quânticos.
YAMASHITA (2006) propõe em seu
trabalho, a criação de um framework com o
objetivo de permitir que algoritmos sejam
ajustados de forma automática, dependendo do modelo clássico ou modelo quântico.
Com relação ao algoritmo de Grover (1996), que pode ser considerado de uso
geral, a adaptação de seu funcionamento
em diversos modelos computacionais oferece notável flexibilidade em sua utilização.
Para a modelagem híbrida proposta por esse artigo, os conceitos propostos
por YAMASHITA (2006) foram utilizados,
onde o algoritmo de Grover foi implementado usando uma linguagem Clássica (C++) e
uma linguagem Quântica (QCL).
O framework capaz de compatibilizar essa dupla implementação, funciona
analisando o código e gerando novos códigos baseados nas plataformas específicas.
Neste artigo, utilizamos o modelo, conceitos e implementamos uma versão própria
do framework proposto por YAMASHITA
(2006), mais simples com o objetivo apenas
de gerar a versão híbrida do algoritmo de
Grover.
Na Figura 3, podemos observar o
fluxo da informação dentro do pseudo-framework criado para esse artigo. O código
desenvolvido é aplicado no framework, que
faz uma pré-análise e gera os circuitos e
códigos baseados no tipo de sistema a ser
aplicado.
Interciência
& Sociedade
Busca quântica em bancos de dados xml usando algoritmo de Grover
Figura 2: Framework para geração de código híbrido.
Fonte: YAMASHITA, 2006.
No Quadro 1, podemos observar
um trecho do código fonte do algoritmo
de Grover em linguagem C++. Para fins
de comparação, apenas a função Grover()
está sendo apresentada.
Quadro 1. Função Grover em C++.
Por outro lado, no Quadro 2, notamos um trecho do código fonte do algoritmo de Grover em linguagem QCL. Para fins
de comparação, apenas a função Grover()
está sendo apresentada.
Quadro 2. Função Grover em QCL.
Interciência
& Sociedade
77
PONTES, M. A.; BORGES NETO, M. F.
4. Simulações
Com o objetivo de validar os conceitos apresentados nesse artigo, um ambiente de simulação foi estruturado com o
desafio de realizar testes de carga nos algoritmos construídos.
Para realização dos testes, foi gerado um banco de dados em XML com uma
massa de dados não-estruturada de cerca
de 5.000 registros. O objetivo foi realizar
buscas com os algoritmos de Grover nessa
massa de dados, e analisar três fatores importantes:
(i) Compatibilidade dos algoritmos,
ou seja, se o algoritmo clássico e o quântico executam de formas semelhantes, sem a
necessidade de realizar ajustes nos dados
ou nos códigos fontes. Esse item avalia a
portabilidade de códigos diferentes acessando o mesmo banco de dados.
(ii) Desempenho da execução, um
comparativo simples de tempos decorridos,
para gerar informações sobre os tempos
gastos por cada um dos algoritmos, considerando as mesmas condições.
(iii) Número de iterações, como o
algoritmo de Grover é iterativo, quanto menor o número de iterações, com a mesma
eficiência, melhor os resultados da execução dos algoritmos.
4.1. Simuladores
Para realizar as simulações, foram
utilizadas duas ferramentas. Para o desenho e avaliação do Circuito Quântico, foi
utilizada a ferramenta Wolfram Demonstrations (http://demonstrations.wolfram.com/).
Essa ferramenta permitiu a construção de
um código dinâmico para gerar o circuito
quântico que foi implementado no simulador quântico para execução das buscas.
Já para execução do código quân-



tico, foi utilizada a biblioteca libquantum
(http://www.enyo.de/libquantum/). Tal biblioteca foi apresentada no trabalho de SCHUBOTZ (2007), onde o autor realiza um estudo comparativo entre três simuladores, e a
libquantum mostra-se melhor em todos os
critérios.
A libquantum é uma biblioteca em
C específica para computação quântica.
Ela usa o modelo QRAM, e fornece registradores quânticos, operações unitárias e
funções de medição. A biblioteca vem com
uma interface para codificar registros quânticos, controle de correção de erro quântico
(QEC) e oferece flexibilidade no uso. Seu
principal objetivo é uma precisa simulação
física de um computador quântico com alto
desempenho (SCHUBOTZ, 2007).
Apesar da biblioteca já incluir a implementação do algoritmo de Grover, para
as simulações, utilizamos os algoritmos e
circuitos gerados no decorrer da pesquisa.
4.2. Resultados
Os testes em sistemas clássicos
foram realizados em ambiente de computação clássica tradicional, onde o arquivo
XML com os dados estava armazenado em
disco e as rotinas em C++ foram executadas e os indicadores analisados.
Já os testes em sistemas quânticos, foram realizados no simulador libquantum apresentado na sessão 4.1. O arquivo
XML foi armazenado dentro da estrutura do
simulador e os testes foram realizados e os
devidos indicadores foram analisados.
Na Figura 4, observa-se o circuito
quântico construído dentro da ferramenta libquantum, notem que o circuito sugere pelo
menos 4 iterações, porém devido ao tamanho da massa de dados, a execução do circuito completo é interativa até que a massa
de dados seja completamente analisada.
0
H X
X H X
X H X
X H X
X H
0
H X
X H X
X H X
X H X
X H
0
H X
X H X
X H X
X H X
X H
0
H X
X H X Z X H X
1
H
X H X Z X H
 
 

b1
b2
b3
b4
b5
Figura 4: Cirtuito Quântico iterativo aplicado na libquantum (gerado na ferramenta Wolfram).
78
Interciência
& Sociedade
Busca quântica em bancos de dados xml usando algoritmo de Grover
Na Tabela 1, temos os resultados
das análises de cada um dos algoritmos,
executados e analisados nos sistemas propostos, baseado em uma massa de dados
com 5.000 registros em formato XML.
Podemos notar que o sistema
Quântico, apesar de rodar sobre um simulador, apresentou uma quantidade menor de
iterações até convergir para o melhor resultado.
Apresentam-se as três iterações
do sistema Quântico no momento em que a
convergência ocorreu, e sua precisão chegou aos 100% com 55 iterações, mesma
precisão atingida pelo sistema Clássico em
72 iterações. Essa diferença de precisão e
número de iterações é esperada, já que o
sistema Clássico é determinístico e o sistema Quântico é probabilístico.
Tabela 1. Grover Clássico X Grover Quântico.
Grover
Clássico
Quântico
Quântico
Quântico
Iterações
72
54
55
56
Tempo decorrido
23s
30s
32s
34s
Precisão
100%
99,8%
100%
99,8%
Compatibilidade
Total
Total
Total
Total
Em termos de tempo decorrido, notamos uma diferença considerável onde o
Grover clássico (23s) é cerca de 39% mais
rápido que o Grover quântico (32s), porém
isso se justifica pois o sistema quântico está
rodando sobre um simulador, e a documentação da libquantum afirma perdas de até
45% pelo fato de ser um ambiente simulado. Além disso, não existem sistemas quânticos consistentes disponíveis para conseguirmos uma simulação com valores reais.
Observamos também, que os códigos são perfeitamente portáveis, ou seja,
ambos os códigos funcionaram na mesma
massa de dados, sem quaisquer modificações ou necessidades de ajustes em nenhuma das partes.
CONSIDERAÇÕES FINAIS
A busca em bancos de dados nãoestruturados é muito importante para ciência e tecnologia. Ela serve como comparativo de algoritmos para demonstrar o poder
de computadores quânticos. Curiosamente,
um algoritmo totalmente quântico é relativamente simples de ser implementado, o que
traz vantagens para essa área.
Neste artigo, foram apresentados
de forma breve alguns conceitos quânticos básicos. Também foi apresentado com
mais detalhes a busca quântica, com especial atenção para o algoritmo de busca de
Grover, e demonstra seu funcionamento em
sistemas clássicos e quânticos.
Seguindo as implementações sobre o algoritmo de Grover, o artigo apresenta um pseudo-framework capaz de tornar
híbrido o algoritmo de busca, permitindo
uma flexibilidade em seu uso.
Após a criação dos algoritmos, simulações foram feitas, com o objetivo de
comparar o funcionamento do algoritmo de
Grover em sistemas clássicos (normais)
e em sistemas quânticos (simulados). Os
resultados foram apresentados na sessão
4.2, onde podemos observar poucas variações entre os modelos.
O objetivo de implementar um sistema hibrido de busca, foi cumprido. Os algoritmos gerados conseguiram realizar buscas com eficiência em bases em formato
XML, tanto para sistemas clássicos quanto
para quânticos (simulados).
O aspecto mais importante implícito nesse trabalho é que, gerenciar um banco de dados não-estruturado em um computador quântico é possível e eficiente.
TRABALHOS FUTUROS
Os resultados obtidos com essa
pesquisa serão diretamente aplicados no
projeto de mestrado do autor deste artigo,
cujo tema é Busca Quântica em Bancos de
Dados Relacionais. Este artigo apresenta
os resultados da primeira fase, que se trata de buscas em arquivos XML, a próxima
Interciência
& Sociedade
79
PONTES, M. A.; BORGES NETO, M. F.
fase envolverá a integração com bancos de
dados relacionais e acesso aos dados em
baixo nível.
1985, pp. 96-117.
REFERÊNCIAS BIBLIOGRÁFICAS
GROVER, L. K. A fast quantum mechanical algorithm for database search. In Proceedings of 28th
ACM Annual STOC, pp. 212-219. ACM Press New
York. Philadelphia-PA/USA:1996.
BENIOFF, P. The computer as a physical system: A
microscopic quantum mechanical Hamiltonian model
of computers as represented by Turing machines.
Journal of Statistical Physics, 22, 1980, pp. 563591.
BENIOFF, P. Spaces searches with a quantum
robot. In Quantum computation and information.
Washington DC: AMS Series on Contemporary Mathematics, 2000, 305: 1-12. Disponível em: quant-ph/0003006.
BERNSTEIN, E.; VAZIRANI, U. Quantum Complexity Theory. In Proceedings 25th ACM Symposium on
Theory of Computing, 1993, pp. 11-20.
BERTHIAUME, A.; BRASSARD, G. Oracle quantum
computing. Journal of Modern Optics, vol.41, n. 12.
December, 1994, pp. 2521-2535.
BRASSARD, G. Searching a quantum phone book.
Science, 1997, 275(5300): 627-628.
BRASSARD, G.; HOYER, P. An exact quantum
polynomial-time algorithm for Simon´s problem.
In: Proceedings of 35th Annual Symposium on the
Foundations of Computer Science. 1997, 116-123.
BRASSARD, G.; HOYER, P.; TAPP, A. Quantum
counting. Lectures Notes in Computer Science,
1998, 1443: 820-831.
BRICKMAN, K. A.; HALJAN , P. C.; LEE, P. J.; ACTON, M.; DESLAURIERS, L.; MONROE, C. Implementation of Grover’s quantum search algorithm
in a scalable system. FOCUS Center and Department of Physics, University of Michigan. In Proceedings of The American Physical Society, Physical Review
A 72, 050306-1(4). Michigan, USA:2005.
BUGAJSKI, S. Quantum Search. Archiwum Informatyki Teoretycznej i Stosowanej, vol 13 No 2/2001, pp.
143-150.
GUO, H.; LONG, G.L.; LI, F. Quantum algorithms for
some well-known NP problems. Communications in
Theoretical Physics, 2002, 37(4): 424-426.
HAWKING, S. O Universo numa Casca de Noz. Rio
de Janeiro: Nova Fronteira, 2009, 216p.
HU, H.; ZHANG, Y.; LU, Z. An efficient quantum search engine on unsorted database. Huazhong University of Science and Technology, 2009. Disponível
em: cs.DB/0904.3060v1.
KLAMKA, J. Quantum search algorithm. Seminarium Sieci Komputerowe, Zakopane, 2002.
LLOYD, S. Quantum search without entanglement.
Physical Reviews A61 (1999) 010301.
LONG, G.L.; LIU, Y. Search an unsorted database
with quantum mechanics. Frontiers of Computer
Science in China, 2007, 1(3): 247-271.
MEYER, D. A. Sophisticated Quantum Search Without Entanglement. Project in Geometry and Physics. Department of Mathematics. Institute for Physical Sciences. University of California/San Diego.
Disponível em quant-ph/0007070. 2000.
MUTIARA, A. B.; REFIANTI, R. Simulation of
Grover’s Algorithm Quantum Search in a Classical Computer. In Proceedings of the International
Journal of Computer Science and Information Security. Indonesia, 8(9)261–269,1994.
NIELSEN, M. A.; CHUANG, I. L. Computação Quântica e Informação Quântica. Rio de Janeiro, Brasil,
Bookman/Artmed, 2005.
ÖMER, B. Quantum Programming in QCL. Institute
of Information Systems. Technical University of Vienna, pp 42-45. Vienna, 2000.
CARAIMAN, S.; MANTA, V. Parallel Simulation of
Quantum Search. “Gheorghe Asachi” Technical University of Iasi. In Proceedings Journal of Computers,
Communications & Control, V(5), pp.634-641. Romania, 2010.
OSKIN, M.; CHONG, F. T.; CHUANG, I. L. A Pratical Architecture for Reliable Quantum Computers.
Universidade de Toronto. IEEE Computer Society.
2002.
DESURVIRE, E. Classical and Quantum Information. eBook (EBL), New York, Cambridge University
Press, 2009.
SCHUBOTZ, R. Programming and Simulation of
Quantum Agents. Department of Computer Science.
Faculty of Natural Sciences and Technology I. Saarland University, pp. 31-36. Saarbrücken, 2007.
DEUTSCH, D. Quantum Theory, the Church-Turing
principle and the universal quantum computer.
In Proceedings Royal Society London Series A, 400,
80
FRANCIK, J. Quantum Software. Studia Informatica.
Vol 23, n. 2A (48). Redakcji, 2002.
SHOR, P. W. Algorithms for quantum computation:
discrete logarithms and factoring. In Proceedings 35th
Annual Symposium of Fundamentals of Computer
Interciência
& Sociedade
Busca quântica em bancos de dados xml usando algoritmo de Grover
Science (FOCS). S. Goldwasser, Santa Fe, NM. pp.
124-134. IEEE Computer Society, Los Alamitos. 2022 Novembro 1994.
SIMON, D. R. On the power of quantum computation. In Proceedings of the 35th Annual Symposium
of Foundations of Computer Science. S. Goldwasser,
Santa Fe, NM. pp. 116-123. 20-22 Novembro 1994.
TWAMLEY, J. J. A hidden shift quantum algorithm.
Journal on Physics A, 2000, 33: 8973-8979.
YAMASHITA, S. How to Utilize a Grove Search in
General Programming. Scholl of Information Science, Nara Institute of Science and Technology. In Proceedings Laser Physics, vol 16, n. 4, pp 730-734. Ikoma, Nara, Japan, 2006.
YAO, A. Quantum circuit complexity. In Proceedings 34th Annual Symposium of Foundations of Computer Science (FOCS), 1993, pp. 352-361.
Michael Alexandre Pontes é bacharel em Ciência da Computação pela UNiRP, Pós-graduado em Desenvolvimento Cliente/Servidor e Internet pela UNiRP, Pós-graduado em Engenharia de Sistemas pela Faculdade Modelo.
Detentor de diversas certificações importantes, como Microsoft, Oracle, Progress, Novell, Citrix. Atualmente é professor nas seguintes instituições: Universidade Paulista, FATEC Rio Preto e Kees Informática. Também é líder de
unidade de negócio da empresa Dual Software Ltda. Tem experiência com Governança de TI e Administração de
Banco de Dados. Atua diretamente na área de Sistemas de Informação com ênfase em Engenharia de Sistemas.
Possui vários projetos de pesquisa e desenvolvimento, tendo sido reconhecido e premiado em vários deles.
Manoel Ferreira Borges Neto é graduado em Física pela Universidade de Brasília (UnB), Doutorado em Matemática pelo “Kings College - University of London” e Pós-doutorado pelo “Department of Mathematics and Applied
Mathematics - University of Cape Town (UCT)”. Professor titular da Universidade Estadual Paulista (UNESP).
Membro da “International Association of Mathematical Physics (IAMP)”. Membro e revisor da “American Mathematical Society (AMS)”. Membro da “European Society of Computational Methods in Sciences and Engineering
(ESCMSE)”. Co-fundador e membro permanente do “World Peace and Diplomacy Forum (WPDF)”, Cambridge.
Vasta experiência na área de matemática e matemática aplicada atuando principalmente nos temas: i) Geometrias
Hipercomplexas; ii) Aspectos geométricos da Física-Matemática, notadamente das Teorias Alternativas da Gravitação, e suas relações com Variedades Topológicas; iii) Criptografia e Computação Quântica.
Interciência
& Sociedade
81
82
Interciência
& Sociedade
CARACTERIZAÇÃO DE LESÕES DE PELE EM IMAGENS DIGITAIS A
PARTIR DA MÁQUINA DE VETOR DE SUPORTE
OLIVEIRA, Roberta Barbosa
Universidade Estadual Paulista (UNESP)
robyoliveira1@gmail
GUIDO, Rodrigo Capobianco
Universidade Estadual Paulista (UNESP)
[email protected]
MARRANGHELLO, Norian
Universidade Estadual Paulista (UNESP)
[email protected]
ARAUJO, Alex F. de
Faculdade de Engenharia da Universidade do Porto (FEUP)
[email protected]
TAVARES, João Manuel R. S.
Faculdade de Engenharia da Universidade do Porto (FEUP)
[email protected]
ROSSETTI, Ricardo Baccaro
Clínica DERM
[email protected]
PEREIRA, Aledir Silveira
Universidade Estadual Paulista (UNESP)
[email protected]
RESUMO: Este trabalho apresenta um método para a caracterização das lesões de pele, a partir das
características da regra ABCD (assimetria, borda, cor e diâmetro) e análise de textura. As características ABCD são obtidas de acordo com o dermatologista e a textura das imagens é definida pela sua
dimensão fractal, por meio do método box-counting. As características de assimetria e textura extraídas
das imagens são utilizadas como entradas para o classificador SVM (Máquina de Vetor de Suporte),
que é uma técnica baseada em aprendizado estatístico, utilizada para o reconhecimento de padrões
em imagens. O SVM classifica a assimetria das lesões em simétrica ou assimétrica e a textura das
lesões em lisa ou rugosa. Todas as informações referentes as características extraídas da lesão são
passadas ao dermatologista com o intuito de auxiliá-lo no diagnóstico.
PALAVRAS-CHAVE: lesões de pele, filtro mediana, Chan-Vese, SVM, dimensão fractal, box-counting.
ABSTRACT: This paper presents a method for the characterization of skin lesions, from the characteristics of the ABCD rule (asymmetry, border, color and diameter) and texture analysis. The ABCD
characteristics are obtained according to the dermatologist and the texture of images is defined by its
fractal dimension through the box-counting method. The asymmetry and texture features extracted from
the images are used as inputs to the SVM classifier (Support Vector Machine) which is a technique based on statistical learning, used for recognizing patterns in images. The SVM classifies the asymmetry
of lesions in symmetrical or asymmetrical and the texture of lesions in smooth or rough. All information
related the extracted features of the lesion are available to the dermatologist in order to assist in his
diagnosis.
KEYWORDS: skin lesions, Chan-Vese, SVM, fractal dimension, box-counting.
Interciência
& Sociedade
83
OLIVEIRA, R. B.; GUIDO, R. C.; MARRANGHELLO, N.; ARAUJO, A. F.; TAVARES, J. M. R.
S.; ROSSETTI, R. B.; PEREIRA, A. S.
INTRODUÇÃO
O número de casos de cânceres
tem aumentado cada vez mais, conforme
apresentado na estimativa de incidência de
câncer no Brasil, para ano de 2012 e também em 2013, realizada pelo Instituto Nacional de Câncer (INCA) (MINISTÉRIO DA
SAÚDE, 2011). O câncer de pele corresponde a 29% dos tumores malignos registrados no país, sendo o de maior incidência.
O grande número de casos de câncer motivaram a construção de sistemas computadorizados para auxiliar os dermatologistas
no diagnóstico de lesões de pele. Estes sistemas tem como o objetivo principal analisar as lesões benignas, para evitar o seu
desenvolvimento, ou diagnosticar as lesões
malignas em seu estágio inicial, para serem
tratadas precocemente, período onde tem
mais chances de cura.
No diagnóstico dermatológico as
lesões são examinadas clinicamente, utilizando primeiramente a técnica de análise das características ABCD (assimetria,
borda, cor e diâmetro) e textura, para então diagnosticá-las e tratá-las (WOLFF et
al., 2006). Para facilitar este processo, os
dermatologistas podem dispor de sistemas
computacionais, que analisam as características das lesões de forma mais precisa,
utilizando imagens digitais, obtidas pelo
mesmo, para auxiliar no seu diagnóstico.
Para a construção destes sistemas são
muito utilizadas técnicas de processamento de imagens digitais e sistemas inteligentes, tais como, filtro mediana, para diminuir
o efeito dos ruídos nas imagens, o modelo
Chan-Vese para identificar a área doente e
a máquina de vetor de suporte (SVM) para
classificar as lesões de pele. O uso destas
técnicas possibilitam uma análise mais rápida e informações mais precisas sobre as
características das lesões e por essa razão
são temas de diversos trabalhos para detecção e classificação de lesões de pele [2,
7, 12, 15, 17 e 20].
Um sistema automático para análise de lesões pigmentadas e diagnóstico de
melanoma a partir de imagens adquiridas
por câmera digital foi descrito por Alcón et.
84
al. (2009). Essa combinação obteve 86%
de precisão. Cudek et. al. (2010) apresenta
um método para identificar lesões de pele
a partir de imagens digitais usando a regra ABCD. A segmentação proposta obteve 92% de detecção correta. Maglogiannis
e Doukas (2009) apresentam sistemas de
visão computacional para caracterização
de lesões de pele. Na classificação entre
melanoma e nevo displásico a SVM obteve
100% de precisão. Na classificação entre
nevos displásicos e lesões não displásicas,
a SVM obteve 76,08%. Na classificação
entre esses três tipos de lesões a SVM obteve 77,06% de precisão. Um método para
detecção de borda em imagens dermatoscopicas de lesões melanocíticas e não melanocíticas é proposto por Norton e Colaboradores (2010). A avaliação deste método
foi de 84,5% de acerto para as lesões não
melanocíticas e 93,9% para as lesões melanocíticas. Rahman, Bhattacharya e Desai
(2008) combinaram diferentes classificadores para o reconhecimento de melanoma
em imagens dermatoscopicas. A SVM combinada com a probabilidade máxima gaussiana e o k vizinhos mais próximos obteve
62,50% de acerto para os nevos comuns,
77,14% de acerto para os nevos displásicos
e 83,75% de acerto para os melanomas.
Com o objetivo de auxiliar o dermatologista no seu diagnóstico, este trabalho
apresenta um método para caracterizar lesões de pele a partir de imagens fotográficas, tais como nevos, ceratose seborréica e
melanoma, utilizando máquina de vetor de
suporte (SVM).
1. Características das lesões de pele
As lesões de pele podem ser diferenciadas em benigna ou maligna, conforme suas características, analisadas pelos
dermatologistas. A regra ABCD (assimetria,
borda, cor e diâmetro) e a análise de textura
são muito utilizadas pelos dermatologistas
para analisar lesões de pele a partir de imagens fotográficas, contribuindo para o diagnóstico clínico. A demonstração desta regra
é apresentada na Tabela 1.
Interciência
& Sociedade
Caracterização de lesões de pele em imagens digitais a partir da máquina de vetor de suporte
Tabela 1. Demonstração da regra ABCD [adaptado de 18].
Características
Lesões benignas
Lesões malignas
Assimétrica
A
Assimetria
Simétrica
B
Borda
Regular
Irregular
C
Cor
Única
tonalidade
Várias
tonalidades
D
Diâmetro
Menor que
6 mm
Acima de 6
mm
Na característica de assimetria (A)
listada na linha “A” considera-se a maior distância entre os pontos do contorno da lesão
e traça-se uma reta sobre a mesma, para
que possa ser analisada a similaridade entre as duas partes divididas. Quando essas
partes são semelhantes, a característica de
assimetria é considerada simétrica, que geralmente representa as lesões benignas. No
caso destas partes serem muito diferentes,
esta característica é assimétrica, caracterizando lesões malignas. A borda (B) considerada regular representa lesões benignas
e a borda irregular geralmente definem as
lesões malignas, assim como mostrado na
linha “B”. No caso da característica de Cor
(C), as lesões benignas geralmente possuem apenas uma tonalidade e já as malignas possuem várias tonalidades, como
pode ser visto na linha “C”. A característica
de Diâmetro (D), especificada na linha “D”,
das lesões benignas são menores, até 6
mm e das malignas são iguais ou maiores
que 6 mm.
No caso da textura, as lesões do
tipo ceratose seborréica (lesão benigna)
são muito irregulares, sendo sua principal
característica, e já os nevos melanocíticos
(lesão benigna) e melanoma (lesão malig-
na) não são tão irregulares(CUCÉ et al.,
2001).
2. Caracterização das lesões
O método desenvolvido tem por
objetivo auxiliar o dermatologista no seu
diagnóstico. São disponibilizadas informações referentes às principais características
das lesões de pele. Na Figura 1 pode ser
vista a estrutura do método desenvolvido
neste trabalho.
A primeira etapa do método desenvolvido é a suavização das imagens por
meio do filtro mediana, para eliminar os ruídos presentes nas mesmas. Depois é realizada a segmentação, utilizando o modelo
de contorno ativo sem borda Chan-Vese
(CHAN; VESE, 2001), para detectar a lesão. Para suavizar a borda e eliminar ruídos resultantes do processo de segmentação, são aplicados filtros morfológicos nas
imagens. A partir da detecção da lesão, as
características da regra ABCD e a textura
são extraídas. As características de assimetria e textura são passadas ao SVM para as
lesões serem classificadas em suas determinadas classes, simétrica ou assimétrica e
regular ou irregular, respectivamente.
Interciência
& Sociedade
85
OLIVEIRA, R. B.; GUIDO, R. C.; MARRANGHELLO, N.; ARAUJO, A. F.; TAVARES, J. M. R.
S.; ROSSETTI, R. B.; PEREIRA, A. S.
Figura 1: Diagrama do método desenvolvido
para caracterização de lesões de pele.
2.1 Suavização
Nesta etapa foi realizada a suavização nas imagens da base, com o intuito
de amenizar os efeitos dos ruídos presentes, como pelos e linhas da pele, que podem atrapalhar no resultado da segmentação. Foi utilizado o filtro mediana, que é
considerado um método não-linear, ou seja,
além de suavizar a imagem, também realça
os contornos (GONZALEZ; WOODS, 2002).
A aplicação deste filtro consiste em definir a
intensidade de cada elemento da imagem,
pela mediana da sua vizinhança de acordo
com a máscara, definida com dimensão 7 X
7, que obteve melhor resultado de suavização. Nas imagens da Figura 2(b) pode ser
visto o resultado da suavização aplicada em
imagens originais, conforme a Figura 2(a),
contendo lesões do tipo melanoma. A presença dos ruídos (pelos) foi amenizada.
2.2. Segmentação
86
A técnica utilizada para a segmentação das imagens neste trabalho é o modelo de contorno ativo sem borda, proposto por Chan e Vese (CHAN; VESE, 2001),
que é aplicado por meio da minimização
de energia da curva sobreposta à imagem.
A segmentação deste modelo é baseada
em região, e utiliza conceitos das técnicas
de (MUMFORD; SHAH, 1989) e Level Set
(OSHER; SETHIAN, 1988) para separar a
região doente da região saudável.
São várias as vantagens deste método, que permite que seu uso tenha bons
resultados: a detecção de diferentes objetos com variadas intensidades e ainda com
fronteiras borradas; mudança topológica da
curva; detecção de objetos onde o contorno
não possui gradiente, isso não é possível
com a utilização do modelo de contorno ativo tradicional (KASS et al., 1988); e tem-se
um bom resultado na detecção dos objetos
em imagens com ruídos.
Interciência
& Sociedade
Caracterização de lesões de pele em imagens digitais a partir da máquina de vetor de suporte
(a)
(b)
(c)
(d)
(e)
Figura 2: Resultado da aplicação do método desenvolvido: (a) imagem original, (b) imagem suavizada, (c) imagem segmentada, (d) imagem pós-processada e (e) detecção do contorno da lesão.
Para a aplicação deste modelo a
imagem suavizada em RGB é transformada em níveis de cinza e então definida uma
curva sobre a mesma. A forma inicial da
curva é quadrada com dimensão 140×140,
posicionada próxima ao centro da imagem,
desta forma são realizadas menos iterações para a curva envolver completamente
a lesão. Foram definidas 500 iterações para
a evolução da curva, ou seja, a minimização
da mesma ocorrerá até o número de iterações ou quando a curva estiver localizada
sobre o objeto. O resultado da aplicação do
modelo Chan-Vese possibilita a binarização
da imagem, como pode ser visto nas imagens da Figura 2(c).
2.3. Pós-processamento
Filtros morfológicos são aplicados
nas imagens binarizadas para tratá-las, eliminando ruídos internos e externos a lesão.
Esses ruídos são provenientes das imagens
com pelos, que não foram eliminados no
processo de suavização, ou reflexos. Mas
no caso dos reflexos, pode ser considerado que não estarão presentes nas imagens
quando forem adquiridas corretamente.
Os filtros utilizados neste trabalho
foram a abertura seguida do fechamento,
utilizando um elemento estruturante em
forma de elipse, com os dois raios iguais a
quatro, parâmetros que permitiram melhores resultados na etapa de pós-processamento. A aplicação desses filtros tem como
intuito suavizar a borda, além de eliminar os
ruídos. O resultado do pós-processamento
pode ser visto nas imagens da Figura 2(d)
a partir das imagens segmentadas da Figura 2(c). A borda foi suavizada e os ruídos
externos a lesão foram eliminados. Os ruídos internos da lesão não foram eliminados
completamente nos casos onde o elemento
estruturante era menor que os ruídos, acarretando a definição de bordas falsas.
Depois de realizado este processo,
o contorno é definido, como apresentado na
Figura 2(e). O contorno (linha branca) representa as delimitações e irregularidades
da borda, sendo importante para que as características da lesão possam ser extraídas,
sem influência da pele.
2.4. Extração das características ABCD e
textura
A partir do contorno da região segmentada pode-se extrair as características
Interciência
& Sociedade
87
OLIVEIRA, R. B.; GUIDO, R. C.; MARRANGHELLO, N.; ARAUJO, A. F.; TAVARES, J. M. R.
S.; ROSSETTI, R. B.; PEREIRA, A. S.
ABCD (assimetria, borda, cor e diâmetro) e
textura da lesão associada, que são muito
utilizadas pelos dermatologistas para diferenciar lesões benignas das malignas.
2.4.1. Assimetria
Para extrair as características da
assimetria foram utilizados apenas os pon-
tos que fazem parte da borda da lesão. A
distância euclidiana (GONZALEZ; WOODS,
2002) foi aplicada para calcular as distâncias entre todos os pares de pixels da borda
da lesão, para definir a maior diagonal ,
representada pela reta amarela na imagem
da Figura 3(a). Desta forma a lesão é dividida em duas partes (ARAUJO, 2010).
(a)(b)
Figura 3: Características de lesões de pele: (a) representação da Assimetria e (b) representação da
assinatura da borda.
Foram encontradas as perpendiculares de cada ponto da diagonal
com
o seu determinado ponto do contorno, para
as duas partes da lesão. Foram estabelecidas duas retas, perpendicular a diagonal,
como no exemplo apresentado na Figura
3(a), que são representadas pela linha azul
e a linha vermelha
. A quantidade de
perpendiculares de cada imagem é diferente, dependendo do tamanho da diagonal da
lesão. Considerando que as informações
referentes as perpendiculares formam o vetor de característica utilizada pela SVM para
classificar a característica de assimetria, o
vetor deve possuir a mesma quantidade de
características para todas as imagens. Desta forma, para estabelecer uma única quantidade de perpendiculares, foi calculado o
numero de saltos de pontos na diagonal
maior, conforme a quantidade de perpendiculares desejadas. Sendo:
(1)
onde é o número de saltos ao percorrer a
diagonal maior para encontrar as perpendiculares,
é o total de perpendiculares
encontradas anteriormente e
representa
a quantidade de perpendiculares desejadas, formando uma conjunto de amostras
de perpendiculares. Para cada perpendicular do conjunto de amostras é calculado
a distância das retas do ponto da diagonal até
88
ponto da borda perpendicular a ele. Então,
a característica que representa cada perpendicular é definida pela razão entre a distância menor sobre a maior. Estas características são passadas ao SVM para assim
serem classificadas.
2.4.2. Borda
Para extrair informações da borda, primeiramente foram encontrados somente os pontos da mesma, utilizando a
vizinhança de 8, a partir do primeiro ponto
encontrado. Tendo a sequência correta dos
pixels da borda, foi gerada a sua assinatura, representação unidimensional do contorno (GONZALEZ; WOODS, 2002), como
demonstrado na Figura 3(b), onde a lesão
é apresentada em vermelho. Considerando
a assinatura da lesão, as informações referentes a irregularidade da borda são definidas pelo produto vetorial, que fornece
a quantidade de picos, vales e retas que a
borda possui (ARAUJO, 2010).
O produto vetorial utiliza três pontos (
) do contorno para definir sua
direção, com variação de
pixels, sendo
calculado conforme a Equação 2. A aplicação do produto vetorial permite definir se
o segmento do contorno formado por tais
pontos é um pico, vale ou reta.
(2)
Interciência
& Sociedade
Caracterização de lesões de pele em imagens digitais a partir da máquina de vetor de suporte
Assim, são considerados três pontos do contorno (
), (
)e(
),
com um intervalo de quatro pixels (
),
para definir os picos, vales e retas menores
e também com um intervalo de quinze pixels (
), para representar os maiores.
Posteriormente, calcula-se o produto vetorial para todos os pontos que representam o
contorno. Associa-se um pico quando o valor é maior que zero (
), um vale quando é menor que zero (
) ou uma reta
quando é igual a zero (
). A quantidade
de vales pequenos e grandes do contorno
da região lesionada é então disponibilizado
ao dermatologista para que ele possa analisar o quanto irregular é a borda.
2.4.3. Cor
A quantidade de tonalidades é a
principal característica da regra de cor. A
imagem RGB pode conter milhares de cores. Por esse motivo foi realizado a quantização da mesma para reduzir a sua quantidade em 10 cores, ou seja, o espaço de
cores é divido em 10 e os pixels com cores
semelhantes são representados por uma
única tonalidade. A contagem das cores é
realizada somente na área da lesão. Considerando que a mesma pode conter alguns
ruídos como pelos e reflexos, são descartadas as cores que possuem um grupo de até
100 pixels (ARAUJO, 2010). A quantidade
de tonalidades encontradas na lesão é disponibilizada ao dermatologista para que ele
possa definir se a lesão é uniforme ou não.
2.4.4. Diâmetro
Considerando que as imagens do
(a)
banco não possuem informações referentes
ao diâmetro das lesões, a mesma é representada pela quantidade de pixels que compõem a diagonal maior, calculada pela distância euclidiana. São analisados todos os
pontos do contorno, para definir quais pares
de pontos possuem maior distância (GONZALEZ; WOODS, 2002). Uma demonstração da maior diagonal é vista na Figura 3(a)
representada pela reta amarela .
2.4.5. Textura
O método de extração das informações referentes à textura das lesões de
pele é obtida pela dimensão fractal das imagens em níveis de cinza, que quantifica o
seu nível de auto-similaridade. Existem diversas técnicas para este fim. Neste artigo
a dimensão é obtida por meio do método
box-counting (BCM), devido sua simplicidade (AL-AKAIDI, 2004). A dimensão fractal é aplicada para sinais 1D (voz, áudio e
outros), mas também pode ser aplicada em
imagens (sinais 2D). No caso de imagens,
é encontrada a dimensão de cada linha e
coluna da imagem separadamente e depois
é feito o somatório de todas as dimensões,
dividindo-se o valor pela quantidade total de
dimensões da imagem. O valor resultante é
somado com 1, obtendo-se um valor entre 2
e 3 (Equação 3).
(3)
Cada imagem é representada por
um vetor com 18 características, utilizadas
para gerar um conjunto de amostras, que
serão utilizadas pelo SVM, tanto para o processo de treinamento como para o de testes (Figura 4(b)).
(b)
Figura 4: Características da textura das lesões de pele: (a) divisão da imagem em 16 partes iguais e
(b) vetor com 18 características.
Interciência
& Sociedade
89
OLIVEIRA, R. B.; GUIDO, R. C.; MARRANGHELLO, N.; ARAUJO, A. F.; TAVARES, J. M. R.
S.; ROSSETTI, R. B.; PEREIRA, A. S.
A primeira característica é a dimensão fractal somente da área lesionada, determinada na segmentação. A segunda característica representa a dimensão de toda
a imagem. O restante das características
(3 - 18) é composta da dimensão de cada
uma das 16 partes iguais a qual a imagem
é dividida (Figura 4(a)), com o objetivo de
analisar o nível de auto-similaridade de diferentes partes da imagem separadamente. Essa divisão permite representar pelo
menos quatro regiões diferentes da lesão,
quantidade aqui utilizada para analisar sua
textura separadamente. As características
de textura extraídas das imagens são utilizadas como entradas para o classificador
SVM (Máquina de Vetor de Suporte), para
que sejam classificadas.
lho é baseado no aprendizado supervisionado e utiliza a função de Kernel gaussiana, conforme a Equação 4.
(4)
onde e são dois pontos do espaço de
entrada e é um parâmetro informado.
As características de assimetria
(A) e textura extraídas são utilizadas como
entradas para o classificador SVM para
identificar se a lesão é: simétrica ou assimétrica; lisa ou rugosa, respectivamente. Essa
informação pode ser utilizada pelo dermatologista para auxiliá-lo em seu diagnóstico.
Considerando que o SVM é um
método binário, o sistema é composto por
uma máquina, responsável por classificar
assimetria da lesão em simétrica, quando
obter resultado +1, ou em assimétrica, tendo como resultado -1. Para a classificação,
a máquina recebe as características de assimetria, conforme a quantidade de razões
de perpendiculares estabelecidas, como
pode ser visto na Figura 5.
2.5 Classificação da assimetria e textura
O SVM é uma técnica baseada
em aprendizado estatístico, utilizada para
o reconhecimento de padrões em imagens
(BURGES, 1988). O algoritmo deste traba-
+1
Vetor de
característica
Máquina
-1
Assimetria
Simétrica
Assimétrica
Figura 5: Máquina de classificação de assimetria.
No caso da textura, a máquina,
representada pela Figura 6, recebe como
entrada as características de textura extra-
ídas. O resultado sendo +1 define a lesão
como lisa e - 1 define a lesão como rugosa.
+1
Vetor de
característica
Máquina
Textura
Figura 6: Máquina de classificação de textura.
90
Interciência
& Sociedade
-1
Lisa
Rugosa
Caracterização de lesões de pele em imagens digitais a partir da máquina de vetor de suporte
As informações estabelecidas pela
extração de características e a Máquina de
Vetor de Suporte para a regra ABCD e textura são disponibilizadas ao dermatologista
com o objetivo de auxiliá-lo no seu diagnóstico.
rização, apesar de 1,93% das imagens contendo lesões do tipo melanoma, 6,45% das
imagens de nevos e 5,81% das imagens
representando a ceratose seborréica não
terem sido detectadas.
Para a regra de assimetria foram
realizados três testes com vetores de características diferentes (V1, V2 e V3) de entrada para o classificador SVM. Foi alterada
a quantidade de perpendiculares, no termo
da Equação 1, para 10, 20 e 30 amostras
desejadas. O primeiro vetor (V1) é formado por um conjunto de 10 características, o
segundo vetor (V2) é composto por 20 características e o terceiro vetor (V3) corresponde 30 características, com coeficientes
entre 0 e 1, que correspondem a razão das
perpendiculares.
Na Tabela 2 podemos observar os
resultados obtidos para a assimetria. Para
classificar as imagens em simétrica ou assimétrica, o SVM obteve melhores resultados utilizando como entrada o vetor com 30
características. Com precisão de 73,04%
para as duas classes correspondentes. No
caso da simétrica o número de acertos foram maiores do que a assimétrica, tendo
84,06% de acerto. O resultado da precisão
é calculado pela média, considerando a
quantidade de acertos de cada classe e sua
quantidade de imagens.
3. Testes e resultados
A base experimental deste trabalho
é formada por 408 imagens fotográficas,
compostas por imagens do tipo nevo melanocítico, ceratose seborréica e melanoma,
dos seguintes bancos: DermAtlas (2000),
DermIS (2012) e Saúde total (2006). Há
duas classes de textura: lesões lisas e as
lesões rugosas. Sendo 224 imagens com
textura lisa e 184 imagens com textura rugosa. No caso da assimetria, há 137 lesões
simétricas e 271 assimétricas. As imagens
da base utilizadas nos testes foram convertidas de JPG para BMP com 16 bits e para
dimensão 200 x 200, para facilitar o processamento das mesmas. Na classificação
utilizando o SVM foram utilizadas 50% das
imagens para treinamento e os outros 50%
para testes.
A partir da análise dos resultados obtidos na segmentação pelo método
Chan-Vese, pode se concluir que o método
desenvolvido é promissor, permitindo a extração das características para sua caracteTabela 2. Resultados da classificação da assimetria.
Testes
Simétrica
Assimétrica
Precisão
Acertos
Erros
Acertos
Erros
V1
63,77%
36,23%
73,33%
26,67%
70,10%
V2
63,77%
36,23%
71,11%
28,89%
68,63%
V3
84,06%
15,94%
67,41%
32,59%
73,04%
Para a analise de textura foram
passadas para o SVM as 18 características
extraídas da imagem, para classificar as
lesões em lisa ou rugosa. O classificador
obteve 72,84% de precisão para as duas
classes. As lesões lisas obtiveram um melhor resultado de acerto do que as rugosas,
tendo 74,16% de acertos, como pode ser
visto na Tabela 3.
Interciência
& Sociedade
91
OLIVEIRA, R. B.; GUIDO, R. C.; MARRANGHELLO, N.; ARAUJO, A. F.; TAVARES, J. M. R.
S.; ROSSETTI, R. B.; PEREIRA, A. S.
Tabela 3. Resultados da classificação da textura.
Textura
Acertos
Erros
Lisa
74,16%
25,04%
Rugosa
71.23%
28,77%
Os resultados tanto da segmentação como os da classificação se mostraram
promissores na caracterização das lesões
de pele. São disponibilizadas ao dermatologista as informações referentes a assimetria (simétrica ou assimétrica), borda (quantidade de vales pequenos e grandes do
contorno), cor (quantidade de tonalidades),
diâmetro (quantidade de pixel da maior diagonal) e textura (lisa ou rugosa) para auxilia-lo no diagnóstico.
CONSIDERAÇÕES FINAIS
Neste artigo apresentou-se um
método de caracterização de lesões de pele
em imagens digitais a partir da máquina de
vetor de suporte (SVM). Para minimizar os
efeitos dos ruídos foi utilizado o filtro mediana, que eliminou parcialmente a presença
dos ruídos, permitindo uma melhor segmentação das imagens muito ruidosas.
O modelo Chan-Vese se mostrou
uma animadora técnica para segmentação
de lesões de pele, apesar de não conseguir detectar corretamente as lesões quando existem regiões na imagem com uma
área grande de sombra. Outro problema
é a definição de bordas falsas devido aos
reflexos com extensão muito grandes, não
permitindo sua eliminação pela aplicação
dos filtros morfológicos, considerando que
o elemento estruturante não pode ser muito
grande para não prejudicar a irregularidade
da borda.
O resultado da caracterização das
lesões com a utilização da máquina de vetor de suporte (SVM) se mostrou promissor
na extração das características ABCD e textura; e na classificação das lesões simétricas e assimétricas; e também com texturas
lisas e rugosas. Mas deve ser considerado
que os resultados obtidos na classificação
da assimetria e textura devem ser melhorados.
Uma outra etapa a ser desenvol92
Precisão
72,84%
vida futuramente neste trabalho é a classificação dos tipos de lesões de pele, tais
como melanoma, ceratose seborréica e
nevos melanocíticos. Todas essas informações reunidas são importantes para o dermatologista, porque pode auxiliá-lo no seu
diagnóstico.
REFERÊNCIAS BIBLIOGRÁFICAS
AL-AKAIDI, M. Fractal speech processing. New
York: Cambridge University Press, 2004.
ALCÓN, J. F.; CIUHU, C.; KATE, W. T.; HEINRICH,
A.; UZUNBAJAKAVA, N. Automatic imaging system
with decision support for inspection of pigmented skin
lesions and melanoma diagnosis. IEEE Journal of
Selected Topics in Signal Processing, v. 3, n. 1, p.
14-25, 2009.
ARAUJO, A. F. Método para extração e caracterização de lesões de pele usando difusão anisotrópica, crescimento de regiões, watersheds e contornos ativos. Tese de Mestrado, UNESP, São José do
Rio Preto, 2010.
BURGES, C. J. C. A tutorial on support vector machines for pattern recognition. Data Mining and Knowledge, v. 2, p. 121-167, 1998.
CHAN, T. F.; VESE, L. A. Active contours without edges. IEEE Transactions on Image Processing, v.
10, n. 2, p. 266-277, 2001.
CUCÉ, L. C.; FESTA NETO, C. (Org.) et al. Manual
de dermatologia. 2 ed. São Paulo: Atheneu, 2001,
660 p.
CUDEK, P.; GRZYMALA-BUSSE, J. W.; HIPPE, Z.
S. Melanocytic skin lesion image classification.
Part I: Recognition of skin lesion. In: Conference on
Human System Interactions (HSI). 3rd, Rzeszow, Poland, 2010, p. 251-257.
DERMATLAS. B. A. Cohen; C. U. Lehmann. Johns
Hopkins University, DermAtlas. Disponível em Dermatology Image Atlas: <http://dermatlas.med.jhmi.
edu/> (Acesso em: 2012).
DERMIS. Diepgen TL, Yihune G et al. Dermatology
Information System, DermIS. Disponível em Atlas
Dermatológico
Online:
<http://www.dermis.net>.
(Acesso em: 2012).
Interciência
& Sociedade
Caracterização de lesões de pele em imagens digitais a partir da máquina de vetor de suporte
GONZALEZ, R. C.; WOODS, R. E. Digital image
processing. 2. ed. New Jersey: Prentice Hall, 2002.
793 p.
KASS, M.; WITKIN, A.; TERZOPOULOS, D. Snakes:
Active contour models. International Journal of
Computer Vision, v. 1, n.4, p. 321-331, 1988.
[12] MAGLOGIANNIS, I; DOUKAS, C. N. Overview
of advanced computer vision systems for skin lesions
characterization. IEEE Transactions on Information
Technology in Biomedicine, v. 13, n. 5, p. 721-733,
2009.
MINISTÉRIO DA SAÚDE; INSTITUTO NACIONAL
DE CÂNCER. Estimativa 2012: incidência de câncer
no Brasil. Instituto Nacional de Câncer José Alencar
Gomes da Silva, Coordenação Geral de Ações Estratégicas, Coordenação de Prevenção e Vigilância. Rio
de Janeiro: INCA, 2011. 118 p.
MUMFORD, D. SHAH, J. Optimal approximations by
piecewise smooth functions and associated variational problems. Communications on Pure and Applied Mathematics, v. XLII, p. 577-685, 1989.
NORTON, K. –A.; IYATOMI, H.; CELEBI, M. E.; SCHAEFER, G.; TANAKA, M.; OGAWA, K. Development of
a novel border detection method for melanocytic and
non-melanocytic dermoscopy images. In: Annual In-
ternational Conference of the IEEE EMBS, 32nd.
Buenos Aires, Argentina, 2010, p. 5403-5406.
OSHER, S.; SETHIAN, J. A. Fronts propagating with
curvature dependent speed: algorithms based on
Hamilton-Jacobi formulations. Journal of Computational Physics, v. 79, p. 12-49, 1988.
RAHMAN, M. M.; BHATTACHARYA, P.; DESAI, B. C.
A multiple expert-based melanoma recognition system
for dermoscopic images of pigmented skin lesions.
BioInformatics and BioEngineering, 2008. IEEE International Conference on. 8th, BIBE, p. 1-6, 2008.
SAÚDE TOTAL. Câncer da Pele: fotoproteção. Vida
saudável com o sol. Disponível em <http://www.saudetotal.com.br/prevencao/topicos/default.asp>. Acesso em: 2012.
WOLFF, K.; JOHNSON, R. A.; SUURMONS, D. Dermatologia: atlas e texto. 5 ed. Rio de Janeiro: McGraw-Hill Interamericana do Brasil, 2006, 1092 p.
ZHAO, J.; SHAO, F.; XU, Y.; ZHANG, X.; HUANG, W.
An improved Chan-Vese model without reinitialization for medical image segmentation. In: International Congress on Image and Signal Processing
(CISP 2010), 3rd. Yantai, 2010, p. 1317-1321.
Roberta Barbosa Oliveira possui graduação em Sistemas de Informação desde 2008 pela Fundação Educacional
de Fernandópolis (FEF). Obteve o grau de mestre em Ciência da Computação, na linha de pesquisa de Processamento de Imagens e Visão Computacional pela Universidade Estadual Paulista “Júlio de Mesquita Filho” (UNESP)
- Campos de São José do Rio Preto / SP, Instituto de Biociências, Letras e Ciências Exatas (IBILCE) em 2012.
Rodrigo Capobianco Guido possui graduação em Ciência da Computação pela UNESP - câmpus de São José
do Rio Preto-SP, graduação em Engenharia de Computação pela Fundação Educacional de Votuporanga - FEV.
Obteve o grau de Mestre em Engenharia Elétrica pela Faculdade de Engenharia Elétrica e de Computacão da
UNICAMP e de Doutor em Física Aplicada Computacional pelo Instituto de Física de São Carlos da USP. Obteve
título de Livre-docente na área de Processamento Digital de Sinais pelo Departamento de Engenharia Elétrica da
Escola de Engenharia de São Carlos da USP.
Norian Marranghello possui graduação em Engenharia Eletrônica pela Pontifícia Universidade Católica do Rio
Grande do Sul (1982), mestrado em Engenharia Elétrica pela Universidade Estadual de Campinas (1987), doutorado em Engenharia Elétrica pela Universidade Estadual de Campinas (1992), pós-doutorado em Sistemas de
Computação pela Universidade de Aarhus na Dinamarca (1998) e livre-docência em Sistemas Digitais pela Universidade Estadual Paulista (1998). Atualmente é Professor Titular da Universidade Estadual Paulista.
Alex F. de Araujo graduou-se em Ciências da Computação na Universidade Federal de Goiáss/Catalão em 2007.
Obteve o grau de mestre em Ciências da Computatação na Universidade Estadual Paulista “Júlio de Mesquita
Filho”/São José do Rio Preto em 2010. Atualmente é doutorando em Engenharia Informática na Faculdade de
Engenharia da Universidade do Porto.
João Manuel R. S. Tavares licenciou-se em Engenharia Mecânica na Faculdade de Engenharia da Universidade
do Porto (FEUP) em 1992. Obteve os graus de Mestre e de Doutor em Engenharia Electrotrônica e de Computadores, também na FEUP, em 1995 e 2001, respectivamente. Desde 2001, é Investigador sênior e Coordenador de
Projeto no Laboratório de Óptica e Mecânica Experimental (LOME), do Instituto de Engenharia Mecânica e Gestão
Industrial (INEGI). É Prof. Auxiliar do Departamento de Engenharia Mecânica (DEMec) da FEUP desde 2001 até
2011 e Prof. Associado do mesmo departamento desde 2011.
Aledir Silveira Pereira é graduado em Engenharia Elétrica, sendo engenheiro Eletrônico e Eletrotécnico. Tendo
obtido o título de mestre em Engenharia Elétrica pela USP - Universidade de São Paulo e título de doutor em Física
Aplicada Computacional pela USP em 1995. Atualmente é professor assistente doutor pela UNESP - Universidade
Estadual Paulista junto
Interciência
& Sociedade
93
OLIVEIRA, R. B.; GUIDO, R. C.; MARRANGHELLO, N.; ARAUJO, A. F.; TAVARES, J. M. R.
S.; ROSSETTI, R. B.; PEREIRA, A. S.
O primeiro autor agradece a Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES pela sua
bolsa de Mestrado. Os autores são gratos à Fundação para a Ciência e Tecnologia - FCT, em Portugal. Também
agradecem ao Conselho Nacional de Desenvolvimento Científico e Tecnologia - CNPq e à Fundação de Amparo à
Pesquisa do Estado de São Paulo - FAPESP pelo suporte financeiro.
94
Interciência
& Sociedade
SUBMISSÃO DE TRABALHOS
Os artigos deverão ser encaminhados para o Conselho Editorial via mensagem eletrônica para: revista@fmpfm.
edu.br (Assunto: Submissão). Os textos deverão ser publicados em português. Além disso, requer-se que os
manuscritos submetidos a esta revista não tenham sido publicados anteriormente e não sejam submetidos
simultaneamente em outro periódico. O conteúdo dos artigos aqui publicado é de responsabilidade, única e
exclusiva, dos respectivos autores, não refletindo, necessariamente, a opinião ou pensamento do conselho editorial.
NORMAS PARA FORMATAÇÃO
1.
Formatação Geral
Características gerais:
 Número de páginas: um mínimo de 8 páginas e no máximo 12 páginas, incluindo as dedicadas às referências;
 Papel: sulfite no formato A4 (297 x 210 mm);
 Editor de texto: Word 2003 ou superior;
 Margens: direita e esquerda – 3 cm; superior e inferior – 3 cm;
 Fonte: Arial, para todo documento;
 Parágrafo: espaçamento entre parágrafos: 0 cm; espaçamento entre linhas: simples; alinhamento justificado;
recuo especial da primeira linha: 1,25 cm.
2.
Estrutura do Trabalho
Seguem-se as recomendações em relação à estrutura dos trabalhos a serem avaliados e, posteriormente, se for o
caso, publicados pelo periódico INTERCIÊNCIA & SOCIEDADE.
2.1.
Título
O título deve estar na primeira página, centralizado, devendo ocupar no máximo duas linhas, com espaçamento
entrelinhas 1,5, letras maiúsculas (caixa alta) em negrito, na fonte Arial, tamanho 14.
2.2.
Autoria
As autorias constituem-se pelas pessoas físicas responsáveis na criação do conteúdo intelectual de um documento
e são indicadas pelos nomes dos autores, IES de origem e pelo e-mail.
2.2.1. Nome
Os nomes são referenciados pelo último sobrenome, em letras maiúsculas, seguidos dos prenomes e outros
sobrenomes, que podem ser abreviados ou não, no formato que se segue: SOBRENOME do 1º autor, letras
maiúsculas (caixa alta), na fonte Arial, tamanho 11; seguido do nome do 1º autor, letras maiúsculas e minúsculas
(caixa alta e baixa), normal, na fonte Arial, tamanho 11, alinhados à direita, espaçamento entrelinhas simples.
2.2.2. IES
O nome da Instituição de Ensino Superior deve estar em letras maiúsculas e minúsculas (caixa alta e baixa),
normal, na fonte Arial, tamanho 10, alinhados à direita, com a sigla da IES, entre parênteses, em letras maiúsculas
(caixa alta) normal, na fonte Arial, tamanho 10, alinhados à direita, espaçamento simples.
2.2.2. E-mail
O endereço eletrônico deve estar em letras minúsculas (caixa baixa), normal, na fonte Arial, tamanho 10, alinhados
à direita, espaçamento simples.
2.3.
Resumo
O texto deve ser escrito em português, com no máximo 10 linhas, cerca de 500 palavras, na fonte Arial, normal,
alinhamento justificado e espaçamento simples. A palavra RESUMO, seguida de dois pontos, deve ser escrita em
letras maiúsculas (caixa alta), em negrito, na fonte Arial, tamanho 10, o texto do resumo vem logo a seguir.
2.4.
Palavras-chave
As palavras-chave devem ser escritas em português, em número máximo de cinco palavras-chave, na fonte Arial,
normal, alinhamento justificado, espaçamento simples. PALAVRAS-CHAVE seguida de dois pontos devem ser
escritas em letras maiúsculas (caixa alta), em negrito, na fonte Arial, tamanho 10.
2.5.
Abstract
O texto do abstract, que vem a ser a tradução para a língua inglesa do resumo, até 10 linhas, na fonte Arial, itálico,
alinhamento justificado e espaçamento simples. A palavra ABSTRACT, seguida de dois pontos, deve ser escrita
em letras maiúsculas (caixa alta), em negrito, na fonte Arial, tamanho 10.
2.6.Keywords
São as palavras-chave traduzidas para o inglês, em número máximo de cinco palavras, na fonte Arial, itálico,
alinhamento justificado e espaçamento simples. KEYWORDS seguida de dois pontos devem ser escritas em letras
maiúsculas (caixa alta), em negrito, na fonte Arial, tamanho 10, em itálico, as keywords propriamente ditas vêm
logo a seguir.
Interciência
& Sociedade
95
3.Introdução
O texto da Introdução deve ser escrito em português, na fonte Arial, tamanho 11, normal, alinhamento justificado,
espaçamento entrelinhas simples, sem hifenação, com recuo de 1,25 cm na primeira linha. A palavra Introdução
deve ser escrita em letras maiúsculas (caixa alta), na fonte Arial, tamanho 11, em negrito, alinhamento justificado,
espaçamento 1,5, entre a palavra Introdução e o texto propriamente dito não há espaçamento entrelinhas.
4.Texto
4.1.
Tópicos
Em quantidade necessária para o desenvolvimento estruturado do trabalho deve estar na fonte Arial, tamanho 11,
em negrito, alinhamento justificado, não sendo conveniente ultrapassar-se uma linha e deve obedecer a numeração
arábica progressiva crescente.
4.2.
Sub-tópicos
Se fizerem necessários os sub-tópicos, até no máximo o terceiro nível, devem estar na fonte Arial, tamanho 11,
em negrito, alinhamento justificado, espaçamento entrelinhas simples, não sendo conveniente ultrapassar-se uma
linha. E, esses sub-tópicos devem obedecer a numeração arábica progressiva crescente. O texto referente ao
conteúdo dos sub-tópicos deve(m) estar na fonte Arial, tamanho 11, normal, alinhamento justificado, espaçamento
entrelinhas simples, obedecendo a um recuo de 1,25 cm para a primeira linha de cada parágrafo.
4.3.
Figuras
O título da Figura e as legendas devem vir logo abaixo desta, na fonte Arial, tamanho 10, normal, centralizados,
com uma entrelinha 1,5 entre a figura e o título da figura, obedecendo a numeração arábica progressiva crescente,
e deve haver uma entrelinha 1,5 para a continuação do texto.
4.4.
Quadros e Tabelas
O título dos quadros e as tabelas devem vir logo acima desta, na fonte Arial, tamanho 10, normal, alinhado à
esquerda, com uma entrelinha 1,5 entre o texto e o título dos quadros ou tabelas, obedecendo a numeração
arábica progressiva crescente.
4.5.
Notas de rodapé
As notas de rodapé devem ser inseridas somente se forem extremamente necessárias para a compreensão do
texto, em numeração arábica progressiva crescente, na fonte Arial, tamanho 9, normal, alinhamento justificado,
com entrelinhas simples.
5.
Considerações finais
Deve ser escrito em letras maiúsculas (caixa alta), na fonte Arial, tamanho 11, em negrito, alinhamento justificado,
espaçamento simples.
6.
Referências bibliográficas
As referências citadas no corpo do texto, conforme padrão da ABNT (NBR-6023) deverão ser apresentadas
em ordem alfabética no final do texto, na fonte Arial, tamanho 9, normal, alinhamento justificado, espaçamento
entrelinhas simples, sem hifenação. Entre as referências deve ser utilizado um espaçamento antes do parágrafo de
6 pontos. Como nota de fim de texto deve ser inserido um minicurrículo do(s) autore(s), até no máximo 10 linhas, na
fonte Arial, tamanho 9, normal, alinhamento justificado, espaçamento entrelinhas simples e espaçamento simples
entre os minicurrículos (caso houver mais autores).
PROCESSO DE AVALIAÇÃO
Os artigos recebidos são submetidos à análise do Conselho Editorial para avaliação da adequação às áreas de
interesse da revista e às exigências para submissão. Posteriormente, os artigos são encaminhados para análise
por especialistas (pareceristas) nas respectivas áreas temáticas - método conhecido como avaliação por pares,
peer review. Os nomes dos pareceristas e dos autores são mantidos em sigilo durante todo o processo. Os autores
têm acesso aos pareceres referentes aos seus artigos, porém sem a identificação do parecerista.
DIREITOS AUTORAIS
Ao submeterem artigos à Revista, os autores declaram serem titulares dos direitos autorais, respondendo
exclusivamente por quaisquer reclamações relacionadas a tais direitos. Os autores autorizam a Revista, sem
ônus, a publicar os referidos textos em qualquer meio, ficando ainda a Revista também autorizada a adequar os
textos a seus formatos.
96
Interciência
& Sociedade
Interciência
& Sociedade
97
EDITORA FMPFM