Anais - PCS

Transcrição

Anais - PCS
WPG-EC
2013
Anais do
II Workshop de Pós-Graduação
da Área de Concentração Engenharia de Computação
do Programa de Pós-Graduação em Engenharia Elétrica da
EPUSP
— WPG-EC 2013 —
Organizado por
Anarosa Alves Franco Brandão
Anna Helena Reali Costa
Cı́ntia Borges Margi
São Paulo, 10 Outubro de 2013
Prefácio
Este documento contém os trabalhos apresentados na segunda edição do WPG-EC
(Workshop de Pós Graduação da área de Concentração Engenharia de Computação
do Programa de Pós Graduação em Engenharia Elétrica da Escola Politécnica da
Universidade de São Paulo).
O WPG-EC 2013 será realizado nas dependências da Escola Politécnica da Universidade de São Paulo (USP), no dia 10 de outubro, com apoio da CAPES, do Departamento
de Engenharia de Computação e Sistemas Digitais da Escola Politécnica, do Programa
de Pós-Graduação em Engenharia Elétrica (PPGEE) da USP e da Seção Sul do IEEE,
Sociedade de Computação.
Com o intuito de criar tradição, o evento tem como objetivo propiciar um fórum para
integrar professores e estudantes de Pós-Graduação em Engenharia de Computação do
PPGEE. Neste fórum os alunos submetem resumos estendidos relatando seus projetos
de pesquisa, avaliam os trabalhos de seus pares e apresentam seus trabalhos oralmente.
Além disso, os alunos confeccionaram pôsteres exibidos por três dias nas dependências
do prédio da Engenharia Elétrica da Escola Politécnica da USP na semana do evento.
Como forma de atingir todos os alunos do programa, inclusive aqueles participantes do
DINTER, o evento também será transmitido em tempo real via IPTV-USP.
Palestras relacionadas à Pesquisa e Pós-Graduação serão apresentadas aos participantes, para trazer-lhes um panorama do assunto extramuros da Engenharia Elétrica.
Bancas formadas por docentes credenciados no PPGEE elegerão os melhores trabalhos
nas categorias Mestrado e Doutorado.
Para esta edição, o evento recebeu 47 submissões de resumos estendidos nas áreas de
Sistemas de Informação e Aplicações Computacionais, Organização de Sistemas Computacionais e Metodologias de Computação. Todos os resumos constam deste documento.
Gostarı́amos de agradecer aos palestrantes convidados que abrilhantaram o evento
com suas palestras. Finalmente, agradecemos ao fomento recebido da CAPES, do Departamento de Engenharia de Computação e Sistemas Digitais da EPUSP e do PPGEE-EPUSP,
bem como o apoio da Seção Sul do IEEE, Sociedade de Computação, que tornaram possı́vel
o WPG-EC 2013.
São Paulo, Outubro, 2013
Anarosa Alves Franco Brandão
Anna Helena Reali Costa
Cı́ntia Borges Margi
Comissão Organizadora do II WPG-EC
Patrocı́nio
PPGEE-EPUSP
Apoio
Comitê de Programa
Abrahao, Elcio
Almeida, Jorge
Alves, Renan C. A.
Alves Franco Brandão, Anarosa
Amaral, Marcelo
Batista Camargo Jr, João
Beirigo, Rafael Lemes
Berlink de Souza, Heider
Bieleveld,
Borges Margi, Cı́ntia
Barreto Campos, Leonardo
Canovas, Sergio
Carvalho, Tereza
Casare, Sara
Cirelli, Mauricio
Correa, Fernando Elias
Corrêa, Cléber Gimenez
Costa, André
Costa, Anna Helena Reali
Cugnasca, Carlos
De Moraes Batista, André Filipe
Dirickson, Yuri
Domingues, Marcia Beatriz
Emiliano Moreira Rocha, Vladimir
Ferreira, Jefferson
Filgueiras, Lucia
Fonseca, Wannessa
França Costa, Wilian
Freiberger, Evandro
Gimenes, Ricardo
Gomi, Edson
Goya, Walter Akio
Gutierrez, Marylia
Hattori, Fernando
Hirakawa, Andre
Iwaya, Leonardo
Jacomini, Ricardo
Januário, Guilherme
Kawamoto, Sandra
Koga, Marcelo
Lourdes S. Nunes, Fátima de
L. Silva, Daniel
Lima, Allan
Maat Massolino, Pedro
Maçan, Eduardo
Marè, Renata
Mayor Toro, Walter
Melo Sivleira, Regina
Mimura Gonzalez, Nelson
Nakamura, Ricardo
Oliveira, Ana Cláudia M. T. G.
Oliveira, Bruno
Perafán Villota, Juan
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
Pizzigatti Correa, Pedro Luiz
Preti, João Paulo
Prietch, Soraia
Reis, Saulo
Riekstin, Ana Carolina
Rojas, Marco
Ruggiero, Wilson Vicente
Truzzi, Flavio Sales
Santos, Mateus
Saraiva, Antonio Mauro
Schwarz, Marcos
Sichman, Jaime
Silva, Felipe Leno
Silva, Luiz Otávio L.
Simplicio Jr, Marcos Antonio
Socrates Dantas, Joana
Tori, Romero
Toschi, Guilherme
Veiga, Allan Koch
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
USP
Sumário
I
Resumos Mestrado
Experiência de usuário em jogos combinando realidade aumentada e dispositivos
móveis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
André Febeliano da Costa, Ricardo Nakamura
3
Classificador para anotação geográfica automática de textos . . . . . . . . . . . . . . . . . . . .
Eduardo Marcel Maçan, Edson Satoshi Gomi
5
Técnicas para a Classificação Automática de Abelhas a partir de Imagens de Asas
Felipe Leno da Silva, Anna Helena Reali Costa
7
Investigação de métodos para ordenação de resultados de motores de busca em
acervos digitais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Fernando Hattori, Edson Satoshi Gomi
Ad Networks: Models and Solutions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Flavio Sales Truzzi, Anna Helena Reali Costa
Avaliação de Sistemas de Gerenciamento de TI Baseados em Polı́tica de Eficiência
Energética . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Guilherme C. Januário, Tereza Cristina Melo de Brito Carvalho
Integração de subsistemas de automação residencial . . . . . . . . . . . . . . . . . . . . . . . . . . .
Guilherme Mussi Toschi, Carlos Eduardo Cugnasca
9
11
13
15
Desenvolvimento de um Sistema Inteligente de Gerenciamento Energético
Residencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Heider Berlink de Souza, Anna Helena Reali Costa
17
Simulação e Análise de Arquiteturas Hierárquicas sem Buffers de Redes em Chip
sem Fio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Jefferson C. Ferreira, Cintia Borges Margi
19
Security framework for mHealth data collection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Leonardo Horn Iwaya, Tereza Cristina Melo de Brito Carvalho
21
Classificação visual de produtos agrı́colas: Análise da eficácia de técnicas de
seleção de atributos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Luis Otávio Lamardo A. Silva, Carlos Eduardo Cugnasca
23
REASON - Avaliação de confiabilidade e disponibilidade em redes de
computadores sustentáveis. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Marcelo C. do Amaral e Tereza Cristina Melo de Brito Carvalho
25
Emulated and Software Defined Networking Convergence . . . . . . . . . . . . . . . . . . . . . .
Marcos Felipe Schwarz, Tereza Cristina Melo de Brito Carvalho
27
Estudo de métodos para escolha de gestos para aplicações em superfı́cies multi-toque
Marylia Gutierrez, Ricardo Nakamura
29
An evaluation of multi-touch gesture recognizers on interactive tables . . . . . . . . . . . .
Mauricio Cirelli, Ricardo Nakamura
31
Gerenciamento de credenciais para computação em nuvem . . . . . . . . . . . . . . . . . . . . .
Nelson Mimura Gonzalez, Tereza Cristina Melo de Brito Carvalho
33
McEliece Cryptossytem in Hardware with binary QuasiDyadic Goppa Codes . . . . .
Pedro Maat C. Massolino, Wilson Vicente Ruggiero
Utilização de Atributos do Estado no Mapeamento de Ações entre Soluções de
Diferentes Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Rafael Lemes Beirigo, Anna Helena Reali Costa
Modelo em Rede de Petri Colorida para o padrão IEEE 802.15.4 . . . . . . . . . . . . . . . .
Renan Cerqueira A. Alves, Cintia Borges Margi
Uma Solução para a Redução Automática de Fluxos de Vı́deo Redundantes em
Nuvens de Computação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Walter Akio Goya, Marcos Antonio Simplı́cio Jr
35
37
39
41
Aplicação do Aprendizado por Reforço em um Espaço contı́nuo . . . . . . . . . . . . . . . . .
Walter Mauricio Mayor Toro, Anna Helena Reali Costa
43
Avaliação de risco da automação no controle de tráfego aéreo: caso TWR . . . . . . . .
Yuri M. R. Dirickson, João Batisata de Camargo Jr
45
II
Resumos Doutorado
C.O.R.M.: Customized Opinion Relevance Model . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Allan Diego Silva Lima, Jaime Simão Sichman
49
Proposta de um método de controle de qualidade de dados de biodiversidade . . . . .
Allan Koch Veiga, Antonio Mauro Saraiva
51
Automated Refinement of Sustainability-Oriented Policies for a Sustainable
Network Management . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Ana Carolina Riekstin, Tereza Cristina Melo de Brito Carvalho
53
Método de Deformação Elástica para um simulador Virtual para treinamento de
punção de mamas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Ana Cláudia M. T. G. de Oliveira, Fátima L. S. Nunes, Romero Tori
55
Avaliação de interação háptica em ambientes virtuais para treinamento na área
de saúde . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Cleber Gimenez Corrêa, Fátima L. S. Nunes, Romero Tori
57
Framework conceitual para a integração de bases de dados de Biodiversidade
distribuı́das em larga escala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Daniel Lins da Silva, Pedro Luiz Pizzigatti Corrêa
59
Uma extensão do agroXML para representação do conhecimento técnico das
operações agrı́colas da cana-de-açúcar através de ontologia . . . . . . . . . . . . . . . . . . . . .
Elcio Abrahão, André Riyuiti Hirakawa
61
Plataforma Online de Produção, Execução e Compartilhamento de Conteúdos
Interativos de Realidade Virtual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Evandro Cesar Freiberger, Romero Tori
63
Modelo de Data Mining aplicado a Data Marts de preços de comercialização de
Grãos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Fernando Elias Corrêa, Pedro Luiz Pizzigatti Corrêa
65
Differentiated Service Strategy for Backbone Networks . . . . . . . . . . . . . . . . . . . . . . . . .
Joana Socrates Dantas, Regina Melo Silveira, Wilson Vicente Ruggiero
67
Transition Support Services for Distributed User Interfaces . . . . . . . . . . . . . . . . . . . . .
João Paulo Delgado Preti, Lucia Vilela Leite Filgueiras
69
Construção de mapas densos em ambientes internos utilizando sensores RGB-D . . .
Juan C. Perafán Villota, Anna Helena Reali Costa
71
Um Modelo de Rastreabilidade da Cadeia do Vinho Baseado em Internet das
Coisas Utilizando Redes de Sensores Sem Fio e RFID . . . . . . . . . . . . . . . . . . . . . . . . . .
Leonardo Barreto Campos, Carlos Eduardo Cugnasca
73
Database Refactoring to Increase Queries Performance . . . . . . . . . . . . . . . . . . . . . . . . .
Marcia Beatriz Pereira Domingues, Jorge Rady Almeida Jr.
75
Proposta de Mecanismo de Controle de Acesso para o Ambiente SDN/OpenFlow .
Marco Antonio T. Rojas, Tereza Cristina Melo de Brito Carvalho
77
Multi Expression Linear Genetic Programming for Symbolic Regression . . . . . . . . . .
Michel Jan M. Bieleveld, Antonio Mauro Saraiva
79
Avaliação da Adoção de Sensores Virtuais em Redes de Sensores Legadas Visando
à Sua Predisposição ao Contexto de Internet das Coisas . . . . . . . . . . . . . . . . . . . . . . . .
Renata Maria Marè, Carlos Eduardo Cugnasca
81
Método de Avaliação de Segurança Crı́tica para a Inserção de Veı́culos Aéreos
não Tripulados (VANT) no Espaço Aéreo não Segregado . . . . . . . . . . . . . . . . . . . . . . .
Ricardo A. V. Gimenes, Jorge Rady de Almeida Jr
83
Modelo de Representação de Design Rationale para Projetos de Código Aberto . .
Sandra Kawamoto, Jorge Rady de Almeida Jr
Método de Super-Resolução de Imagem Digital usando Interpolação DCT e
Representação Esparsa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Saulo R. S. dos Reis, Graça Bressan
Set Based Meta Modeling: uma alternativa ao MOF para definir metamodelos . . . .
Sergio R. de M. Canovas, Carlos Eduardo Cugnasca
Solução Mediada por Tecnologia como Suporte à Educação Inclusiva de Pessoas
Surdas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Soraia Silva Prietch, Lucia Vilela Leite Filgueiras
85
87
89
91
Reutilização de Conceitos de Serviços no Cenário de Governo Eletrônico . . . . . . . . .
Wanessa R. da Fonseca, Pedro Luiz Pizzigatti Corrêa
93
Spatial Analysis through geo-objects generated by Multiresolution Algorithm . . . . .
Wilian França Costa, Antonio Mauro Saraiva
95
Índice de Autores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
97
Parte I
Resumos Mestrado
Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP
Experiência de usuário em jogos combinando
realidade aumentada e dispositivos móveis
André Febeliano da Costa
Ricardo Nakamura
INTERLAB-Laboratório de Tecnologias Interativas
Escola Politécnica da Universidade de São Paulo
São Paulo, Brasil
[email protected]
INTERLAB-Laboratório de Tecnologias Interativas
Escola Politécnica da Universidade de São Paulo
São Paulo, Brasil
[email protected]
peças e animações são controladas por computador, mas ainda
mantendo as decisões e a interação entre os jogadores dentro
do mundo real e não através de uma tela. Estas são aplicações
possíveis, que usam a tecnologia de RA e criam uma
experiência diferente ao usuário que o simples uso de RA
como forma de interação.
O foco em jogos e na experiência para o jogador nos leva a
analisar as interfaces de jogos quanto à experiência de usuário
e não quanto à usabilidade do sistema como tempo de
execução de tarefa ou taxa de erros. Destas análises
pretendemos definir quais técnicas de interações são
adequadas à experiência do usuário.
O objetivo deste trabalho é, portanto, definir soluções de
interfaces humano-computador envolvendo a colaboração
entre dispositivos móveis utilizando RA em jogos e avaliar seu
impacto na experiência do usuário.
Abstract— Realidade aumentada (RA) e experiência de
usuário são dois campos em constante estudo. Com a
popularização de RA em aparelhos móveis, há uma preocupação
em projetar a aplicação pensando também na experiência do
usuário. Apesar de não haver uma padronização deste campo no
momento há discussões que auxiliam projetar e avaliar as
soluções encontradas. Este trabalho pretende, ao término,
analisar técnicas de interação de jogos de RA em dispositivos
móveis, sob o olhar da experiência de usuário e não usabilidade, e
propor uma solução adequada.
Keywords—interação; experiência de usuário; dispositivos
móveis
I.
INTRODUÇÃO
Realidade aumentada (RA) é um campo de estudo há ao
menos duas décadas [6]. Durante este tempo gerou-se uma
grande quantidade de soluções e conhecimento, porém os
estudos ficaram restritos a laboratórios. Atualmente observa-se
a popularização de aparelhos móveis como celulares e tablets.
Estes aparelhos, com sua interface baseada em toque,
necessitam de novas técnicas de interação diferentes do que
foi desenvolvido nos computadores com mouse e teclado.
Realidade aumentada se apresenta como um guia para novas
técnicas de interação que utilizem aparelhos móveis com
diversas
aplicações
desenvolvidas
para
diferentes
funcionalidades, como tradução de placas informativas,
informação sobre os estabelecimentos ao redor, entre outros
[5]. Jogos eletrônicos, particularmente, se beneficiam muito da
aplicação de RA seja pela capacidade colaborativa que esta
permite [15] ou mesmo pela capacidade de tornar a interface
mais natural ao usuário mesclando elementos virtuais ao
mundo real, ponto importante ao se elaborar uma aplicação
[23].
Realidade aumentada, porém, não pode ser considerada
apenas uma forma de interação. Para jogos esta tecnologia
permite não só uma forma de interação com o jogador, mas
também uma nova forma de explorar o mundo real, na
experiência de jogar. Por exemplo, a capacidade colaborativa
que RA permite com duas pessoas interagindo em um mesmo
campo de jogo ou mesmo um jogo de tabuleiro virtual onde as
II.
REVISÃO DA LITERATURA
Experiência de usuário é uma área que está em constante
estudo. Sua importância aumentou nos últimos anos conforme
a indústria de desenvolvimento de software necessitou ter uma
preocupação maior no usuário do sistema. Porém estudos
mostraram que mesmo aqueles que trabalham com experiência
de usuário possuem opiniões diferentes sobre sua definição [3,
6]. Há, portanto, uma preocupação em encontrar um padrão ou
definição para experiência de usuário de modo a facilitar a
comunicação e troca de informação. Enquanto alguns tentam
definir experiência de usuário [3], outros tentam restringir e
definir o padrão para aplicações específicas [6], como
realidade aumentada. Há também a preocupação em estudar
soluções para avaliar a experiência de usuário [2, 5] nas
aplicações, pois a experiência causada é considerada, pelo
usuário, um dos motivos para o uso contínuo de um
determinado programa [2], seja meses ou até mesmo anos
após o lançamento do produto.
Uma abordagem diferente em estudo está em se utilizar dos
conhecimentos sobre o comportamento de usuários em
situações similares às aplicações selecionadas e incorporá-los
em solução de interfaces [21] ou planejar e testar soluções de
interface para abordagens específicas, de manipulação de
3
Costa e Nakamura
[7]
objetos tridimensionais a jogos digitais [8, 9, 11, 12, 17, 19,
20, 22]. Há um foco maior no uso da tecnologia de toque
tentando encontrar técnicas de interação sobre elementos
virtuais de forma direta, buscando melhorar e tornar mais
natural o uso das aplicações pelo usuário [7, 13, 16].
Realidade aumentada está agora se tornando cada vez mais
presente. O aumento da capacidade computacional dos
aparelhos atuais permite o uso desta tecnologia em aplicações,
como jogos. Área que esta em constante desenvolvimento,
com foco no desenvolvimento de soluções tanto internas como
externas utilizando aparelhos móveis, capacetes com displays
e projetores [1]. Em estudos se encontram diversas aplicações
de jogos de mesa em RA, alguns focando no auxílio do jogo,
como por exemplo, no acompanhamento das regras e estados
do tabuleiro [14]. Outros abordam jogos como forma de testar
interfaces e meios de interação em RA, alguns tentando novos
meios de interação [18] e outros apresentando soluções
baseadas em atuais métodos, por exemplo, a seleção de
elementos utilizando o mouse [10]. Alguns se utilizam da
realidade aumentada e sua capacidade colaborativa para
encontrar meios de interação que permitam o uso social da
tecnologia [15]. Na indústria de jogos há um foco crescente do
uso de RA em aparelhos móveis, isso em grande parte devido
à popularidade que estes aparelhos obtiveram nos últimos
anos.
III.
[8]
[9]
[10]
[11]
[12]
[13]
[14]
CONCLUSÕES PARCIAIS
[15]
Este trabalho iniciou tentando definir experiência de
usuário, o que se mostrou ainda estar em discussão [3, 6].
Verificou-se o estado da arte em realidade aumentada [1]. Em
ambos encontraram-se diversos métodos de avaliação tanto de
usabilidade como de experiência de usuário. Para experiência
de usuário definiu-se os seguintes métodos, os quais devem
ser utilizados neste trabalho: entrevista com os usuários,
observação presencial, e storytelling. O próximo passo é
aplicar estes métodos de avaliação para avaliar a experiência
de usuário em diferentes técnicas de interação em um mesmo
jogo de dispositivo móvel.
[1]
[2]
[3]
[4]
[5]
[6]
[16]
[17]
[18]
[19]
Thomas, B. H. A Survey of visual, mixed and augmented reality
gaming. ACM Computers in Entertainment. Vol. 10, No. 3, Article 3,
33p, 2012.
Sari Kujala, Virpi Roto, Kaisa Väänänen-Vainio-Mattila, Arto Sinnelä.
Identifying Hedonic Factors in Long-Term User Experience. DPPI, 8p,
2011.
Effie L-C. Law, Virpi Roto, Marc Hassenzahl, Arnold P.O.S.
Vermeeren, Joke Kort. Understanding, scoping and defining user
experience: A survey approach.CHI, 10p, 2009.
Effie Lai-Chong. Law, Virpi Roto, Kaisa Väänänen-Vainio-Mattila,
Arnold Vermeeren, Marianna Obrist, Kari Kuuti. In search of theoretical
foundations for UX research and practice. CHI, 6p, 2012.
Thomas Olsson, Markus Salo. Narratives of satisfyin and unsatisfying
experiences of current mobile augmented reality applications. CHI. 10p,
2012.
Panagiotis D. Ritsos, Dennis P. Ritsos, Antonis S. Gougoulis. Standars
for augmented reality: a user experience perspective. International AR
Standards Meeting, 9p, 2011.
[20]
[21]
[22]
[23]
4
Ajaj, R., Vernier, F., & Jacquemin, C. (2009). Navigation modes for
combined table/screen 3D scene rendering. Proceedings of the ACM
International Conference on Interactive Tabletops and Surfaces (pp. 141148). New York, NY, USA: ACM.
Apostolellis, P., Laha, B., & Bowman, D. A. (2012). A gaming interface
using body gestures for collaborative navigation. In: M. Billinghurst, J.
J. Jr., & A. Lécuyer (Ed.), 3DUI (pp. 185-186). IEEE.
Benson, E., & Andreae, P. (2011). Sketch interaction in real time
strategy games. Proceedings of the 7th Australasian Conference on
Interactive Entertainment (pp. 3:1--3:4). New Zealand: Interactive
Entertainment.
Cooper, N., Keatley, A., Dahlquist, M., Mann, S., Slay, H., Zucco, J., et
al. (2004). Augmented Reality Chinese Checkers. Proceedings of the
2004 ACM SIGCHI International Conference on Advances in computer
entertainment technology (pp. 117-126). New York, NY, USA: ACM.
Cox, D., Wolford, J., Jensen, C., & Beardsley, D. (2012). An evaluation
of game controllers and tablets as controllers for interactive tv
applications. Proceedings of the 14th ACM international conference on
Multimodal interaction (pp. 181-188). New York, NY, USA: ACM.
Crenshaw, N., Orzech, S., Wong, W. S., & Holloway, A. (2011). On
creating a native real-time-strategy game user interface for multi-touch
devices. Proceedings of the 6th International Conference on Foundations
of Digital Games (pp. 283-285). New York, NY, USA: ACM.
Hancock, M., Hilliges, O., Collins, C., Baur, D., & Carpendale, S.
(2009). Exploring tangible and direct touch interfaces for manipulating
2D and 3D information on a digital table. Proceedings of the ACM
International Conference on Interactive Tabletops and Surfaces (pp. 7784). New York, NY, USA: ACM.
Hinske, S., & Langheinrich, M. (2009). W41K: digitally augmenting
traditional game environments. Proceedings of the 3rd International
Conference on Tangible and Embedded Interaction (pp. 99-106). New
York, NY, USA: ACM.
Huynh, D.-N. T., Raveendran, K., Xu, Y., Spreen, K., & MacIntyre, B.
(2009). Art of defense: a collaborative handheld augmented reality board
game. Proceedings of the 2009 ACM SIGGRAPH Symposium on Video
Games (pp. 135-142). New York, NY, USA: ACM.
Knoedel, S., & Hachet, M. (2011). Multi-touch RST in 2D and 3D
Spaces: Studying the Impact of Directness on User Performance. 3D
User Interfaces (3DUI), 2011 IEEE Symposium , 75-78.
Moerman, C., Marchal, D., & Grisoni, L. (2012). Drag'n Go: Simple and
fast navigation in virtual environment. In: M. Billinghurst, J. J. Jr., & A.
Lécuyer (Ed.), 3DUI (pp. 15-18). IEEE.
Phillips, K., & Piekarski, W. (2005). Possession techniques for
interaction in real-time strategy augmented reality games. In: N. Lee
(Ed.), Advances in Computer Entertainment Technology (p. 2). ACM.
Tollmar, K., Demirdjian, D., & Darrell, T. (2004). Navigating in virtual
environments using a vision-based interface. Proceedings of the third
Nordic conference on Human-computer interaction (pp. 113-120). New
York, NY, USA: ACM.
Torrente, J., Marchiori, E. J., Vallejo-Pinto, J. Á., Ortega-Moral, M.,
Moreno-Ger, P., & Fern\'{a}ndez-Manj\'{o}n, B. (2012). Preliminary
evaluation of three eyes-free interfaces for point-and-click computer
games. Proceedings of the 14th international ACM SIGACCESS
conference on Computers and accessibility (pp. 265-266). New York,
NY, USA: ACM.
TSE, E., GREENBERG, S., SHEN, C., & FORLINES, C. (2007).
Multimodal multiplayer tabletop gaming. Comput. Entertain. , 5 (2).
Winkler, S., Rangaswamy, K., Tedjokusumo, J., & Zhou, Z. (2007).
Intuitive application-specific user interfaces for mobile devices.
Proceedings of the 4th international conference on mobile technology,
applications, and systems and the 1st international symposium on
Computer human interaction in mobile technology (pp. 576-582). New
York, NY, USA: ACM.
Schwesig, C. (2008). What makes an interface feel organic? Commun.
ACM , 51 (6), 67-69.
Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP
Classificador para anotação geográfica de textos
Eduardo Marcel Maçan
Prof. Dr. Edson Satoshi Gomi
Email: [email protected]
Email: [email protected]
Todos os elementos do OpenStreetMap foram inseridos em
um banco de dados com capacidade para responder consultas
geográficas PostGIS [8]. Os contornos detalhados de cada
cidade, disponibilizados pelo IBGE foram então utilizados em
consultas para extrair todos os nomes dos locais contidos no
perı́metro de cada cidade, principalmente ruas.
Resumo—Two different approaches for a geottaging engine
are proposed using a static gazetteer and a bayesian classifier
trained on a set of geolocated Wikipedia texts. The bayesian
classifier is shown to achieve up to 92% of accuracy when
classifying texts that refer to one of 26 brazilian states and the
federal district.
I.
Para atribuir anotações geográficas a um texto por intermédio do gazetteer são eliminadas do texto todas as palavras
que não façam parte do vocabulário definido pelos nomes de
locais presentes no gazetteer. Para cada sequência de palavras
que corresponda a um nome de local catalogado são atribuı́das
ao texto rótulos descrevendo paı́s, região, estado, mesorregião
e cidade correspondentes (algoritmo 1). Vários locais podem
possuir nomes semelhantes, resultando em mais de um rótulo
candidato. Esta ambiguidade deve ser reduzida em um passo
posterior.
I NTRODUÇ ÃO
Este artigo apresenta a evolução do projeto de pesquisa
“Método para anotação geográfica automática de notı́cias”
apresentado no WPG-EC 2012, que propunha a construção
de um gazetteer, ou “diretório toponı́mico”, composto de uma
lista de nomes de locais, ou topônimos, e informações geográficas. O uso do diretório de topônimos permitirá identificar
sequências de palavras em um texto que correspondem aos
nomes de locais, a informação geopolı́tica associada permitirá
o uso de heurı́sticas, como as catalogadas por Leidner [1] que
atribuirão a cada notı́cia uma posição aproximada ou área no
mapa à qual faz referência.
Algoritmo 1 Seleção de rótulos geográficos candidatos
1: words ← tokenize(text)
2: for i=0 to length(words) do
3:
if words[i] not in vocabulary then
4:
words[i] ← N U LL
5:
end if
6: end for
Esta estratégia apresenta margens de acerto da ordem de
92% quando procuramos determinar a que paı́s a notı́cia se
refere, mas apenas 30% de acerto quando há a necessidade
de se determinar a que cidade um texto está se referindo,
conforme observado por Amitay et Al [2]. A precisão depende
diretamente da quantidade de nomes de locais catalogados no
gazetteer, conforme observado pelo mesmo autor.
7:
8:
O uso de classificador Bayesiano ou de um SVM (Support
Vector Machine) como proposto por Lieberman e Samet [3],
ou o uso de fontes mais estruturadas de informação como a
Wikipedia como insumo para a construção de um classificador
de posições geográficas, a exemplo de Alencar et al. [4]
representam estratégias mais adequadas para um conjunto
dinâmico e não estruturao de documentos, como a World Wide
Web.
9:
10:
11:
12:
13:
14:
15:
O objetivo deste trabalho é propor um classificador para
posições geográficas associadas a notı́cias publicadas na web,
permitindo a navegação das notı́cias através de um mapa ou
por proximidade, no caso do uso de dispositivos móveis. Na
atual etapa da pesquisa investigou-se o uso de um gazetteer
estático para a identificação de nomes de locais dentro do
texto e um classificador bayesiano treinado com exemplos
georreferenciados da Wikipedia.
II.
for all groups of contiguous non-NULL tokens in words
do
for all subgroups of contiguous tokens G do
if there is a tag t in the gazetter associated with G
then
push t into tags
end if
end for
end for
return tags
Os rótulos atribuı́dos são muitas vezes ambı́guos ou conflitantes, pois é frequente que haja locais com o mesmo nome
pertencendo a cidades, estados, ou mesmo paı́ses diferentes. Várias heurı́sticas foram propostas para este passo de
desambiguação [1]. A estratégia escolhida para este estudo foi
a de agrupar as ocorrências segundo sua hierarquia geográfica.
A premissa é que existe uma localidade principal no texto e
os vários parágrafos fazem referências a ela. Outra premissa é
que outros locais mencionados no texto tenderão a ter relação
próxima com a localidade principal.
G AZETTEER EST ÁTICO
A construção do Gazetteer utilizou dados cartográficos
disponibilizados pelo IBGE, através de seu repositório de
malhas digitais [6] e pelo projeto OpenStreetMap [7], que
oferece o código fonte completo de seu mapa, em formato
XML.
A seleção do rótulo mais adequado é então realizada pelo
algoritmo 2, que atribui pesos segundo a frequência com que
a hierarquia geográfica de cada rótulo é identificada no texto.
Isto reduz a ambiguidade ocasionada por locais homônimos,
porém geograficamente distantes da localidade principal.
5
Maçan e Gomi
Algoritmo 2 Desambiguação de rótulos geográficos, todos os
valores são inicializados com 0
1: for all candidate TAG do
2:
Pais[TAG]++
3:
Regiao[TAG]++
4:
Estado[TAG]++
5:
Mesorregiao[TAG]++
6:
Cidade[TAG]++
7: end for
8: for all candidate TAG do
9:
P eso[T AG] ← Cidade[T AG] ∗ M esorregiao[T AG] ∗
Estado[T AG] ∗ Regiao[T AG] ∗ P ais[T AG]
10: end for
11: return TAG with greatest Peso[TAG]
métodos estáticos de extração e desambiguação de topônimos.
Dados exemplos de treinamento suficientes, diferentes classificadores treinados em divisões de áreas sucessivamente
menores podem ser utilizados para reduzir sensivelmente as
dimensões da área a ser considerada na tarefa de atribuir
uma coordenada ao texto, reduzindo a ambiguidade inerente
ao método. Uma seção menor e mais especı́fica do gazeteer
poderá ser utilizada para a estimativa fina da coordenada à
qual se refere a notı́cia, a partir das coordenadas dos locais
mencionados no texto.
IV.
A técnica de classificação de textos bayesiana pode ser
utilizada com grande eficácia para classificar textos com
menções frequentes a locais, com vantagens sobre o modelo do
gazetteer estático, no que tange à resolução de ambiguidade,
quando consideramos grandes áreas. O uso conjunto dos dois
modelos pode levar à uma anotação geográfica mais precisa,
especialmente quando consideramos um contexto geográfico
globalmente abrangente, como notı́cias e textos coletados a
partr da internet.
Os algoritmos 1 e 2 para anotação geográfica apresentam
desempenho condizente com os parâmetros de eficácia observados por Amitay [9]
III.
C ONCLUS ÕES
C LASSIFICADOR BAYESIANO
A Wikipedia em português foi utilizada como fonte de
treinamento para um filtro bayesiano. Foram selecionados todos os artigos que possuiam coordenadas geográficas contidas
nos perı́metros dos 26 estados e do distrito federal, resultando
numa base de treinamento de 7863 verbetes georreferenciados.
Alencar et al. [4] também propuseram o uso da Wikipedia
como fonte de evidências para a classificação geográfica,
porém através da análise de vı́nculos entre verbetes.
R EFER ÊNCIAS
[1]
[2]
O arcabouço de aprendizado de máquina Scikit-Learn [10]
foi utilizado para avaliar a capacidade de um classificador
bayesiano de atribuir uma anotação geográfica a um documento corretamente. O gráfico da figura 1 foi obtido através de
sucessivos experimentos usando diferentes tamanhos de lotes
de documentos exemplo e validação cruzada.
[3]
[4]
[5]
[6]
[7]
[8]
[9]
[10]
Figura 1. Classificação de documentos por estado da federação, usando Naive
Bayes
A partir de 4000 verbetes de exemplos para treinamento foi
observada a diminuição da variância e a convergência para uma
taxa média de acerto superior a 90%, indicando que técnicas
bayesianas podem complementar, ou mesmo substituir os
6
J. L. Leidner, “Toponym resolution in text: Annotation, evaluation
and applications of spatial grounding of place names,” Ph.D.
dissertation, School of Informatics, University of Edinburgh, 2007.
[Online]. Available: http://www.era.lib.ed.ac.uk/bitstream/1842/1849/1/
leidner-2007-phd.pdf
E. Amitay, N. Har’El, R. Sivan, and A. Soffer, “Web-a-where,” in
Proceedings of the 27th annual international conference on Research
and development in information retrieval - SIGIR ’04. New York,
New York, USA: ACM Press, Jul. 2004, p. 273. [Online]. Available:
http://dl.acm.org/citation.cfm?id=1008992.1009040
M. D. Lieberman and H. Samet, “Adaptive Context Features for
Toponym Resolution in Streaming News, Categories and Subject Descriptors,” no. August, pp. 731–740, 2012.
R. Odon de Alencar, C. A. Davis, Jr., and M. A. Gonçalves,
“Geographical classification of documents using evidence from
wikipedia,” in Proceedings of the 6th Workshop on Geographic
Information Retrieval, ser. GIR ’10. New York, NY, USA: ACM,
2010, pp. 12:1–12:8. [Online]. Available: http://doi.acm.org/10.1145/
1722080.1722096
M. Sahami, S. Dumais, D. Heckerman, and E. Horvitz, “A bayesian
approach to filtering junk e-mail,” 1998.
I. B. de Geografia e Estatı́stica, “Malhas digitais Brasileiras,” ftp://
geoftp.ibge.gov.br/malhas digitais/municipio 2010/, 2013, [Online; accessed 19-July-2012].
M. M. Haklay and P. Weber, “Openstreetmap: User-generated street
maps,” IEEE Pervasive Computing, vol. 7, no. 4, pp. 12–18, Oct.
2008. [Online]. Available: http://dx.doi.org/10.1109/MPRV.2008.80
P. P. S. Committee, “PostGIS,” http://postgis.net, 2013, [Online; accessed 19-July-2012].
E. Amitay, R. Nelken, W. Niblack, R. Sivan, and A. Soffer,
“Multi-resolution disambiguation of term occurrences,” in Proceedings
of the twelfth international conference on Information and knowledge
management - CIKM ’03. New York, New York, USA: ACM Press,
Nov. 2003, p. 255. [Online]. Available: http://dl.acm.org/citation.cfm?
id=956863.956913
F. Pedregosa, G. Varoquaux, A. Gramfort, V. Michel, B. Thirion, O. Grisel, M. Blondel, P. Prettenhofer, R. Weiss, V. Dubourg, J. Vanderplas,
A. Passos, D. Cournapeau, M. Brucher, M. Perrot, and E. Duchesnay,
“Scikit-learn: Machine learning in Python,” Journal of Machine Learning Research, vol. 12, pp. 2825–2830, 2011.
Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP
Técnicas para a Classificação Automática de
Abelhas a partir de Imagens de Asas
Felipe Leno da Silva
e Anna Helena Reali Costa
Laboratório de Técnicas Inteligentes (LTI/EPUSP)
Escola Politécnica, Universidade de São Paulo
São Paulo, SP, Brasil
Resumo—Devido à importância das abelhas para a agricultura, diversas pesquisas são voltadas para seu estudo e
conservação. Porém, a discriminação entre as espécies de abelhas
é um impedimento às pesquisas, por demandar conhecimento
especializado e tempo. Apesar de diversos estudos terem sido
conduzidos na área, não houve nenhum trabalho avaliando
as técnicas de classificação para este domı́nio. Esta pesquisa
visa determinar as técnicas de extração de caracterı́sticas e
classificação que apresentam, em conjunto, o melhor desempenho
para a discriminação de espécies de abelhas. Os resultados desta
pesquisa serão úteis para o desenvolvimento de novos sistemas
de classificação de abelhas, auxiliando nas pesquisas conduzidas
por biólogos.
I.
Figura 1. Imagem da asa de uma abelha da espécie Euglossa orellana com
os pontos anatômicos marcados.
C ONTEXTO
estas previamente cadastradas em um estágio de
treinamento do sistema.
As abelhas têm grande importância para a agricultura, por
esta razão seu estudo e conservação é o tema de diversas
pesquisas na área biológica. Entretanto, a identificação das
espécies de abelhas é uma tarefa que demanda conhecimento
especializado, representando um impedimento no avanço das
pesquisas. Esta identificação pode ser realizada através de
diversos métodos com boa precisão, como a análise de isoenzimas ou de DNA. Porém, métodos bioquı́micos e moleculares
têm um custo elevado [1].
III.
Ao término desta pesquisa, os seguintes resultados são
esperados:
A morfometria se destacou como um dos métodos mais
utilizados para a identificação de espécies de abelhas, porém a
medição manual de diversas caracterı́sticas fı́sicas necessita de
tempo e especialistas [1]. Métodos automatizados começaram
a ser estudados, e a venação presente nas asas das abelhas
começou a ser utilizada, por ser de fácil acesso e suficiente
para diferenciar cada espécie. Para realizar a classificação, os
pontos de junção das asas (denominados pontos anatômicos)
são demarcados conforme a Figura 1 e, a partir destes pontos,
caracterı́sticas são extraı́das para a identificação da espécie.
Apesar de diversos sistemas terem sido desenvolvidos nos
últimos anos para este fim, ainda é uma questão em aberto
para pesquisa [2], [3].
II.
R ESULTADOS DESEJADOS
O BJETIVOS
•
Determinar as técnicas de processamento de imagens
da literatura que apresentam melhor desempenho para
a classificação de espécies de abelhas.
•
Determinar os classificadores que apresentam melhor
desempenho utilizando as caracterı́sticas extraı́das pelas técnicas de extração levantadas.
•
Construir protótipos para o processamento de imagens
e a classificação.
•
Através de experimentos, utilizando imagens reais
de asas de abelhas, determinar quais técnicas, em
conjunto, apresentam um melhor desempenho para a
classificação de espécies. As técnicas serão comparadas levando em conta a porcentagem de classificações
realizadas corretamente.
Os objetivos desta pesquisa são:
1)
2)
IV.
Comparar as técnicas de processamento de imagem
para a extração de caracterı́sticas em imagens de asas
de abelhas.
Analisar o desempenho de classificadores para a
identificação de diversas espécies de abelhas, sendo
R ESULTADOS PARCIAIS
Com o objetivo de determinar qual é a melhor técnica de
classificação, sete classificadores dentre os mais utilizados na
literatura foram selecionados para serem avaliados no domı́nio
de classificação de espécies de abelhas.
7
Silva e Costa
A. Extração de caracterı́sticas
A Tabela I apresenta o desempenho observado para cada
um dos classificadores. O classificador SVM apresentou um
desempenho superior a todos os outros classificadores, mesmo
considerando a margem de erro definida pelo erro padrão.
O bom resultado do classificador LDA indica que é possı́vel
obter uma separação linear razoável utilizando caracterı́sticas
da morfometria geométrica, apesar de o desempenho superior
do SVM indicar que alguns casos necessitam de uma separação
não linear.
Estudos recentes indicam que a morfometria geométrica
é a técnica de extração de caracterı́sticas que obtém melhor
desempenho para a identificação de abelhas [4], consistindo
em analisar os pontos anatômicos extraı́dos da asa, aplicando
transformações geométricas para que as configurações de pontos difiram apenas em forma [5]. Para a avaliação dos classificadores, o tamanho do centróide e as coordenadas alinhadas
dos pontos anatômicos foram utilizados para a classificação.
Tabela I.
O tamanho do centróide é definido pela raiz quadrada da
soma das distâncias quadradas entre cada ponto e seu centróide
(i.e., seu centro geométrico) [5], sendo expresso pela equação:
s X
CS =
(1)
(x − x)2 + (y − y)2 ,
(x,y)∈L
onde L é o conjunto de pontos da forma geométrica e (x, y),
as coordenadas do centróide. As coordenadas do centróide
podem ser calculadas obtendo as médias aritméticas de todas
as coordenadas x e y dos pontos anatômicos.
V.
No contexto de Aprendizagem de Máquina Supervisionada,
a classificação consiste em atribuir um rótulo a um vetor de
caracterı́sticas de classe desconhecida, baseando-se em um
conjunto de treinamento previamente fornecido e rotulado por
um especialista. Segue os classificadores selecionados para a
avaliação.
5)
6)
7)
σ
1,4066
1,8812
1,9927
0,9026
2,2161
3,5417
5,2811
T RABALHOS FUTUROS
A técnica de morfometria geométrica utilizada no primeiro
trabalho e apontada pela literatura como melhor método de
extração de caracterı́sticas apresentou boas taxas de acerto,
porém, necessita de uma intervenção manual de um especialista, demarcando os pontos anatômicos das asas. Uma nova
técnica de extração de caracterı́sticas será proposta com o
objetivo de realizar a classificação de modo automático ou
reduzir o trabalho manual.
B. Classificadores
2)
3)
4)
Média
82, 7340 ± 0, 3145%
79, 3429 ± 0, 4207%
79, 0128 ± 0, 4456%
78, 6859 ± 0, 2018%
73, 1763 ± 0, 4955%
54, 9038 ± 0, 7919%
49, 1058 ± 1, 1809%
Após definir o SVM como o melhor classificador para a
classificação de espécies de abelhas, os próximos trabalhos
estarão focados na investigação de técnicas para a extração
de caracterı́sticas das imagens das asas. Permitindo que o
desempenho dos novos métodos seja comparado diretamente
com o descrito neste artigo utilizando o SVM.
Para as coordenadas alinhadas, todos os pontos anatômicos
sofreram transformações geométricas de translação, escala e
rotação para que ficassem apenas variantes á forma, permitindo
a comparação entre si sem variações provenientes de uma
captura de imagem em rotação diferente, por exemplo.
1)
M ÉDIAS DE TAXAS DE ACERTO POR CLASSIFICADOR .
Classificador
SVM
LDA
KNN
Naı̈ve Bayes
Logı́stico
C4.5
MLP
Além disso, um maior conjunto de treinamento será levantado, uma vez que um conjunto de 128 exemplares pode
não corresponder à realidade de um software que abrange a
identificação de diversas espécies.
Análise Discriminante Linear (Linear Discriminant
Analysis - LDA)
Naı̈ve Bayes
Logı́stico
K Vizinhos Mais Próximos (K Nearest Neighbour KNN)
C4.5
Perceptron Multicamada (MultiLayer Perceptron MLP)
Máquina de Vetores Suporte (Support Vector Machine
- SVM)
AGRADECIMENTOS
Agradecemos
a:
CNPq
(proc.
131238/2013-2,
311058/2011-6), FAPESP (proc. 2011/19280-8) e NAP
BioComp da USP por prover fundos para esta pesquisa.
R EFER ÊNCIAS
[1]
C. Experimento
Um conjunto de treinamento com 128 imagens de asas de
5 espécies diferentes de abelhas foi utilizado para a avaliação
dos classificadores. Um especialista rotulou e marcou 18
pontos anatômicos em cada uma das asas. A partir destes
pontos, o tamanho do centróide e as 36 coordenadas alinhadas
(coordenadas x e y de 18 pontos) foram extraı́dos e utilizados para o treinamento e teste dos classificadores. Cada
um dos classificadores foi treinado e testado 20 vezes com
uma validação cruzada de 10 vias. A taxa de acerto média
obtida nas validações cruzadas foi considerada como métrica
para a avaliação do melhor classificador, sendo o erro padrão
calculado para definir a margem de erro.
[2]
[3]
[4]
[5]
8
T. M. Francoy, D. Wittmann, M. Drauschke, S. Muller, V. Steinhage,
M. A. F. Bezerra-Laure, D. De Jong, and L. S. Goncalves, “Identification
of africanized honey bees through wing morphometrics: two fast and
efficient procedures,” Apidologie, vol. 39, no. 5, pp. 488–494, 2008.
V. Steinhage, S. Schroder, V. Roth, A. B. Cremers, W. Drescher, and
D. Wittmann, “The science of “fingerprinting” bees,” German Research,
vol. 28, no. 1, pp. 19–21, 2006.
A. Tofilski, “Drawwing, a program for numerical description of insect
wings,” Journal of Insect Science, vol. 4, no. 17, pp. 1–5, 2004.
A. O. Koca and I. Kandemir, “Comparison of two morphometric methods
for discriminating honey bee (apis mellifera l.) populations in turkey,”
Turkish Journal of Zoology, vol. 37, pp. 205–210, 2013.
F. L. Bookstein, Morphometric tools for landmark data: geometry and
biology. Cambridge, USA: Cambridge University Press, 1991.
Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP
1
Investigação de métodos para ordenação de
resultados de motores de busca em acervos digitais
Fernando Hattori, Edson S Gomi
retornados não são de seu interesse ou não estão ordenados
na ordem de relevância efetiva, obrigando o usuário a avaliar
vários itens para encontrar aqueles que são de seu interesse.
Uma forma de minimizar este problema é encontrar algoritmos
que melhorem a ordenação dos resultados da busca.
Por exemplo, a Biblioteca Digital Brasiliana USP utiliza o
Apache Solr, que na verdade é somente uma interface web
para o motor de buscas Apache Lucene [2]. Uma busca pelo
termo “Machado de Assis” realizada sobre todo o conteúdo
dos documentos retorna 296 resultados, mas entre os 27
livros escritos por este autor e que fazem parte do acervo da
biblioteca apenas dois aparecem entre os dez primeiros itens
apresentados. Dada a importância de Machado de Assis como
um escritor brasileiro, o esperado é que suas obras figurem
entre os primeiros resultados ordenados pelo motor de busca
em ordem decrescente de relevância.
Este problema motivou o objetivo deste projeto de pesquisa,
que é investigar critérios e métodos de ordenação de itens
selecionados por um motor de busca como resposta a uma
consulta, de forma que sejam apresentados inicialmente os
itens realmente interessantes para o leitor.
A seção II apresenta o funcionamento básico de um motor de
busca. Já na próxima seção, é discutido brevemente os detalhes
específicos do motor de busca Apache Lucene.
Abstract—The search engine is a useful tool in the digital
libraries, due to the growing information available. However, the
users’ needs are not fully satisfied by the search engine response.
Therefore, these users must check every item ranked before the
item of your interest. This paper focusses on the ranking methods
and rules used in digital libraries search engines. The objective
is to adjust a ranking mechanism in order to improve the search
response usefulness to the user. The Apache Lucene search engine
uses and tf-idf as a weighting factor in the Vector Space Model.
Since the tf-idf do not take into consideration the users’ needs,
this is a search engine flaw.
Keywords—Search, Ranking, Search engine, Indexing, Information Retrieval, Digital Library.
Resumo—Diante do grande e crescente volume de informações
disponíveis nos acervos digitais, o motor de busca é considerado
um importante mecanismo. Mas muitos dos itens retornados pelo
motor de busca como resposta a uma consulta feita pelo usuário
não são de seu interesse ou não estão ordenados na ordem de
relevância efetiva, obrigando o usuário a avaliar vários itens
para encontrar aqueles que são de seu interesse. Este trabalho
se propõe a investigar critérios e métodos de ordenação de
itens selecionados por um motor de busca como resposta a uma
consulta, de forma que sejam apresentados inicialmente os itens
realmente interessantes para o leitor. A análise do funcionamento
do Apache Lucene identificou que a origem do problema de
ordenação esta na formação dos “pesos” (que usam o fator tfifd) utilizados pelo modelo de espaço vetorial na recuperação dos
documentos pelo Apache Lucene.
II. M OTOR DE BUSCA
De uma maneira simplificada, o funcionamento de um motor
de busca acontece em 2 etapas, indexação e a busca [3]. A
primeira etapa é realizada antes do atendimento às consultas e
a segunda é feita sob demanda para cada consulta feita pelos
usuários.
Keywords—Busca, Ordenação, Motor de Busca, Indexação, Recuperação de informação, Acervos Digitais.
I.
I NTRODUÇÃO
As tecnologias da informação e o advento da World Wide
Web tornaram possível a criação e a disponbilização de grandes
repositórios e acervos digitais. De acordo com Wan Liu [1],
tanto a quantidade de acervos digitais quanto o volume de
informações dentro desses acervos estão aumentando, impulsionados pelo avanço das tecnologias, tanto de armazenamento
quanto de gerenciamento ou disponibilização, e pelo reconhecimento da necessidade de preservação e disponibilização dos
acervos.
Diante do grande volume de informações disponíveis e
da necessidade de acessar documentos ou itens rapidamente,
o motor de busca é considerado um importante mecanismo
para os acervos digitais. Entretanto, mesmo com a utilização
dos motores de busca, o usuário recebe muitos documentos
como resultado de uma consulta ao acervo. Muitos dos itens
A. Indexação
A etapa de indexação é o pré-processamento realizado sobre
os itens que serão buscados. O resultado desta etapa é uma
estrutura de dados chamada índice que permite o acesso
rápido aos termos do índice armazenados e aos documentos
que possuem cada termo. O índice mais comum é o índice
invertido, esta estrutura de dados é composta por uma lista dos
termos do índice e, para cada termo, uma lista dos documentos
que possuem este termo [3]. A etapa de indexação inclui
4 diferentes atividades: aquisição do conteúdo, construção
dos documentos, análise dos documentos, e indexação do
documento [4].
A atividade de aquisição de conteúdo corresponde a obter
páginas web, dados em um banco de dados, ou arquivos
em um sistema de arquivos onde estão os documentos que
serão indexados. Então, a partir desses arquivos adquiridos
Fernando Hattori e Edson S. Gomi estão na Escola Politécnica - Universidade de São Paulo. E-mail: {hattori, gomi}@usp.br
9
Hattori e Gomi
2
os documentos são construídos, ou seja, todos os arquivos
e as informações sobre um único item são agrupadas como
um único documento (por exemplo, um livro que faça parte
do acervo tem o seu conteúdo agrupado aos seus metadados,
formando um único documento).
Posteriormente, a análise dos documentos identifica todos
os termos do documento e determina quais termos serão
utilizados como termos do índice. Se necessário, os sinônimos
também são incluídos. Além disso, a análise desses termos
pode também concluir que um termo do índice deve ser composto de mais de uma palavra, como “Machado de Assis” ou
“Universidade de São Paulo”. Finalmente, na última atividade
de indexação, o documento ou os termos do índice presentes
neste documento são inseridos no índice.
B. Busca
A etapa de busca ocorre (com o índice já criado) após
o usuário apresentar a consulta no sistema. A busca possui,
basicamente, 3 atividades: o processamento da consulta, a
recuperação e a ordenação dos documentos [3].
Uma consulta feita pelo usuário geralmente é uma lista
de termos que o usuário acredita caracterizar os documentos
desejados. Quando uma consulta é recebida, ela é processada
e expandida, ou seja, os termos da consulta são reconhecidos,
corrigidos, comparados com os termos existentes do índice, e
traduzidos em uma representação do sistema. Alguns motores
de busca também expandirão a consulta, adicionando os sinônimos dos termos. Durante o processamento da consulta, o
motor de busca pode também executar algumas funções mais
complexas, como a análise semântica da consulta ([5], [6]).
Após o processamento da consulta, na atividade de recuperação, a consulta expandida é comparada com o índice,
produzindo uma lista de documentos que se tornarão a resposta
a uma consulta feita. Posteriormente, na atividade de ordenação, os documentos retornados como resultado da busca são
ordenados em ordem decrescente de relevância e devolvidos
ao usuário.
Como a qualidade de um motor de busca é percebida
principalmente pela qualidade da ordenação dos resultados
ou pela relevância dos resultados, a função de ordenação
desempenha um importante papel no motor de busca. Além
disso, a ordenação é responsável pelo problema ilustrado
anteriormente, por isso será alvo de estudos neste trabalho.
III. A PACHE L UCENE
O Apache Lucene é o motor de busca utilizado pelo gerenciador de acervos digitais DSpace e seu algoritmo de ordenação
é uma combinação de dois modelos clássicos de recuperação
da informação ([3], [7]): o modelo booleano e o modelo de
espaço vetorial (VSM, Vector Space Model).
O modelo de espaço vetorial determina a relevância de um
item para determinada consulta mapeando o documento e a
consulta como vetores de tamanho t, sendo t a quantidade de
termos do índice. Cada elemento vi deste vetor possui como
valor o “peso” relacionado ao item que este vetor representa e o
termo i. No Apache Lucene, este “peso” depende basicamente
do fator tf-idf e mais outros dois fatores [8]:
10
tf : Frequência do termo (Term Frequency), que é proporcional à quantidade de ocorrências do termo que existem
no documento;
• idf : Inverso da frequência de documentos (Inverse Document Frequency), que é inversamente proporcional
à quantidade de outros documentos que possuam este
termo;
• coord: Fator de coordenação, que é proporcional à quantidade de termos da consulta que o documento possui;
• fieldNorm: fator de tamanho do campo de metadado, que
é inversamente proporcional ao tamanho do campo de
metadado onde os termos da consulta foram encontrados.
Desse modo, a relevância é calculada por meio da similaridade entre o documento e a consulta. Esta similaridade é
calculada pelo cosseno do ângulo entre o vetor do documento
e o vetor da consulta [7].
O motor de busca Apache Lucene, em resposta à consulta
por “Machado de Assis”, não retorna os livros escritos pelo
autor nas primeiras posições, mas sim documentos escritos
sobre o autor. Isto acontece porque estes documentos sobre
o autor possuem uma frequência mais alta do termo buscado,
aumentando para estes documentos o valor do fator tf-idf e da
relevância.
•
IV. C ONCLUSÃO
Neste artigo foi descrito o funcionamento do motor de
busca Apache Lucene. Esta análise foi feita com o objetivo de
determinar a origem do problema de ordenação, para que seja
possível apontar novas estratégias que resolvam o problema.
Foi identificado que a origem do problema está na formação
dos “pesos” utilizados pelo modelo de espaço vetorial na
recuperação dos documentos pelo Apache Lucene.
A próxima etapa do trabalho será realizar uma investigação
de alternativas para os algoritmos de ordenação.
R EFERÊNCIAS
[1]
[2]
[3]
[4]
[5]
[6]
[7]
[8]
G. G. Wan and Z. Liu, “Content-based information retrieval and digital
libraries,” Information Technology and Libraries, vol. 27, no. 1, pp. 41–
47, 2008.
The
Apache
Software
Foundation,
“Apache
lucene,”
http://lucene.apache.org/, 2012.
R. Baeza-Yates and B. Ribeiro-Neto, Modern Information Retrieval,
2nd ed. USA: Addison-Wesley Publishing Company, 2008.
E. Hatcher and O. Gospodnetic, Lucene in Action (In Action series).
Greenwich, CT, USA: Manning Publications Co., 2004.
M. Mittendorfer and W. Winiwarter, “Exploiting syntactic analysis of
queries for information retrieval,” Data & Knowledge Engineering,
vol. 42, no. 3, pp. 315 – 325, 2002. [Online]. Available:
http://www.sciencedirect.com/science/article/pii/S0169023X02000496
L. Sbattella and R. Tedesco, “A novel semantic information retrieval
system based on a three-level domain model,” JOURNAL OF SYSTEMS
AND SOFTWARE, vol. 86, no. 5, pp. 1426–1452, MAY 2013.
C. D. Manning, P. Raghavan, and H. Schütze, Introduction to Information
Retrieval. New York, NY, USA: Cambridge University Press, 2008.
D. Smiley and E. Pugh, Apache Solr 3 Enterprise Search Server. Packt
Publishing, 2011.
Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP
Ad Networks: Models and Solutions
Flávio Sales Truzzi, Anna Helena Reali Costa
Laboratório de Técnicas Inteligentes (LTI)
Escola Politécnica - Universidade de São Paulo (USP)
Av. Prof. Luciano Gualverto tv. 3, 158 - Caixa Postal 05508-900 - São Paulo - SP - Brazil
Email: {flavio.truzzi,anna.reali}@usp.br
Abstract—Ad Networks are companies that promote the
advertising on the web. Advertisers make contracts for displaying
ads to users. The Ad Network needs to choose which ad will be
displayed for each user, who may click or not on the displayed
ads. Clicks generate revenue for the Ad Network. We studied this
problem as a Markov Decision Process, its linear programming
relaxation and the use of Reinforcement Learning as a solution
to this problem.
I.
I NTRODUCTION
Online marketing revenue has grown quickly since mid
nineties, with a CAGR of 20.2%, achieving 17 billion dollars
(USD) in the first semester of 2012. The display of ads on
banners on websites account for up 21% of this market [1].
The Ad Network must decide which campaign to display
to each user under several constraints such as budget, time and
user profiles. This problem is a sequential decision process and
it can be modeled as a Markov Decision Process (MDP) [2].
The solution of this MDP yields the policy for the Ad Network
with the best possible decision. However this approach is
computationally intractable even for small problems, as the
state space grows exponentially [3]. One way to avoid the curse
of dimensionality in Ad Network optimization is to convert this
decision process into a simpler, relaxed problem. Some well
known formulations of this relaxed problem resort to linear
programming (LP) [4], [5]. We derived theoretical results on
the loss of performance imposed by these relaxations, and we
have shown that as the click budget of the campaigns grows,
the loss of performance tends to zero [3].
However, these approaches rely on good estimations of the
click probabilities, which are not often available and are hard
to compute given the dynamical environment that the internet
is. To overcome this problem we transformed this decision
problem in a reinforcement learning problem, in which we
learn the click probabilities at the same time we are acting.
We modeled this problem as a multi-armed bandit problem
and crafted a new algorithm called Ad Bandit.
II.
P ROBLEM F ORMULATION
We consider that the Ad Network has a fixed pool of ads
A, known in advance, and each element a ∈ A is defined by
its underlying click probability, unknown to the Ad Network.
For each user request to a site in the Ad Network’s
inventory the Ad Network chooses which ad to display to
the user, who may click or not. We model this problem as
a finite-horizon stochastic multi-armed bandit, where each
arm corresponds to an advertise a ∈ A. Each advertisement
is associated with an unknown Bernoulli distribution B(µa ),
11
where µa is the click probability of the advertisement a. The
aim of the Ad Network is to maximize the total expected
reward until time τ , or equivalently, to minimize the expected
cumulative regret, defined to be:
∗
R(τ ) = τ µ − E
"
τ
X
t=1
#
rt =
X
a∈A
(µ∗ − µa )E[Na,τ ],
(1)
where µ∗ = maxa µa denotes the expectation of the best
action, rt is the reward at time t, and Na,τ is a random variable
meaning the number of draws of arm a accumulated until
t = τ.
III.
A D BANDIT A LGORITHM
The Ad Bandit algorithm is inspired by in a previous
algorithm called Thompson Sampling [6] combined with a
frequentist exploration policy.
The basic idea is to model each one of the arms as a Beta
distribution, which is parametrized by two parameters α and β.
The α parameter can be understood as the number of times that
particular arm yielded a reward, and the β counts the number
of times that the arm did not yield a reward.
The algorithm has two different stages: the exploration
stage and the exploitation stage, which occur in different times.
At the end of each stage the algorithm checks if the pulled arm
yielded a reward or not and update the Beta Distribution in a
bayesian way.
The exploration stage is based on Thompson Sampling.
The algorithm tries to explore the arm with greater probability
of being the best arm. In order to do it, it sample from each
one of the Beta Distributions and use the arm which yielded
the greater sample.
The exploitation stage is based on a frequentist policy. In
this stage the algorithm assumes that the learned distributions
in the exploration stage are good aproximations for the unknown parameters {µa }1≤a≤|A| of the Beta distributions, and
use the mean of the learned distribution as an index to exploit,
as follows:
µ̂a =
αa
αa + βa
(2)
where µ̂ is the expected mean of the beta distribution that
models the arm a.
Truzzi e Costa
With such index, the algorithm exploits its knowledge
pulling the arm with greater expected mean µ̂a :
This modeling was published in the ENIA2012 conference
[2], and it was also reported in the first edition of WPGEC (Workshop de Pós-graduação da Área de Engenharia de
Computação).
(3)
After the initial modeling we studied linear relaxations to
this problem. We conclude that it would be a good option
to overcome the curse of dimensionality that almost all MDP
solution faces, this work resulted in an article [3] that was
accepted and will appear in the BRACIS2013 conference.
â = arg max µ̂a
a
where â is the arm chosen to be pulled.
The exploitation stages occur at random with probability
where t is the instant of time, ǫ is the exploration parameter,
and τ is a finite horizon.
t
ǫτ ,
It is important to note that the number of exploration stages
decrease as the time passes, focusing the exploration effort in
the beginning of the problem when there are no information
about the arms.
IV.
P RELIMINARY R ESULTS
We created an environment with 10 different Bernoulli
arms, their success probabilities are:
[0.02, 0.02, 0.02, 0.10, 0.05, 0.05, 0.05, 0.01, 0.01, 0.01],
these are the same probabilities used in the experiments made
in [6], and the best arm is depicted in bold. The algorithms
started with no knowledge of the arms probabilities, i.e. for the
Ad Bandit we used αa = 1 and βa = 1 for all arms a ∈ A.
In Figure 1 we show expected regret of the algorithms:
AdBandit, Thompson Sampling and UCB-Bayes. Among them
the UCB-Bayes has the worst performance with a mean regret
near 110, followed by Thompson Sampling with a mean regret
near 85, and AdBandit with a mean regret near 65 achieving
the best performance. A full report on the algorithm and its
results were submitted to the ENIAC2013 conference, and now
it is under pair-reviewing.
120
100
Thom pson
AdBandit ε = 0.5
UCB-Bayes
Value
80
60
40
20
0 2
10
3
10
Horizon
10
4
Fig. 1. Mean regret for 15,000 horizon for the best three algorithms over
1,000 simulations.
V.
Our later studies focus on a new approach, transforming the
Ad Network problem in a Reinforcement Learning problem
using a multi-armed bandit modeling. In this context we
proposed a new algorithm called AdBandit. Its full evaluation
is under peer-reviewing for the ENIAC2013 conference, and
we reported here our preliminary results, where it achieved
the best results against classical solutions to the multi-armed
bandit problem such as: UCB, UCB-Bayes and Thompson
Sampling.
The next steps will be the study, proposal and evaluation of
a new algorithm for multi-armed bandit in a dynamic scenario,
where the click probabilities may change over time, and also
applying budget constraints for the use of each campaign.
ACKNOWLEDGMENT
Flávio Sales Truzzi is supported by CAPES. This research
was partly sponsored by grant 11/19280-8 São Paulo Research
Foundation (FAPESP)1 and grant 311058/2011-6 CNPq – Conselho Nacional de Desenvolvimento Cientı́fico e Tecnológico.
R EFERENCES
[1] I. A. Bureau, “IAB Internet Advertising Revenue Report 2012,” no.
October, 2012.
[2] F. S. Truzzi, V. Freire, A. H. R. Costa, and F. G. Cozman, “Markov
Decision Processes for Ad Network Optimization,” in Encontro Nacional
de Inteligencia Artificial (ENIA), 2012.
[3] ——, “Ad Network Optimization: Evaluating Linear Relaxations,” in
2nd Brazilian Conference on Intelligent Systems (BRACIS-13), 2013, (to
appear).
[4] S. Girgin, J. Mary, P. Preux, and O. Nicol, “Managing advertising
campaigns - an approximate planning approach,” Frontiers of Computer
Science, vol. 6, no. 2, pp. 209–229, 2012. [Online]. Available:
http://dx.doi.org/10.1007/s11704-012-2873-5
[5] Y. Chen, P. Berkhin, B. Anderson, and N. R. Devanur, “Real-time bidding
algorithms for performance-based display ad allocation,” Proceedings
of the 17th ACM SIGKDD International Conference on Knowledge
Discovery and Data Mining - KDD ’11, p. 1307, 2011. [Online].
Available: http://dl.acm.org/citation.cfm?doid=2020408.2020604
[6] E. Kaufmann, N. Korda, and R. Munos, “Thompson sampling: An
asymptotically optimal finite-time analysis,” in Algorithmic Learning
Theory, ser. Lecture Notes in Computer Science, N. Bshouty,
G. Stoltz, N. Vayatis, and T. Zeugmann, Eds. Springer Berlin
Heidelberg, 2012, vol. 7568, pp. 199–213. [Online]. Available:
http://dx.doi.org/10.1007/978-3-642-34106-9 18
[7] E. Kaufmann, O. Cappé, and A. Garivier, “On bayesian upper confidence
bounds for bandit problems,” in International Conference on Artificial
Intelligence and Statistics, 2012, pp. 592–600.
D ISCUSSION AND F UTURE W ORK
This master’s project by started studying the online advertising market and its modeling by means of Markov Decision
Process, proposing an optimal solution to the Ad Network
problem.
12
1 The opinions, assumptions, and conclusions or recommendations expressed
herein are those of the authors and do not necessarily reflect the views of
FAPESP.
Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP
Avaliação de Sistemas de Gerenciamento de TI
Baseados em Política de Eficiência Energética
Guilherme C. Januário
Tereza C. M. B. Carvalho
Laboratório de Sustentabilidade em TIC, PCS
Escola Politécnica, Universidade de São Paulo
Laboratório de Sustentabilidade em TIC, PCS
Escola Politécnica, Universidade de São Paulo
Abstract—Energy efficiency features are being integrated in
network protocols and management systems. Simulations can
provide input on how a particular algorithm would perform
in different network conditions. However, building an environment that is able to comprehensively account for interactions
between different network functions is difficult. A combination
of emulation and implementation of major energy efficiency
features provides a view closer to what may happen in a real
deployment. Previously, we described a policy-based network
management system that optimizes network paths with respect
to energy efficiency. In this project, we evaluate the system using
software routers for emulating network equipment functionality.
We discuss extensions we developed and trade-offs of employing a
state-of-the-art Linux distribution to emulate an energy efficient
router. The project then presents results from the evaluation of
the management system and argues about the benefits of the
emulation environment.
I.
R ESUMO
Funcionalidades de eficiência energética vêm sendo integradas a protocolos de rede e a sistemas de gerenciamento.
Simulações podem prover informação sobre como um algoritmo em particular agiria em diferentes condições de rede.
Entretanto, preparar um ambiente que de modo compreensivo trate das interações entre diferentes funções da rede é
difícil. Uma combinação de emulação e implementação das
principais funcionalidades de eficiência energética provê uma
visão mais próxima ao que pode ocorrer em implantações
reais de sistemas energeticamente eficientes. Continuando um
trabalho que descreve um sistema de gerenciamento de TI
que, com vistas a eficiência energética, otimiza os caminhos
da rede, o presente projeto avalia o referido sistema por
meio de software routers para emulação de funcionalidades
futuras e desejadas de equipamentos de redes. Discutem-se
extensões desenvolvidas e compromissos existentes no emprego de distribuições Linux do estado-da-arte para emulação
de roteadores energeticamente eficientes. O trabalho então
apresenta resultados da avaliação do sistema de gerenciamento
e argue sobre benefícios do ambiente de testes.
II.
O BJETIVOS E M OTIVAÇÃO
Funcionalidades de eficiência energética desligam ou alteram, consoante se deseje, a vazão das interfaces de rede
ou o clock de processadores. Novos algoritmos de roteamento
ou protocolos definem quais roteadores devem ter o estado
energético alterado. Como podemos testar soluções? Desenvolveremos um banco de experimentos.
13
III.
R EVISÃO DA L ITERATURA
Alguns métodos que visam a eficiência energética são:
•
O switch coalescing, que se subdivide nos modos
simples e adaptativo [1], junta pacotes antes de enviálos, de modo que o equipamento possa descansar
durante o ajuntamento. Essa é uma técnica de Ethernet energeticamente eficiente e, como tal, utiliza
nos dispositivos os modos ativo e ocioso de baixo
consumo (low power idle). Naturalmente, ela exige
que as interfaces nas duas pontas do enlace ajam com
certa sincronia.
•
Adaptive link rate, ou taxa adaptativa de enlace,
método pelo qual interfaces de rede conectadas definem se adaptarão sua taxa de comunicação ou não
[2]. Em certos aspectos, assemelha-se ao switch coalescing, também agindo na camada Ethernet.
•
O rascunho da Energy and Power Management Information Base especifica um modelo para suporte a
gerenciamento de energia [3]. Esse trabalho visa a ser
um padrão da Internet Engineering Task Force
•
O Energy Management System, proposto em [4], é
um sistema de gerenciamento que requer ciência
sobre a rede toda. Os autores sugerem gerenciar o
ligar/desligar de elementos de rede através do embarque de seviços de TIC nos equipamentos, como Web
Services. A solução desabilita enlaces ociosos e, se
possível, roteadores todos.
•
O GreenTE é um mecanismo centralizado de engenharia de tráfego, sugerido em [5]. Esse mecanismo
visa a calcular rotas usando a topologia de rede e a
matriz de tráfego. O objetivo é maximizar a eficiência
energética ao colocarem-se line cards para dormir e,
ao mesmo tempo, manter-se o desempenho de rede a
níveis apropriados.
•
O trabalho [6] propõe um sistema de gerenciamento
de redes energeticamente eficiente, o qual utiliza uma
management information base com suporte a eficiência energética. Decisões são baseadas na topologia
da rede e em políticas especificadas pelo usuário.
Os autores propõem adicionar-se um novo estado à
MIB definida no RFC 2836, a saber, o sleep mode ou
modo dormente. Tal solução poderá ser implementada
quando todos os equipamentos da rede oferecerem o
novo estado e tiverem habilitação SNMP ou equivalente.
Januário e Carvalho
IV.
M ETODOLOGIA E D ESENVOLVIMENTO
Identificaram-se entre os trabalhos citados acima e outros
os requisitos usuais e cateogrizações das necessidades de cada
proposta. Dos requisitos elencados, obteve-se a arquitetura de
arcabouço representada na figura 1.
A extensão consiste em se adicionar, por meio de ferramentas de gerenciamento de rede, o suporte à avaliação de custos
e benefícios relacionados à coordenação de otimizações de
consumo de energia. Assim, podem-se analisar potenciais compromissos entre economizar energia e dagradar desempenho
em futuros algoritmos e hardware.
Um ambiente de teste para avaliação de funcionalidades
de redes energeticmanete eficientes requer que os roteadores
sejam munidos de diferentes estados de consumo de energia
e informem dados sobre seu consumo. Relatórios granulares
e em tempo real são raros nos dispositivos ora disponíveis.
Para permitir tal mensura em tempo real, modelos de energia
podem servir para parametrização do consumo de energia.
O ambiente de simulação desenvolvido é baseado em
software routers baseados em Linux. O uso de roteadores
baseados em Linux está crescendo [7]. Por isso, o ambiente de
testes descrito é aplicável a uma ampla gama de equipamentos.
Fig. 2. Consumo de energia agregado vs. intervalo entreprovas, com ganhos
de energia no destaque. Experimento (iii).
e pela sinalização para o controle centralizado. Tal sinalização é necessária para efetuarem-se trocas entre caminhos
pré-configurados. Experimentos correlacionando a redução de
energia alcançável às taxas de prova indicam como o custo de
otimização se relaciona à sobrecarga adicionada.
R EFERENCES
Roteador
Túneis /
Engenharia de tráfego
Roteador
Roteador
Management
[1]
Roteador
Engenharia de tráfego
Túneis
Controle de tráfego
Suporte a diferentes modos de consumo
Perfil de consumo/ Info. sobre consumo
[2]
Fig. 1. Ambiente de teste para avaliação de funcionalidades de sistemas de
TIC energeticamente eficientes.
V.
[4]
R ESULTADOS E D ISCUSSÕES
Quatro experimentos compostos por diferentes políticas
foram avaliados e comparados, mostrando como requisitos
conflitantes e objetivos coalescem numa decisão que abarca
nível de QoS e ganhos de energia. Os experimentos consistiram
no teste de um sistema desenvolvido no laboratório [8].
A sobrecarga adicionada pela operação do sistema
relaciona-se aos pacotes adicionais para medição e controle.
A relação entre a taxa de amostragem e a variação do tráfego
determina a acurácia dos dados coletados e a efetividade dos
ganhos de energia (Fig. 2).
VI.
[3]
C ONCLUSÕES
[5]
[6]
[7]
[8]
Roteadores-padrão carecem de várias funcionalidades importantes para emulação realística do comportamento da rede.
A solução integra emulação do estado dormente, suporte a
MPLS e decisões de alocação baseadas em política. Com
o sistema testado, obtiveram-se ganhos de energia de até
27%. Tais ganhos são condicionados a uma taxa de prova
de 1 minuto e são adicionais aos ganhos inerentes a algoritmos que calculam caminhos energeticamente otimizados,
pois, além de utilizar caminhos energeticamente otimizados,
também roteadores foram postos em modo dormente. Mediuse a sobrecarga induzida pelo sistema de gerenciamento,
gerada pelas requisições de nível de tráfego dos roteadores
14
M. Mostowfi and K. Christensen, “Saving energy in lan switches: New
methods of packet coalescing for energy efficient ethernet,” in Green
Computing Conference and Workshops (IGCC), 2011 International,
2011, pp. 1–8.
H. Anand, C. Reardon, R. Subramaniyan, and A. George, “Ethernet
adaptive link rate (alr): Analysis of a mac handshake protocol,” in Local
Computer Networks, Proceedings 2006 31st IEEE Conference on, 2006,
pp. 533–534.
M. Chandramouli, B. Schoening, J. Quittek, T. Dietz, and B. Claise,
“Power and energy monitoring mib,” Network Working Group, IETF,
Tech. Rep., May 2011.
F. Maciá-Pérez, D. Marcos-Jorquera, and V. Gilart-Iglesias, “Energy
management system as an embedded service: Saving energy consumption of ICT,” in Proceedings of the 22nd International Conference on
Architecture of Computing Systems, ser. ARCS ’09. Berlin, Heidelberg:
Springer-Verlag, 2009, pp. 195–206.
M. Zhang, C. Yi, B. Liu, and B. Zhang, “Greente: Power-aware traffic
engineering,” in Proceedings of the The 18th IEEE International Conference on Network Protocols, ser. ICNP ’10. Washington, DC, USA:
IEEE Computer Society, 2010, pp. 21–30.
S. Chaudhari, S. Nottath, M. Subramanian, and H. Murthy, “Green-IT:
An approach to energy savings using energy aware network management
system,” in Communications (NCC), 2012 National Conference on, feb.
2012, pp. 1 –5.
J. Chabarek and P. Barford, “Power-awareness extensions for network
testbeds,” in Communications Workshops (ICC), 2011 IEEE International
Conference on, june 2011, pp. 1 –6.
G. C. Januario, C. H. Costa, M. C. Amarai, A. C. Riekstin, T. C. Carvalho, and C. Meirosu, “Evaluation of a policy-based network management system for energy-efficiency,” in Integrated Network Management
(IM 2013), 2013 IFIP/IEEE International Symposium on, 2013, pp. 596–
602.
Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP
Integração de subsistemas de automação residencial
Engenharia de software orientada a Serviços na automação residencial
Guilherme M Toschi
Carlos Eduardo Cugnasca
Depart. de Engenharia de Computação e Sistemas Digitais
Universidade de São Paulo
São Paulo, Brasil
Depart. de Engenharia de Computação e Sistemas Digitais
Universidade de São Paulo
São Paulo, Brasil
Abstract— This article presents a proposal for a computer system
to perform the automation in a residence following a development
model, based on a distributed architecture, for the construction of a
modularized home automation system based on services to ensure the
continuous development integrated the various subsystems.
A. Proposta de Pesquisa
A comunicação integrada acontece na camada
intermediária ou Middleware que é composto hardware e
software, e é responsável pela comunicação entre os diversos
subsistemas e o sistema de coordenação de forma transparente
e integrada. Na parte inferior estão localizados os subsistemas
de controle dos dispositivos do mesmo. Cada subsistemas pode
utilizar uma tecnologia dedicada para fazer a comunicação
interna entre os dispositivos, mas o controlador do subsistema
utiliza a camada intermediária de comunicação para ser
integrado com os outros subsistemas e com a camada superior
de coordenação.
Resumo— Este artigo apresenta uma proposta de um sistema
computacional para realizar a automação residencial seguindo um
modelo de desenvolvimento, baseado em uma arquitetura distribuída,
para a construção de um sistema de automação residencial de modo
modularizado baseando-se em serviços para garantir o contínuo
desenvolvimento integrado dos diversos subsistemas.
Keywords— automação residencial, integração de sistemas de
automação, compatibilidade, SOA, web service
II.
I.
INTRODUÇÃO
CONTEXTUALIZAÇÃO DO PROBLEMA
A criação de um protocolo de alto nível que se torne um
padrão, para todos os sistemas de automação e dispositivos em
uma casa, que vá trafegar por um meio físico através de um
protocolo de baixo nível seria a primeira alternativa para a
solução desse problema [5], abordagem criada pelo UPnP [5].
Essa solução acarreta em processar um protocolo de alto nível
em cada um dos dispositivos. E assim cada dispositivo por
mais simples que seja deve ter hardware suficiente para poder
processar esse protocolo robusto, o que também sobrecarrega
a rede interna da residência com o overhead desnecessário.
A Automação Residencial é sistema de gerenciamento,
coordenação e gestão integrada dos diferentes subsistemas de
uma residência. Pode-se dividir esse tipo de sistema em três
partes lógicas, no topo a Coordenação, no meio a
Comunicação Integrada e em baixo os Subsistemas de
Controles dos Dispositivos (o controle e a instrumentação) [4].
A falta de integração entre as diferentes tecnologias, a
heterogeneidade na comunicação para o controle dos
dispositivos e a dificuldade de padronização do mercado gera
a não interoperabilidade entre soluções de fabricantes distintos
e, portanto não se consegue utilizar estas soluções de modo
cooperativo. Assim o usuário fica dependente de uma única
solução, não podendo misturar os melhores módulos e
dispositivos que utilizam certa tecnologia com os melhores de
outras tecnologias.
Essa solução primária gerou a questão de onde, em qual
parte da arquitetura, deve ser feita essa abstração para
aumentar o nível da linguagem utilizada. E qual arquitetura
consegue sustentar essa abstração e essa arquitetura pode ser
utilizada como metodologia de desenvolvimento adequado e
flexível para se adaptar a novos dispositivos e independentes
de tecnologias de comunicação especificas dos dispositivos e
de qual o fabricante do dispositivo.
Com a compatibilidade entre os diversos módulos e
dispositivos, que utilizam diferentes tecnologias de automação
residencial, é possível integrar soluções que utilizam
tecnologias diferentes de diferentes fabricantes, ampliando as
possibilidades de escolha do usuário, e deixando-o
independente do fornecedor e fabricante. Com essa
miscigenação do mercado espera-se obter um melhor e mais
rápido desenvolvimento da automação residencial e a maior
adoção desses sistemas. A partir dessa visão uma investigação
dos diferentes protocolos de comunicação de automação
residencial e das soluções existentes de compatibilidade podese analisar como estas lidam com os diferentes métodos de
controle de cada subsistema ou dispositivo.
III.
TRABALHOS ANTERIORES
Atualmente ainda não existe uma tecnologia padrão para a
automação residencial. Diferentes fabricantes utilizam
tecnologias diferentes com propósitos variados, e essas
tecnologias não podem ser utilizadas em conjunto sem uma
“ponte” dedicada e especializada entre cada par distinto [1].
O estado da arte mostra que as diferentes tecnologias
utilizadas para automação residencial são independentes e
assim os sistemas de controle da casa não são compatíveis,
impossibilitando o uso cooperativo. E, portanto o usuário fica
dependente de uma única tecnologia, não podendo misturar os
15
Toschi e Cugnasca
melhores módulos de uma tecnologia com os melhores
módulos de outra.
2) Padronização de Subsistemas
A utilização de serviço web como forma de interface
padronizada de comunicação do subsistema permite o controle
homogêneo e a integração entre eles.
As soluções existentes de compatibilidade e integração
entre essas camadas intermediárias dedicadas e entre essas
redes de tecnologias distintas são apenas pontes, conexões
limitadas entre duas ou mais dessas [1]. Condicionadas assim
a fazer uma tradução da linguagem utilizada sobre os
protocolos de comunicação dedicados e outro protocolo com
propósito diferente, isso afeta a funcionalidade, limitando os
controles intrínsecos de uma tecnologia ao ser transportado a
outra.
Essa padronização é limitada. Diferentemente do modelo
“plug-and-play” há a necessidade de se conectar esses
serviços. Essa conexão entre serviços pode ser feita de
algumas maneiras utilizando-se repositórios de serviços UDDI
(Universal Description Discovery and Integration), onde pode
ser feita essa busca (service lookup).
B. Desenvolvimento na empresa
Um sistema de automação residencial pode começar
pequeno, mas se tornará grande e complexo rapidamente
dependendo dos objetivos dos usuários, integrando diversos
subsistemas heterogêneos que utilizam tecnologias distintas.
Por isso a construção deste deve ser encarada como o
desenvolvimento de um sistema de grande porte que será
customizado para cada casa de usuários.
Uma linha de pesquisa é a utilização de serviços web [2]
para tentar integrar essas tecnologias distintas. Apesar de se
ter no mercado muitos dispositivos inteligentes, estes tem sua
capacidade de interoperabilidade limitada. A solução
encontrada foi uma “multi-ponte”, cada tecnologia tem o seu
tradutor para um serviço web. Todos os serviços têm a sua
linguagem obedecendo a um padrão de controle abstrato, esse
padrão deve ser capaz de sintetizar todas as possíveis
comunicações dos dispositivos.
Com a utilização da SOA, a Engenharia de Software
Orientada a Serviços pode ser utilizada como metodologia de
desenvolvimento para sistemas como esse. Sua utilização
proporcionará:
O mapeamento entre essa linguagem generalista e a
linguagem dedicada de cada dispositivo é um trabalho
interminável, solucionável somente pela utilização por todos
de uma única linguagem. Conseguir criar tal protocolo e fazer
com que todos os produtores de dispositivos o utilizem é
muito difícil.
IV.
1) Metodologia de produção
A arquitetura SOA possibilita a criação de uma
metodologia de produção na qual o desenvolvimento contínuo
e modularizado pode ser feito para que a empresa entre
rapidamente no mercado com uma pequena gama de produtos
independentes. Esses subsistemas ou módulos podem interagir
ou ser integrados futuramente, ou ser gerenciados pelo
subsistema de controle e/ou pelo módulo de interface gráfica
para o usuário.
ENGENHARIA DE SOFTWARE ORIENTADA A SERVIÇO
APLICADA À AUTOMAÇÃO RESIDENCIAL
A. Arquitetura distribuida
A arquitetura orientada a serviços (SOA) fornece uma
diretriz e base adequada para a criação de uma arquitetura para
a automação residencial. Pode-se aplicar e ampliar os
conceitos da SOA à automação residencial das seguintes
formas:
2) Metodologia de desenvolvimento
A aplicação de metodologias de desenvolvimento
consagradas em engenharia de software orientadas a serviços
na construção e desenvolvimento de um sistema de automação
residencial vai proporcionar um modelo de desenvolvimento
contínuo e modular. Dessa forma pode-se planejar começar o
desenvolvimento de um único módulo, que pode ser vendido
separadamente como um produto independente, e
subsequentemente outros módulos podem ser desenvolvidos
seguindo o mesmo formato para ser integrados e interagir com
outros subsistemas através de serviços web.
1) Padronização na Arquitetura
A utilização dos conceitos da SOA no contexto da
automação residencial utilizando-se da infraestrutura de
comunicação domésticas começamos a concretizar o conceito
abstrato de Internet das Coisas. Essa fusão de SOA com IoT
pode ser materializada como Everything as a Service (EaaS).
Onde todos os dispositivos serão controlados através de uma
interface de serviço web.
Para que esses módulos consigam ser interoperáveis, uma
infraestrutura baseada em SOA é necessária e com a exposição
da interface de controle do subsistema, seu registro no
repositório da casa, outros subsistemas e o sistema de
gerenciamento podem acessa-lo e controla-lo, ou seja, utilizar
os dispositivos desse subsistema de modo transparente.
Para tornar esse controle possível deve-se analisar onde na
arquitetura de comunicação os serviços web serão
incorporados. Um microdispositivo, muito simples como uma
lâmpada, não pode ter seu próprio e exclusivo serviço web,
porém um dispositivo mais complexo, como uma televisão,
pode ter seu próprio serviço web embutido (embedded, bultin) como interface de controle. A união de dispositivos
similares em conjunto que utiliza uma tecnologia de
comunicação mais simples é a criação de um subsistema. E
este tem um serviço web comum a todos os dispositivos.
Nessa nova arquitetura do sistema de automação
residencial está dividida em subsistemas. Todos esses módulos
são independentes, autônomos e integráveis com outros. A
própria interface com o usuário é uma módulo que utiliza os
serviços dos outros subsistemas, outro módulo básico é um
sistema de gerenciamento dos dispositivos que os controla
automaticamente.
16
[1]
L. Ngo, “Service-oriented Architecture for Home Networks,” TKK T-110.5190
Seminar on Internetworking, 2007.
[2]
V. Miori, D. Russo, e M. Aliberti, “Domotic Technologies Incompatibility
Becomes User Transparent”, Commun. ACM, vol. 53, no 1, p. 153–157, jan. 2010.
[3]
V. Miori, L. Tarrini, M. Manca, e G. Tolomei, “An open standard solution for
domotic interoperability”, IEEE Trans. Consum. Electron., vol. 52, no 1, p. 97–
103, fev. 2006.
[4]
Prof. Dr. A. R. Hirakawa e Prof. Dr. J. S. C. Martini, “SIGINURB – Sistema de
Gestão da Infraestrutura Urbana”, Escola Politécnica da Universidade de São Paulo
[5]
B. A. Miller, T. Nixon, C. Tai, e M. D. Wood, “Home networking with Universal
Plug and Play”, IEEE Commun. Mag., vol. 39, no 12, p. 104–109, dez. 2001.
Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP
Desenvolvimento de um Sistema Inteligente de
Gerenciamento Energético Residencial
Heider Berlink de Souza
Anna Helena Reali Costa
Laboratório de Técnicas Inteligentes
Universidade de São Paulo
São Paulo, Brasil
[email protected]
Laboratório de Técnicas Inteligentes
Universidade de São Paulo
São Paulo, Brasil
[email protected]
No Brasil, o desenvolvimento tecnológico no setor é recente
e foi impulsionado através da aprovação pela ANEEL das regras
que regulamentam a geração distribuída e a tarifa diferenciada
de energia no país. Este novo cenário constitui uma importante
quebra de paradigmas já que o consumidor, que sempre foi
estritamente passivo, passará a contribuir de forma direta com a
inserção de energia na rede.
Resumo— Um dos objetivos das Smart Grids é incentivar a
Geração Distribuída de energia em residências, levando o usuário
a injetar energia na rede elétrica. A regulamentação da Tarifa
diferenciada de energia por horário de uso, associada ao
armazenamento de energia em baterias, possibilitam um
gerenciamento otimizado do consumo de energia do usuário que
pode optar por vender ou armazenar a energia gerada sempre que
lhe for conveniente. Considerando uma variação dinâmica do
preço da energia, faz-se necessário o desenvolvimento de um
sistema autônomo que implemente uma política ótima de atuação
visando maximizar a utilidade do sistema. Este trabalho propõe o
desenvolvimento de um Sistema Inteligente para o gerenciamento
energético residencial considerando a realidade do Mercado de
Energia brasileiro.
Considerando ainda a possibilidade da utilização de
dispositivos de armazenamento de energia pelo consumidor e a
intermitência da geração de energia através de fontes
alternativas, pode-se verificar que o balanço energético da
unidade consumidora residencial é um problema de dinâmica
complexa. Este trabalho consiste no desenvolvimento de um
sistema inteligente que seja capaz de gerenciar de forma
otimizada o consumo energético de uma unidade consumidora
que possui a capacidade de gerar a própria energia através de
fontes alternativas e que esteja sujeita à tarifação diferenciada.
Abstract— One of the goals of the Smart Grids is to encourage
distributed generation of energy in the houses, leading the user to
inject energy into the power grid. The Regulamentation of the
Time of use energy princing, associated with energy storage in
batteries, enable the optimal management of the energy consume
from the user who can choose to sell or store the generated energy
whenever it is convenient. Considering a dynamic variation of the
energy princing, it is necessary to develop an autonomous system
that implement an optimal policy of atuation that seeks to
maximize the utility of the system. This paper aims to develop an
Energy Management System considering the reality of the
Brazilian Energy Market.
Palavras-chave—SmartGrid;
Energética; SmartHome.
I.
Geração
Distribuída;
II.
DESCRIÇÃO DO PROBLEMA
O sistema estudado considera uma residência que possui
geração própria de energia através de fontes alternativas. Estas
fontes têm em comum a dependência de condições
meteorológicas específicas para geração, condições estas que
variam consideravelmente ao longo do dia em função do local
da instalação. No presente trabalho, a geração de energia elétrica
é modelada de forma a incorporar as características das regiões
tropicais do globo terrestre, incorporando assim as
particularidades da geração nestas regiões, como a incidência
solar para Sistemas Fotovoltaico, por exemplo. Esta
preocupação reflete um dos objetivos principais do trabalho que
é obter uma solução para o problema que seja condizente com
as condições do mercado de energia brasileiro.
Gestão
INTRODUÇÃO
Apesar de toda evolução tecnológica vista nos últimos anos,
pode-se afirmar que o setor elétrico foi um dos poucos que não
presenciaram uma completa revolução, seja no âmbito
tecnológico, nos serviços prestados ou na forma de negócio
praticada pelas concessionárias de energia elétrica. As Redes
Inteligentes de Energia ou Smart Grids surgem com o intuito de
liderar esta revolução no setor ao inovar através da inserção de
modernas
tecnologias
de
medição,
automação
e
telecomunicações na rede. A implantação desta complexa
infraestrutura tem como consequências diretas ganhos em
confiabilidade, eficiência, segurança e, principalmente, novas
formas de negócio decorrentes do papel do consumidor neste
novo cenário.
A energia gerada pode ser injetada na rede elétrica, utilizada
pelo consumidor ou armazenada em uma bateria para que seja
comercializada em um momento mais favorável no mercado. As
características fundamentais dos dispositivos de armazenamento
são o custo para armazenar energia e a capacidade máxima de
armazenamento. A modelagem destes parâmetros de forma
adequada possui influência direta na solução do problema, já que
interferem no grau de liberdade do agente com relação à escolha
das ações de venda da energia armazenada.
O mercado de energia é traduzido pelo método de
precificação de energia adotado, o que pode variar desde uma
17
Souza e Costa
curva dinâmica de preços de venda de energia até simples
patamares fixos que refletem preços diferenciados ao longo do
dia. Um dos objetivos do trabalho é comparar o método de
precificação adotado em programas de gerenciamento pelo lado
da demanda já consolidados com o implementado recentemente
no Brasil.
problema proposto. Sendo assim, serão implementadas técnicas
de planejamento probabilístico e aprendizado, visando avaliar as
que mais se adequam à complexidade do problema.
Uma possível análise a ser contemplada no trabalho visa
identificar o impacto da implementação destes sistemas nas
Redes de Distribuição de energia. Entretanto, este é um trabalho
complementar, não sendo o foco principal do projeto de
mestrado.
O função de utilidade do problema proposto incorpora
aspectos econômicos e de sustentabilidade, como o lucro direto
obtido pelo usuário com a venda da energia e a eficiência no
consumo energético, respectivamente. O foco principal é o
desenvolvimento de um sistema de controle que possua uma
política de atuação condizente com estes parâmetros, sem no
entanto afetar a qualidade de vida e o padrão de conforto do
usuário.
III.
V.
REVISÃO BIBLIOGRÁFICA
A solução do problema proposto ainda não é um consenso
na literatura, principalmente porque esta sofre influência direta
de fatores específicos da modelagem do problema, como a
dinâmica do Mercado de Energia estudado, as características de
geração de energia e a regulamentação adotada no local onde
reside a unidade consumidora. Entretanto, uma série de
trabalhos se destacam pela aplicação de técnicas de
planejamento probabilístico ou aprendizado.
Testes foram empregados visando avaliar o desempenho da
técnica aplicada e a sua capacidade de identificação das
tendências de preço. Os resultados obtidos foram comparados
com uma política de atuação Greedy, sendo possível verificar
que a aplicação da técnica apresentada é factível para o problema
proposto.
Um importante fator visualizado nas soluções encontradas
consiste na escalabilidade do problema, ou seja, pode-se tratar o
gerenciamento energético desde o âmbito do escalonamento da
operação dos equipamentos da residência visando um consumo
otimizado como proposto por Chen et al. [1], até de forma mais
superficial como sugerido por Lou et al. [2]. Além disso, alguns
trabalhos tratam do impacto na rede de distribuição de energia
referente à utilização destas técnicas em um grande conjunto de
residências.
VI.
CONCLUSÕES
Este trabalho trata do desenvolvimento de um Sistema
inteligente de Gerenciamento Residencial de Energia
considerando uma casa que produz energia elétrica através de
fontes alternativas associada ao armazenamento em baterias e
uma tarifa diferenciada de energia. A abordagem utilizando
Aprendizado por Reforço mostrou-se satisfatória, mas uma
modelagem mais robusta deve ser empregada visando uma
maior aplicabilidade da solução implementada. Os próximos
passos envolvem melhorias na modelagem do sistema e a
avaliação de novas técnicas de otimização que se adequem à
complexidade do problema proposto.
O principal aspecto notado nas publicações atuais sobre o
tema é a grande predominância de soluções que atendem apenas
ao Mercado Europeu e Americano, sendo um dos objetivos do
trabalho motivar a implementação destes sistemas no Brasil ao
provar que a sua viabilidade.
IV.
RESULTADOS PRELIMINARES
Uma primeira análise do problema foi feita mediante
aplicação do conceito de Aprendizado por Reforço no problema
de maximização da recompensa através da venda distribuída de
energia. O sistema foi modelado como um Problema de Decisão
Markoviano, como proposto por Li et al. [3]. Implementou-se o
algoritmo Q-Learning de aprendizado visando obter uma
política ótima de venda de energia para uma dada sequência de
preços do mercado.
REFERÊNCIAS
METODOLOGIA E DESENVOLVIMENTO
[1]
A primeira etapa de desenvolvimento do trabalho consiste no
estudo detalhado de cada subsistema envolvido no ambiente de
estudo. Vale ressaltar que todo o Sistema será modelado tendo
em vista a realidade do Mercado de Energia brasileiro, tanto com
relação à capacidade de geração de energia quanto com relação
à regulamentação do Mercado.
[2]
[3]
Após validar os modelos, será feito um estudo visando
identificar qual a melhor técnica a ser aplicada na solução do
18
Chen, X., Wei, T., Hu, S. “Uncertainty-aware household appliance
scheduling considering dynamic electricity pricing in smart home”. Em:
Smart Grid, IEEE Transactions on, vol. 4, no. 2, pp. 932-941, June 2013.
Lou, X., Yau, D. K. Y., Nguyen, H. H., Chen, B. “Profit-optimal and
stability-aware load curtailment in smart grids”. Em: Smart Grid, IEEE
Transactions on, vol. PP, no. 99, pp. 1-10.
Li, B., Gangadhar, S., Cheng, S. e Verma, P.K. "Maximize user rewards
in distributed generation environments using reinforcement learning",
Em: Energytech, IEEE, pp. 1-6, 2011.
Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP
Simulação e Análise de Arquiteturas Hierárquicas
sem Buffers de Redes em Chip sem Fio
Jefferson Chaves Ferreira
Cíntia Borges Margi
Escola Politécnica da Universidade de São Paulo
Departamento de Eng. de Computação e Sist. Digitais
São Paulo, Brasil
[email protected]
Escola Politécnica da Universidade de São Paulo
Departamento de Eng. de Computação e Sist. Digitais
São Paulo, Brasil
[email protected]
Resumo— O presente trabalho propõe uma nova arquitetura
de switch de redes em chip sem fio (WiNoCs) hierárquicas e sem
buffers. A segunda principal contribuição é uma plataforma de
análise e simulação de WiNoCs, baseada no já consolidado
simulador ns-2, para a avaliação do desempenho do switch.
evolucionária da arquitetura clássica [1] de NoC e de
arquiteturas de switches divulgadas recentemente na literatura
como BLESS [2], CHIPPER [3] e MinBD [4].
Pesquisas recentes focam o emprego das WiNoCs
destacando o potencial desta abordagem. A referência [5], por
exemplo, propõe o uso de uma topologia hierárquica dotada de
nós radiotransmissores, separados em zonas, com o objetivo de
melhorar a capacidade de comunicação em chip. Além disso, a
referência [6] analisa o potencial do uso da tecnologia sem fio
como mecanismo de melhoria de desempenho das NoCs
ressaltando a necessidade de análises mais detalhadas a
respeito das arquiteturas e dos pontos críticos no emprego das
redes sem fio em NoCs.
Abstract—This work proposes a new hierarchical and
bufferless wireless network on chip (WiNoC) switch architecture.
The second main contribution is a simulation platform, having the
well-known ns-2 simulator as its basis, for switch performance
evaluation.
I.
INTRODUÇÃO
O paradigma das redes em chip (NoCs) surgiu a fim de
permitir alto grau de integração entre vários núcleos de
sistemas em chip (SoCs) cuja comunicação é tradicionalmente
baseada em barramentos. As NoCs são definidas como uma
estrutura de switches e canais ponto a ponto que interconectam
núcleos de propriedades intelectuais (IPs) de um SoC,
provendo uma plataforma de comunicação entre os mesmos. O
emprego de WiNoCs possibilita a adoção dos mecanismos de
roteamento das NoCs com o uso de tecnologias sem fio,
propondo a otimização dos fluxos de trafego, a redução de
conectores e a atuação em conjunto com as NoCs tradicionais.
II.
III.
ARQUITETURA DO SWITCH
Os switches compões uma WiNoC hierárquica na qual os
nós são organizados em clusters, que possuem um nó central
dotado de um canal sem fio com o qual é possível comunicarse com outros clusters. A arquitetura dos switches centrais de
cada cluster, esquematizada na figura 1, será descrita em
hardware a fim de verificar seu desempenho e o tráfego da rede
em chip será simulado por meio do uso do ns-2 (seção IV).
IV.
REVISÃO LITERÁRIA
PLATAFORMA DE SIMULAÇÃO
Propõe-se a adaptação do simulador ns-2 [7] a fim de
A arquitetura do switch proposto é uma abordagem
Fig. 1 - esquema da arquitetura com três estágios de pipeline do switch da WiNoC a ser simulada.
19
Ferreira e Margi
possibilitar a elaboração de WiNoCs. A adaptação [8] consiste
essencialmente na combinação uma simulação com fio em
tempo T que deve convergir com diversas simulações sem fio
em tempo t<T. Alguns dados da simulação (tempos de
execução e de chaveamento) são obtidos diretamente da
descrição em hardware feita para o switch central dos clusters.
A figura 2 ilustra o diagrama de componentes da arquitetura.
no projeto e desenvolvimento de uma interface, que permita a
cossimulação de dados de saída de componentes em hardware
com a dinâmica de transferência de pacotes em rede, inspirada
em casos de cossimulação de sucesso [9]. Após o
desenvolvimento da plataforma de simulação, os esforços serão
concentrados no desenvolvimento da arquitetura do switch da
seção IV e sua posterior análise de desempenho.
A. Emprego de Algorimos Genéticos
A fim de realizar a convergência da simulação com fio com
as simulações sem fio utiliza-se uma abordagem baseada em
algoritmos genéticos. A função de avaliação é dada por meio
da soma de erros relativos entre as simulações com fio e sem
fio (equação 1).
Fsim  ErelatrasoMedio  E reltaxaEntrega
REFERÊNCIAS
[1]
[2]
(1)
[3]
A população de possíveis soluções é ajustada em ordem
crescente. dos resultados da função de avaliação. A nova
geração de valores é dada por meio da média aritmética dos
parâmetros das possíveis soluções ordenadas e tomadas duas a
duas. As soluções da nova geração substituem as soluções com
avaliação menos favorável segundo uma razão ajustada no
simulador. A mutação, cuja frequência é ajustada por meio de
um parâmetro no simulador, é modelada por meio da escolha
semialeatória de um parâmetro da função de avaliação seguida
pela escolha de um valor pseudoaleatório dentro dos limites
dos valores encontrados até o momento para tal parâmetro.
V.
[4]
[5]
[6]
RESULTADOS E CONCLUSÕES
A partir do desenvolvimento da abordagem de simulação
foi possível atestar a viabilidade da simulação de redes em chip
sem fio utilizando o simulador ns-2 como plataforma base. A
adoção de novas métricas somada à simulação de topologias
maiores permitirá a consolidação de uma plataforma na qual
será possível a concepção, a simulação e a subsequente
comparação de diversas arquiteturas de roteadores de WiNoCs.
[7]
[8]
[9]
Os trabalhos de desenvolvimento futuro serão concentrados
G George P. Nychis, Chris Fallin, Thomas Moscibroda, Onur Mutlu, and
Srinivasan Seshan. “On-chip networks from a networking perspective:
congestion and scalability in many-core interconnects”. In Proceedings
of the SIGCOMM 2012. ACM, Nova York, EUA, pp. 407-418, 2012.
Thomas Moscibroda and Onur Mutlu. “A case for bufferless routing in
on-chip networks”. In Proceedings of the ISCA. ACM, Nova York,
EUA, pp. 196-207, 2009.
Chris Fallin, Chris Craik, Onur Mutlu, "CHIPPER: A low-complexity
bufferless deflection router", 17th Int. Symposium on High Performance
Computer, IEEE Computer Society, Washington EUA. pp. 144-155,
2011.
Chris Fallin, Greg Nazario, Xiangyao Yu, Kevin Chang, Rachata
Ausavarungnirun, Onur Mutlu, "MinBD: Minimally-Buffered
Deflection Routing for Energy-Efficient Interconnect", IEEE/ACM
Sixth International Symposium on Networks-on-Chip, IEEE Computer
Society, Washington, EUA , pp. 1-10, 2012.
Dan Zhao and Ruizhe Wu. Overlaid Mesh Topology Design and
Deadlock Free Routing in Wireless Network-on-Chip. IEEE/ACM Sixth
International Symposium on Networks-on-Chip. IEEE Computer
Society, Washington, EUA, pp. 27-34, 2012.
Deb, S.; Ganguly, A.; Pande, P.P.; Belzer, B.; Heo, D., "Wireless NoC
as Interconnection Backbone for Multicore Chips: Promises and
Challenges," IEEE Journal on Emerging and Selected Topics in Circuits
and Systems, IEEE Computer Society, Washington, EUA, vol.2, no.2,
pp. 228-239, 2012.
ISI, “The Network Simulator - ns-2”, novembro 2011, Disponível em:
http://www.isi.edu/nsnam/ns/. Acesso em: 08 ago. 2013.
Jefferson Chaves Ferreira, Cíntia Borges Margi, “Simulação de redes em
chip sem fio”. In Escola Regional de Alto Desempenho de São Paulo.
São Carlos, Brasil, pp. 74-77, 2013.
M. Jingyao Zhang; Yi Tang; Sachin Hirve; Iyer, S.; Schaumont, P.;
Yang, Y., "A software-hardware emulator for sensor networks," 8th
Annual IEEE Communications Society Conference on Sensor, Mesh
and Ad Hoc Communications and Networks, IEEE Computer Society,
Washington, EUA, pp.440-448, 2011.
Fig. 2 - diagrama de componentes da plataforma de simulação destacando os cinco principais subsistemas. Adaptado de [8].
20
Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP
II WORKSHOP DE PÓS-GRADUAÇÃO DA ÁREA DE CONCENTRAÇÃO ENGENHARIA DE COMPUTAÇÃO
1
Secure mHealth data colletion: requirements
Leonardo H. Iwaya1 , Tereza C. M. B. Carvalho1
Despite its potential for effectively improving health
and wellness, mHealth still faces many challenges for its
widespread adoption [4]. One important concern refers to
security: even though medical data is usually subject to a
very strict legislation aiming to prevent unauthorized use or
disclosure, many mHealth proposals do not employ robust
security solutions to comply with such laws, hindering their
ability to become real deployments. Such concern is reflected
in studies about the security and privacy properties of nationwide electronic healthcare systems proposed in countries such
as Germany [7] and Canada [8]. It also appears in recent
reports from organizations such as WHO [4] and the mHealth
Alliance [9], which point out that data security and citizen
privacy are issues that require more attention in order to ensure
the success of mHealth initiatives.
Abstract—Mobile Health (mHealth) can be defined as medical
and public health practice supported by mobile computing
technology (e.g., mobile phone, PDAs, tablets), sensors, and other
wireless devices [1]. However, there has been a relaxation of the
security features for these applications [2], so that a sensible
number of papers mentions weakly or not even mention their
security requirements. For that reason, this preliminary paper
presents requirments for a security framework for mHealth data
collection; considering, lightweight mechanisms for delay-tolerant
network scenarios; user registration and authentication; secure
storage owing to the theft and loss of mobiles; secure data
exchange between mobiles and servers; device sharing among
health workers; and possible usability trade-offs.
Index Terms—Security, mobile health, remote data collection.
I. I NTRODUCTION
II. S CENARIO ASSUMPTIONS AND REQUIREMENTS
Data collection systems are mainly used as a tool for gathering primary health care information and tracking existing
diseases, driving health promotion initiatives in the affected
communities [4]. Figure 1 illustrates such systems, showing
a generic architecture in which the paper forms traditionally
employed for data collection are replaced by a mobile device.
Using the device’s communication capabilities, data can be
delivered in a faster and more reliable manner, speeding up the
whole process of decision making. Key actors in this scenario
are the health care workers, who act as data collection agents
and are responsible for visiting families in their houses and
for acquiring health-related information.
Since data collection systems deal with sensitive information, both stored and in-transit data must be protected from
unauthorized access or modification. In what follows, we
discuss the main requirements involved in the design of the
security framework.
Tolerance to delays and lack of connectivity - Many data
collection systems are deployed in remote locations where
network access is not continuously available, implying that frequent connectivity losses are expected to occur. Consequently,
the mobile device should be able to authenticate the user in an
offline manner and also employ mechanisms for temporarily
storing acquired data.
Protection against device theft or loss - The mechanisms
employed for temporary data storage should also provide
protection against unauthorized access or modification. Ideally,
this protection should remain effective even if the mobile
device in which the data is stored is stolen while the user’s
session is still active and the device’s volatile memory is
accessed. In other words, the security solution should enable
some level of forward secrecy, preventing attackers from using
the information available on the device’s memory.
The concept of mobile health (mHealth) comprises the combination of mobile computing technology with medical sensors
and communication devices, creating solutions for improving
health care [1]. The mhealth concept is also related to that
of eHealth (electronic health processing), but while the latter
is more focused on fixed computing facilities (e.g., desktop
computers), the former aims to explore more intensively the
advances in wireless communication, ubiquitous computing
and “wearable” device technologies [3].
Several socioeconomic factors contribute to the interest in
the mHealth trend. Examples include the wider availability of
mobile devices with high computing capabilities, the growth
in coverage of mobile cellular networks and the necessity of
actively bringing adequate health care and support for people
wherever they may be [4]. Applications surveyed include
mobile telemedicine, decision support systems, solutions for
raising treatment compliance and awareness, electronic patient
records (EPR), and data collection systems for enabling health
surveys and surveillance, to cite a few.
The deployment of mHealth solutions is particularly promising in emerging countries, in which health authorities can
take advantage of the flourishing mobile market to bring
adequate health care to unserved or underserved communities
[5]. Indeed, specialized applications for health surveys and
surveillance play a crucial role in such regions, providing a
rich repository for decision making on the field of public health
[4], [6]. Applications in this category typically involve remote
data collection of Primary Health Care (PHC) indicators, such
as family-related data, sanitary conditions, identification of
common diseases in a given region, or tracking people with
chronic conditions/diseases.
1 Escola Politécnica, Universidade de São Paulo. São Paulo/SP, Brazil.
Email: {liwaya,carvalho}@larc.usp.br.
21
Iwaya e Carvalho
II WORKSHOP DE PÓS-GRADUAÇÃO DA ÁREA DE CONCENTRAÇÃO ENGENHARIA DE COMPUTAÇÃO
(a)
2
(b)
Fig. 1: mHealth data colletion: (a) typical use case; (b) generic client-server architecture.
Secure data exchange between mobile device and server
- In order to protect in-transit information, all data must be
properly encrypted before transmission to/from the server.
In addition, the security solution should provide the server
with means to verify if the data received actually came
from a legitimate user, thus preventing unauthorized entities
from injecting (possibly fake) information into the system’s
database.
Lightweight and low cost solution - Low budget projects
may impose restrictions on the computational capabilities of
the mobile devices employed for collecting data, including
limitations on processing power and available memory. Therefore, the security framework should rely as much as possible
on lightweight cryptographic mechanisms such as those based
on symmetric keys.
Device sharing - Budget limitations or practical reasons
may lead to a scenario in which the mobile devices are shared
by multiple agents. In order to cope with this constraint,
the security solution should allow registered users to access
the system from any device in which the data collection
application is installed.
Usability - In many deployments, the staff responsible
for data collection may include people with little education
background and/or computer literacy [10]. Even though this
can be overcame with intense training, frustrating experiences
may become an extra barrier for the system’s wide acceptance.
Therefore, despite the need of strong security, it is important
to keep in mind the system’s usability.
as medical information. Unfortunately, however, many existing mHealth applications for data collection do not include
security mechanisms able to protect both the locally stored
and in-transit medical data gathered by them. Aiming to close
this gap, we are developing a consistent security framework
designed specifically for this class of applications.
ACKNOWLEDGMENTS
This work was supported by the Innovation Center, Ericsson
Telecomunicações S.A. (Brazil) and in part by the Brazilian
National Council for Scientific and Technological Development (CNPq) under grant 482342/2011-0.
R EFERENCES
[1] R. Istepanian, E. Jovanov, and Y. Zhang, “Guest editorial introduction
to the special section on m-health: Beyond seamless mobility and global
wireless health-care connectivity,” in IEEE Transactions on Information
Technology in Biomedicine, vol. 8, no. 4, 2004, pp. 405–414.
[2] L. Lind, E. Sundvall, D. Karlsson, N. Shahsavar, and H. Ahlfeldt,
“Requirements and prototyping of a home health care application
based on emerging java technology,” International Journal of
Medical Informatics, vol. 68, pp. 129–139, 2002. [Online]. Available:
\url{http://www.ncbi.nlm.nih.gov/pubmed/12467797}
[3] S. Tachakra, X. Wang, R. Istepanian, and Y. Song, “Mobile e-health:
The unwired evolution of telemedicine,” in Telemedicine and e-Health,
vol. 9, no. 3, 2003, pp. 247–257.
[4] WHO, “mhealth: new horizons for health through mobile technologies,”
The World Health Organization (WHO), Tech. Rep., 2011.
[5] L. Iwaya, M. Gomes, M. Simplicio, T. Carvalho, C. Dominicini,
R. Sakuragui, M. Rebelo, M. Gutierrez, M. Näslund, and P. Håkansson,
“Mobile health in emerging countries: A survey of research initiatives
in Brazil,” International Journal of Medical Informatics, vol. 82, no. 5,
pp. 283–298, 2013.
[6] C. Hertzman, N. Meagher, and K. McGrail, “Privacy by design at
population data BC,” J Am Med Inform Assoc, vol. 20, no. 1, pp. 25–28,
2013.
[7] A. Sunyaev, J. M. Leimeister, and H. Krcmar, “Open security issues in
german healthcare telematics.” in HEALTHINF. INSTICC Press, 2010,
pp. 187–194.
[8] Infoway, “A “conceptual” privacy impact assessment of the ehrs
blueprint version 2,” Canada Health Infoway, Tech. Rep., 2008.
[9] P. Mechael, H. Batavia, N. Kaonga, S. Searle, A. Kwan, A. Goldberger,
L. Fu, and J. Ossman, “Barriers and gaps affecting mHealth in low and
middle income countries: Policy white paper,” mHealth Alliance, Tech.
Rep., 2010.
[10] D. Shao, “A proposal of a mobile health data collection and reporting
system for the developing world,” Master’s thesis, Malmö University –
School of Technology, 2012.
[11] F. Mancini, K. Mughal, S. Gejibo, and J. Klungsoyr, “Adding security to
mobile data collection,” in 13th IEEE Int. Conf. on e-Health Networking
Applications and Services (Healthcom), 2011, pp. 86–89.
[12] S. H. Gejibo, F. Mancini, K. A. Mughal, R. A. B. Valvik, and J. I.
Klungsyr, “Secure data storage for mobile data collection systems,” in
Proc. of International ACM Conference on Management of Emergent
Digital EcoSystems (MEDES), 2012, pp. 1–8.
III. R ELATED WORK
One of the few thorough solutions that focus on securing
the mHealth data collection process (i.e., over 3G networks,
smartphones and web servers) was proposed by [11], which,
together with the secure storage mechanism described in [12],
forms an extension of the openXdata standard. The combined
solution includes essential security features such as mutual
authentication between user and server, encryption of stored
data, and secure data delivery. Important requirements such
as allowing devices to be shared and offline authentication of
users are fully taken into account. Their solutions, however, is
still halfway to solve the problem.
IV. C ONCLUSION
Security is one of the most imperative requirements for the
success of systems that deal with highly sensitive data, such
22
Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP
Classificação Visual de Produtos Agrícolas: Análise
da Eficácia de Técnicas de Seleção de Atributos
Silva, L. O. L. A., Cugnasca, C. E.
Departamento de Engenharia de Computação e Sistemas Digitais – Escola Politécnica da USP
Abstract— Homogeneity plays an important role in
ornamental plant and flower production. As assessing the
quality of seedlings is an effective way of predicting plant
growth performance, a vision system capable of
performing this task is desirable. Yet, the optical sorting of
agricultural products must find ways to incorporate
knowledge from human experts into the computational
solution. Our aim to evaluate feature selection techniques
with respect to the performance of vision-based inspection
of pot plant seedlings. A large feature set was initially
obtained from seedlings images and several subsets were
generated with various features selection techniques. The
performance of each subset was compared to some of the
most popular classifiers in the literature: Naive Bayes, kNearest Neighbors, Logistic Regression, C4.5, Random
Forest and Multilayer Perceptron. The results show that
feature selection was indeed advantageous, generating
accuracy gains of up to 7.4%. The match between Logistic
Regression and Chi Squared provided the best
performance observed, achieving 80% accuracy rate.
Sendo assim, pesquisas que abordem com efetividade as
particularidades envolvidas na classificação e separação de
mudas de flores e plantas ornamentais vêm se tornando mais
importantes. Desta forma, este trabalho visou propor,
desenvolver e testar um sistema de classificação visual para
atender às necessidades específicas da inspeção desse tipo de
produto, incorporando-o em uma máquina que permita
automatizar essa etapa do processo produtivo.
Palavras-chave—Visão computacional,
automação agrícola, máquina.
As mudas foram coletadas durante a primavera de 2011 e
foram divididas em quatro níveis de qualidade decrescente,
sendo A a de melhor qualidade e D, a de pior. Essa foi a
quantidade de níveis que o especialista julgou mais adequada
para realizar a rotulação com consistência. A Fig. 1 fornece
exemplos de mudas rotuladas em cada um dos quatro níveis
estipulados.
I.
inspeção
II.
OBJETIVO
Problemas de aprendizado de máquina supervisionado
enfrentam a dificuldade de se estabelecer quais são os atributos
relevantes para classificação. Isso é especialmente verdade para
a classificação visual de produtos agrícolas, que precisa lidar
com a variabilidade inerente de cada instância analisada, sendo
assim, o objetivo do trabalho é o de avaliar a eficácia de
técnicas de seleção de atributos na resolução desse tipo de
problema, no meu caso a classificação visual de mudas de
violeta.
III.
visual,
INTRODUÇÃO
A produção em grande escala de flores e plantas
ornamentais se dá em diversas fases. Produtores estabelecem
para cada fase um setor dentro das estufas e, em cada um deles,
a disposição e o tratamento das plantas são feitos de maneira
homogênea, melhorando a qualidade destas e evitando o
surgimento de doenças e pragas. O controle sobre o
desenvolvimento das plantas é importante para permitir não só
um melhor aproveitamento da área da estufa como também das
demandas comerciais [1].
MATERIAIS E MÉTODOS
Vinte e seis atributos, elaborados a partir de entrevistas com
o especialista, foram extraídos de 600 imagens. A binarização
das imagens foi inspirada em técnicas de chromakeying e
representada matematicamente como:
Tα,β,γ,k (R, G, B) ={x ϵ E | α.R(x) + β.G(x) + γ.B(x) > k},
(1)
onde T é o operador de limiarização de imagens coloridas, x
representa cada pixel da imagem, E representa o objeto de
interesse, α, β, γ e k são os parâmetros de limiarização do
operador, e R(x), G(x) e B(x) são os valores de intensidade do
pixel x nos canais vermelho, verde e azul, respectivamente. Os
valores foram ajustados manualmente, chegando-se na
configuração de α = 2, β = 4, γ = –4 e k = 0, adotada para a
binarização das mudas. O resultado desse método de
binarização se mostrou robusto quando aplicado a toda a
As mudas são importantes porque representam um fator
que não apresenta uniformidade no processo produtivo. Visto
que garantir a qualidade e uniformidade das plantas é de
primordial importância [2], o que se faz é dividir as mudas em
grupos de desenvolvimento semelhantes, por meio da inspeção
visual de cada uma delas [3]. Visão computacional bem como
técnicas de aprendizado supervisionado têm sido amplamente
utilizadas para automatizar tarefas dess tipo. Vários trabalhos
abordaram problemas de inspeção visual de mesma natureza
(tais como flores, frutas e outros produtos agrícolas), utilizando
diferentes técnicas. Em [4], um sistema de visão foi feito para
classificar violetas adultas e também plantas de Cactus.
23
Silva e Cugnasca
IV.
RESULTADOS E CONCLUSÕES
Os resultados mostraram que a essas técnicas são realmente
vantajosas, gerando ganhos de até 7,4% nas taxas de acertos e
ao mesmo tempo reduzindo de 26 para 11 o número médio de
atributos utilizados após a seleção. A Fig. 3 mostra o gráfico
dos resultados finais obtidos.
Fig. 1. Exemplos de mudas rotuladas entre os 4 níveis de qualidade
estipulados. Em ordem decrescente de qualidade onde (a) é a melhor, classe
A, e (d) é a pior, classe D.
Fig. 3. Taxas de acerto observadas.
Trabalhos futuros podem verificar se há melhorias no
desempenho do sistema ao se utilizar um grupo de especialistas
ao invés de apenas um para rotular as imagens das mudas,
evitando-se variações devido à inconsistências na rotulação das
mudas. Um sistema de notas poderia ser empregado, tirando-se
os valores médios de cada exemplo e estabelecendo-se faixas
de notas aceitas para cada nível de qualidade.
coleção de 600 imagens das mudas. Um exemplo de sua
aplicação pode ser visto na Fig. 2b.
Os vinte e seis atributos foram: área da muda,
comprimento, largura, elongação, área do retângulo
envolvente, ocupação do retângulo, área do círculo, ocupação
do círculo, distância centroide-círculo, distância basecentroide, além de medidas da distribuição de massa das
mudas, por meio do cálculo da ocupação de 16 sub-regiões das
imagens, todas com áreas iguais a 1/16 da área total.
Esse trabalho também resultou no desenvolvimento de um
protótipo (Fig. 4) que embarca parte do conhecimento obtido
numa máquina que efetivamente automatiza a etapa de
classificação das mudas. De acordo com o acompanhamento do
responsável pela produção na qual o protótipo foi testado,
obtiveram-se ganhos de produtividade de 35% na separação
das mudas após a instalação.
Os desempenhos de seis classificadores foram comparados
considerando-se um universo de subconjuntos gerados por
quatro técnicas de seleção de atributos.
REFERÊNCIAS
[1]
[2]
[3]
(a)
(b)
[4]
J. E. Faust and R. D. Heins, “Modeling inflorescence development of the
African Violet (Saintpaulia ionantha Wendl.),” Journal of the American
Society for Horticultural Science, vol. 119 (4), pp. 727-734, 1994.
N. R. Parsons, R. N. Edmondson and S. G. Gilmour, “A generalized
estimating equation method for fitting autocorrelated ordinal score data
with an application in horticultural research,” Applied Statistics, vol. 55
(4), pp. 507-524, 2006.
A. Mattson, “Predicting field performance using seedling quality
assessment,” New Forests, vol. 13 (1), pp. 227-252, 1997.
A. J. M. Timmermans and A. Hulzebosch, “A computer vision system
for on-line sorting of pot plants using an artificial neural network
classifier,” Computers and Electronics in Agriculture, vol. 15 (1), pp.
41-55, 1996.
(c)
Fig. 2. (a) Imagem original. (b) Resultado intermediário, após a binarização.
(c) Resultado final, após aplicação de filtros mediana e abertura morfológica.
Fig. 4. Protótipo desenvolvido utilizando visão computacional e aprendizado
de máquina para realizar a separação automática das mudas.
24
Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP
REASON - Avaliação de confiabilidade e
disponibilidade em redes de computadores
sustentáveis.
Marcelo C. Amaral
Tereza C. M. B. Carvalho
Escola Politécnica, Universidade of São Paulo
São Paulo, SP, Brazil
[email protected]
Escola Politécnica, Universidade of São Paulo
São Paulo, SP, Brazil
[email protected]
Resumo—Redes de computadores orientadas à sustentabilidade tem a capacidade de adaptar dinamicamente os modos
de consumo de energia dos dispositivos da rede de acordo com
a demanda do tráfego da rede. Porém, quando um dispositivo
está no modo de economia a confiabilidade e disponibilidade
da rede pode ser altera. Desta forma, esse trabalho apresenta
uma ferramenta para medir, com maior precisão, o impacto
de aplicar economia de energia. Os resultados mostram que
quando o sistema não prioriza disponibilidade e confiabilidade
a economia de energia é de 43%, já quando a disponibilidade e
confiabilidade são priorizadas, a economia diminui para 27%.
Abstract—Sustainability-oriented computer networks have the
ability to dynamically adapt the devices’ power mode in accordance with the network traffic, putting them to “sleep”. However,
when a device is “sleeping” the reliability and availability of the
network can be changed. Thus, this work presents a tool to
measure more accurately the impact of applying energy saving.
The results show that when the system prioritizes availability and
reliability the energy savings are up to 43%. On the other hand,
when availability and reliability are prioritized, the savings drop
to 27%.
são subutilizados e acabam consumindo energia desnecessariamente.
Nesse contexto, os dispositivos, na ausência de tráfego, podem ser
colocados em um modo de consumo de energia reduzido, a fim de
economizar energia. Manter esses dispositivos totalmente desativados
não é viável, sendo necessário que o dispositivo possa ser reativado
em caso de falha ou sobrecarga na rede. Desta forma, é utilizado
um modo intermediário, entre ligado e desligado, que é chamado de
“dormindo” ou redundância cold standby.
Infelizmente, as abordagens existentes para calcular confiabilidade
R(t) e disponibilidade A(t) [8], [9], [10], [11], [12], [13], e [14] não
são totalmente adequadas para o contexto de redes de computadores
sustentáveis, pois, não considerarem o impacto do tempo de acordar
os dispositivos, e a dinamicidade em que as mudanças ocorrem na
topologia da rede. Em toda a extensão da pesquisa deste trabalho,
não foi encontrado um método que avalia dinamicamente tais efeitos
degradadores da QoS, mais especificamente, na R(t) e A(t), no
contexto das redes sustentáveis. Portanto, o primeiro objetivos deste
trabalho é prover um método capaz de calcular R(t) e A(t), considerando esses requisitos. O segundo objetivo do trabalho é analisar
o impacto de colocar os dispositivos em modo “dormente”, mostrando
relação de compromisso entre economizar energia e a possível queda
na confiabilidade da rede, auxiliando a tomada de decisão de um
sistema de gerenciamento de rede.
O método proposto e avaliado por esse projeto é chamado REASoN (Avaliação de Confiabilidade e/ou Disponibilidade em Redes de
Computadores Sustentáveis). Este método é composto pela combinação hierárquica e extensão de dois métodos vastamente conhecidos
na literatura: (1) Modelo de Markov, e (2) Conjunto-Conexo e
Conjunto-Desconexo. O primeiro é um método baseado em transições
de estados que descreve a probabilidade de sucesso e de falha [8],
e foi estendido para considerar o tempo de acordar os dispositivos
em modo dormente. Já o segundo representa a probabilidade de
existir ao menos um caminho funcional na rede [8]. Para avaliar
a relação de compromisso, o REASoN é implementado dentro de
um sistema de gerenciamento de rede orientado a sustentabilidade
[15], que coordena a rede através de políticas que podem priorizar
desempenho, confiabilidade ou eficiência energética entre outros.
I. Introdução
É esperado que até 2015 o tráfego global da rede escalará exponencialmente, devido ao grande aumento do número de usuários e da
largura de banda [1]. Logo, para suprir tal demanda, os Provedores de
Serviço de Rede precisam de cada vez mais ampliar sua infraestrutura
de rede, tanto em tamanho quanto em complexidade [2]. Tudo isso
tem levado ao rápido crescimento do consumo de energia e causado
graves problemas, por exemplo, contribuído para a excessiva emissão
de dióxido de carbono (CO2 ) [3].
Segundo a Iniciativa Global e-Sustainability, as indústrias compostas por tecnologias de comunicação e informação têm o potencial
de redução de 23 a 30% das emissões globais de Gás de Efeito
Estufa, através da redução do consumo de energia relacionado a
TIC [4], [5]. As redes de computadores são responsáveis pela maior
parte do consumo energético relacionado a TIC [4]. Tipicamente, os
dispositivos da rede excedem mais que a metade da capacidade da
rede [6]. As redes são usualmente construídas com enlaces redundantes, sendo esses enlaces superdimensionados, a fim de acomodar
potenciais falhas e sobrecarga na rede [7].
Os dispositivos redundantes são tipicamente mantidos em configuração hot standby, que é o estado no qual os dispositivos
estão operando normalmente e com 100% de suas capacidades
disponíveis. Esse estado é idealmente para suportar períodos de
sobrecarga na rede, na ocorrência de fluxos inesperados. Por outro
lado, nos períodos de baixa utilização da rede, esses equipamentos
II. Resultados
Este trabalho apresenta o resultado de dois experimentos. O
primeiro experimento é calculo numérico de um estudo de caso
para redes metropolitanas, apresentando comparações entre a confiabilidade calculada pelos métodos padrões e a calculada pelo
REASoN. O segundo é um experimento em um cenário real de
um sistema de gerenciamento de rede utilizando o REASoN para
calcular a confiabilidade da rede e tomando decisões. Para ambos
os experimentos o Tempo Médio para Falhar (MTTF) utilizado é de
25
Amaral e Carvalho
III. Conclusão
60 mil horas. O Tempo Médio para “acordar” um dispositivo é 15
minutos (tempo para o sistema operacional iniciar e o tempo para
os protocolos de rede tornar totalmente operacional). A execução do
experimento foi para um intervalo de 70 minutos.
Este trabalho mostrou um sistema de gerenciamento de redes, que
durante baixa utilização da rede alguns dispositivos são colocados em
modo “dormente” para economizar energia. Além disso, esse sistema
pode calcular a confiabilidade utilizando o método proposto REASoN, para avaliar o impacto de economizar energia na confiabilidade.
Os resultados mostram que quando a confiabilidade é priorizada a
economia de energia foi de 27% em vez de 43% quando priorizada a
confiabilidade. Desta forma, essa análise é importante para a tomada
de decisão de um sistema de gerenciamento de rede orientado a
eficiência energética, quando a confiabilidade e a disponibilidade são
restrições fortes para a operação da rede.
A. Primeiro experimento
0 ,0 0 0 0 0 1
R (t)[R E A S o N ] - R (t)[P a d rã o ]
0 ,0 0 0 0 0 0
-0 ,0 0 0 0 0 1
-0 ,0 0 0 0 0 2
-0 ,0 0 0 0 0 3
-0 ,0 0 0 0 0 4
References
-0 ,0 0 0 0 0 5
[1] C. Lange, D. Kosiankowski, R. Weidmann, and A. Gladisch, “Energy
consumption of telecommunication networks and related improvement
options,” IEEE Journal of Selected Topics in Quantum Electronics,
vol. 17, no. 2, pp. 285–295, Apr. 2011.
[2] R. B. R. Bolla, F. Davoli, and F. Cucchietti, “Energy efficiency in the
future internet: A survey of existing approaches and trends in energyaware fixed network infrastructures,” Communications Surveys Tutorials,
IEEE, vol. 13, no. 2, pp. 223–244, 2011.
[3] G. Fettweis and E. Zimmermann, “Ict energy consumption trends and
challenges.”
Lapland, Finland: Proceedings of the 11th International Symposium on Wireless Personal Multimedia Communications
(WPMC), 2008.
[4] GeSI, “Smart 2020: Enabling the low carbon economy in the information
age,” The Climate Group on behalf of the Global eSustainability
Initiative (GeSI), Tech. Rep., Jun. 2008.
[5] C. Despins, F. Labeau, T. L. Ngoc, R. Labelle, M. Cheriet, C. Thibeault,
F. Gagnon, A. Leon-Garcia, O. Cherkaoui, B. St. Arnaud, J. Mcneill,
Y. Lemieux, and M. Lemay, “Leveraging green communications for
carbon emission reductions: Techniques, testbeds, and emerging carbon
footprint standards,” Communications Magazine, IEEE, vol. 49, no. 8,
pp. 101 –109, aug. 2011.
[6] F. D. R. Bolla, R. Bruschi, K. Christensen, F. Cucchietti, and S. Singh,
“The potential impact of green technologies in next-generation wireline
networks: Is there room for energy saving optimization?” Communications Magazine, IEEE, vol. 49, no. 8, pp. 80–86, 2011.
[7] X. Wang, A. V. Vasilakos, M. Chen, Y. Liu, and T. T. Kwon, “A survey
of green mobile networks: Opportunities and challenges,” Mob. Netw.
Appl., vol. 17, no. 1, pp. 4–20, 2012.
[8] M. L. Shooman, Reliability of Computer Systems and Networks: Fault
Tolerance, Analysis, and Design, 1st ed. Wiley-Interscience, Dec. 2001.
[9] F. Altiparmak, B. Dengiz, and A. Smith, “Reliability estimation of
computer communication networks: ANN models.” Washington, DC,
USA: IEEE Computer Society, june-3 july 2003, pp. 1353 – 1358 vol.2.
[10] H. Green, J. Hant, and D. Lanzinger, “Calculating network availability.”
2009 IEEE Aerospace conference, Mar. 2009, pp. 1–11.
[11] F. He and H. Qi, “A method of estimating network reliability using
an artificial neural network,” vol. 2.
Pacific-Asia Workshop on
Computational Intelligence and Industrial Application, 2008. PACIIA
’08, Dec. 2008, pp. 57–60.
[12] Y. F. Lam and V. O. K. Li, “A survey of network reliability modeling
and calculations,” vol. 1. IEEE Military Communications Conference
- Communications-Computers: Teamed for the 90’s, 1986. MILCOM
1986, Oct. 1986, pp. 1.2.1–1.2.5.
[13] C. Lin, H. Teng, C. Yang, H. Weng, M. Chung, and C. Chung, “A mesh
network reliability analysis using reliability block diagram.” 2010 8th
IEEE International Conference on Industrial Informatics (INDIN), Jul.
2010, pp. 975–979.
[14] W. Yeh, Y. Lin, Y. Y. Chung, and M. Chih, “A particle swarm
optimization approach based on monte carlo simulation for solving the
complex network reliability problem,” IEEE Transactions on Reliability,
vol. 59, no. 1, pp. 212–221, Mar. 2010.
[15] C. H. A. Costa, M. C. Amaral, G. Januario, T. C. M. B. Carvalho,
and C. Meirosu, “SustNMS: towards service oriented Policy-Based
network management for Energy-Efficiency.” Pisa, Italy: Second IFIP
Conference on Sustainable Internet and ICT for Sustainability (SustainIT
2012) (SustainIT 2012), Oct. 2012.
-0 ,0 0 0 0 0 6
T e m p o m é d io p a r a a c o r d a r = 1 5 m im
M T T F
= 6 0 0 0 0
T a x a d e r e d u n d â n c ia
= 5 0 %
-0 ,0 0 0 0 0 7
2 0 D is p o s it iv o s , 2 A n e is , 4 C a m in h o s
3 0 D is p o s it iv o s , 3 A n e is , 8 C a m in h o s
4 0 D is p o s it iv o s , 3 A n e is , 1 6 C a m in h o s
-0 ,0 0 0 0 0 8
-0 ,0 0 0 0 0 9
0
3
6
9
1 2
1 5
1 8
2 1
2 4
2 7
3 0
T e m p o ( d ia s )
Fig. 1. Diferença entre o calculo da confiabilidade para cold standby realizada
pelos métodos padrões e pelo REASoN.
As curvas da Figura 1 representam a diferença entre a confiabilidade de uma rede com topologia em anel variando entre 20 a 40
dispositivos, mantendo 50% de redundância, e utilizando o tempo
médio para acordar um dispositivo de 15 min. A figura expõe que a
confiabilidade da rede calculada pelo método padrão é maior que no
REASoN até chegar em torno de 22 dias, mostrando um "pênalti"
na confiabilidade ao colocar dispositivos no estado “dormente”. Para
o caso de 40 dispositivos, a amplitude do "pênalti" é ≈ −8 × 10−6 a
duração de ≈ 20 dias. Já para o caso de 20 dispositivos, a amplitude
do "pênalti" é de ≈ −3.2 × 10−6 e a duração de ≈ 20 dias.
B. Segundo experimento
O experimento consiste em 3 políticas, (1) todos os dispositivos
sempre acordados, (2) priorizando desempenho e aceitando perda
de confiabilidade, (3) priorizando confiabilidade, porém mantendo
confiabilidade da rede a mais alta o possível.
7 0 0 0
P o lític a 1
P o lític a 2
P o lític a 3
C o n s u m o d e e n e r g ia ( W )
6 0 0 0
5 0 0 0
4 0 0 0
3 0 0 0
2 0 0 0
1 0 0 0
1 0
2 0
3 0
4 0
5 0
6 0
7 0
T e m p o ( m in )
Fig. 2.
Consumo energético da rede.
A Figura 2 apresenta o consumo de energia para as três políticas.
O consumo energético total em Watts/h para 70min de execução da
Política 1 é 297kW/h, para a Política 2 é 169kW/h, e para a Política
3 é 216kW/h. Logo, o consumo energético da rede, quando aplicada
a Política 2, é 43% menor que o consumo energético da Política 1.
Por outro lado, quando a Política 3 está sendo aplicada, o consumo
energético é 27% menor que da Política 1.
26
Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP
!
#
$
"
& #
'
"
%
!
()
"
& #
#
8
"
"
.
"
%
3
%
6
%
+9
6
"
-
%
"
!"#
%
"
$
:
*+,
"
-
%
"
-
"
"
/
#
2
0 #
%
%
-
0 #
! 2
%
1
0
-
%
!
*;,
0 #<6 *=,
"
7=99
"
" % "
.
-
"
%
*>,8
8
?# #
%
" =;99
%
1
3
#
%
%
&
"
%
%
3
-
%
"
*4,
%
%
0 #
"
0 #
"
"
5
-
3
0
-
1 502
- 3
"
%
!
@A60
%
% "
@A60
%
"
!
-
%
50
"
%
1 !2
6# *7,
27
!
5
%
!
5
Schwarz e Carvalho
6
"
!
5
-
"
/
-
3
-
%
%
"
4
7
*;,
9
6!A
"
0 #
"
%
D
%
"
%
@A60
-
3
-
@A60
7
-
. .
C A
0
6AA 5 0
E+
:4
'
D" D" :+99
D
E4
:+
D"
E7
D"
E+99
D"
:7
D" :+99
:7
:+
:4
6
*>,
"
#
6
?
. .A
" %
%
# 0 A B B
"
D
%
" %
?
"
+
%
-
%
"
3
%
"
%
"
+
-
8
%
"
"
%
3
-
6
%
-
"
3
# 6
"
%
4;
F
"
.
3
:
"
+
B -
%
%
%
%
2
! -
%
"
#
3
-
"
%
@A60
*+,
"
%
@A60
"
4
*4,
" %
%
*7,
" %
"
*;,
:
*=,
9 1
+2
+ 1
-
1
42
" %
7
*>,
28
% 0#3 .
!C
F
HI
1=G9944/49++.72
6 !
%
! B
6
"
%
#
5
4==J4K9 !
6
5
4994
0
L
:
"
0
- 6
<
C "
7M142:>GJK; 6
499M
0
.
.5
0
- :
0
0
0
0 B
#
6
+7 49+4
! #
0
@
A %
#
? 0
499G
0
N
O
0 #<6
O#
6
/
%
6
0
%
6
499M
://
/
/
/ 5
B-
Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP
1
Estudo de métodos para escolha de gestos para
aplicações em superfícies multi-toque
Marylia Gutierrez, Ricardo Nakamura
A. Contextualização do Problema
Abstract—Com o desenvolvimento de tecnologias de toque e de
captura de movimento na área de interface homem–computador,
a busca por novos tipos de interface com o usuário se tornou
muito importante, com isso foram feitos estudos de novas formas
de entrada de dados mais intuitivas e naturais para sistemas
digitais, chegando–se na conclusão que os gestos manuais são
promissores nessas interfaces. Como a escolha dos gestos manuais
nem sempre é intuitiva e existem diferentes tipos para cada
aplicação, os usuários agem de formas diferentes, havendo uma
necessidade de estudos e análises para determinar a escolha dos
gestos. Existem diferentes metodologias possíveis para realizar
esta escolha, mas nenhuma consolidada. Esta proposta tem
como objetivo o estudo de algumas destas metodologias, afim
de analisar os diferentes resultados e as vantagens de cada uma.
Com o desenvolvimento de tecnologias de toque e de captura de movimento na área de interface homem–computador,
a busca por novos tipos de interface com o usuário se tornou
necessária. O estudo de novas formas de entrada mais intuitivas e naturais para sistemas digitais indicou os gestos manuais
como promissores nas interfaces homem–computador. Existem
muitas formas de gestos e para escolhê-los existem algumas
metodologias definidas, como nas Figuras 1 e 2 onde pode-se
ver exemplos de metodologias sendo aplicadas, mas não temos
uma consolidada, ou seja, não existe uma escolhida como
a melhor. Tendemos a pensar que especialistas conseguem
elaborar um conjunto de teste mais eficiente e intuitivo, mas
existem casos em que gestos criados por usuários comuns
foram preferidos [11]. Pode–se inferir por análises teóricas
que algum gesto seja melhor (mais rápido, eficiente, menos
custoso, etc) que outro, mas se durante um teste percebe–se
que um outro gesto considerado ruim teoricamente é o melhor
na prática, provavelmente é ele quem será escolhido para
o produto final [10]. Usuários podem preferir gestos mais
simples (fisicamente fáceis ou que demandem menos esforço
cognitivo, como uma mão no lugar de duas ou um dedo
no lugar de vários), no lugar dos gestos mais complexos
escolhidos por especialistas [11].
Index Terms—Usabilidade, Metodolodia, Gesto, Teste.
Abstract—With the development of technologies of touch and
motion capture in the area of human-computer interface, the
search for new types of interface with the user became very
important, studies were done with new forms of input that
are more intuitive and natural to digital systems, reaching the
conclusion that hand gestures are promising in these interfaces.
As the choice of hand gestures are not always intuitive and there
are different types for every application, users act in different
ways, an there is a need for studies and analyzes to determine the
choice of gestures. There are different possible methodologies to
make this choice, but no consolidated. This proposal aims to study
some of these methodologies, in order to analyze the different
results and the advantages of each.
Index Terms—Usability, methodology, gesture, test
B. Objetivos
Pretende-se realizar a comparação de diferentes metodologias para escolha de gestos para aplicação em superfície multitoque. A aplicação dos métodos pode gerar dois possíveis
resultados: grupos de gestos semelhantes ou grupos distintos.
Caso os resultados sejam distintos, pode-se comparar quais
foram as diferenças e o que gerou estas diferenças, no caso
em que forem semelhantes, pode-se analisar qual foi mais
eficiente, ou seja, mais rápido e barato. Nos dois casos,
também pode ser feita uma análise dos gestos escolhidos, se
possuem uma boa ergonomia, eficiência e, ao mesmo, tempo
não causem problemas como lesões por esforço repetitivo.
I. P ROPOSTA DE T RABALHO
Esta proposta envolve o estudo comparativo de diferentes
metodologias voltadas para a escolha de um grupo de gestos
para uma determinada aplicação em mesas interativas (computadores embarcados em um dispositivo fisicamente semelhante a uma mesa, possuindo uma tela de grandes dimensões
sensível ao toque como mecanismo principal de interação).
Estas mesas possuem pecualiaridades comparadas aos outros
dispositivos que também possuem uma tela interativa como
forma de entrada, além do mais os gestos podem ser feitos
através do toque, acima da mesa ou uma mistura destes dois
tipos [7]. O estudo específico de mesas tem crescido continuamente, sendo desenvolvidas diversas formas de aplicações para
elas, como: socialização de pacientes, terapia ocupacional, jogos, brain-storming, video–conferências e reuniões [1, 2, 4, 5,
6, 8, 9]. Para cada tipo de aplicação existe uma forma diferente
do usuário agir, existindo pesquisas sobre definição dos gestos
mais intuitivos para a realização de uma determinada tarefa
[3].
II. M ETODOLOGIA
Primeiramente será feito um levantamento de metodologias
existentes, verificando a possibilidade de organizá-las em grupos. Com estes grupos formados, ou mesmo no caso em que
exista uma quantidade não significativa para formar grupos,
serão escolhidas algumas metodologias representativas.
Cada metodologia escolhida será testada com um grupo
diferente de usuários, mas todos os grupos terão características
similares para que nenhum teste seja comprometido. Após a
29
Gutierrez e Nakamura
2
O resultado final, e mesmo parcial, poderá ser submetido a
alguns veículos de publicação como eventos (Ex: ITS, ICEC e
IHC) e revistas (Ex: ACM Transactions on Computer-Human
Interaction, Human Computer Interaction e User Modeling and
User-Adapted Interaction).
IV. R EFERÊNCIAS
[1] C. Ackad B. Kummerfeld J. Kay A. Clayphan, A.
Collins. Firestorm: a brainstorming application for collaborative group work at tabletops. New York, NY, USA, page
162–171, 2011.
[2] P. Olivier A. Kharrufa, D. Leat. Digital mysteries:
designing for learning at the tabletop. ACM International
Conference on Interactive Tabletops and Surfaces, New York,
NY, USA, page 197–206, 2010.
[3] U. Hinrichs S. Carpendale. Gestures in the wild: studying multi-touch gesture sequences on interactive tabletop exhibits. New York, NY, USA, pages 3023–3032, 2011.
[4] A. Höchtl J. Budzinski H. Reiterer F. Geyer, U. Pfeil.
Designing realitybased interfaces for creative group work.
New York, NY, USA, page 165–174, 2011.
[5] E. Gal P. L. (Tamar) Weiss L. Giusti, M. Zancanaro.
Tdimensions of collaboration on a tabletop interface for children with autism spectrum disorder. Proceedings of the 2011
annual conference on Human factors in computing systems,
New York, NY, USA, page 3295–3304, 2011.
[6] B. Rogers M. Masoodian, S. McKoy. Hands-on sharing:
collaborative document manipulation on a tabletop display
using bare hands. New York, NY, USA, page 25–31, 2007.
[7] S. Greenberg J. A. Jorge N. Marquardt, R. Jota. The
continuous interaction space: Interaction techniques unifying
touch and gesture on and above a digital surface - INTERACT
2011. (Lisbon, Portugal), 16 pages, September 5-9
[8] C. Valdes T. Feng M. Lintz H. Wang O. Shaer, M. Strait.
Enhancing genomic learning through tabletop interaction. Proceedings of the 2011 annual conference on Human factors in
computing systems, New York, NY, USA, page 2817–2826,
2011.
[9] S. Scott H. Kaufman S. Hunter, P. Maes. Memtable:
an integrated system for capture and recall of shared histories
in group workspaces. New York, NY, USA, page 3305–3314,
2011.
[10] W. F. Tichy. Should computer scientists experiment
more? Germany, 1997.
[11] M. R. Morris , J. O. Wobbrock , A. D. Wilson Understanding Users’ Preferences for Surface Gestures - WA,
USA, 2010.
Figure 1. Exemplo de usuário realizando teste para criação de grupo de
gestos [11]
Figure 2.
de gestos
Exemplo de usuários utilizando protótipo em papel para criação
criação dos gestos, estes serão comparados, sendo utilizada
uma porcentagem ainda a determinar para escolher se um
grupo é semelhante ou não. Dependendo do resultado será
adotada uma metodologia diferente, ou serão analisadas as
diferenças ou será analisada a eficiência das metodologias. Independente do resultado, os grupos de gestos serão analisados
no que diz respeito a sua ergonomia, ou seja, a qualidade do
gesto de forma que seja melhor para o usuário.
III. R ESULTADOS E SPERADOS
Espera-se que este estudo comparativo contribua para a área,
de forma a orientar outros projetos que envolvam criação de
aplicações para tabletop, para que consigam escolher o método
mais adequadro para a aquisição do grupo de gestos a ser
utilizado.
30
Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP
An evaluation of multi-touch gesture recognizers on
interactive tables
Mauricio Cirelli
Ricardo Nakamura
Escola Politécnica - Universidade de São Paulo
Email: [email protected]
Escola Politécnica - Universidade de São Paulo
Email: [email protected]
Abstract—In order to provide custom gestures to a specific
application, developers are often requested to deal with raw
touch input information at a very low level. There are several
approaches to simplify this task, such as defining multi-touch
gestures using formal languages or training a recognition algorithm by demonstration. Each of these techniques has its own
strenghts and weaknesses, which makes them more or less suitable
for a given set of gestures or a given set of applications. This
suggests that it is still an area for further investigations and
improvements. The goals of this research are to quantitatively
evaluate state-of-art gestures recognition systems and study how
different recognizers could work together in order to improve
the recognition speed and accuracy.
I.
I NTRODUCTION
Touch-enabled computers, tablets, smartphones and interactive tables are examples of devices which users can interact
with using pen or finger gestures [1]. Interaction designers
study how users interact with these devices and which gestures
are the most natural for a specific application and rely on an
efficient gestures recognition system in order to make these
gestures available to the application.
Multi-touch gestures may be classified into two categories:
symbolic and direct manipulation gestures [2]. The former
category contains gestures defined by their trajectory and
they represent something as a context-dependent sign. The
same gestures may have no meaning if performed in other
contexts. The latter are the most common gestures for direct
manipulation of interface objects, like moving or rotating an
image in a picture viewer application [3] or sharing ideas in a
brainstorming activity [4]. They are used in many different applications and, thus, are weakly dependent on the application’s
context.
II.
designers, because they can define new gestures by executing
them directly in a multi-touch surface. The system captures
touch information and stores it in order to configure a recognition algorithm. Several gestures recognition systems have been
proposed, such as the Dollar-family algorithms [10], [11] and
Lü’s and Li’s [12] Gesture Coder.
Current state of the art studies on tabletop interaction
lack of a widely-accepted benchmark of multi-touch gestures, which would be useful to compare different recognizers
quantitatively. Defining such benchmark is a very challenging
task: several user experiments with many different applications
should be performed in order to detect if there is a set of
common gestures, which of them are relevant for evaluating
a recognition system’s performance and which variables are
relevant to compare different recognizers.
Despite of being able to quantitatively evaluate different
recognizers, they would still have their own strenghts and
weaknesses, which makes them more or less suitable for a
given application. An application would benefit from using
more than one recognizer at the same time, collaboratively
improving the recognition and opening up a wider range of
interaction possibilities, as shown in Figure 1.
Using more than one gestures recognition method brings
other benefits:
1)
2)
3)
R ELATED W ORK
In our literature review, we have identified several gesture
recognition approaches, such as using formalisms to define
a multi-touch gesture. Proton++, are frameworks for defining
and recognizing multi-touch gestures based on a regular language, in which each low-level touch event is mapped to a
symbol. A string of symbols is processed by an automaton,
generating the gesture event. [5]. Kammer et al formalized
multi-touch gestures based on semiotics [6]. Context-free
grammars [7] and finite automata [8] have already been used
to define multi-touch gestures.
Another approach to create custom gestures is by demonstration [9]. This technique is more suitable for interface
31
They can be very specialized in a set of gestures,
which means that they would be very efficient on recognizing a very small set of gestures. Each of them,
working collaboratively, would provide all gestures
an application may need
Different algorithms could be implemented modularly, without the need to integrate all of them into a
single recognition system
Different algorithms could be used in order to recognize the same set of gestures and relying on another
decision process to determine which gesture is the
most probable one
III.
P ROPOSAL
As different gesture recognizers have different capabilities
and may be more suitable to a different set of gestures,
we propose a study to quantitatively evaluate their accuracy
and recognition speed in a common benchmark of multitouch gestures. In order to achieve this goal, we are going
to develop this benchmark and run several experiments using
the cross-validation method. We are also going to study how
Cirelli e Nakamura
In order to answer these questions we propose a layered
and modular gestures recognition system, adding a decisionmaking component, which is able to solve ambiguities and
divergences from the recognition algorithms, and a benchmark
of multi-touch gestures which would allow tabletop and interaction researchers to compare different gesture recognition
systems and help them to decide which is more suitable to
their application.
R EFERENCES
Fig. 1: Gestures recognizers capabilities
[1]
different recognizers can work together in order to improve
the recognition accuracy and speed.
We propose a layered architecture which includes different
gesture’s recognizers and a decision-making layer (Figure
2). Each recognition machine (RM) implements a different
algorithm and is specialized for a given set of gestures. The
classification results from each RM are post-processed by a
decision layer, which is able to solve any divergence between
the recognition machines and select the best classification.
[2]
[3]
[4]
[5]
[6]
[7]
[8]
[9]
[10]
Fig. 2: Multiple Recognizers Architecture
IV.
[11]
C ONCLUSION
In this paper we have proposed a research on gestures
recognition systems which is aimed to answer to two related
questions:
1)
2)
How different gestures recognition systems can be
compared to each other?
How different gestures recognition systems can work
together in order to improve the overall recognition
quality and allow interaction designers to use a wider
range of gestures in their applications?
32
[12]
K. Hinckley, G. Ramos, F. Guimbretiere, P. Baudisch, and M. Smith,
“Stitching: pen gestures that span multiple displays,” in Proceedings
of the working conference on Advanced visual interfaces, ser. AVI
’04. New York, NY, USA: ACM, 2004, p. 2331. [Online]. Available:
http://doi.acm.org/10.1145/989863.989866
J. O. Wobbrock, M. R. Morris, and A. D. Wilson, “User-defined
gestures for surface computing,” in Proceedings of the SIGCHI
Conference on Human Factors in Computing Systems, ser. CHI ’09.
New York, NY, USA: ACM, 2009, p. 10831092. [Online]. Available:
http://doi.acm.org/10.1145/1518701.1518866
M. R. Morris, A. Huang, A. Paepcke, and T. Winograd, “Cooperative
gestures: multi-user gestural interactions for co-located groupware,” in
Proceedings of the SIGCHI conference on Human Factors in computing
systems, ser. CHI ’06. New York, NY, USA: ACM, 2006, p. 12011210.
[Online]. Available: http://doi.acm.org/10.1145/1124772.1124952
A. Clayphan, A. Collins, C. Ackad, B. Kummerfeld, and J. Kay,
“Firestorm: a brainstorming application for collaborative group work at
tabletops,” ser. ITS ’11. New York, NY, USA: ACM, 2011, p. 162171.
[Online]. Available: http://doi.acm.org/10.1145/2076354.2076386
K. Kin, B. Hartmann, T. DeRose, and M. Agrawala,
“Proton++: a customizable declarative multitouch framework,”
in Proceedings of the 25th annual ACM symposium on
User interface software and technology, ser. UIST ’12. New
York, NY, USA: ACM, 2012, p. 477486. [Online]. Available:
http://doi.acm.org/10.1145/2380116.2380176
D. Kammer, J. Wojdziak, M. Keck, R. Groh, and S. Taranko,
“Towards a formalization of multi-touch gestures,” ser. ITS ’10.
New York, NY, USA: ACM, 2010, p. 4958. [Online]. Available:
http://doi.acm.org/10.1145/1936652.1936662
S. H. Khandkar and F. Maurer, “A domain specific language to
define gestures for multi-touch applications,” in Proceedings of
the 10th Workshop on Domain-Specific Modeling, ser. DSM ’10.
New York, NY, USA: ACM, 2010, p. 2:12:6. [Online]. Available:
http://doi.acm.org/10.1145/2060329.2060339
C. Appert and M. Beaudouin-Lafon, “SwingStates: adding state
machines to java and the swing toolkit,” vol. 38, no. 11, p. 11491182,
Sep. 2008. [Online]. Available: http://dx.doi.org/10.1002/spe.v38:11
D. Rubine, “Specifying gestures by example,” vol. 25,
no.
4,
p.
329337,
Jul.
1991.
[Online].
Available:
http://doi.acm.org/10.1145/127719.122753
J. O. Wobbrock, A. D. Wilson, and Y. Li, “Gestures without
libraries, toolkits or training: a $1 recognizer for user interface
prototypes,” in Proceedings of the 20th annual ACM symposium
on User interface software and technology, ser. UIST ’07. New
York, NY, USA: ACM, 2007, p. 159168. [Online]. Available:
http://doi.acm.org/10.1145/1294211.1294238
L. Anthony and J. O. Wobbrock, “$N-protractor: a fast and
accurate multistroke recognizer,” in Proceedings of Graphics Interface
2012, ser. GI ’12. Toronto, Ont., Canada, Canada: Canadian
Information Processing Society, 2012, p. 117120. [Online]. Available:
http://dl.acm.org/citation.cfm?id=2305276.2305296
H. L and Y. Li, “Gesture coder: a tool for programming multi-touch
gestures by demonstration,” in Proceedings of the 2012 ACM annual
conference on Human Factors in Computing Systems, ser. CHI ’12.
New York, NY, USA: ACM, 2012, p. 28752884. [Online]. Available:
http://doi.acm.org/10.1145/2208636.2208693
Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP
Gerenciamento de credenciais
para computação em nuvem
Aluno: Nelson Mimura Gonzalez
Orientadora: Prof. Dr. Tereza Cristina Melo de Brito Carvalho
Laboratório de Arquitetura e Redes de Computadores
Escola Politécnica, Universidade de São Paulo, Brasil
{nmimura, carvalho}@larc.usp.br
Resumo—O principal obstáculo ao adotar um solução de
computação em nuvem é segurança, incluindo isolamento de
recursos, controle de acesso, e proteção de dados sigilosos.
Mecanismos de autenticação, autorização, e contabilização são
fundamentais para identificar entidades, definir permissões, e
analisar o uso de recursos e serviços. Estes mecanismos podem
ser implementados usando credenciais, que definem o que a
entidade pode fazer, quais regras ela deve obedecer, e quais são
os atributos relevantes para identificá-la e administrá-la. Este
trabalho apresenta um arquitetura para gerenciamento de
credenciais em ambientes de computação em nuvem. Ela define
módulos para autenticação, autorização, e contabilização, e
também define pontos de integração para permitir que uma
solução baseada nesta arquitetura possa ser associada a outras
ferramentas e soluções de nuvem existentes. Comparado com o
ano anterior, foi desenvolvido um arcabouço e uma arquitetura
de gerenciamento de credenciais, bem como um protótipo para
analisar os modelos propostos.
the usage of resources and services. These mechanisms can be
implemented using credentials, which define what the entity is
allowed to do, what rules it has to comply with, and what are the
important attributes to identify and manage it. This work
presents a credential management architecture for cloud
computing. It defines modules for AAA, and integration points to
allow a credential solution (based on the proposed architecture)
to be associated with an existing cloud application or service.
Compared to last year, it was proposed in the research a
framework and an architecture for credential management, as
well as a prototype to test the proposed models.
I. OBJETIVOS E MOTIVAÇÃO
O modelo de computação em nuvem permite maximizar o
aproveitamento dos recursos alocados, reduzindo custos e
otimizando a utilização da infraestrutura oferecida [1].
Contudo, alguns percalços impedem sua adoção de maneira
mais extensiva pelo mercado. O mais notável destes obstáculos
é a segurança dos elementos que compõem o ecossistema da
nuvem [2], abrangendo não apenas a infraestrutura oferecida
como serviço, mas também a plataforma sobre a qual
aplicações são desenvolvidas e as entidades deste ecossistema.
Abstract—The main concern related to cloud computing
technology is security, which includes resource isolation, access
control, and protection of sensitive data. Authentication,
authorization, and accounting (AAA) mechanisms are
fundamental to identify entities, define permissions, and assess
Fig. 1. Arcabouço de gerenciamento de credenciais para computação em nuvem
33
Gonzalez e Carvalho
Questões como isolamento de recursos, confidencialidade e
integridade de dados podem ser solucionadas através de
mecanismos inteligentes de controle de autenticação e
autorização (acesso) [3]. Uma maneira de implementar estes
mecanismos é através de credenciais que concentrem
informações sobre estas entidades e seus papéis dentro do
contexto da nuvem, estabelecendo as permissões, obrigações e
dados relevantes.
Este trabalho tem como objetivo propor um arcabouço de
gerenciamento de credenciais e, posteriormente, construir uma
arquitetura para autenticação e autorização em computação
em nuvem. Para isto é realizado um estudo sobre as principais
características de computação em nuvem, os problemas de
segurança encontrados e as respectivas relevâncias dentro do
cenário de cloud. Posteriormente é realizado um estudo do
estado da arte em termos de gerenciamento de credenciais e
identidades. Com os conceitos consolidados é possível
identificar os pontos que podem ser cobertos pela arquitetura
proposta, culminando na criação de um protótipo ou prova de
conceito para verificar a aplicabilidade da mesma.
Fig. 2. Proposta de arquitetura de gerenciamento de credenciais
O protótipo implementado foi integrado ao OpenStack,
uma ferramenta de código aberto para construção de nuvens.
Foram desenvolvidas diversas integrações com os serviços do
OpenStack, em particular com o serviço Keystone, que provê
autenticação básica para usuários da nuvem. O SGC
implementado permitiu o estabelecimento de canais seguros de
comunicação para a troca de credenciais (que originalmente era
feita de maneira insegura). Também foi implementado um
modelo hierárquico de credenciais para controle de acesso aos
recursos e serviços oferecidos pelo OpenStack. Este modelo
permite estabelecer regras para cada usuário, bem como
genéricas para a nuvem como um todo, e também regras
específicas para cada serviço ou para cada chamada de função.
II. CONCEITOS E ARCABOUÇO PROPOSTO
O modelo de computação em nuvem é definido pelo NIST
(National Institute of Standards and Technology) através das
seguintes características [1]: self-service sob demanda, acesso
ubíquo via rede, recursos e serviços compartilhados,
elasticidade, e balanceamento de carga e monitoração. O NIST
também define três tipos de serviços: SaaS (software como
serviço), aplicações oferecidas através da nuvem; PaaS
(plataforma como serviço), plataformas para desenvolvimento
e hospedagem de aplicações; e IaaS (infraestrutura como
serviço), acesso direto a recursos computacionais
IV. CONCLUSÃO
A pesquisa revelou que um sistema robusto para
autenticação e autorização permite resolver diversos problemas
de segurança dentro da nuvem. Inicialmente foi elaborado um
arcabouço para concentrar os conceitos necessários para o
desenvolvimento de uma solução de gerenciamento de
credenciais, o que culminou na definição de uma arquitetura e
finalmente o protótipo do sistema de gerenciamento de
credenciais (SGC).
A credencial é uma coleção de atributos relativos a uma
entidade específica. São propostas três categorias para
classificar estas credenciais: metadados (informações sobre a
entidade), permissões (o que a entidade pode fazer), e
obrigações (regras que a entidade deve cumprir).
Com base nestes conceitos foi desenvolvido o arcabouço de
gerenciamento de credenciais apresentado na Figura 1. Ele
concentra conceitos importantes ao adotar ou desenvolver uma
solução de gerenciamento de credenciais para computação em
nuvem, como os tipos de credenciais, o ciclo de vida das
mesmas, os tipos de entidades a serem controladas, os
requisitos de segurança da aplicação [4], e as características da
nuvem (tipo de serviço e modelo de organização).
III.
Com relação à trabalhos futuros, o objetivo é finalizar o
texto da dissertação e encaminhar a defesa de mestrado, visto
que a pesquisa já se encontra consolidada.
REFERENCES
[1]
ARQUITETURA PROPOSTA E PROTÓTIPO
[2]
Com base nos conceitos de credenciais levantados, propõese o modelo para implementação de um Sistema de
Gerenciamento de Credenciais (SGC) apresentado na Figura 2.
O receptor e o despachador são elementos que permitem a
integração com outros serviços e soluções de nuvem. Há
também módulos específicos para autenticação, autorização, e
contabilização do uso de recursos e serviços. Também são
definidos elementos para comprovação de atributos, emissão de
credenciais e controle das mesmas. Finalmente, um daemon
permite o controle transparente do sistema como um todo.
[3]
[4]
34
P. Mell and T. Grance, “The NIST Definition of Cloud
Computing,” NIST Special Publication 800-145, p. 7, Setembro
2011.
M. Armbrust, A. Fox, R. Griffith, A. D. Joseph, R. Katz, A.
Konwinski, G. Lee, D. Patterson, A. Rabkin, I. Stoica et al.,
“Above the clouds – a view of cloud computing,” Technical report,
Tech. Rep., 2010.
A. Celesti, F. Tusa, M. Villari, and A. Puliafito, “How to enhance
cloud architectures to enable cross-federation,” in Cloud
Computing (CLOUD), 2010 IEEE 3rd International Conference
on. IEEE, 2010, pp. 337–345.
N. M. Gonzalez, C. C. Miers, F. Redígolo, M. Simplício, T.
Carvalho, M. Näslund, and M. Pourzandi, “A quantitative analysis
of current security concerns and solutions for cloud computing,”
Journal of Cloud Computing: Advances, Systems and
Applications, 2012.
Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP
McEliece Cryptossytem in Hardware with binary
QuasiDyadic Goppa Codes
Pedro Maat C. Massolino and Wilson Vicente Ruggiero
Department of Computer Engineering and Digital Systems (PCS),
Escola Politécnica, University of Sao Paulo, Brazil.
{pmassolino,wilson}@larc.usp.br
Abstract—Public key cryptographic primitives are essential
to enable secure communications on public networks or public
mediums. Those cryptographic primitives can be deployed as
software libraries or hardware coprocessors. Hardware coprocessors are mostly employed in Systems on Chip (SoC) scenarios,
embedded devices, or application-specific servers. Available solutions based on RSA or Elliptic Curve Cryptography (ECC) are
highly processing-intensive because of the underlying extended
precision modular arithmetic, and as consequence they are not
available on the most constrained platforms. For this reason we
investigate another public key encryption scheme implementable
with lightweight arithmetic, the code based McEliece scheme.
Because of the simpler arithmetic it has better timing results
when compared to RSA or ECC. With the adoption of QuasiDyadic Goppa (QD-Goppa) codes it is possible to attain practical
security levels with reasonably small keys. To evaluate the
implementation of this scheme in hardware, we are investigating
a scalable architecture that can be reconfigured according to
project requirements. This architecture is suitable for all usual
security levels, from 80 to 256-bit security.
I.
I NTRODUCTION
Error correcting codes have been widely used in electromagnetic communications over the air or space, and in media
devices, such as Compact Discs, DVD’s or memory cards.
Another application for error correcting codes is cryptography [1]. Cryptography is essential to keep data confidentiality
and integrity in a world where almost all information has been
digitized.
Cryptography algorithms for confidentiality can have one
secret key, that must be common to involved parties, or two
keys with public key algorithms. In a public key algorithm for
confidentiality a public key is used for data encryption, while
a private key is used for data decryption. With these two keys
settings, any person with the public key can send a confidential
message to the respective owner of the private key.
Public key algorithm McEliece [1] is based on the difficulty
to decode generic error correcting codes. It was proposed
with binary Goppa codes around the same time of RSA [2],
because of large public keys it did not receive much attention.
To reduce public key size, a subset of Goppa codes called
Quasi-Dyadic Goppa (QD-Goppa) codes [3] were selected to
be used. In QD-Goppa codes, the public key is a quasi-dyadic
matrix. Quasi-dyadic matrices are composed of several dyadic
matrices, which can be stored only by their first row. With
their internal matrices being stored with only their first row is
possible to compact the public key for storage or transmission.
Software implementation results of McEliece with binary
35
QD-Goppa codes on computers [4] and microcontrollers [5]
were made. On the other hand, hardware implementations were
made for binary Goppa codes [6] [7] [8] that could work with
QD-Goppa codes, but do not profit from QD-Goppa specific
structure. Also, almost all those hardware implementations are
in the respect of one parameter for security level of 80-bits
presented in [9]. Shoufan et al. [7] has changed one part of
the 80-bits parameter and becoming 103-bits security level, but
not considering newer attacks.
Our work fills the gap of hardware implementations of
McEliece cryptossytem with binary QD-Goppa codes. Also,
we intended to implement these codes for 80, 112, 128 and
256-bits security level to analyze possible future usages.
II.
E NCRYPTION AND D ECRYPTION A LGORITHMS
McEliece with binary QD-Goppa codes have as public
key the quasi-dyadic matrix A and as private keys the array
L and polynomial g. Private key polynomial g is only used
to compute array d[i] = (g 2 (L[i]))−1 . To reduce decryption
computational cost we are using d and L as private keys.
In Figure 1 are depicted McEliece encryption and decryption algorithms flows. In this figure circle represent steps of
algorithm and boxes represents data. Boxes with dashed lines
are the input of algorithm, while full boxes are the output of
the steps. Public key A is represented as box with erasure
and private key is represented as a box with dots. McEliece
encryption algorithm has two steps: “Codeword calculation”
and “Error addition”.
In “Codeword calculation” step, the algorithm generates a
codeword by copying the entire plaintext and padding with the
multiplication of matrix A with the plaintext.
“Error addition” step adds both error and codeword arrays
together, thusly generating the ciphertext. The error array is
generated randomly during encryption to be added on the
codeword, to not make it entirely visible. The error array has
small number of random positions with 1 and remaining 0.
While McEliece encryption algorithm is very straightforward, decryption algorithm is more complex and have more
than one type [10]. Our implementation will be based on
alternant algorithm [10]. McEliece decryption with alternant
algorithm has three main steps: “Syndrome calculation”, “Find
key equation” and “Roots search”.
“Syndrome calculation” step multiply the ciphertext array
by matrix v, interpreted as an array of arrays, and array d
to generate the syndrome. Matrix v is a Vandermonde matrix
Massolino e Ruggiero
TABLE I.
M C E LIECE WITH BINARY QD-G OPPA RESULTS IN X ILINX
S PARTAN -3AN, F REQUENCY 100M HZ AND T IME IN MICRO SECONDS
Sec.
level
80
112
128
256
(a) Encryption Algorithm
(b) Decryption Algorithm
defined by the support values L. v can be generated on the
fly or precomputed during key generation. For generating v
on the fly it has a special structure, where the next line is one
exponent greater than the line before. After those calculations,
the generated syndrome is inverted so it can be used in “Find
Key Equation”.
“Find key equation” step is an extended euclidean algorithm for polynomials, that stops in the middle of calculation.
The algorithm takes the syndrome array and interpret it as
a polynomial of the same degree of the syndrome array size
minus one, known as a. Also initialize auxiliary polynomials
b = x(syndrome array size) , c = 0, l = 1. This algorithm in each
step computes a multiplying factor h to reduce the polynomial
a by the polynomial b in one coefficient. This multiplying
factor h is also used in polynomial c and subtracted from
polynomial l. When polynomial a is smaller than b, both and
l and c change places with each other. When polynomial b
has degree less than half of original polynomial a degree, the
algorithm stops and result σ is in polynomial c.
“Roots search” step is a brute force search for the roots of
polynomial σ. In this step all support values L are evaluated
in σ, and each value Li that is a root, indicates an error in
position i of the ciphertext.
Big
Decryption
Slices
Time
5970
150
5950
363
5948
405
6234
1875
ACKNOWLEDGMENT
This work has been supported by the Intel Lab’s University
Research Office.
R EFERENCES
[1]
[2]
[3]
[4]
[5]
[6]
[7]
M ETHODOLOGY
The methodology adopted is divide and conquer. Both
algorithms are divided in steps, and each step has it is own
projected circuit. The step circuits are not projected to operate
in pipeline fashion, so only after all steps are computed it can
start a new encryption or decryption. All circuits are projected
to operate independently and values for it is own calculation
must be available during all calculation process. All circuits
were designed to be parametric in area occupied, except “Find
Key Equation”, in order to use parallelism in operations.
IV.
Encryption
Slices
Time
514
25
640
32
641
40
675
140
results for occupied space and time are in Table I. In the results
are shown two strategies of circuit construction, to demonstrate
tradeoff of area and time. In encryption from the small setting
to big setting area doubles, but time decreases much more than
double. This effect is caused, because in the small area setting
the circuit control occupies a lot of the total area, in bigger
area settings the circuit control simplifies a lot, so the area
becomes a lot less.
Fig. 1. McEliece encryption/decryption algorithm flow for QD-Goppa codes
III.
Small
Encryption
Decryption
Slices
Time
Slices
Time
243
650
1949
631
392
1113
2330
1196
393
1391
2329
1389
696
6242
3227
5269
F INAL R ESULTS
[8]
[9]
[10]
For comparison and results, the architecture is described in
VHDL and synthesized in Xilinx ISE for Spartan-3AN. Final
36
R. McEliece, “A Public-Key Cryptosystem Based On Algebraic Coding
Theory,” Deep Space Network Progress Report, vol. 44, pp. 114–116,
jan 1978.
R. L. Rivest, A. Shamir, and L. Adleman, “A method for obtaining digital signatures and public-key cryptosystems,” Commun. ACM,
vol. 21, no. 2, pp. 120–126, feb 1978, http://doi.acm.org/10.1145/
359340.359342.
R. Misoczki and P. Barreto, “Compact McEliece Keys from Goppa
Codes,” in Selected Areas in Cryptography, ser. Lecture Notes in
Computer Science, M. Jacobson, V. Rijmen, and R. Safavi-Naini, Eds.
Berlin, Germany: Springer Berlin / Heidelberg, 2009, vol. 5867, pp.
376–392, http://dx.doi.org/10.1007/978-3-642-05445-7_24.
G. Hoffmann, “Implementation of McEliece using quasi-dyadic Goppa
codes,” bachelor Thesis. http://www.cdc.informatik.tu-darmstadt.de/
reports/reports/Gerhard_Hoffmann.bachelor.pdf.
S. Heyse, “Implementation of mceliece based on quasi-dyadic goppa
codes for embedded devices,” in Post-Quantum Cryptography, ser. Lecture Notes in Computer Science. Springer Berlin Heidelberg, 2011, vol.
7071, pp. 143–162, http://dx.doi.org/10.1007/978-3-642-25405-5_10.
T. Eisenbarth, T. Güneysu, S. Heyse, and C. Paar, “MicroEliece:
McEliece for Embedded Devices,” in Cryptographic Hardware and
Embedded Systems - CHES 2009, ser. Lecture Notes in Computer
Science, C. Clavier and K. Gaj, Eds.
Berlin, Germany: Springer
Berlin / Heidelberg, 2009, vol. 5747, pp. 49–64, http://dx.doi.org/10.
1007/978-3-642-04138-9_4.
A. Shoufan, T. Wink, H. Molter, S. Huss, and E. Kohnert, “A Novel
Cryptoprocessor Architecture for the McEliece Public-Key Cryptosystem,” IEEE Transactions on Computers, vol. 59, no. 11, pp. 1533 –1546,
2010, http://dx.doi.org/10.1109/TC.2010.115.
S. Ghosh, J. Delvaux, L. Uhsadel, and I. Verbauwhede, “A Speed Area
Optimized Embedded Co-processor for McEliece Cryptosystem,” in
23rd IEEE International Conference on Application-specific Systems,
Architectures and Processors (ASAP 2012). New York City - USA:
IEEE, 2012, https://lirias.kuleuven.be/handle/123456789/349577.
D. Bernstein, T. Lange, and C. Peters, “Attacking and Defending the
McEliece Cryptosystem,” in Post-Quantum Cryptography, ser. Lecture
Notes in Computer Science, J. Buchmann and J. Ding, Eds. Berlin,
Germany: Springer Berlin / Heidelberg, 2008, vol. 5299, pp. 31–46,
http://dx.doi.org/10.1007/978-3-540-88403-3_3.
W. C. Huffman and V. Pless, Fundamentals of Error-Correcting Codes.
Cambridge, England: Cambridge University Press, 2003.
Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP
Utilização de Atributos do Estado no Mapeamento
de Ações entre Soluções de Diferentes Problemas
Rafael Lemes Beirigo
Anna Helena Reali Costa
Escola Politécnica
Universidade de São Paulo
São Paulo, São Paulo, Brasil
Email: [email protected]
Escola Politécnica
Universidade de São Paulo
São Paulo, São Paulo, Brasil
Email: [email protected]
Resumo—Para contornar o lento processo envolvido no
Aprendizado por Reforço, por este se dar na base da tentativa e erro, podem ser utilizadas técnicas de Transferência de
Conhecimento, onde o Keepaway é muitas vezes utilizado como
plataforma de avaliação de novas técnicas. O presente trabalho
propõe e avalia uma estratégia de mapeamento de ações que
utiliza atributos presentes na descrição fatorada dos estados
dos problemas envolvidos, visando reaproveitar o conhecimento
adquirido em um problema na solução de um novo problema
similar. Os resultados preliminares alcançados sugerem a viabilidade dessa estratégia no reuso de conhecimento.
I.
I NTRODUÇÃO
No Aprendizado por Reforço (em inglês, Reinforcement
Learning (RL)) [1], um agente busca maximizar uma medida
de desempenho que reflete as recompensas acumuladas em
sua interação com o ambiente. Como esse processo se dá por
tentativa e erro, ele pode ser muito demorado. Para contornar
esse problema, utiliza-se Transferência de Conhecimento (TC)
[2], onde o conhecimento adquirido na solução de um problema pode ser aplicado para acelerar o aprendizado em um
problema similar.
Para que a transferência seja possível, pode ser necessário
um mapeamento entre as tarefas envolvidas, no qual são
utilizados elementos da descrição dos estados e ações do
ambiente de aprendizado. O Keepaway [3] é frequentemente
utilizado como plataforma para estudos de TC, entretanto com
um foco mais acentuado no mapeamento de estados, como
apresentado em [4], [5].
A descrição das ações do Keepaway depende diretamente
da situação dos agentes envolvidos, que por sua vez está relacionada a atributos presente na descrição fatorada dos estados
do problema. Neste trabalho, propõe-se a utilização desses
atributos de forma a auxiliar no mapeamento entre as ações de
diferentes políticas de atuações em jogos do Keepaway, e com
isso melhorar o desempenho no aprendizado que utiliza TC.
São apresentados resultados iniciais que sugerem a viabilidade
da estratégia proposta.
II.
M ETODOLOGIA E D ESENVOLVIMENTO
No simulador Keepaway [3], os jogadores, keepers e takers,
competem pela posse de bola, inicialmente dada aos keepers.
O objetivo dos keepers é aprender uma estratégia de jogo
que maximize a duração da posse de bola. Cada keeper é
referenciado por ki , onde i varia de 1 ao número total de
37
Figura 1. Exemplo de uma situação no jogo 3vs2 no simulador Keepaway
(amarelos são keepers e azuis, takers)
keepers e aumenta com a distância do keeper à bola. Assim,
em um jogo de 3 keepers contra 2 takers, 3vs2, k1 é o keeper
mais próximo da bola e k3 , o mais distante, como mostrado
na figura 1.
Neste trabalho, a TC foi proposta da seguinte maneira:
inicialmente os keepers realizam um aprendizado em um jogo
3vs2, aprendendo uma política de atuação π3vs2 , que define
otimamente qual ação deve ser aplicada em cada situação de
jogo st , isto é, π3vs2 (st ) = at . Após isso, o conhecimento
adquirido é usado em um novo jogo 4vs3, onde o keeper k4 ,
além do próprio k3 , recebe o conhecimento adquirido pelo k3
no jogo anterior.
Formalmente, cada vez que um estado stnew é observado
no novo jogo, aplica-se uma função que mapeia o estado do
novo problema (4vs3) em um estado do problema conhecido
(3vs2), definida por ξS : Snew → Sold , com stnew ∈ Snew .
Assim, a política conhecida π3vs2 define a ação que deverá
ser executada π3vs2 (ξS (stnew )) = aold
Um mapeamento das ações é definido pela função ξA :
Aold → Anew , com aold ∈ Aold e Anew o conjunto de ações
no jogo 4vs3. Como nem sempre os problemas possuem as
mesmas ações, torna-se necessário uma estratégia de mapeamento que reflita as características específicas dos domínios
de aprendizado.
No Keepaway, no momento de executar a ação, cada
Beirigo e Costa
Figura 2.
Formas distintas de mapeamento entre ações
keeper pode escolher entre manter a posse de bola ou tocar para um de seus companheiros de time. Dessa forma,
quando passamos de uma versão 3vs2 para 4vs3 o conjunto
de ações possíveis, antes A3vs2 = {hold, passk2 , passk3 },
recebe uma nova ação, passar para o quarto keeper, ficando
A4vs3 = {hold, passk2 , passk3 , passk4 }.
Assim, Aold = A3vs2 e Anew = A4vs3 e uma definição
frequentemente utilizada é utilizar a função identidade para as
ações hold e passk2 e mapear a ação aold = passk3 para
passk3 e passk4 , executando cada uma dessas ações 50% das
vezes segundo uma distribuição uniforme, referenciada nesse
trabalho por FF. A intuição por trás desse mapeamento pode
ser explicada pelo fato de que o keeper k4 é o companheiro
de time mais distante do keeper que tem a posse de bola em
um jogo 4vs3, da mesma maneira que k3 o é em um jogo
3vs2, sugerindo o mapeamento de forma natural, sendo esse
mapeamento frequentemente utilizado na literatura [4], [5].
A proposta deste trabalho utiliza o fato de que um atributo
utilizado na descrição dos estados é a distância à bola [3]
e as ações a serem aplicadas dependem diretamente dessa
classificação. Dessa maneira, foi testada uma nova estratégias de mapeamento de ações, em que a função ξA é uma
probabilidade relacionada à distância dos keepers à bola, e
contemplam o mapeamento da ação passk3 do jogo 3vs2
em passk3 e passk4 do jogo 4vs3, como realizado mais
comumente na literatura [4], [5]. A estratégia de mapeamento
analisada utiliza o inverso quadrático da distância à bola para
a obtenção da probabilidade de mapeamento p segundo a
−2
fórmula p(passki ) = Pd(i)
, onde d(i) é a distância do
d(j)−2
Figura 3.
representada pela estratégia FF, corroborando com o fato de
que é necessário utilizar uma estratégia mais sofisticada para a
escolha de quando executar ou não a ação passk4 . Apesar de
haver sobreposição de barras de erros entre os desempenhos de
IQ e FF, a diferença entre eles parece significativa, e pretendese como próximo passo a realização de análise estatística
com ferramental mais sofisticado para avaliar de forma mais
contundente a qualidade da aplicação da estratégia proposta.
Os resultados obtidos sugerem que a utilização de atributos
presentes na descrição fatorada de estados do ambiente no
mapeamento entre tarefas que possuem conjuntos de ações
distintos pode implicar em uma melhora no desempenho da
transferência de conhecimento. Futuramente pretende-se avaliar outras estratégias, também em outros domínios, buscando
verificar sua aplicabilidade em diferentes classes de problemas.
AGRADECIMENTOS
j
keeper ki à bola. Assim, o mapeamento sugerido é estocástico,
incluindo todos os jogadores, com probabilidade de passe
p(passki ), a qual depende da situação atual do jogo para ser
definida. Outras propostas podem ser exploradas.
III.
Desempenho das Estratégias de Mapeamento
Agradecemos ao apoio fornecido pela CNPq Procs.
Ns. 311058/2011-6 e 153547/2012-0 e FAPESP Proc. N.
2011/19280-8.
R ESULTADOS E D ISCUSSÃO
R EFERÊNCIAS
A figura 3 mostra a duração média da posse de bola em um
jogo 4vs3 utilizando a política π3vs2 aprendida no jogo 3vs2,
usando ξS que define o estado st3vs2 ignorando os elementos
mais distantes no jogo 4vs3 (keeper k4 e taker t3). Duas
formas de mapeamento de ações ξA foram avaliadas: FF, que
realiza o mapeamento segundo uma probabilidade fixa e IQ,
que utiliza um atributo da descrição dos estados do ambiente
para refinar o mapeamento, conforme ilustra a figura 2. Os
resultados apresentados correspondem à média do desempenho
da aplicação de TC em 100 jogos 4vs3, cada um com duração
de 900 episódios.
Os resultados apresentados na figura 3, sugerem que a
escolha puramente aleatória de ações perde em desempenho,
38
[1]
[2]
[3]
[4]
[5]
R. S. Sutton and A. G. Barto, Reinforcement learning: An introduction.
Cambridge Univ Press, 1998.
M. E. Taylor and P. Stone, “Transfer learning for reinforcement learning
domains: A survey.” The Journal of Machine Learning Research, vol. 10,
pp. 1633–1685, 2009.
P. Stone, R. Sutton, and S. Singh, “Reinforcement learning for 3 vs. 2
keepaway,” in RoboCup 2000: Robot Soccer World Cup IV, ser. Lecture
Notes in Computer Science, P. Stone, T. Balch, and G. Kraetzschmar,
Eds. Springer Berlin Heidelberg, 2001, vol. 2019, pp. 249–258.
M. E. Taylor, P. Stone, and Y. Liu, “Transfer learning via inter-task
mappings for temporal difference learning,” Journal of Machine Learning
Research, vol. 8, no. 1, pp. 2125–2167, 2007.
G. Konidaris, I. Scheidwasser, and A. Barto, “Transfer in reinforcement
learning via shared features,” The Journal of Machine Learning Research,
pp. 1333–1371, 2012.
Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP
Modelo em Rede de Petri Colorida para o padrão
IEEE 802.15.4
Renan C. A. Alves
Cíntia Borges Margi
Escola Politécnica – Universidade de São Paulo
São Paulo, Brazil
Email: [email protected]
Escola Politécnica – Universidade de São Paulo
São Paulo, Brazil
Email: [email protected]
Resumo—O padrão IEEE 802.15.4 é amplamente utilizado
em aplicações de redes de sensores sem fio. Enquanto trabalhos
anteriores realizaram a modelagem com redes de Petri, o foco
foi dado ao CSMA/CA, desconsiderando o modo Beacon. A
principal contribuição deste trabalho é modelar este modo de
operação do padrão através de redes de Petri coloridas, a partir
do trabalho anterior baseado em rede de Petri estocástica. O
modelo foi implementado no software CPN tools e os resultados
comparados com simulações em NS2, aferindo a vazão para
diferentes cenários.
Abstract—The IEEE 802.15.4 standard is widely used in
wireless sensor network applications. While previous work had
attempted to model such protocol based on Petri nets, authors
only considered the CSMA/CA operation, leaving aside the
Beacon mode implications. The main contribution in this work
is to model the Beacon enabled operation mode of the standard,
by means of Colored Petri nets, from a previous stochastic Petri
net work. The model will be implemented on CPN tools software
and the results will be compared to NS2 simulations, measuring
throughput for different scenarios.
I.
I NTRODUÇÃO
Redes de sensores sem-fio (RSSF) é um tipo especial de
redes sem-fio, usadas comumente em aplicações de monitoramento. Em geral não possuem infraestrutura fixa, sendo
considerado um caso particular de redes ad-hoc de múltiplos
saltos (MANETs) [1]. Os dispositivos empregados nestas redes
tipicamente possuem capacidades reduzidas de processamento,
memória disponível, banda e fonte de energia [2].
O padrão IEEE 802.15.4 [3] se destaca na área de RSSF,
pois foi projetado para cobrir as necessidades de plataformas
com recursos energéticos e computacionais limitados. Assim,
modelar um protocolo de rede sem-fio, em particular o padrão
IEEE 802.15.4, tem potencial para promover o estudo de
ajuste de parâmetros do protocolo, possibilitando simulações e
implementações com parâmetros previamente ajustados através
do modelo.
Houve esforços para modelar analiticamente o padrão
IEEE 802.15.4, a maioria baseado em cadeia de Markov [4]–
[8], nos quais o maior foco está nas hipóteses do cálculo
de probabilidades. Além disso, tendem a possuir um grande
número de estados, tornando o modelo pouco intuitivo e
dificultando o uso continuado do modelo.
Uma outra abordagem sugerida por Shuabi et al. [9] é
baseada em Redes de Petri (RdP). A estrutura do modelo final é
bastante simples, uma vez que apresenta apenas quatro lugares.
39
Porém, este modelo representa apenas o CSMA/CA do padrão
IEEE 802.15.4 e a contenção de acesso ao meio foi modelada
analiticamente, alheio ao modelo em RdP.
Este trabalho é uma melhoria, pois o modelo proposto
abrange o modo Beacon do padrão IEEE 802.15.4 de forma
intuitiva e auto-contida. Foi construído um modelo em Rede de
Petri Colorida baseado em um modelo já proposto em Rede de
Petri temporal estocástica [10], tema de trabalho apresentado
no I WPG-EC. Não há necessidade de calcular probabilidades
explicitamente. Pretende-se utilizar a simetria do problema
para construir um modelo mais geral com as redes coloridas.
Os resultados foram verificados através de simulação.
II.
BACKGROUND
O padrão IEEE 802.15.4 [11] possui o modo de operação
com Beacon, que faz uso de uma estrutura denominada superframe utilizada para sincronizar e organizar a troca de dados
entre os nós da rede.
Esta estrutura começa com um pacote de Beacon enviado
pelo nó coordenador, que contém informações de sincronismo
e organização do superframe a seguir. Depois deste frame, há
um período no qual os nós competem pelo acesso ao meio,
o CAP – Contention Access Period. É utilizado um algoritmo
baseado em slotted CSMA/CA (Carrier Sense Multiple Access
with Collision Avoidance). Após o CAP, pode existir um
outro período no qual os frames são enviados sem competição
(CFP – contention free period). Por fim, pode haver um
período de inatividade, encerrado quando o próximo Beacon
for transmitido.
O outro modo de operação é o modo sem Beacon, no qual
não há nó coordenador e um algoritmo baseado em unslotted
CSMA/CA é utilizado.
As redes de Petri são uma ferramenta de modelagem
poderosa, inicialmente proposta por Carl Adam Petri em 1962.
Neste trabalho serão utilizadas as Redes de Petri coloridas [12],
que permite a distinção entre marcas. Este formalismo é
adequado pois o problema a ser modelado possui grau de
simetria elevado, uma vez que cada nó da rede pode ser
representado em um só segmento invés de ser necessário
replicar o modelo para cada nó, que seria o caso em redes
clássicas.
III.
VALIDAÇÃO
Esta sessão apresenta os resultados de validação comparando valores obtidos através da simulação do modelo proposto
Alves e Margi
e comparação com simulações utilizando o Network Simulator 2 (NS2) [13].
todos os frames que seriam armazenados no buffer durante o
período ocioso).
A métrica escolhida para comparar os resultados do modelo
e da simulação é a vazão, definida como a quantidade de
frames enviados por um nó que foram entregues com sucesso
ao seu destino em uma unidade de tempo. No escopo do
modelo, a vazão do nó é calculada através da quantidade de
disparos da transição que representa o envio de frames.
Todos os casos atingem a saturação nos últimos dois
cenários. Os resultados do modelo foram levemente inferiores
nestes cenários, significando que é conservativo em relação a
esta métrica.
Dez cenários foram utilizados para comparar modelo e
simulação, variando a taxa de chegada de 1 até 512 frames/s.
O número total de nós é dois, o limite de buffer foi escolhido
como 5 frames e o tamanho dos frames foi 64 bytes.
Neste trabalho um modelo baseado em Rede de Petri
Colorida do padrão IEEE 802.15.4 foi proposto, contemplando
o modo Beacon. A maioria das variáveis do modelo são facilmente ajustáveis no modelo, como parâmetros do superframe
(BO e SO), tamanho do backoff e número de tentativas.
Os parâmetro utilizados estão resumidos na Tabela I. O
valor dos parâmetros de configuração do padrão IEEE 802.15.4
Beacon Order (BO) e Superframe Order (SO) utilizados foram
7 e 8 respectivamente, resultando nas duas primeiras linhas da
Tabela I. Os outros valores desta tabela são predefinidos pelo
padrão, e são os mesmos utilizados na implementação do NS2.
Tabela I.
T EMPOS – MODELO DE NÓ
Propriedade
Tempo Ativo
Tempo total
Atraso de transmissão
Valor [ms]
1966.08
3932.16
3.31
Valor [symb]
122880
245760
206
Throughput [frm/s]
50
45
40
35
30
25
20
15
10
5
0
1
2
4
Trabalhos futuros incluem a comparação de resultados com
maior variabilidade de parâmetros, como SO, BO, número de
nós e tamanho de buffer. Além disso, outras métricas são
desejáveis, como taxa de perdas, número médio de colisões
e gasto de energia.
[1]
[2]
256
512
[4]
[5]
[6]
0
1
2
NS2 (high buf)
Figura 1.
A única métrica aferida foi a vazão, cujo valor oferecido
pelo modelo é próximo de simulações no NS2, apesar de
discrepâncias nos cenários de 1 a 3.
[3]
128
3
4
5
6
Experiment number
NS2 (low buf)
C ONCLUSÃO
R EFERÊNCIAS
Os resultados de vazão são exibidos na Figura 1. Os
valores no cenário 0 e 1 foram bastante próximos para ambas
simulações e para o modelo, pois o buffer reduzido ainda é
capaz de suportar a baixa demanda de tráfego.
Arrival Rate [frm/s]
8
16
32
64
IV.
7
8
[7]
9
Petri Net
[8]
Vazão em frames por segundo
Nos cenários 2 e 3, a limitação de buffer faz com que a
vazão das simulações com buffer grande seja pelo menos uma
vez e meia maior que a vazão do modelo ou da simulação com
buffer reduzido, estes dois últimos com resultados similares.
A capacidade de buffer reduzida tem grande efeito durante o
período ocioso do superframe, uma vez que frames continuam
chegando à fila do nó, porém não é permitido que se envie
nenhum deles, causando perdas. Nestes cenários os resultados
do modelo foram cerca de 0.3 frame/s maiores.
Nos cenários 4 e 5 há um aumento natural da vazão, com
valores bastante próximos da simulação e modelo. A partir
do cenário 6, a vazão da simulação com buffer grande satura.
Quanto ao modelo e simulação com buffer reduzido, a vazão
máxima não é alcançada no cenário 6, pois a taxa de chegada
de frames em si não é o suficiente para causar a saturação (sem
40
[9]
[10]
[11]
[12]
[13]
C. B. Margi, “Energy consumption trade-offs in power constrained
networks,” Ph.D. dissertation, University of California Santa Cruz,
2006.
D. Culler, D. Estrin, and M. Srivastava, “Overview of sensor networks,”
Computer Magazine, vol. 37, no. 8, pp. 41–49, 2004.
A. Koubaa, M. Alves, and E. Tovar, “IEEE 802.15.4 for Wireless Sensor
Networks: A Technical Overview,” Polytechnic Institute of Porto (ISEPIPP), Tech. Rep., 2005.
T. Park, T. Kim, J. Choi, S. Choi, and W. Kwon, “Throughput and
energy consumption analysis of IEEE 802.15.4 slotted CSMA/CA,”
Electronics Letters, vol. 41, no. 18, pp. 1017 – 1019, sept. 2005.
H. Wen, C. Lin, Z. Chen, H. Yin, T. He, and E. Dutkiewicz, “An improved Markov model for IEEE 802.15.4 slotted CSMA/CA mechanism.”
J. Comput. Sci. Technol., vol. 24, no. 3, pp. 495–504, 2009.
C. Buratti, “Performance analysis of ieee 802.15.4 beacon-enabled
mode,” Vehicular Technology, IEEE Transactions on, vol. 59, no. 4,
pp. 2031 –2045, may 2010.
A. Faridi, M. Palattella, A. Lozano, M. Dohler, G. Boggia, L. Grieco,
and P. Camarda, “Comprehensive evaluation of the ieee 802.15.4 mac
layer performance with retransmissions,” Vehicular Technology, IEEE
Transactions on, vol. 59, no. 8, pp. 3917 –3932, oct. 2010.
J. Misic, V. Misic, and S. Shafi, “Performance of IEEE 802.15.4 beacon
enabled PAN with uplink transmissions in non-saturation mode - access
delay for finite buffers,” in Broadband Networks, 2004. BroadNets 2004.
Proceedings. First International Conference on, 2004.
A. H. Shuaib, T. Mahmoodi, and A. H. Aghvami, “A timed Petri
Net model for the IEEE 802.15.4 CSMA-CA process,” 2009 IEEE
20th International Symposium on Personal Indoor and Mobile Radio
Communications, pp. 1204–1210, 2009.
R. C. A. Alves and C. B. Margi, “A Timed Petri Net Model for Frame
Transmission on IEEE 802.15.4 Beacon-Enabled Mode,” 2013, aceito
no 10th ACM PE-WASUN 2013.
IEEE, “802.15.4-2006 - IEEE Standard for local and metropolitan area
networks–part 15.4: Low-rate wireless personal area networks (LRWPANs),” 2006.
K. Jensen, “Coloured petri nets,” in Petri Nets: Central Models and
Their Properties, ser. Lecture Notes in Computer Science, W. Brauer,
W. Reisig, and G. Rozenberg, Eds. Springer Berlin / Heidelberg, 1987,
vol. 254, pp. 248–299.
S. McCanne and S. Floyd., “NS Network Simulator,” http://www.isi.
edu/nsnam/ns/, 2012.
Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP
Uma Solução para a Redução Automática de Fluxos
de Vídeo Redundantes em Nuvens de Computação
Walter Akio Goya
Marcos Antonio Simplicio Junior
Dep. Engenharia da Computação e Sistemas Digitais
Laboratório de Arquitetura e Redes de Computadores
São Paulo – SP, Brasil
[email protected]
Dep. Engenharia da Computação e Sistemas Digitais
Laboratório de Arquitetura e Redes de Computadores
São Paulo – SP, Brasil
[email protected]
uma arquitetura, composta de um middleware e uma API, é
apresentada uma aplicação de prova de conceito que permite a
redução automática de fluxos redundantes em fluxos de vídeo
em tempo real.
Resumo — Trade Wind é uma solução para o gerenciamento
de recursos de rede para nuvens de computação composta de um
middleware, uma API e uma aplicação de distribuição de fluxos
de vídeo em tempo real que permite a redução automática de
fluxos redundantes.
II.
Abstract — Trade Wind is a cloud computing solution for
network resources management in cloud computing
environments. Its architecture is composed by a middleware, an
API, and a real-time video streaming application with an
automatic redundant flow reduction mechanism.
Após levantamento das principais plataformas abertas de
gerenciamento de nuvens, foram selecionadas três soluções:
Eucalyptus, OpenNebula e OpenStack. A partir de estudos
detalhados das plataformas, foram identificadas algumas
funções de gerenciamento de recursos de rede em nível básico,
como o gerenciamento de endereços IP públicos e a
criação/alocação de redes virtuais para o isolamento do tráfego
de rede entre diferentes usuários da nuvem. Nenhuma das
soluções analisadas apresentou mecanismos de gerenciamento
dos recursos de rede visando uma economia em sua utilização.
A “Tabela I” apresenta um resumo das funções encontradas nas
soluções analisadas:
Palavras-chave — computação em nuvem, PaaS, distribuição
de vídeo, middleware, API
I.
TRABALHOS RELACIONADOS
INTRODUÇÃO
Computação em nuvem é um conceito que vem sendo
amplamente divulgado e discutido ao longo dos últimos anos,
sendo tratado como uma revolução no mundo da computação.
Em linhas gerais, refere-se a um novo modelo de computação,
onde software e hardware são disponibilizados na forma de
serviços. Dentre as definições mais citadas, [1] descreve a
nuvem como um modelo que permite que um conjunto de
recursos computacionais compartilhados possa ser adquirido e
devolvido de forma rápida, e com o mínimo esforço de
gerenciamento ou de interação com o provedor de serviço. O
acesso a estes recursos é feito através de uma rede ubíqua,
conveniente e sob demanda.
TABELA I.
COMPARAÇÃO DE MIDDLEWARES DE COMPUTAÇÃO EM
NUVEM EM RELAÇÃO AO GERECIAMENTO DE REDE
Artigo
Redes
Eucalyptus
Gerenciamento de rede
visando segurança
OpenNebula
Gerenciamento de
endereços IPs públicos
OpenStack
Criação e gerenciamento
de redes virtuais (VLAN)
Sendo a rede um elemento de grande importância para as
nuvens de computação, é de interesse dos provedores gerenciar
de forma eficiente este recurso. Apesar de existirem soluções
populares e reconhecidas para o gerenciamento e operação de
nuvens de computação, como as plataformas abertas
OpenStack, Open Nebula e Eucalyptus, suas funções de
gerenciamento de rede se limitam à possibilidade de criação e
alocação de redes virtuais e endereços IP públicos. Até a versão
final deste artigo, não foi encontrada uma solução aberta que
permitisse o desenvolvimento de aplicações visando o
gerenciamento automático da utilização de recursos de rede.
Trade Wind é uma solução para o gerenciamento de
recursos de rede organizada de forma distribuída, sendo suas
funções e banco de dados executados em cada host pertencente
à nuvem de computação gerenciada. Sua execução se dá em
uma topologia geograficamente distribuída, na qual os hosts
não se encontram concentrados em um único centro de
computação, estando geograficamente distantes.
Este trabalho tem por objetivo propor uma solução que
permita aos provedores de nuvens de computação o
gerenciamento automático de sua infraestrutura, visando uma
melhor utilização dos recursos de rede. Através da descrição de
A. Arquitetura
Por se tratar de uma plataforma de computação em nuvem,
a solução foi implementada em máquinas virtuais que estão
III.
41
TRADE WIND
Goya e Simplı́cio Jr.
hospedadas em um host (máquina física). Em cada host existe
uma única máquina virtual executando o middleware, chamado
de módulo Core. Nas máquinas virtuais que irão hospedar os
aplicativos, executa-se o módulo Core Access, que atua como
intermediador das chamadas das aplicações para o middleware,
bem como do middleware para o host ou a máquina virtual
hospedeira.
A
B
Fig. 2. Estágios da redução de fluxos redundantes
IV.
CONSIDERAÇÕES FINAIS
Resultados preliminares indicaram uma economia na
utilização dos enlaces de rede. A continuação deste estudo irá
avaliar os custos de processamento, e possíveis impactos no
desempenho da aplicação de distribuição de fluxos de vídeo.
Fig. 1. Interfaces de Comunicação: Middleware, API e aplicações
A. Evolução do WPG-SD 2012
Além do levantamento e análise de trabalhos relacionados,
foi implementado o protótipo para prova de conceito e
coletados resultados preliminares que indicam uma economia
na utilização de recursos de rede. O trabalho foi avaliado por
uma banca de qualificação no final do mês de julho de 2013.
B. Serviços
Além dos serviços de manipulação de máquinas virtuais e
inicialização/configuração de aplicações, o principal serviço
provido pelo middleware é o gerenciamento de informações
sobre a topologia de recursos físicos (hosts) e virtuais
(máquinas virtuais), sobre as aplicações e sobre os usuários da
nuvem. A partir dessas informações, o middleware é capaz de
prover locações múltiplas dos recursos computacionais, ou
seja, é capaz de identificar quais hosts estão sendo utilizados
por um determinado usuário ou aplicação.
B. Próximas Atividades
Como continuação deste trabalho para sua versão final e
defesa da dissertação são propostas a finalização do
desenvolvimento do protótipo e a coleta de dados
experimentais, para a validação e análise de seu funcionamento
com base em métricas de desempenho do sistema.
C. Aplicação de Distribuição de Fluxos de Vídeo
A aplicação utilizada como prova de conceito tem como
objetivo a distribuição de fluxos de vídeo em tempo real. Neste
tipo de aplicação é possível que diferentes requisitantes
localizados em uma região geográfica, estejam requisitando um
mesmo conteúdo. Na figura 2 composta pelos estágios A e B
da rede, é possível observar a presença de um fluxo redundante
entre os roteadores A, B e C, e sua redução, respectivamente.
Através do middleware e da API desenvolvidos, é possível
eliminar o fluxo redundante automaticamente, por meio de uma
aplicação que detecta, analisa e executa otimizações na
topologia da aplicação.
C. Publicações
- Um artigo completo na conferência internacional Parallel and
Distributed Computing and Systems (PDCS-Dallas, 2011)
AGRADECIMENTOS
LARC, FDTE e Ericsson Telecom Brasil/Suécia.
REFERÊNCIAS
[1]
A partir do cenário de testes apresentado na figura 2,
resultados preliminares indicaram uma redução de utilização
dos enlaces intermediários, que varia de acordo com a
quantidade de fluxos requisitados (quanto maior a quantidade
de clientes requisitantes, maior a economia). Como efeito
colateral, observou-se a sobrecarga de enlaces locais entre o
host e o roteador. Tal sobrecarga é característica de soluções
overlay multicast, como observado em nos trabalhos [2], [3] e
[4].
[2]
[3]
[4]
42
P. Mell, T. Grance, “The NIST Definition of Cloud Computing,” in
Special Publication 800-145. NIST, Setembro, 2011.
J. Jannotti, D. K. Giford, K. L. Johnson, M. F. Kaashoek, J. W. O'Toole
Jr., “Overcast: Reliable Multicasting with on Overlay Network,” in
Proceedings of the 4th conference on Symposium on Operating System
Design & Implementation, v. 4. USENIX Association, Berkeley, CA,
USA, p. 14-14, 2000
Y.-H. Chu,, S. G. Rao, S. Seshan, H. Zhang, “A Case for End System
Multicast,” in IEEE Journal on Selected Areas in Communications, v.
20, n. 8, p. 1456 – 1471, Outubro, 2002.
T. Nanka, P. Lee, A. P. Jayasumana; J. Kurose, “An Architecture and a
Programming Interface for Application-Aware Data Dissemination
Using Overlay Networks,” in 2nd International Conference on
Communication Systems Software and Middleware, 2007.
Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP
Aplicação do Aprendizado por Reforço em um
Espaço contı́nuo
Walter Mauricio Mayor Toro
e Anna Helena Reali Costa
Laboratório de Técnicas Inteligentes (LTI/EPUSP)
Escola Politécnica, Universidade de São Paulo
São Paulo, SP, Brasil
Resumo—Quando se trabalha com robôs móveis, podemse encontrar espaços de navegação contı́nuos ou discretos,
onde os robôs devem desenvolver suas tarefas. Neste trabalho propõe-se utilizar o Aprendizado por Reforço (AR) num
espaço de navegação contı́nuo. Para isso, utilizando a ferramenta
Player/Stage, foi desenvolvido um ambiente simulado que contém
salas, portas e um corredor. Fazendo uso de uma câmera, são
obtidas do ambiente as caracterı́sticas necessárias para gerar
os estados discretos utilizados no Aprendizado por Reforço. Um
Robô Pioneer 2DX foi usado nos testes que aplica a politica
aprendida por AR em um espaço discreto, para navegar de forma
efetiva no espaço contı́nuo.
I.
I NTRODUÇ ÃO
No Aprendizado por Reforço (AR), um agente pode observar seu mundo e executar ações, pelas quais recebe recompensas, sendo seu objetivo maximizar o valor de recompensas
recebido. Esta ferramenta pode ser aplicada para navegação
de robôs, permitindo-os a aprender e adaptar-se a novas
situações em tempo real, sem requerer conhecimento prévio
do ambiente. Porém, inicialmente esta ferramenta consome
muito tempo para o aprendizado, problema que tem sido
abordado por vários trabalhos, sendo uma das propostas o uso
de Transferência de Conhecimento (TC) e polı́ticas estocásticas
abstratas [1]. Entretanto, esta proposta foi avaliada somente no
espaço discreto simulado. Outros problemas relacionados com
o AR aparecem quando se quer passar da simulação discreta
à implementação real ou à simulação no espaço contı́nuo.
Estes problemas podem ser: grandes espaços de busca, elevado
tempo de treinamento e dificuldade na determinação dos diferentes estados presentes no ambiente. Portanto, o objetivo geral
desta pesquisa é avaliar a utilização do AR na navegação de
um robô real em um espaço contı́nuo, utilizando TC, sendo TC
uma técnica que permite acelerar e melhorar o aprendizado de
uma nova tarefa, utilizando o conhecimento obtido em tarefas
anteriormente aprendidas. Neste resumo é apresentada a primeira parte do trabalho, que contém o ambiente de simulação
que foi criado, as caracterı́sticas que foram escolhidas para
gerar os estados e as ações que foram selecionadas para serem
executadas no espaço contı́nuo. Pretende-se, em um trabalho
seguinte, avaliar no ambiente contı́nuo da Figura 1 a proposta
apresentada por [1] para TC no AR e, finalmente, colocar os
algoritmos em um robô real.
II.
R EVIS ÃO DA L ITERATURA
Existem na literatura pesquisas que propõem diferentes
ambientes de trabalho, sejam discretos ou contı́nuos, nos
43
quais a técnica do AR pode ser testada, utilizando diferentes
caracterı́sticas e ações. Trabalhos, como os apresentados em
[2] e [3], simulam ambientes de navegação contı́nuos enquanto
outros, como em [1] e [4], simulam ambientes discretos. O
[2], é conhecido como Keepaway. Este simula um ambiente
contı́nuo para um jogo de futebol robótico. O simulador utiliza
distâncias e ângulos entre jogadores para obter os diferentes
estados e o aprendizado é baseado em macro-ações que são
compostas por várias micro-ações ou ações primitivas do
simulador. O [3] é um ambiente de simulação desenvolvido em
Player/Stage, que utiliza laser e sonares para o reconhecimento
de portas, salas, intersecções e corredores, caracterı́sticas que
depois são utilizadas para definir os estados.
III.
A MBIENTE S IMULADO
O ambiente que foi simulado é mostrado na figura 1, este
é composto por 6 salas, 8 portas e um corredor, cada um
destes lugares pintado com uma cor diferente, que facilita sua
detecção, utilizando o driver blobfinder do Player/Stage. Este
driver trabalha de forma muito semelhante a um sensor RGBD, já que este pode proporcionar tanto a cor como a distância
a cada uma destas caracterı́sticas.
Figura 1: Ambiente de um espaço contı́nuo, simulado com a
ferramenta Player/Stage.
IV.
G ERAÇ ÃO DE ESTADOS
As caracterı́sticas que determinam um estado neste ambiente simulado são: nSeeDoors(), nearDoor(), inPlace(), seePlace() e nearGoal(), que correspondem a número de portas
que o robô consegue ver, porta mais proxima ao robô, lugar
no qual se encontra o robô, lugar que o robô consegue ver em
frente e proximidade do robô ao alvo, respetivamente. Estas caracterı́sticas apresntam as vantagens de serem discretas e facilitarem a determinação do estado no qual o robô está. Por outro
lado, caracterı́sticas como as utilizadas em [2] são contı́nuas
Mayor Toro, Costa
(a)
apresenta 4 possı́veis saı́das para os dois sensores. A saı́da da
câmera contém 4 das 5 caracterı́sticas apresentadas anteriormente para determinar um estado, nSeeDoors(), nearDoor(),
inPlace() e seePlace(), e a ultima caracterı́tica nearGoal() é
determinada utilizando o sensor GPS. Na tabela I mostra-se
o valor de cada uma das 5 caracterı́sticas, para 4 possı́veis
saı́das da câmera e o GPS. Cada fila de valores apresentados
na tabela I, representa um estado do ambiente simulado e para
cada um desses estados é designada uma ou várias macro-ações
utilizando AR.
(b)
Tabela I: valores das 5 caracterı́sticas nSeeDoor(), nearDoor(),
inPlace(), seePlace() e nearGoal() para 4 estados discretos do
ambiente simulado mostrados na figura 2
(c)
(d)
Figura 2: (a), (b), (c) e (d) são 4 saı́das obtidas do ambiente simulado, utilizando o driver Blobfinder e o GPS do
Player/stage
e precisam de uma técnica adicional de discretização, como o
CMAC, para determinar se o robô está num estado ou outro.
Outra particularidade apresentada por estas caracterı́sticas é
sua independência da posição x e y do robô; portanto, numa
mesma posição x e y, mas com um ângulo de rotação diferente,
o robô pode estar em diferentes estados, dependendo das
caracterı́sticas que a câmera está obtendo. Para o caso do
ambiente apresentado anteriormente, os possı́veis valores para
numDoors() e nearDoor() são: {0,1,2,3,4,5,6,7,8}, onde 0 para
a primeira caracterı́stica significa que o robô não vê nenhuma
porta, e de 1 até 8 é o número de portas que o robô consegue
ver. Para a segunda caracterı́stica, 0 significa que o robô não
tem nenhuma porta próxima, e de 1 até 8 significa que uma
dessas portas se encontra mais próxima ao robô. os possı́veis
valores para inPlace() e inFrontPlace() são: {0,1,2,3,4,5,6,7},
onde 0 significa, para a primeira caracterı́stica, que o robô não
sabe onde está, de 1 até 6 significa que está em uma sala e o 7,
que está no corredor. Para a outra caracterı́stica, o 0 significa
que o robô não vê nada à sua frente, de 1 até 6, que vê uma sala
e 7 que vê o corredor. A última caracterı́stica nearGoal() tem
como valores {0,1}, onde 1 significa que o robô está próximo
ao alvo e 0, que está longe do alvo.
V.
nSeeDoor()
1
1
0
3
nearDoor()
2
1
0
1
inPlace()
1
1
1
7
seePlace()
2
7
0
0
nearGoal()
1
1
0
0
Uma polı́tica de navegação π foi aprendida usando AR,
definindo a melhor macro-ação a ser aplicada en cada estado
discreto. Sua execução no espaço contı́nuo simulado foi bastante efetiva.
VII.
C ONCLUS ÃO E T RABALHO F UTURO
Com este trabalho foram alcançados objetivos importantes que fazem parte de uma proposta de pesquisa do mestrado. Neste trabalho conseguiu-se criar um ambiente simulado
de navegação num espaco contı́nuo, utilizando a ferramenta
Player/Stage. Com base neste ambiente, utilizando o driver
blobfinder e o GSP de Player/Stage foram selecionadas 5
caracterı́sticas discretas, que permitiram determinar os estados
discretos utilizados no AR. Além disso, também foram testadas
4 macro-ações, utilizadas nas polı́ticas obtidas com o AR.
Fazendo uso deste trabalho pretende-se posteriormente avaliar
integralmente a proposta apresentada por [1] num ambiente
simulado similar ao aqui apresentado e, finalmente, avaliar os
algoritmos num robô real.
AGRADECIMENTOS
Agradecemos
a:
CNPq
(proc.
155876/2012-0,
311058/2011-6), FAPESP (proc. 2011/19280-8) por prover
fundos para esta pesquisa
R EFER ÊNCIAS
M ACRO - AÇ ÕES
[1]
Seguindo a proposta apresentada em [2], O aprendizado
será baseado na seleção de macro-ações, e não de micro-ações
(ações primitivas). Cada macro-ação representa um comando
de alto nı́vel como: findDoor(), goToDoor(), goToPlace() e goToGoal(). Cada uma destas macro-ações é composta por várias
micro-ações, onde cada micro-ação representa comandos de
baixo nı́vel como: girar um determinado número de graus ou
avançar uma distância determinada.
VI.
Figura
2-(a)
2-(b)
2-(c)
2-(d)
R ESULTADOS E D ISCUSS ÃO
Alguns dos resultados obtidos utilizando o driver blobfinder e o GPS do Player/Stage são mostrados na figura 2, a qual
44
M. L. Koga, V. F. d. Silva, F. G. Cozman, and A. H. R. Costa, “Speedingup reinforcement learning through abstraction and transfer learning,” in
Proceedings of the 2013 international conference on Autonomous agents
and multi-agent systems.
International Foundation for Autonomous
Agents and Multiagent Systems, 2013, pp. 119–126.
[2] P. Stone, R. S. Sutton, and G. Kuhlmann, “Reinforcement learning for
robocup soccer keepaway,” Adaptive Behavior, vol. 13, no. 3, pp. 165–
188, 2005.
[3] J. H. Zaragoza and E. F. Morales, “A two-stage relational reinforcement
learning with continuous actions for real service robots,” in MICAI 2009:
Advances in Artificial Intelligence. Springer, 2009, pp. 337–348.
[4] E. P. Enoiu and R. Marinescu, “Soccer robot navigation in grid environments based on reinforcement learning algorithms,” in Proceedings of
the 2010 IRCSE IDT Workshop and Conference, 2010.
Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP
Análise de risco da automação no controle de tráfego
aéreo: caso TWR
Yuri M. R. Dirickson e Prof. Dr. João B. Camargo Jr.
Departamento de Engenharia da Computação
Escola Politécnica da Universidade de São Paulo
São Paulo, Brasil
Resumo—Diversos países estão investindo em projetos de
modernização do seu espaço aéreo devido ao aumento do uso do
transporte aéreo civil. Dentre os principais projetos estão o
NextGen (EUA) e o SESAR (Europa). Essa modernização visa,
entre outros objetivos, a crescente automação do controle de
tráfego aéreo como forma de aumentar o desempenho desse
setor, porém é inadmissível que essa automação comprometa os
atuais níveis de segurança do transporte aéreo. Portanto esse
trabalho procura avaliar qual o impacto na segurança crítica do
sistema de tráfego aéreo que pode ser causado pela introdução
contínua da automação no controle de tráfego aéreo, através de
uma modelagem funcional das tarefas dos controladores e de
uma subsequente análise de risco. Foi escolhida a torre de
comando de aeródromo como estudo de caso, visto que nos
aeródromos é aonde acontecem a maioria dos acidentes.
TABLE I.
Causa
Abstract—Many countries are investing in modernization
projects of its airspaces due to the increased use of civil air
transport. Among the main projects are the NextGen (USA) and
SESAR (Europe). This modernization aims, among other
objectives, the increasing automation of air traffic control in
order to increase the performance of this sector, but it is
unacceptable that this automation compromise the current levels
of safety in air transport. Therefore this study aims to assess the
impact on critical safety of air traffic control system that can be
caused by the continuous introduction of automation in air traffic
control, through a functional modeling of the tasks of controllers
and a subsequent risk assessment. The aerodrome control tower
was chosen as a case study, since the aerodromes is where most
air accidents happen.
1960
1970
1980
1990
2000
Todos
Erro do piloto
41
34
24
26
27
30
29
Erro do piloto
(rel. ao clima)
10
17
14
18
19
19
16
Erro do piloto
(rel. à falha
mecânica)
6
5
5
2
5
5
5
Total erro do
piloto
57
56
43
46
51
54
50
Outros erros
humanos
2
9
9
6
9
5
7
Clima
16
9
14
14
10
8
12
Falha mecânica
21
19
20
20
18
24
22
Sabotagem
5
5
13
13
11
9
9
Outras causas
0
2
1
1
1
0
1
Contudo, essas novas tecnologias não podem impactar
negativamente na segurança crítica do sistema, o que motiva
diversas pesquisas em relação a modernização segura do
espaço aéreo.
Com base em estudos comparativos de acidentes por fase
de voo, nota-se que a quantidade somada de acidentes das fases
de decolagem, subida inicial e aterrissagem superam os
acidentes das outras fases em alguns anos, mostrando a
importância dos estudos associados ao serviço de controle de
aeródromo, operado pelas torres de controle de aeródromo[5].
Keywords—air traffic control; automation; safety;
I.
PRINCIPAIS CAUSAS DE ACIDENTES AÉREOS(%)[4].
1950
INTRODUÇÃO
|Cada vez mais cresce a preocupação com a segurança no
transporte aéreo civil devido à crescente utilização desse
modal. Com essa preocupação surgem diversos projetos de
modernização do gerenciamento de tráfego aéreo (Air Traffic
Management (ATM)), entre eles os mais famosos são o
NextGen (EUA) [1] e o SESAR (Europa) [2]. Esses projetos
têm como uma das suas principais metas a implantação de
tarefas mais automatizados para pilotos e controladores de
tráfego aéreo (Air Traffic Controller (ATCo)) [3]. Essa meta
vem com o objetivo de reduzir a quantidade de erros humanos
como fator contribuinte de acidentes aéreos, que atualmente
estão como principal fator (ver tabela I), além de contribuir
para o desempenho geral do tráfego aéreo.
As zonas de aeródromos são conhecidas como as que mais
contribuem para um menor desempenho do de tráfego aéreo[6].
II. PROPOSTA DE PESQUISA
Baseado nos dados apresentados, este trabalho tem como
objetivo avaliar o impacto da crescente automação do controle
de tráfego aéreo em uma Torre de Controle de Aeródromo
(TWR) na segurança do tráfego aéreo. Para tanto serão
modeladas as atividades do ATCo em uma TWR e, com o
modelo resultante, uma avaliação de risco será feita, de forma a
avaliar o ganho em segurança resultante da automação
modelada.
45
Dirickson e Camargo Jr.
III.
REVISÃO BIBLIOGRÁFICA
AGRADECIMENTOS
Diversas pesquisas buscam avaliar o impacto de algumas
tecnologias previstas no NextGen e SESAR na ida dos
controladores e pilotos. Em [7], avalia-se o impacto de algumas
tecnologias presentes no NextGen o treinamento de novos
ATCo’s, observando que ATCo menos experientes não
conseguiam resolver situações em essas tecnologias. Em
relação aos pilotos, [8] avalia desempenho de três modos de
automação diferentes ara recálculo de rotas para pousos em
aeródromos, onde se observa que na situação com maior grau
de automação, s pilotos encontravam mais dificuldade em
consertar as rotas quando o sistema as calculava de maneira
errada.
Os autores agradecem a FDTE – Fundação para o
Desenvolvimento Tecnológico da Engenharia, e a CAPES pelo
suporte financeiro a esta pesquisa.
REFERÊNCIAS
[1]
[2]
[3]
Outros estudos focam no ATCo diretamente, avaliando
parâmetros de desempenho como percepção situacional (
Situation Awareness (SA)) e carga de trabalho (workload),
variando cenários de forma a entender o comportamento s
ATCo’s nos mais diversos casos [9], [10], [11].
[4]
[5]
IV. METODOLOGIA
Primeiro serão levantadas todas as atividades dos ATCo’s
em TWR, assim como a associação com outros órgãos do
ATM, para isso serão utilizadas os documentos do
Departamento de Controle do Espaço Aéreo (DECEA), órgão
responsável pelo ATM no Brasil.
[6]
[7]
Com essas atividades será construído um modelo funcional
de operação do ATCo, de forma a construir um modelo de
referência para a automação. Para isso serão levantados em
mais detalhes os requisitos operacionais das tarefas do ATCo e
os métodos de análise funcional mais adequados.
Com o modelo, será pesquisada a metodologia mais
adequada para a avaliação de risco. Por último, escolhida
metodologia, a análise será feita e assim se determinará qual o
impacto da automação pode causar no serviço de controle de
tráfego aéreo.
[8]
[9]
V. RESULTADOS OBTIDOS E CONSIDERAÇÕES FINAIS
O levantamento de atividades do ATCo foi feito levando
em conta basicamente dois documentos do DECEA, onde são
discutidos os requisitos e estruturas dos serviços de tráfego
aéreo [12]
[10]
A pesquisa está agora na modelagem dessas atividades,
onde foi escolhida a utilização de uma Enhanced Function
Flow Block Diagram (EFFBD). O modelo oferece uma visão
funcional das tarefas ao mesmo tempo em que permite
observar o fluxo de dados entre essas funções. Está sendo
estudada a utilização de outra ferramenta, Functional
Resonance Analysis Method (FRAM), que pode contribuir para
representar melhor um sistema operado por humanos[13].
[11]
Com o objetivo final sendo a análise de risco do sistema
automatizado, espera-se que o resultado dessa pesquisa sirva de
referência para pesquisas mais específicas em segurança aérea
nesse cenário de modernização.
[12]
[13]
46
FAA, “NextGen Implementation Plan,” Federal Aviation
Administration, Mar. 2012.
Eurocontrol,
“European
ATM Master
Plan,”
EUROCONTROL, Oct. 2012.
T. Prevot, J. R. Homola, L. H. Martin, J. S. Mercer, and
C. D. Cabrall, “Toward Automated Air Traffic
Control—Investigating a Fundamental Paradigm Shift in
Human/Systems Interaction,” Int. J. Hum.-Comput.
Interact., vol. 28, no. 2, pp. 77–98, 2012.
PlaneCrashInfo.com, “Accidents Statistics,” Plane
Crash
Info.
[Online].
Available:
http://planecrashinfo.com/cause.htm.
Boeing, “Statistical Summary of Commercial Jet
Airplane Accidents Worldwide Operations,” Boeing,
2011.
G. Agmont, “Gargalo no ar,” Revista Aero Magazine,
no. 216, 2012.
K.-P. L. Vu, H. Silva, J. Ziccardi, C. A. Morgan, G.
Morales, T. Grigoleit, S. Lee, A. Kiken, T. Z. Strybel,
and V. Battiste, “How Does Reliance on Automated
Tools During Learning Influence Students’ Air Traffic
Management Skills When the Tools Fail?,” in
Proceedings of the Human Factors and Ergonomics
Society Annual Meeting, Boston, Massachusets USA,
2012, vol. 56, pp. 16–20.
G.-H. Gil, D. Kaber, K. Kaufmann, and S.-H. Kim,
“Effects of modes of cockpit automation on pilot
performance and workload in a next generation flight
concept of operation,” Hum. Factors Ergon. Manuf.
Serv. Ind., vol. 22, no. 5, pp. 395–406, 2012.
H. Bi, Z. Li, Y. Chen, D. Zhang, and Z. Song,
“Measurement of Controller Workloads Based on Air
Traffic Complexity Factors,” in CICTP 2012, Beijing,
China, 2012, pp. 1903–1914.
S. Gregg, L. Martin, J. Homola, P. Lee, J. Mercer, C.
Brasil, C. Cabrall, and H. Lee, “Shifts in air traffic
controllers’ situation awareness during high altitude
mixed equipage operations,” in Proceedings of the
Human Factors and Ergonomics Society Annual
Meeting, 2012, vol. 56, pp. 95–99.
H. D. Kopald, E. C. Smith, and R. K. Stevens,
“Controller Response Times to Surface Safety Alerts,” in
Proceedings of the Human Factors and Ergonomics
Society Annual Meeting, Boston, USA, 2012, vol. 56, pp.
2040–2044.
DECEA, “Regras do Ar e Serviços de Tráfego Aéreo,”
Departamento de Controle de EspaçoAéreo, 100-12,
2009.
E. Hollnagel, FRAM: the functional resonance analysis
method : modelling complex socio-technical systems.
Surrey: Ashgate, 2012.
Parte II
Resumos Doutorado
Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP
C.O.R.M.: Customized Opinion Relevance Model
Allan D. S. Lima
Jaime S. Schiman
USP – Universidade de São Paulo
São Paulo, Brazil
[email protected]
USP – Universidade de São Paulo
São Paulo, Brazil
[email protected]
Feature: a set of strings that semantically mean the
characteristics of a domain. For instance, given the domain of
books some of its features are “story”, “characters” and
“writing”.
Interest: a string representing a concept of an object or
subject. For instance, an Interest may be the name of a book or
the name of a movie.
User: an ordered pair <n, f, i>, where n is a string
representing the User’s name, f is a set of User representing
the friends of the person in a social network and i is a set of
Interest. Given a social network, we call U the set of its User.
Opinion: an ordered pair <a, s, f, d> where a is a User
representing the author of the Opinion, s is a string
representing the sentence were the Opinion was expressed, f is
the set of Features the sentence of the opinion refers to and d
is the date when the Opinion was published We call O the set
of Opinion written on a social network by the elements of U.
We are now able to formalize the problem our model wants
to solve by introducing the Opinion Relevance function.
OpinionRelevance: a function (1) that is able to estimate
the customized relevance of an Opinion o to a User u.
Abstract—This paper presents the results of a study about
what makes an opinion relevant to a user of a social network at
the Internet. Our research leaded us to the creation of C.O.R.M.:
Customized Opinion Relevance Model, a model that allows the
relevance of an opinion to be estimated based in nine different
parameters. Our preliminary experiments suggest the
importance of the customization on the estimation of the opinion
relevance in the domain of Electronic Games.
Keywords—opinion mining; information retrieval; social
search.
I.
INTRODUCTION
Day after day the number of opinions about any subject
over the Internet is growing generating an information
overload. Consequently it is becoming hard for people to
search for opinions on the internet. In order to proper handle
this problem, a research field called opinion mining was
created. One of its objectives is to estimate the relevance of an
opinion. Focusing in this point, we present in this paper a
model to rank opinions.
Opinions are declarations reflecting subjective feelings of
people or perceptions about entities or events [1]. For instance,
the sentence: “the sky is beautiful because it is blue” is
considered as an opinion because it shows how its author
thinks. Given an opinion like the one above, how it is possible
to know if the opinion is relevant to a person? There are many
aspects of the opinion that could influence on its relevance.
Given that, two different people may have completely distinct
views of an opinion’s relevance. This brings the word
“customization” as a key concept to our work. Essentially, we
want the relevance estimation of an opinion to be customized
according to the person which we are estimating the opinion’s
relevance for. Our model performs that by having the person’s
profile as a parameter of our relevance function.
(1)
III.
During our literature review we could see that that, unlike
our project, related work [2; 3; 4; 5] use the opinion relevance
concept to rank whole documents and not the opinions
themselves. Also they do not offer an in depth study about the
many aspects that can make an opinion relevant to someone.
And finally, we could not find studies on how to customize the
relevance of the opinions, especially, regarding the social
profile of the person that is searching for them.
In this paper we will initially discuss the definitions and the
formalization of our problem; after that, in section three we
make a brief compilation of the differences between our project
and the related work; in section four we introduce our model;
in section five we report our preliminary results; and finally in
section six we discuss the progress of our work.
II.
RELATED WORK
IV.
C.O.R.M. – CUSTOMIZED OPINION RELEVANCE MODEL
C.O.R.M. is a model that aims to estimate the relevance of
an Opinion to a User. The model allows customized results
using its parameters to estimate different relevance values
according to the User we are estimating the relevance for.
Currently, it has nine different parameters which we will
present here in a semi-formal way.
BASIC DEFINITIONS AND PROBLEM FORMALIZATION
In the following equations a is a User, u is a User, f is a
feature and o is an Opinion.
In this section we discuss the basic concepts needed to
understand the formal definition of our problem and the
parameters of our model.
49
Lima e Sichman
TABLE I.
Author Experience, given the subset of O in which the
User a is the author of the opinions on it, Oa:
(2)
Feature Experience, the subset of O where its elements refers
the Feature f, Of and the subset of O that refers the Feature f
which the User a is their author, Oaf:
CORPUS USED IN THE EXPRIMENT
Test Sets
49
Judges(users)
16
Relevance Judgements
470
~4,3%
Coverage
(3)
Our preliminary experiment (Table II) compared the three
different approaches: (1) a simple Information Retrieval
Heuristic; (2) three non-customizable (constant independent of
the User) parameters; (3) the all nine parameters of C.O.R.M.
The complete version of our model managed to outperform the
others, which is an evidence of the importance of the
customization that it offers through its parameters.
OpinionIDF, given the function sentence(o) that returns the set
words in the sentence of the Opinion o:
(4)
Feature Score, given the set of Feature present in the opinions
in O, F; and the set of Feature that the opinion o refers on its
sentence, Fo:
TABLE II.
#
(5)
Linear Longevity, given the function date(o) that returns the
date of the Opinion o and currentDate a function that returns
the present date:
Model
RPrecision
Bpref
MAP
1
OpinionIDF
0.0363
0.4059
0.0082
2
OpinionIDF, FeaturesScore,
LinearLongevity
0.0671
0.4336
0.0284
3
C.O.R.M. (9 parameters)
0.1030
0.4530
0.0512
(6)
VI.
Network Distance, given a graph G where the users in U are
its nodes and its edges link two users that are friends in a social
network.
PRELIMINARY RESULTS
PROGRES FROM LAST YEAR AND FUTURE WORK
Our effort in the last 12 months included the following
tasks: ethical committee authorization for the experiments,
model implementation, test framework created so the model
can be easily tested in different domains.
(7)
Our priorities for the future are: conclusion of our first
opinion relevance corpus; more experiments (comparing
different models like product recommendation models to
estimate the relevance of an opinion); a new opinion relevance
corpus for a new domain (like books, movies or animes).
Similarity, given the function Interests(u) that returns the set
of interests of a User u:
(8)
REFERENCES
Image, given the set of Opinion from the User a judged as
relevant by the User u, ROau and the set of Opinion from the
User a, that the User u judged, JOau:
[1]
[2]
(9)
[3]
Reputation:
(10)
V.
[4]
EXPERIMENTS AND RESULTS
[5]
In order to evaluate the parameters of our model we
decided to compare three different Information Retrieval
Metrics (R-Precision, Means Average Precision – MAP and
bpref) [6;7] on a corpus of opinions judged by users of a social
network. Since such corpus did not exist before, we are
currently creating one by recruiting volunteers to judge
opinions at the social network about Electronic Games
gamrconnect (http://gamrconnect.vgchartz.com/). Table I
shows the current state of our relevance corpora.
[6]
[7]
50
B. Liu, “Opinion mining,” Encyclopedia of Database Systems. Springer
US. pp. 1986-1990, 2009.
G. Mishne, “Multiple ranking strategies for opinion retrieval in blogs.”
In Online Proceedings of TREC, 2006.
M. Zhang, and Y. Xingyao, “A generation model to unify topic
relevance and lexicon-based sentiment for opinion retrieval.” In
Proceedings of the 31st annual international ACM SIGIR conference on
Research and development in information retrieval, pp. 411-418. ACM,
2008.
X. Huang, and W. B. Croft, “A unified relevance model for opinion
retrieval.” In Proceedings of the 18th ACM conference on Information
and knowledge management pp. 947-956, November, 2009.
G. Attardi, and M. Simi. “Blog Mining Through Opinionated Words.” In
TREC. 2006.
C. D. Manning, P. Raghavan, and H. Schütze. Introduction to
information retrieval (Vol. 1). Cambridge: Cambridge University Press,
2008.
C. Buckley, and Voorhees. E. M. “Retrieval evaluation with incomplete
information.” In Proceedings of the 27th annual international ACM
SIGIR conference on Research and development in information
retrieval, pp. 25-32. ACM, 2004.
Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP
Proposta de Um Método para o Controle da
Qualidade de Dados de Biodiversidade
Allan Koch Veiga
Antonio Mauro Saraiva
Departmento de Engenharia de Computação
Escola Politécnica da Universidade de São Paulo
São Paulo, Brazil
[email protected]
Departmento de Engenharia de Computação
Escola Politécnica da Universidade de São Paulo
São Paulo, Brazil
[email protected]
Abstract— Este trabalho propõem um método para tratar
importantes questões de Qualidade de Dados (QD) na
biodiversidade, tais como transformar os dados adequados ao
uso; medir, avaliar e melhorar a QD; e definir métricas e
conceitos de QD. Essas e outras questões podem ser endereçadas
a partir das seguintes etapas do método proposto: (1)
Identificação das Necessidades de QD; (2) Definição de uma
Política de QD; e (3) Implementação de Mecanismos de QD. A
aplicação desse método, associada a sua revisão periódica,
permite às organizações controlar a qualidade de seus dados,
adequar o uso dos dados e obter melhores resultados.
qualidade dos dados. Essas métricas são chamadas de
dimensões de QD e são usadas como parâmetros para a
melhoria da QD. Essa melhoria pode ser realizada por meio de
um conjunto de mecanismos que são implementados para
otimizarem as medidas das dimensões de QD. Em suma os
mecanismos de QD são responsáveis pela redução de erros
que degradam a qualidade.
Proposta! de! um! Método! de!
Controle!de!QD!
III.
Keywords—método, qualidade de dados
I.
Aplicando o método descrito a seguir no contexto de
biodiversidade, é possível identificar as necessidades de QD
dos usuários dos dados, definir políticas que formalizam a QD
e implementar mecanismos para medir e melhorar a QD com o
objetivo de continuamente medir, avaliar e melhorar a
adequação ao uso dos dados. O método proposto neste
trabalho é composto de três etapas principais:
!Introdução!
Este trabalho propõe um método que aborda questões de
Qualidade de Dados (QD) que vão além de apenas correções
de erros pontuais. Este artigo propõe tratar a qualidade como
uma componente dos projetos de biodiversidade, adotando
uma análise prévia, estruturada e sistemática das necessidades
de dados do projeto e a definição de aplicação de uma política
de QD. A relevância dos dados, e da sua qualidade, justificam
a adoção de medidas não somente corretivas, mas também
preventivas de tratamento dos dados, que devem seguir um
método que permita estruturar tal atividade.
II.
A. ETAPA I – Identificação de Necessidades de QD
O objetivo da primeira etapa é entender quais são as
necessidades de QD na organização. Esse objetivo pode ser
endereçado por meio da identificação, compreensão e das
relações entre os seguintes componentes: Elementos de
Informação (EI); Dimensões de QD; Problemas de QD; Erros
de QD; Fonte de Erros de QD.
Conceitos!de!QD!
1) Elementos de Informação
De acordo com [1] é amplamente aceito que a qualidade
pode ser definida como a conformidade com os requisitos.
Isso implica que o conceito de qualidade muda à medida que
os requisitos dos usuários mudam. Assim, para se definir um
conceito de qualidade em um determinado contexto, é
necessário entender e considerar os requisitos que afetam a
satisfação dos usuários dos dados [2].
Os EI são informações que possuem algum valor na
biodiversidade. O custo de controle de QD é proporcional a
quantidade de EI. Portanto, recomenda-se utilizar os EI que
possuem maior valor na biodiversidade, caso seja inviável a
análise de todos os EI. Os EI podem ser classificados em dois
tipos: (1) simples, elementos que possuem valores atômicos,
como umidade e pH de solo, e (2) compostos, elementos
compostos por outro EI simples, por exemplo, pontos
descritos em coordenadas geográficas (latitude, longitude).
Estes EI são os componentes centrais nas próximas sub-etapa
da Identificação de Necessidades de QD, ou seja, a
identificação dos próximos componentes serão sempre de
acordo com cada um dos EI.
Visto que os dados podem ser utilizados de diversas
maneiras na biodiversidade, a definição de um conceito de QD
nesse domínio é um desafio. O entendimento do que é QD em
um domínio é essencial para a realização da avaliação da QD.
A avaliação da QD consiste em julgar se um conjunto de
dados está adequado para ser utilizado de maneira satisfatória
para um determinado propósito específico.
2) Dimensões de QD
Para que essa avaliação da QD seja realizada
adequadamente é necessário considerar um conjunto de
métricas de QD que forneçam medidas de diversos aspectos da
Para cada EI, um conjunto de dimensões de QD relevantes
deve ser identificado. Essas dimensões são aspectos de QD,
51
Veiga e Saraiva
como completeza, acurácia, precisão, credibilidade e
temporalidade. A seleção dessas dimensões para cada EI é
baseada nas necessidades dos usuários. Por exemplo, a
completeza é uma dimensão essencial em EI coordenadas
geográficas para a maioria das aplicações em biodiversidade.
A definição de cada dimensão em relação a cada EI pode
variar. Por exemplo, a dimensão de credibilidade em dados
geoespaciais pode estar associado ao equipamento ou ao
método de georeferenciamento utilizado.
metros”. Cada Declaração de QD deve ser especificada em
Estados de QD. Estado de QD é uma formalização de uma
Declaração de QD, onde um dado pode assumir o estado de
“Com qualidade” ou “Sem qualidade” em relação a uma
Declaração de QD. Por exemplo, o dado possui o estado de
“Com qualidade” em relação a Declaração de QD
“Coordenadas geográficas deve possuir precisão inferior a 20
metros” se “P < 20m”, onde P representa o valor da precisão
das coordenadas geográficas.
A seleção das dimensões de QD e as suas definições em
relação aos EI são importantes, pois a partir das dimensões, as
medidas de QD serão obtidas, as quais permitirão realizar a
avaliação da adequação ao uso dos dados.
Considerando que os dados podem ser classificados em
dois estados (“Com qualidade” ou “Sem qualidade”), a
política de QD pode ser analisada sistematicamente para
verificar a sua aderência as necessidade de QD da
organização. Vários métodos podem ser utilizados para a
modelagem e a análise da política, como Redes de Petri
Colorida ou Qualitative Reasoning, por exemplo.
3) Problemas de QD
As dimensões de QD são degradadas por um ou mais
problemas de QD. Por exemplo, valores incorretos são
problemas que podem degradar a dimensão de acurácia e
valores faltantes são problemas que podem degradar as
dimensões de completeza e de precisão.
Com a formalização de como os dados devem estar para
atender a necessidade de QD, o próximo passo é implementar
mecanismos para que os dados atendam a política de QD.
C. ETAPA III – Implementação de Mecanismos de QD
O objetivo da terceira etapa é identificar, projetar,
implementar e implantar métodos, técnicas, ferramentas ou
procedimentos para impor a política de QD na organização
[3]. Cada mecanismo de QD é implementado para impor uma
parte da política da QD. A combinação de todos os
mecanismos deve cobrir toda a política.
4) Erros de QD
Os problemas de QD são gerados por um ou mais erros de
QD. Por exemplo, erros de digitação podem gerar problemas
de valores incorretos e erros de medição de equipamentos
podem gerar erros de valores faltantes. Em biodiversidade, um
exemplos comum de erros de QD é a associação incorreta
entre os resultados de uma análise e suas respectivas
coordenadas. Em cada análise, as coordenadas são associadas
as amostras normalmente em uma junção de tabelas, muitas
vezes
disponibilizados
em
planilhas
manualmente
preenchidas. Nestas planilhas, as coordenadas e respectivas
amostras são associadas de acordo com um índice préestabelecido. Erros de associação de índices de amostras,
podem causar vários problemas, como valores faltantes para
os pontos.
Os mecanismos de qualidade de dados podem ser
classificados em cinco classes: (1) Prevenção: para prevenir a
ocorrência de erros de QD; (2) Detecção: para detectar erros
de QD ocorridos; (3) Correção: para corrigir erros de QD
detectados; (4) Recomendação: para recomendar correção de
erros de QD; (5) Medição: para atribuir um valor qualitativo
ou quantitativo a uma dimensão de QD de um EI.
5) Fontes de Erros de QD
IV.
Considerações!Finais!
Os erros de QD podem possuir uma ou mais fontes de
erros. Por exemplo, a causa dos erros de digitação pode ser a
digitação manual dos dados, erros de medição de
equipamentos podem ser gerados por equipamentos com
defeito, equipamentos ultrapassados ou de baixa qualidade.
Entender essas fontes de erros permitem identificar onde estão
as vulnerabilidades de QD na organização.
O método proposto neste trabalho permite investigar de
maneira sistemática e estruturada as principais necessidades de
QD da organização, as fontes de problemas de QD, definir e
formalizar uma política de QD que informa como a
organização lida com a QD e implementar mecanismos para
medir e melhorar a QD.
Identificar, entender e relacionar os cinco componentes
descritos nesta seção permite identificar as necessidades de
QD da organização e suportar a criação de uma política de QD
apropriada, conforme descrito a seguir [3].
References(
[1]
[2]
B. ETAPA II – Definição de uma Política de QD
O objetivo da segunda etapa é definir uma política de QD
que declare como a informação deve estar para satisfazer os
requisitos de QD da organização. Baseado nas necessidades de
QD, um conjunto de Declarações de QD é estabelecido.
[3]
Uma Declaração de QD descreve a condição em que o
dado deve estar para ter qualidade, por exemplo:
“Coordenadas geográficas deve possuir precisão inferior a 20
52
WANG, R.; KON, H.; MADNICK, S. Data Quality Requirements
Analysis and Modeling. In: Proceedings of the Ninth International
Conference of Data Engineering. p. 670-677. 1993.
ROSE, P. Quality in services and services in quality. Customer Driven
Quality in Product Design, IEEE Colloquium on. p. 1–6. 1994.
VEIGA, A. K. Um estudo sobre qualidade de dados em
biodiversidade: aplicação a um sistema de digitalização de
ocorrências de espécies. 2012. Dissertação de Mestrado, Escola
Politécnica, Universidade de São Paulo, São Paulo, Brasil. Disponível
em:
http://www.teses.usp.br/teses/disponiveis/3/3141/tde-03052012120914
Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP
Automated Refinement of Sustainability-Oriented
Policies for a Sustainable Network Management
Ana C. Riekstin, Tereza C. M. B. Carvalho
Escola Politécnica
University of São Paulo
São Paulo, Brazil
{carolina.riekstin, terezacarvalho}@usp.br
The expected main contributions of this work are the
requirements that a policy refinement process should address in
order to tackle energy efficiency, a refinement method and an
architecture able to support sustainability-oriented policies
refinement, as well as a prototype able to perform a proof-ofconcept of the proposed method and architecture.
Abstract—Sustainable networks management represents a
significant opportunity for reducing energy consumption among
Information and Communication Technologies. Policy Based
Network Management (PBNM) is one of the key approaches to
bring sustainability to networks. However, despite its potential,
PBNM is not yet widely commercially used. The widespread use
depends on an automated policies refinement process in order to
translate high-level policies into machine-readable policies able to
put the business strategies into practice. This work aims at
proposing an automated sustainability-oriented policies
refinement method, as well as an architecture and a prototype to
a sustainable network management.
II.
Bolla et al. [1] classified the existing solutions to reduce
energy consumption in communication networks into three
categories: (1) re-engineering, that addresses the design and
materials used in equipment; (2) dynamic adaptation, that deals
with adapting the network according to traffic or service
requirements; and (3) sleeping/standby, that refers to turning of
parts of the network that are being underutilized, which
demands the equipment to interpret specific commands to
sleep, and an entity able to make decisions (by evaluating
energy consumption, availability and load metrics). It is also
essential to consider that networks are, mostly, composed by
heterogeneous equipment.
Keywords—
Sustainability;
Policy
Based
Network
Management; Sustainability-Oriented Policies; Policy Refinement
I.
CURRENT RESEARCH
INTRODUCTION
Policy Based Network Management (PBNM) is one of the
key approaches to sustainable communication networks
management [2]. A policy is a set of rules used to manage and
control access to a set of Information and Communications
Technology (ICT) resources and services [3], being able to
handle quality of service, security and sustainability issues.
Despite of being the subject of several previous works, PBNM
is not yet widely commercially used [4]. This widespread use
depends on a holistic solution for the “policy refinement
problem”, the process of transforming a high-level policy
statement into a low-level policy specification [3], bringing
business strategies to the network, devices, and instances. The
main objectives of this process are: (i) translation of high-level
policies into low-level, enforceable policies, (ii) determination
of the resources required for the policy execution, (iii)
verification if the low-level policies meet the high-level
policies’ requirements [4].
To handle this scenario and to allow the evaluation of the
trade-offs (e.g. “how much is lost in performance given an
energy consumption reduction”), the management system must
capture the required data from its equipment and decide what
to do based on policies as studied by [8] [9] [10]. According to
Internet Engineering Task Force (IETF), policies can have
different abstraction levels: business, system, network, device,
and instance. The translation between these levels is not
simple, and automated approaches are under development [7].
Uszok et al. [7] state that an automated approach is still an
open issue. Carvalho et al. [4] say that we are still far away
from a generic solution that covers the gaps between service
level agreements (SLA) and high-level goals definition.
Within this context, the objective of this work is to study
sustainability-oriented policies refinement and propose an
automated policy refinement method for them. Policies have
been commonly used to specify Quality of Service (QoS) and
access control rules. However, as the sustainability has become
a prominent issue, the policies should also specify
sustainability rules. A sustainability-oriented policy is a policy
that handles sustainability features in the network, and is likely
conflicting with QoS policies (trade-off between QoS and
saving energy).
Besides the three requirements listed by Moffet and Sloman
[4], the refinement of sustainability-oriented policies should
also consider (iv) conflicts detection and resolution, (v)
dynamic features to handle sustainability in different periods or
scenarios, and (vi) ways to support sustainability metrics, rules,
and features, as did [14] for the Software-Oriented Architecture
(SOA) domain. Ideally, the method should also be automated,
reducing the probability of errors, or the dependency on
experts.
53
Riekstin e Carvalho
Among the existing methods, none is fully automated
considering the six requirements. Carvalho et al. [5] is a
methodological approach for sustainability-oriented policies.
Beigi et al. [11], and Udupi et al. [9] have the translation
process partially automated, since they do not consider
enforcing the translated policies. Rubio-Loyola [8][2], KAoS
[7] [10], Craven et al. [12], and Liao et al. [13] methods have
the translation automated, but demand an important effort to
define the initial models or templates that are going to be used
during the process. None of them work with resources
definition or policies verification, and the only one which has a
conflicts’ detection feature is KAoS – but it is not able to solve
them. Regarding dynamic features, some of the methods can
easily include time as one of the policy characteristics, but
none of them can work without adaption with scenario
dynamicity – when a virtual node migrates to other network,
for instance. To the best of the author’s knowledge, there is no
automated policy refinement method applied to sustainability
able to handle all the elicited requirements. Some new
refinement methods considering Software Defined Networks
are also being discussed, such as Procera [15] and Monsanto et
al. [16], but none of them addresses sustainability issues.
now, our hypothesis is that the refinement method, in order to
be automated and applicable to sustainability-oriented policies,
should be specific to this domain and use information models
that will allow the translation between the policy continuum
levels.
The main contributions are the requirements for such a
solution, the refinement method, the related architecture, and
the prototype implementation, essential to the experiments that
will prove the solution effectiveness.
ACKNOWLEDGMENT
This work was supported by the Innovation Center,
Ericsson Telecomunicações, Brazil.
REFERENCES
[1]
[2]
[3]
III.
PROPOSED SOLUTION METHODOLOGY
[4]
Considering all the described issues and existing solutions,
this work aims at proposing an automated policy refinement
method applied to sustainability-oriented policies, translating
policies and verifying if the low-level policies meet the highlevel policies requirements. This is an applied research work,
which will use experiments in a testbed to validate the
proposed refinement method.
[5]
[6]
The following activity was already concluded: state-of-theart research considering (a) contextualization of the Policy
Refinement Problem to sustainability-oriented policies; (b)
identification of strategies for automated policy refinement and
verification. Now, we are working in the method proposal
considering: (c) specification of the functional requirements for
sustainability-oriented policies refinement; (d) refinement
method specification; (e) architecture specification to support
the proposed method. After concluding the proposal, we will
work on the Prototype implementation, considering: (f)
specification and development of a testbed environment; (g)
specification and implementation of the prototype; (i)
experiments using the prototype to validate the proposed
method.
IV.
[7]
[8]
[9]
[10]
[11]
[12]
EXPECTED RESULTS AND FINAL CONSIDERATIONS
Policy refinement is still an open issue. Many proposals
have been presented, but there is no fully automated method
from the business level down to the instance level, nor an
approach considering sustainability-oriented policies. The
widespread adoption of policy based network management
depends on this automation, as well as a sustainable operation
for networks. In the future, such a solution can be used in
conjunction with other tools inside a company to calculate
carbon credits, for instance.
[13]
As expected results, this work aims at an automated
approach to sustainability-oriented policies refinement. By
[16]
[14]
[15]
54
R. Bolla, R. Bruschi, F. Davoli, and F. Cucchietti, “Energy efficiency n
the future internet: A survey of existing approaches and trends in
energy-aware fixed network infrastructures,” Communications Surveys
Tutorials, IEEE, vol. 13, no. 2, pp. 223 –244, 2011.
J. Rubio-Loyola, “Towards the Policy Refinement Problem in Policybased Management Systems: A synthesis study”, VDM, 2008.
J. Strassner, “Policy-Based Network Management: Solutions for the
Next Generation”, 1st ed. Morgan Kaufmann, Sep. 2003.
J. D. Moffett and M. S. Sloman, “Policy hierarchies for distributed
systems management,” Selected Areas in Communications, IEEE
Journal on, vol. 11, no. 9, pp. 1404–1414, 1993.
T. C. M. B. Carvalho, A. C. Riekstin, M. Amaral, C. H. A. Costa, G. C.
Januario, C. K. Dominicini, and C. Meirosu, “Towards sustainable
networks - energy efficiency policy from business to device instance
levels,” in ICEIS, Poland, Jun. 2012, pp. 238–243.
G. C. Januario, C. H. A. Costa, M. C. Amaral, A. C. Riekstin, T. C. M.
B. Carvalho and C. Meirosu, “Evaluation of a Policy-Based Network
Management System for Energy-Efficiency”, in 2nd IFIP International
Symposium on Integrated Network Management, Belgium, May. 2013.
A. Uszok, J. Bradshaw, J. Lott, M. Breedy, L. Bunch, P. Feltovich, M.
Johnson, and H. Jung, “New developments in ontology-based policy
management: Increasing the practicality and comprehensiveness of
KAOS.” In POLICY 2008. Jun. 2008, pp. 145 –152.
J. Rubio-Loyola, J. Serrat, M. Charalambides, P. Flegkas, and G.
Pavlou, “A methodological approach toward the refinement problem in
policy based management systems,” Communications Magazine, IEEE,
vol. 44, no. 10, pp. 60 –68, Oct. 2006.
Y. B. Udupi, A. Sahai, and S. Singhal. A classification-based approach
to policy refinement. In Proc. of The Tenth IFIP/IEEE IM, 2007.
Florida Institute for Human and Machine Cognition. KAoS project.
M. S. Beigi, S. Calo, and D. Verma, “Policy transformation techniques
in policy-based systems management”. In POLICY’04, p.13, USA,2004.
R. Craven, J. Lobo, E. Lupu, A. Russo, M. Sloman, “Policy Refinement:
Decomposition and Operationalization for Dynamic Domains”, in 7th
IEEE Int. Conference on Network and Service Management. 2011.
B. S. Liao and J. Gao. An automatic policy refinement mechanism for
policy-driven grid service systems. In H. Zhuge and G. Fox, Grid and
Cooperative Computing, p.166–171. Springer Berlin Heidelberg, 2005.
T. Phan, J. Han, J.-G. Schneider, T. Ebringer, and T. Rogers, “A survey
of policy-based management approaches for service oriented systems”.
In ASWEC 2008, Mar. 2008, pp. 392 –401.
A. Voellmy, H. Kim, and N. Feamster, “Procera: a language for highlevel reactive network control,” in Proceedings of the first workshop on
Hot topics in software defined networks, ser. HotSDN ’12. New York,
NY, USA: ACM, 2012, pp. 43–48. [Online]. Available:
http://doi.acm.org/10.1145/2342441.2342451
C. Monsanto, N. Foster, R. Harrison, and D. Walker, “A compiler and
run-time system for network programming languages,” in ACM
SIGPLAN Notices, vol. 47, no. 1. ACM, 2012, pp. 217–230.
Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP
Método de Deformação Elástica para um simulador
Virtual para treinamento de punção de mamas
Ana Cláudia M. T. G. de Oliveira, Romero Tori
Fátima L. S. Nunes
Departamento Eng de Computação e Sistemas Digitais
Escola Politécnica da Universidade de São Paulo
São Paulo, Brasil.
(anaoliveira, tori)@usp. br
Escola de Artes, Ciências e Humanidades (EACH)
Escola Politécnica da Universidade de São Paulo
São Paulo, Brasil
[email protected]
Seidel. Estes conceitos são apresentados na sequência na
Seção 2, os resultados e discussões são apresentados na Seção
3.
Abstract—The manipulate of 3D objects that represents
organs and human tissues is necessary in many medical training
computational applications, these 3d objects, in function of the
training requirements for which they are meant, such as shape,
topology, color, volume texture and, in certain cases, physical
properties such as elasticity and stiffness. In this paper is
presented a method to simulate elastic deformation, obtaining
equilibrium between visual and haptic realism. The results from
deformation response time are compatible with those required
for haptic interaction and the visual results from using meshes
composed of a large number of polygons.
II.
Com a finalidade de aperfeiçoar o armazenamento e a
manipulação destes vértices será empregada uma nova
estrutura de dados (ED) chamada Mate Face (MF), que foi
baseada na ED Opposite Face e implementada por Cunha
(2009) [1]. A MF é uma estrutura flexível criada com o intuito
de representar malhas bidimensionais e tridimensionais, além
de poder representar malhas de vários tipos de polígonos. Cada
elemento da MF (vértice, aresta, face ou célula) é representado
por um identificador que representa sua posição em seu
respectivo vetor de elementos. Esses identificadores podem ser
chamados de índices globais. Além disso, os vértices, arestas e
faces podem ter índices locais, que são referentes à sua posição
na célula que os contém. O conceito de vizinhança é utilizado
nos métodos de deformação, pois dada uma força aplicada em
um determinado vértice, sendo que o resultado da deformação
afeta os vizinhos deste vértice. A estrela dos vértices em
malhas superficiais é uma operação que percorre todas as
células incidentes a um dado vértice, utilizando para isso as
referências de vizinhança entre as células.
Keywords—deformable models; soft tisue; simulation; Virtual
Reality;
Resumo - A manipulação de objetos 3D que representam os
órgãos e tecidos humanos é necessária em muitas aplicações
computacionais para treinamento médico. Esses objetos 3D em
função dos requisitos dos treinamentos a que se destinam, podem
abranger forma, topologia, cor, volume, textura e, em alguns
casos, propriedades físicas, como rigidez e elasticidade. Neste
artigo é apresentado um método para simular a deformação
elástica, obtendo-se um equilíbrio entre o realismo visual e
háptico. Os resultados do tempo de resposta de deformação são
compatíveis com os exigidos para uma interação háptica, e os
resultados visuais são alcançados com malhas com um grande
número de polígonos.
O método Massa Mola possui as seguintes vantagens:
rápido e fácil de implementar, a inicialização não é necessária,
as mudanças na topologia malha podem ser facilmente
manipulados, além disso, é adequado para computação
paralela. O Massa Mola com o Método de Elementos Finitos
não linear e cita que a vantagem do Massa Mola é a robustez
para rotações e grandes deformações e que é a abordagem mais
popular para simulação de objetos deformáveis em tempo real
[2]. O Massa Mola tem sido muito utilizado em simulação de
roupas, animação de faces e comportamento de tecidos moles
em sistemas para treinamento médico [2]. O Massa Mola é
baseado na segunda Lei de Newton, que determina que “Se
uma força externa resultante, ⃗ ·, atuar sobre um objeto com
massa m, a força causará um aceleração, ⃗ , no mesmo sentido
da força”, ⃗
= ⃗ , sendo “F” a força aplicada, “m” a massa
e “a” aceleração. Assim como também utiliza da Lei de
⃗ , no qual “F”
Hooke que possui a seguinte formula ⃗
também representa a força, “K” é a constante elástica da mola e
“X” é o deslocamento, que representa a deformação desta mola.
Segundo o Enunciado da Lei de Hooke a intensidade da força é
proporcional à deformação “X” e o sinal negativo representa
que o vetor de força atua no sentido contrário da deformação.
Palavras-chave – Modelos deformáveis; simulação, tecidos
moles; Realidade Virtual.
I.
MÉTODOS E TECNOLOGIAS UTILIZADAS
INTRODUÇÃO
A ideia central do método proposto neste trabalho é simular
objetos 3D volumétricos por meio de várias superfícies, no
intuito de melhorar a simulação referente ao comportamento
físico e garantir um melhor realismo, tanto visual quanto
háptico. Cada uma das superfícies será tratada de forma
independente em relação aos parâmetros físicos, quantidade de
polígonos da malha e, ainda quanto ao método usado para
simular a deformação. Desta forma, será possível simular o
comportamento físico dos tecidos humanos.
Na tentativa de diminuir o custo computacional e
possibilitar o uso de malhas com um maior número de
polígonos foi utilizada uma Estrutura de Dados chamada Mate
Face para armazenar e manipular os dados da malha dos
objetos 3D. Para a implementação desta abordagem será
utilizada o Método Massa Mola, a Estrutura de Dados
Mateface. Além disso, para resolver o sistema linear resultante
do Massa Mola será utilizado o método iterativo Gauss –
55
Oliveira, Nunes e Tori
∑
Considera-se um corpo físico representado geometricamente
por uma malha, com “n” nós, interligados por arestas
,
} {
}. A cada nó i da malha é
onde ( ) {
associada uma partícula de massa, a qual está vinculada as suas
vizinhas mais próximas
(j=1, 2,....,K), por molas de
constantes elásticas Kij. O deslocamento é representado por
(⃗⃗⃗⃗⃗ ⃗⃗⃗ ). O coeficiente de rigidez da mola-aresta é dado por
, conforme Equação 1.
⃗
∑
(
)
(⃗⃗ -⃗⃗⃗ )
√
⃗⃗⃗⃗⃗⃗⃗
√
(⃗⃗⃗
∑
(
(1)
III.
⃗⃗ )
(⃗⃗ ) (5)
)
RESULTADOS E DISCUSSÕES
Nas Figura (a) e Figura 1(b) são representados os resultados
visuais das deformações ocorridas na malha com 500 vértices e
com 5000 vértices, o resultado visual é melhor com a malha
com 5000 vértices, e o tempo de resposta alcançado com a
utilização do método dos vértices ativos é consideravelmente
mais eficiente. Tal eficiência aumenta proporcionalmente em
relação à quantidade de vértices. O tempo de resposta se
mantem satisfatórios quando são incluídas novas camadas no
objeto 3D, conforme Figura 1(c). Os resultados obtidos até o
momento foram validados com base na taxa de atualização da
interação háptica, porém novos experimentos serão realizados,
inclusive o realismo visual e háptico serão avaliados por
profissionais da área médica. Porém será uma avaliação
subjetiva, uma vez que não existe métrica para realismo.
A. Inclusão de parâmetros físicos
A inclusão de parâmetros físicos no método Massa Mola é
um tema que desperta interesse em vários pesquisadores [5],
[2]. A Equação 3 foi elaborada a partir dos trabalhos [2].
Neste trabalho a derivação para o caso plano de tensão, a
condição necessária para resolver o sistema de equações foi
atribuir o valor v=1/3 para taxa de Poisson. Assim, a condição
teórica para v é garantida pelos resultados experimentais [2]. A
taxa de Poisson foi incorporada a Equação 3 é representa por
√ ⁄ .
∑
(4)
Após encontrar os valores de K, m e c, então estes valores
serão aplicados na Equação (5).
Para resolução do sistema linear, é utilizado o método de
Gauss-Seidel (Equação 2). Este é um método iterativo
apropriado para sistemas lineares da forma Ax + b = 0, em
que A é uma matriz esparsa (n*n), x e b são matrizes de
tamanho n. Neste algoritmo, é feita uma aproximação do
resultado por meio de repetidas iterações sobre a matriz x com
base nos valores obtidos na iteração anterior. Além disso,
durante a execução do método, apenas valores diferentes de
zero são processados [3]. Outro mecanismo importante
utilizado neste trabalho é o conceito de vértices ativos, inativos
e fixos, que ajuda a evitar o desperdício de processamento.
Vértices fixos são aqueles que não são movimentados, e,
portanto, não entram no cálculo. Vértices ativos são os que
entram no cálculo do método Gauss-Seidel. Por fim, os
inativos são movimentados apenas se estão diretamente ligados
com os vértices fixos que se deslocam [4]. Os resultados
visuais da deformação obtidos quando utilizada a Equação 1
são super elásticos. Pois o valor de “K” não representa
fisicamente o comportamento o objeto 3D. Por isso foi feito
um estudo sobre a inclusão de parâmetros físicos, que são
apresentados na subseção A.
( )
(3)
(a)
(b)
(c)
Figura 1. Resultados da deformação com diferentes objetos 3D.
AGRADECIMENTOS
Os autores agradecem ao CNPq, à Fapesp e ao INCT–MACC
pelo apoio financeiro.
REFERENCES
[1]
(2)
[2]
Outro parâmetro importante é o valor da massa atribuído à
malha. Em uma malha triangular e para distribuir com precisão
a massa total da malha, é calculada a massa “ ” de cada
vértice “i” de acordo com a área do triângulo adjacente ”j”
[6]. A densidade é dada pelo material que se pretende simular.
Na Equação (3) é uma adaptação realizada por Phannurat et al.
(2008) [6]. A constante de amortecimento da mola é parâmetro
importante para simular uma deformação realística, na
literatura este parâmetro tem sido utilizado como uma
constante em todo o sistema de molas. Para simular o melhor
comportamento dos modelos, a constante de amortecimento da
mola de amortecimento “c”, é obtida de acordo com a Equação
(4), sendo M a massa final entre
.
[3]
[4]
[5]
[6]
56
I. L. L. Cunha, “ Estrutura de dados Mate Face e aplicações em geração
e movimento de malhas”. Thesis - ICMC University of São Paulo. 2009.
B. A. Lloyd; G. Szekely; M. Harders, M., "Identification of Spring
Parameters for Deformable Object Simulation," Visualization and
Computer Graphics, IEEE Transactions on , vol.13, no.5, pp.1081,1094,
Sept.-Oct. 2007.
H. Courtecuisse; J. Allard "Parallel Dense Gauss-Seidel Algorithm on
Many-Core Processors," High Performance Computing and
Communications, HPCC '09. pp.139-147, 2009.
I. P. Soares Movimento de malhas e remalhamento de malhas
superficiais. Thesis – ICMC University of São Paulo. 2007.
E. Basafa; F. Farahmand “Real-time simulation of the nonlinear viscoelastic deformations of soft tissues”. International Journal of Computer
Assisted Radiology and Surgery, v. 6, p. 297-307, 2011.
P. Phannurat, W. Tharanon, and C. Sinthanayothin, “Simulation of
Elastic Soft Tissue Deformation in Orthodontics by Mass Spring
System”. 3rd International Symposium on Biomedical Engineering
(ISBME), 2008.
Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP
Avaliação de interação háptica em ambientes virtuais para treinamento na área de
saúde
Fátima L. S. Nunes
Cléber Gimenez Corrêa, Romero Tori
Laboratório de Aplicações de Informática em Saúde - LApIS
Laboratório de Tecnologias Interativas - Interlab
Escola de Artes, Ciências e Humanidades da
Escola Politécnica da Universidade de São Paulo - EPUSP
Universidade de São Paulo - EACH/USP
São Paulo, Brasil
São Paulo, Brasil
[email protected], [email protected]
[email protected]
possibilite indicar níveis de realismo. A abordagem não
consiste em verificar se o usuário adquiriu conhecimento
ou habilidades motoras para realizar um determinado procedimento, e sim em elaborar uma forma de avaliar a
interação háptica oferecida por um sistema de simulação,
no contexto de treinamento em saúde, considerando uma
situação ou procedimento específico. A interação háptica ou
tátil é considerada um elemento importante em ferramentas
deste tipo.
Deve-se ressaltar que a subárea de saúde selecionada para
uma primeira experiência foi a odontologia, especificamente
o procedimento para bloqueio do nervo alveolar inferior, um
procedimento que apresenta alta taxa de insucesso. Os usuários são especialistas na subárea, consistindo em docentes da
Faculdade de Odontologia de Bauru da Universidade de São
Paulo (FOB/USP).
As justificativas estão alicerçadas sobre a ausência de
métricas desta natureza e a relevância de uma especificação
adequada de realismo proporcionado por ambientes virtuais,
principalmente ambientes no domínio de treinamento em
saúde.
Abstract—Virtual Reality based-systems are broadly used in
the health area, mostly in the training. However, in order to
achieve a suitable realism, desirable feature in computational
systems of this type, certain attributes, such as those related
to the characteristics of devices, should be evaluated in the
context of the training. These attributes can cause problems
in the human-computer interaction, invalidating the training.
Thus, the development of an objective metric of quality of the
haptic interaction can assist in the assessment, contributing to
the building and validation of these systems. In the previous
paper, the main objective consisted in the development of a
training system in dental anesthesia with haptic interface.
Keywords- Assessment; haptic interaction; training.
Resumo— Os sistemas baseados em Realidade Virtual são
amplamente utilizados na área de saúde, principalmente no
treinamento. Entretanto, para atingir um realismo adequado,
qualidade desejável em sistemas computacionais desta natureza, determinados atributos, como aqueles relacionados às características de dispositivos, devem ser avaliados no contexto do
treinamento. Tais atributos podem causar problemas na interação humano-computador, inviabilizando o treinamento. Dessa
forma, a elaboração de uma métrica objetiva de qualidade
da interação háptica pode auxiliar na avaliação, contribuindo
para o desenvolvimento e validação de sistemas desse tipo. No
trabalho anterior, o ponto central consistia no desenvolvimento
de um sistema de treinamento em anestesia odontológica com
interface háptica.
II. R EVISÃO DA L ITERATURA
Palavras-chave- Avaliação; interação háptica; treinamento.
A revisão do estado da arte demonstrou que há uma
escassez de métricas objetivas para avaliação da interação
háptica humano-computador em ambientes virtuais [1], principalmente relacionados à área de saúde, sendo que há uma
série de métricas para avaliação de qualidade de áudio e
imagem [2]. Em síntese, a maioria das avaliações da área
consiste em testes subjetivos.
I. I NTRODUÇÃO
Os sistemas de Realidade Virtual são considerados como
ferramentas de treinamento capazes de fornecer experiência
aos aprendizes, principalmente na área de saúde. Tais ferramentas minimizam ou eliminam riscos aos pacientes, bem
como a insegurança dos próprios aprendizes, que normalmente treinam em manequins, seus pares ou em pacientes
reais [1].
Entretanto, problemas no contexto de treinamento virtual
envolvem a definição e mensuração de realismo, visto que
o objetivo é que a ferramenta comporte-se de forma semelhante ao mundo real.
O presente trabalho visa a especificação de uma métrica
objetiva baseada em testes subjetivos com usuários, que
III. M ATERIAIS E M ÉTODOS
Questionários com escala Likert-7 serão elaborados para
coleta dos dados subjetivos junto aos especialistas. Com
relação ao desenvolvimento do sistema computacional a
ser utilizado nos testes experimentais, foram adotados um
dispositivo háptico comercial e um framework de Realidade
Virtual voltado ao treinamento médico [3].
57
Corrêa, Nunes e Tori
Tabela I
A SPECTO HÁPTICO
IV. D ESENVOLVIMENTO
As atividades realizadas foram o levantamento de requisitos do sistema na FOB/USP, adaptação do dispositivo háptico, substituindo a caneta pela seringa Carpule (instrumento
utilizado na aplicação de anestesia), a segmentação do procedimento em tarefas para testar atributos de forma isolada e
a implementação de parte do sistema computacional (Figura
1) [4].
Os testes para especificação da métrica estão em estágio
de planejamento. A adaptação do dispositivo pode ser observada na Figura 2.
Atributo
Taxa de atualização
Força máxima de retorno
Ergonomia do dispositivo
Movimento de rotação
Valor 01
500 Hertz
2.2 Newtons
Caneta original
3 graus
Valor 02
1.000 Hertz
3.3 Newtons
Seringa Carpule
6 graus
Tabela II
A SPECTO V ISUAL
Atributo
Taxa de atualização
Aparência dos modelos
Complexidade dos modelos
Pontos de vista - 2D
Valor 01
30 Hertz
Textura
2 camadas
1 ponto de vista
Valor 02
60 Hertz
Cor
3 camadas
2 pontos de vista
Para trabalhos futuros, a métrica deverá ser aplicada no
domínio de treinamento em biópsia mamária, com o intuito
de ampliar e verificar a viabilidade da métrica em outras
subáreas de saúde. Além disso, a adição e modificação de
atributos devem ser realizadas, bem como o refinamento
dos valores, incluindo a participação de mais especialistas, embora especialistas de diferentes centros médicos ou
odontológicos podem atuar de formas distintas diante de
uma mesma situação, visto que outros fatores (sociais,
psicológicos e ambientais) podem interferir no contexto.
Figura 1. Sistema de treinamento para aplicação de anestesia odontológica
com dois pontos de vista.
AGRADECIMENTOS
Os autores agradecem ao Instituto Nacional de Ciência e
Tecnologia - Medicina Assistida por Computação Científica
(INCT-MACC) - Edital 15/2008, à CAPES (Coordenação de
Aperfeiçoamento de Pessoal de Nível Superior), pelo apoio
financeiro; ao Grupo de Design em Saúde, pela confecção
dos modelos sintéticos tridimensionais; e aos discentes e
docentes da FOB/USP, pela contribuição no levantamento
de requisitos.
R EFERÊNCIAS
Figura 2.
[1] T. R. Coles, D. Meglan, and N. W. John, “The role of haptics
in medical training simulators: A survey of the state of the
art,” IEEE Transactions on Haptics, vol. 4, no. 1, pp. 51–66,
Jan.-Mar. 2011.
Substituição da caneta do dispositivo háptico para adaptação.
V. R ESULTADOS
[2] E. Steinbach, S. Hirche, M. Ernst, F. Brandi, R. Chaudhari,
J. Kammerl, and I. Vittorias, “Haptic communications,” Proceedings of the IEEE, vol. 100, no. 4, pp. 937–956, 2012.
Para a elaboração da métrica, a especificação de determinados atributos foi realizada, a qual foi baseada no
levantamento de requisitos, na tarefa a ser desempenhada
no ambiente e no dispositivo háptico adotado. Nas tabelas I
e II os atributos e os valores definidos empiricamente podem
ser observados, considerando o aspecto háptico, bem como
a influência do aspecto visual.
[3] A. C. M. T. G. Oliveira and F. L. S. Nunes, “Building an
open source framework for virtual medical training,” Journal of
digital imaging: the official journal of the Society for Computer
Applications in Radiology, vol. 23, no. 06, pp. 706–720, Dec.
2010.
VI. C ONCLUSÃO
[4] C. G. Corrêa, R. Tori, and F. L. S. Nunes, “Haptic simulation
for virtual training in application of dental anesthesia,” in Proceedings of the 2013 XV Symposium on Virtual and Augmented
Reality, 2013, pp. 63–72.
A aplicação dos testes subjetivos deve averiguar se a
simulação háptica, ainda que limitada, pode oferecer uma
experiência ”realista” ao usuário, e quais atributos são relevantes no contexto.
58
Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP
Framework conceitual para a integração de bases de
dados de Biodiversidade distribuídas em larga escala
Daniel Lins da Silva
Pedro Luiz Pizzigatti Corrêa
Escola Politécnica da USP – Sistemas Digitais –
Universidade de São Paulo
São Paulo, Brasil
[email protected]
Escola Politécnica da USP – Sistemas Digitais –
Universidade de São Paulo
São Paulo, Brasil
[email protected]
Abstract — In recent years the integration of computational
systems and databases of biodiversity have been one of the major
challenges in the field of Biodiversity Informatics. The diversity
and heterogeneity of existing data systems and data models
makes the process even more complex. In parallel, the
technological advances in storage and communication of data, the
discovery of new techniques for the acquisition and digitization of
information and the advancement of tools for generating content
through the Internet, also contribute to the growth of these
massive data. In Brazil, government initiatives for digitalizing of
environmental data and the creation of open data policies are
also generating a significant increase of data in the databases of
environmental systems. Data from other domains, such as social
and economic, are also considered in these systems, because their
importance in processes of environmental impact analysis. But
after the integration of these data many challenges are identified.
How to perform the efficient management of large-scale data that
are stored in a distributed computational infrastructure? From
this scenario, this project proposes the development of a
conceptual framework, based on distributed systems technologies
and big data, enabling the management of these long-term data,
considering its growth and its relationship with new information
domains. To the validation of this model we will analyse the
computational scenario of data interoperability from the
Ministry of Environment of Brazil and its related institutions.
destes dados novos desafios são identificados. Como realizar a
gestão eficiente de dados em larga escala que são armazenados
em uma infraestrutura computacional distribuída? A partir deste
cenário, este projeto propõe a elaboração de um framework
conceitual, baseado em tecnologias de sistemas distribuídos e Big
Data, que possibilite a gestão destes dados em longo prazo,
considerando seu crescimento e o seu relacionamento com novos
domínios de informação. Para validação do modelo será
analisado o cenário computacional da interoperabilidade de
dados do Ministério do Meio Ambiente do Brasil e de suas
instituições vinculadas.
Keywords— Sistemas Distribuídos; Biodiversidade; Big Data;
Interoperabilidade;
I.
INTRODUÇÃO
Nos últimos anos a integração de sistemas computacionais
e bases de dados de biodiversidade têm sido um dos grandes
desafios da área de Biodiversity Informatics [1]. A diversidade
dos dados existentes e a heterogeneidade dos sistemas e das
informações torna o processo ainda mais complexo. Em
paralelo, os avanços tecnológicos no armazenamento e na
comunicação de dados, a descoberta de novas técnicas para
aquisição e digitalização de dados e o avanço das ferramentas
de geração de conteúdo por meio da internet, contribuem para
o crescimento massivo destes dados [2].
Keywords— Distributed Systems; Biodiversity; Big Data;
Interoperability;
Relacionado a este cenário, diversas pesquisas têm buscado
soluções para os desafios provenientes da manipulação de
grandes volumes de dados, também chamado de Big Data.
Sendo que este não é o único desafio. Além da diversidade e
heterogeneidade dos dados de biodiversidade, existe um grande
variedade de dados provenientes de outros domínios, que ao
serem integradas nesta arquitetura possibilitam análises
adicionais de problemas complexos como os impactos das
mudanças climáticas no planeta [3]. Como realizar a gestão
eficiente de dados em larga escala, que são armazenados em
uma infraestrutura computacional distribuída? Como gerar
valor agregado a esta informação após a sua integração com
outros domínios de informação relacionados?
Resumo — Nos últimos anos a integração de sistemas
computacionais e bases de dados de biodiversidade têm sido um
dos grandes desafios da área de Biodiversity Informatics. A
diversidade dos dados existentes e a heterogeneidade dos sistemas
e modelos de dados torna o processo ainda mais complexo. Em
paralelo, os avanços tecnológicos de armazenamento e
comunicação de dados, a descoberta de novas técnicas para
aquisição e digitalização dos dados e o avanço das ferramentas de
geração de conteúdo por meio da internet, também contribuem
para o crescimento massivo destes dados. No Brasil, iniciativas
governamentais de digitalização de dados ambientais e a criação
de políticas de dados abertos também estão gerando um aumento
significativo nas bases de dados dos sistemas ambientais. Dados
de outros domínios, como sociais e econômicos, também são
considerados nestes sistemas, pelo sua importância em processos
de análise de impacto ambiental. Sendo que após a integração
Este projeto propõe a elaboração de um framework
conceitual, baseado em tecnologias de Sistemas Distribuídos e
Big Data, para possibilitar a gestão em longo prazo de dados
massivos de biodiversidade em uma arquitetura distribuída,
59
Silva e Corrêa
possibilitando também seu relacionamento com informações de
outros domínios.
II.
biodiversidade. Algumas focadas na definição de chaves
taxonômicas globais [1], outras pesquisas definindo uma
solução de arquitetura para a integração de dados ambientais
[5]. Também existem abordagens para a integração de dados
com uma visão de longo prazo [6] e com foco em Big Data [7],
[8]. Sendo que estudos mostram que as ferramentas que tratam
de dados em larga escala perdem eficiência quando envolvem a
necessidade de armazenamento de dados heterogêneos [3].
Com base nestas informações, a revisão da literatura está sendo
realizado com foco principal nas áreas de Big Data,
interoperabilidade e gestão de dados de biodiversidade e sua
interação com dados socioeconômicos.
OBJETIVOS
Os principais objetivos deste projeto de pesquisa são:
 Definir um framework conceitual para a gestão, em
longo prazo, de dados massivos de biodiversidade em
uma arquitetura distribuída, considerando a utilização
de conceitos de Sistemas Distribuídos e Big Data.
 Definir um modelo de dados que possibilite o
relacionamento das diversas informações de
biodiversidade com dados de outros domínios da
ciência, com o objetivo de compreender problemas
complexos e apoiar possíveis soluções de análise e
apoio a tomada de decisão.
III.
REFERENCES
[1]
RELEVÂNCIA
[2]
Um dos grandes desafios da ciência é apoiar o
desenvolvimento sustentável do planeta. Mudanças climáticas,
populacionais, na biodiversidade de uma região ou nos níveis
dos oceanos, afetam diretamente o bem-estar da população
mundial e geram consequências como fome, doenças,
migrações populacionais e a pobreza. Existe a necessidade de
uma análise integrada de dados ambientais, sociais e
econômicos, onde os impactos nestas áreas poderão ser
analisados de forma abrangente. Conforme identificado pela
International Council for Science (ICSU), os cinco grandes
desafios da ciência nesta década, na área de Big Data, estão
relacionados com a busca de conhecimento necessário para
garantir um desenvolvimento sustentável do planeta, por meio
da integração das diversas áreas do conhecimento [4].
[3]
[4]
[5]
[6]
No Brasil diversas iniciativas para digitalização, integração
e análise de dados ambientais estão em andamento, gerando
uma grande quantidade de dados ambientais e científicos.
Como organizar estes dados da forma com que se possa obter
benefícios a partir de sua análise? A proposta desta pesquisa é
propor uma solução para estes desafios por meio de um modelo
distribuído para a gestão sustentável destes dados.
IV.
[7]
[8]
REVISÃO DA LITERATURA
Dentro da área de Biodiversity Informatics diversas
pesquisas foram realizadas com foco na integração de dados de
60
R. D. M. Page, “Biodiversity informatics: the challenge of linking data
and the role of shared identifiers”, Brief. Bioinform., vol. 9, no 5, p. 345–
354, abr. 2008.
M. Branco, “Distributed data management for large scale applications”,
phd, University of Southampton, 2009.
M. A. Parsons, Ø. Godøy, E. LeDrew, T. F. de Bruin, B. Danis, S.
Tomlinson, e D. Carlson, “A conceptual framework for managing very
diverse data for complex, interdisciplinary science”, J. Inf. Sci., vol. 37,
no 6, p. 555–569, dez. 2011.
“International Council for Science (ICSU) and the Challenges of Big
Data in Science”, Research Trends. [Online]. Available at:
http://www.researchtrends.com/issue-30-september-2012/internationalcouncil-for-science-icsu-and-the-challenges-of-big-data-in-science/.
[Acessado: 15-maio-2013].
J. Bendix, J. Nieschulze, e W. K. Michener, “Data platforms in
integrative biodiversity research”, Ecol. Informatics, vol. 11, p. 1–4, set.
2012.
S. L. Collins, S. R. Carpenter, S. M. Swinton, D. E. Orenstein, D. L.
Childers, T. L. Gragson, N. B. Grimm, J. M. Grove, S. L. Harlan, J. P.
Kaye, A. K. Knapp, G. P. Kofinas, J. J. Magnuson, W. H. McDowell, J.
M. Melack, L. A. Ogden, G. P. Robertson, M. D. Smith, e A. C.
Whitmer, “An integrated conceptual framework for long-term social–
ecological research”, Front. Ecol. Environ., vol. 9, no 6, p. 351–357,
nov. 2010.
E. Aronova, K. S. Baker, e N. Oreskes, “Big Science and Big Data in
Biology: From the International Geophysical Year through the
International Biological Program to the Long Term Ecological Research
(LTER) Network, 1957–Present”, Hist. Stud. Nat. Sci., vol. 40, no 2, p.
183–224, maio 2010.
L. Dai, X. Gao, Y. Guo, J. Xiao, e Z. Zhang, “Bioinformatics clouds for
big data manipulation”, Biol. Direct, vol. 7, no 1, p. 43, nov. 2012.
Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP
Uma extensão do agroXML para representação do
conhecimento técnico das operações agrícolas da
cana-de-açúcar através de ontologia
Elcio Abrahão
André Riyuiti Hirakawa
Laboratório de Automação Agrícola
Departamento de Engenharia de Computação
Escola Politécnica - Universidade de São Paulo (USP)
Av. Prof. Luciano Gualberto, travessa 3, nº 158, sala C2-56
Cidade Universitária - São Paulo - SP - CEP 05508-900
[email protected]
Laboratório de Automação Agrícola
Departamento de Engenharia de Computação
Escola Politécnica - Universidade de São Paulo (USP)
Av. Prof. Luciano Gualberto, travessa 3, nº 158, sala C2-56
Cidade Universitária - São Paulo - SP - CEP 05508-900
[email protected]
sobre o domínio das operações agrícolas da cana-de-açúcar,
dificultando o processo de tomada de decisões operacionais e
gerenciais na cadeia de produção. A proposta deste artigo é
apresentar uma extensão para o padrão agroXML baseado em
uma ontologia. Ontologia é o estudo do conhecimento sobre
um determinado domínio, no caso, as operações agrícolas da
cana-de-açúcar no Brasil. A extensão proposta será
referenciada pelo agroXML [2]. Isto permitirá uma maior
agilidade na tomada de decisões operacionais e gerencias das
operações agrícolas da produção de cana de açúcar.
Abstract — There is a huge exchange of information among
information systems on the sugar cane production chain to
manage all the agriculture operations. Although there are
standards to transport and represent operations shared data,
there is no standard to represent specific knowledge of such data.
This article aims at proposing a extension of the agroXML
protocol to represent and share the knowledge about the sugar
cane operations domain through a formal ontology. Access to this
knowledge will allow better operational and managerial decisionmaking throughout the whole production chain.
Keywords — agroXML, sugar-cane, agriculture operations,
ontology.
II.
Resumo — Há uma grande troca de informações entre os
diversos sistemas de informática na cadeia de produção da canade-açúcar. Apesar de já existirem padrões para transporte e
representação dos dados destas operações, não há um padrão
para representação do conhecimento específico destes dados. Este
artigo propõe uma extensão do padrão agroXML para
representar e compartilhar o conhecimento técnico sobre o
domínio das operações agrícolas da cana-de-açúcar através da
criação de uma ontologia. O acesso a esse conhecimento
permitirá uma melhora na qualidade da tomada de decisões
operacionais e gerenciais em toda a cadeia de produção.
Para desenvolver uma ontologia que possa ser referenciada
através de uma extensão do protocolo agroXML foi utilizado
um método descrito por Zheng [7] que consta de 4 fases: (a)
aquisição de conhecimento; (b) representação do
conhecimento; (c) formalização da ontologia e (d) avaliação
da ontologia. A ontologia resultante foi base para o
desenvolvimento da extensão do protocolo agroXML.
A. Aquisição do Conhecimento
As operações agrícolas são classificadas conforme os
grandes grupos de operações: (a) Plantio, (b) Cultivo, (c)
Colheita e (d) Apoio. Os nomes que identificam as operações
são atribuídos segundo o padrão AGROVOC [1] em português
e inglês e foi feita uma descrição simplificada de cada operação
para facilitar a distinção entre as mesmas.
Palavras chave — agroXML, cana-de-açúcar, operações
agrícolas, ontologia.
I.
MATERIAL E MÉTODOS
INTRODUÇÃO
Segundo [6] as operações agrícolas representam cerca de
67,16% do custo de processamento do açúcar e do etanol e há
grande competição entre os produtores que estão
constantemente em busca de redução de custos e aumento da
produtividade. Neste cenário os sistemas de informação são de
fundamental importância e a cadeia de produção depende da
troca de informações para operar e gerenciar a produção
agrícola.
B. Representação do Conhecimento
A segunda fase consiste na criação de conceitos, sua
classificação e criação de relacionamentos entre estes
conceitos. Este processo deve ser acompanhado por um
especialista e validado a fim que não haja conceitos
redundantes ou regras conflitantes.
Os seguintes
relacionamentos devem são identificados: (a) Recursos
utilizados por cada operação; (b) Ordem de execução das
operações; (c) Parâmetros para as regras de restrição.
Apesar de já existirem padrões consolidados para troca de
informações entre sistemas agrícolas [3], não existe um padrão
para representar e compartilhar os conhecimentos técnicos
61
Abrahão e Hirakawa
pode ser apontada antes de uma operação de distribuição de
mudas.
Fig. 1. Hierarquia de classes gerado pela ontologia.
C. Formalização da Ontologia
Uma vez determinados os conceitos, relacionamentos e
regras foi utilizada a OWL [4] para representar a ontologia que
originou a extensão XML a ser referenciada pelo agroXML
D. Avaliação da Ontologia
A avaliação propõe uma prova de conceito onde as tabelas
das operações serão enviadas a seis produtores que serão
solicitados a classificar cada operação com notas de 0 (menos
adequado) até 5 (mais adequado) nos seguintes quesitos: (a)
nome da operação; (b) classificação no grande grupo; (c)
atribuição de recursos; (d) lista de parâmetros; (e) regras de
restrição.
Fig. 3. XML Schema que representa a hierarquia da ontologia.
IV.
A descrição do conhecimento técnico de operações
agrícolas através de um estudo ontológico e sua representação
formal através da OWL contribui para a melhoria da tomada de
decisões operacionais e gerenciais é pode ser estendida a
operações agrícolas de outras culturas. Este artigo apresentou
uma extensão do agroXML para as operações agrícolas da
cana-de-açúcar no Brasil que mantem a compatibilidade com o
protocolo original e permite a melhoria na tomada de decisões
em toda a cadeia de produção.
E. Extensão para o protocolo agroXML
Após a formatação da ontologia utilizando o OWL foi
utilizado o XML Schema [5] para gerar uma extensão para o
agroXML.
[1]
[2]
Fig. 2. A esquerda os relacionamentos necessários para reaizar uma operação
de herbicida e a direita as restrições aplicaveis a mesma operação.
III.
CONCLUSÃO
[3]
RESULTADOS E DISCUSSÃO
[4]
A hierarquia de classes gerada pela ontologia é apresentada
na figura 1. Na figura 2 são exibidos os relacionamentos de
uma operação agrícola de pulverização de herbicidas em pósemergência e as regras de restrição para os parâmetros das
operações. A hierarquia de classes OWL, figura 3, origina um
XML Schema para ser associado ao protocolo agroXML no
formado de um arquivo de extensão.
[5]
[6]
Em comparação com o protocolo original a adição do
extensão pode, entre outros benefícios, impedir erros no
sequenciamento de operações, por exemplo: uma operação de
cobertura de sulcos para um determinado talhão de cana não
[7]
62
AGROVOC Thesaurus, Food and Agriculture Organization of the
United
Nations
(FAO).
[2011-02-13].
http://aims.fao.org/website/AGROVOCThesaurus/sub
Douschitz, R., Kunisch, M., Jungbluth, T. e Eider, C. 2005. agroXML A Standardized Data Format for Information Flow in Agriculture. In:
EFITA/ WCCA, Portugal.
Santos, C. ; Riyuiti, A. An Overview of the Use of Metadata in
Agriculture - IEEE Latin America Transactions, Jan. 2012, Vol.10(1),
pp.1265-1267
W3C, OWL Web Ontology Language, W3C Recommendation,
disponível em:
http://www.w3.org/TR/owl-features/, acessado em
12/05/2013
W3C, Extensible Markup Language Schema (XML Schema) 1.1 - W3C
Recommendation, disponível em: http://www.w3.org/XML/Schema,
acessado em: 12/05/2013.
Xavier, C., Rosa, J. Custos da Produção de Cana-de-Açúcar, Açúcar e
Etanol no Brasil, Safra 2011/2012 - Pecege - ESALQ - USP, Brasília,
Agosto 2012, 24p.
Zheng, Y.L., He, Q.Y., Qian, P. e Li, Z., Construction of the OntologyBased Agricultural Knowledge Management System. Journal of
Integrative Agriculture 11, 2012, 700-70.
Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP
Plataforma Online de Produção, Execução e
Compartilhamento de Conteúdos Interativos de
Realidade Virtual
Evandro C. Freiberger
Romero Tori
Interlab POLI/USP, Brazil
Email: [email protected]
Interlab POLI/USP, Brazil
Email: [email protected]
Resumo—Realidade Virtual e Aumentada são usadas na
produção de simulações complexas para ambientes virtuais 3D,
utilizando-se de dispositivos de entrada e de saída não triviais,
para fornecer aos usuários uma sensação de imersão em um
mundo sintético em tempo real. Nesse trabalho é apresentado
um modelo arquitetural para uma plataforma de produção,
compartilhamento e execução de aplicações de realidade virtual.
O objetivo é produzir e validar um modelo arquitetural que
possibilite a produção colaborativa por meio do reuso de conteúdo
interativo em ambiente de nuvem. A plataforma foi projetada com
base no paradigma de computação orientada a serviços, com o
objetivo de promover a interoperabilidade, flexibilidade e baixo
acoplamento entre os componentes.
Abstract—Virtual and Augmented Reality are used in the
production of complex virtual environments, using non-trivial
input and output devices to provide users with a sense of
immersion in real-time synthetic worlds. In this paper we present
an architectural model for a platform for the production, sharing
and implementation of Virtual Reality applications. The goal is
to produce and validate an architectural model that enables the
collaborative production through the reuse of interactive content
in cloud environment. The platform was designed based on
the paradigm of service-oriented computing, aiming to promote
interoperability, flexibility and low coupling between components.
I.
I NTRODUÇÃO
Os ambientes virtuais 3D (AV) possibilitam a ampliação
dos sentidos e das capacidades dos seres humanos, podendo
ver, ouvir, sentir, acionar e viajar muito além das capacidades
naturais, criando alternativas para a produção de aplicações
voltadas para o entretenimento, simulações e treinamento [7].
Muitos trabalhos de pesquisas estão sendo desenvolvidos
para promoverem ganhos na produção de AV, em especial,
aqueles que envolvem aplicações de realidade virtual (RV).
Várias abordagens com diferentes níveis de granularidade de
componentes foram propostas para viabilizar o aumento de
produtividade e qualidade no desenvolvimento de aplicações
de RV. Podem ser citados exemplos como as API (Application Programming Interface), os frameworks e as plataformas de componentes. Também são encontradas propostas
que combinam o desenvolvimento orientado a componentes
com a computação distribuída, permitindo que os sistemas de
aplicação RV sejam distribuídos em vários nós de redes de
computadores.
Computação orientada a serviços (COS) envolve conceitos
63
originários de uma variedade de disciplinas, como sistemas
de computação distribuída, arquiteturas de computadores e
middlewares, computação em grade, engenharia de software,
linguagens de programação, sistemas de banco de dados,
segurança e representação de conhecimento. A solução técnica
mais adotada para o desenvolvimento de computação orientada
a serviços atualmente é o Web Services [5].
Com o objetivo de aumentar o potencial de reuso e compartilhamento de conteúdos interativos, este trabalho propõe
uma plataforma de software orientada a serviços com vistas a
permitir a produção, execução e compartilhamento de conteúdo
interativo de aplicações de RV em ambiente distribuído e
online. Além da plataforma é proposto um modelo de representação de mundos virtuais composto por elementos que podem
ser recombinados para produzirem outros mundos virtuais.
II.
T RABALHOS R ELACIONADOS
Shao e McGraw [6] propõem um framework que combina
COS e Computação em Nuvem para produzir simulação militar, por meio da composição de componentes.
Li et al. [4] apresentam um middleware baseado em componentes para produção de aplicações de RV para simulação
de subestações de transformação de energia elétrica.
Filho et al. [3] descrevem uma plataforma composta por
um conjunto de frameworks e ferramentas com o propósito de
facilitar e acelerar o desenvolvimento de ambientes virtuais.
Chevaillier et al. [1] propõem uma metodologia de desenvolvimento e um framework para a concepção de ambientes
semânticos de RV por meio de modelos baseados em UML.
III.
M ODELO A RQUITETURAL
A plataforma especificada é caracterizada como um barramento de serviços, cujo diferencial, está na capacidade de
produção e execução de aplicações de RV, em um ambiente
distribuído online. A visão lógica dos elementos da plataforma,
ilustrada pela Figura 1, é constituída por quatro subsistemas e
suas relações de dependência. A seguir serão apresentados os
subsistemas:
• Produção de Mundos Virtuais - possui as funcionalidades para a criação, alteração, exclusão e reuso de
elementos de mundos virtuais. Os mundos virtuais, cenas
e objetos virtuais são mantidos em repositórios para que
Freiberger e Tori
em uma fase de desenvolvimento e disponibilização, onde
todas as funcionalidades dos subsistemas serão implementadas
para implantação e disponibilização da plataforma em um
ambiente produção.
V.
C ONCLUSÃO
Os resultados obtidos com a plataforma apontam para três
pontos favoráveis. O primeiro é obtido pelas características
do modelo arquitetural proposto, que em função do uso do
paradigma da computação orientada a serviços, permite que
qualquer aplicação capaz de invocar Web Services possa consumir os serviços oferecidos pela plataforma. O segundo ponto
está relacionado com a representação de mundos virtuais em
um ambiente online. Isso permite que os conteúdos interativos
possam ser compartilhados e reusados para produzir novas
aplicações de RV. O terceiro ponto é a redução de dependências
a recursos computacionais especiais, como o processamento
gráfico, armazenamento e dispositivos específicos de entrada,
visto que, o processamento e controle das aplicações são realizados na plataforma remota, reduzindo as exigências desses
recursos nos clientes consumidores dos serviços da plataforma.
Figura 1.
Como trabalhos futuros podem ser considerados o desenvolvimento de ambientes de produção e execução de aplicações
de RV, para disponibilizar interfaces de alto nível de abstração
para usuários finais.
Visão Lógica da Plataforma
possam ser reusados na composição de outras aplicações
de RV.
• Execução de Mundo Virtuais - disponibiliza um contexto de execução para as aplicações produzidas na plataforma. O controle do fluxo de execução é previamente
estabelecido por meio de relações entre os objetos eventos, comportamentos e transformações.
• Controle de Acesso - reúne as funcionalidades que
permitem o controle de acesso e autorizações aos usuários
da plataforma.
• Gerenciador de Recursos - reúne as funcionalidades de
gerenciamento, busca e recuperação de recursos usados
na produção e execução de mundos virtuais, tais como:
imagens, sons, vídeos, modelos de objetos 3D, texturas.
IV.
AGREDECIMENTOS
Os autores agradecem a CAPES, a FAPEMAT pelo apoio
dado à viabilização do convênio EPUSP/UFMT para realização
do doutorado a qual esse trabalho tem origem.
R EFERÊNCIAS
[1]
[2]
[3]
AVALIAÇÃO DA A RQUITETURA
O método ARID foi escolhido para a avaliação arquitetural
em função de poder ser aplicado em arquiteturas incompletas
[2]. Associado aos resultados do método foram implementados
protótipos como prova de conceito.
As implementações produzidas seguiram uma lista de riscos e criticidade apontados pela aplicação do método de revisão. As implementações e testes foram realizados utilizandose as seguintes tecnologias de implementação e execução: kit
de desenvolvimento Java (JDK 7), Java Runtime (JRE 7), IDE
Netbeans 7.2.1, API Java 3D 1.5.1, API de mapeamento objeto
relacional JPA 2.0 com motor EclipseLink, API JAX-WS para
definição, implementação e geração de Web Services, banco
de dados PostgreSQL 9, servidor de aplicação Glassfish 3.1.2.
O objetivo da implementação dos protótipos é avaliar o
modelo arquitetural proposto considerando requisitos funcionais e não funcionais críticos. Uma vez que esses pontos
críticos tenham sido avaliados, o projeto da plataforma entra
64
[4]
[5]
[6]
[7]
P. Chevaillier, T.-H. Trinh, M. Barange, P. De Loor, F. Devillers, J. Soler,
and R. Querrec. Semantic modeling of virtual environments using
MASCARET. In 2012 5th Workshop on Software Engineering and
Architectures for Realtime Interactive Systems (SEARIS), pages 1–8,
2012.
P. C. Clements. Active reviews for intermediate designs. Norma Técnica
CMU/SEI-2000-TN-009, 2000.
R. F. d. A. Filho, V. Teichrieb, and J. Kelner. Hydra: Virtual environments
development platform. In 2011 XIII Symposium on Virtual Reality (SVR),
pages 102–111, 2011.
M. Li, S. Wang, and T. He. A transformer substation simulation engine
based on virtual reality. In 2010 International Conference on Computer,
Mechatronics, Control and Electronic Engineering (CMCE), volume 2,
pages 41–44. IEEE, Aug. 2010.
M. Papazoglou and W.-J. Van Den Heuvel. Service oriented architectures:
Approaches, technologies and research issues. VLDB Journal, 16(3):389–
415, 2007.
G. Shao and R. McGraw. Service-oriented simulations for enhancing
situation awareness. In Proceedings of the 2009 Spring Simulation
Multiconference, SpringSim ’09, page 48:1–48:7, San Diego, California,
2009. Society for Computer Simulation International. ACM ID: 1639859.
R. Tori and C. Kirner. Fundamentos de realidade virtual. In R. Tori,
C. Kirner, and R. Siscoutto, editors, Fundamentos e Tecnologia de
Realidade Virtual e Aumentada, pages 02–21. Editora SBC – Sociedade
Brasileira de Computação, Porto Alegre, VIII Symposium on Virtual
Reality Belém – PA, 2006.
Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP
Modelo de Data Mining aplicado a Data Marts de
preços de comercialização de Grãos
Fernando Elias Correa
Prof. Dr. Pedro Luiz Pizzigatti Corrêa
Dep. de Engenharia Computação e Sistemas Digitais - PCS
Laboratório de Automação Agricola - LAA
[email protected]
Dep. de Engenharia Computação e Sistemas Digitais - PCS
Laboratório de Automação Agricola - LAA
[email protected]
processar volumes grandes de dados, agrupados em diversas
cadeias produtivas e regiões. Como exemplo pode se destacar
o Instituto brasileiro de Geografia e Estatística – IBGE e o
Centro de Estudos Avançados em Economia Aplicada –
CEPEA da Universidade de São Paulo.
Resumo
Análise de informações integradas tem sido grande desafio para
diferentes setores, em especial a área agricola, a qual possui variáveis
multidimensionais. Tais séries temporais, ou seja, que evoluem no
tempo podem ser analisadas usando modelos de Data Mining
estatísticos, como a Decomposição de Tucker e correlações. Para
isso, foram aplicados estudos de casos em Data marts de preços de
comercialização de Grãos, tais bases contém informações históricas
de 10 anos de preços, diferentes produtos e regiões. O estudo foi
aplicado a 4 anos de séries temporais, para 7 regiões e 4 produtos. Os
resultados da Decomposição de Tucker destacam que é possível
identificar e prover análises integradas proveniente de visão conjunta
de diferentes técnicas.
Os desafios para agrupamento e organização dessa massa
de dados foram iniciados em pesquisas anteriores realizada
para geração de Data Marts para o Agronegócio, tornando
possível sua expansão para modelos de processo de análise
integrada [2].
O modelo para análise proposto é a detecção de eventos. E
compreendem a aplicação de matrizes de Correlação e
Decomposição de Tucker [6]. O estudo de caso foi aplicado à
preços de comercialização da cadeia produtiva de Grãos.
Palavra Chave: Data Mining, Decomposição de Tucker,
Correlação, Agronegócio.
II. REVISÃO BIBLIOGRÁFICA
A técnica de Decomposição de Tucker foi apresentada em
1966 por Tucker [6] e trata-se de um método para análise de
dados, abordando limpeza, compreensão e finalizando na
visualização da estrutura principal dos dados em uma
dimensão reduzida.
Abstract
Agribusiness, as many other activities, produces huge amounts of
spatio-temporal data. We need a system in order to store, analyze,
and mine this data. In a previous work, we developed data warehouse
tools to store, organize and query Brazilian agribusiness data from
several regions along 10 years. In this paper, we go a step ahead, and
propose specific data mining techniques to discover marks and
evolution patterns from Agribusiness data. We propose the use of
Tucker decomposition to automatically detect short time windows
that exhibit large changes in the correlation structure between the
time-series of prices from the Brazil Grain market.
A composição multidimensional dos dados forma um
cubo, conforme a figura 1, sendo cada dimensão do mesmo
usa uma parte do tensor. Assim teremos as dimensões A, B e
C, e o tensor principal G, que explora todas as dimensões
anteriores [4].
Para tanto, o método decompõe o tensor principal em
matrizes de N dimensões. A variabilidade encontrada no
cruzamento das diferentes dimensões resulta em elementos de
destaque no conjunto de dados [5].
Keywords: Data mining, Tucker Decomposition, Correlation,
Agribusiness.
I.
INTRODUÇÃO
Análise integrada de informações tem grande importância
para todas as áreas de pesquisa. E, em especial para o
agronegócio, nas quais as variáveis são relacionadas entre si.
[3].
Assim, modelar meios para análises integradas do
agronegócio, envolvendo busca por eventos e ocorrências que
evoluam ao longo do tempo irá potencializar análise dessas
séries temporais.
Figura 1: Decomposição básica do modelo Tucker3 [4]
Assim, o modelo tucker3 busca um conjunto de
matrizes que possa ser menor em dimensionalidade que o
conjunto original (tensor principal e matrizes), mas que
Com a necessidade crescente de aquisição de
conhecimento, centros de pesquisas, instituições e órgãos
governamentais tem se especializado em coletar, armazenar e
65
Corrêa e Corrêa
permita representar as informações
existentes no conjunto original [4].
mais
importantes
variabilidade encontrada nesses eventos. Assim aplicou-se a
matriz de correlação e na Figura 3 percebe-se que até o
primeiro semestre de 2007 a região de Sorriso tinha uma
correlação negativa em relação às outras, sendo que no
segundo semestre o comportamento se inverte, ficando
totalmente positiva para o último trimestre. Já para 2009 o
segundo trimestre também apresenta a inversão da correlação,
se tornando negativa.
III. RESULTADOS
A pesquisa consistiu em separa anualmente as séries
temporais, com periodicidades mensais. Para a decomposição
de Tucker o primeiro processo a ser analisado é a Tabela 1, em
que apresentada à variabilidade dos dados obtidos após a
aplicação do modelo, dividido pelos blocos de anos entre 2006
a 2009.
Assim a leitura do ano de 2006 é verificar o fator 1 para a
dimensão região, após o fator 1 para a dimensão medidas e
fator 1 para a dimensão tempo, fator (1,1,1) e correspondem a
52 % da variabilidade dos dados. Já os fatores 2, 1, 2
respectivos representam 43 % dos dados.
Tabela 1: Explicabilidade de cada decomposição para os anos.
Figura 3: Correlação da Região Sorriso para 2007 e 2009.
Com os resultados obtidos foi possível mapear o perfil da
região junto a especialistas de mercado e verificar que ao ano
de 2007, a produção de milho na região era inexpressiva, a
produção no estado de Mato Grosso era em torno de 4 milhões
de toneladas para o ano safra de 2006/2007, sendo esse
volume dobrado na safra de 2007/2008 para próximo dos 7,8
milhões de toneladas. Tornando o Estado de Mato Grosso
(que inclui Sorriso) uma das referencias de preços de Milho
[1].
Os fatores cuja combinação apresentarem maior percentual
de explicação será o foco de análise. A próxima etapa será a
análise individual das dimensões definidas na entrada do
tucker3, que foram: regiões, medidas (produtos) e tempo. Para
tanto serão usados os gráficos das saídas, no qual tem seus
valores definidos entre -1 a 1, em que os fatores próximos dos
extremos são eventos focos da análise.
Novamente, em 2009, Sorriso foi uma das regiões mais
importantes na produção de Soja, movimentando 1,33 Bilhões
de Reais para aquele ano [1].
A Figura 2 observa-se que a região “Sorriso” em 2007 está
no limite de -1 (fator2) e em 2009 está no limite de 1 (fator1).
Variáveis próximas a zero não são analisadas, pois não
possuem variações expressivas.
IV. CONCLUSÃO
Os modelos para análise integrada, utilizando a
decomposição de Tucker e matriz de correlações, mostraramse eficazes para a detecção de eventos ocorridos nas séries
temporais. Bem como, auxilia o pesquisador para a
visualização e interação de dados multidimensionais.
O estudo de caso a priori aplicado ao Data Mart de Grãos,
será expandido como trabalho futuro a outras cadeias do
agronegócio, como é a carnes, por ter uma importância forte
na economia agrícola.
REFERENCES
[1]
Figura 2: Decompsição de tucker para regiões.
[2]
Para a dimensão tempo, seguiu a mesma análise das
regiões e identificarão alterações significativas. em 2007 o
fator 1, nos meses de outubro a dezembro e em 2009 para os
períodos de entre Maio e Junho e inversão para Dezembro.
[3]
[4]
Dado que os resultados da aplicação de tucker3
evidenciaram eventos ocorridos para a região de “Sorriso”
frente às outras regiões e também foram destacados períodos
específicos durante os anos de 2007 e 2009, a proposta foi
agregar outro modelo de análise que permitiria detalhar a
[5]
[6]
66
Conab. 2010. National Food Supply Company. Available at:
http://www.conab.gov.br.
Correa, F. E., Corrêa, P. L. P., Almeida Jr., J. R., Alves, L. R. A.,
Saraiva, A. M. 2009, Data warehouse for soybean and corn market on
Brazil. Joint International Agricultural Conference.
King, R. P., Boehlje, M., Cook, M., L., Sonka, S. T., 2010. Agribusiness
Economics and Management, American Journal of Agricultural
Economics, Oxford Journal, 92: 554-570
Kolda, T. G. and Bader, B. W., 2009. Tensor decompositions and
applications. SIAM Review. vol. 51, n 3, pp. 455-500.
Skillicorn, D., 2007. Understanding Complex Datasets: Data Mining
with Matrix Decompositions, Chapman and Hall/CRC, New York –
USA.
Tucker, L. R., 1966. "Some mathematical notes on three-mode factor
analysis", Psychometrika, vol. 31, pp. 279.
Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP
Differentiated Service Strategy for Backbone
Networks
Joana Sócrates Dantas, Regina Melo Silveira
and Wilson Vicente Ruggiero
Laboratório de Arquitetura e Redes de Computadores - LARC
Engenharia da Computaça̋o - Engenharia Elétrica
Escola Politécnica da Universidade de Sa̋o Paulo
Email: [email protected]
Abstract—Current Backbone data transport service is complied by Wavelength Division Multiplexing (WDM) networks.
Even though this technology enables provision of a vast amount
of resources, contention for resources may occur. For this reason
service providers tend to differentiate the level of service according to Service Level Agreements (SLA) aiming on optimizing
economic results. This doctoral research proposes an innovative
methodology for differentiated resource allocation according to
demands priority levels.
I.
I NTRODUCTION
On a backbone network, carriers serve Internet Service
Providers (ISP) with long-haul data transport. The service
provided must guarantee a minimum supply quality stipulated
by a Service Level Agreement (SLA). In order to be able
to offer different service levels for each client, backbone
network managers must rely on differentiated service (DiffServ) strategies.
Fig. 1.
Backbone network and its components
Fig. 2.
Russian Dolls Model - resource distribution constraint model
Currently, the main type of Diff-Serv mechanism available
for backbone networks are preemption policies described for
Multi-Protocol Label Switching (MPLS) architecture [1] and
extended to Generalized Multi-Protocol Label Switching (GMPLS) architecture [2]. In preemption strategies higher priority
demands may use the resources previously assigned to a lower
priority active connection that would be disrupted.
A backbone network connection transmits a large volume
of data and should ideally not be disconnected. Furthermore,
preemption strategies tend to cause network instability [3], not
tolerable on large complex networks, as is the case of backbone
networks. The network scenario we focus on our research can
be observed in Fig. 1. In the figure it is possible to observe a
Path Computation Element (PCE) that works as a parent PCE
in a hierarchical architecture and is able to compute end-to-end
paths with information gathered from children PCEs present
on various autonomous systems.
A recent study on Elastic Optical Networks (EON) proposes a procedure where resources allocated to lower priority
connections are diminished in case of a network element
failure [4]. The aim is to increase the overall number of served
connections, in a scenario where contention of resources may
occur.
Our research aims on proposing a differentiated service
strategy for backbone networks based on constrained distribution of resources. At the moment we focus our study on WDM
67
networks. We consider a scenario where path and resources are
computed centrally by a PCE.
II.
O UR P ROPOSAL
In order to implement differentiated distribution of resources, a constrained model must be adopted. Our mechanism
implements a variation of the Russian Dolls Model (RDM) as
a resources distribution constraint model described for MPLS
networks in [5]. In RDM, the maximum bandwidth usage
allowed in a link is achieved by the accumulation of successive
Class-Types (CTs) bandwidth constraints (BW). For example,
CT7 may use resources up to BC7 limit, while CT6 shares its
BC6 constraint with CT7, CT5 shares its BC5 constraint with
CT6 and CT7 and so on as can be observed in Fig. 2.
Dantas, Silveira e Ruggiero
Fig. 3.
Fig. 4.
Resource distribution per Class-Type
On a network state where contention for resources occurs,
the resources distribution constrain model enforces the amount
of resources allocated to demands to be less than the original
amount requested. The constraint model guarantees that higher
priority demands are granted more resources than lower priority demands. However, by guaranteeing a minimum amount of
resources, the model also prevents lower priority connections
from being fully disrupted.
III.
P RELIMINARY R ESULTS
A. results from off-line scenario
We have developed a Mixed Integer Linear Programming
(MILP) model, via which we have tested our proposal for an
off-line scenario. The mathematical model and the comparative
results were presented in [6].
Results indicated that, by implementing our proposed
mechanism, lower priority demands are allocated a minimum
amount of resources, while in a scenario where the mechanism
is not implemented, called standard, lowest priority demands
are not served at all. Also, even though resources are more
fairly distributed, higher classes connections are guaranteed
more resources than lower ones. The partial results may be
observed in Fig. 3.
IV.
As future work we intend to propose enhancements for
the control plane of optical networks in order to accommodate
allocation of resources that are less than the original value
requested. These enhancement would include extensions to the
PCE protocol and to Resource Reservation Protocol (RSVP)
as part of the GMPLS architecture.
ACKNOWLEDGMENT
The authors would like to thank Capes-PROEX scholarship
and Prof. Dr. José Roberto Amazonas for his collaboration.
R EFERENCES
[1]
[2]
In order to evaluate the mechanism we have developed
an ad-hoc Java based discrete event driven simulator. We
implemented a test using the German Nobel network topology
with 17 nodes and 27 bidirectional links. Each link in the
network corresponds to one fibre with 40 wavelengths. Each
of them has a 100 Gbps bandwidth capacity.
[3]
Partial results indicate that our mechanism promotes a better service to higher priority demands either as lower blocking
probability or as larger amount of resources allocated. These
results can be observed in Fig. 4. By guaranteeing service
and allocating more resources to higher priority connections,
service providers avoid expensive penalties and increase their
revenue.
[5]
68
C ONCLUSION AND FUTURE WORK
Our research proposes a mechanism that promotes differentiated distribution of resources according to classes of service.
Partial results in both off-line and dynamic scenarios indicate
that our mechanism guarantees a minimum level of service
to lower classes when compared to conventional preemption
techniques. Results also show that the mechanism increases
the number of served higher priority demands and the amount
of resources allocated to them. based on these results we
assume that service providers may have, by implementing our
proposed mechanism, an efficient and flexible tool to shape
data transport service according to their economic objectives
and traffic profile.
B. results from dynamic scenario
In a dynamic resource assignment scenario RDM connections are set-up and terminated online. In this case, in our
model, resource allocation constrain is only enforced under
resource contention scenario.
Blocking Probability per Class-Type
[4]
[6]
F. Le Faucheur, “Protocol extensions for support of diffserv-aware mpls
traffic engineering,” Tech. Rep., 2005.
E. Mannie, “Generalized multi-protocol label switching (gmpls) architecture,” Tech. Rep., 2004.
J. C. de Oliveira, C. Scoglio, I. F. Akyildiz, and G. Uhl, “New preemption
policies for diffserv-aware traffic engineering to minimize rerouting in
mpls networks,” IEEE/ACM Transactions on Networking (TON), vol. 12,
no. 4, pp. 733–745, 2004.
Y. Sone, A. Watanabe, W. Imajuku, Y. Tsukishima, B. Kozicki, H. Takara,
and M. Jinno, “Bandwidth squeezed restoration in spectrum-sliced elastic
optical path networks (slice),” Journal of Optical Communication Networks, vol. 3, no. 3, pp. 223–233, 2011.
F. Le Faucheur, “Russian dolls bandwidth constraints model for diffservaware mpls traffic engineering,” Tech. Rep., 2005.
J. Dantas, D. Careglio, R. Silveira, W. Ruggiero, and J. Sole-Pareta,
“Pce algorithm for traffic grooming and qos in multi-layer/multi-domain
ip over wdm networks,” in Transparent Optical Networks (ICTON), 2011
13th International Conference on. IEEE, 2011, pp. 1–5.
Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP
Transition Support Services for Distributed User
Interfaces
João Paulo Delgado Preti
Lucia Vilela Leite Filgueiras
Escola Politécnica da Universidade de São Paulo
Departamento de Eng. de Computação e Sistemas Digitais
São Paulo, Brasil
[email protected]
Escola Politécnica da Universidade de São Paulo
Departamento de Eng. de Computação e Sistemas Digitais
São Paulo, Brasil
[email protected]
Abstract— The allocation of interactive narrative across
several devices characterizes distributed interaction, a
phenomenon that is occurring naturally as the number and
availability of devices to support interaction grows, even though
there is still only ad hoc technological support for designing such
systems. This paper focuses on relevant aspects of a cross-device
interaction and the bridges that allow user migration from one
device to another and present DISS, a service middleware that
supports a planned and distributed interaction.
and communication between devices. As can be seen in Fig. 1,
all devices in the distributed environment must have an
implementation of DPWS specification.
Keywords—component; DUI; SOA; transition; device as a
service
IMMS is responsible for mapping the interaction modality
with the interface of a remote service a given application wants
to interact with.
I.
Despite DPWS stack provide specifications for service
description, location, security and events, it does not include
some features needed for a distributed interaction scenario. For
this reason, DISS existence becomes necessary, its rationale
being described in the following paragraphs.
INTRODUCTION
DMS is responsible for registering desired devices,
allowing grouping, sorting and adding information, such as
location.
Middleware consists of reusable functionality that offers
solutions to frequently encountered problems like
heterogeneity, interoperability, security, dependability, etc.
This functionality is offered either by the core of a middleware
infrastructure, or by complementary services. The former
mediates the interaction between distributed objects, while the
latter deal with complementary issues. Our goal is to define
these complementary services in order to help in the construct
of a planned and organized distributed interaction.
CSS is responsible for managing the user context,
persisting objects state in the server and client side, regardless
the number or type of devices.
UMS is responsible for user registration and device
association.
CCS is responsible for content conversion, in case the
selected device does not support the received content.
Therefore this section presents a service-oriented
architecture that assist in the development of applications that
need to coordinate a distributed interaction between multiple
devices. Distributed Interaction Support Service (DISS) is a
service that intermediates the communication between devices,
as in Figure 1. DISS specifies a set of necessary services to
allow the coordination between multiple devices sequentially
or simultaneously.
TSS is responsible to ensure that, during the execution of a
task, users and devices can be interchanged.
DGIS is a service that provides a default GUI to represent
the target device.
II.
TRANSITION SUPPORT SERVICES
In our middleware, TSS is responsible for allowing the
users to continue their tasks into another device or transfer the
task to another user to continue the task that was being held.
Three types of transitions need to be supported in our
middleware.
Fig. 1. Distributed Interaction Support Service (DISS) on top of DPWS.
The first one is input transition, when a user wants that
other users interact with UI components, while the first one
keeps the task management. For example a user requesting
another one (in another device) to complete an input text, or to
select an item of a list or even provide an image.
SOA technologies for devices has emerged like UPnP and
Jini, but a promising technology for compatibility with Web
Services (WS) is proposed by OASIS through Device Profile
for Web Service (DPWS) specification.
DISS is being built on top of DPWS (Device Profile for
Web Service) specification as architecture base for discovery
69
Preti e Filgueiras
The second one is transition between devices, where users
are directed to another device in order to achieve the required
steps in pursuit of their goals.
We tested the subset {1:0 , 1:1 , 1:Nl , 1:Na} successfully.
The subset {1:Nl , 1:Na} were achieved by using WS-Eventing
present in the DPWS Stack with two Android devices. For the
broadcast solicit set {N:1f , N:1l , N:Mfd , N:Mld , N:Ma} a
pool thread implementation is needed. We are investigating the
possibility of using Constrained Application Protocol (CoAP),
an emerging protocol defined by IETF CoRE WG that can
create an alternative to HTTP RESTful APIs on highly
resource-constrained devices, using HTTP over UDP instead of
TCP with rudimentary reliability features. It can save a lot of
protocol overhead that inherently comes with TCP. jCoAP is
the CoAP Java implementation being used to realize these
broadcast tests.
The last one is transition between users, when it is
necessary that other user carry out a task already begun, in
order to use the steps already taken in pursuit of a goal. This
service is responsible for migrating a user session to another,
keeping the original state of the interactions previously
performed. This service also needs to know the history of
actions performed and place the new user in the last step
performed by the previous one.
From the technological point of view, several platforms are
currently required to support transitions. Despite the
technological convergence has simplified the task of
engineering, different protocols and services are necessary to
integrate different types of transition into an application. TSS
defines a set of web services to allow transitions in an open
way. The paragraphs that follow show what has been
implemented and tested about the first of the three types of
transitions and what is going ahead.
III.
These experiments helped the modeling of a state diagram
for UI components that supports this kind of transition. See
Fig. 2. As can be seen, the component is ready after getting all
information about devices in the network and just do this
operation again if a parse error occur or in case of a network
error in invoking the selected operation (considering the device
may not be online anymore).
EXPERIMENTS AND RESULTS
The tools used were JMEDS and DPWS Explorer of
WS4D, JMEDS implements DPWS Stack and DPWS Explorer
works as a client to navigate and interact with devices in the
network. Astah 6.6.3 community edition was used to build
UML diagrams. Java 1.6, Android SDK, Eclipse Indigo,
Primefaces 2.2 and Tomcat 7 were used to develop and deploy
the application. SOAPUI 4.5.1 and Wireshark 1.6.0 helped us
debugging the application to understand messages exchanged
between devices. These tools were executed on Mac OS X
Lion and Linux Ubuntu 12.04. The browser used was Firefox
version 15 and the devices were Samsung Galaxy S3, Samsung
Galaxy N7000 and Nexus 7 with Android 4. There was no
particular reason in the choice of the specified devices, just
because they were available by the research team. We
developed scenarios according to Table 1.
Fig. 2. Generic State Diagram for UI Components.
The guard condition [(lastInput || allInputs) && !firstInput] is
desired because of the diversity of scenarios that can be
composed according to Table 1.
These experiments also helped us in the definition of 17
services and 49 operations in an Android application named
XDevice. Other devices can invoke these services in order to
promote a distributed interaction.
REFERENCES
TABLE 1. Solicitation (S) / Response (R) Scenarios
S
1
1
R
0
1
1
Nl
1
Na
N
1f
N
1l
N
Mfd
N
Mld
N
Ma
[1]
Scene
Just push a message, not a request.
Typical case.
Remote user can submit continuously, but
only the last input is valid.
Remote user can submit continuously and
all inputs are valid.
Broadcast request, only first response of all
devices is valid.
Broadcast request, only last response of all
devices is valid.
Broadcast request, only first response of
each device is valid.
Broadcast request, only last response of
each device is valid.
Broadcast request, all devices can submit
continuously and all submissions are valid.
[2]
[3]
[4]
[5]
[6]
70
Blumendorf, M., Roscher, D. and Albayrak, S. 2011. Distributed User
Interfaces for Smart Environments: Characteristics and Challenges. DUI
2011 (Vancouver, BC, May. 2011), 25–28.
Demeure, A., Sottet, J.-S., Calvary, G., Coutaz, J., Ganneau, V. and
Vanderdonckt, J. 2008. The 4C Reference Model for Distributed User
Interfaces. (Mar. 2008), 61–69.
Elmqvist, N. 2011. Distributed User Interfaces: State of the Art. DUI
2011 (Vancouver, BC, May. 2011), 7–12.
Filgueiras, L.V.L., Correa, D.O., Neto, J.S.O. and Facis, R.P. 2008. XGov Planning: How to Apply Cross Media to Government Services.
Digital Society, 2008 Second International Conference on the (2008),
140–145.
Neto, J.S. de O., Roussel, N. and Filgueiras, L.V.L. 2009. User’s issues
in crossmedia applications. Proceedings of the 27th ACM international
conference on Design of communication (Bloomington, Indiana, USA,
2009), 119–126.
Zarras, A. 2004. A comparison framework for middleware
infrastructures. Journal of Object Technology. 3, 5 (2004), 103–123.
Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP
Construção de mapas densos em ambientes internos
utilizando sensores RGB-D
Juan C Perafán Villota
Anna Helena Reali Costa
Laboratório de Técnicas Inteligentes (LTI/EPUSP)
Escola Politécnica, Universidade de São Paulo
São Paulo, SP, Brasil
Laboratório de Técnicas Inteligentes (LTI/EPUSP)
Escola Politécnica, Universidade de São Paulo
São Paulo, SP, Brasil
Abstract—This paper shows the first steps in the study and
comparison of: 2D SLAM techniques and descriptors for building
dense maps. We compared two SLAM techniques:GMapping and
DP-SLAM, finding that although the best method is GMapping
this requires an additional technique to enable a globally consistent alignment. Furthermore, we compared the SIFT and SURF
descriptors, obtaining a larger amount of features using SIFT,
but at a computational time much greater than those used by
SURF.
I.
I NTRODUÇ ÃO
As técnicas desenvolvidas para o mapeamento e localização
simultâneos (SLAM) de robôs atingiram uma maturidade
aceitável. O uso de sensores Laser Range e novas máquinas
com alta capacidade de computação permitiu a construção de
mapas cada vez mais precisos [1],[2]. Um aspecto negativo
destas técnicas, é que os objetos dentro do ambiente não
estão completamente identificados. Surgiram então técnicas
como o RO-Maps (Relational Object Maps)[3], que permitiram que o robô fosse capaz de construir mapas métricos
incluindo informações de objetos simples, como portas e
paredes, garantindo assim uma melhor interação do robô com
o ambiente. Entretanto, nos últimos anos, o uso do sensor
tipo RGB-D [4],[5], [6] incrementou dramaticamente não só
o reconhecimento de objetos, mas também as capacidades de
manipulação, navegação e interação dos robôs. Além disso,
foram introduzidas técnicas para RGB-D com base na detecção
e reconhecimento de objetos demonstrando que a combinação
de cores e informação de profundidade melhora a qualidade
e a quantidade da informação do ambiente que é conhecido
como mapas densos.
Nossa proposta é fazer mapas 3D com informação de
objetos a partir de dados RGB-D (Kinect) usando técnicas
SLAM para melhorar a interação robô-ambiente na realização
de diferentes tipos de tarefas, por exemplo robôs que ajudam
aos seres humanos por meio da realização de um trabalho
normalmente sujo, perigoso ou repetitivo, incluindo tarefas
domésticas.
A abordagem usual para a reconstrução de uma cena (parte
essencial da construção do mapas 3D) é: 1.Obtenção de dados.
2. Extração de atributos (2D) 3. Alinhamento de atributos entre
os quadros (2D) 4. Projeção e pré-filtragem 3D 5. Cálculo das
transformações 3D. Embora o objetivo final seja gerar mapas
3D, este trabalho é dedicado à análise 2D, a fim de responder a
estas duas perguntas: 1. Qual é a melhor técnica para a extração
de atributos? 2. Qual pode ser uma boa técnica para resolver
o problema de SLAM 2D?
71
II.
E XTRAÇ ÃO DE ATRIBUTOS
O núcleo de um sistema robusto de reconhecimento é a
extração de atributos. Descritores como SIFT (Scalar Invariant
Feature Transform), SURF (Speeded Up Robust Feature) e
mais recentemente o NARF (Normal Aligned Radial Feature), têm implementações em bibliotecas como OpenCV
(Open Source Computer Vision) e PCL (Point Clouds Library)
que estão sendo amplamente utilizadas pela comunidade. Os
pontos-chave de NARF são calculados diretamente a partir da nuvem de pontos 3D, mas estes pontos-chave são
instáveis, aparentemente pelo ruı́do dos dados de profundidade
do Kinect. Por isso, neste trabalho foi analisado qual é o
melhor descritor entre SIFT e SURF. Os resultados na Tabela
1, mostram que a eficácia (número médio de atributos) do
SIFT(740) é maior do que o SURF (342). Mas a eficiência
(tempo médio em milisegundos) é muito menor (854 ms para
o SIFT e 167 ms para o SURF)
Tabela I.
SURF
SIFT
COMPARAÇ ÃO DOS DESCRITORES
Número médio de atributos
342
740
III.
SIFT E SURF
Tempo médio (ms)
167
854
SLAM 2D
Devido a algumas limitações dos sensores RGB-D como:
campo de visão (57◦ horizontal, 43◦ na vertical), profundidade
(0,7 a 6 metros) e problemas para a detecção de objetos
transparentes, é necessário combinar algumas caracterı́sticas
que podem ser encontradas com técnicas SLAM 2D e sensores
do tipo Laser Range (LIDAR). Para esta finalidade, foram
simuladas duas técnicas que se revelaram bem sucedidas: DPSLAM e GMapping.
DP-SLAM [1] é um algoritmo baseado em filtros de
partı́culas, que são aplicados para determinar o mapa e a postura do robô. Dois fatos foram a contribuição deste algoritmo:
em primeiro lugar, não é necessário o uso de marcas pois é utilizada uma técnica chamada DP-Mapping (Distributed Particle
Mapping), que é capaz de manter um grande número de mapas
eficientemente. O segundo fato é que não são necessárias
técnicas especiais para identificar lugares já mapeados, o que é
conseguido por meio da manutenção de um número suficiente
de partı́culas. Foi utilizado o algoritmo proposto em sua versão
2.0, disponibilizada na página do autor 1 .
1 https://www.cs.duke.edu/
parr/dpslam/
Perafán Villota e Costa
GMapping [7] é um algoritmo que utiliza um filtro de
partı́culas, no qual cada partı́cula representa um único mapa
do ambiente. A ideia foi reduzir o número de partı́culas
utilizadas para a aprendizagem das representações de mapas de
grades. Tomando não só o movimento do robô, mas também
as observações mais recentes, foi reduzida a incerteza da
postura do robô no passo de predição. Além disso, foi aplicada
uma reamostragem seletiva baseada na proposta de Liu [8]
chamada Neff (número efectivo de partı́culas), o que levou a
uma redução drástica da perda de partı́culas. Foi utilizado o
algoritmo GMapping disponı́vel via svn2 .
O objetivo da simulação foi testar os dois algoritmos em
um ambiente interno de grande extensão (O mapa tem uma
área aproximada de 67 x 47 m2 ). Não existe uma plataforma
geral para executar esses algoritmos, portanto, muitas vezes
é necessário reescrever completamente o código ou readaptálo para ser executado em uma determinada plataforma. Na
tabela 2, são mostradas as possibilidades de unir o algoritmo
às plataformas Player/Stage ou ROS de simulação de robôs.
Tabela II.
O PÇ ÕES DE CONEX ÃO P LATAFORMA -A LGORITMO
Tipo de Instalação
direta
com apenas wrapper
com wrapper e reformatação
Plataforma
Player-Stage
ROS
Player-Stage
ROS
Player-Stage
ROS
DP-SLAM
Não
Não
Não
Não
Sim
Não
GMapping
Sim
Não
Sim
Não
Não
Não
Figura 2. Sobreposição do mapa real (linhas vermelhas) com o mapa obtido
por GMapping (áreas cinzas)
SIFT pode ser uma boa alternativa para a extração de atributos
e correspondência entre quadros consecutivos, mas, como
a eficiência não é muito boa, este trabalho será estendido
usando outras técnicas, tal como a apresentada por Henry
em [6], chamada Kernel Descriptor. Referindo-se às técnicas
de SLAM 2D estudadas, o algoritmo GMapping apresentou
melhores resultados na construção e alinhamento do mapa,
mas é evidente que é necessário um alinhamento do sistema
globalmente consistente (Figuras 1 e 2) que poderia ser feito
com alguma ferramenta de otimização como, por exemplo,
TORO (Tree-Based Network Optimizer).
As simulações foram feitas como se segue:
•
•
AGRADECIMENTOS
DP-SLAM foi simulado com Player-Stage.
GMapping foi simulado com ROS.
Na figura 1 é mostrado o resultado de alinhamento do mapa
real com o mapa obtido com DP-SLAM e na figura 2, com
GMapping.
Agradecemos a: CAPES, CNPq (proc. 311058/2011-6),
FAPESP (proc. 2011/19280-8) por prover fundos para esta
pesquisa.
R EFER ÊNCIAS
[1]
[2]
[3]
[4]
[5]
[6]
Figura 1. Sobreposição do mapa real (linhas vermelhas) com o mapa obtido
por DPSLAM (áreas cinzas)
[7]
IV.
C ONCLUS ÃO
Foram estudados e analisados dois dos primeiros passos
para atingir mapas densos 3D usando sensores RGB-D. No
caso de extratores de atributos, foi mostrado que o uso de
2 svn
co https://svn.openslam.org/data/svn/gmapping
72
[8]
A. Eliazar and R. Parr, “Dp-slam: Fast, robust simultaneous localization
and mapping without predetermined landmarks,” in IJCAI, vol. 3, 2003,
pp. 1135–1142.
K. Konolige, “Slam via variable reduction from constraint maps,” in
Robotics and Automation, 2005. ICRA 2005. Proceedings of the 2005
IEEE International Conference on. IEEE, 2005, pp. 667–672.
B. Limketkai, L. Liao, and D. Fox, “Relational object maps for mobile
robots,” in IJCAI, 2005, pp. 1471–1476.
P. Henry, M. Krainin, E. Herbst, X. Ren, and D. Fox, “Rgb-d mapping:
Using depth cameras for dense 3d modeling of indoor environments,”
in the 12th International Symposium on Experimental Robotics (ISER),
vol. 20, 2010, pp. 22–25.
H. Du, P. Henry, X. Ren, M. Cheng, D. B. Goldman, S. M. Seitz,
and D. Fox, “Interactive 3d modeling of indoor environments with
a consumer depth camera,” in Proceedings of the 13th international
conference on Ubiquitous computing. ACM, 2011, pp. 75–84.
P. Henry, M. Krainin, E. Herbst, X. Ren, and D. Fox, “Rgb-d mapping:
Using kinect-style depth cameras for dense 3d modeling of indoor
environments,” The International Journal of Robotics Research, vol. 31,
no. 5, pp. 647–663, 2012.
G. Grisetti, C. Stachniss, and W. Burgard, “Improved techniques for
grid mapping with rao-blackwellized particle filters,” Robotics, IEEE
Transactions on, vol. 23, no. 1, pp. 34–46, 2007.
J. S. Liu, “Metropolized independent sampling with comparisons to
rejection sampling and importance sampling,” Statistics and Computing,
vol. 6, no. 2, pp. 113–119, 1996.
Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP
Um Modelo de Rastreabilidade da Cadeia do Vinho
Baseado em Internet das Coisas Utilizando Redes de
Sensores Sem Fio e RFID
Leonardo Barreto Campos
Carlos Eduardo Cugnasca
Coordenação de Sistemas de Informação
Instituto Federal de Educação da Bahia (IFBA)
Bahia, Brasil
[email protected]
Escola Politécnica de Engenharia
Universidade de São Paulo (USP)
São Paulo, Brasil
[email protected]
comunicação e cooperar com seus vizinhos para alcançar
objetivos comuns [6].
Abstract-There is a growing demand from consumers as to the
reliability of production processes, especially in supply chains of
high value like wine. Thus, this paper presents a model of
traceability based on Internet of Things to the chain of wine
intended for export that allows agents of the supply chain to
monitor the quality of the product produced in real time. The
proposed model uses the technologies of Radio Frequency
Identification and Wireless Sensor Networks to monitor and
track the product from the production unit of grapes to the final
consumer in the country of destination of the wine.
A IoT, através de Sistemas que utilizam Identificação por
Radiofrequência (RFID) e Redes de Sensores Sem Fio (RSSF),
tem-se apresentada como uma solução oportuna para fornecer o
histórico de dados associados a cada produto unicamente,
desde o processo de fabricação até seu descarte. A aplicação
dos conceitos e tecnologias da IoT em cadeias de suprimentos
assegura a qualidade dos insumos e dos produtos finais; evita a
mescla de produtos; facilita chamadas de retorno (recall) e
torna menos onerosa a localização de falhas e correção das
mesmas [7]. Entre as cadeias de suprimentos passíveis de
aplicação desse projeto destaca-se a cadeia de suprimentos do
vinho que, devido o alto valor agregado e a alta demanda de
qualidade por seus consumidores, viabilizam a aquisição de
tecnologias modernas para a rastreabilidade da sua cadeia de
suprimentos como um todo [8].
Palavras-chave—rastreabilidade;cadeia do vinho; RFID; RSSF
I.
INTRODUÇÃO
A capacidade de identificar automaticamente e rastrear
individualmente objetos tornaram-se fatores essenciais em
diferentes processos de negócios e domínios, tais como,
fabricação, logística, varejo, estoque, transporte, identificação
humana, saúde, etc [1]. Entre essas aplicações o setor
agroindustrial tem atraído esforços consideráveis de pesquisa
para elevar a precisão na obtenção de dados, segurança,
confiabilidade e a agilidade nos processos de produção,
distribuição e comercialização de seus produtos [2].
Portanto, o principal objetivo deste trabalho foi desenvolver
um modelo de rastreabilidade do vinho ao longo de sua cadeia
de suprimentos utilizando RFID e RSSF. Este modelo possui
informações relacionadas a todos os agentes da cadeia, da
unidade produtora de uvas ao consumidor final do vinho, ao
país de destino do produto.
O conhecimento das ações e condições que transformaram
uma matéria-prima em produto final, processo conhecido como
rastreabilidade, é a exigência que mais cresce entre
consumidores e receptores de mercadorias, especialmente para
produtos exportados [3]. Por meio da rastreabilidade é possível
saber, entre outras informações referentes a um produto, quais
foram os lotes de cada matéria-prima utilizada na sua
composição, sua data de validade, os seus laudos de análises,
qual foi a transportadora entre outras informações de interesse
para um determinado agente da cadeia de suprimentos [4].
II.
ESTADO DA ARTE
Lam et al (2013) desenvolveram um sistema para
monitoramento do vinho armazenado, utilizando RFID e RSSF
[9]. As principais variáveis monitoradas foram Temperatura
(T) e Umidade Relativa (UR) nas adegas, e o sistema possui
um algoritmo que permite a identificação automática de
anomalias e o envio de mensagens aos administradores do
sistema. Porém, este sistema não considera o monitoramento
do transporte do produto entre os elos da cadeia.
Tais demandas estão contribuindo substancialmente para
firmar o conceito de uma rede mundial de objetos interligados
endereçáveis baseado em protocolos de comunicação padrão
[5] ou simplesmente, “Internet das Coisas” (Internet of Things
– IoT). A IoT é um paradigma cuja ideia básica é a presença
generalizada de coisas ou objetos em torno das pessoas que,
através de um esquema único de endereçamento, são capazes
de interagir uns com os outros por meio de redes de
Evers e Havinga (2007) e Jedermann et al (2010) fornecem
algumas alternativas para o acompanhamento da logística de
produtos alimentícios, desenvolvendo um modelo denominado
Contêiner Inteligente [10]. Jedermann et al (2010) sugerem um
mínimo de 8 sensores por contêiner para identificar as
variações de T e UR. Porém, este modelo foi desenvolvido para
a cadeia de exportação de bananas, uma cadeia
73
Campos e Cugnasca
consideravelmente menos complexa que a do vinho, por
envolver um menor número de agentes e etapas.
nestas etapas será realizada utilizando-se WLAN. A Etapa 7
não conta com coleta obrigatória de informações, porém o
consumidor pode responder, caso queira, a um questionário
relacionado ao produto e a experiência de compra. Este
também pode utilizar o código na etiqueta da garrafa para
verificar, via web, informações no sítio do fabricante.
Hsueh e Chang (2010) complementam esta pesquisa
facilitando a implementação do sistema por meio do uso de
leitores RFID nos pontos de parada [11]. Estes autores também
adicionam a tecnologia GPS para permitir a localização dos
produtos. Becker et al (2010), por sua vez, melhoram esta
configuração adicionando conexão Wireless Local Area
Network (WLAN) nos pontos de parada e comunicação por
satélite durante o transporte marítimo.
III.
Cada agente da cadeia possui seu próprio sistema de
informação e só possui acesso a determinadas informações do
produto, facilitando o uso do sistema e protegendo informações
de parceiros que não podem ser divulgadas. Caso seja
detectado um comportamento anormal para um produto, um
alerta é enviado ao(s) agente(s) da cadeia envolvido(s), para
que este(s) verifique(m) o problema e tome(m) uma decisão.
MODELO PROPOSTO PARA RASTREABILIDADE DO VINHO
De acordo com [12] e conforme mostra a Figura 1, o
modelo proposto contém seis etapas. Na Etapa 1, uma RSSF é
instalada para monitorar Temperatura (T), Umidade Relativa
(UR) e Luminosidade (L) do ambiente, e potencial hídrico do
solo. As atividades realizadas na unidade produtiva,
considerando os insumos utilizados e sua quantidade, são
inseridas no sistema pelo produtor rural.
IV.
CONCLUSÕES E TRABALHOS FUTUROS
Os agentes da cadeia precisam de um sistema único que os
permita assegurar a qualidade do produto. As próximas etapas
no processo de pesquisa são relacionadas à: simulação de
diversos cenários alternando RFID integrados com sensores,
RSSF, comunicação GPS, Wi-fi, bluetooth, quantidade de tags,
etc e desenvolver um protótipo com o melhor caso.
REFERÊNCIAS
[1]
ILIE-ZUDOR, E. et al. A survey of applications and requirements of
unique identification systems and RFID techniques. Computers in
Industry, v. 62, n. 3, p. 227-252, 4// 2011. ISSN 0166-3615. Disponível
em: < http://www.sciencedirect.com/science/article/pii/S0166361510001521>.
[2] YAN, M. et al. The Application of the Internet of Things in Agriculture.
2011 International Conference on Future Computers in Education (Icfce
2011), Vol I, p. 232-235, 2011 2011.
[3] MACHADO, J.; NANTES, J. F. D. a. A Visão Institucional do Processo
de Rastreabilidade da Carne Bovina: Capturado em 2007.
[4] BRASIL, G. Dicionário de Logística GS1. COSTA, W. S.:
Comunicação e Eventos Corporativos: 222 p.
[5] COMMISSION, E. Regulation (EC) No 178/2002 of the European
Parliament and of the Council of 28 January 2002 laying down the
general principles and requirements of food law, establishing the
European Food Safety Authority and laying down procedures in matters
of food safety. Official Journal of the European Communities L, v. 31, n.
1, p. 1-24, 2002.
[6] (ISO), I. O. F. S. ISO 8402 (1994), International Standard: Quality
Management and Quality Assurance – Vocabulary. Geneva, Switzerland
1994.
[7] JURAN, J.; GODFREY, A. B. Quality Handbook. Republished
McGraw-Hill, 1999.
[8] CAIXETA-FILHO, J. V.; GAMEIRO, A. H. Transporte e logística em
sistemas agroindustriais. São Paulo: Atlas, 2001.
[9] Lam, H. Y., Choy, K. L., Ho, G. T. S., Kwong, C. K. and Lee, C. K. M.
(2013) A Real-time Risk Control and Monitoring System for Incident
Handling in Wine Storage. In Expert Systems with Applications, v. 40,
2013, pages 3665-3678.
[10] Evers, M. and Havinga, P. (2007) Supply Chain Management
Automation Using Wireless Sensor Networks. In: 2007 IEEE
International Conference on Mobile Adhoc and Sensor Systems, Pisa,
Proceedings…, pages 1-3.
[11] Hsueh, C. and Chang, M. (2010) A model for intelligent transportation
of perishable products. In International Journal of Intelligent
Transportation Systems Research, n. 8, pages 36-41.
[12] Fray, R., Campos, L. B., Cugnasca, C.E. (2013) Modelo de
Rastreabilidade da Cadeia do Vinho para Exportação Utilizando Redes
de Sensores Sem Fio e RFID In: IX Congresso Brasileiro de
Agroinformática,
Cuiabá-MT.
2013
Figura 1. Modelo de Rastreabilidade do Vinho
A Etapa 2 irá acompanhar o produto durante o processo de
produção do vinho. Após o engarrafamento, uma etiqueta
RFID é colocada em cada caixa e pallets são montados.
Sensores monitorando T, UR e L nos ambientes pelos quais as
garrafas passarão irão coletar estas informações e enviar à
nuvem, por meio de gateways. Os pallets são carregados em
contêineres, com sensores que irão monitorar T e UR durante o
transporte. As tags são lidas automaticamente quando o pallet é
carregado.
Nas Etapas 3 e 4, o produto está em trânsito, e gateways
contidos nos caminhões (nos segmentos de transporte
rodoviário) e nos navios (no segmento de transporte marítimo)
irão coletar dados relacionados a T e UR dentro do contêiner e
transmiti-los à nuvem, por meio de tecnologia General Packet
Radio Service (GPRS). Na presença de conexão WLAN, esta
será utilizada para reduzir os custos. A instalação de GPS nos
gateways possibilitará a localização do produto em qualquer
ponto de seu trajeto.
As Etapas 5 e 6 são similares a Etapa 2, com
monitoramento de T, UR e L. A transmissão de informações
74
Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP
Database Refactoring to Increase
Queries Performance on
Precision Agriculture Information System
Marcia Beatriz Pereira Domingues
Jorge Rady de Almeida Jr.
Doctorate Candidate - PCS-EPUSP
Email: [email protected]
Advisor
Email: [email protected]
Abstract—Precision Agriculture (PA) Information Systems improve
farm management helping to make the best decisions based on all
available information, keeping, controlling, and optimizing resources,
returns, and preserving the environment. These systems need to archive,
retrieve, and process large amounts of data from many different farms
for future analyses. With minor changes in the database schema, the
performance of geospatial queries can be improved by refactoring tasks
in the literature related to Agile Software Development. A refactoring
represents structural, architectural, integrity or data quality change that
preserves the system functionalities. As a case study, a PA Information
Portal System database that dynamically generates models based on input
data. In this context, we redesigned this database introducing refactoring
techniques in order to improve PA queries performance.
I.
I NTRODUCTION
Precision Agriculture (PA) Information Systems integrate
and process large amounts of data from many different
farms [1]. Further complications are the relationship between
geo-referenced data and the different ways to process, interpolate and combine them for precision analysis.
about location and mapping. The refactorings called "Introduce
Surrogate Key", "Merge Column", and "Introduce Index" were
chosen from Ambler Database Refactoring Catalog. In the
proposed experiment, the costs and time consumed for the
queries were used to compare the performance between the
original model and the refactored model. The tests performed
included new codes in database function language (plpgsqq)
for data insertion, selection, and cascade delete operations of
geographic data through geospatial queries.
III.
CASE STUDY
The original database model was built with composite
natural keys. There is a strong coupling between database
model and the PA business domain and some primary keys
columns such as: farm_id, plot_id, and prod_id that are present
in almost all relations. The Fig. 1 shows tables farm, plot,
productivity and productivity_raw from the original model
before refactoring.
The recommended computational solution is the use of
spatial databases associated with Web Services to take advantage of the multiple data source providers. A PA Information Systems needs to archive, retrieve, and process data
for future analyses [2]. It has to be done without neglecting
aspects of entity-relationship model (ER model) at the same
time describing all crop cycle stages. The system needs to
resolve geospatial queries to get information back from crop
productivity [3].
In our experiment the database schema of PA system was
changed in order to improve the performance of geospatial
queries. In the literature related to Agile Software Development these changes are denominated as refactoring tasks [4]. A
refactoring represents small structural, architectural, integrity
or data quality change, it does not include new functionalities
to the system. Ambler discusses in each refactoring the motivations, implications and cautions to its operation, showing
the steps for the possible changes of the database. These steps
were adapted in this paper to make refactoring tasks into an
existing database of PA Information Portal System.
II.
M ATERIALS AND M ETHODS
A spatial database of an existing PA Information Portal
System was used to test the database refactoring. PostGIS
extension was used to provide spatial objects for the PostgreSQL database in order to storage and query the information
75
Fig. 1: Tables (farm, plot, productivity and productivity_raw)
before refactoring
In the proposed experiment, time consumed for the queries
was used to compare the performance between the original
model and the refactored model.The tests performed included
new codes in database function language (plpgsqq) for data
insertion, selection, and propagation of data delete operations
of geographic data through geospatial queries. The Fig. 2
presents the refactoring proposed to original model, where all
composite natural keys were replaced by surrogate keys into
the tables chosen for the experiment.
Domingues e Almeida Jr.
der to merge Latitude and Longitude columns of Product_raw
table as illustrated in Fig. 4. To perform this refactoring a
new geometry column "prod_geom" was introduced with the
previous data from Latitude and Longitude columns. The select
operation after this merge was 20% better in terms of time
consuming to select data operation than in the original model.
Fig. 2: Tables (farm, plot, productivity and productivity_raw)
after refactoring
To allow a direct comparison between original and refactored model, the consumed time (ms) was measured. After
the refactoring, the time consumed was, 15% shorter to insert,
25% shorter to select, and 4% shorter to delete data for 189.730
rows, from both original and refactored databases. In the Fig. 3
we highlight that refactored database performance was better
than original considering the time results.
Fig. 4: Time results for select after "Merge Column" and
"Introduce Index"
IV.
R ESULTS AND D ISCUSSION
Improving queries performance was the main reason to
make changes on the original database. In order to present the
refactoring advance, all composite natural keys were replaced
by surrogate keys into the entities chosen for the experiment.
Comparing original and refactored database performance, the
scores obtained by the refactorings were higher. For the "Introduce Surrogate Key" refactoring, measuring the consumed
time (ms) to insert, delete, and select data was 15%, 4%, 25%
shorter respectively. Whereas measurements for queries costs
were basically the same to insert and select data, otherwise to
delete data operation it was 4% shorter. Aiming at improving
the refactored database a "Merge Column" refactoring was
made merging "Latitude" and "Longitude" columns, generating
an economy of 20% in terms of time consuming to select data
operation.
R EFERENCES
[1]
R. Khosla, “Precision agriculture: challenges and opportunities in a
flat world,” in 19th World Congress of Soil Science, 2010. [Online].
Available: http://www.iuss.org/19th%20WCSS/Symposium/pdf/0779.pdf
[2] F. S. Santana, “Evolution of a SOA-based architecture for agroenvironmental purposes integrating GIS services to an ESB environment,” 2009.
[3] E. Murakami, A. M. Saraiva, L. C. M. Ribeiro, Junior, C. E.
Cugnasca, A. R. Hirakawa, and P. L. P. Correa, “An infrastructure
for the development of distributed service-oriented information systems
for precision agriculture,” Comput. Electron. Agric., vol. 58, no. 1,
pp. 37–48, Aug. 2007. [Online]. Available: http://dx.doi.org/10.1016/j.
compag.2006.12.010
[4] S. W. Ambler and P. J. Sadalage, Refactoring Databases: Evolutionary
Database Design. Addison-Wesley Professional, 2006.
Fig. 3: Time results for insert and select data
We also performed the "Merge Column" refactoring in or-
76
Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP
Proposta de Mecanismo de Controle de Acesso para o
ambiente SDN/OpenFlow
Marco Antonio Torrez Rojas
Tereza Cristina Melo de Brito Carvalho
Dep. de Engenharia de Computação e Sistemas Digitais
Escola Politécnica da Universidade de São Paulo
São Paulo - Brasil
[email protected]
Dep. de Engenharia de Computação e Sistemas Digitais
Escola Politécnica da Universidade de São Paulo
São Paulo - Brasil
[email protected]
B. Segurança do Protocolo OpenFlow
A abordagem proposta pelo SDN/OpenFlow apresentam as
seguintes questões de segurança em aberto [3]:
Abstract-The research aims to propose and validate an access
control mechanism suited to the specific needs of the paradigm
SDN/OpenFlow. The validation of the proposal will be done
through modeling, simulation and analysis of states provided by
the colored Petri net and CPNTools tool. A prototype as proof of
concept of the mechanism will be implemented in the cloud
computing platform OpenStack, using their support to
OpenFlow through the Neutron module. This proposal has
evolved from the one presented in the WPG-2012 CE in the
research of the access control mechanism, method of formal
validation and definition of the environment of the development
of the prototype.
Keywords-component: SDN;
Colorida; Controle de Acesso
I.
OpenFlow;
Rede
de
Segurança e Proteção do controlador: Envolve
mecanismos de segurança lógica e física;
•
Estabelecimento de confiança: A comunicação entre
controlador e comutador necessita ser autenticada,
cifrada e adotar mecanismos seguros de comunicação;
•
Garantir a integridade das aplicações: É necessário ter
certeza que aplicações maliciosas não podem se
vincular ao controlador e assumir o controle da rede;
•
Política de segurança: Regras de acesso e políticas
corporativas de sua utilização devem ser definidas; e
•
Análise forense: Em caso de incidente possibilitar a
análise forense do ambiente e seus dados.
Petri
INTRODUÇÃO
O paradigma das Redes Definidas por Software (SDN),
através da aplicação do protocolo OpenFlow vem despontando
como ferramenta para pesquisa experimental no campo da
Internet do Futuro [1]. O OpenFlow separa o plano de dados do
plano de controle de dispositivos como o comutador ou
roteador. Em função desta separação possibilita a manipulação
direta do plano de controle através de programação, permitindo
inovação nas abordagens de controle da rede [2]. Entretanto, a
adoção do OpenFlow apresenta desafios de segurança que
necessitam ser analisados e tratados antes da sua adoção em
larga escala [3].
Neste contexto, averiguar a questão de política robusta de
segurança, através da definição de um mecanismo de controle
de acesso ao controlador por parte das aplicações e também da
relação controlador-comutador são os desafios abordados nesta
pesquisa.
C. Mecanismos de Controle de Acesso
O controle de acesso é um tema de pesquisa importante
dentro do contexto da segurança da informação. Basicamente
os mecanismos de controle de acesso podem ser agrupados em
quatro categorias e apresentam as seguintes características
[7][11]:
Neste contexto, propor, verificar e validar um mecanismo
adequado de controle de acesso para este novo paradigma é
necessário, este desafio é o objeto desta proposta de pesquisa.
II.
•
SEGURANÇA EM AMBIENTE DE REDE COM OPENFLOW
•
A. Protocolo OpenFlow
Um comutador OpenFlow é composto de três elementos
[2]:
a) Tabela de Fluxos: Contêm campos que compõe as regras
de fluxo, com as ações de tratamento e estatísticas do fluxo; b)
Canal Seguro: Comunicação entre o comutador e controlador,
realizado através do protocolo SSL/TLS; e c) Protocolo
OpenFlow: Protocolo que possibilita a manipulação da tabela
de fluxos e a definição do comportamento do comutador
(reativo ou proativo).
Conselho Nacional de Desenvolvimento Científico e Tecnológico
(CNPq), Centro de Pesquisa e Desenvolvimento Ericsson S.A. e Laboratório
de Arquiteturas e Redes de Computadores (LARC).
77
RBAC (Role-based Access Control): Neste modelo as
políticas de controle de acesso são atribuídas de acordo
com o papel que o usuário possui dentro do sistema e
regras de acesso definidas para os papeis. O modelo de
referência divide o RBAC em quatro componentes: 0)
RBAC Básico, o qual define as entidades básicas do
modelo e seus relacionamentos; 1) RBAC Hierárquico, o
qual define as especificações e relacionamentos para dar
suporte à hierarquia entre papéis; 2) Relação de Separação
Estática de Tarefas; e 3) Relação de Separação Dinâmica
de Tarefas, os quais definem os relacionamentos de
separação de tarefas para assegurar que indivíduos não
assumam papéis conflitantes de forma estática e dinâmica,
Rojas e Carvalho
garantindo assim as políticas de interesse das
organizações. Os componentes 2 e 3 compõem o RBAC
Restrito.
•
•
•
•
DAC (Discretionary Access Control): Neste modelo as
políticas de controle de acesso têm como base a identidade
do requisitante e regras de acesso informando o que o
requisitante pode ou não fazer. Como principal representes
deste modelo temos a Matriz de Controle de Acesso.
Levantar requisitos de controle de acesso
necessários ou desejados pelo SDN/OpenFlow,
principalmente para os cenários: a) controlador
centralizado e controlador distribuído no ambiente
de
rede;
b)
aplicação
ou
aplicações
acessando/solicitando recursos em ambiente de
controlador centralizado e distribuído;
•
MAC (Mandatory Access Control): Neste modelo as
políticas de controle de acesso têm como base regras
determinadas por uma autoridade central. Os principais
representantes deste modelo são: Bell-LaPadula e Biba’s.
Elaborar um estudo aprofundado dos mecanismos
de controle de acesso propostos na literatura,
comparar e verificar a sua adequação as
necessidades apresentadas pelo SDN/OpenFlow;
•
Elaborar uma proposta de mecanismo de controle
de acesso adequada para o SDN/OpenFlow;
•
Validar e verificar a proposta do mecanismo de
controle de acesso utilizando a rede de Petri
colorida;
•
Desenvolver um protótipo como prova de conceito
utilizando a plataforma open source de
computação em nuvem OpenStack [8],
principalmente o módulo Neutron [9] que
possibilita o NaaS (Networking as a Service) entre
os outros serviços do OpenStack. O módulo
Neutron possibilita a utilização do OpenFlow
através de um de seus plug-ins. O protótipo será
responsável por fazer o controle de acesso aos
recursos providos pelo OpenStack, como por
exemplo máquinas virtuais, recursos de rede e
recursos de software.
Outros: Nesta classificação podemos enquadrar os
modelos que são híbridos (MAC e DAC) e outras
propostas. Os principais representantes deste modelo são:
Clark-Wilson, Brewer-Nash e Chinese Wall Policy.
III.
MÉTODO DE VERIFICAÇÃO E VALIDAÇÃO
Como ferramenta para o auxílio no processo de verificação
e validação da proposta do mecanismo de controle de acesso
será utilizada a Rede de Petri Colorida.
A. Rede de Petri Colorida (RPC)
A rede de Petri é uma ferramenta de modelagem
matemática, com vasta aplicação na modelagem de sistemas:
concorrentes, assíncronos, distribuídos, paralelos, nãodeterminísticos e/ou estocásticos, etc. A RPC é uma classe de
rede de Petri que possibilita as seguintes abordagens para
verificação e validação de modelos [4]:
•
PRINCIPAIS REFERÊNCIAS
Modelagem: Possibilita desenvolver um metamodelo
para o sistema a ser estudado;
•
Simulação: Possibilita observar o comportamento do
modelo através de testes executados de forma
interativa ou automática, contribuindo desta forma para
a corretude do modelo.
•
Validação: Possibilita a geração do espaço de estados
do sistema modelado. A partir do grafo do espaço de
estados, podem-se analisar diversas propriedades da
rede, tais como a existência ou não de deadlocks,
reversibilidade e alcançabilidade de uma marcação
específica.
[1]
S. Paul, J. Pan, and R. Jain, " Architectures for the Future Networks and
the Next Generation Internet: A Survey" Computer Communications,
UK, Volume 34, Issue 1, 15 January 2011, pp. 2-42.
[2] N. McKeown, T. Anderson, H. Balakrishnan, G. Parulkar, L. Peterson, J.
Rexford, S. Shenker, and J. Turner, “OpenFlow: Enabling innovation in
campus networks,” ACM Computer Communication Review, Apr. 2008.
[3] S. Sorensen, “Security implications of software-defined networking”,
http://www.sdncentral.com/security/security-implications-of-softwaredefined-networking/2012/02. Acessado em abril de 2013.
[4] K. Jensen, and L. M. Kristensen, Coloured Petri Nets for Modelling and
Validation of Concurrent Systems. Springer, 2007.
[5] C. Schuba, and E. H. Spafford, “Modeling firewalls using hierarchical
colored petri nets”, NATO Symposium on Protecting Information
Systems in the 21st Century October 1999.
[6] H. Huang, and H. Kirchner, “Formal specification and verification of
modular security policy based on colored petri nets”, IEEE Trans.
Dependable Secur. Comput., December 2011, 8(6):852–865.
[7] D. F. Ferraiolo, R. D. Kuhn, and R. Chandramouli. Role-Based Access
Control, Second Edition, Artech House, Inc., Norwood, MA, 2007.
[8] OpenStack, “Open source software for building private and public
clouds”, http://www.openstack.org. Acessado em abril de 2013.
[9] Neutron, “Neutron”. https://wiki.openstack.org/wiki/Quantum. Acessado
em Abril 2013.
[10] Tools, C. “Cpntools homepage”. http://www.cpntools.org. Acessado em
Abril de 2013.
[11] S. Sezer, S. Scott-Hayward, P. K. Chouhan, B. Fraser, D. Lake, J.
Finnegan, N. Viljoen, M. Miller and N. Rao. “Are we ready for SDN ?
Implementation Challenges for Software-Defined Networks”.
Communications Magazine, IEEE Volume:51 Issue: 7. July 2013.
Estas abordagens serão empregadas no modelo a ser
proposto, com o auxílio do software CPN Tools a ser utilizado.
O CPN Tools é uma ferramenta que possibilita a criação de
modelos através de uma interface simples e intuitiva,
permitindo a simulação da rede modelada e sua análise através
da geração de seu espaço de estados [10].
Os recursos providos pela RPC vêm sendo aplicados no
contexto da segurança da informação, através da validação de
modelos relacionados a controle de acesso, mecanismo de
firewall e políticas de segurança [5][6].
IV.
ATIVIDADES EM DESENVOLVIMENTO
Atividades da pesquisa relacionadas a esta proposta que se
encontra em desenvolvimento:
78
Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP
Multi Expression Linear Genetic Programming
for Symbolic Regression
Michel Jan Marinus Bieleveld and Antonio Mauro Saraiva
Abstract—This paper describes in high level an algorithm
that finds a symbolic representation that accurately models a
given dataset. To find this representation multi expression linear
genetic programming is used. The performance of the algorithm is
compared to other solutions by using the Proben1 Cancer dataset.
The result of this comparison is that the algorithm can accurately,
error rate <3%, describe this dataset, which is a similar result
as obtained through other techniques.
Keywords—multi expression programming, linear genetic programming, symbolic regression, genetic algorithms, evolutionary
algorithms.
I.
I NTRODUCTION
The field of evolutionary algorithms is a relative new
area that studies non-deterministic search algorithms that are
loosely based on aspects of Darwin’s theory of evolution
by natural selection. John Holland proposed evolutionary algorithms and showed that an evolutionary process could be
applied to artificial systems. This led to evolving program
code, so called genetic programming, that became widely
known after the publication of a series of books by John Koza.
Genetic Programming is, as Koza wrote, a method for getting a
computer to solve a problem by telling it what needs to be done
instead of how to do it. The ultimate problem to solve is how to
compare and evaluate ecological niche models. Frequently use
for this task is the Area Under Curve criteria. However, even
though frequently used, the use of the AUC causes problems
when comparing those models.
As an example, [1] compared in a very thorough article
16 modeling methods over 226 species from 6 regions over
the world. They show that the modeling algorithm Maxent
outperforms GARP; Maxent with a mean AUC rank per
species of 6.42 vs. DK-GARP with 10.47. In contrast,[2]
wrote in response that for his experiments GARP performed
better and concluded that currently accepted model evaluation
techniques are not adequate for niche modeling applications,
and can yield inaccurate and inappropriate conclusions in many
cases.
II.
already inherent of the technique. While this is the end goal,
currently, to start, this research is focussing on improving and
implementing a linear genetic algorithm.
III.
P ROPOSED S OLUTION
Genetic Algorithms work by creating populations consisting of individuals, see Figure 1. Each individual represents
a possible solution for the problem at hand. Initially all
individuals are initialized randomly, meaning that each gene
of a individual is set to a random element from the genotype,
which often is an instruction set of a programming language.
The individuals are then tested until a certain stopping criteria
are met. Then the algorithm is finished and the best individual
is the solution to the problem.
After creating the new generation it is evaluated again and
the process repeats itself until a best solution is found. With
genetic programming it is not guaranteed that one finds the
best solution, just that you find a solution that performed better
than the other solution of that particular population. Therefore
performance of a genetic algorithm cannot be measured by
the best-found solution in a single run, but measured by how
often and how quick, in number of generations, it finds those
solutions.
Linear Genetic Programming [4] is chosen over other
techniques for several reasons; (1) it has a low memory footprint, compared to conventional techniques such as Trees, (2)
Linear Genetic Programming maps well on massively parallel
architectures as mutation and reproduction are simplified. Last,
no validity check is needed after mutation and reproduction as
linear programs are always valid programs.
A shortcoming of linear genetic programming is that often
only the last output is considered, while earlier produced
results are not considered as valid solutions. For this reason
Multi Expression Programming [5] is used, where not only the
fitness of the last node, or root for trees, is considered, but also
the fitness of the every sub-program or sub-tree.
IV.
P ROBLEM
R ESULTS
Reference [3] in AUC: a misleading measure of the performance of predictive distribution models do not recommend to
use the AUC for five reasons. The three important reasons
are; (1) it weighs omission and commission errors equally,
(2) it does not give information about the spatial distribution
of model errors, and most importantly, (3) the total extent to
which models are carried out highly influences the rate of wellpredicted absences and the AUC scores.
One of the problems with Species Distribution Modeling is that there are no benchmarks. This makes comparing
algorithms quite difficult, application dependent and highly
subjective. For this reason and because genetic programming
algorithms are considered to be problem agnostic the Proben1
benchmark [6] is used to evaluate the developed algorithm.
The result of the algorithm is a symbolic representation of the
data that tries to describe the dataset as accurately as possible.
Genetic Programming will be used to improve this multiobjective optimization problem as creating many solution is
The Proben1 benchmark contains a diagnosis of breast
cancer problem based on a real world data originally obtained
79
Bieleveld e Saraiva
Gen := 0
TABLE I: The algorithm vs. Proben1 Cancer benchmark
D ATA S E T
TRAINING
VA L I D AT I O N
TEST
SET
SET
SET
M
SD
M
Create Initial
Random Population
ρ
Termination
CriterionSatisfied?
SD
M
SD
CANCER2
CANCER3
2.83
2.14
1.83
0.15
0.23
0.26
1.89
1.76
2.83
0.12
0.14
0.13
1.32
3.47
2.60
0.13
0.28
0.22
CANCER2
CANCER3
3.43
2.66
2.34
0.27
0.30
0.84
2.86
2.06
3.43
End
I := 0
0.64
0.14
0.59
Gen := Gen + 1
0.47
0.61
1.04
2.36
5.0
4.89
0.50
0.66
1.09
Yes
I=M ?
No
Pr
Select Genetic Operation
Probabalistically
Pm
Pc
Research
CANCER1
Designate
Result
EvaluateFitness of Each
IndividualinPopulation
Proben1
CANCER1
Yes
No
0.17
0.55
0.64
Select One Individual
Based on Fitness
Select TwoIndividuals
Based on Fitness
Select One Individual
Based on Fitness
Perform Reproduction
I := I + 1
Perform Mutation
Copy intoNew
Population
Perform Crossover
Insert Mutantinto
NewPopulation
Insert Two Offspring
IntoNew Population
from the University of Wisconsin Hospitals, Madison, from
Dr. William H. Wolberg [7] and in benchmark form obtained
from the UCI repository for machine learning databases. The
problem is to classify a tumor as either benign or malignant
based on the cell descriptions gathered by microscopic examination. Input attributes are for instance the clump thickness,
the uniformity of cell size and cell shape, the amount of
marginal adhesion, and the frequency of bare nuclei. In total
there are nine inputs, two outputs (benign or malignant) and
699 samples, of which 65.5% are benign.
The current implementation was benchmarked and the
results are shown in Table I. The 699 samples were divided
into three different partitions; training, validation and test. The
training data was solely used to train the model. The validation
data is used to help pick the final model and thus as a stopping
criteria. After selecting the final model it was run on the
test partition to find out how well the model generalizes on
untrained data. The three partitions were created from the 699
samples, 350 for the training data, 175 for the validation data
and 174 for the test data. Cancer1, Cancer2, Cancer3 present
three different allocations of the same samples to these three
partitions as defined by the benchmark.
The first six columns depict the standard deviation and
average over ten runs of obtaining error percentage for training,
validation and test data. The first thing to notice is that all error
rates are below 5%, thus the algorithm correctly found out a
pattern in the data correctly predicting benign or malign for
more than 95% of the presented samples. Considering that a
single error in the training set already causes 0,29% error the
data shows that the neural network solution presented in [6]
has on average two less mispredictions on 350 samples for the
training data, a difference for now considered negligible. The
last column shows the cross validation for assessing how the
results of the validation partition generalize to the test partition.
V.
C ONCLUSION
The results show that the multi expression linear genetic
programming solution as implemented works well on the
Proben1 Cancer dataset. The research now focuses further
on general optimization and new features for other datasets,
ultimately it will be tested on ecological data.
80
I := I + 1
Fig. 1: Genetic Algorithm process
ACKNOWLEDGMENT
This study was supported by the Núcleo de Apoio á
Pesquisa em Biodiversidade e Computação - BioComp. We
thank the ESRI Conservation Program for providing a software
grant. We also thank the Coordenação de Aperfeiçoamento de
Pessoal de Nı́vel Superior (CAPES) for a scholarship grant to
the first author.
R EFERENCES
[1]
[2]
[3]
[4]
[5]
[6]
[7]
J. Elith, C. H. Graham, and P. Anderson, “Novel methods improve
prediction of species’ distributions from occurrence data,” Ecography,
vol. 29, no. 2, pp. 129–151, 2006.
A. T. Peterson, M. Papeş, and J. Soberón, “Rethinking receiver operating characteristic analysis applications in ecological niche modeling,”
Ecological Modelling, vol. 213, no. 1, pp. 63–72, 2008.
J. M. Lobo, A. Jiménez-Valverde, and R. Real, “AUC: a misleading
measure of the performance of predictive distribution models,” Global
Ecology and Biogeography, vol. 17, no. 2, pp. 145–151, 2008.
M. Brameier and W. Banzhaf, Linear genetic programming, ser. Genetic
and evolutionary computation series. New York: Springer, 2007.
M. Oltean and D. D., “Multi expression programming,” 2006.
L. Prechelt et al., “Proben1: A set of neural network benchmark problems and benchmarking rules,” Fakultät für Informatik, Univ. Karlsruhe,
Karlsruhe, Germany, Tech. Rep, vol. 21, p. 94, 1994.
Olvi L. Mangasarian and W. Nick Street and William H. Wolberg, “Breast
cancer diagnosis and prognosis via linear programming,” OPERATIONS
RESEARCH, vol. 43, pp. 570–577, 1995.
Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP
Avaliação da Adoção de Sensores Virtuais em Redes
de Sensores Legadas Visando à Sua Predisposição ao
Contexto de Internet das Coisas
R. M. Marè; C. E. Cugnasca
Departamento de Sistemas Digitais
Engenharia de Computação, Escola Politécnica da USP
São Paulo, Brasil
[email protected]; [email protected]
energética bem como, o conforto térmico e a qualidade do ar
interior por eles proporcionados. Nos edifícios inteligentes
consideram-se estas questões, por meio da aplicação de
tecnologias inteligentes [3]. Os edifícios não residenciais
apresentam constantes modificações relativas ao perfil dos
usuários, uso da edificação, número de ocupantes, mudanças de
leiaute, demandando flexibilidade nas estratégias de operação
dos sistemas de ar condicionado, de modo a atender às
necessidades de seus ocupantes. Configuram-se portanto, como
potenciais usuários de aplicações baseadas em IoT, que podem
permitir a expansão de possibilidades e funcionalidades de
acordo com as mudanças ao longo do tempo, incrementando a
sua inteligência ambiental [4]. A heterogeneidade de
tecnologias, legadas e novas, relacionadas às redes de sensores
capazes de fornecer subsídios à definição destas estratégias,
dificulta a sua integração e eventual interação. Visto que a
migração para IP de soluções baseadas em protocolos fechados
mostra-se como uma tendência, a aplicação de sensores virtuais
pode ser um primeiro passo neste sentido. Um sensor virtual
pode fazer a ponte entre redes de sensores de tecnologias
distintas, visto que abstrai a camada física, sendo relevante o
fluxo de dados, seja aquele originado em sensores físicos ou
em outros sensores virtuais [5].
Abstract—Air conditioning systems in non-residential
buildings have an important role in maintaining acceptable
indoor environmental conditions. In order to reach this goal,
besides reducing energy consumption, its operation demands
well-defined strategies. These strategies have to be flexible as
well, since this kind of building has many occupation and use
changes during its life cycle. Looking to a near future, the
Internet of Things (IoT) will be able to contribute to this
flexibility and ambient intelligence, adding resources to legacy
automation system components (sensor networks and actuators).
In this scenario, proprietary solutions and heterogeneous
technologies impose a challenge in terms of interoperability, a pre
requisite of the IoT. One of the resources to start this integration
can be the application of virtual sensors, which contribution will
be evaluated.
Keywords—Internet of Things; virtual sensors; sensor network;
Ambient Intelligence; air conditioning systems
I.
INTRODUÇÃO
Manter o conforto térmico e a qualidade do ar interior com
eficiência energética em edifícios não residenciais é um grande
desafio, dado o expressivo consumo de energia dos sistemas de
ar condicionado, responsáveis por aquela função. Estes
precisam operar com flexibilidade, acompanhando a variação
de ocupação e uso destes edifícios ao longo de sua vida útil. As
informações essenciais à definição de estratégias podem ter
origem em redes de sensores de tecnologias distintas. Para a
sua integração, um caminho a se avaliar é a utilização de
sensores virtuais, que permitem a abstração da camada física e,
em um segundo momento, migrar os dispositivos das redes
para o ambiente IP. Isso poderá permitir interação entre redes e
atuação sobre sensores e atuadores, no contexto de Internet das
Coisas (IoT).
II.
III.
METODOLOGIA
Pretende-se utilizar como estudo de caso, uma sala de aula
com sistema de ar condicionado central do tipo distribuição e
insuflamento de ar pelo piso, situada no edifício de Engenharia
de Construção Civil da Escola Politécnica da USP (Figura 1).
!
REVISÃO DA LITERATURA
Os sistemas de ar condicionado são responsáveis por 50%
dos gastos com energia em edifícios [1] tendo, no entanto,
importante papel na qualidade do ambiente interior (QAI).
Visto que o incremento da QAI melhora o desempenho e a
saúde dos ocupantes, reduzindo o absenteísmo [2], é essencial
que se considerem simultaneamente a operação sustentável dos
sistemas de ar condicionado, do ponto de vista de eficiência
Fig. 1. Sala de aula objeto de estudo.
81
Marè e Cugnasca
Conta com uma rede de sensores destinada ao
monitoramento de parâmetros de QAI (temperatura do ar,
umidade relativa do ar, teor de CO2 no ar interno e externo,
concentração de Compostos Orgânicos Voláteis no ar interno),
diferencial de pressão e consumo de energia dos equipamentos
cujo consumo é mais substancial no sistema de ar condicionado
(fan coil e chiller). Além desta fonte de informações, o sistema
supervisório do ar condicionado provê ao gestor, dados obtidos
a partir de uma rede de sensores dedicada (solução
proprietária), que monitora diversos parâmetros relativos à
operação do sistema. Trata-se portanto, de exemplo de
instalação legada típica: as redes de sensores, que fornecem
informações de interesse à definição de estratégias de operação
mais eficientes, não estão integradas e nem predispostas à IoT.
Para que cada rede se conecte à Internet, faz-se necessário o
uso de gateways específicos (Figura 2) [6].
Fig. 4. Raspberry Pi
IV.
RESULTADOS ESPERADOS
Espera-se com este estudo, avaliar-se a contribuição do
conceito de sensores virtuais à adequação de redes de sensores
legadas ao contexto de IoT. O estudo dá ênfase às redes
dedicadas aos sistemas de ar condicionado central em edifícios
não residenciais, visto que demandam a definição de
estratégias de operação flexíveis, proporcionando elevada
qualidade do ambiente interior concomitante à eficiência
energética.
V.
CONCLUSÕES
Os edifícios não residenciais, com frequentes mudanças de
ocupação e grande consumo energético, apresentam potencial
para a utilização de aplicações baseadas em IoT. As diferentes
tecnologias de redes de sensores utilizadas demandam soluções
à sua predisposição a este novo paradigma.
AGRADECIMENTOS
Fig. 2. Conexão de cada rede proprietária por um gateway específico.
À Fundação de Amparo à Pesquisa do Estado de São Paulo
(processos nº 2012/50461-1 e nº 2012/51032-7) e à
Financiadora de Estudos e Projetos (processo nº 2013/500852), pelo apoio ao projeto de desenvolvimento do sistema de
monitoramento do ambiente interior aqui mencionado.
Como passo inicial à interoperabilidade destas redes por
meio da IoT, pretende-se promover a sua conectividade por
meio de sensores virtuais (Figura 3) [6].
Referências
[1]
[2]
Fig. 3. Conexão das redes por meio de camada superior.
Na Figura 3, a Rede de Sensores representa a união virtual
entre as duas redes físicas mencionadas. Ainda pesquisa-se a
melhor alternativa de implementação do conceito de sensor
virtual, responsável pela obtenção das leituras dos sensores das
redes legadas e, portanto, por esta união. Pretende-se utilizar
como gateway, o equipamento Raspberry Pi [7]. Trata-se de
um computador diminuto baseado em um system on a chip
(SoC) Broadcom BCM2835,7 que inclui um processador
ARM1176JZF-S de 700 MHz, GPU VideoCore IV e 512 MB
de memória RAM. Possui uma entrada de cartão SD para
armazenamento de dados (Figura 4).
[3]
[4]
[5]
[6]
[7]
82
ERICKSON, V. L. et al. Energy efficient building environment control
strategies using real-time occupancy measurements. Proceedings of the
First ACM Workshop on Embedded Sensing Systems for EnergyEfficiency in Buildings. In: BuildSys '09, 2009, Berkeley, California,
New York, NY, USA. Proceedings… Berkeley, California, New York,
NY, USA: ACM, 2009. p. 19–24.
FISK, W.; SEPPANEN, O. Providing Better Indoor Environmental
Quality Brings Economic Benefits. In: 9th REHVA World Congress
Clima: Wellbeing Indoors, 2007, Helsinki. Proceedings… Helsinki:
2007. p. 3-19.
TUNG, C. M. Growing trend of network-based, smart green buildings
towards automatic energy-saving performance: A study based on
Advantech’s energy-saving system. International Journal of Automation
and Smart Technology, v. 2, n. 2, p. 3, 2012.
MIORANDI, D. et al. Internet of things: Vision, applications and
research challenges. Ad Hoc Networks, v. 10, n. 7, p. 1497-1516, 2012.
MAINETTI,
L.;
PATRONO,
L.;
VILEI,
A.
Software,
Telecommunications and Computer Networks (SoftCOM), 2011 19th
International Conference on Evolution of wireless sensor networks
towards the Internet of Things: A survey. 2011, Proceedings… 2011. p.
1-6.
ISHAQ, I. et al. Internet of Things Virtual Networks: Bringing Network
Virtualization to Resource-Constrained Devices. In: IEEE International
Conference on Green Computing and Communications, 2012,
Proceedings… 2012. p. 293-300.
PI, F. R. Raspberry Pi. Disponível em: <http://www.raspberrypi.org>.
Acesso em 12 Ago 2013.
Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP
Método de Avaliação de Segurança Crítica para a
Inserção de Veículos Aéreos Não Tripulados (VANT)
no Espaço Aéreo não Segregado
Ricardo A. V. Gimenes
Jorge R. de Almeida Junior
Departamento de Engenharia de Computação
Escola Politécnica da Universidade de São Paulo
São Paulo, Brasil
[email protected]
Departamento de Engenharia de Computação
Escola Politécnica da Universidade de São Paulo
São Paulo, Brasil
[email protected]
dados científicos que mostrem se é uma tecnologia viável do
ponto de vista da segurança crítica (do inglês safety).
Abstract - The research proposes a method to evaluate the safety
of Unmanned Aerial Vehicles due to this profile of aircraft be
able to be used in controlled airspace following the guidelines of
the International Civil Aviation Organization (ICAO). The
motivation about this topic is based on the fact that the
institutions responsible for the release and use of UAVs do not
yet have evidence that they are not exposing the society to risks
not adequately assessed and measured.
III.
Resumo - A pesquisa apresenta uma proposta de método para
avaliar a segurança crítica de Veículos Aéreos não Tripulados
para que esse perfil de aeronave seja utilizado no espaço aéreo
controlado seguindo as diretrizes da Organização da Aviação
Civil Internacional (OACI). Essa pesquisa nasceu da necessidade
de os órgãos responsáveis pela liberação e uso de VANT ainda
não possuírem elementos que provem que não estão expondo a
sociedade a riscos não suficientemente avaliados e mensurados.
IV.
INTRODUÇÃO
A Circular 328 da OACI [3] define VANT como sendo
uma aeronave e seus demais elementos associados que são
operados sem piloto a bordo. A Circular 328 também reforça
que o VANT, em função das limitações apresentadas pela
OACI, deve voar sob o comando de um piloto remotamente
localizado em uma central de operação. A Circular 328 define
que este tipo de aeronave, subgrupo de VANT, deve ser
também designada pelo termo “remotely-piloted aircraft”
(RPA).
Tendo em vista tal foco, vêm sendo desenvolvidas diversas
pesquisas em cujo centro está o veículo conhecido como
Veículo Aéreo Não Tripulado (VANT). No entanto, este tipo
de aeronave ainda está em fase prematura de desenvolvimento
para o uso na aviação civil comercial, apesar de já existir
VANTs sendo utilizados em aplicações civis [1].
A integração do VANT tem se tornado um grande desafio
para o gerenciamento do espaço aéreo, o que proporciona
novos desafios a serem pesquisados. Isto possibilita o
desenvolvimento de várias novas áreas de pesquisa para que o
controle de VANT seja realizado de maneira segura e
confiável.
II.
REVISÃO DA LITERATURA
Em função de o VANT ser, de uma forma generalista, uma
aeronave com um sistema automático de tomada de decisões,
surgem novos fatores de segurança crítica quando se considera
a possibilidade de utilizar tais aeronaves com passageiros ou
carga e estas mesmas aeronaves compartilhando o espaço aéreo
com outras aeronaves tripuladas.
Keywords—VANT, Segurança Crítica, Automação
I.
OBJETIVO
O Objetivo desta pesquisa é apresentar um método de
avaliação de segurança crítica (safety) para a introdução de
Veículos Aéreos Não Tripulados em um espaço aéreo não
segregado, espaço esse definido pela OACI, [2] e sujeito às
regras do Controle de Tráfego Aéreo.
A preocupação com o crescimento da demanda pelo transporte
aéreo e a necessidade de torná-lo cada vez mais seguro têm
exigido um constante desenvolvimento por novas soluções.
Esta preocupação pode ser notada na implantação da
Concepção Operacional do ATM Global definida pela OACI
em sua décima primeira conferência de Navegação Aérea.
MOTIVAÇÃO
A OACI, referente aos Veículos Aéreos Não Tripulados
(VANT), possui o artigo 8º: “Nenhuma aeronave capaz de voar
sem um piloto deve voar sem um piloto sobre o território do
Estado contratante sem autorização especial deste Estado e em
acordo com os termos de tal autorização...”. Assim, pode-se
observar que há quase 70 anos já existia a preocupação sobre
regulamentação de veículos autônomos e a proibição do
mesmo ser autônomo. Porém a demanda existe e carece de
V.
METODOLOGIA
A base para o desenvolvimento do Método proposto é
fundamentada no estudo de normas e metodologias de
avaliação de segurança crítica (conhecidas como Safety
Assessment Methodologies – SAM) utilizadas para a avaliação
da segurança crítica na aviação civil internacional. Atualmente,
estas metodologias são aplicadas às aeronaves tripuladas e
83
Gimenes e Almeida Jr.
controladas
por
seres
humanos,
simplificadamente
denominadas nessa pesquisa como aeronaves tripuladas.
avaliado (4) e, consequentemente, qual metodologia deve ser
aplicada sobre as alterações (5). Dado que a Eurocontrol SAM
é generalista, uma etapa necessária é aplicar esta metodologia
em um domínio específico de VANT no sistema de tráfego
aéreo (6) e, ao se fazer o uso desta metodologia, pode-se definir
e propor quais etapas desta metodologia serão utilizadas para a
formalização da proposta (7).
Considerou-se como hipótese principal que a inserção de
VANT no Sistema de Navegação Aérea deve atender os
mesmos níveis de segurança já existentes da aviação civil e; o
VANT a ser testado deve atender aos requisitos mínimos
necessários para operar em um espaço aéreo não segregado, ou
seja, não é apresentada ou proposta a criação de um VANT
real.
Inserção de Vants no
sistema de navegação
aérea (1)
A proposta apresentada nesta Tese compreende a
proposição de um Método para avaliação da segurança crítica
para a integração de VANT no espaço aéreo controlado e não
segregado. Nesse método serão utilizados como base os
requisitos constantes da Metodologia SAM da Eurocontrol,
apoiado por métricas de avaliação de pilotos.
Requisitos
Regulatórios (2)
Ainda não há um conjunto de elementos de dimensões
técnicas, sociais e mesmo políticas que os órgãos responsáveis
pela segurança de voo possam usar, permitindo a certificação
dos VANT, sejam aqueles já existentes, sejam aqueles em
desenvolvimento.
Eurocontrol SAM
(Generalista) (5)
A viabilização do uso de VANT no espaço aéreo, então,
necessita de uma quantificação de fatores que envolvem
Tecnologia, Regras do Espaço Aéreo, Procedimentos
Operacionais (tanto em voo como em solo) e dos requisitos não
funcionais de disponibilidade, confiabilidade e segurança
crítica. Em decorrência dessa carência de quantificação, esta
Tese apresenta o método proposto para expor um caminho de
mensuração de parâmetros de VANT ainda mal definidos na
aviação civil.
VI.
O que será novo?
(3)
O que a Eurocontrol
SAM necessita para
avaliar a segurança
de Vants no Sistema
de Navegação Aérea
(6)
Como Será
Avaliado? (4)
Processos
baseados na
Eurocontrol SAM
considerando
Vants no Sistema
de Navegação
Aérea (7)
Figura 1 – Eurocontrol SAM e Alterações necessárias
Os processos necessitam ser definidos caso a caso, mas
todos envolvem um paralelo ao que um piloto humano faria em
diversas situações. Em função desta paridade com pilotos
humanos, buscou-se as formas com que se avalia tais
profissionais para que sejam autorizados a operar aeronaves em
que foram aprovados em processos de certificação.
DESENVOLVIMENTO
VII. RESULTADOS E DISCUSSÕES
O método proposto tem como base processos já existentes
de certificação de pilotos, considerando as devidas adaptações
no caso do VANT, visando definir um processo de avaliação
de segurança crítica.
A aplicação do método em desenvolvimento nessa pesquisa
e sua validação, conforme os parâmetros que estão sendo
definidos para, então, poder avaliar o quão integrável de forma
segura o VANT testado se encontra no espaço aéreo segregado.
O caminho para o desenvolvimento do método aqui
proposto é ter como ponto de referência, práticas existentes e
bem estabelecidas que são utilizadas em outros domínios e
aplicações do Sistema ATM Global e, então, adaptá-los para a
inserção de VANT neste contexto.
VIII. CONCLUSÕES
Os estudos realizados até o presente momento têm
permitido verificar que é possível utilizar o método proposto
para que as organizações responsáveis possam certificar o uso
de VANT no espaço aéreo não segregado.
Considerando a futura integração do VANT no espaço
aéreo, a adaptação deve considerar as regras e definições já
existentes da OACI, tendo como uma importante contribuição,
a descrição de atividades específicas a serem validadas pelo
método.
AGRADECIMENTO
Os autores agradecem ao apoio do "INCT-SEC Instituto
Nacional de Ciência e Tecnologia em Sistemas Embarcados
Críticos" com financiamento do CNPq e da FAPESP por meio
dos processos 573963/2008-8 e 08/57870-9 respectivamente.
Na Figura 1, é apresentado o fluxograma para ilustrar os
pontos que necessitam ser desenvolvidos para a viabilização de
metodologias como a Eurocontrol SAM de forma a aplica-las
aos padrões dos VANT. Na Figura 1, tem-se o cenário de que é
considerada a inserção de VANT no sistema de navegação
aérea (1). Isto significa que é necessário definir o escopo das
mudanças que serão necessárias. Para a formalização destas
mudanças, existe o processo de requisitos regulatórios (2),
baseados em uma documentação, explicando o que é
necessário para formalizar tais mudanças. Em posse da
documentação das alterações, sabe-se o que é necessário ser
REFERENCES
[1]
[2]
[3]
84
Strong, M., UAS Market Assessment, Eurocontrol UAS ATM
Integration Workshop, Eurocontrol, Europe. 2008.
ICAO – Global Air Traffic Management Operational Concept Ed 1. Doc
9854. 2004.
ICAO, "Unmanned Aircraft Systems (UAS) Circular: UAS 328", Cir
328 AN/190. 2011. ISBN: 978-92-9231-751
Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP
Modelo de Representação de Design Rationale para
Projetos de Código Aberto
Sandra Kawamoto1, Prof. Dr. Jorge Rady de Almeida Junior2
Departamento de Engenharia de Computação e Sistemas Digitais
Universidade de São Paulo, Escola Politécnica,
Sao Paulo, SP – Brasil
1
[email protected], [email protected]
A utilização do DR pode proporcionar grandes benefícios
ao processo de desenvolvimento de software [2]. Ela não só
proporciona um melhor entendimento do projeto pela equipe
atual de desenvolvimento como também traz benefícios a
outros departamentos envolvidos e novos integrantes da
equipe. Entretanto, ainda há muita resistência à sua utilização.
Uma alternativa para se obter o uso eficaz do DR é definir um
modelo de representação do DR adequado a um sistema
específico. A maneira de se representar o DR efetivamente é a
questão mais importante na gestão do DR [3].
Resumo—Design Rationale (DR) é uma representação da
documentação de um projeto de software que contém os
argumentos referentes a uma decisão bem como alternativas
consideradas e que foram descartadas. Embora sua utilização
possa trazer grandes benefícios ao processo de desenvolvimento
de software, há muita resistência em sua adoção. Uma alternativa
para se obter o uso eficaz do DR é definir um modelo de
representação adequado a um ambiente específico. Os sistemas
de software aberto possuem características muito favoráveis à
utilização do DR. Os envolvidos possuem interesse no bom
entendimento do projeto por todos os usuários e na disseminação
do conhecimento sobre o mesmo. Este trabalho tem o objetivo de
definir um modelo de representação do DR para projetos de
software aberto. Sua validação será feita através de um estudo de
caso, utilizando-se um ambiente real de desenvolvimento de
software.
Os sistemas de software aberto possuem características
muito favoráveis à utilização do DR. São sistemas que podem
se beneficiar consideravelmente com a utilização desta
abordagem. Em geral, são softwares desenvolvidos por equipes
heterogêneas e dispersas geograficamente. Os envolvidos
possuem interesse no bom entendimento do projeto por todos e
na disseminação do conhecimento sobre o mesmo. O
desenvolvedor pode ter diferentes objetivos para um
determinado componente, quando comparado a um usuário [4],
tornando primordial a existência de uma boa documentação do
software.
Abstract—Design Rationale (DR) is a representation of a
software design documentation which includes not only
arguments of a decision but also alternatives that were
considered and discarded. Although its use can bring great
benefits to a software development process, DR is not widely
adopted. An alternative to obtain an effective use of DR is to
define a representation model suitable for a specific environment.
Open software systems features are favorable to the use of DR.
Project team have interest on the project understanding among
all users and knowledge spread about it. The purpose of the
present work is to define a representation model of DR suitable
for open software projects. The validation will be done with a
case study in a real software development environment.
Dutoit et al. [5] afirma que após mais de 35 anos de
pesquisa em DR, algumas questões básicas continuam sem
solução, incluindo:
1. Como capturar as justificativas de decisões de projeto
(rationales), isto é, como extrair e armazenar as informações;
2. Qual a melhor forma de representar as justificativas
das decisões de projeto;
Palavras-chave: Design Rationale; sistemas de software aberto;
Projeto de software.
I.
3. Como formalizar estas informações, isto é, como
transformar a informação na forma de representação desejada;
OBJETIVO E MOTIVAÇÃO
4.
Design Rationale (DR) refere-se à documentação das
alternativas, escolhas e decisões realizadas durante o processo
de desenvolvimento de um projeto de software, bem como das
razões de se ter tomado determinado rumo. DR é uma
representação da documentação que contém as razões e
argumentos referentes a um artefato específico [1]. Inclui tanto
as razões de uma decisão de projeto como a justificativa para
elas, as alternativas consideradas e que foram descartadas,
alterações avaliadas e os argumentos que levaram à decisão.
Como as informações gravadas podem ser utilizadas;
5. Quais são as potenciais
representação, formalização e uso.
barreiras
à
captura,
O presente trabalho pretende trabalhar nas questões acima,
especialmente nos itens 2 e 3, com o objetivo de definir um
modelo de DR para projetos de software aberto. A verificação
do modelo será feita através de um estudo de caso, utilizandose o modelo em um ambiente real de desenvolvimento de
software.
85
Kawamoto e Almeida Jr.
II.
Pretende-se, no futuro, desenvolver uma ferramenta de
edição do modelo de DR proposto, possivelmente incorporada
a outras ferramentas de desenvolvimento de software. A
definição do uso de DR dentro do processo de
desenvolvimento de software também merece estudos.
HISTÓRICO DO DESIGN RATIONALE
O movimento de DR iniciou-se com o Issue Based
Information System (IBIS), descrito por Kunz e Rittel. Tinha o
intuito de fornecer suporte a grupos que eram confrontados
com problemas complexos [6]. Na Figura 1 é ilustrada a
representação dos nós do modelo IBIS. O modelo é formado
por uma árvore ou grafo direcionado, cujos nós representam as
questões a serem resolvidas, soluções alternativas e argumentos
a favor ou contra.
AGRADECIMENTOS
Agradecimentos
ao
Conselho
Nacional
de
Desenvolvimento Científico e Tecnológico – CNPq que
financia esta pesquisa (Processo no. 2012-7/141053).
REFERÊNCIAS
[1]
SOUZA, C. R. B. A Model Tool for Semi-automatic Recording of
Design Rationale in Software Diagrams. In Proceedings of the String
Processing and Information Retrieval Symposium, 1998, pages 306–
313.
[2] CONKLIN, J.; BURGESS-YAKEMOVIC, K. A Process-Oriented
Approach to Design Rationale, in Design Rationale Concepts,
Techniques, and Use, T. Moran and J. Carroll, (editors), Lawrence
Erlbaum Associates, Mahwah, NJ, pp. 293-428, 1995.
[3] LIANG Y., LIU Y., KWONG C. K., LEE W. B.. 2012. Learning the
"Whys": Discovering design rationale using text mining - An algorithm
perspective. Comput. Aided Des.44, 10 (October 2012), 916-930.
Disponível em: http://dx.doi.org/10.1016/j.cad.2011.08.002.
[4] NORRIS, J.S., "Mission-critical development with open source
software: lessons learned," Software, IEEE , vol.21, no.1, pp.42,49, JanFeb 2004.
[5] DUTOIT, A. et al. Rationale Management in Software Engineering,
Editors, Springer, 2006.
[6] KUNZ, W.; RITTEL, W. J. Issues as Elements of Information Systems,
Working Paper No 131, University of California, Berkeley, 1970,
reprinted in 1979.
[7] PARNAS, D.; CLEMENTS, P.; A Rationale Design Process: How and
Why to Fake it. IEEE Transactions of Software Engineering, v. 12, n.2,
p. 251-257, 1986.
[8] POTTS, C.; BRUNS, G. Recording the Reasons for Design Decisions.
In: Proceedings of the International Conference on Software
Engineering, Kyoto, Japão. IEEE CS Press, 1988, p. 418-427.
[9] BASS L.; CLEMENTS, P. NORD, R. L.; STAFFORD, J. Capturing and
Using Rationale for a Software Architecture. In: A. H. Dutoit and R.
McCall and I. Mistrík and B. Paech (eds.), Rationale Management in
Software Engineering, Springer, p. 255-272, 2006
[10] PAIVA, D. M. B.; Um processo envolvendo elementos de design
rationale para projetos de pesquisa em software. Tese de doutorado.
Instituto de Ciências Matemáticas e de Computação – ICMC-USP, 254
páginas, 2007.
[11] AURISICCHIO M., BRACEWELL R.H., 2013, Capturing an integrated
design information space with a diagram-based approach, Journal of
Engineering Design, Vol:24, ISSN:0954-4828, Pages:397-428.
[12] BURGE, J. E. (2008). Design rationale: Researching under uncertainty.
Artificial Intelligence for Engineering Design, Analysis and
Manufacturing, 22, pp 311-324.
Fig. 1. IBIS: Representação dos nós, baseada em Kunz e Rittel (1970).
A importância do DR tem sido reconhecida desde a década
de 1980 [7][8]. A partir dessa época, muitas pesquisas
começaram a ser realizadas com o objetivo de aplicar a técnica
em diferentes fases do processo de desenvolvimento de
software [9] e em diversos ambientes e tipos de projetos
[3][10]. Foram realizadas pesquisas com o objetivo de
construir ferramentas de captura do DR [11]. Entretanto, na
prática não houve uma grande adesão [12]. É difícil definir
abordagens e sistemas que possam ser utilizados com sucesso
em projetos reais [4].
III. METODOLOGIA DE PESQUISA
O modelo de representação do DR para projetos de código
aberto será construído a partir de projetos reais. Ele será
baseado em alguns elementos de modelos anteriores, como o
IBIS apresentado anteriormente. Serão considerados os
principais projetos de software aberto, incluindo Apache e
Linux. O modelo proposto pode ser utilizado em todas as fases
do desenvolvimento de software.
A validação do modelo proposto será realizada por meio de
um estudo de caso. A partir dele, modificações e refinamentos
podem ser propostos ao modelo.
IV.
RESULTADOS ESPERADOS E TRABALHOS FUTUROS
Espera-se que o modelo de DR proposto contribua para a
sua evolução na prática, facilitando e incentivando o seu uso. O
estudo de caso será essencial para validar o modelo proposto e
também para a sugestão de melhorias ou novas pesquisas sobre
o assunto.
86
Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP
Método de Super-Resolução de Imagem Digital
usando Interpolação DCT e Representação Esparsa
Saulo Roberto Sodré dos Reis
Graça Bressan
Departamento de Engenharia de Computação e Sistemas
Digitais – PCS, Universidade de São Paulo - USP
São Paulo, Brasil
[email protected]
Departamento de Engenharia de Computação e Sistemas
Digitais – PCS, Universidade de São Paulo - USP
São Paulo, Brasil
[email protected]
Este artigo apresenta um algoritmo híbrido para SR de
imagem única, que combina a interpolação no domínio da
transformada discreta de cosseno (DCT) [5], e um método de
aprendizagem baseada na representação esparsa de sinais [3].
A proposta busca aproveitar as características mais
importantes destes métodos na reconstrução de uma imagem
final de resolução melhorada. A interpolação DCT tem como
característica apresentar boa qualidade visual da imagem
interpolada. Os algoritmos de representação esparsa tem se
mostrado eficientes na reconstrução dos componentes de alta
frequência.
Abstract— This paper presents an algorithm for single image
super-resolution that use discrete cosine transform (DCT)
interpolation and sparse learning-based method. The input LR
image is interpolated using both DCT interpolation and bicubic
interpolation methods. The idea is to exploit of advantages of
DCT interpolation in terms of visual quality and sparse
representation in terms of reconstruction high-frequency
components. The experimental results demonstrate the
effectiveness of the algorithm in terms of PSNR and SSIM.
Resumo— Este artigo apresenta um algoritmo para superresolução de imagem única que combina a interpolação no
Domínio da Transformada Discreta de Cossenos (DCT) e o
método baseado em representação esparsa de sinais. O algoritmo
proposto busca aproveitar de forma complementar alguns
benefícios dos métodos como: melhor qualidade visual da
interpolação DCT e reconstrução dos componentes de alta
frequência pelo método de representação esparsa. As simulações
computacionais realizadas demonstram que a estratégia se
mostra e eficiente em termos de PSNR e SSIM.
Palavras-chave—Super-Resolução;
Domínio
Representação Esparsa; Métodos baseados em exemplos.
I.
II.
REVISÃO DA LITERATURA
A. Modelo de Aquisição da Imagem
Para a construção de um algoritmo de SR é necessário
inicialmente, adotar um modelo de observação para a imagem
[1]. Um dos modelos mais adotados, leva em consideração os
efeitos do processo de aquisição e está apresentado abaixo:
DCT;
(1)
onde
é a imagem de baixa resolução
adquirida (imagem LR), representada por um vetor ordenado
lexicograficamente de tamanho
pixels.
é a imagem de alta-resolução (Imagem
HR), representada por um vetor ordenado lexicograficamente
de tamanho
, com
. A matriz
de
tamanho
representa os efeitos do sistema de aquisição
da imagem como: distorção óptica e borramento. A matriz
representa o operador de subamostragem e
representa o
ruído branco gaussiano de média zero e variância .
INTRODUÇÃO
Os algoritmos de super-resolução (SR) permitem melhorar
a resolução de uma imagem ou mesmo uma sequência de
imagens a partir da captura e processamento de um conjunto
de imagens de baixa-resolução [1]. Uma das características
mais importantes é a possibilidade de reduzir o custo de
processamento de imagens de alta resolução, por meio da
utilização de sistemas de aquisição de baixa-resolução
existentes. Diversas áreas se beneficiam da SR, como por
exemplo, sistemas de aquisição de imagens para
sensoriamento remoto, sistemas de segurança, diagnóstico
médico por imagens, TV digital móvel, entre outros.
Recentemente, muitos trabalhos têm abordado propostas que
utilizam métodos de SR baseados em aprendizagem. Estes
métodos buscam reconstruir a imagem de resolução melhorada
a partir de características extraídas de um conjunto de
treinamento formado por imagens de alta e baixa resolução[24]. Os resultados mostram que estes algoritmos superam os
algoritmos de interpolação e os algoritmos baseados em
reconstrução tradicionais [1-3].
B. Interpolação no domínio DCT
O processo de interpolação de uma imagem usando a
transformada (DCT) adiciona zeros em regiões de alta
frequência de um bloco, e em seguida aplica a transformada
DCT inversa em todo o bloco, de forma a obter a imagem
interpolada. No processo de interpolação, a capacidade da
transformada DCT de concentrar quase toda a energia do sinal
em regiões próximas aos componentes DC é importante
porque permite a reconstrução da imagem sem muita perda
da informação.
87
Reis e Bressan
Imagem HR Final
(IHRF)
Imagem LR
Entrada
(IL)
Imagem LR
Interpolada
(IDCT)
Interpolação
DCT
Interpoalação
bicúbica
Imagem LR
Interpolada
Extração
Características
(IBIC)
+
OMP
Fase Treinamento
K-SVD e OMP
Dicionário LR
(DL)
Imagem HR
(IHR)
Coeficientes X
Dicionário HR
(Representação
Esparsa)
Dicionário HR
(DH)
Conj.
Treinamento
Figura 1: Modelo de SR proposto utilizando interpolação DCT e Representação Esparsa
C. Representação Esparsa
A representação esparsa pode ser considerada como um
processo de representação de um sinal como uma
combinação esparsa de átomos em relação a um dicionário
redundante[6]. A representação esparsa no contexto da SR
utiliza um fragmento da imagem (patch) de baixa resolução,
dado por
, que pode ser representado como uma
combinação esparsa de átomos em relação a um dicionário
de baixa-resolução ·, conforme abaixo:
TABELA I. RESULTADOS COM A MÉTRICA SSIM
Interp.
Interp.
Método
Imagem
Métrica
Bicúbica
DCT
Proposto
PSNR
26,523
26,629
27,173
Bridge
SSIM
0,974
0,984
0,992
PSNR
27,938
28,014
28,818
Man
SSIM
0,980
0,987
0,993
PSNR
27,938
28,002
28,387
Barbara
SSIM
0,963
0,979
0,987
PSNR
29,138
29,301
30,063
Coastguard
SSIM
0,791
0,805
0,840
(2)
III.
V.
33,074
0,993
33,416
0,995
34,536
0,997
CONSIDERAÇÕES FINAIS
Este artigo apresentou uma proposta de super-resolução
para imagem digital que combina a interpolação DCT e um
método de aprendizagem baseado em representação esparsa.
Os resultados experimentais usando as métricas PSNR e
SSIM mostraram a qualidade do método proposto em
relação aos métodos de interpolação tradicionais. Futuras
investigações incluem um aperfeiçoamento do método para
reduzir o custo computacional e simulações para fatores de
interpolação maiores do que dois.
MÉTODO PROPOSTO
O método proposto neste artigo para super-resolução de
imagem única é composto de duas estratégias: a utilização da
transformada DCT para obtenção de uma imagem
Interpolada DCT e a utilização de um processo de
aprendizagem com representação esparsa que gera uma
segunda imagem com os componentes de alta frequência. A
imagem final é obtida pela soma destas duas imagens
parciais. A Figura 1 apresenta uma visão geral do algoritmo
proposto.
IV.
PSNR
SSIM
Pepper
onde
é um operador para extração dos fragmentos na
posição da imagem e está relacionado ao ruído. O modelo
de representação esparsa de sinais têm sido utilizado em
diversas aplicações como: compressão, reconhecimento de
padrões, reconstrução, regularização de problemas inversos,
entre outros.
REFERÊNCIAS
[1]
RESULTADOS EXPERIMENTAIS
[2]
As simulações computacionais foram realizadas em
MATLAB utilizando algumas imagens conhecidas da
literatura como: bridge, man, pepper, barbara e coastguard.
Em todas as simulações realizadas, foi utilizado um fator de
interpolação igual a dois. Um conhecido conjunto de
imagens [2, 3], composto por 92 imagens que incluem flores,
paisagens, faces e construções foi utilizado para o
treinamento. Para a construção dos dicionários
e
foram usados os algoritmos k-SVD e OMP [6]. Os resultados
qualitativos utilizando as métricas PSNR e SSIM são
apresentados na tabela I. O método proposto é analisado e
comparado com métodos de interpolação bicúbica e DCT.
[3]
[4]
[5]
[6]
88
S. C. Park, M. K. Park, and M. G. Kang, “Super-resolution image
reconstruction: A technical overview,” Ieee Signal Processing
Magazine, vol. 20, no. 3, pp. 21-36, 2003.
R. Zeyde, M. Elad, and M. Protter, “On single image scale-up using
sparse-representations,” in Proceedings of the 7th international
conference on Curves and Surfaces, Avignon, France, 2012.
J. Yang, J. Wright, T. S. Huang et al., “Image Super-Resolution Via
Sparse Representation,” Ieee Transactions on Image Processing, vol.
19, no. 11, Nov, 2010.
W. T. Freeman, T. R. Jones, and E. C. Pasztor, “Example-based
super-resolution,” Ieee Computer Graphics and Applications, vol. 22,
no. 2, pp. 56-65, Mar-Apr, 2002.
E. M. Hung, Garcia, D.C., Queiroz, R.L.D., “Transform domain semisuper resolution,” in ICIP'11, 2011, pp. 1193-1196.
M. Aharon, M. Elad, and A. Bruckstein, “K-SVD: An algorithm for
designing overcomplete dictionaries for sparse representation,” Ieee
Transactions on Signal Processing, vol. 54, no. 11, Nov, 2006.
Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP
1
Set Based Meta Modeling: uma alternativa ao
MOF para definir metamodelos
1
Sergio R. M. Canovas, 2 Carlos E. Cugnasca
especificação de metamodelos, não bastando especificá-los em
linguagem natural. Este é o foco deste trabalho.
Resumo — Model Driven Architecture (MDA) é uma
abordagem para desenvolvimento de software baseada na
transformação sucessiva de modelos de alto nível até a geração do
código-fonte. Utiliza tecnologias específicas mantidas pelo Object
Management Group (OMG). Uma delas é o Meta Object Facility
(MOF), que permite descrever metamodelos, ou seja, modelos das
linguagens de modelagem de software tais como a UML. Os
metamodelos são elementos chave para a descrição de
transformações de modelos, base da MDA. Este artigo tem foco
na metamodelagem, apresentando um formalismo alternativo ao
MOF para a especificação de metamodelos, o Set Based Meta
Modeling (SBMM). Baseia-se na teoria de conjuntos e linguagens
e tem como principal requisito ser mais simples que o MOF ao
mesmo tempo que preserva sua essência. O MOF acabou se
tornando complexo e de difícil aplicabilidade, principalmente por
ser especificado em termos da UML ou fazendo referência a si
mesmo, tornando seu aprendizado mais difícil. Como exemplo de
aplicação do SBMM, uma versão simplificada do diagrama de
classes UML é descrita com o mesmo.
Fig. 1. Transformação de modelos segundo a MDA [1].
O Object Management Group (OMG) provê o Meta Object
Facility (MOF) como uma linguagem para definir
metamodelos. O MOF surgiu junto com a UML [4], mas não
foi tão amplamente adotado quanto ela. Uma das razões para
isso é que se tornou complexo demais, na tentativa de resolver
diversos problemas. Além disso, sua especificação não é de
trivial entendimento por usar o próprio MOF para definir o
MOF [5].
O objetivo deste trabalho é introduzir o Set Based Meta
Modeling (SBMM), uma alternativa mais simples em relação
ao MOF baseada essencialmente na teoria de conjuntos e
linguagens.
I. INTRODUÇÃO
M
odel Driven Architecture (MDA) é uma abordagem
para desenvolvimento de software através da qual um
software é construído através da transformação sucessiva e
encadeada de modelos. Um modelo de um sistema é uma
descrição ou especificação do mesmo considerando um
determinado propósito. Usualmente um modelo consiste em
uma combinação de textos e desenhos, podendo estar descrito
em linguagem de modelagem (ex: UML) ou em linguagem
natural [1].
Em sua forma mais básica, a MDA propõe dois modelos: o
platform-independent model (PIM), totalmente independente
de plataforma, e o platform-specific model (PSM), dependente
de plataforma [2]. A MDA propõe que o PSM seja gerado a
partir do PIM através de uma transformação de modelos. Uma
transformação é o processo de converter um modelo em outro
modelo do mesmo sistema, conforme ilustrado na Figura 1. O
quadro em branco da figura representa informações adicionais
eventualmente necessárias para o processo.
Para a MDA funcionar na prática com transformações
automáticas, é necessário especificar funções de mapeamento.
Funções de mapeamento são descritas sobre os metamodelos.
Sendo assim, é necessário um certo grau de formalismo para a
II. A ARQUITETURA DAS QUATRO CAMADAS
A arquitetura das quatro camadas é um modelo conceitual
que contempla objetos de tempo de execução, modelos,
metamodelos e um nível conhecido informalmente como metametamodelo [3], conforme pode ser visto na Figura 2.
A camada M0 contém os dados de um sistema em tempo de
execução. A camada M1 contém os modelos do sistema
considerado: diagramas UML de classes, definições de tabelas
de um banco de dados relacional, diagramas de casos de uso,
códigos-fonte, etc. As transformações de modelos da Figura 1
ocorrem dentro deste nível. A camada M2 contém os
metamodelos, isto é, os metadados que capturam as linguagens
de modelagem. Neste nível estão as definições da UML. A
camada M3 contém os “meta-metamodelos” que servem para
descrever os metamodelos. A OMG dedica esforços de
padronização neste nível, e com isso criou o MOF [4]. O
SBMM, alternativa apresentada neste trabalho, também fica
nesta camada.
1
S. R. M. Canovas, Escola Politécnica da Universidade de São Paulo, Brasil
(e-mail: [email protected]).
2
C. E. Cugnasca, Escola Politécnica da Universidade de São Paulo, Brasil (email: [email protected]).
89
Canovas e Cugnasca
2
é capaz de armazenar. O segundo elemento pode ser um
número natural positivo ou um símbolo *, que representa
infinito, denotando o limite superior de slots.
As enumerações ei ∈ E servem para definir tipos de dados
básicos cujas instâncias podem assumir um valor de um
conjunto finito (ex: Boolean), definido pela própria
enumeração. Ou seja, cada enumeração pode ser definida por:
ei = (ui, Li)
• ui ∈ Σ+ é a cadeia de símbolos que nomeia ei.
• Li é o conjunto finito de valores que as instâncias de ei
podem assumir.
Fig. 2. A arquitetura das quatro camadas
III. SET BASED META MODELING (SBMM)
IV. RESULTADOS E DISCUSSÃO
Um metamodelo nomeado consiste em um nome (cadeia de
símbolos) n, um conjunto C de metaclasses nomeadas, um
conjunto Γ de generalizações e um conjunto E de enumerações
nomeadas. Ou seja, um metamodelo é uma quádrupla MM:
Uma versão simplificada, mas significativa, do metamodelo
do diagrama de classes UML contendo os elementos classe,
atributo, operação, argumento, associação e generalização
pôde ser descrito com a notação do SBMM em 41 linhas.
O arquivo em formato XML Metadata Interchange (XMI)
que define o próprio MOF, fornecido pela OMG [6], apresenta
571 linhas. Os elementos definidos nesse arquivo são similares
aos utilizados no diagrama de classes, com algumas adições:
pacote (package) e importação de pacote (package import).
MM = (n, C, Γ, E)
• n ∈ Σ+, onde Σ é um conjunto de símbolos pré-definido
(fora da definição de MM) para a formação de cadeias que
representam nomes.
• C = {c1, ..., cn} é o conjunto finito, eventualmente vazio,
de metaclasses.
• Γ ⊂ C × C é uma relação transitiva livre de ciclos que
mapeia
submetaclasses
em
suas
supermetaclasses,
representando o conceito de herança da orientação a objetos.
• E = {e1, ..., em} é o conjunto finito, eventualmente vazio,
de enumerações.
V. CONCLUSÃO
Os estudos realizados até o momento apontam para a
viabilidade da utilização do SBMM para descrição de
metamodelos como alternativa ao MOF. Percebeu-se a
possibilidade de introduzir um conjunto R de restrições no
formalismo, tornando-o uma quíntupla, que definem restrições
no metamodelo através de sentenças em lógica de primeira
ordem.
Além do ganho em simplicidade, o SBMM é uma notação
puramente matemática, totalmente independente de linguagem
ou implementação, permitindo a definição de metamodelos em
um nível abstrato.
Cada metaclasse ci possui um nome wi e um conjunto de
propriedades Pi. Sendo assim, podemos defini-las como pares
ordenados:
ci = (wi, Pi)
VI. REFERÊNCIAS
• wi ∈ Σ é a cadeia de símbolos que nomeia ci.
• Pi = {pi1, ..., pin} é o conjunto finito de propriedades,
eventualmente vazio.
+
[1] OMG, MDA Guide Version 1.0.1. Disponível em:
http://www.omg.org/cgi-bin/doc?omg/03-06-01.
[2] Ambler, S., The Object Primer: Agile Modeling-Driven
Development with UML 2.0. New York: Cambridge
University Press, 2004.
[3] Mellor, S., Scott, K., Uhl, A., e Weise, D., MDA
Distilled: Principles of Model-Driven Architecture.
Boston: Pearson Education Inc., 2004.
[4] OMG, Meta Object Facility (MOF) Core Specification.
Disponível em: http://www.omg.org/spec/MOF/2.4.1
[5] Bézivin, J., Gerbé, O., Towards a precise definition of the
OMG/MDA framework. In: Automated Software
Engineering, 2001. Proceedings. 16th Annual International
Conference on (pp. 273-380). IEEE.
[6] OMG, Metamodel for the MOF-specific model elements.
Disponível
em:
http://www.omg.org/spec/MOF/
20110701/MOF.xmi
Cada propriedade pij consiste em um nome, multiplicidade,
tipo alvo (que pode ser uma metaclasse ou enumeração) e uma
multiplicidade que restringe quantos elementos o slot de
informação representado consegue armazenar. Isto é:
pij = (vij, tij, mij)
• vij ∈ Σ+ é a cadeia de símbolos que nomeia pij.
• tij ∈ C ∪ E é o tipo alvo da propriedade, ou seja, pode ser
uma metaclasse ou uma enumeração do metamodelo.
• mij ∈ N × (N+ ∪ {*}) é a multiplicidade da propriedade,
sendo um par ordenado cujo primeiro elemento é um número
natural que denota o limite inferior de slots que a propriedade
90
Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP
Solução Mediada por Tecnologia como Suporte à
Educação Inclusiva de Pessoas Surdas
Soraia Silva Prietch
Lucia Vilela Leite Filgueiras
Curso de Sistemas de Informação
Universidade Federal de Mato Grosso
Rondonópolis-MT, CEP 78735-901
[email protected]
Engenharia Elétrica, Departamento de Sistemas Digitais
Escola Politécnica/ Universidade de São Paulo
São Paulo-SP, CEP 05.508-970
[email protected]
Resumo – As etapas de pesquisa, relatadas aqui, apresentam
os procedimentos utilizados para efetuar o reconhecimento da
situação atual e a proposição de soluções, especialmente no que se
refere ao uso e projeto de tecnologias assistivas para suporte à
educação de surdos. Ao propor tais soluções também se levou em
consideração características de design universal, no sentido de
buscar alternativas que sejam úteis tanto para estudantes surdos
quanto para ouvintes. Sendo assim, o protótipo de uma solução
para dispositivo móvel está em fase de desenvolvimento, o qual
conta com um aplicativo de reconhecimento de voz (speech-totext) em plano de fundo. A ideia central desta solução é fornecer
em texto escrito o que é falado em sala de aula de modo a auxiliar
a comunicação e a colaboração entre estudantes e professores,
proporcionando uma experiência de aprendizagem positiva.
Estudos e Pesquisas Educacionais Anísio Teixeira (INEP) e da
Secretaria de Educação do Estado de Mato Grosso
(SEDUC/MT), tendo como foco o número de matrículas, o tipo
de necessidade educacional especial e as etapas de ensino no
que se refere à educação especial. A finalidade foi a de
conhecer a realidade, em termos quantitativos, das pessoas
surdas no contexto educacional, o que mostrou evidente a
grande evasão entre as etapas de ensino fundamental e médio.
B. Tecnologias para Assistir Surdos em seu Cotidiano [5]
Esta etapa da pesquisa teve como foco principal realizar
pesquisa bibliográfica a respeito de Tecnologias Assistivas
(TA) para pessoas com deficiência auditiva e discutir os pontos
principais a respeito das alternativas de uso das mesmas. Para
isso, o método de Revisão Sistemática foi utilizado, sendo que
cinquenta e dois trabalhos foram incluídos e categorizados em
05 grupos: acesso remoto; acesso direto/local; tradutores; (4)
recursos de ensino-aprendizagem; e, outros dispositivos da vida
diária. Com a realização desta pesquisa, foi possível perceber
que existem muitos estudos sendo realizados sobre essa
temática no mundo todo, desde a década de 70. Além disso,
averiguaram-se várias características e preferências a respeito
das pessoas surdas, a respeito da língua de sinais, das outras
formas de comunicação, de questões relacionadas à percepção
visual, das possibilidades de acessibilidade, dentre outras.
Palavras-chave – IHC; reconhecimento de voz; UX; educação
de surdos; tecnologias assistivas.
I. INTRODUÇÃO
No contexto de aplicação de técnicas de Interação HumanoComputador (IHC) e de Experiência do Usuário (User
eXperience, UX), vem observando-se o interesse tanto em
questões relacionadas à usabilidade (ex., facilidade de uso,
eficácia, eficiência de um sistema) quanto àquelas relativas à
vivência de situações que sejam positivas e memoráveis para o
usuário (ex., satisfação, confiança, diversão, afetividade)[3].
Considerando estas como áreas de concentração da
pesquisa, o objetivo principal deste trabalho é propor uma
solução que promova uma experiência de aprendizagem
positiva ao estudante surdo na escola, de forma que o mesmo
possa receber informações e participar mais ativamente (do que
a atual) durante as aulas, de maneira autônoma, por intermédio
da tecnologia. Sendo assim, o presente resumo apresenta um
relato das etapas de pesquisa já realizadas até o momento, na
Seção II, e as considerações finais com trabalhos em
andamento se encontram na Seção III.
C. Barreiras Educacionais para Estudantes Surdos [6][7]
Este estudo foi realizado usando os procedimentos
metodológicos de observações em uma escola pública, de
Rondonópolis/MT, e de revisão bibliográfica, resultando em
uma relação de 22 possíveis causas de barreiras educacionais
para estudantes surdos, dado o efeito da queda no número
matrículas de estudantes surdos entre o ensino fundamental e
médio. A identificação das barreiras educacionais evidenciou
quais problemas poderiam ser solucionados com o uso de
tecnologia, bem como levantou as seguintes questões: o que
está disponível e o que poderia ser proposto?
II. MATERIAIS E MÉTODOS
D. Tecnologias Assistivas para Estudantes Surdos
Um levantamento inicial foi realizado, o qual vem sendo
atualizado à medida que novas TA são localizadas. O arquivo
contendo essa relação foi organizado em seis tabelas, a saber:
(1) produtos de tecnologia assistiva para auxílio às pessoas
surdas, encontradas em trabalhos acadêmico-científicos; (2)
As subseções a seguir descrevem brevemente as etapas de
pesquisa cumpridas, com seus objetivos e resultados.
A. Levantamento de Dados Estatísticos
Esse levantamento foi realizado utilizando-se os dados
estatísticos disponíveis nos websites do Instituto Nacional de
91
Prietch e Filgueiras
softwares/jogos/vídeos educativos para auxílio às pessoas
surdas, encontradas na Internet; (3) softwares/jogos educativos
ou ambientes educacionais de acesso universal; (4) softwares
aplicativos ou produtos genéricos úteis para pessoas surdas; (5)
softwares aplicativos ou produtos genéricos de acesso
universal; e, (6) serviços de TA úteis para pessoas surdas.
Atualmente, essa relação de TA conta com 381 itens. A citar
alguns trabalhos correlatos encontrados: [1], [2] and [4].
III. CONSIDERAÇÕES FINAIS E CRONOGRAMA FINAL
Durante as etapas descritas nas subseções B e D, da Seção
II deste resumo, foi possível mapear uma extensa gama de
pesquisas e produtos comerciais desenvolvidos com foco no
auxílio aos estudantes surdos. A partir disso, as lacunas ainda
não exploradas sobre essa temática foram verificadas. Neste
sentido, diante das evidências encontradas, a presente proposta
revela-se inovadora, na área de sistemas digitais, bem como
traz contribuição social, no que tange à sua aplicação.
E. Mapeamento da Situação do uso de TA nas Escolas [8]
A partir da identificação das barreiras e da descoberta de
diversas tecnologias assistivas já existentes, surgiu a
necessidade de saber se as escolas estaduais públicas regulares,
na perspectiva da educação inclusiva, utilizavam recursos para
promover a acessibilidade dos estudantes com deficiência, em
especial os surdos, ao processo de ensino-aprendizagem (seja
em sala de aula ou nas salas de recursos multifuncionais).
Como resultado, as escolas que possuem salas de recursos
utilizam na maior parte do tempo as TA low-tech (sem
componente computacional); nas salas de aula, os estudantes
surdos nem sempre contam com o auxílio de intérpretes; um
grupo de profissionais geralmente é responsável por “prover” a
acessibilidade e não a escola com sua “cultura inclusiva”.
Até a conclusão da tese, ainda se pretende concluir algumas
etapas que se encontram em andamento. A primeira diz
respeito às adequações do instrumento Emotion-LIBRAS; a
segunda refere-se ao projeto de Design de Interação de um
recurso de conversão automática de fala para texto (Sample
Voice App, da Nuance) para uso em dispositivo móvel em sala
de aula; e a terceira é relativa à avaliação da experiência do
usuário, usando o Emotion-LIBRAS como um dos
instrumentos, enquanto estudantes surdos testam o protótipo.
AGRADECIMENTOS
CAPES, FAPEMAT e Programa DINTER EPUSP-UFMT.
REFERÊNCIAS
F. Emotion-LIBRAS [9][11]
Como uma das intenções desta pesquisa é a de proporcionar
uma experiência positiva de aprendizagem, o instrumento
denominado Emotion-LIBRAS foi criado com a finalidade de
identificar as emoções de pessoas surdas brasileiras,
especialmente no que se refere às situações de uso de recursos
mediados por tecnologia. A fundamentação teórica para a
produção deste instrumento foi pautada em métodos
reconhecidos internacionalmente na área de psicologia. Além
da revisão teórica, pesquisas de campo foram realizadas com
pessoas surdas, a fim de efetuar adequações no instrumento, as
quais se encontram em andamento.
A. Cavender. “Using Networked Multimedia to Improve Academic
Access for Deaf and Hard of Hearing Students”. Dept. of Computer
Science and Engineering, University of Washington. (2008).
[2] A. Iglesias, L. Moreno and J. Jiménez. “Supporting Teachers to
Automatically Build Accessible Pedagogical Resources: The APEINTA
Project”. Technology Enhanced Learning. Springer, Vol 73, 2010.
[3] L. Masip, M. Oliva, and T. Granolles. “User Experience Specification
through Quality Attributes”. In: P. Campos et al. (Eds.): INTERACT
2011, Part IV, LNCS 6949, 2011.
[4] M. Jun and X. Jia Cheng. “The Exploration of the Strategies and Skills
of Effective Use of Voice Recognition Software in the Classroom for
Deaf Students”. 2nd International Conference on Future Networks, 2010.
[5] S. Prietch, and L. Filgueiras, “Tecnologias para Assistir Pessoas com
Deficiência Auditiva: Levantamento e Discussão sobre seu Uso”.
Interaction South America, IXDA Brasil, Curitiba/PR, 2010.
[6] S. Prietch, and L. Filgueiras, “Identificação de Barreiras Educacionais
aos Estudantes Surdos para Proposição de Solução usando Alta
Tecnologia Assistiva”. 11º ErgoDesign/USIHC, Manaus/AM, 2011.
[7] S. Prietch, and L. Filgueiras, “Assistive Technology in the Classroom
Taking into Account the Deaf Student-Centered Design: the TApES
project”. EIST/ CHI, Austin-TX, 2012.
[8] S. Prietch, and L. Filgueiras, “Aplicação de Tecnologias Assistivas para
Surdos no Atendimento Educacional Especializado: Um Papel para o
Licenciado em Computação?” V CBEE, São Carlos/SP, 2012.
[9] S. Prietch, and L. Filgueiras, “Emotional Quality Evaluation Method for
Interviewing Deaf Persons (Emotion-LIBRAS)”, IADIS (ICHI), ISBN
978-989-8533-08-1, Lisbon, Portugal, 21- 23 July, 2012.
[10] S. Prietch, and L. Filgueiras, “One Assistive Technology does not fit all
Educational Strategies: A Reflection on Deaf Students in Mainstream
Classroom”. Workshop on Rethinking Universal Accessibility,
INTERACT 2013, Cape Town, South Africa, 2013.
[11] S. Prietch, and L. Filgueiras, “Developing Emotion-Libras 2.0 - an
Instrument to Measure the Emo-tional Quality of Deaf Persons while
using Technology”. In: K. Blashki & P. Isaías (Ed.) “Emerging Research
and
Trends
in
Interactivity
and
the
Human-Computer
Interface”, IGI Global pub. (a ser publicado)
[1]
G. Uso das TIC em Salas de Aula de Escolas Regulares [10]
A pesquisa teve como metodologia a observação de aulas
em uma escola regular e revisão de literatura, obtendo como
resultado a “montagem de um quebra-cabeça” que agregou
peças provenientes de quatro frentes de estudos prévios:
potenciais causas de barreiras educacionais; recursos mediados
por tecnologia; seis estratégias de ensino-aprendizagem; e,
combinação de perfis das pessoas surdas. A partir desse estudo,
foi interessante notar que a maioria das tecnologias assistivas
consideradas como passíveis de uso em salas de aula inclusivas
não foram originalmente projetadas como tecnologias
assistivas. Além disso, recomendações para utilização de
tecnologias específicas foram mencionadas para cada tipo de
estratégia, barreira e perfil, sendo que o sistema de
reconhecimento de voz foi uma das soluções apontadas como
uma forma alternativa de uso, principalmente, para os casos em
que o intérprete de LIBRAS não esteja disponível no momento
da aula para auxiliar o estudante surdo.
92
Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP
Reutilização de Conceitos de Serviços no Cenário de
Governo Eletrônico
Wannessa Rocha da Fonseca
Pedro Luiz Pizzigatti Corrêa
Escola Politécnica da USP
CEPROMAT, Brasil
[email protected]
Escola Politécnica da USP, Brasil
[email protected]
Resumo—No modelo orientado a serviços os processos de
negócios são modelados e implementados sob a ótica de serviços.
O governo mostra-se como um cenário de alto potencial para
implantação de soluções orientadas a serviços, mas falta suporte
para o reuso de conceitos de serviços já concebidos. Visando
auxiliar a especificação de serviços no cenário de governo, este
trabalho propõe um Método para Especificação de Serviços de
Governo Eletrônico, baseado em padrões de serviço. A concepção
de serviços aliada ao conceito de padrões de serviços pode
ajudar arquitetos de software a identificar elementos funcionais
recorrentes e reduzir a redundância de esforços para a concepção
de serviços com os mesmos propósitos.
Abstract —The business processes in the service-oriented model
are modelled and implemented from the perspective of services.
The government appears to be a high potential scenario for the
deployment of service-oriented solutions, but it takes support to
reuse the service concepts already conceived. Seeking to support
the specification of services in the government scenario, this paper
proposes the Service Specification Method for e-Government, based
on service patterns. Thus, the idea that the use of service patterns
adds value to the process of service specification is reinforced. The
conception of services combined with the concept of patterns can
help software architects to identify recurrent functional elements
and reduce redundant efforts in the conception of services with the
same purposes.
I.
I NTRODUÇÃO
O governo, de uma forma geral, mostra-se como um cenário
de alto potencial de implantação de soluções orientadas a serviços,
principalmente pelo grande número de aplicações existentes, pela
diversidade tecnológica, pela necessidade de interação entre essas
aplicações e pela necessidade de gestão da qualidade dos serviços
prestados.
No contexto de governo eletrônico (e-Governo) quando usado
o termo serviço, normalmente se remete ao termo serviço eletrônico
prestado diretamente ao cidadão, por meio de uma interface de usuário
final. Neste trabalho, o termo serviço é utilizado para representar uma
interface de software, fornecida por uma instituição governamental
para ser consumida por aplicativos de instituições governamentais
ou instituições externas ao governo. Quando o governo oferece
um serviço eletrônico ao cidadão, por meio de um aplicativo, esse
aplicativo pode estar consumindo um serviço (via Web Service) ou
não, isso depende da abordagem utilizada para o desenvolvimento da
aplicação.
Sistemas de informações são concebidos e desenvolvidos nas três
esferas (Federal, Estadual e Municipal) e nos três poderes (Executivo,
Legislativo e Judiciário), mas de um modo geral os serviços são
concebidos a partir dos princípios elementares, muitas vezes sem
o reuso de soluções já concebidas em outras esferas e poderes.
93
Assim os esforços para conceber soluções por meio do paradigma de
serviços não são reaproveitados. De um modo geral, muitas atividades
e obrigações são similares nos poderes e esferas de governo. Embora
existam meios eletrônicos de divulgação dos serviços, como é o caso
do catálogo de serviços interoperáveis do Governo Federal, esses não
são divulgados visando o reuso da solução, e sim, informações para
o consumo do serviço. O que se observa é a falta de subsídios para
fomentar o reuso de soluções orientadas a serviços concebidas para
processos de negócio relacionados a e-Governo.
Este artigo apresenta um método de especificação de serviços para
o cenário de e-Governo. O objetivo é conceber serviços a partir de
padrões de serviços previamente catalogados, para subsidiar o reuso
do conceito de serviço no cenário de e-Governo.
II.
PADRÕES DE S ERVIÇOS
O conceito de padrões de serviços utilizado neste trabalho é
similar ao definido por Fki et al. [1], ou seja, um serviço abstrato
que representa uma descrição genérica e reutilizável. A essa definição
é acrescido que o padrão de serviço deve contemplar a descrição
de serviços atômicos e serviços compostos, assim os padrões devem
considerar também as interações entre os serviços.
III.
T RABALHOS R ELACIONADOS
Nazih e Alaa [2] apresentam padrões genéricos de serviços
para sistema de saúde pública egípcia. Li et al. [3] apresentam um
padrão de serviço de reputação como uma solução para o problema
de confiança na prestação de serviços na Computação Orientada a
Serviços. Tchuta e Chunhua [4] apresentam um padrão para criação
de serviços atômicos.
IV.
M ÉTODO DE E SPECIFICAÇÃO DE SERVIÇOS PARA
E -G OVERNO
A Figura 1 ilustra uma visão abstrata do SSMe-Gov (Service
Specification Method for e-government), onde serviços já existentes
no Governo são definidos e catalogados como padrões de serviços
em um repositório e servem como referência para a criação de novos
serviços.
O SSMe-Gov tem por objetivo: (1) abstrair o conceito vinculado
a um serviço e representá-lo como um padrão de serviço, (2)
documentar o padrão de serviço, (3) catalogar o padrão de serviço
no repositório e (4) conceber novos serviços a partir dos padrões de
serviços catalogados.
A. Representação dos Padrões de Serviços
Os padrões de serviços são representados, neste trabalho, por
meio de três elementos: 1) Interface do Serviço - Para representar
Fonseca e Corrêa
Figura 2.
Figura 1. Método de Especificação de Serviços de e-Gov baseado em Padrões
de Serviços
a interface do serviço é utilizado uma classe com o estereótipo ServiceInterface; 2) Diagrama de Atividade - O diagrama de atividade da
UML é utilizado para descrever as ações realizadas pelas capacidades
do serviço; e 3) Template de Descrição do Padrão de Serviço. O
template proposto é apresentado na Tabela I. O template foi definido
a partir da análise de trabalhos como: Tchuta e Chunhua [4], Li et
al. [3] e Fki et al. [1].
Tabela I.
Template D ESCRIÇÃO DE PADRÃO DE S ERVIÇO
Elementos Relacionados a Padrões de Serviço
Dois estudos de casos foram realizados para a área de governo.
O primeiro para o processo de negócio de Agendamento de Diárias
e o segundo a respeito da Nota Fiscal Eletrônica. Nos dois casos
foram criados padrões de serviços a partir de serviços existentes no
Governo. Com os resultados obtidos até o momento observa-se que
os padões de serviços subsidiam o reaproveitamento de conceitos de
serviços.
Como trabalhos futuros podem ser considerados os aspectos de
criação e localização de padrões de serviços no catálogo de padrões de
serviços, definição do nível de granularidade do serviço a ser criado
a partir dos padrões de serviços e outras fontes para a definição dos
padrões de serviços, como por exemplo, os processos de negócios.
AGREDECIMENTOS
Os autores agradecem a CAPES, entidade do Governo Brasileiro
voltada para a formação de recursos humanos e a FAPEMAT, Fundação de Amparo à Pesquisa do Estado de Mato Grosso, pelo apoio
dado à viabilização do convênio EPUSP/UFMT/CEPROMAT para
realização do doutorado a qual esse trabalho tem origem.
R EFERÊNCIAS
[1]
A Figura 2 ilustra uma visão conceitual dos padrões de serviços
e os elementos relacionados. A proposta é que a partir do processo
de negócio modelado deve-se consultar o catálogo de padrões de
serviços para localizar padrões de serviços que possam ser adequados
ao processo de negócio. O catálogo é composto de padrões de
serviços, sendo que cada padrão contém uma descrição do padrão,
uma interface do serviço e para cada capacidade do serviço um
diagrama de atividade que representa o comportamento da capacidade.
O padrão de serviço deve servir de referência para a especificação de
um novo serviço.
V.
C ONCLUSÃO
Foi proposto o SSMe-Gov para especificar serviços de e-Governo
a partir de padrões de serviços. Essa solução foi definida considerando: a falta de subsídios para fomentar o reuso de soluções
orientadas a serviços concebidas para atender processos de negócio
relacionados a e-Governo.
94
E. Fki, S. Tazi, and C. S. Dupuy, “Towards a user intention aware service
composition,” in New Technologies of Distributed Systems (NOTERE),
2010 10th Annual International Conference on, Jun. 2010, pp. 113 –
120.
[2] M. Nazih and G. Alaa, “Generic service patterns for web enabled
public healthcare systems,” in 2011 7th International Conference on Next
Generation Web Services Practices (NWeSP). IEEE, Oct. 2011, pp. 274–
279.
[3] P. Li, M. Xiangxu, S. Zhiqi, and Y. Han, “A reputation pattern for
service oriented computing,” in Information, Communications and Signal
Processing, 2009. ICICS 2009. 7th International Conference on, Dec.
2009, pp. 1 –5.
[4] L. Tchuta and G. Chunhua, “Atomic new service pattern,” no. International Journal of Software Engineering and Its Applications, 2011.
Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP
Spatial Analysis through Geo-objects Generated by
Multiresolution Algorithm
Wilian França Costa
Antonio Mauro Saraiva
Doctorate Candidate - PCS-EPUSP
Email: [email protected]
Advisor
Email: [email protected]
Abstract—This article is intended to present the current state of my
research using georreferenced data soil samples to create spatial models.
Those models have the intention to highlight and separate parcels of
the observed terrain according its spatial differences. Concepts related
to Object Based Image Analysis were used to generate a meaningful
terrain Management Zone delineation. The aim is the construction of
models based on a multi source georeferenced data fusion, building
a concrete relationship among different inputs of information layers
employed using the Multiresolution region-based segmentation algorithm
to generate segments called here as geo-objects. Those geo-objects will
be applied inside the analysis step under development.
I.
I NTRODUCTION
Agricultural Crop Field Modelling is a technique that
uses georeferenced data points of soil information analysis
or spectral remote sensing imagery raster layers to obtain
models. The models generated may be used to identify spatial
differences in the regions; maximize the production, minimize
the nutrient reposition; and find the desired characteristics in
terrain based on a class of production selected [1]. Concepts
related to Object Based Image Analysis - OBIA [2] were
adopted to generate a meaningful Management Zone - MZ
delineation.
II.
M ATERIALS AND M ETHODS
OBIA is a sub-discipline of Geographic Information Sciences [2] developed to partition of remote sensing imagery into
meaningful image-objects through spatial, spectral and temporal scale [3]. This requires an efficient image segmentation,
attribution, classification, query and link to individual objects
in space and time. The strength of OBIA is the ability to deal
with multi-scale data, enabling its application in environmental
monitoring, modelling and management. Its main advantages
are [3]: (1) reduction of computational load due to dimension
reduction (since the basic units are image-objects). (2) A more
comprehensible way to analyse the region since it is partitioned
into conceptually organized objects (e.g. more productivity
regions). (3) Possibility to apply complex statistical techniques
(e.g.: non-parametric). (4) Possibility to explore interesting
relations through OBIA features (shape, texture and object
context). (5) Last, an easier integration with vector GIS and
spatial databases.
The concepts adopted are used in multi-spectral images
and need adaptation to be used with geoprocessed interpolated
layers. The aim of geospatial multi-layer generated data type is
to stablish a n-dimensional space where each dimension will
represent one attribute of generated geo-objects. Virtually, we
can use any type of georeferenced information that can be
95
quantified and have a given number of observations sampled
over the place under analysis.
III.
G EOSPATIAL DATA S EGMENTATION
The basic activity for object oriented modelling is a map
segmentation (i. e. the process to produce a set of nonoverlapping segments/polygons that are expected to have a
relatively homogeneous and semantically significant groups of
pixels [2]). The main objective is the construction of models
based on a multi source geo-referenced data fusion, building a concrete relationship among different layers employed
[4].Considering crop productivity MZ as a set of homogeneous conditions to support the desired culture behaviour, the
identification and segmentation of this area is a key factor
to support further inferences and profiler analysis. To achieve
this objective, the Multiresolution region-based segmentation
algorithm [4] was chosen due to its capacity of dealing with
multiple information layers, seeking to aggregate regions by
minimizing their spatial and spectral heterogeneity (in our
case, interpolated surface values).This algorithm is based on
an iterative process of local optimization that minimizes the
mean heterogeneity inside each segment. The heterogeneity
definition adopted has a spatial and a spectral component
(set of values on each pixel position) and is defined for
the equation 1, where f represents the fusion factor among
segments (objects), hspc , the calculated spectral factor, hf orm ,
the object form factor and the weight factor wspc defines the
relative importance between those factors.
f = wspc hspc + (1 − wspc )hf orm
(1)
The spectral component hspc is defined as the value associated
to each pixel that belongs to one segment and is proportional
to weighted mean of the standard deviation of each layer or
dimension (Eq.: 2) where s1 is the selected segment, s2 is the
neighbour under analysis and s3 is the resulting segment; c is
the spectral band or layer index; wc is the weight defined for
each band/layer; σcsi is the standard deviation on band/layer c;
and ns2 is the number of pixels for each si , for i = 1, 2, 3 [5].
X
hesp =
wc (ns3 σcs3 (ns1 σcs1 − ns2 σcs2 ))
(2)
c
The spatial component hf orm (Eq.: 3) is composed by two
form attributes: compactness and smoothness. The relative
importance between those factors is adjusted by wcomp weight
value.
hf orm = wcomp hcomp + (1 − wcomp )hsmo
(3)
Costa e Saraiva
Compactness degree is defined as a ratio between segment
perimeter and the squared root of its area (in pixels units
times the number of object pixels). Smoothness is defined
as the ratio between segment perimeter and its minimum
bounding box.Initially each segment (object) is defined as a
single image pixel. The segment grow as they are merged with
their neighbours always trying to minimize the incorporated
heterogeneity and only if the minimum fusion factor f is less
than an value e defined as a squared for a scale parameter.
The process continues until any segment can not grow more.
More details about the Multiresolution algorithm can be seen
in [4]. One of the most employed implementations is found in
eCognition software [http://www.ecognition.com/].
IV.
captured by Multiresolution to generate a meaningful zone
area.
C LASSIFICATION
To assign meanings to obtained objects, is necessary to
analyse each internal characteristics and apply some technique
to classify and separate classes aiming the identification of
important aspects that can give us some "glue" about what is
happening, and support to further decisions about the best way
to deal with each MZ selected. Considering the ponint of view
about data-mining and machine learning techniques, we can
use supervised (e.g.:Principal Component Analysis, Support
Vector Machines), and unsupervised (e.g.: Kmeans, Maximum
likelihood) algorithms to classify the data geo-objects. For
this work, we mixed both techniques in a semi-supervised
approach. In our case we selected objects according to the
mean productivity obtained from harvest machine data.
V.
(b) P
B. Conclusion
The profiler applied in this study uses non-parametric
statistics based on the Akaike information criterion to measure
the relative quality of fit for samples histogram to some previous defined distribution (normal and weibull). With this technique, the maximum productivity probability and region profile
can be indicated, helping the farmer to get best decisions
about fertilizers and crop MZ selection. Experiments where
conducted applying the following open source softwares: Interimage [www.lvc.ele.puc-rio.br/projects/interimage/], PostGIS
[postgis.net], R [cran.r-project.org] and 52North OGC-WPS
[52north.org/wps] implementation.
R ESULTS AND D ISCUSSION
ACKNOWLEDGEMENTS
To exemplify the proposed approach, experiments were
performed using data from a private farm crop field production
of wheat (planted on set. 2008) on the State of Paraná, Brazil.
A total of 67 samples were collected on mar. 2009 after
the harvest (over a 1.6Km x 1.2Km area approximately) to
estimate pH, H+AL, Al, Ca, Mg, K, Base Saturation, CEC, P,
C, Organic Matter, V, Silt, Sand, Clay. For segmentation step,
the layers pH, Ca, Mg, K, BS, CTC, P, Silt, Sandy and Clay
were interpolated using Kriging algorithm from R Intamap
packages [www.intamap.org] (Fig. 1). After performing data
normalization of values to [0 − 1] interval, results were used as
input in Multiresolution algorithm (from Interimage www.lvc.
ele.puc-rio.br/projects/interimage/ implementation version).
(a) K
Fig. 2: Resulting MZ map
(c) pH
(d) Ca
(e) Mg
The authors would like to thank FINEP/MCT PROSENSAP project
#01.08.0566.00 and CAPES. This research is part of a study on geopespatial
cyberinfrastructures (geospatial modelling topic).
R EFERENCES
[1]
[2]
[3]
[4]
(f) B.S.
Fig. 1: Generated Maps of some interpolated layers using
Kriging method from Intamap R package
A. Results
The resulting segments are shown in 2. The segments
where coloured according productivity mean values (red:low,
yellow:medium, green:high). We can clearly see that layers
Ca, Mg and base Saturation have high level of correlation
and expose a spatial pattern. This is an important behaviour
96
[5]
G. Jones, C. Gee, S. Villette, and F. Truchetet, “A crop field modeling
to simulate agronomic images,” in 2010 4th International Symposium on
Communications, Control and Signal Processing (ISCCSP), Mar. 2010,
pp. 1 –4.
T. Blaschke, “Object based image analysis for remote sensing,” ISPRS
Journal of Photogrammetry and Remote Sensing, vol. 65, no. 1, pp.
2–16, 2010. [Online]. Available: http://www.sciencedirect.com/science/
article/pii/S0924271609000884
G. J. Hay and G. Castilla, “Object-based image analysis: Strengths,
weaknesses, opportunities and threats (SWOT),” in Proceedings of 1st
international conference on object-based image analysis (OBIA 2006),
Salzburg University, Austria, 2006.
M. Baatz, A. Schäpe, and J. Strobl, “Multiresolution Segmentation: an
optimization approach for high quality multi-scale image segmentation,”
in Angewandte Geographische Informationsverarbeitung XII. Beiträge
zum AGIT-Symposium Salzburg 2000, Karlsruhe, Herbert Wichmann
Verlag, 2000, pp. 12–23.
P. N. Happ, R. d. S. Ferreira, C. Bentes, G. A. O. da Costa, and R. Q.
Feitosa, “Segmentação multiresolução: uma abordagem paralela para
segmentação de imagens de alta resolução em arquiteturas de múltiplos
núcleos,” in Anais XIV Simpósio Brasileiro de Sensoriamento Remoto.
Natal, Brasil: INPE, Apr. 2009, pp. 6935–6942.
Índice de Autores
Abrahão, E., 61
Almeida Jr, J.R., 75, 83, 85
Alves, R.C.A., 39
Amaral, M.C., 25
Januário, G.C, 13
Kawamoto, S., 85
Lima, A.D.S., 49
Beirigo, R.L., 37
Bieleveld, M.J.M., 79
Bressan, G., 87
Camargo Jr., J.B., 45
Campos, L.B., 73
Canovas, S.R.M., 89
Carvalho, T.C.M.B., 13, 21, 25, 27, 33, 53, 77
Cignasca, C.E., 73
Cirelli, M., 31
Corrêa, C.G., 57
Corrêa, F.E., 65
Corrêa, P.L.P., 59, 65, 93
Costa, A.F., 3
Costa, A.H.R., 7, 11, 17, 37, 43, 71
Costa, W.F., 95
Cugnasca, C.E., 15, 23, 81, 89
Dantas, J.S., 67
Dirickson, Y.M.R., 45
Domingues, M.B.P., 75
Ferreira, J.C., 19
Filgueiras, L.V.L., 69, 91
Fonseca, W.R., 93
Freiberger, E.C., 63
Gimenes, R.A.V., 83
Gomi, E.S., 5, 9
Gonzalez, N.M., 33
Goya, W.A., 41
Gutierrez, M., 29
Maçan, E.M., 5
Marè, R.M., 81
Margi, C.B., 19, 39
Massolino, P.M.C., 35
Mayor Toro, W.M., 43
NAkamura, R., 31
Nakamura, R., 3, 29
Nunes, F.L.S., 55, 57
Oliveira, A.C.M.T.G., 55
Perafán Villota, J., 71
Preti, J.P.D., 69
Prietch, S.S., 91
Reis, S.R.S., 87
Riekstin, A.C., 53
Rojas, M.A.T., 77
Ruggiero, W.V., 35
Rugierro, W.V., 67
Saraiva, A.M., 51, 79, 95
Schwarz, M.F., 27
Sichman, J.S., 49
Silva, D.L., 59
Silva, F.L., 7
Silva, L.O.L.A., 23
Silveira, R.M., 67
Simplı́cio Jr, M.A., 41
Souza, H.B., 17
Hattori, F., 9
Hirakawa, A.R., 61
Tori, R., 55, 57, 63
Toschi, G.M., 15
Truzzi, F.S., 11
Iwaya, L.H., 21
Veiga, A.K., 51

Documentos relacionados