Anais - PCS
Transcrição
Anais - PCS
WPG-EC 2013 Anais do II Workshop de Pós-Graduação da Área de Concentração Engenharia de Computação do Programa de Pós-Graduação em Engenharia Elétrica da EPUSP — WPG-EC 2013 — Organizado por Anarosa Alves Franco Brandão Anna Helena Reali Costa Cı́ntia Borges Margi São Paulo, 10 Outubro de 2013 Prefácio Este documento contém os trabalhos apresentados na segunda edição do WPG-EC (Workshop de Pós Graduação da área de Concentração Engenharia de Computação do Programa de Pós Graduação em Engenharia Elétrica da Escola Politécnica da Universidade de São Paulo). O WPG-EC 2013 será realizado nas dependências da Escola Politécnica da Universidade de São Paulo (USP), no dia 10 de outubro, com apoio da CAPES, do Departamento de Engenharia de Computação e Sistemas Digitais da Escola Politécnica, do Programa de Pós-Graduação em Engenharia Elétrica (PPGEE) da USP e da Seção Sul do IEEE, Sociedade de Computação. Com o intuito de criar tradição, o evento tem como objetivo propiciar um fórum para integrar professores e estudantes de Pós-Graduação em Engenharia de Computação do PPGEE. Neste fórum os alunos submetem resumos estendidos relatando seus projetos de pesquisa, avaliam os trabalhos de seus pares e apresentam seus trabalhos oralmente. Além disso, os alunos confeccionaram pôsteres exibidos por três dias nas dependências do prédio da Engenharia Elétrica da Escola Politécnica da USP na semana do evento. Como forma de atingir todos os alunos do programa, inclusive aqueles participantes do DINTER, o evento também será transmitido em tempo real via IPTV-USP. Palestras relacionadas à Pesquisa e Pós-Graduação serão apresentadas aos participantes, para trazer-lhes um panorama do assunto extramuros da Engenharia Elétrica. Bancas formadas por docentes credenciados no PPGEE elegerão os melhores trabalhos nas categorias Mestrado e Doutorado. Para esta edição, o evento recebeu 47 submissões de resumos estendidos nas áreas de Sistemas de Informação e Aplicações Computacionais, Organização de Sistemas Computacionais e Metodologias de Computação. Todos os resumos constam deste documento. Gostarı́amos de agradecer aos palestrantes convidados que abrilhantaram o evento com suas palestras. Finalmente, agradecemos ao fomento recebido da CAPES, do Departamento de Engenharia de Computação e Sistemas Digitais da EPUSP e do PPGEE-EPUSP, bem como o apoio da Seção Sul do IEEE, Sociedade de Computação, que tornaram possı́vel o WPG-EC 2013. São Paulo, Outubro, 2013 Anarosa Alves Franco Brandão Anna Helena Reali Costa Cı́ntia Borges Margi Comissão Organizadora do II WPG-EC Patrocı́nio PPGEE-EPUSP Apoio Comitê de Programa Abrahao, Elcio Almeida, Jorge Alves, Renan C. A. Alves Franco Brandão, Anarosa Amaral, Marcelo Batista Camargo Jr, João Beirigo, Rafael Lemes Berlink de Souza, Heider Bieleveld, Borges Margi, Cı́ntia Barreto Campos, Leonardo Canovas, Sergio Carvalho, Tereza Casare, Sara Cirelli, Mauricio Correa, Fernando Elias Corrêa, Cléber Gimenez Costa, André Costa, Anna Helena Reali Cugnasca, Carlos De Moraes Batista, André Filipe Dirickson, Yuri Domingues, Marcia Beatriz Emiliano Moreira Rocha, Vladimir Ferreira, Jefferson Filgueiras, Lucia Fonseca, Wannessa França Costa, Wilian Freiberger, Evandro Gimenes, Ricardo Gomi, Edson Goya, Walter Akio Gutierrez, Marylia Hattori, Fernando Hirakawa, Andre Iwaya, Leonardo Jacomini, Ricardo Januário, Guilherme Kawamoto, Sandra Koga, Marcelo Lourdes S. Nunes, Fátima de L. Silva, Daniel Lima, Allan Maat Massolino, Pedro Maçan, Eduardo Marè, Renata Mayor Toro, Walter Melo Sivleira, Regina Mimura Gonzalez, Nelson Nakamura, Ricardo Oliveira, Ana Cláudia M. T. G. Oliveira, Bruno Perafán Villota, Juan USP USP USP USP USP USP USP USP USP USP USP USP USP USP USP USP USP USP USP USP USP USP USP USP USP USP USP USP USP USP USP USP USP USP USP USP USP USP USP USP USP USP USP USP USP USP USP USP USP USP USP USP USP Pizzigatti Correa, Pedro Luiz Preti, João Paulo Prietch, Soraia Reis, Saulo Riekstin, Ana Carolina Rojas, Marco Ruggiero, Wilson Vicente Truzzi, Flavio Sales Santos, Mateus Saraiva, Antonio Mauro Schwarz, Marcos Sichman, Jaime Silva, Felipe Leno Silva, Luiz Otávio L. Simplicio Jr, Marcos Antonio Socrates Dantas, Joana Tori, Romero Toschi, Guilherme Veiga, Allan Koch USP USP USP USP USP USP USP USP USP USP USP USP USP USP USP USP USP USP USP Sumário I Resumos Mestrado Experiência de usuário em jogos combinando realidade aumentada e dispositivos móveis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . André Febeliano da Costa, Ricardo Nakamura 3 Classificador para anotação geográfica automática de textos . . . . . . . . . . . . . . . . . . . . Eduardo Marcel Maçan, Edson Satoshi Gomi 5 Técnicas para a Classificação Automática de Abelhas a partir de Imagens de Asas Felipe Leno da Silva, Anna Helena Reali Costa 7 Investigação de métodos para ordenação de resultados de motores de busca em acervos digitais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Fernando Hattori, Edson Satoshi Gomi Ad Networks: Models and Solutions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Flavio Sales Truzzi, Anna Helena Reali Costa Avaliação de Sistemas de Gerenciamento de TI Baseados em Polı́tica de Eficiência Energética . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Guilherme C. Januário, Tereza Cristina Melo de Brito Carvalho Integração de subsistemas de automação residencial . . . . . . . . . . . . . . . . . . . . . . . . . . . Guilherme Mussi Toschi, Carlos Eduardo Cugnasca 9 11 13 15 Desenvolvimento de um Sistema Inteligente de Gerenciamento Energético Residencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Heider Berlink de Souza, Anna Helena Reali Costa 17 Simulação e Análise de Arquiteturas Hierárquicas sem Buffers de Redes em Chip sem Fio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Jefferson C. Ferreira, Cintia Borges Margi 19 Security framework for mHealth data collection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Leonardo Horn Iwaya, Tereza Cristina Melo de Brito Carvalho 21 Classificação visual de produtos agrı́colas: Análise da eficácia de técnicas de seleção de atributos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Luis Otávio Lamardo A. Silva, Carlos Eduardo Cugnasca 23 REASON - Avaliação de confiabilidade e disponibilidade em redes de computadores sustentáveis. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Marcelo C. do Amaral e Tereza Cristina Melo de Brito Carvalho 25 Emulated and Software Defined Networking Convergence . . . . . . . . . . . . . . . . . . . . . . Marcos Felipe Schwarz, Tereza Cristina Melo de Brito Carvalho 27 Estudo de métodos para escolha de gestos para aplicações em superfı́cies multi-toque Marylia Gutierrez, Ricardo Nakamura 29 An evaluation of multi-touch gesture recognizers on interactive tables . . . . . . . . . . . . Mauricio Cirelli, Ricardo Nakamura 31 Gerenciamento de credenciais para computação em nuvem . . . . . . . . . . . . . . . . . . . . . Nelson Mimura Gonzalez, Tereza Cristina Melo de Brito Carvalho 33 McEliece Cryptossytem in Hardware with binary QuasiDyadic Goppa Codes . . . . . Pedro Maat C. Massolino, Wilson Vicente Ruggiero Utilização de Atributos do Estado no Mapeamento de Ações entre Soluções de Diferentes Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Rafael Lemes Beirigo, Anna Helena Reali Costa Modelo em Rede de Petri Colorida para o padrão IEEE 802.15.4 . . . . . . . . . . . . . . . . Renan Cerqueira A. Alves, Cintia Borges Margi Uma Solução para a Redução Automática de Fluxos de Vı́deo Redundantes em Nuvens de Computação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Walter Akio Goya, Marcos Antonio Simplı́cio Jr 35 37 39 41 Aplicação do Aprendizado por Reforço em um Espaço contı́nuo . . . . . . . . . . . . . . . . . Walter Mauricio Mayor Toro, Anna Helena Reali Costa 43 Avaliação de risco da automação no controle de tráfego aéreo: caso TWR . . . . . . . . Yuri M. R. Dirickson, João Batisata de Camargo Jr 45 II Resumos Doutorado C.O.R.M.: Customized Opinion Relevance Model . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Allan Diego Silva Lima, Jaime Simão Sichman 49 Proposta de um método de controle de qualidade de dados de biodiversidade . . . . . Allan Koch Veiga, Antonio Mauro Saraiva 51 Automated Refinement of Sustainability-Oriented Policies for a Sustainable Network Management . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ana Carolina Riekstin, Tereza Cristina Melo de Brito Carvalho 53 Método de Deformação Elástica para um simulador Virtual para treinamento de punção de mamas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ana Cláudia M. T. G. de Oliveira, Fátima L. S. Nunes, Romero Tori 55 Avaliação de interação háptica em ambientes virtuais para treinamento na área de saúde . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Cleber Gimenez Corrêa, Fátima L. S. Nunes, Romero Tori 57 Framework conceitual para a integração de bases de dados de Biodiversidade distribuı́das em larga escala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Daniel Lins da Silva, Pedro Luiz Pizzigatti Corrêa 59 Uma extensão do agroXML para representação do conhecimento técnico das operações agrı́colas da cana-de-açúcar através de ontologia . . . . . . . . . . . . . . . . . . . . . Elcio Abrahão, André Riyuiti Hirakawa 61 Plataforma Online de Produção, Execução e Compartilhamento de Conteúdos Interativos de Realidade Virtual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Evandro Cesar Freiberger, Romero Tori 63 Modelo de Data Mining aplicado a Data Marts de preços de comercialização de Grãos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Fernando Elias Corrêa, Pedro Luiz Pizzigatti Corrêa 65 Differentiated Service Strategy for Backbone Networks . . . . . . . . . . . . . . . . . . . . . . . . . Joana Socrates Dantas, Regina Melo Silveira, Wilson Vicente Ruggiero 67 Transition Support Services for Distributed User Interfaces . . . . . . . . . . . . . . . . . . . . . João Paulo Delgado Preti, Lucia Vilela Leite Filgueiras 69 Construção de mapas densos em ambientes internos utilizando sensores RGB-D . . . Juan C. Perafán Villota, Anna Helena Reali Costa 71 Um Modelo de Rastreabilidade da Cadeia do Vinho Baseado em Internet das Coisas Utilizando Redes de Sensores Sem Fio e RFID . . . . . . . . . . . . . . . . . . . . . . . . . . Leonardo Barreto Campos, Carlos Eduardo Cugnasca 73 Database Refactoring to Increase Queries Performance . . . . . . . . . . . . . . . . . . . . . . . . . Marcia Beatriz Pereira Domingues, Jorge Rady Almeida Jr. 75 Proposta de Mecanismo de Controle de Acesso para o Ambiente SDN/OpenFlow . Marco Antonio T. Rojas, Tereza Cristina Melo de Brito Carvalho 77 Multi Expression Linear Genetic Programming for Symbolic Regression . . . . . . . . . . Michel Jan M. Bieleveld, Antonio Mauro Saraiva 79 Avaliação da Adoção de Sensores Virtuais em Redes de Sensores Legadas Visando à Sua Predisposição ao Contexto de Internet das Coisas . . . . . . . . . . . . . . . . . . . . . . . . Renata Maria Marè, Carlos Eduardo Cugnasca 81 Método de Avaliação de Segurança Crı́tica para a Inserção de Veı́culos Aéreos não Tripulados (VANT) no Espaço Aéreo não Segregado . . . . . . . . . . . . . . . . . . . . . . . Ricardo A. V. Gimenes, Jorge Rady de Almeida Jr 83 Modelo de Representação de Design Rationale para Projetos de Código Aberto . . Sandra Kawamoto, Jorge Rady de Almeida Jr Método de Super-Resolução de Imagem Digital usando Interpolação DCT e Representação Esparsa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Saulo R. S. dos Reis, Graça Bressan Set Based Meta Modeling: uma alternativa ao MOF para definir metamodelos . . . . Sergio R. de M. Canovas, Carlos Eduardo Cugnasca Solução Mediada por Tecnologia como Suporte à Educação Inclusiva de Pessoas Surdas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Soraia Silva Prietch, Lucia Vilela Leite Filgueiras 85 87 89 91 Reutilização de Conceitos de Serviços no Cenário de Governo Eletrônico . . . . . . . . . Wanessa R. da Fonseca, Pedro Luiz Pizzigatti Corrêa 93 Spatial Analysis through geo-objects generated by Multiresolution Algorithm . . . . . Wilian França Costa, Antonio Mauro Saraiva 95 Índice de Autores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 Parte I Resumos Mestrado Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP Experiência de usuário em jogos combinando realidade aumentada e dispositivos móveis André Febeliano da Costa Ricardo Nakamura INTERLAB-Laboratório de Tecnologias Interativas Escola Politécnica da Universidade de São Paulo São Paulo, Brasil [email protected] INTERLAB-Laboratório de Tecnologias Interativas Escola Politécnica da Universidade de São Paulo São Paulo, Brasil [email protected] peças e animações são controladas por computador, mas ainda mantendo as decisões e a interação entre os jogadores dentro do mundo real e não através de uma tela. Estas são aplicações possíveis, que usam a tecnologia de RA e criam uma experiência diferente ao usuário que o simples uso de RA como forma de interação. O foco em jogos e na experiência para o jogador nos leva a analisar as interfaces de jogos quanto à experiência de usuário e não quanto à usabilidade do sistema como tempo de execução de tarefa ou taxa de erros. Destas análises pretendemos definir quais técnicas de interações são adequadas à experiência do usuário. O objetivo deste trabalho é, portanto, definir soluções de interfaces humano-computador envolvendo a colaboração entre dispositivos móveis utilizando RA em jogos e avaliar seu impacto na experiência do usuário. Abstract— Realidade aumentada (RA) e experiência de usuário são dois campos em constante estudo. Com a popularização de RA em aparelhos móveis, há uma preocupação em projetar a aplicação pensando também na experiência do usuário. Apesar de não haver uma padronização deste campo no momento há discussões que auxiliam projetar e avaliar as soluções encontradas. Este trabalho pretende, ao término, analisar técnicas de interação de jogos de RA em dispositivos móveis, sob o olhar da experiência de usuário e não usabilidade, e propor uma solução adequada. Keywords—interação; experiência de usuário; dispositivos móveis I. INTRODUÇÃO Realidade aumentada (RA) é um campo de estudo há ao menos duas décadas [6]. Durante este tempo gerou-se uma grande quantidade de soluções e conhecimento, porém os estudos ficaram restritos a laboratórios. Atualmente observa-se a popularização de aparelhos móveis como celulares e tablets. Estes aparelhos, com sua interface baseada em toque, necessitam de novas técnicas de interação diferentes do que foi desenvolvido nos computadores com mouse e teclado. Realidade aumentada se apresenta como um guia para novas técnicas de interação que utilizem aparelhos móveis com diversas aplicações desenvolvidas para diferentes funcionalidades, como tradução de placas informativas, informação sobre os estabelecimentos ao redor, entre outros [5]. Jogos eletrônicos, particularmente, se beneficiam muito da aplicação de RA seja pela capacidade colaborativa que esta permite [15] ou mesmo pela capacidade de tornar a interface mais natural ao usuário mesclando elementos virtuais ao mundo real, ponto importante ao se elaborar uma aplicação [23]. Realidade aumentada, porém, não pode ser considerada apenas uma forma de interação. Para jogos esta tecnologia permite não só uma forma de interação com o jogador, mas também uma nova forma de explorar o mundo real, na experiência de jogar. Por exemplo, a capacidade colaborativa que RA permite com duas pessoas interagindo em um mesmo campo de jogo ou mesmo um jogo de tabuleiro virtual onde as II. REVISÃO DA LITERATURA Experiência de usuário é uma área que está em constante estudo. Sua importância aumentou nos últimos anos conforme a indústria de desenvolvimento de software necessitou ter uma preocupação maior no usuário do sistema. Porém estudos mostraram que mesmo aqueles que trabalham com experiência de usuário possuem opiniões diferentes sobre sua definição [3, 6]. Há, portanto, uma preocupação em encontrar um padrão ou definição para experiência de usuário de modo a facilitar a comunicação e troca de informação. Enquanto alguns tentam definir experiência de usuário [3], outros tentam restringir e definir o padrão para aplicações específicas [6], como realidade aumentada. Há também a preocupação em estudar soluções para avaliar a experiência de usuário [2, 5] nas aplicações, pois a experiência causada é considerada, pelo usuário, um dos motivos para o uso contínuo de um determinado programa [2], seja meses ou até mesmo anos após o lançamento do produto. Uma abordagem diferente em estudo está em se utilizar dos conhecimentos sobre o comportamento de usuários em situações similares às aplicações selecionadas e incorporá-los em solução de interfaces [21] ou planejar e testar soluções de interface para abordagens específicas, de manipulação de 3 Costa e Nakamura [7] objetos tridimensionais a jogos digitais [8, 9, 11, 12, 17, 19, 20, 22]. Há um foco maior no uso da tecnologia de toque tentando encontrar técnicas de interação sobre elementos virtuais de forma direta, buscando melhorar e tornar mais natural o uso das aplicações pelo usuário [7, 13, 16]. Realidade aumentada está agora se tornando cada vez mais presente. O aumento da capacidade computacional dos aparelhos atuais permite o uso desta tecnologia em aplicações, como jogos. Área que esta em constante desenvolvimento, com foco no desenvolvimento de soluções tanto internas como externas utilizando aparelhos móveis, capacetes com displays e projetores [1]. Em estudos se encontram diversas aplicações de jogos de mesa em RA, alguns focando no auxílio do jogo, como por exemplo, no acompanhamento das regras e estados do tabuleiro [14]. Outros abordam jogos como forma de testar interfaces e meios de interação em RA, alguns tentando novos meios de interação [18] e outros apresentando soluções baseadas em atuais métodos, por exemplo, a seleção de elementos utilizando o mouse [10]. Alguns se utilizam da realidade aumentada e sua capacidade colaborativa para encontrar meios de interação que permitam o uso social da tecnologia [15]. Na indústria de jogos há um foco crescente do uso de RA em aparelhos móveis, isso em grande parte devido à popularidade que estes aparelhos obtiveram nos últimos anos. III. [8] [9] [10] [11] [12] [13] [14] CONCLUSÕES PARCIAIS [15] Este trabalho iniciou tentando definir experiência de usuário, o que se mostrou ainda estar em discussão [3, 6]. Verificou-se o estado da arte em realidade aumentada [1]. Em ambos encontraram-se diversos métodos de avaliação tanto de usabilidade como de experiência de usuário. Para experiência de usuário definiu-se os seguintes métodos, os quais devem ser utilizados neste trabalho: entrevista com os usuários, observação presencial, e storytelling. O próximo passo é aplicar estes métodos de avaliação para avaliar a experiência de usuário em diferentes técnicas de interação em um mesmo jogo de dispositivo móvel. [1] [2] [3] [4] [5] [6] [16] [17] [18] [19] Thomas, B. H. A Survey of visual, mixed and augmented reality gaming. ACM Computers in Entertainment. Vol. 10, No. 3, Article 3, 33p, 2012. Sari Kujala, Virpi Roto, Kaisa Väänänen-Vainio-Mattila, Arto Sinnelä. Identifying Hedonic Factors in Long-Term User Experience. DPPI, 8p, 2011. Effie L-C. Law, Virpi Roto, Marc Hassenzahl, Arnold P.O.S. Vermeeren, Joke Kort. Understanding, scoping and defining user experience: A survey approach.CHI, 10p, 2009. Effie Lai-Chong. Law, Virpi Roto, Kaisa Väänänen-Vainio-Mattila, Arnold Vermeeren, Marianna Obrist, Kari Kuuti. In search of theoretical foundations for UX research and practice. CHI, 6p, 2012. Thomas Olsson, Markus Salo. Narratives of satisfyin and unsatisfying experiences of current mobile augmented reality applications. CHI. 10p, 2012. Panagiotis D. Ritsos, Dennis P. Ritsos, Antonis S. Gougoulis. Standars for augmented reality: a user experience perspective. International AR Standards Meeting, 9p, 2011. [20] [21] [22] [23] 4 Ajaj, R., Vernier, F., & Jacquemin, C. (2009). Navigation modes for combined table/screen 3D scene rendering. Proceedings of the ACM International Conference on Interactive Tabletops and Surfaces (pp. 141148). New York, NY, USA: ACM. Apostolellis, P., Laha, B., & Bowman, D. A. (2012). A gaming interface using body gestures for collaborative navigation. In: M. Billinghurst, J. J. Jr., & A. Lécuyer (Ed.), 3DUI (pp. 185-186). IEEE. Benson, E., & Andreae, P. (2011). Sketch interaction in real time strategy games. Proceedings of the 7th Australasian Conference on Interactive Entertainment (pp. 3:1--3:4). New Zealand: Interactive Entertainment. Cooper, N., Keatley, A., Dahlquist, M., Mann, S., Slay, H., Zucco, J., et al. (2004). Augmented Reality Chinese Checkers. Proceedings of the 2004 ACM SIGCHI International Conference on Advances in computer entertainment technology (pp. 117-126). New York, NY, USA: ACM. Cox, D., Wolford, J., Jensen, C., & Beardsley, D. (2012). An evaluation of game controllers and tablets as controllers for interactive tv applications. Proceedings of the 14th ACM international conference on Multimodal interaction (pp. 181-188). New York, NY, USA: ACM. Crenshaw, N., Orzech, S., Wong, W. S., & Holloway, A. (2011). On creating a native real-time-strategy game user interface for multi-touch devices. Proceedings of the 6th International Conference on Foundations of Digital Games (pp. 283-285). New York, NY, USA: ACM. Hancock, M., Hilliges, O., Collins, C., Baur, D., & Carpendale, S. (2009). Exploring tangible and direct touch interfaces for manipulating 2D and 3D information on a digital table. Proceedings of the ACM International Conference on Interactive Tabletops and Surfaces (pp. 7784). New York, NY, USA: ACM. Hinske, S., & Langheinrich, M. (2009). W41K: digitally augmenting traditional game environments. Proceedings of the 3rd International Conference on Tangible and Embedded Interaction (pp. 99-106). New York, NY, USA: ACM. Huynh, D.-N. T., Raveendran, K., Xu, Y., Spreen, K., & MacIntyre, B. (2009). Art of defense: a collaborative handheld augmented reality board game. Proceedings of the 2009 ACM SIGGRAPH Symposium on Video Games (pp. 135-142). New York, NY, USA: ACM. Knoedel, S., & Hachet, M. (2011). Multi-touch RST in 2D and 3D Spaces: Studying the Impact of Directness on User Performance. 3D User Interfaces (3DUI), 2011 IEEE Symposium , 75-78. Moerman, C., Marchal, D., & Grisoni, L. (2012). Drag'n Go: Simple and fast navigation in virtual environment. In: M. Billinghurst, J. J. Jr., & A. Lécuyer (Ed.), 3DUI (pp. 15-18). IEEE. Phillips, K., & Piekarski, W. (2005). Possession techniques for interaction in real-time strategy augmented reality games. In: N. Lee (Ed.), Advances in Computer Entertainment Technology (p. 2). ACM. Tollmar, K., Demirdjian, D., & Darrell, T. (2004). Navigating in virtual environments using a vision-based interface. Proceedings of the third Nordic conference on Human-computer interaction (pp. 113-120). New York, NY, USA: ACM. Torrente, J., Marchiori, E. J., Vallejo-Pinto, J. Á., Ortega-Moral, M., Moreno-Ger, P., & Fern\'{a}ndez-Manj\'{o}n, B. (2012). Preliminary evaluation of three eyes-free interfaces for point-and-click computer games. Proceedings of the 14th international ACM SIGACCESS conference on Computers and accessibility (pp. 265-266). New York, NY, USA: ACM. TSE, E., GREENBERG, S., SHEN, C., & FORLINES, C. (2007). Multimodal multiplayer tabletop gaming. Comput. Entertain. , 5 (2). Winkler, S., Rangaswamy, K., Tedjokusumo, J., & Zhou, Z. (2007). Intuitive application-specific user interfaces for mobile devices. Proceedings of the 4th international conference on mobile technology, applications, and systems and the 1st international symposium on Computer human interaction in mobile technology (pp. 576-582). New York, NY, USA: ACM. Schwesig, C. (2008). What makes an interface feel organic? Commun. ACM , 51 (6), 67-69. Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP Classificador para anotação geográfica de textos Eduardo Marcel Maçan Prof. Dr. Edson Satoshi Gomi Email: [email protected] Email: [email protected] Todos os elementos do OpenStreetMap foram inseridos em um banco de dados com capacidade para responder consultas geográficas PostGIS [8]. Os contornos detalhados de cada cidade, disponibilizados pelo IBGE foram então utilizados em consultas para extrair todos os nomes dos locais contidos no perı́metro de cada cidade, principalmente ruas. Resumo—Two different approaches for a geottaging engine are proposed using a static gazetteer and a bayesian classifier trained on a set of geolocated Wikipedia texts. The bayesian classifier is shown to achieve up to 92% of accuracy when classifying texts that refer to one of 26 brazilian states and the federal district. I. Para atribuir anotações geográficas a um texto por intermédio do gazetteer são eliminadas do texto todas as palavras que não façam parte do vocabulário definido pelos nomes de locais presentes no gazetteer. Para cada sequência de palavras que corresponda a um nome de local catalogado são atribuı́das ao texto rótulos descrevendo paı́s, região, estado, mesorregião e cidade correspondentes (algoritmo 1). Vários locais podem possuir nomes semelhantes, resultando em mais de um rótulo candidato. Esta ambiguidade deve ser reduzida em um passo posterior. I NTRODUÇ ÃO Este artigo apresenta a evolução do projeto de pesquisa “Método para anotação geográfica automática de notı́cias” apresentado no WPG-EC 2012, que propunha a construção de um gazetteer, ou “diretório toponı́mico”, composto de uma lista de nomes de locais, ou topônimos, e informações geográficas. O uso do diretório de topônimos permitirá identificar sequências de palavras em um texto que correspondem aos nomes de locais, a informação geopolı́tica associada permitirá o uso de heurı́sticas, como as catalogadas por Leidner [1] que atribuirão a cada notı́cia uma posição aproximada ou área no mapa à qual faz referência. Algoritmo 1 Seleção de rótulos geográficos candidatos 1: words ← tokenize(text) 2: for i=0 to length(words) do 3: if words[i] not in vocabulary then 4: words[i] ← N U LL 5: end if 6: end for Esta estratégia apresenta margens de acerto da ordem de 92% quando procuramos determinar a que paı́s a notı́cia se refere, mas apenas 30% de acerto quando há a necessidade de se determinar a que cidade um texto está se referindo, conforme observado por Amitay et Al [2]. A precisão depende diretamente da quantidade de nomes de locais catalogados no gazetteer, conforme observado pelo mesmo autor. 7: 8: O uso de classificador Bayesiano ou de um SVM (Support Vector Machine) como proposto por Lieberman e Samet [3], ou o uso de fontes mais estruturadas de informação como a Wikipedia como insumo para a construção de um classificador de posições geográficas, a exemplo de Alencar et al. [4] representam estratégias mais adequadas para um conjunto dinâmico e não estruturao de documentos, como a World Wide Web. 9: 10: 11: 12: 13: 14: 15: O objetivo deste trabalho é propor um classificador para posições geográficas associadas a notı́cias publicadas na web, permitindo a navegação das notı́cias através de um mapa ou por proximidade, no caso do uso de dispositivos móveis. Na atual etapa da pesquisa investigou-se o uso de um gazetteer estático para a identificação de nomes de locais dentro do texto e um classificador bayesiano treinado com exemplos georreferenciados da Wikipedia. II. for all groups of contiguous non-NULL tokens in words do for all subgroups of contiguous tokens G do if there is a tag t in the gazetter associated with G then push t into tags end if end for end for return tags Os rótulos atribuı́dos são muitas vezes ambı́guos ou conflitantes, pois é frequente que haja locais com o mesmo nome pertencendo a cidades, estados, ou mesmo paı́ses diferentes. Várias heurı́sticas foram propostas para este passo de desambiguação [1]. A estratégia escolhida para este estudo foi a de agrupar as ocorrências segundo sua hierarquia geográfica. A premissa é que existe uma localidade principal no texto e os vários parágrafos fazem referências a ela. Outra premissa é que outros locais mencionados no texto tenderão a ter relação próxima com a localidade principal. G AZETTEER EST ÁTICO A construção do Gazetteer utilizou dados cartográficos disponibilizados pelo IBGE, através de seu repositório de malhas digitais [6] e pelo projeto OpenStreetMap [7], que oferece o código fonte completo de seu mapa, em formato XML. A seleção do rótulo mais adequado é então realizada pelo algoritmo 2, que atribui pesos segundo a frequência com que a hierarquia geográfica de cada rótulo é identificada no texto. Isto reduz a ambiguidade ocasionada por locais homônimos, porém geograficamente distantes da localidade principal. 5 Maçan e Gomi Algoritmo 2 Desambiguação de rótulos geográficos, todos os valores são inicializados com 0 1: for all candidate TAG do 2: Pais[TAG]++ 3: Regiao[TAG]++ 4: Estado[TAG]++ 5: Mesorregiao[TAG]++ 6: Cidade[TAG]++ 7: end for 8: for all candidate TAG do 9: P eso[T AG] ← Cidade[T AG] ∗ M esorregiao[T AG] ∗ Estado[T AG] ∗ Regiao[T AG] ∗ P ais[T AG] 10: end for 11: return TAG with greatest Peso[TAG] métodos estáticos de extração e desambiguação de topônimos. Dados exemplos de treinamento suficientes, diferentes classificadores treinados em divisões de áreas sucessivamente menores podem ser utilizados para reduzir sensivelmente as dimensões da área a ser considerada na tarefa de atribuir uma coordenada ao texto, reduzindo a ambiguidade inerente ao método. Uma seção menor e mais especı́fica do gazeteer poderá ser utilizada para a estimativa fina da coordenada à qual se refere a notı́cia, a partir das coordenadas dos locais mencionados no texto. IV. A técnica de classificação de textos bayesiana pode ser utilizada com grande eficácia para classificar textos com menções frequentes a locais, com vantagens sobre o modelo do gazetteer estático, no que tange à resolução de ambiguidade, quando consideramos grandes áreas. O uso conjunto dos dois modelos pode levar à uma anotação geográfica mais precisa, especialmente quando consideramos um contexto geográfico globalmente abrangente, como notı́cias e textos coletados a partr da internet. Os algoritmos 1 e 2 para anotação geográfica apresentam desempenho condizente com os parâmetros de eficácia observados por Amitay [9] III. C ONCLUS ÕES C LASSIFICADOR BAYESIANO A Wikipedia em português foi utilizada como fonte de treinamento para um filtro bayesiano. Foram selecionados todos os artigos que possuiam coordenadas geográficas contidas nos perı́metros dos 26 estados e do distrito federal, resultando numa base de treinamento de 7863 verbetes georreferenciados. Alencar et al. [4] também propuseram o uso da Wikipedia como fonte de evidências para a classificação geográfica, porém através da análise de vı́nculos entre verbetes. R EFER ÊNCIAS [1] [2] O arcabouço de aprendizado de máquina Scikit-Learn [10] foi utilizado para avaliar a capacidade de um classificador bayesiano de atribuir uma anotação geográfica a um documento corretamente. O gráfico da figura 1 foi obtido através de sucessivos experimentos usando diferentes tamanhos de lotes de documentos exemplo e validação cruzada. [3] [4] [5] [6] [7] [8] [9] [10] Figura 1. Classificação de documentos por estado da federação, usando Naive Bayes A partir de 4000 verbetes de exemplos para treinamento foi observada a diminuição da variância e a convergência para uma taxa média de acerto superior a 90%, indicando que técnicas bayesianas podem complementar, ou mesmo substituir os 6 J. L. Leidner, “Toponym resolution in text: Annotation, evaluation and applications of spatial grounding of place names,” Ph.D. dissertation, School of Informatics, University of Edinburgh, 2007. [Online]. Available: http://www.era.lib.ed.ac.uk/bitstream/1842/1849/1/ leidner-2007-phd.pdf E. Amitay, N. Har’El, R. Sivan, and A. Soffer, “Web-a-where,” in Proceedings of the 27th annual international conference on Research and development in information retrieval - SIGIR ’04. New York, New York, USA: ACM Press, Jul. 2004, p. 273. [Online]. Available: http://dl.acm.org/citation.cfm?id=1008992.1009040 M. D. Lieberman and H. Samet, “Adaptive Context Features for Toponym Resolution in Streaming News, Categories and Subject Descriptors,” no. August, pp. 731–740, 2012. R. Odon de Alencar, C. A. Davis, Jr., and M. A. Gonçalves, “Geographical classification of documents using evidence from wikipedia,” in Proceedings of the 6th Workshop on Geographic Information Retrieval, ser. GIR ’10. New York, NY, USA: ACM, 2010, pp. 12:1–12:8. [Online]. Available: http://doi.acm.org/10.1145/ 1722080.1722096 M. Sahami, S. Dumais, D. Heckerman, and E. Horvitz, “A bayesian approach to filtering junk e-mail,” 1998. I. B. de Geografia e Estatı́stica, “Malhas digitais Brasileiras,” ftp:// geoftp.ibge.gov.br/malhas digitais/municipio 2010/, 2013, [Online; accessed 19-July-2012]. M. M. Haklay and P. Weber, “Openstreetmap: User-generated street maps,” IEEE Pervasive Computing, vol. 7, no. 4, pp. 12–18, Oct. 2008. [Online]. Available: http://dx.doi.org/10.1109/MPRV.2008.80 P. P. S. Committee, “PostGIS,” http://postgis.net, 2013, [Online; accessed 19-July-2012]. E. Amitay, R. Nelken, W. Niblack, R. Sivan, and A. Soffer, “Multi-resolution disambiguation of term occurrences,” in Proceedings of the twelfth international conference on Information and knowledge management - CIKM ’03. New York, New York, USA: ACM Press, Nov. 2003, p. 255. [Online]. Available: http://dl.acm.org/citation.cfm? id=956863.956913 F. Pedregosa, G. Varoquaux, A. Gramfort, V. Michel, B. Thirion, O. Grisel, M. Blondel, P. Prettenhofer, R. Weiss, V. Dubourg, J. Vanderplas, A. Passos, D. Cournapeau, M. Brucher, M. Perrot, and E. Duchesnay, “Scikit-learn: Machine learning in Python,” Journal of Machine Learning Research, vol. 12, pp. 2825–2830, 2011. Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP Técnicas para a Classificação Automática de Abelhas a partir de Imagens de Asas Felipe Leno da Silva e Anna Helena Reali Costa Laboratório de Técnicas Inteligentes (LTI/EPUSP) Escola Politécnica, Universidade de São Paulo São Paulo, SP, Brasil Resumo—Devido à importância das abelhas para a agricultura, diversas pesquisas são voltadas para seu estudo e conservação. Porém, a discriminação entre as espécies de abelhas é um impedimento às pesquisas, por demandar conhecimento especializado e tempo. Apesar de diversos estudos terem sido conduzidos na área, não houve nenhum trabalho avaliando as técnicas de classificação para este domı́nio. Esta pesquisa visa determinar as técnicas de extração de caracterı́sticas e classificação que apresentam, em conjunto, o melhor desempenho para a discriminação de espécies de abelhas. Os resultados desta pesquisa serão úteis para o desenvolvimento de novos sistemas de classificação de abelhas, auxiliando nas pesquisas conduzidas por biólogos. I. Figura 1. Imagem da asa de uma abelha da espécie Euglossa orellana com os pontos anatômicos marcados. C ONTEXTO estas previamente cadastradas em um estágio de treinamento do sistema. As abelhas têm grande importância para a agricultura, por esta razão seu estudo e conservação é o tema de diversas pesquisas na área biológica. Entretanto, a identificação das espécies de abelhas é uma tarefa que demanda conhecimento especializado, representando um impedimento no avanço das pesquisas. Esta identificação pode ser realizada através de diversos métodos com boa precisão, como a análise de isoenzimas ou de DNA. Porém, métodos bioquı́micos e moleculares têm um custo elevado [1]. III. Ao término desta pesquisa, os seguintes resultados são esperados: A morfometria se destacou como um dos métodos mais utilizados para a identificação de espécies de abelhas, porém a medição manual de diversas caracterı́sticas fı́sicas necessita de tempo e especialistas [1]. Métodos automatizados começaram a ser estudados, e a venação presente nas asas das abelhas começou a ser utilizada, por ser de fácil acesso e suficiente para diferenciar cada espécie. Para realizar a classificação, os pontos de junção das asas (denominados pontos anatômicos) são demarcados conforme a Figura 1 e, a partir destes pontos, caracterı́sticas são extraı́das para a identificação da espécie. Apesar de diversos sistemas terem sido desenvolvidos nos últimos anos para este fim, ainda é uma questão em aberto para pesquisa [2], [3]. II. R ESULTADOS DESEJADOS O BJETIVOS • Determinar as técnicas de processamento de imagens da literatura que apresentam melhor desempenho para a classificação de espécies de abelhas. • Determinar os classificadores que apresentam melhor desempenho utilizando as caracterı́sticas extraı́das pelas técnicas de extração levantadas. • Construir protótipos para o processamento de imagens e a classificação. • Através de experimentos, utilizando imagens reais de asas de abelhas, determinar quais técnicas, em conjunto, apresentam um melhor desempenho para a classificação de espécies. As técnicas serão comparadas levando em conta a porcentagem de classificações realizadas corretamente. Os objetivos desta pesquisa são: 1) 2) IV. Comparar as técnicas de processamento de imagem para a extração de caracterı́sticas em imagens de asas de abelhas. Analisar o desempenho de classificadores para a identificação de diversas espécies de abelhas, sendo R ESULTADOS PARCIAIS Com o objetivo de determinar qual é a melhor técnica de classificação, sete classificadores dentre os mais utilizados na literatura foram selecionados para serem avaliados no domı́nio de classificação de espécies de abelhas. 7 Silva e Costa A. Extração de caracterı́sticas A Tabela I apresenta o desempenho observado para cada um dos classificadores. O classificador SVM apresentou um desempenho superior a todos os outros classificadores, mesmo considerando a margem de erro definida pelo erro padrão. O bom resultado do classificador LDA indica que é possı́vel obter uma separação linear razoável utilizando caracterı́sticas da morfometria geométrica, apesar de o desempenho superior do SVM indicar que alguns casos necessitam de uma separação não linear. Estudos recentes indicam que a morfometria geométrica é a técnica de extração de caracterı́sticas que obtém melhor desempenho para a identificação de abelhas [4], consistindo em analisar os pontos anatômicos extraı́dos da asa, aplicando transformações geométricas para que as configurações de pontos difiram apenas em forma [5]. Para a avaliação dos classificadores, o tamanho do centróide e as coordenadas alinhadas dos pontos anatômicos foram utilizados para a classificação. Tabela I. O tamanho do centróide é definido pela raiz quadrada da soma das distâncias quadradas entre cada ponto e seu centróide (i.e., seu centro geométrico) [5], sendo expresso pela equação: s X CS = (1) (x − x)2 + (y − y)2 , (x,y)∈L onde L é o conjunto de pontos da forma geométrica e (x, y), as coordenadas do centróide. As coordenadas do centróide podem ser calculadas obtendo as médias aritméticas de todas as coordenadas x e y dos pontos anatômicos. V. No contexto de Aprendizagem de Máquina Supervisionada, a classificação consiste em atribuir um rótulo a um vetor de caracterı́sticas de classe desconhecida, baseando-se em um conjunto de treinamento previamente fornecido e rotulado por um especialista. Segue os classificadores selecionados para a avaliação. 5) 6) 7) σ 1,4066 1,8812 1,9927 0,9026 2,2161 3,5417 5,2811 T RABALHOS FUTUROS A técnica de morfometria geométrica utilizada no primeiro trabalho e apontada pela literatura como melhor método de extração de caracterı́sticas apresentou boas taxas de acerto, porém, necessita de uma intervenção manual de um especialista, demarcando os pontos anatômicos das asas. Uma nova técnica de extração de caracterı́sticas será proposta com o objetivo de realizar a classificação de modo automático ou reduzir o trabalho manual. B. Classificadores 2) 3) 4) Média 82, 7340 ± 0, 3145% 79, 3429 ± 0, 4207% 79, 0128 ± 0, 4456% 78, 6859 ± 0, 2018% 73, 1763 ± 0, 4955% 54, 9038 ± 0, 7919% 49, 1058 ± 1, 1809% Após definir o SVM como o melhor classificador para a classificação de espécies de abelhas, os próximos trabalhos estarão focados na investigação de técnicas para a extração de caracterı́sticas das imagens das asas. Permitindo que o desempenho dos novos métodos seja comparado diretamente com o descrito neste artigo utilizando o SVM. Para as coordenadas alinhadas, todos os pontos anatômicos sofreram transformações geométricas de translação, escala e rotação para que ficassem apenas variantes á forma, permitindo a comparação entre si sem variações provenientes de uma captura de imagem em rotação diferente, por exemplo. 1) M ÉDIAS DE TAXAS DE ACERTO POR CLASSIFICADOR . Classificador SVM LDA KNN Naı̈ve Bayes Logı́stico C4.5 MLP Além disso, um maior conjunto de treinamento será levantado, uma vez que um conjunto de 128 exemplares pode não corresponder à realidade de um software que abrange a identificação de diversas espécies. Análise Discriminante Linear (Linear Discriminant Analysis - LDA) Naı̈ve Bayes Logı́stico K Vizinhos Mais Próximos (K Nearest Neighbour KNN) C4.5 Perceptron Multicamada (MultiLayer Perceptron MLP) Máquina de Vetores Suporte (Support Vector Machine - SVM) AGRADECIMENTOS Agradecemos a: CNPq (proc. 131238/2013-2, 311058/2011-6), FAPESP (proc. 2011/19280-8) e NAP BioComp da USP por prover fundos para esta pesquisa. R EFER ÊNCIAS [1] C. Experimento Um conjunto de treinamento com 128 imagens de asas de 5 espécies diferentes de abelhas foi utilizado para a avaliação dos classificadores. Um especialista rotulou e marcou 18 pontos anatômicos em cada uma das asas. A partir destes pontos, o tamanho do centróide e as 36 coordenadas alinhadas (coordenadas x e y de 18 pontos) foram extraı́dos e utilizados para o treinamento e teste dos classificadores. Cada um dos classificadores foi treinado e testado 20 vezes com uma validação cruzada de 10 vias. A taxa de acerto média obtida nas validações cruzadas foi considerada como métrica para a avaliação do melhor classificador, sendo o erro padrão calculado para definir a margem de erro. [2] [3] [4] [5] 8 T. M. Francoy, D. Wittmann, M. Drauschke, S. Muller, V. Steinhage, M. A. F. Bezerra-Laure, D. De Jong, and L. S. Goncalves, “Identification of africanized honey bees through wing morphometrics: two fast and efficient procedures,” Apidologie, vol. 39, no. 5, pp. 488–494, 2008. V. Steinhage, S. Schroder, V. Roth, A. B. Cremers, W. Drescher, and D. Wittmann, “The science of “fingerprinting” bees,” German Research, vol. 28, no. 1, pp. 19–21, 2006. A. Tofilski, “Drawwing, a program for numerical description of insect wings,” Journal of Insect Science, vol. 4, no. 17, pp. 1–5, 2004. A. O. Koca and I. Kandemir, “Comparison of two morphometric methods for discriminating honey bee (apis mellifera l.) populations in turkey,” Turkish Journal of Zoology, vol. 37, pp. 205–210, 2013. F. L. Bookstein, Morphometric tools for landmark data: geometry and biology. Cambridge, USA: Cambridge University Press, 1991. Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP 1 Investigação de métodos para ordenação de resultados de motores de busca em acervos digitais Fernando Hattori, Edson S Gomi retornados não são de seu interesse ou não estão ordenados na ordem de relevância efetiva, obrigando o usuário a avaliar vários itens para encontrar aqueles que são de seu interesse. Uma forma de minimizar este problema é encontrar algoritmos que melhorem a ordenação dos resultados da busca. Por exemplo, a Biblioteca Digital Brasiliana USP utiliza o Apache Solr, que na verdade é somente uma interface web para o motor de buscas Apache Lucene [2]. Uma busca pelo termo “Machado de Assis” realizada sobre todo o conteúdo dos documentos retorna 296 resultados, mas entre os 27 livros escritos por este autor e que fazem parte do acervo da biblioteca apenas dois aparecem entre os dez primeiros itens apresentados. Dada a importância de Machado de Assis como um escritor brasileiro, o esperado é que suas obras figurem entre os primeiros resultados ordenados pelo motor de busca em ordem decrescente de relevância. Este problema motivou o objetivo deste projeto de pesquisa, que é investigar critérios e métodos de ordenação de itens selecionados por um motor de busca como resposta a uma consulta, de forma que sejam apresentados inicialmente os itens realmente interessantes para o leitor. A seção II apresenta o funcionamento básico de um motor de busca. Já na próxima seção, é discutido brevemente os detalhes específicos do motor de busca Apache Lucene. Abstract—The search engine is a useful tool in the digital libraries, due to the growing information available. However, the users’ needs are not fully satisfied by the search engine response. Therefore, these users must check every item ranked before the item of your interest. This paper focusses on the ranking methods and rules used in digital libraries search engines. The objective is to adjust a ranking mechanism in order to improve the search response usefulness to the user. The Apache Lucene search engine uses and tf-idf as a weighting factor in the Vector Space Model. Since the tf-idf do not take into consideration the users’ needs, this is a search engine flaw. Keywords—Search, Ranking, Search engine, Indexing, Information Retrieval, Digital Library. Resumo—Diante do grande e crescente volume de informações disponíveis nos acervos digitais, o motor de busca é considerado um importante mecanismo. Mas muitos dos itens retornados pelo motor de busca como resposta a uma consulta feita pelo usuário não são de seu interesse ou não estão ordenados na ordem de relevância efetiva, obrigando o usuário a avaliar vários itens para encontrar aqueles que são de seu interesse. Este trabalho se propõe a investigar critérios e métodos de ordenação de itens selecionados por um motor de busca como resposta a uma consulta, de forma que sejam apresentados inicialmente os itens realmente interessantes para o leitor. A análise do funcionamento do Apache Lucene identificou que a origem do problema de ordenação esta na formação dos “pesos” (que usam o fator tfifd) utilizados pelo modelo de espaço vetorial na recuperação dos documentos pelo Apache Lucene. II. M OTOR DE BUSCA De uma maneira simplificada, o funcionamento de um motor de busca acontece em 2 etapas, indexação e a busca [3]. A primeira etapa é realizada antes do atendimento às consultas e a segunda é feita sob demanda para cada consulta feita pelos usuários. Keywords—Busca, Ordenação, Motor de Busca, Indexação, Recuperação de informação, Acervos Digitais. I. I NTRODUÇÃO As tecnologias da informação e o advento da World Wide Web tornaram possível a criação e a disponbilização de grandes repositórios e acervos digitais. De acordo com Wan Liu [1], tanto a quantidade de acervos digitais quanto o volume de informações dentro desses acervos estão aumentando, impulsionados pelo avanço das tecnologias, tanto de armazenamento quanto de gerenciamento ou disponibilização, e pelo reconhecimento da necessidade de preservação e disponibilização dos acervos. Diante do grande volume de informações disponíveis e da necessidade de acessar documentos ou itens rapidamente, o motor de busca é considerado um importante mecanismo para os acervos digitais. Entretanto, mesmo com a utilização dos motores de busca, o usuário recebe muitos documentos como resultado de uma consulta ao acervo. Muitos dos itens A. Indexação A etapa de indexação é o pré-processamento realizado sobre os itens que serão buscados. O resultado desta etapa é uma estrutura de dados chamada índice que permite o acesso rápido aos termos do índice armazenados e aos documentos que possuem cada termo. O índice mais comum é o índice invertido, esta estrutura de dados é composta por uma lista dos termos do índice e, para cada termo, uma lista dos documentos que possuem este termo [3]. A etapa de indexação inclui 4 diferentes atividades: aquisição do conteúdo, construção dos documentos, análise dos documentos, e indexação do documento [4]. A atividade de aquisição de conteúdo corresponde a obter páginas web, dados em um banco de dados, ou arquivos em um sistema de arquivos onde estão os documentos que serão indexados. Então, a partir desses arquivos adquiridos Fernando Hattori e Edson S. Gomi estão na Escola Politécnica - Universidade de São Paulo. E-mail: {hattori, gomi}@usp.br 9 Hattori e Gomi 2 os documentos são construídos, ou seja, todos os arquivos e as informações sobre um único item são agrupadas como um único documento (por exemplo, um livro que faça parte do acervo tem o seu conteúdo agrupado aos seus metadados, formando um único documento). Posteriormente, a análise dos documentos identifica todos os termos do documento e determina quais termos serão utilizados como termos do índice. Se necessário, os sinônimos também são incluídos. Além disso, a análise desses termos pode também concluir que um termo do índice deve ser composto de mais de uma palavra, como “Machado de Assis” ou “Universidade de São Paulo”. Finalmente, na última atividade de indexação, o documento ou os termos do índice presentes neste documento são inseridos no índice. B. Busca A etapa de busca ocorre (com o índice já criado) após o usuário apresentar a consulta no sistema. A busca possui, basicamente, 3 atividades: o processamento da consulta, a recuperação e a ordenação dos documentos [3]. Uma consulta feita pelo usuário geralmente é uma lista de termos que o usuário acredita caracterizar os documentos desejados. Quando uma consulta é recebida, ela é processada e expandida, ou seja, os termos da consulta são reconhecidos, corrigidos, comparados com os termos existentes do índice, e traduzidos em uma representação do sistema. Alguns motores de busca também expandirão a consulta, adicionando os sinônimos dos termos. Durante o processamento da consulta, o motor de busca pode também executar algumas funções mais complexas, como a análise semântica da consulta ([5], [6]). Após o processamento da consulta, na atividade de recuperação, a consulta expandida é comparada com o índice, produzindo uma lista de documentos que se tornarão a resposta a uma consulta feita. Posteriormente, na atividade de ordenação, os documentos retornados como resultado da busca são ordenados em ordem decrescente de relevância e devolvidos ao usuário. Como a qualidade de um motor de busca é percebida principalmente pela qualidade da ordenação dos resultados ou pela relevância dos resultados, a função de ordenação desempenha um importante papel no motor de busca. Além disso, a ordenação é responsável pelo problema ilustrado anteriormente, por isso será alvo de estudos neste trabalho. III. A PACHE L UCENE O Apache Lucene é o motor de busca utilizado pelo gerenciador de acervos digitais DSpace e seu algoritmo de ordenação é uma combinação de dois modelos clássicos de recuperação da informação ([3], [7]): o modelo booleano e o modelo de espaço vetorial (VSM, Vector Space Model). O modelo de espaço vetorial determina a relevância de um item para determinada consulta mapeando o documento e a consulta como vetores de tamanho t, sendo t a quantidade de termos do índice. Cada elemento vi deste vetor possui como valor o “peso” relacionado ao item que este vetor representa e o termo i. No Apache Lucene, este “peso” depende basicamente do fator tf-idf e mais outros dois fatores [8]: 10 tf : Frequência do termo (Term Frequency), que é proporcional à quantidade de ocorrências do termo que existem no documento; • idf : Inverso da frequência de documentos (Inverse Document Frequency), que é inversamente proporcional à quantidade de outros documentos que possuam este termo; • coord: Fator de coordenação, que é proporcional à quantidade de termos da consulta que o documento possui; • fieldNorm: fator de tamanho do campo de metadado, que é inversamente proporcional ao tamanho do campo de metadado onde os termos da consulta foram encontrados. Desse modo, a relevância é calculada por meio da similaridade entre o documento e a consulta. Esta similaridade é calculada pelo cosseno do ângulo entre o vetor do documento e o vetor da consulta [7]. O motor de busca Apache Lucene, em resposta à consulta por “Machado de Assis”, não retorna os livros escritos pelo autor nas primeiras posições, mas sim documentos escritos sobre o autor. Isto acontece porque estes documentos sobre o autor possuem uma frequência mais alta do termo buscado, aumentando para estes documentos o valor do fator tf-idf e da relevância. • IV. C ONCLUSÃO Neste artigo foi descrito o funcionamento do motor de busca Apache Lucene. Esta análise foi feita com o objetivo de determinar a origem do problema de ordenação, para que seja possível apontar novas estratégias que resolvam o problema. Foi identificado que a origem do problema está na formação dos “pesos” utilizados pelo modelo de espaço vetorial na recuperação dos documentos pelo Apache Lucene. A próxima etapa do trabalho será realizar uma investigação de alternativas para os algoritmos de ordenação. R EFERÊNCIAS [1] [2] [3] [4] [5] [6] [7] [8] G. G. Wan and Z. Liu, “Content-based information retrieval and digital libraries,” Information Technology and Libraries, vol. 27, no. 1, pp. 41– 47, 2008. The Apache Software Foundation, “Apache lucene,” http://lucene.apache.org/, 2012. R. Baeza-Yates and B. Ribeiro-Neto, Modern Information Retrieval, 2nd ed. USA: Addison-Wesley Publishing Company, 2008. E. Hatcher and O. Gospodnetic, Lucene in Action (In Action series). Greenwich, CT, USA: Manning Publications Co., 2004. M. Mittendorfer and W. Winiwarter, “Exploiting syntactic analysis of queries for information retrieval,” Data & Knowledge Engineering, vol. 42, no. 3, pp. 315 – 325, 2002. [Online]. Available: http://www.sciencedirect.com/science/article/pii/S0169023X02000496 L. Sbattella and R. Tedesco, “A novel semantic information retrieval system based on a three-level domain model,” JOURNAL OF SYSTEMS AND SOFTWARE, vol. 86, no. 5, pp. 1426–1452, MAY 2013. C. D. Manning, P. Raghavan, and H. Schütze, Introduction to Information Retrieval. New York, NY, USA: Cambridge University Press, 2008. D. Smiley and E. Pugh, Apache Solr 3 Enterprise Search Server. Packt Publishing, 2011. Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP Ad Networks: Models and Solutions Flávio Sales Truzzi, Anna Helena Reali Costa Laboratório de Técnicas Inteligentes (LTI) Escola Politécnica - Universidade de São Paulo (USP) Av. Prof. Luciano Gualverto tv. 3, 158 - Caixa Postal 05508-900 - São Paulo - SP - Brazil Email: {flavio.truzzi,anna.reali}@usp.br Abstract—Ad Networks are companies that promote the advertising on the web. Advertisers make contracts for displaying ads to users. The Ad Network needs to choose which ad will be displayed for each user, who may click or not on the displayed ads. Clicks generate revenue for the Ad Network. We studied this problem as a Markov Decision Process, its linear programming relaxation and the use of Reinforcement Learning as a solution to this problem. I. I NTRODUCTION Online marketing revenue has grown quickly since mid nineties, with a CAGR of 20.2%, achieving 17 billion dollars (USD) in the first semester of 2012. The display of ads on banners on websites account for up 21% of this market [1]. The Ad Network must decide which campaign to display to each user under several constraints such as budget, time and user profiles. This problem is a sequential decision process and it can be modeled as a Markov Decision Process (MDP) [2]. The solution of this MDP yields the policy for the Ad Network with the best possible decision. However this approach is computationally intractable even for small problems, as the state space grows exponentially [3]. One way to avoid the curse of dimensionality in Ad Network optimization is to convert this decision process into a simpler, relaxed problem. Some well known formulations of this relaxed problem resort to linear programming (LP) [4], [5]. We derived theoretical results on the loss of performance imposed by these relaxations, and we have shown that as the click budget of the campaigns grows, the loss of performance tends to zero [3]. However, these approaches rely on good estimations of the click probabilities, which are not often available and are hard to compute given the dynamical environment that the internet is. To overcome this problem we transformed this decision problem in a reinforcement learning problem, in which we learn the click probabilities at the same time we are acting. We modeled this problem as a multi-armed bandit problem and crafted a new algorithm called Ad Bandit. II. P ROBLEM F ORMULATION We consider that the Ad Network has a fixed pool of ads A, known in advance, and each element a ∈ A is defined by its underlying click probability, unknown to the Ad Network. For each user request to a site in the Ad Network’s inventory the Ad Network chooses which ad to display to the user, who may click or not. We model this problem as a finite-horizon stochastic multi-armed bandit, where each arm corresponds to an advertise a ∈ A. Each advertisement is associated with an unknown Bernoulli distribution B(µa ), 11 where µa is the click probability of the advertisement a. The aim of the Ad Network is to maximize the total expected reward until time τ , or equivalently, to minimize the expected cumulative regret, defined to be: ∗ R(τ ) = τ µ − E " τ X t=1 # rt = X a∈A (µ∗ − µa )E[Na,τ ], (1) where µ∗ = maxa µa denotes the expectation of the best action, rt is the reward at time t, and Na,τ is a random variable meaning the number of draws of arm a accumulated until t = τ. III. A D BANDIT A LGORITHM The Ad Bandit algorithm is inspired by in a previous algorithm called Thompson Sampling [6] combined with a frequentist exploration policy. The basic idea is to model each one of the arms as a Beta distribution, which is parametrized by two parameters α and β. The α parameter can be understood as the number of times that particular arm yielded a reward, and the β counts the number of times that the arm did not yield a reward. The algorithm has two different stages: the exploration stage and the exploitation stage, which occur in different times. At the end of each stage the algorithm checks if the pulled arm yielded a reward or not and update the Beta Distribution in a bayesian way. The exploration stage is based on Thompson Sampling. The algorithm tries to explore the arm with greater probability of being the best arm. In order to do it, it sample from each one of the Beta Distributions and use the arm which yielded the greater sample. The exploitation stage is based on a frequentist policy. In this stage the algorithm assumes that the learned distributions in the exploration stage are good aproximations for the unknown parameters {µa }1≤a≤|A| of the Beta distributions, and use the mean of the learned distribution as an index to exploit, as follows: µ̂a = αa αa + βa (2) where µ̂ is the expected mean of the beta distribution that models the arm a. Truzzi e Costa With such index, the algorithm exploits its knowledge pulling the arm with greater expected mean µ̂a : This modeling was published in the ENIA2012 conference [2], and it was also reported in the first edition of WPGEC (Workshop de Pós-graduação da Área de Engenharia de Computação). (3) After the initial modeling we studied linear relaxations to this problem. We conclude that it would be a good option to overcome the curse of dimensionality that almost all MDP solution faces, this work resulted in an article [3] that was accepted and will appear in the BRACIS2013 conference. â = arg max µ̂a a where â is the arm chosen to be pulled. The exploitation stages occur at random with probability where t is the instant of time, ǫ is the exploration parameter, and τ is a finite horizon. t ǫτ , It is important to note that the number of exploration stages decrease as the time passes, focusing the exploration effort in the beginning of the problem when there are no information about the arms. IV. P RELIMINARY R ESULTS We created an environment with 10 different Bernoulli arms, their success probabilities are: [0.02, 0.02, 0.02, 0.10, 0.05, 0.05, 0.05, 0.01, 0.01, 0.01], these are the same probabilities used in the experiments made in [6], and the best arm is depicted in bold. The algorithms started with no knowledge of the arms probabilities, i.e. for the Ad Bandit we used αa = 1 and βa = 1 for all arms a ∈ A. In Figure 1 we show expected regret of the algorithms: AdBandit, Thompson Sampling and UCB-Bayes. Among them the UCB-Bayes has the worst performance with a mean regret near 110, followed by Thompson Sampling with a mean regret near 85, and AdBandit with a mean regret near 65 achieving the best performance. A full report on the algorithm and its results were submitted to the ENIAC2013 conference, and now it is under pair-reviewing. 120 100 Thom pson AdBandit ε = 0.5 UCB-Bayes Value 80 60 40 20 0 2 10 3 10 Horizon 10 4 Fig. 1. Mean regret for 15,000 horizon for the best three algorithms over 1,000 simulations. V. Our later studies focus on a new approach, transforming the Ad Network problem in a Reinforcement Learning problem using a multi-armed bandit modeling. In this context we proposed a new algorithm called AdBandit. Its full evaluation is under peer-reviewing for the ENIAC2013 conference, and we reported here our preliminary results, where it achieved the best results against classical solutions to the multi-armed bandit problem such as: UCB, UCB-Bayes and Thompson Sampling. The next steps will be the study, proposal and evaluation of a new algorithm for multi-armed bandit in a dynamic scenario, where the click probabilities may change over time, and also applying budget constraints for the use of each campaign. ACKNOWLEDGMENT Flávio Sales Truzzi is supported by CAPES. This research was partly sponsored by grant 11/19280-8 São Paulo Research Foundation (FAPESP)1 and grant 311058/2011-6 CNPq – Conselho Nacional de Desenvolvimento Cientı́fico e Tecnológico. R EFERENCES [1] I. A. Bureau, “IAB Internet Advertising Revenue Report 2012,” no. October, 2012. [2] F. S. Truzzi, V. Freire, A. H. R. Costa, and F. G. Cozman, “Markov Decision Processes for Ad Network Optimization,” in Encontro Nacional de Inteligencia Artificial (ENIA), 2012. [3] ——, “Ad Network Optimization: Evaluating Linear Relaxations,” in 2nd Brazilian Conference on Intelligent Systems (BRACIS-13), 2013, (to appear). [4] S. Girgin, J. Mary, P. Preux, and O. Nicol, “Managing advertising campaigns - an approximate planning approach,” Frontiers of Computer Science, vol. 6, no. 2, pp. 209–229, 2012. [Online]. Available: http://dx.doi.org/10.1007/s11704-012-2873-5 [5] Y. Chen, P. Berkhin, B. Anderson, and N. R. Devanur, “Real-time bidding algorithms for performance-based display ad allocation,” Proceedings of the 17th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining - KDD ’11, p. 1307, 2011. [Online]. Available: http://dl.acm.org/citation.cfm?doid=2020408.2020604 [6] E. Kaufmann, N. Korda, and R. Munos, “Thompson sampling: An asymptotically optimal finite-time analysis,” in Algorithmic Learning Theory, ser. Lecture Notes in Computer Science, N. Bshouty, G. Stoltz, N. Vayatis, and T. Zeugmann, Eds. Springer Berlin Heidelberg, 2012, vol. 7568, pp. 199–213. [Online]. Available: http://dx.doi.org/10.1007/978-3-642-34106-9 18 [7] E. Kaufmann, O. Cappé, and A. Garivier, “On bayesian upper confidence bounds for bandit problems,” in International Conference on Artificial Intelligence and Statistics, 2012, pp. 592–600. D ISCUSSION AND F UTURE W ORK This master’s project by started studying the online advertising market and its modeling by means of Markov Decision Process, proposing an optimal solution to the Ad Network problem. 12 1 The opinions, assumptions, and conclusions or recommendations expressed herein are those of the authors and do not necessarily reflect the views of FAPESP. Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP Avaliação de Sistemas de Gerenciamento de TI Baseados em Política de Eficiência Energética Guilherme C. Januário Tereza C. M. B. Carvalho Laboratório de Sustentabilidade em TIC, PCS Escola Politécnica, Universidade de São Paulo Laboratório de Sustentabilidade em TIC, PCS Escola Politécnica, Universidade de São Paulo Abstract—Energy efficiency features are being integrated in network protocols and management systems. Simulations can provide input on how a particular algorithm would perform in different network conditions. However, building an environment that is able to comprehensively account for interactions between different network functions is difficult. A combination of emulation and implementation of major energy efficiency features provides a view closer to what may happen in a real deployment. Previously, we described a policy-based network management system that optimizes network paths with respect to energy efficiency. In this project, we evaluate the system using software routers for emulating network equipment functionality. We discuss extensions we developed and trade-offs of employing a state-of-the-art Linux distribution to emulate an energy efficient router. The project then presents results from the evaluation of the management system and argues about the benefits of the emulation environment. I. R ESUMO Funcionalidades de eficiência energética vêm sendo integradas a protocolos de rede e a sistemas de gerenciamento. Simulações podem prover informação sobre como um algoritmo em particular agiria em diferentes condições de rede. Entretanto, preparar um ambiente que de modo compreensivo trate das interações entre diferentes funções da rede é difícil. Uma combinação de emulação e implementação das principais funcionalidades de eficiência energética provê uma visão mais próxima ao que pode ocorrer em implantações reais de sistemas energeticamente eficientes. Continuando um trabalho que descreve um sistema de gerenciamento de TI que, com vistas a eficiência energética, otimiza os caminhos da rede, o presente projeto avalia o referido sistema por meio de software routers para emulação de funcionalidades futuras e desejadas de equipamentos de redes. Discutem-se extensões desenvolvidas e compromissos existentes no emprego de distribuições Linux do estado-da-arte para emulação de roteadores energeticamente eficientes. O trabalho então apresenta resultados da avaliação do sistema de gerenciamento e argue sobre benefícios do ambiente de testes. II. O BJETIVOS E M OTIVAÇÃO Funcionalidades de eficiência energética desligam ou alteram, consoante se deseje, a vazão das interfaces de rede ou o clock de processadores. Novos algoritmos de roteamento ou protocolos definem quais roteadores devem ter o estado energético alterado. Como podemos testar soluções? Desenvolveremos um banco de experimentos. 13 III. R EVISÃO DA L ITERATURA Alguns métodos que visam a eficiência energética são: • O switch coalescing, que se subdivide nos modos simples e adaptativo [1], junta pacotes antes de enviálos, de modo que o equipamento possa descansar durante o ajuntamento. Essa é uma técnica de Ethernet energeticamente eficiente e, como tal, utiliza nos dispositivos os modos ativo e ocioso de baixo consumo (low power idle). Naturalmente, ela exige que as interfaces nas duas pontas do enlace ajam com certa sincronia. • Adaptive link rate, ou taxa adaptativa de enlace, método pelo qual interfaces de rede conectadas definem se adaptarão sua taxa de comunicação ou não [2]. Em certos aspectos, assemelha-se ao switch coalescing, também agindo na camada Ethernet. • O rascunho da Energy and Power Management Information Base especifica um modelo para suporte a gerenciamento de energia [3]. Esse trabalho visa a ser um padrão da Internet Engineering Task Force • O Energy Management System, proposto em [4], é um sistema de gerenciamento que requer ciência sobre a rede toda. Os autores sugerem gerenciar o ligar/desligar de elementos de rede através do embarque de seviços de TIC nos equipamentos, como Web Services. A solução desabilita enlaces ociosos e, se possível, roteadores todos. • O GreenTE é um mecanismo centralizado de engenharia de tráfego, sugerido em [5]. Esse mecanismo visa a calcular rotas usando a topologia de rede e a matriz de tráfego. O objetivo é maximizar a eficiência energética ao colocarem-se line cards para dormir e, ao mesmo tempo, manter-se o desempenho de rede a níveis apropriados. • O trabalho [6] propõe um sistema de gerenciamento de redes energeticamente eficiente, o qual utiliza uma management information base com suporte a eficiência energética. Decisões são baseadas na topologia da rede e em políticas especificadas pelo usuário. Os autores propõem adicionar-se um novo estado à MIB definida no RFC 2836, a saber, o sleep mode ou modo dormente. Tal solução poderá ser implementada quando todos os equipamentos da rede oferecerem o novo estado e tiverem habilitação SNMP ou equivalente. Januário e Carvalho IV. M ETODOLOGIA E D ESENVOLVIMENTO Identificaram-se entre os trabalhos citados acima e outros os requisitos usuais e cateogrizações das necessidades de cada proposta. Dos requisitos elencados, obteve-se a arquitetura de arcabouço representada na figura 1. A extensão consiste em se adicionar, por meio de ferramentas de gerenciamento de rede, o suporte à avaliação de custos e benefícios relacionados à coordenação de otimizações de consumo de energia. Assim, podem-se analisar potenciais compromissos entre economizar energia e dagradar desempenho em futuros algoritmos e hardware. Um ambiente de teste para avaliação de funcionalidades de redes energeticmanete eficientes requer que os roteadores sejam munidos de diferentes estados de consumo de energia e informem dados sobre seu consumo. Relatórios granulares e em tempo real são raros nos dispositivos ora disponíveis. Para permitir tal mensura em tempo real, modelos de energia podem servir para parametrização do consumo de energia. O ambiente de simulação desenvolvido é baseado em software routers baseados em Linux. O uso de roteadores baseados em Linux está crescendo [7]. Por isso, o ambiente de testes descrito é aplicável a uma ampla gama de equipamentos. Fig. 2. Consumo de energia agregado vs. intervalo entreprovas, com ganhos de energia no destaque. Experimento (iii). e pela sinalização para o controle centralizado. Tal sinalização é necessária para efetuarem-se trocas entre caminhos pré-configurados. Experimentos correlacionando a redução de energia alcançável às taxas de prova indicam como o custo de otimização se relaciona à sobrecarga adicionada. R EFERENCES Roteador Túneis / Engenharia de tráfego Roteador Roteador Management [1] Roteador Engenharia de tráfego Túneis Controle de tráfego Suporte a diferentes modos de consumo Perfil de consumo/ Info. sobre consumo [2] Fig. 1. Ambiente de teste para avaliação de funcionalidades de sistemas de TIC energeticamente eficientes. V. [4] R ESULTADOS E D ISCUSSÕES Quatro experimentos compostos por diferentes políticas foram avaliados e comparados, mostrando como requisitos conflitantes e objetivos coalescem numa decisão que abarca nível de QoS e ganhos de energia. Os experimentos consistiram no teste de um sistema desenvolvido no laboratório [8]. A sobrecarga adicionada pela operação do sistema relaciona-se aos pacotes adicionais para medição e controle. A relação entre a taxa de amostragem e a variação do tráfego determina a acurácia dos dados coletados e a efetividade dos ganhos de energia (Fig. 2). VI. [3] C ONCLUSÕES [5] [6] [7] [8] Roteadores-padrão carecem de várias funcionalidades importantes para emulação realística do comportamento da rede. A solução integra emulação do estado dormente, suporte a MPLS e decisões de alocação baseadas em política. Com o sistema testado, obtiveram-se ganhos de energia de até 27%. Tais ganhos são condicionados a uma taxa de prova de 1 minuto e são adicionais aos ganhos inerentes a algoritmos que calculam caminhos energeticamente otimizados, pois, além de utilizar caminhos energeticamente otimizados, também roteadores foram postos em modo dormente. Mediuse a sobrecarga induzida pelo sistema de gerenciamento, gerada pelas requisições de nível de tráfego dos roteadores 14 M. Mostowfi and K. Christensen, “Saving energy in lan switches: New methods of packet coalescing for energy efficient ethernet,” in Green Computing Conference and Workshops (IGCC), 2011 International, 2011, pp. 1–8. H. Anand, C. Reardon, R. Subramaniyan, and A. George, “Ethernet adaptive link rate (alr): Analysis of a mac handshake protocol,” in Local Computer Networks, Proceedings 2006 31st IEEE Conference on, 2006, pp. 533–534. M. Chandramouli, B. Schoening, J. Quittek, T. Dietz, and B. Claise, “Power and energy monitoring mib,” Network Working Group, IETF, Tech. Rep., May 2011. F. Maciá-Pérez, D. Marcos-Jorquera, and V. Gilart-Iglesias, “Energy management system as an embedded service: Saving energy consumption of ICT,” in Proceedings of the 22nd International Conference on Architecture of Computing Systems, ser. ARCS ’09. Berlin, Heidelberg: Springer-Verlag, 2009, pp. 195–206. M. Zhang, C. Yi, B. Liu, and B. Zhang, “Greente: Power-aware traffic engineering,” in Proceedings of the The 18th IEEE International Conference on Network Protocols, ser. ICNP ’10. Washington, DC, USA: IEEE Computer Society, 2010, pp. 21–30. S. Chaudhari, S. Nottath, M. Subramanian, and H. Murthy, “Green-IT: An approach to energy savings using energy aware network management system,” in Communications (NCC), 2012 National Conference on, feb. 2012, pp. 1 –5. J. Chabarek and P. Barford, “Power-awareness extensions for network testbeds,” in Communications Workshops (ICC), 2011 IEEE International Conference on, june 2011, pp. 1 –6. G. C. Januario, C. H. Costa, M. C. Amarai, A. C. Riekstin, T. C. Carvalho, and C. Meirosu, “Evaluation of a policy-based network management system for energy-efficiency,” in Integrated Network Management (IM 2013), 2013 IFIP/IEEE International Symposium on, 2013, pp. 596– 602. Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP Integração de subsistemas de automação residencial Engenharia de software orientada a Serviços na automação residencial Guilherme M Toschi Carlos Eduardo Cugnasca Depart. de Engenharia de Computação e Sistemas Digitais Universidade de São Paulo São Paulo, Brasil Depart. de Engenharia de Computação e Sistemas Digitais Universidade de São Paulo São Paulo, Brasil Abstract— This article presents a proposal for a computer system to perform the automation in a residence following a development model, based on a distributed architecture, for the construction of a modularized home automation system based on services to ensure the continuous development integrated the various subsystems. A. Proposta de Pesquisa A comunicação integrada acontece na camada intermediária ou Middleware que é composto hardware e software, e é responsável pela comunicação entre os diversos subsistemas e o sistema de coordenação de forma transparente e integrada. Na parte inferior estão localizados os subsistemas de controle dos dispositivos do mesmo. Cada subsistemas pode utilizar uma tecnologia dedicada para fazer a comunicação interna entre os dispositivos, mas o controlador do subsistema utiliza a camada intermediária de comunicação para ser integrado com os outros subsistemas e com a camada superior de coordenação. Resumo— Este artigo apresenta uma proposta de um sistema computacional para realizar a automação residencial seguindo um modelo de desenvolvimento, baseado em uma arquitetura distribuída, para a construção de um sistema de automação residencial de modo modularizado baseando-se em serviços para garantir o contínuo desenvolvimento integrado dos diversos subsistemas. Keywords— automação residencial, integração de sistemas de automação, compatibilidade, SOA, web service II. I. INTRODUÇÃO CONTEXTUALIZAÇÃO DO PROBLEMA A criação de um protocolo de alto nível que se torne um padrão, para todos os sistemas de automação e dispositivos em uma casa, que vá trafegar por um meio físico através de um protocolo de baixo nível seria a primeira alternativa para a solução desse problema [5], abordagem criada pelo UPnP [5]. Essa solução acarreta em processar um protocolo de alto nível em cada um dos dispositivos. E assim cada dispositivo por mais simples que seja deve ter hardware suficiente para poder processar esse protocolo robusto, o que também sobrecarrega a rede interna da residência com o overhead desnecessário. A Automação Residencial é sistema de gerenciamento, coordenação e gestão integrada dos diferentes subsistemas de uma residência. Pode-se dividir esse tipo de sistema em três partes lógicas, no topo a Coordenação, no meio a Comunicação Integrada e em baixo os Subsistemas de Controles dos Dispositivos (o controle e a instrumentação) [4]. A falta de integração entre as diferentes tecnologias, a heterogeneidade na comunicação para o controle dos dispositivos e a dificuldade de padronização do mercado gera a não interoperabilidade entre soluções de fabricantes distintos e, portanto não se consegue utilizar estas soluções de modo cooperativo. Assim o usuário fica dependente de uma única solução, não podendo misturar os melhores módulos e dispositivos que utilizam certa tecnologia com os melhores de outras tecnologias. Essa solução primária gerou a questão de onde, em qual parte da arquitetura, deve ser feita essa abstração para aumentar o nível da linguagem utilizada. E qual arquitetura consegue sustentar essa abstração e essa arquitetura pode ser utilizada como metodologia de desenvolvimento adequado e flexível para se adaptar a novos dispositivos e independentes de tecnologias de comunicação especificas dos dispositivos e de qual o fabricante do dispositivo. Com a compatibilidade entre os diversos módulos e dispositivos, que utilizam diferentes tecnologias de automação residencial, é possível integrar soluções que utilizam tecnologias diferentes de diferentes fabricantes, ampliando as possibilidades de escolha do usuário, e deixando-o independente do fornecedor e fabricante. Com essa miscigenação do mercado espera-se obter um melhor e mais rápido desenvolvimento da automação residencial e a maior adoção desses sistemas. A partir dessa visão uma investigação dos diferentes protocolos de comunicação de automação residencial e das soluções existentes de compatibilidade podese analisar como estas lidam com os diferentes métodos de controle de cada subsistema ou dispositivo. III. TRABALHOS ANTERIORES Atualmente ainda não existe uma tecnologia padrão para a automação residencial. Diferentes fabricantes utilizam tecnologias diferentes com propósitos variados, e essas tecnologias não podem ser utilizadas em conjunto sem uma “ponte” dedicada e especializada entre cada par distinto [1]. O estado da arte mostra que as diferentes tecnologias utilizadas para automação residencial são independentes e assim os sistemas de controle da casa não são compatíveis, impossibilitando o uso cooperativo. E, portanto o usuário fica dependente de uma única tecnologia, não podendo misturar os 15 Toschi e Cugnasca melhores módulos de uma tecnologia com os melhores módulos de outra. 2) Padronização de Subsistemas A utilização de serviço web como forma de interface padronizada de comunicação do subsistema permite o controle homogêneo e a integração entre eles. As soluções existentes de compatibilidade e integração entre essas camadas intermediárias dedicadas e entre essas redes de tecnologias distintas são apenas pontes, conexões limitadas entre duas ou mais dessas [1]. Condicionadas assim a fazer uma tradução da linguagem utilizada sobre os protocolos de comunicação dedicados e outro protocolo com propósito diferente, isso afeta a funcionalidade, limitando os controles intrínsecos de uma tecnologia ao ser transportado a outra. Essa padronização é limitada. Diferentemente do modelo “plug-and-play” há a necessidade de se conectar esses serviços. Essa conexão entre serviços pode ser feita de algumas maneiras utilizando-se repositórios de serviços UDDI (Universal Description Discovery and Integration), onde pode ser feita essa busca (service lookup). B. Desenvolvimento na empresa Um sistema de automação residencial pode começar pequeno, mas se tornará grande e complexo rapidamente dependendo dos objetivos dos usuários, integrando diversos subsistemas heterogêneos que utilizam tecnologias distintas. Por isso a construção deste deve ser encarada como o desenvolvimento de um sistema de grande porte que será customizado para cada casa de usuários. Uma linha de pesquisa é a utilização de serviços web [2] para tentar integrar essas tecnologias distintas. Apesar de se ter no mercado muitos dispositivos inteligentes, estes tem sua capacidade de interoperabilidade limitada. A solução encontrada foi uma “multi-ponte”, cada tecnologia tem o seu tradutor para um serviço web. Todos os serviços têm a sua linguagem obedecendo a um padrão de controle abstrato, esse padrão deve ser capaz de sintetizar todas as possíveis comunicações dos dispositivos. Com a utilização da SOA, a Engenharia de Software Orientada a Serviços pode ser utilizada como metodologia de desenvolvimento para sistemas como esse. Sua utilização proporcionará: O mapeamento entre essa linguagem generalista e a linguagem dedicada de cada dispositivo é um trabalho interminável, solucionável somente pela utilização por todos de uma única linguagem. Conseguir criar tal protocolo e fazer com que todos os produtores de dispositivos o utilizem é muito difícil. IV. 1) Metodologia de produção A arquitetura SOA possibilita a criação de uma metodologia de produção na qual o desenvolvimento contínuo e modularizado pode ser feito para que a empresa entre rapidamente no mercado com uma pequena gama de produtos independentes. Esses subsistemas ou módulos podem interagir ou ser integrados futuramente, ou ser gerenciados pelo subsistema de controle e/ou pelo módulo de interface gráfica para o usuário. ENGENHARIA DE SOFTWARE ORIENTADA A SERVIÇO APLICADA À AUTOMAÇÃO RESIDENCIAL A. Arquitetura distribuida A arquitetura orientada a serviços (SOA) fornece uma diretriz e base adequada para a criação de uma arquitetura para a automação residencial. Pode-se aplicar e ampliar os conceitos da SOA à automação residencial das seguintes formas: 2) Metodologia de desenvolvimento A aplicação de metodologias de desenvolvimento consagradas em engenharia de software orientadas a serviços na construção e desenvolvimento de um sistema de automação residencial vai proporcionar um modelo de desenvolvimento contínuo e modular. Dessa forma pode-se planejar começar o desenvolvimento de um único módulo, que pode ser vendido separadamente como um produto independente, e subsequentemente outros módulos podem ser desenvolvidos seguindo o mesmo formato para ser integrados e interagir com outros subsistemas através de serviços web. 1) Padronização na Arquitetura A utilização dos conceitos da SOA no contexto da automação residencial utilizando-se da infraestrutura de comunicação domésticas começamos a concretizar o conceito abstrato de Internet das Coisas. Essa fusão de SOA com IoT pode ser materializada como Everything as a Service (EaaS). Onde todos os dispositivos serão controlados através de uma interface de serviço web. Para que esses módulos consigam ser interoperáveis, uma infraestrutura baseada em SOA é necessária e com a exposição da interface de controle do subsistema, seu registro no repositório da casa, outros subsistemas e o sistema de gerenciamento podem acessa-lo e controla-lo, ou seja, utilizar os dispositivos desse subsistema de modo transparente. Para tornar esse controle possível deve-se analisar onde na arquitetura de comunicação os serviços web serão incorporados. Um microdispositivo, muito simples como uma lâmpada, não pode ter seu próprio e exclusivo serviço web, porém um dispositivo mais complexo, como uma televisão, pode ter seu próprio serviço web embutido (embedded, bultin) como interface de controle. A união de dispositivos similares em conjunto que utiliza uma tecnologia de comunicação mais simples é a criação de um subsistema. E este tem um serviço web comum a todos os dispositivos. Nessa nova arquitetura do sistema de automação residencial está dividida em subsistemas. Todos esses módulos são independentes, autônomos e integráveis com outros. A própria interface com o usuário é uma módulo que utiliza os serviços dos outros subsistemas, outro módulo básico é um sistema de gerenciamento dos dispositivos que os controla automaticamente. 16 [1] L. Ngo, “Service-oriented Architecture for Home Networks,” TKK T-110.5190 Seminar on Internetworking, 2007. [2] V. Miori, D. Russo, e M. Aliberti, “Domotic Technologies Incompatibility Becomes User Transparent”, Commun. ACM, vol. 53, no 1, p. 153–157, jan. 2010. [3] V. Miori, L. Tarrini, M. Manca, e G. Tolomei, “An open standard solution for domotic interoperability”, IEEE Trans. Consum. Electron., vol. 52, no 1, p. 97– 103, fev. 2006. [4] Prof. Dr. A. R. Hirakawa e Prof. Dr. J. S. C. Martini, “SIGINURB – Sistema de Gestão da Infraestrutura Urbana”, Escola Politécnica da Universidade de São Paulo [5] B. A. Miller, T. Nixon, C. Tai, e M. D. Wood, “Home networking with Universal Plug and Play”, IEEE Commun. Mag., vol. 39, no 12, p. 104–109, dez. 2001. Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP Desenvolvimento de um Sistema Inteligente de Gerenciamento Energético Residencial Heider Berlink de Souza Anna Helena Reali Costa Laboratório de Técnicas Inteligentes Universidade de São Paulo São Paulo, Brasil [email protected] Laboratório de Técnicas Inteligentes Universidade de São Paulo São Paulo, Brasil [email protected] No Brasil, o desenvolvimento tecnológico no setor é recente e foi impulsionado através da aprovação pela ANEEL das regras que regulamentam a geração distribuída e a tarifa diferenciada de energia no país. Este novo cenário constitui uma importante quebra de paradigmas já que o consumidor, que sempre foi estritamente passivo, passará a contribuir de forma direta com a inserção de energia na rede. Resumo— Um dos objetivos das Smart Grids é incentivar a Geração Distribuída de energia em residências, levando o usuário a injetar energia na rede elétrica. A regulamentação da Tarifa diferenciada de energia por horário de uso, associada ao armazenamento de energia em baterias, possibilitam um gerenciamento otimizado do consumo de energia do usuário que pode optar por vender ou armazenar a energia gerada sempre que lhe for conveniente. Considerando uma variação dinâmica do preço da energia, faz-se necessário o desenvolvimento de um sistema autônomo que implemente uma política ótima de atuação visando maximizar a utilidade do sistema. Este trabalho propõe o desenvolvimento de um Sistema Inteligente para o gerenciamento energético residencial considerando a realidade do Mercado de Energia brasileiro. Considerando ainda a possibilidade da utilização de dispositivos de armazenamento de energia pelo consumidor e a intermitência da geração de energia através de fontes alternativas, pode-se verificar que o balanço energético da unidade consumidora residencial é um problema de dinâmica complexa. Este trabalho consiste no desenvolvimento de um sistema inteligente que seja capaz de gerenciar de forma otimizada o consumo energético de uma unidade consumidora que possui a capacidade de gerar a própria energia através de fontes alternativas e que esteja sujeita à tarifação diferenciada. Abstract— One of the goals of the Smart Grids is to encourage distributed generation of energy in the houses, leading the user to inject energy into the power grid. The Regulamentation of the Time of use energy princing, associated with energy storage in batteries, enable the optimal management of the energy consume from the user who can choose to sell or store the generated energy whenever it is convenient. Considering a dynamic variation of the energy princing, it is necessary to develop an autonomous system that implement an optimal policy of atuation that seeks to maximize the utility of the system. This paper aims to develop an Energy Management System considering the reality of the Brazilian Energy Market. Palavras-chave—SmartGrid; Energética; SmartHome. I. Geração Distribuída; II. DESCRIÇÃO DO PROBLEMA O sistema estudado considera uma residência que possui geração própria de energia através de fontes alternativas. Estas fontes têm em comum a dependência de condições meteorológicas específicas para geração, condições estas que variam consideravelmente ao longo do dia em função do local da instalação. No presente trabalho, a geração de energia elétrica é modelada de forma a incorporar as características das regiões tropicais do globo terrestre, incorporando assim as particularidades da geração nestas regiões, como a incidência solar para Sistemas Fotovoltaico, por exemplo. Esta preocupação reflete um dos objetivos principais do trabalho que é obter uma solução para o problema que seja condizente com as condições do mercado de energia brasileiro. Gestão INTRODUÇÃO Apesar de toda evolução tecnológica vista nos últimos anos, pode-se afirmar que o setor elétrico foi um dos poucos que não presenciaram uma completa revolução, seja no âmbito tecnológico, nos serviços prestados ou na forma de negócio praticada pelas concessionárias de energia elétrica. As Redes Inteligentes de Energia ou Smart Grids surgem com o intuito de liderar esta revolução no setor ao inovar através da inserção de modernas tecnologias de medição, automação e telecomunicações na rede. A implantação desta complexa infraestrutura tem como consequências diretas ganhos em confiabilidade, eficiência, segurança e, principalmente, novas formas de negócio decorrentes do papel do consumidor neste novo cenário. A energia gerada pode ser injetada na rede elétrica, utilizada pelo consumidor ou armazenada em uma bateria para que seja comercializada em um momento mais favorável no mercado. As características fundamentais dos dispositivos de armazenamento são o custo para armazenar energia e a capacidade máxima de armazenamento. A modelagem destes parâmetros de forma adequada possui influência direta na solução do problema, já que interferem no grau de liberdade do agente com relação à escolha das ações de venda da energia armazenada. O mercado de energia é traduzido pelo método de precificação de energia adotado, o que pode variar desde uma 17 Souza e Costa curva dinâmica de preços de venda de energia até simples patamares fixos que refletem preços diferenciados ao longo do dia. Um dos objetivos do trabalho é comparar o método de precificação adotado em programas de gerenciamento pelo lado da demanda já consolidados com o implementado recentemente no Brasil. problema proposto. Sendo assim, serão implementadas técnicas de planejamento probabilístico e aprendizado, visando avaliar as que mais se adequam à complexidade do problema. Uma possível análise a ser contemplada no trabalho visa identificar o impacto da implementação destes sistemas nas Redes de Distribuição de energia. Entretanto, este é um trabalho complementar, não sendo o foco principal do projeto de mestrado. O função de utilidade do problema proposto incorpora aspectos econômicos e de sustentabilidade, como o lucro direto obtido pelo usuário com a venda da energia e a eficiência no consumo energético, respectivamente. O foco principal é o desenvolvimento de um sistema de controle que possua uma política de atuação condizente com estes parâmetros, sem no entanto afetar a qualidade de vida e o padrão de conforto do usuário. III. V. REVISÃO BIBLIOGRÁFICA A solução do problema proposto ainda não é um consenso na literatura, principalmente porque esta sofre influência direta de fatores específicos da modelagem do problema, como a dinâmica do Mercado de Energia estudado, as características de geração de energia e a regulamentação adotada no local onde reside a unidade consumidora. Entretanto, uma série de trabalhos se destacam pela aplicação de técnicas de planejamento probabilístico ou aprendizado. Testes foram empregados visando avaliar o desempenho da técnica aplicada e a sua capacidade de identificação das tendências de preço. Os resultados obtidos foram comparados com uma política de atuação Greedy, sendo possível verificar que a aplicação da técnica apresentada é factível para o problema proposto. Um importante fator visualizado nas soluções encontradas consiste na escalabilidade do problema, ou seja, pode-se tratar o gerenciamento energético desde o âmbito do escalonamento da operação dos equipamentos da residência visando um consumo otimizado como proposto por Chen et al. [1], até de forma mais superficial como sugerido por Lou et al. [2]. Além disso, alguns trabalhos tratam do impacto na rede de distribuição de energia referente à utilização destas técnicas em um grande conjunto de residências. VI. CONCLUSÕES Este trabalho trata do desenvolvimento de um Sistema inteligente de Gerenciamento Residencial de Energia considerando uma casa que produz energia elétrica através de fontes alternativas associada ao armazenamento em baterias e uma tarifa diferenciada de energia. A abordagem utilizando Aprendizado por Reforço mostrou-se satisfatória, mas uma modelagem mais robusta deve ser empregada visando uma maior aplicabilidade da solução implementada. Os próximos passos envolvem melhorias na modelagem do sistema e a avaliação de novas técnicas de otimização que se adequem à complexidade do problema proposto. O principal aspecto notado nas publicações atuais sobre o tema é a grande predominância de soluções que atendem apenas ao Mercado Europeu e Americano, sendo um dos objetivos do trabalho motivar a implementação destes sistemas no Brasil ao provar que a sua viabilidade. IV. RESULTADOS PRELIMINARES Uma primeira análise do problema foi feita mediante aplicação do conceito de Aprendizado por Reforço no problema de maximização da recompensa através da venda distribuída de energia. O sistema foi modelado como um Problema de Decisão Markoviano, como proposto por Li et al. [3]. Implementou-se o algoritmo Q-Learning de aprendizado visando obter uma política ótima de venda de energia para uma dada sequência de preços do mercado. REFERÊNCIAS METODOLOGIA E DESENVOLVIMENTO [1] A primeira etapa de desenvolvimento do trabalho consiste no estudo detalhado de cada subsistema envolvido no ambiente de estudo. Vale ressaltar que todo o Sistema será modelado tendo em vista a realidade do Mercado de Energia brasileiro, tanto com relação à capacidade de geração de energia quanto com relação à regulamentação do Mercado. [2] [3] Após validar os modelos, será feito um estudo visando identificar qual a melhor técnica a ser aplicada na solução do 18 Chen, X., Wei, T., Hu, S. “Uncertainty-aware household appliance scheduling considering dynamic electricity pricing in smart home”. Em: Smart Grid, IEEE Transactions on, vol. 4, no. 2, pp. 932-941, June 2013. Lou, X., Yau, D. K. Y., Nguyen, H. H., Chen, B. “Profit-optimal and stability-aware load curtailment in smart grids”. Em: Smart Grid, IEEE Transactions on, vol. PP, no. 99, pp. 1-10. Li, B., Gangadhar, S., Cheng, S. e Verma, P.K. "Maximize user rewards in distributed generation environments using reinforcement learning", Em: Energytech, IEEE, pp. 1-6, 2011. Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP Simulação e Análise de Arquiteturas Hierárquicas sem Buffers de Redes em Chip sem Fio Jefferson Chaves Ferreira Cíntia Borges Margi Escola Politécnica da Universidade de São Paulo Departamento de Eng. de Computação e Sist. Digitais São Paulo, Brasil [email protected] Escola Politécnica da Universidade de São Paulo Departamento de Eng. de Computação e Sist. Digitais São Paulo, Brasil [email protected] Resumo— O presente trabalho propõe uma nova arquitetura de switch de redes em chip sem fio (WiNoCs) hierárquicas e sem buffers. A segunda principal contribuição é uma plataforma de análise e simulação de WiNoCs, baseada no já consolidado simulador ns-2, para a avaliação do desempenho do switch. evolucionária da arquitetura clássica [1] de NoC e de arquiteturas de switches divulgadas recentemente na literatura como BLESS [2], CHIPPER [3] e MinBD [4]. Pesquisas recentes focam o emprego das WiNoCs destacando o potencial desta abordagem. A referência [5], por exemplo, propõe o uso de uma topologia hierárquica dotada de nós radiotransmissores, separados em zonas, com o objetivo de melhorar a capacidade de comunicação em chip. Além disso, a referência [6] analisa o potencial do uso da tecnologia sem fio como mecanismo de melhoria de desempenho das NoCs ressaltando a necessidade de análises mais detalhadas a respeito das arquiteturas e dos pontos críticos no emprego das redes sem fio em NoCs. Abstract—This work proposes a new hierarchical and bufferless wireless network on chip (WiNoC) switch architecture. The second main contribution is a simulation platform, having the well-known ns-2 simulator as its basis, for switch performance evaluation. I. INTRODUÇÃO O paradigma das redes em chip (NoCs) surgiu a fim de permitir alto grau de integração entre vários núcleos de sistemas em chip (SoCs) cuja comunicação é tradicionalmente baseada em barramentos. As NoCs são definidas como uma estrutura de switches e canais ponto a ponto que interconectam núcleos de propriedades intelectuais (IPs) de um SoC, provendo uma plataforma de comunicação entre os mesmos. O emprego de WiNoCs possibilita a adoção dos mecanismos de roteamento das NoCs com o uso de tecnologias sem fio, propondo a otimização dos fluxos de trafego, a redução de conectores e a atuação em conjunto com as NoCs tradicionais. II. III. ARQUITETURA DO SWITCH Os switches compões uma WiNoC hierárquica na qual os nós são organizados em clusters, que possuem um nó central dotado de um canal sem fio com o qual é possível comunicarse com outros clusters. A arquitetura dos switches centrais de cada cluster, esquematizada na figura 1, será descrita em hardware a fim de verificar seu desempenho e o tráfego da rede em chip será simulado por meio do uso do ns-2 (seção IV). IV. REVISÃO LITERÁRIA PLATAFORMA DE SIMULAÇÃO Propõe-se a adaptação do simulador ns-2 [7] a fim de A arquitetura do switch proposto é uma abordagem Fig. 1 - esquema da arquitetura com três estágios de pipeline do switch da WiNoC a ser simulada. 19 Ferreira e Margi possibilitar a elaboração de WiNoCs. A adaptação [8] consiste essencialmente na combinação uma simulação com fio em tempo T que deve convergir com diversas simulações sem fio em tempo t<T. Alguns dados da simulação (tempos de execução e de chaveamento) são obtidos diretamente da descrição em hardware feita para o switch central dos clusters. A figura 2 ilustra o diagrama de componentes da arquitetura. no projeto e desenvolvimento de uma interface, que permita a cossimulação de dados de saída de componentes em hardware com a dinâmica de transferência de pacotes em rede, inspirada em casos de cossimulação de sucesso [9]. Após o desenvolvimento da plataforma de simulação, os esforços serão concentrados no desenvolvimento da arquitetura do switch da seção IV e sua posterior análise de desempenho. A. Emprego de Algorimos Genéticos A fim de realizar a convergência da simulação com fio com as simulações sem fio utiliza-se uma abordagem baseada em algoritmos genéticos. A função de avaliação é dada por meio da soma de erros relativos entre as simulações com fio e sem fio (equação 1). Fsim ErelatrasoMedio E reltaxaEntrega REFERÊNCIAS [1] [2] (1) [3] A população de possíveis soluções é ajustada em ordem crescente. dos resultados da função de avaliação. A nova geração de valores é dada por meio da média aritmética dos parâmetros das possíveis soluções ordenadas e tomadas duas a duas. As soluções da nova geração substituem as soluções com avaliação menos favorável segundo uma razão ajustada no simulador. A mutação, cuja frequência é ajustada por meio de um parâmetro no simulador, é modelada por meio da escolha semialeatória de um parâmetro da função de avaliação seguida pela escolha de um valor pseudoaleatório dentro dos limites dos valores encontrados até o momento para tal parâmetro. V. [4] [5] [6] RESULTADOS E CONCLUSÕES A partir do desenvolvimento da abordagem de simulação foi possível atestar a viabilidade da simulação de redes em chip sem fio utilizando o simulador ns-2 como plataforma base. A adoção de novas métricas somada à simulação de topologias maiores permitirá a consolidação de uma plataforma na qual será possível a concepção, a simulação e a subsequente comparação de diversas arquiteturas de roteadores de WiNoCs. [7] [8] [9] Os trabalhos de desenvolvimento futuro serão concentrados G George P. Nychis, Chris Fallin, Thomas Moscibroda, Onur Mutlu, and Srinivasan Seshan. “On-chip networks from a networking perspective: congestion and scalability in many-core interconnects”. In Proceedings of the SIGCOMM 2012. ACM, Nova York, EUA, pp. 407-418, 2012. Thomas Moscibroda and Onur Mutlu. “A case for bufferless routing in on-chip networks”. In Proceedings of the ISCA. ACM, Nova York, EUA, pp. 196-207, 2009. Chris Fallin, Chris Craik, Onur Mutlu, "CHIPPER: A low-complexity bufferless deflection router", 17th Int. Symposium on High Performance Computer, IEEE Computer Society, Washington EUA. pp. 144-155, 2011. Chris Fallin, Greg Nazario, Xiangyao Yu, Kevin Chang, Rachata Ausavarungnirun, Onur Mutlu, "MinBD: Minimally-Buffered Deflection Routing for Energy-Efficient Interconnect", IEEE/ACM Sixth International Symposium on Networks-on-Chip, IEEE Computer Society, Washington, EUA , pp. 1-10, 2012. Dan Zhao and Ruizhe Wu. Overlaid Mesh Topology Design and Deadlock Free Routing in Wireless Network-on-Chip. IEEE/ACM Sixth International Symposium on Networks-on-Chip. IEEE Computer Society, Washington, EUA, pp. 27-34, 2012. Deb, S.; Ganguly, A.; Pande, P.P.; Belzer, B.; Heo, D., "Wireless NoC as Interconnection Backbone for Multicore Chips: Promises and Challenges," IEEE Journal on Emerging and Selected Topics in Circuits and Systems, IEEE Computer Society, Washington, EUA, vol.2, no.2, pp. 228-239, 2012. ISI, “The Network Simulator - ns-2”, novembro 2011, Disponível em: http://www.isi.edu/nsnam/ns/. Acesso em: 08 ago. 2013. Jefferson Chaves Ferreira, Cíntia Borges Margi, “Simulação de redes em chip sem fio”. In Escola Regional de Alto Desempenho de São Paulo. São Carlos, Brasil, pp. 74-77, 2013. M. Jingyao Zhang; Yi Tang; Sachin Hirve; Iyer, S.; Schaumont, P.; Yang, Y., "A software-hardware emulator for sensor networks," 8th Annual IEEE Communications Society Conference on Sensor, Mesh and Ad Hoc Communications and Networks, IEEE Computer Society, Washington, EUA, pp.440-448, 2011. Fig. 2 - diagrama de componentes da plataforma de simulação destacando os cinco principais subsistemas. Adaptado de [8]. 20 Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP II WORKSHOP DE PÓS-GRADUAÇÃO DA ÁREA DE CONCENTRAÇÃO ENGENHARIA DE COMPUTAÇÃO 1 Secure mHealth data colletion: requirements Leonardo H. Iwaya1 , Tereza C. M. B. Carvalho1 Despite its potential for effectively improving health and wellness, mHealth still faces many challenges for its widespread adoption [4]. One important concern refers to security: even though medical data is usually subject to a very strict legislation aiming to prevent unauthorized use or disclosure, many mHealth proposals do not employ robust security solutions to comply with such laws, hindering their ability to become real deployments. Such concern is reflected in studies about the security and privacy properties of nationwide electronic healthcare systems proposed in countries such as Germany [7] and Canada [8]. It also appears in recent reports from organizations such as WHO [4] and the mHealth Alliance [9], which point out that data security and citizen privacy are issues that require more attention in order to ensure the success of mHealth initiatives. Abstract—Mobile Health (mHealth) can be defined as medical and public health practice supported by mobile computing technology (e.g., mobile phone, PDAs, tablets), sensors, and other wireless devices [1]. However, there has been a relaxation of the security features for these applications [2], so that a sensible number of papers mentions weakly or not even mention their security requirements. For that reason, this preliminary paper presents requirments for a security framework for mHealth data collection; considering, lightweight mechanisms for delay-tolerant network scenarios; user registration and authentication; secure storage owing to the theft and loss of mobiles; secure data exchange between mobiles and servers; device sharing among health workers; and possible usability trade-offs. Index Terms—Security, mobile health, remote data collection. I. I NTRODUCTION II. S CENARIO ASSUMPTIONS AND REQUIREMENTS Data collection systems are mainly used as a tool for gathering primary health care information and tracking existing diseases, driving health promotion initiatives in the affected communities [4]. Figure 1 illustrates such systems, showing a generic architecture in which the paper forms traditionally employed for data collection are replaced by a mobile device. Using the device’s communication capabilities, data can be delivered in a faster and more reliable manner, speeding up the whole process of decision making. Key actors in this scenario are the health care workers, who act as data collection agents and are responsible for visiting families in their houses and for acquiring health-related information. Since data collection systems deal with sensitive information, both stored and in-transit data must be protected from unauthorized access or modification. In what follows, we discuss the main requirements involved in the design of the security framework. Tolerance to delays and lack of connectivity - Many data collection systems are deployed in remote locations where network access is not continuously available, implying that frequent connectivity losses are expected to occur. Consequently, the mobile device should be able to authenticate the user in an offline manner and also employ mechanisms for temporarily storing acquired data. Protection against device theft or loss - The mechanisms employed for temporary data storage should also provide protection against unauthorized access or modification. Ideally, this protection should remain effective even if the mobile device in which the data is stored is stolen while the user’s session is still active and the device’s volatile memory is accessed. In other words, the security solution should enable some level of forward secrecy, preventing attackers from using the information available on the device’s memory. The concept of mobile health (mHealth) comprises the combination of mobile computing technology with medical sensors and communication devices, creating solutions for improving health care [1]. The mhealth concept is also related to that of eHealth (electronic health processing), but while the latter is more focused on fixed computing facilities (e.g., desktop computers), the former aims to explore more intensively the advances in wireless communication, ubiquitous computing and “wearable” device technologies [3]. Several socioeconomic factors contribute to the interest in the mHealth trend. Examples include the wider availability of mobile devices with high computing capabilities, the growth in coverage of mobile cellular networks and the necessity of actively bringing adequate health care and support for people wherever they may be [4]. Applications surveyed include mobile telemedicine, decision support systems, solutions for raising treatment compliance and awareness, electronic patient records (EPR), and data collection systems for enabling health surveys and surveillance, to cite a few. The deployment of mHealth solutions is particularly promising in emerging countries, in which health authorities can take advantage of the flourishing mobile market to bring adequate health care to unserved or underserved communities [5]. Indeed, specialized applications for health surveys and surveillance play a crucial role in such regions, providing a rich repository for decision making on the field of public health [4], [6]. Applications in this category typically involve remote data collection of Primary Health Care (PHC) indicators, such as family-related data, sanitary conditions, identification of common diseases in a given region, or tracking people with chronic conditions/diseases. 1 Escola Politécnica, Universidade de São Paulo. São Paulo/SP, Brazil. Email: {liwaya,carvalho}@larc.usp.br. 21 Iwaya e Carvalho II WORKSHOP DE PÓS-GRADUAÇÃO DA ÁREA DE CONCENTRAÇÃO ENGENHARIA DE COMPUTAÇÃO (a) 2 (b) Fig. 1: mHealth data colletion: (a) typical use case; (b) generic client-server architecture. Secure data exchange between mobile device and server - In order to protect in-transit information, all data must be properly encrypted before transmission to/from the server. In addition, the security solution should provide the server with means to verify if the data received actually came from a legitimate user, thus preventing unauthorized entities from injecting (possibly fake) information into the system’s database. Lightweight and low cost solution - Low budget projects may impose restrictions on the computational capabilities of the mobile devices employed for collecting data, including limitations on processing power and available memory. Therefore, the security framework should rely as much as possible on lightweight cryptographic mechanisms such as those based on symmetric keys. Device sharing - Budget limitations or practical reasons may lead to a scenario in which the mobile devices are shared by multiple agents. In order to cope with this constraint, the security solution should allow registered users to access the system from any device in which the data collection application is installed. Usability - In many deployments, the staff responsible for data collection may include people with little education background and/or computer literacy [10]. Even though this can be overcame with intense training, frustrating experiences may become an extra barrier for the system’s wide acceptance. Therefore, despite the need of strong security, it is important to keep in mind the system’s usability. as medical information. Unfortunately, however, many existing mHealth applications for data collection do not include security mechanisms able to protect both the locally stored and in-transit medical data gathered by them. Aiming to close this gap, we are developing a consistent security framework designed specifically for this class of applications. ACKNOWLEDGMENTS This work was supported by the Innovation Center, Ericsson Telecomunicações S.A. (Brazil) and in part by the Brazilian National Council for Scientific and Technological Development (CNPq) under grant 482342/2011-0. R EFERENCES [1] R. Istepanian, E. Jovanov, and Y. Zhang, “Guest editorial introduction to the special section on m-health: Beyond seamless mobility and global wireless health-care connectivity,” in IEEE Transactions on Information Technology in Biomedicine, vol. 8, no. 4, 2004, pp. 405–414. [2] L. Lind, E. Sundvall, D. Karlsson, N. Shahsavar, and H. Ahlfeldt, “Requirements and prototyping of a home health care application based on emerging java technology,” International Journal of Medical Informatics, vol. 68, pp. 129–139, 2002. [Online]. Available: \url{http://www.ncbi.nlm.nih.gov/pubmed/12467797} [3] S. Tachakra, X. Wang, R. Istepanian, and Y. Song, “Mobile e-health: The unwired evolution of telemedicine,” in Telemedicine and e-Health, vol. 9, no. 3, 2003, pp. 247–257. [4] WHO, “mhealth: new horizons for health through mobile technologies,” The World Health Organization (WHO), Tech. Rep., 2011. [5] L. Iwaya, M. Gomes, M. Simplicio, T. Carvalho, C. Dominicini, R. Sakuragui, M. Rebelo, M. Gutierrez, M. Näslund, and P. Håkansson, “Mobile health in emerging countries: A survey of research initiatives in Brazil,” International Journal of Medical Informatics, vol. 82, no. 5, pp. 283–298, 2013. [6] C. Hertzman, N. Meagher, and K. McGrail, “Privacy by design at population data BC,” J Am Med Inform Assoc, vol. 20, no. 1, pp. 25–28, 2013. [7] A. Sunyaev, J. M. Leimeister, and H. Krcmar, “Open security issues in german healthcare telematics.” in HEALTHINF. INSTICC Press, 2010, pp. 187–194. [8] Infoway, “A “conceptual” privacy impact assessment of the ehrs blueprint version 2,” Canada Health Infoway, Tech. Rep., 2008. [9] P. Mechael, H. Batavia, N. Kaonga, S. Searle, A. Kwan, A. Goldberger, L. Fu, and J. Ossman, “Barriers and gaps affecting mHealth in low and middle income countries: Policy white paper,” mHealth Alliance, Tech. Rep., 2010. [10] D. Shao, “A proposal of a mobile health data collection and reporting system for the developing world,” Master’s thesis, Malmö University – School of Technology, 2012. [11] F. Mancini, K. Mughal, S. Gejibo, and J. Klungsoyr, “Adding security to mobile data collection,” in 13th IEEE Int. Conf. on e-Health Networking Applications and Services (Healthcom), 2011, pp. 86–89. [12] S. H. Gejibo, F. Mancini, K. A. Mughal, R. A. B. Valvik, and J. I. Klungsyr, “Secure data storage for mobile data collection systems,” in Proc. of International ACM Conference on Management of Emergent Digital EcoSystems (MEDES), 2012, pp. 1–8. III. R ELATED WORK One of the few thorough solutions that focus on securing the mHealth data collection process (i.e., over 3G networks, smartphones and web servers) was proposed by [11], which, together with the secure storage mechanism described in [12], forms an extension of the openXdata standard. The combined solution includes essential security features such as mutual authentication between user and server, encryption of stored data, and secure data delivery. Important requirements such as allowing devices to be shared and offline authentication of users are fully taken into account. Their solutions, however, is still halfway to solve the problem. IV. C ONCLUSION Security is one of the most imperative requirements for the success of systems that deal with highly sensitive data, such 22 Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP Classificação Visual de Produtos Agrícolas: Análise da Eficácia de Técnicas de Seleção de Atributos Silva, L. O. L. A., Cugnasca, C. E. Departamento de Engenharia de Computação e Sistemas Digitais – Escola Politécnica da USP Abstract— Homogeneity plays an important role in ornamental plant and flower production. As assessing the quality of seedlings is an effective way of predicting plant growth performance, a vision system capable of performing this task is desirable. Yet, the optical sorting of agricultural products must find ways to incorporate knowledge from human experts into the computational solution. Our aim to evaluate feature selection techniques with respect to the performance of vision-based inspection of pot plant seedlings. A large feature set was initially obtained from seedlings images and several subsets were generated with various features selection techniques. The performance of each subset was compared to some of the most popular classifiers in the literature: Naive Bayes, kNearest Neighbors, Logistic Regression, C4.5, Random Forest and Multilayer Perceptron. The results show that feature selection was indeed advantageous, generating accuracy gains of up to 7.4%. The match between Logistic Regression and Chi Squared provided the best performance observed, achieving 80% accuracy rate. Sendo assim, pesquisas que abordem com efetividade as particularidades envolvidas na classificação e separação de mudas de flores e plantas ornamentais vêm se tornando mais importantes. Desta forma, este trabalho visou propor, desenvolver e testar um sistema de classificação visual para atender às necessidades específicas da inspeção desse tipo de produto, incorporando-o em uma máquina que permita automatizar essa etapa do processo produtivo. Palavras-chave—Visão computacional, automação agrícola, máquina. As mudas foram coletadas durante a primavera de 2011 e foram divididas em quatro níveis de qualidade decrescente, sendo A a de melhor qualidade e D, a de pior. Essa foi a quantidade de níveis que o especialista julgou mais adequada para realizar a rotulação com consistência. A Fig. 1 fornece exemplos de mudas rotuladas em cada um dos quatro níveis estipulados. I. inspeção II. OBJETIVO Problemas de aprendizado de máquina supervisionado enfrentam a dificuldade de se estabelecer quais são os atributos relevantes para classificação. Isso é especialmente verdade para a classificação visual de produtos agrícolas, que precisa lidar com a variabilidade inerente de cada instância analisada, sendo assim, o objetivo do trabalho é o de avaliar a eficácia de técnicas de seleção de atributos na resolução desse tipo de problema, no meu caso a classificação visual de mudas de violeta. III. visual, INTRODUÇÃO A produção em grande escala de flores e plantas ornamentais se dá em diversas fases. Produtores estabelecem para cada fase um setor dentro das estufas e, em cada um deles, a disposição e o tratamento das plantas são feitos de maneira homogênea, melhorando a qualidade destas e evitando o surgimento de doenças e pragas. O controle sobre o desenvolvimento das plantas é importante para permitir não só um melhor aproveitamento da área da estufa como também das demandas comerciais [1]. MATERIAIS E MÉTODOS Vinte e seis atributos, elaborados a partir de entrevistas com o especialista, foram extraídos de 600 imagens. A binarização das imagens foi inspirada em técnicas de chromakeying e representada matematicamente como: Tα,β,γ,k (R, G, B) ={x ϵ E | α.R(x) + β.G(x) + γ.B(x) > k}, (1) onde T é o operador de limiarização de imagens coloridas, x representa cada pixel da imagem, E representa o objeto de interesse, α, β, γ e k são os parâmetros de limiarização do operador, e R(x), G(x) e B(x) são os valores de intensidade do pixel x nos canais vermelho, verde e azul, respectivamente. Os valores foram ajustados manualmente, chegando-se na configuração de α = 2, β = 4, γ = –4 e k = 0, adotada para a binarização das mudas. O resultado desse método de binarização se mostrou robusto quando aplicado a toda a As mudas são importantes porque representam um fator que não apresenta uniformidade no processo produtivo. Visto que garantir a qualidade e uniformidade das plantas é de primordial importância [2], o que se faz é dividir as mudas em grupos de desenvolvimento semelhantes, por meio da inspeção visual de cada uma delas [3]. Visão computacional bem como técnicas de aprendizado supervisionado têm sido amplamente utilizadas para automatizar tarefas dess tipo. Vários trabalhos abordaram problemas de inspeção visual de mesma natureza (tais como flores, frutas e outros produtos agrícolas), utilizando diferentes técnicas. Em [4], um sistema de visão foi feito para classificar violetas adultas e também plantas de Cactus. 23 Silva e Cugnasca IV. RESULTADOS E CONCLUSÕES Os resultados mostraram que a essas técnicas são realmente vantajosas, gerando ganhos de até 7,4% nas taxas de acertos e ao mesmo tempo reduzindo de 26 para 11 o número médio de atributos utilizados após a seleção. A Fig. 3 mostra o gráfico dos resultados finais obtidos. Fig. 1. Exemplos de mudas rotuladas entre os 4 níveis de qualidade estipulados. Em ordem decrescente de qualidade onde (a) é a melhor, classe A, e (d) é a pior, classe D. Fig. 3. Taxas de acerto observadas. Trabalhos futuros podem verificar se há melhorias no desempenho do sistema ao se utilizar um grupo de especialistas ao invés de apenas um para rotular as imagens das mudas, evitando-se variações devido à inconsistências na rotulação das mudas. Um sistema de notas poderia ser empregado, tirando-se os valores médios de cada exemplo e estabelecendo-se faixas de notas aceitas para cada nível de qualidade. coleção de 600 imagens das mudas. Um exemplo de sua aplicação pode ser visto na Fig. 2b. Os vinte e seis atributos foram: área da muda, comprimento, largura, elongação, área do retângulo envolvente, ocupação do retângulo, área do círculo, ocupação do círculo, distância centroide-círculo, distância basecentroide, além de medidas da distribuição de massa das mudas, por meio do cálculo da ocupação de 16 sub-regiões das imagens, todas com áreas iguais a 1/16 da área total. Esse trabalho também resultou no desenvolvimento de um protótipo (Fig. 4) que embarca parte do conhecimento obtido numa máquina que efetivamente automatiza a etapa de classificação das mudas. De acordo com o acompanhamento do responsável pela produção na qual o protótipo foi testado, obtiveram-se ganhos de produtividade de 35% na separação das mudas após a instalação. Os desempenhos de seis classificadores foram comparados considerando-se um universo de subconjuntos gerados por quatro técnicas de seleção de atributos. REFERÊNCIAS [1] [2] [3] (a) (b) [4] J. E. Faust and R. D. Heins, “Modeling inflorescence development of the African Violet (Saintpaulia ionantha Wendl.),” Journal of the American Society for Horticultural Science, vol. 119 (4), pp. 727-734, 1994. N. R. Parsons, R. N. Edmondson and S. G. Gilmour, “A generalized estimating equation method for fitting autocorrelated ordinal score data with an application in horticultural research,” Applied Statistics, vol. 55 (4), pp. 507-524, 2006. A. Mattson, “Predicting field performance using seedling quality assessment,” New Forests, vol. 13 (1), pp. 227-252, 1997. A. J. M. Timmermans and A. Hulzebosch, “A computer vision system for on-line sorting of pot plants using an artificial neural network classifier,” Computers and Electronics in Agriculture, vol. 15 (1), pp. 41-55, 1996. (c) Fig. 2. (a) Imagem original. (b) Resultado intermediário, após a binarização. (c) Resultado final, após aplicação de filtros mediana e abertura morfológica. Fig. 4. Protótipo desenvolvido utilizando visão computacional e aprendizado de máquina para realizar a separação automática das mudas. 24 Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP REASON - Avaliação de confiabilidade e disponibilidade em redes de computadores sustentáveis. Marcelo C. Amaral Tereza C. M. B. Carvalho Escola Politécnica, Universidade of São Paulo São Paulo, SP, Brazil [email protected] Escola Politécnica, Universidade of São Paulo São Paulo, SP, Brazil [email protected] Resumo—Redes de computadores orientadas à sustentabilidade tem a capacidade de adaptar dinamicamente os modos de consumo de energia dos dispositivos da rede de acordo com a demanda do tráfego da rede. Porém, quando um dispositivo está no modo de economia a confiabilidade e disponibilidade da rede pode ser altera. Desta forma, esse trabalho apresenta uma ferramenta para medir, com maior precisão, o impacto de aplicar economia de energia. Os resultados mostram que quando o sistema não prioriza disponibilidade e confiabilidade a economia de energia é de 43%, já quando a disponibilidade e confiabilidade são priorizadas, a economia diminui para 27%. Abstract—Sustainability-oriented computer networks have the ability to dynamically adapt the devices’ power mode in accordance with the network traffic, putting them to “sleep”. However, when a device is “sleeping” the reliability and availability of the network can be changed. Thus, this work presents a tool to measure more accurately the impact of applying energy saving. The results show that when the system prioritizes availability and reliability the energy savings are up to 43%. On the other hand, when availability and reliability are prioritized, the savings drop to 27%. são subutilizados e acabam consumindo energia desnecessariamente. Nesse contexto, os dispositivos, na ausência de tráfego, podem ser colocados em um modo de consumo de energia reduzido, a fim de economizar energia. Manter esses dispositivos totalmente desativados não é viável, sendo necessário que o dispositivo possa ser reativado em caso de falha ou sobrecarga na rede. Desta forma, é utilizado um modo intermediário, entre ligado e desligado, que é chamado de “dormindo” ou redundância cold standby. Infelizmente, as abordagens existentes para calcular confiabilidade R(t) e disponibilidade A(t) [8], [9], [10], [11], [12], [13], e [14] não são totalmente adequadas para o contexto de redes de computadores sustentáveis, pois, não considerarem o impacto do tempo de acordar os dispositivos, e a dinamicidade em que as mudanças ocorrem na topologia da rede. Em toda a extensão da pesquisa deste trabalho, não foi encontrado um método que avalia dinamicamente tais efeitos degradadores da QoS, mais especificamente, na R(t) e A(t), no contexto das redes sustentáveis. Portanto, o primeiro objetivos deste trabalho é prover um método capaz de calcular R(t) e A(t), considerando esses requisitos. O segundo objetivo do trabalho é analisar o impacto de colocar os dispositivos em modo “dormente”, mostrando relação de compromisso entre economizar energia e a possível queda na confiabilidade da rede, auxiliando a tomada de decisão de um sistema de gerenciamento de rede. O método proposto e avaliado por esse projeto é chamado REASoN (Avaliação de Confiabilidade e/ou Disponibilidade em Redes de Computadores Sustentáveis). Este método é composto pela combinação hierárquica e extensão de dois métodos vastamente conhecidos na literatura: (1) Modelo de Markov, e (2) Conjunto-Conexo e Conjunto-Desconexo. O primeiro é um método baseado em transições de estados que descreve a probabilidade de sucesso e de falha [8], e foi estendido para considerar o tempo de acordar os dispositivos em modo dormente. Já o segundo representa a probabilidade de existir ao menos um caminho funcional na rede [8]. Para avaliar a relação de compromisso, o REASoN é implementado dentro de um sistema de gerenciamento de rede orientado a sustentabilidade [15], que coordena a rede através de políticas que podem priorizar desempenho, confiabilidade ou eficiência energética entre outros. I. Introdução É esperado que até 2015 o tráfego global da rede escalará exponencialmente, devido ao grande aumento do número de usuários e da largura de banda [1]. Logo, para suprir tal demanda, os Provedores de Serviço de Rede precisam de cada vez mais ampliar sua infraestrutura de rede, tanto em tamanho quanto em complexidade [2]. Tudo isso tem levado ao rápido crescimento do consumo de energia e causado graves problemas, por exemplo, contribuído para a excessiva emissão de dióxido de carbono (CO2 ) [3]. Segundo a Iniciativa Global e-Sustainability, as indústrias compostas por tecnologias de comunicação e informação têm o potencial de redução de 23 a 30% das emissões globais de Gás de Efeito Estufa, através da redução do consumo de energia relacionado a TIC [4], [5]. As redes de computadores são responsáveis pela maior parte do consumo energético relacionado a TIC [4]. Tipicamente, os dispositivos da rede excedem mais que a metade da capacidade da rede [6]. As redes são usualmente construídas com enlaces redundantes, sendo esses enlaces superdimensionados, a fim de acomodar potenciais falhas e sobrecarga na rede [7]. Os dispositivos redundantes são tipicamente mantidos em configuração hot standby, que é o estado no qual os dispositivos estão operando normalmente e com 100% de suas capacidades disponíveis. Esse estado é idealmente para suportar períodos de sobrecarga na rede, na ocorrência de fluxos inesperados. Por outro lado, nos períodos de baixa utilização da rede, esses equipamentos II. Resultados Este trabalho apresenta o resultado de dois experimentos. O primeiro experimento é calculo numérico de um estudo de caso para redes metropolitanas, apresentando comparações entre a confiabilidade calculada pelos métodos padrões e a calculada pelo REASoN. O segundo é um experimento em um cenário real de um sistema de gerenciamento de rede utilizando o REASoN para calcular a confiabilidade da rede e tomando decisões. Para ambos os experimentos o Tempo Médio para Falhar (MTTF) utilizado é de 25 Amaral e Carvalho III. Conclusão 60 mil horas. O Tempo Médio para “acordar” um dispositivo é 15 minutos (tempo para o sistema operacional iniciar e o tempo para os protocolos de rede tornar totalmente operacional). A execução do experimento foi para um intervalo de 70 minutos. Este trabalho mostrou um sistema de gerenciamento de redes, que durante baixa utilização da rede alguns dispositivos são colocados em modo “dormente” para economizar energia. Além disso, esse sistema pode calcular a confiabilidade utilizando o método proposto REASoN, para avaliar o impacto de economizar energia na confiabilidade. Os resultados mostram que quando a confiabilidade é priorizada a economia de energia foi de 27% em vez de 43% quando priorizada a confiabilidade. Desta forma, essa análise é importante para a tomada de decisão de um sistema de gerenciamento de rede orientado a eficiência energética, quando a confiabilidade e a disponibilidade são restrições fortes para a operação da rede. A. Primeiro experimento 0 ,0 0 0 0 0 1 R (t)[R E A S o N ] - R (t)[P a d rã o ] 0 ,0 0 0 0 0 0 -0 ,0 0 0 0 0 1 -0 ,0 0 0 0 0 2 -0 ,0 0 0 0 0 3 -0 ,0 0 0 0 0 4 References -0 ,0 0 0 0 0 5 [1] C. Lange, D. Kosiankowski, R. Weidmann, and A. Gladisch, “Energy consumption of telecommunication networks and related improvement options,” IEEE Journal of Selected Topics in Quantum Electronics, vol. 17, no. 2, pp. 285–295, Apr. 2011. [2] R. B. R. Bolla, F. Davoli, and F. Cucchietti, “Energy efficiency in the future internet: A survey of existing approaches and trends in energyaware fixed network infrastructures,” Communications Surveys Tutorials, IEEE, vol. 13, no. 2, pp. 223–244, 2011. [3] G. Fettweis and E. Zimmermann, “Ict energy consumption trends and challenges.” Lapland, Finland: Proceedings of the 11th International Symposium on Wireless Personal Multimedia Communications (WPMC), 2008. [4] GeSI, “Smart 2020: Enabling the low carbon economy in the information age,” The Climate Group on behalf of the Global eSustainability Initiative (GeSI), Tech. Rep., Jun. 2008. [5] C. Despins, F. Labeau, T. L. Ngoc, R. Labelle, M. Cheriet, C. Thibeault, F. Gagnon, A. Leon-Garcia, O. Cherkaoui, B. St. Arnaud, J. Mcneill, Y. Lemieux, and M. Lemay, “Leveraging green communications for carbon emission reductions: Techniques, testbeds, and emerging carbon footprint standards,” Communications Magazine, IEEE, vol. 49, no. 8, pp. 101 –109, aug. 2011. [6] F. D. R. Bolla, R. Bruschi, K. Christensen, F. Cucchietti, and S. Singh, “The potential impact of green technologies in next-generation wireline networks: Is there room for energy saving optimization?” Communications Magazine, IEEE, vol. 49, no. 8, pp. 80–86, 2011. [7] X. Wang, A. V. Vasilakos, M. Chen, Y. Liu, and T. T. Kwon, “A survey of green mobile networks: Opportunities and challenges,” Mob. Netw. Appl., vol. 17, no. 1, pp. 4–20, 2012. [8] M. L. Shooman, Reliability of Computer Systems and Networks: Fault Tolerance, Analysis, and Design, 1st ed. Wiley-Interscience, Dec. 2001. [9] F. Altiparmak, B. Dengiz, and A. Smith, “Reliability estimation of computer communication networks: ANN models.” Washington, DC, USA: IEEE Computer Society, june-3 july 2003, pp. 1353 – 1358 vol.2. [10] H. Green, J. Hant, and D. Lanzinger, “Calculating network availability.” 2009 IEEE Aerospace conference, Mar. 2009, pp. 1–11. [11] F. He and H. Qi, “A method of estimating network reliability using an artificial neural network,” vol. 2. Pacific-Asia Workshop on Computational Intelligence and Industrial Application, 2008. PACIIA ’08, Dec. 2008, pp. 57–60. [12] Y. F. Lam and V. O. K. Li, “A survey of network reliability modeling and calculations,” vol. 1. IEEE Military Communications Conference - Communications-Computers: Teamed for the 90’s, 1986. MILCOM 1986, Oct. 1986, pp. 1.2.1–1.2.5. [13] C. Lin, H. Teng, C. Yang, H. Weng, M. Chung, and C. Chung, “A mesh network reliability analysis using reliability block diagram.” 2010 8th IEEE International Conference on Industrial Informatics (INDIN), Jul. 2010, pp. 975–979. [14] W. Yeh, Y. Lin, Y. Y. Chung, and M. Chih, “A particle swarm optimization approach based on monte carlo simulation for solving the complex network reliability problem,” IEEE Transactions on Reliability, vol. 59, no. 1, pp. 212–221, Mar. 2010. [15] C. H. A. Costa, M. C. Amaral, G. Januario, T. C. M. B. Carvalho, and C. Meirosu, “SustNMS: towards service oriented Policy-Based network management for Energy-Efficiency.” Pisa, Italy: Second IFIP Conference on Sustainable Internet and ICT for Sustainability (SustainIT 2012) (SustainIT 2012), Oct. 2012. -0 ,0 0 0 0 0 6 T e m p o m é d io p a r a a c o r d a r = 1 5 m im M T T F = 6 0 0 0 0 T a x a d e r e d u n d â n c ia = 5 0 % -0 ,0 0 0 0 0 7 2 0 D is p o s it iv o s , 2 A n e is , 4 C a m in h o s 3 0 D is p o s it iv o s , 3 A n e is , 8 C a m in h o s 4 0 D is p o s it iv o s , 3 A n e is , 1 6 C a m in h o s -0 ,0 0 0 0 0 8 -0 ,0 0 0 0 0 9 0 3 6 9 1 2 1 5 1 8 2 1 2 4 2 7 3 0 T e m p o ( d ia s ) Fig. 1. Diferença entre o calculo da confiabilidade para cold standby realizada pelos métodos padrões e pelo REASoN. As curvas da Figura 1 representam a diferença entre a confiabilidade de uma rede com topologia em anel variando entre 20 a 40 dispositivos, mantendo 50% de redundância, e utilizando o tempo médio para acordar um dispositivo de 15 min. A figura expõe que a confiabilidade da rede calculada pelo método padrão é maior que no REASoN até chegar em torno de 22 dias, mostrando um "pênalti" na confiabilidade ao colocar dispositivos no estado “dormente”. Para o caso de 40 dispositivos, a amplitude do "pênalti" é ≈ −8 × 10−6 a duração de ≈ 20 dias. Já para o caso de 20 dispositivos, a amplitude do "pênalti" é de ≈ −3.2 × 10−6 e a duração de ≈ 20 dias. B. Segundo experimento O experimento consiste em 3 políticas, (1) todos os dispositivos sempre acordados, (2) priorizando desempenho e aceitando perda de confiabilidade, (3) priorizando confiabilidade, porém mantendo confiabilidade da rede a mais alta o possível. 7 0 0 0 P o lític a 1 P o lític a 2 P o lític a 3 C o n s u m o d e e n e r g ia ( W ) 6 0 0 0 5 0 0 0 4 0 0 0 3 0 0 0 2 0 0 0 1 0 0 0 1 0 2 0 3 0 4 0 5 0 6 0 7 0 T e m p o ( m in ) Fig. 2. Consumo energético da rede. A Figura 2 apresenta o consumo de energia para as três políticas. O consumo energético total em Watts/h para 70min de execução da Política 1 é 297kW/h, para a Política 2 é 169kW/h, e para a Política 3 é 216kW/h. Logo, o consumo energético da rede, quando aplicada a Política 2, é 43% menor que o consumo energético da Política 1. Por outro lado, quando a Política 3 está sendo aplicada, o consumo energético é 27% menor que da Política 1. 26 Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP ! # $ " & # ' " % ! () " & # # 8 " " . " % 3 % 6 % +9 6 " - % " !"# % " $ : *+, " - % " - " " / # 2 0 # % % - 0 # ! 2 % 1 0 - % ! *;, 0 #<6 *=, " 7=99 " " % " . - " % *>,8 8 ?# # % " =;99 % 1 3 # % % & " % % 3 - % " *4, % % 0 # " 0 # " " 5 - 3 0 - 1 502 - 3 " % ! @A60 % % " @A60 % " ! - % 50 " % 1 !2 6# *7, 27 ! 5 % ! 5 Schwarz e Carvalho 6 " ! 5 - " / - 3 - % % " 4 7 *;, 9 6!A " 0 # " % D % " % @A60 - 3 - @A60 7 - . . C A 0 6AA 5 0 E+ :4 ' D" D" :+99 D E4 :+ D" E7 D" E+99 D" :7 D" :+99 :7 :+ :4 6 *>, " # 6 ? . .A " % % # 0 A B B " D % " % ? " + % - % " 3 % " % " + - 8 % " " % 3 - 6 % - " 3 # 6 " % 4; F " . 3 : " + B - % % % % 2 ! - % " # 3 - " % @A60 *+, " % @A60 " 4 *4, " % % *7, " % " *;, : *=, 9 1 +2 + 1 - 1 42 " % 7 *>, 28 % 0#3 . !C F HI 1=G9944/49++.72 6 ! % ! B 6 " % # 5 4==J4K9 ! 6 5 4994 0 L : " 0 - 6 < C " 7M142:>GJK; 6 499M 0 . .5 0 - : 0 0 0 0 B # 6 +7 49+4 ! # 0 @ A % # ? 0 499G 0 N O 0 #<6 O# 6 / % 6 0 % 6 499M :// / / / 5 B- Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP 1 Estudo de métodos para escolha de gestos para aplicações em superfícies multi-toque Marylia Gutierrez, Ricardo Nakamura A. Contextualização do Problema Abstract—Com o desenvolvimento de tecnologias de toque e de captura de movimento na área de interface homem–computador, a busca por novos tipos de interface com o usuário se tornou muito importante, com isso foram feitos estudos de novas formas de entrada de dados mais intuitivas e naturais para sistemas digitais, chegando–se na conclusão que os gestos manuais são promissores nessas interfaces. Como a escolha dos gestos manuais nem sempre é intuitiva e existem diferentes tipos para cada aplicação, os usuários agem de formas diferentes, havendo uma necessidade de estudos e análises para determinar a escolha dos gestos. Existem diferentes metodologias possíveis para realizar esta escolha, mas nenhuma consolidada. Esta proposta tem como objetivo o estudo de algumas destas metodologias, afim de analisar os diferentes resultados e as vantagens de cada uma. Com o desenvolvimento de tecnologias de toque e de captura de movimento na área de interface homem–computador, a busca por novos tipos de interface com o usuário se tornou necessária. O estudo de novas formas de entrada mais intuitivas e naturais para sistemas digitais indicou os gestos manuais como promissores nas interfaces homem–computador. Existem muitas formas de gestos e para escolhê-los existem algumas metodologias definidas, como nas Figuras 1 e 2 onde pode-se ver exemplos de metodologias sendo aplicadas, mas não temos uma consolidada, ou seja, não existe uma escolhida como a melhor. Tendemos a pensar que especialistas conseguem elaborar um conjunto de teste mais eficiente e intuitivo, mas existem casos em que gestos criados por usuários comuns foram preferidos [11]. Pode–se inferir por análises teóricas que algum gesto seja melhor (mais rápido, eficiente, menos custoso, etc) que outro, mas se durante um teste percebe–se que um outro gesto considerado ruim teoricamente é o melhor na prática, provavelmente é ele quem será escolhido para o produto final [10]. Usuários podem preferir gestos mais simples (fisicamente fáceis ou que demandem menos esforço cognitivo, como uma mão no lugar de duas ou um dedo no lugar de vários), no lugar dos gestos mais complexos escolhidos por especialistas [11]. Index Terms—Usabilidade, Metodolodia, Gesto, Teste. Abstract—With the development of technologies of touch and motion capture in the area of human-computer interface, the search for new types of interface with the user became very important, studies were done with new forms of input that are more intuitive and natural to digital systems, reaching the conclusion that hand gestures are promising in these interfaces. As the choice of hand gestures are not always intuitive and there are different types for every application, users act in different ways, an there is a need for studies and analyzes to determine the choice of gestures. There are different possible methodologies to make this choice, but no consolidated. This proposal aims to study some of these methodologies, in order to analyze the different results and the advantages of each. Index Terms—Usability, methodology, gesture, test B. Objetivos Pretende-se realizar a comparação de diferentes metodologias para escolha de gestos para aplicação em superfície multitoque. A aplicação dos métodos pode gerar dois possíveis resultados: grupos de gestos semelhantes ou grupos distintos. Caso os resultados sejam distintos, pode-se comparar quais foram as diferenças e o que gerou estas diferenças, no caso em que forem semelhantes, pode-se analisar qual foi mais eficiente, ou seja, mais rápido e barato. Nos dois casos, também pode ser feita uma análise dos gestos escolhidos, se possuem uma boa ergonomia, eficiência e, ao mesmo, tempo não causem problemas como lesões por esforço repetitivo. I. P ROPOSTA DE T RABALHO Esta proposta envolve o estudo comparativo de diferentes metodologias voltadas para a escolha de um grupo de gestos para uma determinada aplicação em mesas interativas (computadores embarcados em um dispositivo fisicamente semelhante a uma mesa, possuindo uma tela de grandes dimensões sensível ao toque como mecanismo principal de interação). Estas mesas possuem pecualiaridades comparadas aos outros dispositivos que também possuem uma tela interativa como forma de entrada, além do mais os gestos podem ser feitos através do toque, acima da mesa ou uma mistura destes dois tipos [7]. O estudo específico de mesas tem crescido continuamente, sendo desenvolvidas diversas formas de aplicações para elas, como: socialização de pacientes, terapia ocupacional, jogos, brain-storming, video–conferências e reuniões [1, 2, 4, 5, 6, 8, 9]. Para cada tipo de aplicação existe uma forma diferente do usuário agir, existindo pesquisas sobre definição dos gestos mais intuitivos para a realização de uma determinada tarefa [3]. II. M ETODOLOGIA Primeiramente será feito um levantamento de metodologias existentes, verificando a possibilidade de organizá-las em grupos. Com estes grupos formados, ou mesmo no caso em que exista uma quantidade não significativa para formar grupos, serão escolhidas algumas metodologias representativas. Cada metodologia escolhida será testada com um grupo diferente de usuários, mas todos os grupos terão características similares para que nenhum teste seja comprometido. Após a 29 Gutierrez e Nakamura 2 O resultado final, e mesmo parcial, poderá ser submetido a alguns veículos de publicação como eventos (Ex: ITS, ICEC e IHC) e revistas (Ex: ACM Transactions on Computer-Human Interaction, Human Computer Interaction e User Modeling and User-Adapted Interaction). IV. R EFERÊNCIAS [1] C. Ackad B. Kummerfeld J. Kay A. Clayphan, A. Collins. Firestorm: a brainstorming application for collaborative group work at tabletops. New York, NY, USA, page 162–171, 2011. [2] P. Olivier A. Kharrufa, D. Leat. Digital mysteries: designing for learning at the tabletop. ACM International Conference on Interactive Tabletops and Surfaces, New York, NY, USA, page 197–206, 2010. [3] U. Hinrichs S. Carpendale. Gestures in the wild: studying multi-touch gesture sequences on interactive tabletop exhibits. New York, NY, USA, pages 3023–3032, 2011. [4] A. Höchtl J. Budzinski H. Reiterer F. Geyer, U. Pfeil. Designing realitybased interfaces for creative group work. New York, NY, USA, page 165–174, 2011. [5] E. Gal P. L. (Tamar) Weiss L. Giusti, M. Zancanaro. Tdimensions of collaboration on a tabletop interface for children with autism spectrum disorder. Proceedings of the 2011 annual conference on Human factors in computing systems, New York, NY, USA, page 3295–3304, 2011. [6] B. Rogers M. Masoodian, S. McKoy. Hands-on sharing: collaborative document manipulation on a tabletop display using bare hands. New York, NY, USA, page 25–31, 2007. [7] S. Greenberg J. A. Jorge N. Marquardt, R. Jota. The continuous interaction space: Interaction techniques unifying touch and gesture on and above a digital surface - INTERACT 2011. (Lisbon, Portugal), 16 pages, September 5-9 [8] C. Valdes T. Feng M. Lintz H. Wang O. Shaer, M. Strait. Enhancing genomic learning through tabletop interaction. Proceedings of the 2011 annual conference on Human factors in computing systems, New York, NY, USA, page 2817–2826, 2011. [9] S. Scott H. Kaufman S. Hunter, P. Maes. Memtable: an integrated system for capture and recall of shared histories in group workspaces. New York, NY, USA, page 3305–3314, 2011. [10] W. F. Tichy. Should computer scientists experiment more? Germany, 1997. [11] M. R. Morris , J. O. Wobbrock , A. D. Wilson Understanding Users’ Preferences for Surface Gestures - WA, USA, 2010. Figure 1. Exemplo de usuário realizando teste para criação de grupo de gestos [11] Figure 2. de gestos Exemplo de usuários utilizando protótipo em papel para criação criação dos gestos, estes serão comparados, sendo utilizada uma porcentagem ainda a determinar para escolher se um grupo é semelhante ou não. Dependendo do resultado será adotada uma metodologia diferente, ou serão analisadas as diferenças ou será analisada a eficiência das metodologias. Independente do resultado, os grupos de gestos serão analisados no que diz respeito a sua ergonomia, ou seja, a qualidade do gesto de forma que seja melhor para o usuário. III. R ESULTADOS E SPERADOS Espera-se que este estudo comparativo contribua para a área, de forma a orientar outros projetos que envolvam criação de aplicações para tabletop, para que consigam escolher o método mais adequadro para a aquisição do grupo de gestos a ser utilizado. 30 Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP An evaluation of multi-touch gesture recognizers on interactive tables Mauricio Cirelli Ricardo Nakamura Escola Politécnica - Universidade de São Paulo Email: [email protected] Escola Politécnica - Universidade de São Paulo Email: [email protected] Abstract—In order to provide custom gestures to a specific application, developers are often requested to deal with raw touch input information at a very low level. There are several approaches to simplify this task, such as defining multi-touch gestures using formal languages or training a recognition algorithm by demonstration. Each of these techniques has its own strenghts and weaknesses, which makes them more or less suitable for a given set of gestures or a given set of applications. This suggests that it is still an area for further investigations and improvements. The goals of this research are to quantitatively evaluate state-of-art gestures recognition systems and study how different recognizers could work together in order to improve the recognition speed and accuracy. I. I NTRODUCTION Touch-enabled computers, tablets, smartphones and interactive tables are examples of devices which users can interact with using pen or finger gestures [1]. Interaction designers study how users interact with these devices and which gestures are the most natural for a specific application and rely on an efficient gestures recognition system in order to make these gestures available to the application. Multi-touch gestures may be classified into two categories: symbolic and direct manipulation gestures [2]. The former category contains gestures defined by their trajectory and they represent something as a context-dependent sign. The same gestures may have no meaning if performed in other contexts. The latter are the most common gestures for direct manipulation of interface objects, like moving or rotating an image in a picture viewer application [3] or sharing ideas in a brainstorming activity [4]. They are used in many different applications and, thus, are weakly dependent on the application’s context. II. designers, because they can define new gestures by executing them directly in a multi-touch surface. The system captures touch information and stores it in order to configure a recognition algorithm. Several gestures recognition systems have been proposed, such as the Dollar-family algorithms [10], [11] and Lü’s and Li’s [12] Gesture Coder. Current state of the art studies on tabletop interaction lack of a widely-accepted benchmark of multi-touch gestures, which would be useful to compare different recognizers quantitatively. Defining such benchmark is a very challenging task: several user experiments with many different applications should be performed in order to detect if there is a set of common gestures, which of them are relevant for evaluating a recognition system’s performance and which variables are relevant to compare different recognizers. Despite of being able to quantitatively evaluate different recognizers, they would still have their own strenghts and weaknesses, which makes them more or less suitable for a given application. An application would benefit from using more than one recognizer at the same time, collaboratively improving the recognition and opening up a wider range of interaction possibilities, as shown in Figure 1. Using more than one gestures recognition method brings other benefits: 1) 2) 3) R ELATED W ORK In our literature review, we have identified several gesture recognition approaches, such as using formalisms to define a multi-touch gesture. Proton++, are frameworks for defining and recognizing multi-touch gestures based on a regular language, in which each low-level touch event is mapped to a symbol. A string of symbols is processed by an automaton, generating the gesture event. [5]. Kammer et al formalized multi-touch gestures based on semiotics [6]. Context-free grammars [7] and finite automata [8] have already been used to define multi-touch gestures. Another approach to create custom gestures is by demonstration [9]. This technique is more suitable for interface 31 They can be very specialized in a set of gestures, which means that they would be very efficient on recognizing a very small set of gestures. Each of them, working collaboratively, would provide all gestures an application may need Different algorithms could be implemented modularly, without the need to integrate all of them into a single recognition system Different algorithms could be used in order to recognize the same set of gestures and relying on another decision process to determine which gesture is the most probable one III. P ROPOSAL As different gesture recognizers have different capabilities and may be more suitable to a different set of gestures, we propose a study to quantitatively evaluate their accuracy and recognition speed in a common benchmark of multitouch gestures. In order to achieve this goal, we are going to develop this benchmark and run several experiments using the cross-validation method. We are also going to study how Cirelli e Nakamura In order to answer these questions we propose a layered and modular gestures recognition system, adding a decisionmaking component, which is able to solve ambiguities and divergences from the recognition algorithms, and a benchmark of multi-touch gestures which would allow tabletop and interaction researchers to compare different gesture recognition systems and help them to decide which is more suitable to their application. R EFERENCES Fig. 1: Gestures recognizers capabilities [1] different recognizers can work together in order to improve the recognition accuracy and speed. We propose a layered architecture which includes different gesture’s recognizers and a decision-making layer (Figure 2). Each recognition machine (RM) implements a different algorithm and is specialized for a given set of gestures. The classification results from each RM are post-processed by a decision layer, which is able to solve any divergence between the recognition machines and select the best classification. [2] [3] [4] [5] [6] [7] [8] [9] [10] Fig. 2: Multiple Recognizers Architecture IV. [11] C ONCLUSION In this paper we have proposed a research on gestures recognition systems which is aimed to answer to two related questions: 1) 2) How different gestures recognition systems can be compared to each other? How different gestures recognition systems can work together in order to improve the overall recognition quality and allow interaction designers to use a wider range of gestures in their applications? 32 [12] K. Hinckley, G. Ramos, F. Guimbretiere, P. Baudisch, and M. Smith, “Stitching: pen gestures that span multiple displays,” in Proceedings of the working conference on Advanced visual interfaces, ser. AVI ’04. New York, NY, USA: ACM, 2004, p. 2331. [Online]. Available: http://doi.acm.org/10.1145/989863.989866 J. O. Wobbrock, M. R. Morris, and A. D. Wilson, “User-defined gestures for surface computing,” in Proceedings of the SIGCHI Conference on Human Factors in Computing Systems, ser. CHI ’09. New York, NY, USA: ACM, 2009, p. 10831092. [Online]. Available: http://doi.acm.org/10.1145/1518701.1518866 M. R. Morris, A. Huang, A. Paepcke, and T. Winograd, “Cooperative gestures: multi-user gestural interactions for co-located groupware,” in Proceedings of the SIGCHI conference on Human Factors in computing systems, ser. CHI ’06. New York, NY, USA: ACM, 2006, p. 12011210. [Online]. Available: http://doi.acm.org/10.1145/1124772.1124952 A. Clayphan, A. Collins, C. Ackad, B. Kummerfeld, and J. Kay, “Firestorm: a brainstorming application for collaborative group work at tabletops,” ser. ITS ’11. New York, NY, USA: ACM, 2011, p. 162171. [Online]. Available: http://doi.acm.org/10.1145/2076354.2076386 K. Kin, B. Hartmann, T. DeRose, and M. Agrawala, “Proton++: a customizable declarative multitouch framework,” in Proceedings of the 25th annual ACM symposium on User interface software and technology, ser. UIST ’12. New York, NY, USA: ACM, 2012, p. 477486. [Online]. Available: http://doi.acm.org/10.1145/2380116.2380176 D. Kammer, J. Wojdziak, M. Keck, R. Groh, and S. Taranko, “Towards a formalization of multi-touch gestures,” ser. ITS ’10. New York, NY, USA: ACM, 2010, p. 4958. [Online]. Available: http://doi.acm.org/10.1145/1936652.1936662 S. H. Khandkar and F. Maurer, “A domain specific language to define gestures for multi-touch applications,” in Proceedings of the 10th Workshop on Domain-Specific Modeling, ser. DSM ’10. New York, NY, USA: ACM, 2010, p. 2:12:6. [Online]. Available: http://doi.acm.org/10.1145/2060329.2060339 C. Appert and M. Beaudouin-Lafon, “SwingStates: adding state machines to java and the swing toolkit,” vol. 38, no. 11, p. 11491182, Sep. 2008. [Online]. Available: http://dx.doi.org/10.1002/spe.v38:11 D. Rubine, “Specifying gestures by example,” vol. 25, no. 4, p. 329337, Jul. 1991. [Online]. Available: http://doi.acm.org/10.1145/127719.122753 J. O. Wobbrock, A. D. Wilson, and Y. Li, “Gestures without libraries, toolkits or training: a $1 recognizer for user interface prototypes,” in Proceedings of the 20th annual ACM symposium on User interface software and technology, ser. UIST ’07. New York, NY, USA: ACM, 2007, p. 159168. [Online]. Available: http://doi.acm.org/10.1145/1294211.1294238 L. Anthony and J. O. Wobbrock, “$N-protractor: a fast and accurate multistroke recognizer,” in Proceedings of Graphics Interface 2012, ser. GI ’12. Toronto, Ont., Canada, Canada: Canadian Information Processing Society, 2012, p. 117120. [Online]. Available: http://dl.acm.org/citation.cfm?id=2305276.2305296 H. L and Y. Li, “Gesture coder: a tool for programming multi-touch gestures by demonstration,” in Proceedings of the 2012 ACM annual conference on Human Factors in Computing Systems, ser. CHI ’12. New York, NY, USA: ACM, 2012, p. 28752884. [Online]. Available: http://doi.acm.org/10.1145/2208636.2208693 Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP Gerenciamento de credenciais para computação em nuvem Aluno: Nelson Mimura Gonzalez Orientadora: Prof. Dr. Tereza Cristina Melo de Brito Carvalho Laboratório de Arquitetura e Redes de Computadores Escola Politécnica, Universidade de São Paulo, Brasil {nmimura, carvalho}@larc.usp.br Resumo—O principal obstáculo ao adotar um solução de computação em nuvem é segurança, incluindo isolamento de recursos, controle de acesso, e proteção de dados sigilosos. Mecanismos de autenticação, autorização, e contabilização são fundamentais para identificar entidades, definir permissões, e analisar o uso de recursos e serviços. Estes mecanismos podem ser implementados usando credenciais, que definem o que a entidade pode fazer, quais regras ela deve obedecer, e quais são os atributos relevantes para identificá-la e administrá-la. Este trabalho apresenta um arquitetura para gerenciamento de credenciais em ambientes de computação em nuvem. Ela define módulos para autenticação, autorização, e contabilização, e também define pontos de integração para permitir que uma solução baseada nesta arquitetura possa ser associada a outras ferramentas e soluções de nuvem existentes. Comparado com o ano anterior, foi desenvolvido um arcabouço e uma arquitetura de gerenciamento de credenciais, bem como um protótipo para analisar os modelos propostos. the usage of resources and services. These mechanisms can be implemented using credentials, which define what the entity is allowed to do, what rules it has to comply with, and what are the important attributes to identify and manage it. This work presents a credential management architecture for cloud computing. It defines modules for AAA, and integration points to allow a credential solution (based on the proposed architecture) to be associated with an existing cloud application or service. Compared to last year, it was proposed in the research a framework and an architecture for credential management, as well as a prototype to test the proposed models. I. OBJETIVOS E MOTIVAÇÃO O modelo de computação em nuvem permite maximizar o aproveitamento dos recursos alocados, reduzindo custos e otimizando a utilização da infraestrutura oferecida [1]. Contudo, alguns percalços impedem sua adoção de maneira mais extensiva pelo mercado. O mais notável destes obstáculos é a segurança dos elementos que compõem o ecossistema da nuvem [2], abrangendo não apenas a infraestrutura oferecida como serviço, mas também a plataforma sobre a qual aplicações são desenvolvidas e as entidades deste ecossistema. Abstract—The main concern related to cloud computing technology is security, which includes resource isolation, access control, and protection of sensitive data. Authentication, authorization, and accounting (AAA) mechanisms are fundamental to identify entities, define permissions, and assess Fig. 1. Arcabouço de gerenciamento de credenciais para computação em nuvem 33 Gonzalez e Carvalho Questões como isolamento de recursos, confidencialidade e integridade de dados podem ser solucionadas através de mecanismos inteligentes de controle de autenticação e autorização (acesso) [3]. Uma maneira de implementar estes mecanismos é através de credenciais que concentrem informações sobre estas entidades e seus papéis dentro do contexto da nuvem, estabelecendo as permissões, obrigações e dados relevantes. Este trabalho tem como objetivo propor um arcabouço de gerenciamento de credenciais e, posteriormente, construir uma arquitetura para autenticação e autorização em computação em nuvem. Para isto é realizado um estudo sobre as principais características de computação em nuvem, os problemas de segurança encontrados e as respectivas relevâncias dentro do cenário de cloud. Posteriormente é realizado um estudo do estado da arte em termos de gerenciamento de credenciais e identidades. Com os conceitos consolidados é possível identificar os pontos que podem ser cobertos pela arquitetura proposta, culminando na criação de um protótipo ou prova de conceito para verificar a aplicabilidade da mesma. Fig. 2. Proposta de arquitetura de gerenciamento de credenciais O protótipo implementado foi integrado ao OpenStack, uma ferramenta de código aberto para construção de nuvens. Foram desenvolvidas diversas integrações com os serviços do OpenStack, em particular com o serviço Keystone, que provê autenticação básica para usuários da nuvem. O SGC implementado permitiu o estabelecimento de canais seguros de comunicação para a troca de credenciais (que originalmente era feita de maneira insegura). Também foi implementado um modelo hierárquico de credenciais para controle de acesso aos recursos e serviços oferecidos pelo OpenStack. Este modelo permite estabelecer regras para cada usuário, bem como genéricas para a nuvem como um todo, e também regras específicas para cada serviço ou para cada chamada de função. II. CONCEITOS E ARCABOUÇO PROPOSTO O modelo de computação em nuvem é definido pelo NIST (National Institute of Standards and Technology) através das seguintes características [1]: self-service sob demanda, acesso ubíquo via rede, recursos e serviços compartilhados, elasticidade, e balanceamento de carga e monitoração. O NIST também define três tipos de serviços: SaaS (software como serviço), aplicações oferecidas através da nuvem; PaaS (plataforma como serviço), plataformas para desenvolvimento e hospedagem de aplicações; e IaaS (infraestrutura como serviço), acesso direto a recursos computacionais IV. CONCLUSÃO A pesquisa revelou que um sistema robusto para autenticação e autorização permite resolver diversos problemas de segurança dentro da nuvem. Inicialmente foi elaborado um arcabouço para concentrar os conceitos necessários para o desenvolvimento de uma solução de gerenciamento de credenciais, o que culminou na definição de uma arquitetura e finalmente o protótipo do sistema de gerenciamento de credenciais (SGC). A credencial é uma coleção de atributos relativos a uma entidade específica. São propostas três categorias para classificar estas credenciais: metadados (informações sobre a entidade), permissões (o que a entidade pode fazer), e obrigações (regras que a entidade deve cumprir). Com base nestes conceitos foi desenvolvido o arcabouço de gerenciamento de credenciais apresentado na Figura 1. Ele concentra conceitos importantes ao adotar ou desenvolver uma solução de gerenciamento de credenciais para computação em nuvem, como os tipos de credenciais, o ciclo de vida das mesmas, os tipos de entidades a serem controladas, os requisitos de segurança da aplicação [4], e as características da nuvem (tipo de serviço e modelo de organização). III. Com relação à trabalhos futuros, o objetivo é finalizar o texto da dissertação e encaminhar a defesa de mestrado, visto que a pesquisa já se encontra consolidada. REFERENCES [1] ARQUITETURA PROPOSTA E PROTÓTIPO [2] Com base nos conceitos de credenciais levantados, propõese o modelo para implementação de um Sistema de Gerenciamento de Credenciais (SGC) apresentado na Figura 2. O receptor e o despachador são elementos que permitem a integração com outros serviços e soluções de nuvem. Há também módulos específicos para autenticação, autorização, e contabilização do uso de recursos e serviços. Também são definidos elementos para comprovação de atributos, emissão de credenciais e controle das mesmas. Finalmente, um daemon permite o controle transparente do sistema como um todo. [3] [4] 34 P. Mell and T. Grance, “The NIST Definition of Cloud Computing,” NIST Special Publication 800-145, p. 7, Setembro 2011. M. Armbrust, A. Fox, R. Griffith, A. D. Joseph, R. Katz, A. Konwinski, G. Lee, D. Patterson, A. Rabkin, I. Stoica et al., “Above the clouds – a view of cloud computing,” Technical report, Tech. Rep., 2010. A. Celesti, F. Tusa, M. Villari, and A. Puliafito, “How to enhance cloud architectures to enable cross-federation,” in Cloud Computing (CLOUD), 2010 IEEE 3rd International Conference on. IEEE, 2010, pp. 337–345. N. M. Gonzalez, C. C. Miers, F. Redígolo, M. Simplício, T. Carvalho, M. Näslund, and M. Pourzandi, “A quantitative analysis of current security concerns and solutions for cloud computing,” Journal of Cloud Computing: Advances, Systems and Applications, 2012. Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP McEliece Cryptossytem in Hardware with binary QuasiDyadic Goppa Codes Pedro Maat C. Massolino and Wilson Vicente Ruggiero Department of Computer Engineering and Digital Systems (PCS), Escola Politécnica, University of Sao Paulo, Brazil. {pmassolino,wilson}@larc.usp.br Abstract—Public key cryptographic primitives are essential to enable secure communications on public networks or public mediums. Those cryptographic primitives can be deployed as software libraries or hardware coprocessors. Hardware coprocessors are mostly employed in Systems on Chip (SoC) scenarios, embedded devices, or application-specific servers. Available solutions based on RSA or Elliptic Curve Cryptography (ECC) are highly processing-intensive because of the underlying extended precision modular arithmetic, and as consequence they are not available on the most constrained platforms. For this reason we investigate another public key encryption scheme implementable with lightweight arithmetic, the code based McEliece scheme. Because of the simpler arithmetic it has better timing results when compared to RSA or ECC. With the adoption of QuasiDyadic Goppa (QD-Goppa) codes it is possible to attain practical security levels with reasonably small keys. To evaluate the implementation of this scheme in hardware, we are investigating a scalable architecture that can be reconfigured according to project requirements. This architecture is suitable for all usual security levels, from 80 to 256-bit security. I. I NTRODUCTION Error correcting codes have been widely used in electromagnetic communications over the air or space, and in media devices, such as Compact Discs, DVD’s or memory cards. Another application for error correcting codes is cryptography [1]. Cryptography is essential to keep data confidentiality and integrity in a world where almost all information has been digitized. Cryptography algorithms for confidentiality can have one secret key, that must be common to involved parties, or two keys with public key algorithms. In a public key algorithm for confidentiality a public key is used for data encryption, while a private key is used for data decryption. With these two keys settings, any person with the public key can send a confidential message to the respective owner of the private key. Public key algorithm McEliece [1] is based on the difficulty to decode generic error correcting codes. It was proposed with binary Goppa codes around the same time of RSA [2], because of large public keys it did not receive much attention. To reduce public key size, a subset of Goppa codes called Quasi-Dyadic Goppa (QD-Goppa) codes [3] were selected to be used. In QD-Goppa codes, the public key is a quasi-dyadic matrix. Quasi-dyadic matrices are composed of several dyadic matrices, which can be stored only by their first row. With their internal matrices being stored with only their first row is possible to compact the public key for storage or transmission. Software implementation results of McEliece with binary 35 QD-Goppa codes on computers [4] and microcontrollers [5] were made. On the other hand, hardware implementations were made for binary Goppa codes [6] [7] [8] that could work with QD-Goppa codes, but do not profit from QD-Goppa specific structure. Also, almost all those hardware implementations are in the respect of one parameter for security level of 80-bits presented in [9]. Shoufan et al. [7] has changed one part of the 80-bits parameter and becoming 103-bits security level, but not considering newer attacks. Our work fills the gap of hardware implementations of McEliece cryptossytem with binary QD-Goppa codes. Also, we intended to implement these codes for 80, 112, 128 and 256-bits security level to analyze possible future usages. II. E NCRYPTION AND D ECRYPTION A LGORITHMS McEliece with binary QD-Goppa codes have as public key the quasi-dyadic matrix A and as private keys the array L and polynomial g. Private key polynomial g is only used to compute array d[i] = (g 2 (L[i]))−1 . To reduce decryption computational cost we are using d and L as private keys. In Figure 1 are depicted McEliece encryption and decryption algorithms flows. In this figure circle represent steps of algorithm and boxes represents data. Boxes with dashed lines are the input of algorithm, while full boxes are the output of the steps. Public key A is represented as box with erasure and private key is represented as a box with dots. McEliece encryption algorithm has two steps: “Codeword calculation” and “Error addition”. In “Codeword calculation” step, the algorithm generates a codeword by copying the entire plaintext and padding with the multiplication of matrix A with the plaintext. “Error addition” step adds both error and codeword arrays together, thusly generating the ciphertext. The error array is generated randomly during encryption to be added on the codeword, to not make it entirely visible. The error array has small number of random positions with 1 and remaining 0. While McEliece encryption algorithm is very straightforward, decryption algorithm is more complex and have more than one type [10]. Our implementation will be based on alternant algorithm [10]. McEliece decryption with alternant algorithm has three main steps: “Syndrome calculation”, “Find key equation” and “Roots search”. “Syndrome calculation” step multiply the ciphertext array by matrix v, interpreted as an array of arrays, and array d to generate the syndrome. Matrix v is a Vandermonde matrix Massolino e Ruggiero TABLE I. M C E LIECE WITH BINARY QD-G OPPA RESULTS IN X ILINX S PARTAN -3AN, F REQUENCY 100M HZ AND T IME IN MICRO SECONDS Sec. level 80 112 128 256 (a) Encryption Algorithm (b) Decryption Algorithm defined by the support values L. v can be generated on the fly or precomputed during key generation. For generating v on the fly it has a special structure, where the next line is one exponent greater than the line before. After those calculations, the generated syndrome is inverted so it can be used in “Find Key Equation”. “Find key equation” step is an extended euclidean algorithm for polynomials, that stops in the middle of calculation. The algorithm takes the syndrome array and interpret it as a polynomial of the same degree of the syndrome array size minus one, known as a. Also initialize auxiliary polynomials b = x(syndrome array size) , c = 0, l = 1. This algorithm in each step computes a multiplying factor h to reduce the polynomial a by the polynomial b in one coefficient. This multiplying factor h is also used in polynomial c and subtracted from polynomial l. When polynomial a is smaller than b, both and l and c change places with each other. When polynomial b has degree less than half of original polynomial a degree, the algorithm stops and result σ is in polynomial c. “Roots search” step is a brute force search for the roots of polynomial σ. In this step all support values L are evaluated in σ, and each value Li that is a root, indicates an error in position i of the ciphertext. Big Decryption Slices Time 5970 150 5950 363 5948 405 6234 1875 ACKNOWLEDGMENT This work has been supported by the Intel Lab’s University Research Office. R EFERENCES [1] [2] [3] [4] [5] [6] [7] M ETHODOLOGY The methodology adopted is divide and conquer. Both algorithms are divided in steps, and each step has it is own projected circuit. The step circuits are not projected to operate in pipeline fashion, so only after all steps are computed it can start a new encryption or decryption. All circuits are projected to operate independently and values for it is own calculation must be available during all calculation process. All circuits were designed to be parametric in area occupied, except “Find Key Equation”, in order to use parallelism in operations. IV. Encryption Slices Time 514 25 640 32 641 40 675 140 results for occupied space and time are in Table I. In the results are shown two strategies of circuit construction, to demonstrate tradeoff of area and time. In encryption from the small setting to big setting area doubles, but time decreases much more than double. This effect is caused, because in the small area setting the circuit control occupies a lot of the total area, in bigger area settings the circuit control simplifies a lot, so the area becomes a lot less. Fig. 1. McEliece encryption/decryption algorithm flow for QD-Goppa codes III. Small Encryption Decryption Slices Time Slices Time 243 650 1949 631 392 1113 2330 1196 393 1391 2329 1389 696 6242 3227 5269 F INAL R ESULTS [8] [9] [10] For comparison and results, the architecture is described in VHDL and synthesized in Xilinx ISE for Spartan-3AN. Final 36 R. McEliece, “A Public-Key Cryptosystem Based On Algebraic Coding Theory,” Deep Space Network Progress Report, vol. 44, pp. 114–116, jan 1978. R. L. Rivest, A. Shamir, and L. Adleman, “A method for obtaining digital signatures and public-key cryptosystems,” Commun. ACM, vol. 21, no. 2, pp. 120–126, feb 1978, http://doi.acm.org/10.1145/ 359340.359342. R. Misoczki and P. Barreto, “Compact McEliece Keys from Goppa Codes,” in Selected Areas in Cryptography, ser. Lecture Notes in Computer Science, M. Jacobson, V. Rijmen, and R. Safavi-Naini, Eds. Berlin, Germany: Springer Berlin / Heidelberg, 2009, vol. 5867, pp. 376–392, http://dx.doi.org/10.1007/978-3-642-05445-7_24. G. Hoffmann, “Implementation of McEliece using quasi-dyadic Goppa codes,” bachelor Thesis. http://www.cdc.informatik.tu-darmstadt.de/ reports/reports/Gerhard_Hoffmann.bachelor.pdf. S. Heyse, “Implementation of mceliece based on quasi-dyadic goppa codes for embedded devices,” in Post-Quantum Cryptography, ser. Lecture Notes in Computer Science. Springer Berlin Heidelberg, 2011, vol. 7071, pp. 143–162, http://dx.doi.org/10.1007/978-3-642-25405-5_10. T. Eisenbarth, T. Güneysu, S. Heyse, and C. Paar, “MicroEliece: McEliece for Embedded Devices,” in Cryptographic Hardware and Embedded Systems - CHES 2009, ser. Lecture Notes in Computer Science, C. Clavier and K. Gaj, Eds. Berlin, Germany: Springer Berlin / Heidelberg, 2009, vol. 5747, pp. 49–64, http://dx.doi.org/10. 1007/978-3-642-04138-9_4. A. Shoufan, T. Wink, H. Molter, S. Huss, and E. Kohnert, “A Novel Cryptoprocessor Architecture for the McEliece Public-Key Cryptosystem,” IEEE Transactions on Computers, vol. 59, no. 11, pp. 1533 –1546, 2010, http://dx.doi.org/10.1109/TC.2010.115. S. Ghosh, J. Delvaux, L. Uhsadel, and I. Verbauwhede, “A Speed Area Optimized Embedded Co-processor for McEliece Cryptosystem,” in 23rd IEEE International Conference on Application-specific Systems, Architectures and Processors (ASAP 2012). New York City - USA: IEEE, 2012, https://lirias.kuleuven.be/handle/123456789/349577. D. Bernstein, T. Lange, and C. Peters, “Attacking and Defending the McEliece Cryptosystem,” in Post-Quantum Cryptography, ser. Lecture Notes in Computer Science, J. Buchmann and J. Ding, Eds. Berlin, Germany: Springer Berlin / Heidelberg, 2008, vol. 5299, pp. 31–46, http://dx.doi.org/10.1007/978-3-540-88403-3_3. W. C. Huffman and V. Pless, Fundamentals of Error-Correcting Codes. Cambridge, England: Cambridge University Press, 2003. Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP Utilização de Atributos do Estado no Mapeamento de Ações entre Soluções de Diferentes Problemas Rafael Lemes Beirigo Anna Helena Reali Costa Escola Politécnica Universidade de São Paulo São Paulo, São Paulo, Brasil Email: [email protected] Escola Politécnica Universidade de São Paulo São Paulo, São Paulo, Brasil Email: [email protected] Resumo—Para contornar o lento processo envolvido no Aprendizado por Reforço, por este se dar na base da tentativa e erro, podem ser utilizadas técnicas de Transferência de Conhecimento, onde o Keepaway é muitas vezes utilizado como plataforma de avaliação de novas técnicas. O presente trabalho propõe e avalia uma estratégia de mapeamento de ações que utiliza atributos presentes na descrição fatorada dos estados dos problemas envolvidos, visando reaproveitar o conhecimento adquirido em um problema na solução de um novo problema similar. Os resultados preliminares alcançados sugerem a viabilidade dessa estratégia no reuso de conhecimento. I. I NTRODUÇÃO No Aprendizado por Reforço (em inglês, Reinforcement Learning (RL)) [1], um agente busca maximizar uma medida de desempenho que reflete as recompensas acumuladas em sua interação com o ambiente. Como esse processo se dá por tentativa e erro, ele pode ser muito demorado. Para contornar esse problema, utiliza-se Transferência de Conhecimento (TC) [2], onde o conhecimento adquirido na solução de um problema pode ser aplicado para acelerar o aprendizado em um problema similar. Para que a transferência seja possível, pode ser necessário um mapeamento entre as tarefas envolvidas, no qual são utilizados elementos da descrição dos estados e ações do ambiente de aprendizado. O Keepaway [3] é frequentemente utilizado como plataforma para estudos de TC, entretanto com um foco mais acentuado no mapeamento de estados, como apresentado em [4], [5]. A descrição das ações do Keepaway depende diretamente da situação dos agentes envolvidos, que por sua vez está relacionada a atributos presente na descrição fatorada dos estados do problema. Neste trabalho, propõe-se a utilização desses atributos de forma a auxiliar no mapeamento entre as ações de diferentes políticas de atuações em jogos do Keepaway, e com isso melhorar o desempenho no aprendizado que utiliza TC. São apresentados resultados iniciais que sugerem a viabilidade da estratégia proposta. II. M ETODOLOGIA E D ESENVOLVIMENTO No simulador Keepaway [3], os jogadores, keepers e takers, competem pela posse de bola, inicialmente dada aos keepers. O objetivo dos keepers é aprender uma estratégia de jogo que maximize a duração da posse de bola. Cada keeper é referenciado por ki , onde i varia de 1 ao número total de 37 Figura 1. Exemplo de uma situação no jogo 3vs2 no simulador Keepaway (amarelos são keepers e azuis, takers) keepers e aumenta com a distância do keeper à bola. Assim, em um jogo de 3 keepers contra 2 takers, 3vs2, k1 é o keeper mais próximo da bola e k3 , o mais distante, como mostrado na figura 1. Neste trabalho, a TC foi proposta da seguinte maneira: inicialmente os keepers realizam um aprendizado em um jogo 3vs2, aprendendo uma política de atuação π3vs2 , que define otimamente qual ação deve ser aplicada em cada situação de jogo st , isto é, π3vs2 (st ) = at . Após isso, o conhecimento adquirido é usado em um novo jogo 4vs3, onde o keeper k4 , além do próprio k3 , recebe o conhecimento adquirido pelo k3 no jogo anterior. Formalmente, cada vez que um estado stnew é observado no novo jogo, aplica-se uma função que mapeia o estado do novo problema (4vs3) em um estado do problema conhecido (3vs2), definida por ξS : Snew → Sold , com stnew ∈ Snew . Assim, a política conhecida π3vs2 define a ação que deverá ser executada π3vs2 (ξS (stnew )) = aold Um mapeamento das ações é definido pela função ξA : Aold → Anew , com aold ∈ Aold e Anew o conjunto de ações no jogo 4vs3. Como nem sempre os problemas possuem as mesmas ações, torna-se necessário uma estratégia de mapeamento que reflita as características específicas dos domínios de aprendizado. No Keepaway, no momento de executar a ação, cada Beirigo e Costa Figura 2. Formas distintas de mapeamento entre ações keeper pode escolher entre manter a posse de bola ou tocar para um de seus companheiros de time. Dessa forma, quando passamos de uma versão 3vs2 para 4vs3 o conjunto de ações possíveis, antes A3vs2 = {hold, passk2 , passk3 }, recebe uma nova ação, passar para o quarto keeper, ficando A4vs3 = {hold, passk2 , passk3 , passk4 }. Assim, Aold = A3vs2 e Anew = A4vs3 e uma definição frequentemente utilizada é utilizar a função identidade para as ações hold e passk2 e mapear a ação aold = passk3 para passk3 e passk4 , executando cada uma dessas ações 50% das vezes segundo uma distribuição uniforme, referenciada nesse trabalho por FF. A intuição por trás desse mapeamento pode ser explicada pelo fato de que o keeper k4 é o companheiro de time mais distante do keeper que tem a posse de bola em um jogo 4vs3, da mesma maneira que k3 o é em um jogo 3vs2, sugerindo o mapeamento de forma natural, sendo esse mapeamento frequentemente utilizado na literatura [4], [5]. A proposta deste trabalho utiliza o fato de que um atributo utilizado na descrição dos estados é a distância à bola [3] e as ações a serem aplicadas dependem diretamente dessa classificação. Dessa maneira, foi testada uma nova estratégias de mapeamento de ações, em que a função ξA é uma probabilidade relacionada à distância dos keepers à bola, e contemplam o mapeamento da ação passk3 do jogo 3vs2 em passk3 e passk4 do jogo 4vs3, como realizado mais comumente na literatura [4], [5]. A estratégia de mapeamento analisada utiliza o inverso quadrático da distância à bola para a obtenção da probabilidade de mapeamento p segundo a −2 fórmula p(passki ) = Pd(i) , onde d(i) é a distância do d(j)−2 Figura 3. representada pela estratégia FF, corroborando com o fato de que é necessário utilizar uma estratégia mais sofisticada para a escolha de quando executar ou não a ação passk4 . Apesar de haver sobreposição de barras de erros entre os desempenhos de IQ e FF, a diferença entre eles parece significativa, e pretendese como próximo passo a realização de análise estatística com ferramental mais sofisticado para avaliar de forma mais contundente a qualidade da aplicação da estratégia proposta. Os resultados obtidos sugerem que a utilização de atributos presentes na descrição fatorada de estados do ambiente no mapeamento entre tarefas que possuem conjuntos de ações distintos pode implicar em uma melhora no desempenho da transferência de conhecimento. Futuramente pretende-se avaliar outras estratégias, também em outros domínios, buscando verificar sua aplicabilidade em diferentes classes de problemas. AGRADECIMENTOS j keeper ki à bola. Assim, o mapeamento sugerido é estocástico, incluindo todos os jogadores, com probabilidade de passe p(passki ), a qual depende da situação atual do jogo para ser definida. Outras propostas podem ser exploradas. III. Desempenho das Estratégias de Mapeamento Agradecemos ao apoio fornecido pela CNPq Procs. Ns. 311058/2011-6 e 153547/2012-0 e FAPESP Proc. N. 2011/19280-8. R ESULTADOS E D ISCUSSÃO R EFERÊNCIAS A figura 3 mostra a duração média da posse de bola em um jogo 4vs3 utilizando a política π3vs2 aprendida no jogo 3vs2, usando ξS que define o estado st3vs2 ignorando os elementos mais distantes no jogo 4vs3 (keeper k4 e taker t3). Duas formas de mapeamento de ações ξA foram avaliadas: FF, que realiza o mapeamento segundo uma probabilidade fixa e IQ, que utiliza um atributo da descrição dos estados do ambiente para refinar o mapeamento, conforme ilustra a figura 2. Os resultados apresentados correspondem à média do desempenho da aplicação de TC em 100 jogos 4vs3, cada um com duração de 900 episódios. Os resultados apresentados na figura 3, sugerem que a escolha puramente aleatória de ações perde em desempenho, 38 [1] [2] [3] [4] [5] R. S. Sutton and A. G. Barto, Reinforcement learning: An introduction. Cambridge Univ Press, 1998. M. E. Taylor and P. Stone, “Transfer learning for reinforcement learning domains: A survey.” The Journal of Machine Learning Research, vol. 10, pp. 1633–1685, 2009. P. Stone, R. Sutton, and S. Singh, “Reinforcement learning for 3 vs. 2 keepaway,” in RoboCup 2000: Robot Soccer World Cup IV, ser. Lecture Notes in Computer Science, P. Stone, T. Balch, and G. Kraetzschmar, Eds. Springer Berlin Heidelberg, 2001, vol. 2019, pp. 249–258. M. E. Taylor, P. Stone, and Y. Liu, “Transfer learning via inter-task mappings for temporal difference learning,” Journal of Machine Learning Research, vol. 8, no. 1, pp. 2125–2167, 2007. G. Konidaris, I. Scheidwasser, and A. Barto, “Transfer in reinforcement learning via shared features,” The Journal of Machine Learning Research, pp. 1333–1371, 2012. Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP Modelo em Rede de Petri Colorida para o padrão IEEE 802.15.4 Renan C. A. Alves Cíntia Borges Margi Escola Politécnica – Universidade de São Paulo São Paulo, Brazil Email: [email protected] Escola Politécnica – Universidade de São Paulo São Paulo, Brazil Email: [email protected] Resumo—O padrão IEEE 802.15.4 é amplamente utilizado em aplicações de redes de sensores sem fio. Enquanto trabalhos anteriores realizaram a modelagem com redes de Petri, o foco foi dado ao CSMA/CA, desconsiderando o modo Beacon. A principal contribuição deste trabalho é modelar este modo de operação do padrão através de redes de Petri coloridas, a partir do trabalho anterior baseado em rede de Petri estocástica. O modelo foi implementado no software CPN tools e os resultados comparados com simulações em NS2, aferindo a vazão para diferentes cenários. Abstract—The IEEE 802.15.4 standard is widely used in wireless sensor network applications. While previous work had attempted to model such protocol based on Petri nets, authors only considered the CSMA/CA operation, leaving aside the Beacon mode implications. The main contribution in this work is to model the Beacon enabled operation mode of the standard, by means of Colored Petri nets, from a previous stochastic Petri net work. The model will be implemented on CPN tools software and the results will be compared to NS2 simulations, measuring throughput for different scenarios. I. I NTRODUÇÃO Redes de sensores sem-fio (RSSF) é um tipo especial de redes sem-fio, usadas comumente em aplicações de monitoramento. Em geral não possuem infraestrutura fixa, sendo considerado um caso particular de redes ad-hoc de múltiplos saltos (MANETs) [1]. Os dispositivos empregados nestas redes tipicamente possuem capacidades reduzidas de processamento, memória disponível, banda e fonte de energia [2]. O padrão IEEE 802.15.4 [3] se destaca na área de RSSF, pois foi projetado para cobrir as necessidades de plataformas com recursos energéticos e computacionais limitados. Assim, modelar um protocolo de rede sem-fio, em particular o padrão IEEE 802.15.4, tem potencial para promover o estudo de ajuste de parâmetros do protocolo, possibilitando simulações e implementações com parâmetros previamente ajustados através do modelo. Houve esforços para modelar analiticamente o padrão IEEE 802.15.4, a maioria baseado em cadeia de Markov [4]– [8], nos quais o maior foco está nas hipóteses do cálculo de probabilidades. Além disso, tendem a possuir um grande número de estados, tornando o modelo pouco intuitivo e dificultando o uso continuado do modelo. Uma outra abordagem sugerida por Shuabi et al. [9] é baseada em Redes de Petri (RdP). A estrutura do modelo final é bastante simples, uma vez que apresenta apenas quatro lugares. 39 Porém, este modelo representa apenas o CSMA/CA do padrão IEEE 802.15.4 e a contenção de acesso ao meio foi modelada analiticamente, alheio ao modelo em RdP. Este trabalho é uma melhoria, pois o modelo proposto abrange o modo Beacon do padrão IEEE 802.15.4 de forma intuitiva e auto-contida. Foi construído um modelo em Rede de Petri Colorida baseado em um modelo já proposto em Rede de Petri temporal estocástica [10], tema de trabalho apresentado no I WPG-EC. Não há necessidade de calcular probabilidades explicitamente. Pretende-se utilizar a simetria do problema para construir um modelo mais geral com as redes coloridas. Os resultados foram verificados através de simulação. II. BACKGROUND O padrão IEEE 802.15.4 [11] possui o modo de operação com Beacon, que faz uso de uma estrutura denominada superframe utilizada para sincronizar e organizar a troca de dados entre os nós da rede. Esta estrutura começa com um pacote de Beacon enviado pelo nó coordenador, que contém informações de sincronismo e organização do superframe a seguir. Depois deste frame, há um período no qual os nós competem pelo acesso ao meio, o CAP – Contention Access Period. É utilizado um algoritmo baseado em slotted CSMA/CA (Carrier Sense Multiple Access with Collision Avoidance). Após o CAP, pode existir um outro período no qual os frames são enviados sem competição (CFP – contention free period). Por fim, pode haver um período de inatividade, encerrado quando o próximo Beacon for transmitido. O outro modo de operação é o modo sem Beacon, no qual não há nó coordenador e um algoritmo baseado em unslotted CSMA/CA é utilizado. As redes de Petri são uma ferramenta de modelagem poderosa, inicialmente proposta por Carl Adam Petri em 1962. Neste trabalho serão utilizadas as Redes de Petri coloridas [12], que permite a distinção entre marcas. Este formalismo é adequado pois o problema a ser modelado possui grau de simetria elevado, uma vez que cada nó da rede pode ser representado em um só segmento invés de ser necessário replicar o modelo para cada nó, que seria o caso em redes clássicas. III. VALIDAÇÃO Esta sessão apresenta os resultados de validação comparando valores obtidos através da simulação do modelo proposto Alves e Margi e comparação com simulações utilizando o Network Simulator 2 (NS2) [13]. todos os frames que seriam armazenados no buffer durante o período ocioso). A métrica escolhida para comparar os resultados do modelo e da simulação é a vazão, definida como a quantidade de frames enviados por um nó que foram entregues com sucesso ao seu destino em uma unidade de tempo. No escopo do modelo, a vazão do nó é calculada através da quantidade de disparos da transição que representa o envio de frames. Todos os casos atingem a saturação nos últimos dois cenários. Os resultados do modelo foram levemente inferiores nestes cenários, significando que é conservativo em relação a esta métrica. Dez cenários foram utilizados para comparar modelo e simulação, variando a taxa de chegada de 1 até 512 frames/s. O número total de nós é dois, o limite de buffer foi escolhido como 5 frames e o tamanho dos frames foi 64 bytes. Neste trabalho um modelo baseado em Rede de Petri Colorida do padrão IEEE 802.15.4 foi proposto, contemplando o modo Beacon. A maioria das variáveis do modelo são facilmente ajustáveis no modelo, como parâmetros do superframe (BO e SO), tamanho do backoff e número de tentativas. Os parâmetro utilizados estão resumidos na Tabela I. O valor dos parâmetros de configuração do padrão IEEE 802.15.4 Beacon Order (BO) e Superframe Order (SO) utilizados foram 7 e 8 respectivamente, resultando nas duas primeiras linhas da Tabela I. Os outros valores desta tabela são predefinidos pelo padrão, e são os mesmos utilizados na implementação do NS2. Tabela I. T EMPOS – MODELO DE NÓ Propriedade Tempo Ativo Tempo total Atraso de transmissão Valor [ms] 1966.08 3932.16 3.31 Valor [symb] 122880 245760 206 Throughput [frm/s] 50 45 40 35 30 25 20 15 10 5 0 1 2 4 Trabalhos futuros incluem a comparação de resultados com maior variabilidade de parâmetros, como SO, BO, número de nós e tamanho de buffer. Além disso, outras métricas são desejáveis, como taxa de perdas, número médio de colisões e gasto de energia. [1] [2] 256 512 [4] [5] [6] 0 1 2 NS2 (high buf) Figura 1. A única métrica aferida foi a vazão, cujo valor oferecido pelo modelo é próximo de simulações no NS2, apesar de discrepâncias nos cenários de 1 a 3. [3] 128 3 4 5 6 Experiment number NS2 (low buf) C ONCLUSÃO R EFERÊNCIAS Os resultados de vazão são exibidos na Figura 1. Os valores no cenário 0 e 1 foram bastante próximos para ambas simulações e para o modelo, pois o buffer reduzido ainda é capaz de suportar a baixa demanda de tráfego. Arrival Rate [frm/s] 8 16 32 64 IV. 7 8 [7] 9 Petri Net [8] Vazão em frames por segundo Nos cenários 2 e 3, a limitação de buffer faz com que a vazão das simulações com buffer grande seja pelo menos uma vez e meia maior que a vazão do modelo ou da simulação com buffer reduzido, estes dois últimos com resultados similares. A capacidade de buffer reduzida tem grande efeito durante o período ocioso do superframe, uma vez que frames continuam chegando à fila do nó, porém não é permitido que se envie nenhum deles, causando perdas. Nestes cenários os resultados do modelo foram cerca de 0.3 frame/s maiores. Nos cenários 4 e 5 há um aumento natural da vazão, com valores bastante próximos da simulação e modelo. A partir do cenário 6, a vazão da simulação com buffer grande satura. Quanto ao modelo e simulação com buffer reduzido, a vazão máxima não é alcançada no cenário 6, pois a taxa de chegada de frames em si não é o suficiente para causar a saturação (sem 40 [9] [10] [11] [12] [13] C. B. Margi, “Energy consumption trade-offs in power constrained networks,” Ph.D. dissertation, University of California Santa Cruz, 2006. D. Culler, D. Estrin, and M. Srivastava, “Overview of sensor networks,” Computer Magazine, vol. 37, no. 8, pp. 41–49, 2004. A. Koubaa, M. Alves, and E. Tovar, “IEEE 802.15.4 for Wireless Sensor Networks: A Technical Overview,” Polytechnic Institute of Porto (ISEPIPP), Tech. Rep., 2005. T. Park, T. Kim, J. Choi, S. Choi, and W. Kwon, “Throughput and energy consumption analysis of IEEE 802.15.4 slotted CSMA/CA,” Electronics Letters, vol. 41, no. 18, pp. 1017 – 1019, sept. 2005. H. Wen, C. Lin, Z. Chen, H. Yin, T. He, and E. Dutkiewicz, “An improved Markov model for IEEE 802.15.4 slotted CSMA/CA mechanism.” J. Comput. Sci. Technol., vol. 24, no. 3, pp. 495–504, 2009. C. Buratti, “Performance analysis of ieee 802.15.4 beacon-enabled mode,” Vehicular Technology, IEEE Transactions on, vol. 59, no. 4, pp. 2031 –2045, may 2010. A. Faridi, M. Palattella, A. Lozano, M. Dohler, G. Boggia, L. Grieco, and P. Camarda, “Comprehensive evaluation of the ieee 802.15.4 mac layer performance with retransmissions,” Vehicular Technology, IEEE Transactions on, vol. 59, no. 8, pp. 3917 –3932, oct. 2010. J. Misic, V. Misic, and S. Shafi, “Performance of IEEE 802.15.4 beacon enabled PAN with uplink transmissions in non-saturation mode - access delay for finite buffers,” in Broadband Networks, 2004. BroadNets 2004. Proceedings. First International Conference on, 2004. A. H. Shuaib, T. Mahmoodi, and A. H. Aghvami, “A timed Petri Net model for the IEEE 802.15.4 CSMA-CA process,” 2009 IEEE 20th International Symposium on Personal Indoor and Mobile Radio Communications, pp. 1204–1210, 2009. R. C. A. Alves and C. B. Margi, “A Timed Petri Net Model for Frame Transmission on IEEE 802.15.4 Beacon-Enabled Mode,” 2013, aceito no 10th ACM PE-WASUN 2013. IEEE, “802.15.4-2006 - IEEE Standard for local and metropolitan area networks–part 15.4: Low-rate wireless personal area networks (LRWPANs),” 2006. K. Jensen, “Coloured petri nets,” in Petri Nets: Central Models and Their Properties, ser. Lecture Notes in Computer Science, W. Brauer, W. Reisig, and G. Rozenberg, Eds. Springer Berlin / Heidelberg, 1987, vol. 254, pp. 248–299. S. McCanne and S. Floyd., “NS Network Simulator,” http://www.isi. edu/nsnam/ns/, 2012. Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP Uma Solução para a Redução Automática de Fluxos de Vídeo Redundantes em Nuvens de Computação Walter Akio Goya Marcos Antonio Simplicio Junior Dep. Engenharia da Computação e Sistemas Digitais Laboratório de Arquitetura e Redes de Computadores São Paulo – SP, Brasil [email protected] Dep. Engenharia da Computação e Sistemas Digitais Laboratório de Arquitetura e Redes de Computadores São Paulo – SP, Brasil [email protected] uma arquitetura, composta de um middleware e uma API, é apresentada uma aplicação de prova de conceito que permite a redução automática de fluxos redundantes em fluxos de vídeo em tempo real. Resumo — Trade Wind é uma solução para o gerenciamento de recursos de rede para nuvens de computação composta de um middleware, uma API e uma aplicação de distribuição de fluxos de vídeo em tempo real que permite a redução automática de fluxos redundantes. II. Abstract — Trade Wind is a cloud computing solution for network resources management in cloud computing environments. Its architecture is composed by a middleware, an API, and a real-time video streaming application with an automatic redundant flow reduction mechanism. Após levantamento das principais plataformas abertas de gerenciamento de nuvens, foram selecionadas três soluções: Eucalyptus, OpenNebula e OpenStack. A partir de estudos detalhados das plataformas, foram identificadas algumas funções de gerenciamento de recursos de rede em nível básico, como o gerenciamento de endereços IP públicos e a criação/alocação de redes virtuais para o isolamento do tráfego de rede entre diferentes usuários da nuvem. Nenhuma das soluções analisadas apresentou mecanismos de gerenciamento dos recursos de rede visando uma economia em sua utilização. A “Tabela I” apresenta um resumo das funções encontradas nas soluções analisadas: Palavras-chave — computação em nuvem, PaaS, distribuição de vídeo, middleware, API I. TRABALHOS RELACIONADOS INTRODUÇÃO Computação em nuvem é um conceito que vem sendo amplamente divulgado e discutido ao longo dos últimos anos, sendo tratado como uma revolução no mundo da computação. Em linhas gerais, refere-se a um novo modelo de computação, onde software e hardware são disponibilizados na forma de serviços. Dentre as definições mais citadas, [1] descreve a nuvem como um modelo que permite que um conjunto de recursos computacionais compartilhados possa ser adquirido e devolvido de forma rápida, e com o mínimo esforço de gerenciamento ou de interação com o provedor de serviço. O acesso a estes recursos é feito através de uma rede ubíqua, conveniente e sob demanda. TABELA I. COMPARAÇÃO DE MIDDLEWARES DE COMPUTAÇÃO EM NUVEM EM RELAÇÃO AO GERECIAMENTO DE REDE Artigo Redes Eucalyptus Gerenciamento de rede visando segurança OpenNebula Gerenciamento de endereços IPs públicos OpenStack Criação e gerenciamento de redes virtuais (VLAN) Sendo a rede um elemento de grande importância para as nuvens de computação, é de interesse dos provedores gerenciar de forma eficiente este recurso. Apesar de existirem soluções populares e reconhecidas para o gerenciamento e operação de nuvens de computação, como as plataformas abertas OpenStack, Open Nebula e Eucalyptus, suas funções de gerenciamento de rede se limitam à possibilidade de criação e alocação de redes virtuais e endereços IP públicos. Até a versão final deste artigo, não foi encontrada uma solução aberta que permitisse o desenvolvimento de aplicações visando o gerenciamento automático da utilização de recursos de rede. Trade Wind é uma solução para o gerenciamento de recursos de rede organizada de forma distribuída, sendo suas funções e banco de dados executados em cada host pertencente à nuvem de computação gerenciada. Sua execução se dá em uma topologia geograficamente distribuída, na qual os hosts não se encontram concentrados em um único centro de computação, estando geograficamente distantes. Este trabalho tem por objetivo propor uma solução que permita aos provedores de nuvens de computação o gerenciamento automático de sua infraestrutura, visando uma melhor utilização dos recursos de rede. Através da descrição de A. Arquitetura Por se tratar de uma plataforma de computação em nuvem, a solução foi implementada em máquinas virtuais que estão III. 41 TRADE WIND Goya e Simplı́cio Jr. hospedadas em um host (máquina física). Em cada host existe uma única máquina virtual executando o middleware, chamado de módulo Core. Nas máquinas virtuais que irão hospedar os aplicativos, executa-se o módulo Core Access, que atua como intermediador das chamadas das aplicações para o middleware, bem como do middleware para o host ou a máquina virtual hospedeira. A B Fig. 2. Estágios da redução de fluxos redundantes IV. CONSIDERAÇÕES FINAIS Resultados preliminares indicaram uma economia na utilização dos enlaces de rede. A continuação deste estudo irá avaliar os custos de processamento, e possíveis impactos no desempenho da aplicação de distribuição de fluxos de vídeo. Fig. 1. Interfaces de Comunicação: Middleware, API e aplicações A. Evolução do WPG-SD 2012 Além do levantamento e análise de trabalhos relacionados, foi implementado o protótipo para prova de conceito e coletados resultados preliminares que indicam uma economia na utilização de recursos de rede. O trabalho foi avaliado por uma banca de qualificação no final do mês de julho de 2013. B. Serviços Além dos serviços de manipulação de máquinas virtuais e inicialização/configuração de aplicações, o principal serviço provido pelo middleware é o gerenciamento de informações sobre a topologia de recursos físicos (hosts) e virtuais (máquinas virtuais), sobre as aplicações e sobre os usuários da nuvem. A partir dessas informações, o middleware é capaz de prover locações múltiplas dos recursos computacionais, ou seja, é capaz de identificar quais hosts estão sendo utilizados por um determinado usuário ou aplicação. B. Próximas Atividades Como continuação deste trabalho para sua versão final e defesa da dissertação são propostas a finalização do desenvolvimento do protótipo e a coleta de dados experimentais, para a validação e análise de seu funcionamento com base em métricas de desempenho do sistema. C. Aplicação de Distribuição de Fluxos de Vídeo A aplicação utilizada como prova de conceito tem como objetivo a distribuição de fluxos de vídeo em tempo real. Neste tipo de aplicação é possível que diferentes requisitantes localizados em uma região geográfica, estejam requisitando um mesmo conteúdo. Na figura 2 composta pelos estágios A e B da rede, é possível observar a presença de um fluxo redundante entre os roteadores A, B e C, e sua redução, respectivamente. Através do middleware e da API desenvolvidos, é possível eliminar o fluxo redundante automaticamente, por meio de uma aplicação que detecta, analisa e executa otimizações na topologia da aplicação. C. Publicações - Um artigo completo na conferência internacional Parallel and Distributed Computing and Systems (PDCS-Dallas, 2011) AGRADECIMENTOS LARC, FDTE e Ericsson Telecom Brasil/Suécia. REFERÊNCIAS [1] A partir do cenário de testes apresentado na figura 2, resultados preliminares indicaram uma redução de utilização dos enlaces intermediários, que varia de acordo com a quantidade de fluxos requisitados (quanto maior a quantidade de clientes requisitantes, maior a economia). Como efeito colateral, observou-se a sobrecarga de enlaces locais entre o host e o roteador. Tal sobrecarga é característica de soluções overlay multicast, como observado em nos trabalhos [2], [3] e [4]. [2] [3] [4] 42 P. Mell, T. Grance, “The NIST Definition of Cloud Computing,” in Special Publication 800-145. NIST, Setembro, 2011. J. Jannotti, D. K. Giford, K. L. Johnson, M. F. Kaashoek, J. W. O'Toole Jr., “Overcast: Reliable Multicasting with on Overlay Network,” in Proceedings of the 4th conference on Symposium on Operating System Design & Implementation, v. 4. USENIX Association, Berkeley, CA, USA, p. 14-14, 2000 Y.-H. Chu,, S. G. Rao, S. Seshan, H. Zhang, “A Case for End System Multicast,” in IEEE Journal on Selected Areas in Communications, v. 20, n. 8, p. 1456 – 1471, Outubro, 2002. T. Nanka, P. Lee, A. P. Jayasumana; J. Kurose, “An Architecture and a Programming Interface for Application-Aware Data Dissemination Using Overlay Networks,” in 2nd International Conference on Communication Systems Software and Middleware, 2007. Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP Aplicação do Aprendizado por Reforço em um Espaço contı́nuo Walter Mauricio Mayor Toro e Anna Helena Reali Costa Laboratório de Técnicas Inteligentes (LTI/EPUSP) Escola Politécnica, Universidade de São Paulo São Paulo, SP, Brasil Resumo—Quando se trabalha com robôs móveis, podemse encontrar espaços de navegação contı́nuos ou discretos, onde os robôs devem desenvolver suas tarefas. Neste trabalho propõe-se utilizar o Aprendizado por Reforço (AR) num espaço de navegação contı́nuo. Para isso, utilizando a ferramenta Player/Stage, foi desenvolvido um ambiente simulado que contém salas, portas e um corredor. Fazendo uso de uma câmera, são obtidas do ambiente as caracterı́sticas necessárias para gerar os estados discretos utilizados no Aprendizado por Reforço. Um Robô Pioneer 2DX foi usado nos testes que aplica a politica aprendida por AR em um espaço discreto, para navegar de forma efetiva no espaço contı́nuo. I. I NTRODUÇ ÃO No Aprendizado por Reforço (AR), um agente pode observar seu mundo e executar ações, pelas quais recebe recompensas, sendo seu objetivo maximizar o valor de recompensas recebido. Esta ferramenta pode ser aplicada para navegação de robôs, permitindo-os a aprender e adaptar-se a novas situações em tempo real, sem requerer conhecimento prévio do ambiente. Porém, inicialmente esta ferramenta consome muito tempo para o aprendizado, problema que tem sido abordado por vários trabalhos, sendo uma das propostas o uso de Transferência de Conhecimento (TC) e polı́ticas estocásticas abstratas [1]. Entretanto, esta proposta foi avaliada somente no espaço discreto simulado. Outros problemas relacionados com o AR aparecem quando se quer passar da simulação discreta à implementação real ou à simulação no espaço contı́nuo. Estes problemas podem ser: grandes espaços de busca, elevado tempo de treinamento e dificuldade na determinação dos diferentes estados presentes no ambiente. Portanto, o objetivo geral desta pesquisa é avaliar a utilização do AR na navegação de um robô real em um espaço contı́nuo, utilizando TC, sendo TC uma técnica que permite acelerar e melhorar o aprendizado de uma nova tarefa, utilizando o conhecimento obtido em tarefas anteriormente aprendidas. Neste resumo é apresentada a primeira parte do trabalho, que contém o ambiente de simulação que foi criado, as caracterı́sticas que foram escolhidas para gerar os estados e as ações que foram selecionadas para serem executadas no espaço contı́nuo. Pretende-se, em um trabalho seguinte, avaliar no ambiente contı́nuo da Figura 1 a proposta apresentada por [1] para TC no AR e, finalmente, colocar os algoritmos em um robô real. II. R EVIS ÃO DA L ITERATURA Existem na literatura pesquisas que propõem diferentes ambientes de trabalho, sejam discretos ou contı́nuos, nos 43 quais a técnica do AR pode ser testada, utilizando diferentes caracterı́sticas e ações. Trabalhos, como os apresentados em [2] e [3], simulam ambientes de navegação contı́nuos enquanto outros, como em [1] e [4], simulam ambientes discretos. O [2], é conhecido como Keepaway. Este simula um ambiente contı́nuo para um jogo de futebol robótico. O simulador utiliza distâncias e ângulos entre jogadores para obter os diferentes estados e o aprendizado é baseado em macro-ações que são compostas por várias micro-ações ou ações primitivas do simulador. O [3] é um ambiente de simulação desenvolvido em Player/Stage, que utiliza laser e sonares para o reconhecimento de portas, salas, intersecções e corredores, caracterı́sticas que depois são utilizadas para definir os estados. III. A MBIENTE S IMULADO O ambiente que foi simulado é mostrado na figura 1, este é composto por 6 salas, 8 portas e um corredor, cada um destes lugares pintado com uma cor diferente, que facilita sua detecção, utilizando o driver blobfinder do Player/Stage. Este driver trabalha de forma muito semelhante a um sensor RGBD, já que este pode proporcionar tanto a cor como a distância a cada uma destas caracterı́sticas. Figura 1: Ambiente de um espaço contı́nuo, simulado com a ferramenta Player/Stage. IV. G ERAÇ ÃO DE ESTADOS As caracterı́sticas que determinam um estado neste ambiente simulado são: nSeeDoors(), nearDoor(), inPlace(), seePlace() e nearGoal(), que correspondem a número de portas que o robô consegue ver, porta mais proxima ao robô, lugar no qual se encontra o robô, lugar que o robô consegue ver em frente e proximidade do robô ao alvo, respetivamente. Estas caracterı́sticas apresntam as vantagens de serem discretas e facilitarem a determinação do estado no qual o robô está. Por outro lado, caracterı́sticas como as utilizadas em [2] são contı́nuas Mayor Toro, Costa (a) apresenta 4 possı́veis saı́das para os dois sensores. A saı́da da câmera contém 4 das 5 caracterı́sticas apresentadas anteriormente para determinar um estado, nSeeDoors(), nearDoor(), inPlace() e seePlace(), e a ultima caracterı́tica nearGoal() é determinada utilizando o sensor GPS. Na tabela I mostra-se o valor de cada uma das 5 caracterı́sticas, para 4 possı́veis saı́das da câmera e o GPS. Cada fila de valores apresentados na tabela I, representa um estado do ambiente simulado e para cada um desses estados é designada uma ou várias macro-ações utilizando AR. (b) Tabela I: valores das 5 caracterı́sticas nSeeDoor(), nearDoor(), inPlace(), seePlace() e nearGoal() para 4 estados discretos do ambiente simulado mostrados na figura 2 (c) (d) Figura 2: (a), (b), (c) e (d) são 4 saı́das obtidas do ambiente simulado, utilizando o driver Blobfinder e o GPS do Player/stage e precisam de uma técnica adicional de discretização, como o CMAC, para determinar se o robô está num estado ou outro. Outra particularidade apresentada por estas caracterı́sticas é sua independência da posição x e y do robô; portanto, numa mesma posição x e y, mas com um ângulo de rotação diferente, o robô pode estar em diferentes estados, dependendo das caracterı́sticas que a câmera está obtendo. Para o caso do ambiente apresentado anteriormente, os possı́veis valores para numDoors() e nearDoor() são: {0,1,2,3,4,5,6,7,8}, onde 0 para a primeira caracterı́stica significa que o robô não vê nenhuma porta, e de 1 até 8 é o número de portas que o robô consegue ver. Para a segunda caracterı́stica, 0 significa que o robô não tem nenhuma porta próxima, e de 1 até 8 significa que uma dessas portas se encontra mais próxima ao robô. os possı́veis valores para inPlace() e inFrontPlace() são: {0,1,2,3,4,5,6,7}, onde 0 significa, para a primeira caracterı́stica, que o robô não sabe onde está, de 1 até 6 significa que está em uma sala e o 7, que está no corredor. Para a outra caracterı́stica, o 0 significa que o robô não vê nada à sua frente, de 1 até 6, que vê uma sala e 7 que vê o corredor. A última caracterı́stica nearGoal() tem como valores {0,1}, onde 1 significa que o robô está próximo ao alvo e 0, que está longe do alvo. V. nSeeDoor() 1 1 0 3 nearDoor() 2 1 0 1 inPlace() 1 1 1 7 seePlace() 2 7 0 0 nearGoal() 1 1 0 0 Uma polı́tica de navegação π foi aprendida usando AR, definindo a melhor macro-ação a ser aplicada en cada estado discreto. Sua execução no espaço contı́nuo simulado foi bastante efetiva. VII. C ONCLUS ÃO E T RABALHO F UTURO Com este trabalho foram alcançados objetivos importantes que fazem parte de uma proposta de pesquisa do mestrado. Neste trabalho conseguiu-se criar um ambiente simulado de navegação num espaco contı́nuo, utilizando a ferramenta Player/Stage. Com base neste ambiente, utilizando o driver blobfinder e o GSP de Player/Stage foram selecionadas 5 caracterı́sticas discretas, que permitiram determinar os estados discretos utilizados no AR. Além disso, também foram testadas 4 macro-ações, utilizadas nas polı́ticas obtidas com o AR. Fazendo uso deste trabalho pretende-se posteriormente avaliar integralmente a proposta apresentada por [1] num ambiente simulado similar ao aqui apresentado e, finalmente, avaliar os algoritmos num robô real. AGRADECIMENTOS Agradecemos a: CNPq (proc. 155876/2012-0, 311058/2011-6), FAPESP (proc. 2011/19280-8) por prover fundos para esta pesquisa R EFER ÊNCIAS M ACRO - AÇ ÕES [1] Seguindo a proposta apresentada em [2], O aprendizado será baseado na seleção de macro-ações, e não de micro-ações (ações primitivas). Cada macro-ação representa um comando de alto nı́vel como: findDoor(), goToDoor(), goToPlace() e goToGoal(). Cada uma destas macro-ações é composta por várias micro-ações, onde cada micro-ação representa comandos de baixo nı́vel como: girar um determinado número de graus ou avançar uma distância determinada. VI. Figura 2-(a) 2-(b) 2-(c) 2-(d) R ESULTADOS E D ISCUSS ÃO Alguns dos resultados obtidos utilizando o driver blobfinder e o GPS do Player/Stage são mostrados na figura 2, a qual 44 M. L. Koga, V. F. d. Silva, F. G. Cozman, and A. H. R. Costa, “Speedingup reinforcement learning through abstraction and transfer learning,” in Proceedings of the 2013 international conference on Autonomous agents and multi-agent systems. International Foundation for Autonomous Agents and Multiagent Systems, 2013, pp. 119–126. [2] P. Stone, R. S. Sutton, and G. Kuhlmann, “Reinforcement learning for robocup soccer keepaway,” Adaptive Behavior, vol. 13, no. 3, pp. 165– 188, 2005. [3] J. H. Zaragoza and E. F. Morales, “A two-stage relational reinforcement learning with continuous actions for real service robots,” in MICAI 2009: Advances in Artificial Intelligence. Springer, 2009, pp. 337–348. [4] E. P. Enoiu and R. Marinescu, “Soccer robot navigation in grid environments based on reinforcement learning algorithms,” in Proceedings of the 2010 IRCSE IDT Workshop and Conference, 2010. Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP Análise de risco da automação no controle de tráfego aéreo: caso TWR Yuri M. R. Dirickson e Prof. Dr. João B. Camargo Jr. Departamento de Engenharia da Computação Escola Politécnica da Universidade de São Paulo São Paulo, Brasil Resumo—Diversos países estão investindo em projetos de modernização do seu espaço aéreo devido ao aumento do uso do transporte aéreo civil. Dentre os principais projetos estão o NextGen (EUA) e o SESAR (Europa). Essa modernização visa, entre outros objetivos, a crescente automação do controle de tráfego aéreo como forma de aumentar o desempenho desse setor, porém é inadmissível que essa automação comprometa os atuais níveis de segurança do transporte aéreo. Portanto esse trabalho procura avaliar qual o impacto na segurança crítica do sistema de tráfego aéreo que pode ser causado pela introdução contínua da automação no controle de tráfego aéreo, através de uma modelagem funcional das tarefas dos controladores e de uma subsequente análise de risco. Foi escolhida a torre de comando de aeródromo como estudo de caso, visto que nos aeródromos é aonde acontecem a maioria dos acidentes. TABLE I. Causa Abstract—Many countries are investing in modernization projects of its airspaces due to the increased use of civil air transport. Among the main projects are the NextGen (USA) and SESAR (Europe). This modernization aims, among other objectives, the increasing automation of air traffic control in order to increase the performance of this sector, but it is unacceptable that this automation compromise the current levels of safety in air transport. Therefore this study aims to assess the impact on critical safety of air traffic control system that can be caused by the continuous introduction of automation in air traffic control, through a functional modeling of the tasks of controllers and a subsequent risk assessment. The aerodrome control tower was chosen as a case study, since the aerodromes is where most air accidents happen. 1960 1970 1980 1990 2000 Todos Erro do piloto 41 34 24 26 27 30 29 Erro do piloto (rel. ao clima) 10 17 14 18 19 19 16 Erro do piloto (rel. à falha mecânica) 6 5 5 2 5 5 5 Total erro do piloto 57 56 43 46 51 54 50 Outros erros humanos 2 9 9 6 9 5 7 Clima 16 9 14 14 10 8 12 Falha mecânica 21 19 20 20 18 24 22 Sabotagem 5 5 13 13 11 9 9 Outras causas 0 2 1 1 1 0 1 Contudo, essas novas tecnologias não podem impactar negativamente na segurança crítica do sistema, o que motiva diversas pesquisas em relação a modernização segura do espaço aéreo. Com base em estudos comparativos de acidentes por fase de voo, nota-se que a quantidade somada de acidentes das fases de decolagem, subida inicial e aterrissagem superam os acidentes das outras fases em alguns anos, mostrando a importância dos estudos associados ao serviço de controle de aeródromo, operado pelas torres de controle de aeródromo[5]. Keywords—air traffic control; automation; safety; I. PRINCIPAIS CAUSAS DE ACIDENTES AÉREOS(%)[4]. 1950 INTRODUÇÃO |Cada vez mais cresce a preocupação com a segurança no transporte aéreo civil devido à crescente utilização desse modal. Com essa preocupação surgem diversos projetos de modernização do gerenciamento de tráfego aéreo (Air Traffic Management (ATM)), entre eles os mais famosos são o NextGen (EUA) [1] e o SESAR (Europa) [2]. Esses projetos têm como uma das suas principais metas a implantação de tarefas mais automatizados para pilotos e controladores de tráfego aéreo (Air Traffic Controller (ATCo)) [3]. Essa meta vem com o objetivo de reduzir a quantidade de erros humanos como fator contribuinte de acidentes aéreos, que atualmente estão como principal fator (ver tabela I), além de contribuir para o desempenho geral do tráfego aéreo. As zonas de aeródromos são conhecidas como as que mais contribuem para um menor desempenho do de tráfego aéreo[6]. II. PROPOSTA DE PESQUISA Baseado nos dados apresentados, este trabalho tem como objetivo avaliar o impacto da crescente automação do controle de tráfego aéreo em uma Torre de Controle de Aeródromo (TWR) na segurança do tráfego aéreo. Para tanto serão modeladas as atividades do ATCo em uma TWR e, com o modelo resultante, uma avaliação de risco será feita, de forma a avaliar o ganho em segurança resultante da automação modelada. 45 Dirickson e Camargo Jr. III. REVISÃO BIBLIOGRÁFICA AGRADECIMENTOS Diversas pesquisas buscam avaliar o impacto de algumas tecnologias previstas no NextGen e SESAR na ida dos controladores e pilotos. Em [7], avalia-se o impacto de algumas tecnologias presentes no NextGen o treinamento de novos ATCo’s, observando que ATCo menos experientes não conseguiam resolver situações em essas tecnologias. Em relação aos pilotos, [8] avalia desempenho de três modos de automação diferentes ara recálculo de rotas para pousos em aeródromos, onde se observa que na situação com maior grau de automação, s pilotos encontravam mais dificuldade em consertar as rotas quando o sistema as calculava de maneira errada. Os autores agradecem a FDTE – Fundação para o Desenvolvimento Tecnológico da Engenharia, e a CAPES pelo suporte financeiro a esta pesquisa. REFERÊNCIAS [1] [2] [3] Outros estudos focam no ATCo diretamente, avaliando parâmetros de desempenho como percepção situacional ( Situation Awareness (SA)) e carga de trabalho (workload), variando cenários de forma a entender o comportamento s ATCo’s nos mais diversos casos [9], [10], [11]. [4] [5] IV. METODOLOGIA Primeiro serão levantadas todas as atividades dos ATCo’s em TWR, assim como a associação com outros órgãos do ATM, para isso serão utilizadas os documentos do Departamento de Controle do Espaço Aéreo (DECEA), órgão responsável pelo ATM no Brasil. [6] [7] Com essas atividades será construído um modelo funcional de operação do ATCo, de forma a construir um modelo de referência para a automação. Para isso serão levantados em mais detalhes os requisitos operacionais das tarefas do ATCo e os métodos de análise funcional mais adequados. Com o modelo, será pesquisada a metodologia mais adequada para a avaliação de risco. Por último, escolhida metodologia, a análise será feita e assim se determinará qual o impacto da automação pode causar no serviço de controle de tráfego aéreo. [8] [9] V. RESULTADOS OBTIDOS E CONSIDERAÇÕES FINAIS O levantamento de atividades do ATCo foi feito levando em conta basicamente dois documentos do DECEA, onde são discutidos os requisitos e estruturas dos serviços de tráfego aéreo [12] [10] A pesquisa está agora na modelagem dessas atividades, onde foi escolhida a utilização de uma Enhanced Function Flow Block Diagram (EFFBD). O modelo oferece uma visão funcional das tarefas ao mesmo tempo em que permite observar o fluxo de dados entre essas funções. Está sendo estudada a utilização de outra ferramenta, Functional Resonance Analysis Method (FRAM), que pode contribuir para representar melhor um sistema operado por humanos[13]. [11] Com o objetivo final sendo a análise de risco do sistema automatizado, espera-se que o resultado dessa pesquisa sirva de referência para pesquisas mais específicas em segurança aérea nesse cenário de modernização. [12] [13] 46 FAA, “NextGen Implementation Plan,” Federal Aviation Administration, Mar. 2012. Eurocontrol, “European ATM Master Plan,” EUROCONTROL, Oct. 2012. T. Prevot, J. R. Homola, L. H. Martin, J. S. Mercer, and C. D. Cabrall, “Toward Automated Air Traffic Control—Investigating a Fundamental Paradigm Shift in Human/Systems Interaction,” Int. J. Hum.-Comput. Interact., vol. 28, no. 2, pp. 77–98, 2012. PlaneCrashInfo.com, “Accidents Statistics,” Plane Crash Info. [Online]. Available: http://planecrashinfo.com/cause.htm. Boeing, “Statistical Summary of Commercial Jet Airplane Accidents Worldwide Operations,” Boeing, 2011. G. Agmont, “Gargalo no ar,” Revista Aero Magazine, no. 216, 2012. K.-P. L. Vu, H. Silva, J. Ziccardi, C. A. Morgan, G. Morales, T. Grigoleit, S. Lee, A. Kiken, T. Z. Strybel, and V. Battiste, “How Does Reliance on Automated Tools During Learning Influence Students’ Air Traffic Management Skills When the Tools Fail?,” in Proceedings of the Human Factors and Ergonomics Society Annual Meeting, Boston, Massachusets USA, 2012, vol. 56, pp. 16–20. G.-H. Gil, D. Kaber, K. Kaufmann, and S.-H. Kim, “Effects of modes of cockpit automation on pilot performance and workload in a next generation flight concept of operation,” Hum. Factors Ergon. Manuf. Serv. Ind., vol. 22, no. 5, pp. 395–406, 2012. H. Bi, Z. Li, Y. Chen, D. Zhang, and Z. Song, “Measurement of Controller Workloads Based on Air Traffic Complexity Factors,” in CICTP 2012, Beijing, China, 2012, pp. 1903–1914. S. Gregg, L. Martin, J. Homola, P. Lee, J. Mercer, C. Brasil, C. Cabrall, and H. Lee, “Shifts in air traffic controllers’ situation awareness during high altitude mixed equipage operations,” in Proceedings of the Human Factors and Ergonomics Society Annual Meeting, 2012, vol. 56, pp. 95–99. H. D. Kopald, E. C. Smith, and R. K. Stevens, “Controller Response Times to Surface Safety Alerts,” in Proceedings of the Human Factors and Ergonomics Society Annual Meeting, Boston, USA, 2012, vol. 56, pp. 2040–2044. DECEA, “Regras do Ar e Serviços de Tráfego Aéreo,” Departamento de Controle de EspaçoAéreo, 100-12, 2009. E. Hollnagel, FRAM: the functional resonance analysis method : modelling complex socio-technical systems. Surrey: Ashgate, 2012. Parte II Resumos Doutorado Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP C.O.R.M.: Customized Opinion Relevance Model Allan D. S. Lima Jaime S. Schiman USP – Universidade de São Paulo São Paulo, Brazil [email protected] USP – Universidade de São Paulo São Paulo, Brazil [email protected] Feature: a set of strings that semantically mean the characteristics of a domain. For instance, given the domain of books some of its features are “story”, “characters” and “writing”. Interest: a string representing a concept of an object or subject. For instance, an Interest may be the name of a book or the name of a movie. User: an ordered pair <n, f, i>, where n is a string representing the User’s name, f is a set of User representing the friends of the person in a social network and i is a set of Interest. Given a social network, we call U the set of its User. Opinion: an ordered pair <a, s, f, d> where a is a User representing the author of the Opinion, s is a string representing the sentence were the Opinion was expressed, f is the set of Features the sentence of the opinion refers to and d is the date when the Opinion was published We call O the set of Opinion written on a social network by the elements of U. We are now able to formalize the problem our model wants to solve by introducing the Opinion Relevance function. OpinionRelevance: a function (1) that is able to estimate the customized relevance of an Opinion o to a User u. Abstract—This paper presents the results of a study about what makes an opinion relevant to a user of a social network at the Internet. Our research leaded us to the creation of C.O.R.M.: Customized Opinion Relevance Model, a model that allows the relevance of an opinion to be estimated based in nine different parameters. Our preliminary experiments suggest the importance of the customization on the estimation of the opinion relevance in the domain of Electronic Games. Keywords—opinion mining; information retrieval; social search. I. INTRODUCTION Day after day the number of opinions about any subject over the Internet is growing generating an information overload. Consequently it is becoming hard for people to search for opinions on the internet. In order to proper handle this problem, a research field called opinion mining was created. One of its objectives is to estimate the relevance of an opinion. Focusing in this point, we present in this paper a model to rank opinions. Opinions are declarations reflecting subjective feelings of people or perceptions about entities or events [1]. For instance, the sentence: “the sky is beautiful because it is blue” is considered as an opinion because it shows how its author thinks. Given an opinion like the one above, how it is possible to know if the opinion is relevant to a person? There are many aspects of the opinion that could influence on its relevance. Given that, two different people may have completely distinct views of an opinion’s relevance. This brings the word “customization” as a key concept to our work. Essentially, we want the relevance estimation of an opinion to be customized according to the person which we are estimating the opinion’s relevance for. Our model performs that by having the person’s profile as a parameter of our relevance function. (1) III. During our literature review we could see that that, unlike our project, related work [2; 3; 4; 5] use the opinion relevance concept to rank whole documents and not the opinions themselves. Also they do not offer an in depth study about the many aspects that can make an opinion relevant to someone. And finally, we could not find studies on how to customize the relevance of the opinions, especially, regarding the social profile of the person that is searching for them. In this paper we will initially discuss the definitions and the formalization of our problem; after that, in section three we make a brief compilation of the differences between our project and the related work; in section four we introduce our model; in section five we report our preliminary results; and finally in section six we discuss the progress of our work. II. RELATED WORK IV. C.O.R.M. – CUSTOMIZED OPINION RELEVANCE MODEL C.O.R.M. is a model that aims to estimate the relevance of an Opinion to a User. The model allows customized results using its parameters to estimate different relevance values according to the User we are estimating the relevance for. Currently, it has nine different parameters which we will present here in a semi-formal way. BASIC DEFINITIONS AND PROBLEM FORMALIZATION In the following equations a is a User, u is a User, f is a feature and o is an Opinion. In this section we discuss the basic concepts needed to understand the formal definition of our problem and the parameters of our model. 49 Lima e Sichman TABLE I. Author Experience, given the subset of O in which the User a is the author of the opinions on it, Oa: (2) Feature Experience, the subset of O where its elements refers the Feature f, Of and the subset of O that refers the Feature f which the User a is their author, Oaf: CORPUS USED IN THE EXPRIMENT Test Sets 49 Judges(users) 16 Relevance Judgements 470 ~4,3% Coverage (3) Our preliminary experiment (Table II) compared the three different approaches: (1) a simple Information Retrieval Heuristic; (2) three non-customizable (constant independent of the User) parameters; (3) the all nine parameters of C.O.R.M. The complete version of our model managed to outperform the others, which is an evidence of the importance of the customization that it offers through its parameters. OpinionIDF, given the function sentence(o) that returns the set words in the sentence of the Opinion o: (4) Feature Score, given the set of Feature present in the opinions in O, F; and the set of Feature that the opinion o refers on its sentence, Fo: TABLE II. # (5) Linear Longevity, given the function date(o) that returns the date of the Opinion o and currentDate a function that returns the present date: Model RPrecision Bpref MAP 1 OpinionIDF 0.0363 0.4059 0.0082 2 OpinionIDF, FeaturesScore, LinearLongevity 0.0671 0.4336 0.0284 3 C.O.R.M. (9 parameters) 0.1030 0.4530 0.0512 (6) VI. Network Distance, given a graph G where the users in U are its nodes and its edges link two users that are friends in a social network. PRELIMINARY RESULTS PROGRES FROM LAST YEAR AND FUTURE WORK Our effort in the last 12 months included the following tasks: ethical committee authorization for the experiments, model implementation, test framework created so the model can be easily tested in different domains. (7) Our priorities for the future are: conclusion of our first opinion relevance corpus; more experiments (comparing different models like product recommendation models to estimate the relevance of an opinion); a new opinion relevance corpus for a new domain (like books, movies or animes). Similarity, given the function Interests(u) that returns the set of interests of a User u: (8) REFERENCES Image, given the set of Opinion from the User a judged as relevant by the User u, ROau and the set of Opinion from the User a, that the User u judged, JOau: [1] [2] (9) [3] Reputation: (10) V. [4] EXPERIMENTS AND RESULTS [5] In order to evaluate the parameters of our model we decided to compare three different Information Retrieval Metrics (R-Precision, Means Average Precision – MAP and bpref) [6;7] on a corpus of opinions judged by users of a social network. Since such corpus did not exist before, we are currently creating one by recruiting volunteers to judge opinions at the social network about Electronic Games gamrconnect (http://gamrconnect.vgchartz.com/). Table I shows the current state of our relevance corpora. [6] [7] 50 B. Liu, “Opinion mining,” Encyclopedia of Database Systems. Springer US. pp. 1986-1990, 2009. G. Mishne, “Multiple ranking strategies for opinion retrieval in blogs.” In Online Proceedings of TREC, 2006. M. Zhang, and Y. Xingyao, “A generation model to unify topic relevance and lexicon-based sentiment for opinion retrieval.” In Proceedings of the 31st annual international ACM SIGIR conference on Research and development in information retrieval, pp. 411-418. ACM, 2008. X. Huang, and W. B. Croft, “A unified relevance model for opinion retrieval.” In Proceedings of the 18th ACM conference on Information and knowledge management pp. 947-956, November, 2009. G. Attardi, and M. Simi. “Blog Mining Through Opinionated Words.” In TREC. 2006. C. D. Manning, P. Raghavan, and H. Schütze. Introduction to information retrieval (Vol. 1). Cambridge: Cambridge University Press, 2008. C. Buckley, and Voorhees. E. M. “Retrieval evaluation with incomplete information.” In Proceedings of the 27th annual international ACM SIGIR conference on Research and development in information retrieval, pp. 25-32. ACM, 2004. Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP Proposta de Um Método para o Controle da Qualidade de Dados de Biodiversidade Allan Koch Veiga Antonio Mauro Saraiva Departmento de Engenharia de Computação Escola Politécnica da Universidade de São Paulo São Paulo, Brazil [email protected] Departmento de Engenharia de Computação Escola Politécnica da Universidade de São Paulo São Paulo, Brazil [email protected] Abstract— Este trabalho propõem um método para tratar importantes questões de Qualidade de Dados (QD) na biodiversidade, tais como transformar os dados adequados ao uso; medir, avaliar e melhorar a QD; e definir métricas e conceitos de QD. Essas e outras questões podem ser endereçadas a partir das seguintes etapas do método proposto: (1) Identificação das Necessidades de QD; (2) Definição de uma Política de QD; e (3) Implementação de Mecanismos de QD. A aplicação desse método, associada a sua revisão periódica, permite às organizações controlar a qualidade de seus dados, adequar o uso dos dados e obter melhores resultados. qualidade dos dados. Essas métricas são chamadas de dimensões de QD e são usadas como parâmetros para a melhoria da QD. Essa melhoria pode ser realizada por meio de um conjunto de mecanismos que são implementados para otimizarem as medidas das dimensões de QD. Em suma os mecanismos de QD são responsáveis pela redução de erros que degradam a qualidade. Proposta! de! um! Método! de! Controle!de!QD! III. Keywords—método, qualidade de dados I. Aplicando o método descrito a seguir no contexto de biodiversidade, é possível identificar as necessidades de QD dos usuários dos dados, definir políticas que formalizam a QD e implementar mecanismos para medir e melhorar a QD com o objetivo de continuamente medir, avaliar e melhorar a adequação ao uso dos dados. O método proposto neste trabalho é composto de três etapas principais: !Introdução! Este trabalho propõe um método que aborda questões de Qualidade de Dados (QD) que vão além de apenas correções de erros pontuais. Este artigo propõe tratar a qualidade como uma componente dos projetos de biodiversidade, adotando uma análise prévia, estruturada e sistemática das necessidades de dados do projeto e a definição de aplicação de uma política de QD. A relevância dos dados, e da sua qualidade, justificam a adoção de medidas não somente corretivas, mas também preventivas de tratamento dos dados, que devem seguir um método que permita estruturar tal atividade. II. A. ETAPA I – Identificação de Necessidades de QD O objetivo da primeira etapa é entender quais são as necessidades de QD na organização. Esse objetivo pode ser endereçado por meio da identificação, compreensão e das relações entre os seguintes componentes: Elementos de Informação (EI); Dimensões de QD; Problemas de QD; Erros de QD; Fonte de Erros de QD. Conceitos!de!QD! 1) Elementos de Informação De acordo com [1] é amplamente aceito que a qualidade pode ser definida como a conformidade com os requisitos. Isso implica que o conceito de qualidade muda à medida que os requisitos dos usuários mudam. Assim, para se definir um conceito de qualidade em um determinado contexto, é necessário entender e considerar os requisitos que afetam a satisfação dos usuários dos dados [2]. Os EI são informações que possuem algum valor na biodiversidade. O custo de controle de QD é proporcional a quantidade de EI. Portanto, recomenda-se utilizar os EI que possuem maior valor na biodiversidade, caso seja inviável a análise de todos os EI. Os EI podem ser classificados em dois tipos: (1) simples, elementos que possuem valores atômicos, como umidade e pH de solo, e (2) compostos, elementos compostos por outro EI simples, por exemplo, pontos descritos em coordenadas geográficas (latitude, longitude). Estes EI são os componentes centrais nas próximas sub-etapa da Identificação de Necessidades de QD, ou seja, a identificação dos próximos componentes serão sempre de acordo com cada um dos EI. Visto que os dados podem ser utilizados de diversas maneiras na biodiversidade, a definição de um conceito de QD nesse domínio é um desafio. O entendimento do que é QD em um domínio é essencial para a realização da avaliação da QD. A avaliação da QD consiste em julgar se um conjunto de dados está adequado para ser utilizado de maneira satisfatória para um determinado propósito específico. 2) Dimensões de QD Para que essa avaliação da QD seja realizada adequadamente é necessário considerar um conjunto de métricas de QD que forneçam medidas de diversos aspectos da Para cada EI, um conjunto de dimensões de QD relevantes deve ser identificado. Essas dimensões são aspectos de QD, 51 Veiga e Saraiva como completeza, acurácia, precisão, credibilidade e temporalidade. A seleção dessas dimensões para cada EI é baseada nas necessidades dos usuários. Por exemplo, a completeza é uma dimensão essencial em EI coordenadas geográficas para a maioria das aplicações em biodiversidade. A definição de cada dimensão em relação a cada EI pode variar. Por exemplo, a dimensão de credibilidade em dados geoespaciais pode estar associado ao equipamento ou ao método de georeferenciamento utilizado. metros”. Cada Declaração de QD deve ser especificada em Estados de QD. Estado de QD é uma formalização de uma Declaração de QD, onde um dado pode assumir o estado de “Com qualidade” ou “Sem qualidade” em relação a uma Declaração de QD. Por exemplo, o dado possui o estado de “Com qualidade” em relação a Declaração de QD “Coordenadas geográficas deve possuir precisão inferior a 20 metros” se “P < 20m”, onde P representa o valor da precisão das coordenadas geográficas. A seleção das dimensões de QD e as suas definições em relação aos EI são importantes, pois a partir das dimensões, as medidas de QD serão obtidas, as quais permitirão realizar a avaliação da adequação ao uso dos dados. Considerando que os dados podem ser classificados em dois estados (“Com qualidade” ou “Sem qualidade”), a política de QD pode ser analisada sistematicamente para verificar a sua aderência as necessidade de QD da organização. Vários métodos podem ser utilizados para a modelagem e a análise da política, como Redes de Petri Colorida ou Qualitative Reasoning, por exemplo. 3) Problemas de QD As dimensões de QD são degradadas por um ou mais problemas de QD. Por exemplo, valores incorretos são problemas que podem degradar a dimensão de acurácia e valores faltantes são problemas que podem degradar as dimensões de completeza e de precisão. Com a formalização de como os dados devem estar para atender a necessidade de QD, o próximo passo é implementar mecanismos para que os dados atendam a política de QD. C. ETAPA III – Implementação de Mecanismos de QD O objetivo da terceira etapa é identificar, projetar, implementar e implantar métodos, técnicas, ferramentas ou procedimentos para impor a política de QD na organização [3]. Cada mecanismo de QD é implementado para impor uma parte da política da QD. A combinação de todos os mecanismos deve cobrir toda a política. 4) Erros de QD Os problemas de QD são gerados por um ou mais erros de QD. Por exemplo, erros de digitação podem gerar problemas de valores incorretos e erros de medição de equipamentos podem gerar erros de valores faltantes. Em biodiversidade, um exemplos comum de erros de QD é a associação incorreta entre os resultados de uma análise e suas respectivas coordenadas. Em cada análise, as coordenadas são associadas as amostras normalmente em uma junção de tabelas, muitas vezes disponibilizados em planilhas manualmente preenchidas. Nestas planilhas, as coordenadas e respectivas amostras são associadas de acordo com um índice préestabelecido. Erros de associação de índices de amostras, podem causar vários problemas, como valores faltantes para os pontos. Os mecanismos de qualidade de dados podem ser classificados em cinco classes: (1) Prevenção: para prevenir a ocorrência de erros de QD; (2) Detecção: para detectar erros de QD ocorridos; (3) Correção: para corrigir erros de QD detectados; (4) Recomendação: para recomendar correção de erros de QD; (5) Medição: para atribuir um valor qualitativo ou quantitativo a uma dimensão de QD de um EI. 5) Fontes de Erros de QD IV. Considerações!Finais! Os erros de QD podem possuir uma ou mais fontes de erros. Por exemplo, a causa dos erros de digitação pode ser a digitação manual dos dados, erros de medição de equipamentos podem ser gerados por equipamentos com defeito, equipamentos ultrapassados ou de baixa qualidade. Entender essas fontes de erros permitem identificar onde estão as vulnerabilidades de QD na organização. O método proposto neste trabalho permite investigar de maneira sistemática e estruturada as principais necessidades de QD da organização, as fontes de problemas de QD, definir e formalizar uma política de QD que informa como a organização lida com a QD e implementar mecanismos para medir e melhorar a QD. Identificar, entender e relacionar os cinco componentes descritos nesta seção permite identificar as necessidades de QD da organização e suportar a criação de uma política de QD apropriada, conforme descrito a seguir [3]. References( [1] [2] B. ETAPA II – Definição de uma Política de QD O objetivo da segunda etapa é definir uma política de QD que declare como a informação deve estar para satisfazer os requisitos de QD da organização. Baseado nas necessidades de QD, um conjunto de Declarações de QD é estabelecido. [3] Uma Declaração de QD descreve a condição em que o dado deve estar para ter qualidade, por exemplo: “Coordenadas geográficas deve possuir precisão inferior a 20 52 WANG, R.; KON, H.; MADNICK, S. Data Quality Requirements Analysis and Modeling. In: Proceedings of the Ninth International Conference of Data Engineering. p. 670-677. 1993. ROSE, P. Quality in services and services in quality. Customer Driven Quality in Product Design, IEEE Colloquium on. p. 1–6. 1994. VEIGA, A. K. Um estudo sobre qualidade de dados em biodiversidade: aplicação a um sistema de digitalização de ocorrências de espécies. 2012. Dissertação de Mestrado, Escola Politécnica, Universidade de São Paulo, São Paulo, Brasil. Disponível em: http://www.teses.usp.br/teses/disponiveis/3/3141/tde-03052012120914 Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP Automated Refinement of Sustainability-Oriented Policies for a Sustainable Network Management Ana C. Riekstin, Tereza C. M. B. Carvalho Escola Politécnica University of São Paulo São Paulo, Brazil {carolina.riekstin, terezacarvalho}@usp.br The expected main contributions of this work are the requirements that a policy refinement process should address in order to tackle energy efficiency, a refinement method and an architecture able to support sustainability-oriented policies refinement, as well as a prototype able to perform a proof-ofconcept of the proposed method and architecture. Abstract—Sustainable networks management represents a significant opportunity for reducing energy consumption among Information and Communication Technologies. Policy Based Network Management (PBNM) is one of the key approaches to bring sustainability to networks. However, despite its potential, PBNM is not yet widely commercially used. The widespread use depends on an automated policies refinement process in order to translate high-level policies into machine-readable policies able to put the business strategies into practice. This work aims at proposing an automated sustainability-oriented policies refinement method, as well as an architecture and a prototype to a sustainable network management. II. Bolla et al. [1] classified the existing solutions to reduce energy consumption in communication networks into three categories: (1) re-engineering, that addresses the design and materials used in equipment; (2) dynamic adaptation, that deals with adapting the network according to traffic or service requirements; and (3) sleeping/standby, that refers to turning of parts of the network that are being underutilized, which demands the equipment to interpret specific commands to sleep, and an entity able to make decisions (by evaluating energy consumption, availability and load metrics). It is also essential to consider that networks are, mostly, composed by heterogeneous equipment. Keywords— Sustainability; Policy Based Network Management; Sustainability-Oriented Policies; Policy Refinement I. CURRENT RESEARCH INTRODUCTION Policy Based Network Management (PBNM) is one of the key approaches to sustainable communication networks management [2]. A policy is a set of rules used to manage and control access to a set of Information and Communications Technology (ICT) resources and services [3], being able to handle quality of service, security and sustainability issues. Despite of being the subject of several previous works, PBNM is not yet widely commercially used [4]. This widespread use depends on a holistic solution for the “policy refinement problem”, the process of transforming a high-level policy statement into a low-level policy specification [3], bringing business strategies to the network, devices, and instances. The main objectives of this process are: (i) translation of high-level policies into low-level, enforceable policies, (ii) determination of the resources required for the policy execution, (iii) verification if the low-level policies meet the high-level policies’ requirements [4]. To handle this scenario and to allow the evaluation of the trade-offs (e.g. “how much is lost in performance given an energy consumption reduction”), the management system must capture the required data from its equipment and decide what to do based on policies as studied by [8] [9] [10]. According to Internet Engineering Task Force (IETF), policies can have different abstraction levels: business, system, network, device, and instance. The translation between these levels is not simple, and automated approaches are under development [7]. Uszok et al. [7] state that an automated approach is still an open issue. Carvalho et al. [4] say that we are still far away from a generic solution that covers the gaps between service level agreements (SLA) and high-level goals definition. Within this context, the objective of this work is to study sustainability-oriented policies refinement and propose an automated policy refinement method for them. Policies have been commonly used to specify Quality of Service (QoS) and access control rules. However, as the sustainability has become a prominent issue, the policies should also specify sustainability rules. A sustainability-oriented policy is a policy that handles sustainability features in the network, and is likely conflicting with QoS policies (trade-off between QoS and saving energy). Besides the three requirements listed by Moffet and Sloman [4], the refinement of sustainability-oriented policies should also consider (iv) conflicts detection and resolution, (v) dynamic features to handle sustainability in different periods or scenarios, and (vi) ways to support sustainability metrics, rules, and features, as did [14] for the Software-Oriented Architecture (SOA) domain. Ideally, the method should also be automated, reducing the probability of errors, or the dependency on experts. 53 Riekstin e Carvalho Among the existing methods, none is fully automated considering the six requirements. Carvalho et al. [5] is a methodological approach for sustainability-oriented policies. Beigi et al. [11], and Udupi et al. [9] have the translation process partially automated, since they do not consider enforcing the translated policies. Rubio-Loyola [8][2], KAoS [7] [10], Craven et al. [12], and Liao et al. [13] methods have the translation automated, but demand an important effort to define the initial models or templates that are going to be used during the process. None of them work with resources definition or policies verification, and the only one which has a conflicts’ detection feature is KAoS – but it is not able to solve them. Regarding dynamic features, some of the methods can easily include time as one of the policy characteristics, but none of them can work without adaption with scenario dynamicity – when a virtual node migrates to other network, for instance. To the best of the author’s knowledge, there is no automated policy refinement method applied to sustainability able to handle all the elicited requirements. Some new refinement methods considering Software Defined Networks are also being discussed, such as Procera [15] and Monsanto et al. [16], but none of them addresses sustainability issues. now, our hypothesis is that the refinement method, in order to be automated and applicable to sustainability-oriented policies, should be specific to this domain and use information models that will allow the translation between the policy continuum levels. The main contributions are the requirements for such a solution, the refinement method, the related architecture, and the prototype implementation, essential to the experiments that will prove the solution effectiveness. ACKNOWLEDGMENT This work was supported by the Innovation Center, Ericsson Telecomunicações, Brazil. REFERENCES [1] [2] [3] III. PROPOSED SOLUTION METHODOLOGY [4] Considering all the described issues and existing solutions, this work aims at proposing an automated policy refinement method applied to sustainability-oriented policies, translating policies and verifying if the low-level policies meet the highlevel policies requirements. This is an applied research work, which will use experiments in a testbed to validate the proposed refinement method. [5] [6] The following activity was already concluded: state-of-theart research considering (a) contextualization of the Policy Refinement Problem to sustainability-oriented policies; (b) identification of strategies for automated policy refinement and verification. Now, we are working in the method proposal considering: (c) specification of the functional requirements for sustainability-oriented policies refinement; (d) refinement method specification; (e) architecture specification to support the proposed method. After concluding the proposal, we will work on the Prototype implementation, considering: (f) specification and development of a testbed environment; (g) specification and implementation of the prototype; (i) experiments using the prototype to validate the proposed method. IV. [7] [8] [9] [10] [11] [12] EXPECTED RESULTS AND FINAL CONSIDERATIONS Policy refinement is still an open issue. Many proposals have been presented, but there is no fully automated method from the business level down to the instance level, nor an approach considering sustainability-oriented policies. The widespread adoption of policy based network management depends on this automation, as well as a sustainable operation for networks. In the future, such a solution can be used in conjunction with other tools inside a company to calculate carbon credits, for instance. [13] As expected results, this work aims at an automated approach to sustainability-oriented policies refinement. By [16] [14] [15] 54 R. Bolla, R. Bruschi, F. Davoli, and F. Cucchietti, “Energy efficiency n the future internet: A survey of existing approaches and trends in energy-aware fixed network infrastructures,” Communications Surveys Tutorials, IEEE, vol. 13, no. 2, pp. 223 –244, 2011. J. Rubio-Loyola, “Towards the Policy Refinement Problem in Policybased Management Systems: A synthesis study”, VDM, 2008. J. Strassner, “Policy-Based Network Management: Solutions for the Next Generation”, 1st ed. Morgan Kaufmann, Sep. 2003. J. D. Moffett and M. S. Sloman, “Policy hierarchies for distributed systems management,” Selected Areas in Communications, IEEE Journal on, vol. 11, no. 9, pp. 1404–1414, 1993. T. C. M. B. Carvalho, A. C. Riekstin, M. Amaral, C. H. A. Costa, G. C. Januario, C. K. Dominicini, and C. Meirosu, “Towards sustainable networks - energy efficiency policy from business to device instance levels,” in ICEIS, Poland, Jun. 2012, pp. 238–243. G. C. Januario, C. H. A. Costa, M. C. Amaral, A. C. Riekstin, T. C. M. B. Carvalho and C. Meirosu, “Evaluation of a Policy-Based Network Management System for Energy-Efficiency”, in 2nd IFIP International Symposium on Integrated Network Management, Belgium, May. 2013. A. Uszok, J. Bradshaw, J. Lott, M. Breedy, L. Bunch, P. Feltovich, M. Johnson, and H. Jung, “New developments in ontology-based policy management: Increasing the practicality and comprehensiveness of KAOS.” In POLICY 2008. Jun. 2008, pp. 145 –152. J. Rubio-Loyola, J. Serrat, M. Charalambides, P. Flegkas, and G. Pavlou, “A methodological approach toward the refinement problem in policy based management systems,” Communications Magazine, IEEE, vol. 44, no. 10, pp. 60 –68, Oct. 2006. Y. B. Udupi, A. Sahai, and S. Singhal. A classification-based approach to policy refinement. In Proc. of The Tenth IFIP/IEEE IM, 2007. Florida Institute for Human and Machine Cognition. KAoS project. M. S. Beigi, S. Calo, and D. Verma, “Policy transformation techniques in policy-based systems management”. In POLICY’04, p.13, USA,2004. R. Craven, J. Lobo, E. Lupu, A. Russo, M. Sloman, “Policy Refinement: Decomposition and Operationalization for Dynamic Domains”, in 7th IEEE Int. Conference on Network and Service Management. 2011. B. S. Liao and J. Gao. An automatic policy refinement mechanism for policy-driven grid service systems. In H. Zhuge and G. Fox, Grid and Cooperative Computing, p.166–171. Springer Berlin Heidelberg, 2005. T. Phan, J. Han, J.-G. Schneider, T. Ebringer, and T. Rogers, “A survey of policy-based management approaches for service oriented systems”. In ASWEC 2008, Mar. 2008, pp. 392 –401. A. Voellmy, H. Kim, and N. Feamster, “Procera: a language for highlevel reactive network control,” in Proceedings of the first workshop on Hot topics in software defined networks, ser. HotSDN ’12. New York, NY, USA: ACM, 2012, pp. 43–48. [Online]. Available: http://doi.acm.org/10.1145/2342441.2342451 C. Monsanto, N. Foster, R. Harrison, and D. Walker, “A compiler and run-time system for network programming languages,” in ACM SIGPLAN Notices, vol. 47, no. 1. ACM, 2012, pp. 217–230. Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP Método de Deformação Elástica para um simulador Virtual para treinamento de punção de mamas Ana Cláudia M. T. G. de Oliveira, Romero Tori Fátima L. S. Nunes Departamento Eng de Computação e Sistemas Digitais Escola Politécnica da Universidade de São Paulo São Paulo, Brasil. (anaoliveira, tori)@usp. br Escola de Artes, Ciências e Humanidades (EACH) Escola Politécnica da Universidade de São Paulo São Paulo, Brasil [email protected] Seidel. Estes conceitos são apresentados na sequência na Seção 2, os resultados e discussões são apresentados na Seção 3. Abstract—The manipulate of 3D objects that represents organs and human tissues is necessary in many medical training computational applications, these 3d objects, in function of the training requirements for which they are meant, such as shape, topology, color, volume texture and, in certain cases, physical properties such as elasticity and stiffness. In this paper is presented a method to simulate elastic deformation, obtaining equilibrium between visual and haptic realism. The results from deformation response time are compatible with those required for haptic interaction and the visual results from using meshes composed of a large number of polygons. II. Com a finalidade de aperfeiçoar o armazenamento e a manipulação destes vértices será empregada uma nova estrutura de dados (ED) chamada Mate Face (MF), que foi baseada na ED Opposite Face e implementada por Cunha (2009) [1]. A MF é uma estrutura flexível criada com o intuito de representar malhas bidimensionais e tridimensionais, além de poder representar malhas de vários tipos de polígonos. Cada elemento da MF (vértice, aresta, face ou célula) é representado por um identificador que representa sua posição em seu respectivo vetor de elementos. Esses identificadores podem ser chamados de índices globais. Além disso, os vértices, arestas e faces podem ter índices locais, que são referentes à sua posição na célula que os contém. O conceito de vizinhança é utilizado nos métodos de deformação, pois dada uma força aplicada em um determinado vértice, sendo que o resultado da deformação afeta os vizinhos deste vértice. A estrela dos vértices em malhas superficiais é uma operação que percorre todas as células incidentes a um dado vértice, utilizando para isso as referências de vizinhança entre as células. Keywords—deformable models; soft tisue; simulation; Virtual Reality; Resumo - A manipulação de objetos 3D que representam os órgãos e tecidos humanos é necessária em muitas aplicações computacionais para treinamento médico. Esses objetos 3D em função dos requisitos dos treinamentos a que se destinam, podem abranger forma, topologia, cor, volume, textura e, em alguns casos, propriedades físicas, como rigidez e elasticidade. Neste artigo é apresentado um método para simular a deformação elástica, obtendo-se um equilíbrio entre o realismo visual e háptico. Os resultados do tempo de resposta de deformação são compatíveis com os exigidos para uma interação háptica, e os resultados visuais são alcançados com malhas com um grande número de polígonos. O método Massa Mola possui as seguintes vantagens: rápido e fácil de implementar, a inicialização não é necessária, as mudanças na topologia malha podem ser facilmente manipulados, além disso, é adequado para computação paralela. O Massa Mola com o Método de Elementos Finitos não linear e cita que a vantagem do Massa Mola é a robustez para rotações e grandes deformações e que é a abordagem mais popular para simulação de objetos deformáveis em tempo real [2]. O Massa Mola tem sido muito utilizado em simulação de roupas, animação de faces e comportamento de tecidos moles em sistemas para treinamento médico [2]. O Massa Mola é baseado na segunda Lei de Newton, que determina que “Se uma força externa resultante, ⃗ ·, atuar sobre um objeto com massa m, a força causará um aceleração, ⃗ , no mesmo sentido da força”, ⃗ = ⃗ , sendo “F” a força aplicada, “m” a massa e “a” aceleração. Assim como também utiliza da Lei de ⃗ , no qual “F” Hooke que possui a seguinte formula ⃗ também representa a força, “K” é a constante elástica da mola e “X” é o deslocamento, que representa a deformação desta mola. Segundo o Enunciado da Lei de Hooke a intensidade da força é proporcional à deformação “X” e o sinal negativo representa que o vetor de força atua no sentido contrário da deformação. Palavras-chave – Modelos deformáveis; simulação, tecidos moles; Realidade Virtual. I. MÉTODOS E TECNOLOGIAS UTILIZADAS INTRODUÇÃO A ideia central do método proposto neste trabalho é simular objetos 3D volumétricos por meio de várias superfícies, no intuito de melhorar a simulação referente ao comportamento físico e garantir um melhor realismo, tanto visual quanto háptico. Cada uma das superfícies será tratada de forma independente em relação aos parâmetros físicos, quantidade de polígonos da malha e, ainda quanto ao método usado para simular a deformação. Desta forma, será possível simular o comportamento físico dos tecidos humanos. Na tentativa de diminuir o custo computacional e possibilitar o uso de malhas com um maior número de polígonos foi utilizada uma Estrutura de Dados chamada Mate Face para armazenar e manipular os dados da malha dos objetos 3D. Para a implementação desta abordagem será utilizada o Método Massa Mola, a Estrutura de Dados Mateface. Além disso, para resolver o sistema linear resultante do Massa Mola será utilizado o método iterativo Gauss – 55 Oliveira, Nunes e Tori ∑ Considera-se um corpo físico representado geometricamente por uma malha, com “n” nós, interligados por arestas , } { }. A cada nó i da malha é onde ( ) { associada uma partícula de massa, a qual está vinculada as suas vizinhas mais próximas (j=1, 2,....,K), por molas de constantes elásticas Kij. O deslocamento é representado por (⃗⃗⃗⃗⃗ ⃗⃗⃗ ). O coeficiente de rigidez da mola-aresta é dado por , conforme Equação 1. ⃗ ∑ ( ) (⃗⃗ -⃗⃗⃗ ) √ ⃗⃗⃗⃗⃗⃗⃗ √ (⃗⃗⃗ ∑ ( (1) III. ⃗⃗ ) (⃗⃗ ) (5) ) RESULTADOS E DISCUSSÕES Nas Figura (a) e Figura 1(b) são representados os resultados visuais das deformações ocorridas na malha com 500 vértices e com 5000 vértices, o resultado visual é melhor com a malha com 5000 vértices, e o tempo de resposta alcançado com a utilização do método dos vértices ativos é consideravelmente mais eficiente. Tal eficiência aumenta proporcionalmente em relação à quantidade de vértices. O tempo de resposta se mantem satisfatórios quando são incluídas novas camadas no objeto 3D, conforme Figura 1(c). Os resultados obtidos até o momento foram validados com base na taxa de atualização da interação háptica, porém novos experimentos serão realizados, inclusive o realismo visual e háptico serão avaliados por profissionais da área médica. Porém será uma avaliação subjetiva, uma vez que não existe métrica para realismo. A. Inclusão de parâmetros físicos A inclusão de parâmetros físicos no método Massa Mola é um tema que desperta interesse em vários pesquisadores [5], [2]. A Equação 3 foi elaborada a partir dos trabalhos [2]. Neste trabalho a derivação para o caso plano de tensão, a condição necessária para resolver o sistema de equações foi atribuir o valor v=1/3 para taxa de Poisson. Assim, a condição teórica para v é garantida pelos resultados experimentais [2]. A taxa de Poisson foi incorporada a Equação 3 é representa por √ ⁄ . ∑ (4) Após encontrar os valores de K, m e c, então estes valores serão aplicados na Equação (5). Para resolução do sistema linear, é utilizado o método de Gauss-Seidel (Equação 2). Este é um método iterativo apropriado para sistemas lineares da forma Ax + b = 0, em que A é uma matriz esparsa (n*n), x e b são matrizes de tamanho n. Neste algoritmo, é feita uma aproximação do resultado por meio de repetidas iterações sobre a matriz x com base nos valores obtidos na iteração anterior. Além disso, durante a execução do método, apenas valores diferentes de zero são processados [3]. Outro mecanismo importante utilizado neste trabalho é o conceito de vértices ativos, inativos e fixos, que ajuda a evitar o desperdício de processamento. Vértices fixos são aqueles que não são movimentados, e, portanto, não entram no cálculo. Vértices ativos são os que entram no cálculo do método Gauss-Seidel. Por fim, os inativos são movimentados apenas se estão diretamente ligados com os vértices fixos que se deslocam [4]. Os resultados visuais da deformação obtidos quando utilizada a Equação 1 são super elásticos. Pois o valor de “K” não representa fisicamente o comportamento o objeto 3D. Por isso foi feito um estudo sobre a inclusão de parâmetros físicos, que são apresentados na subseção A. ( ) (3) (a) (b) (c) Figura 1. Resultados da deformação com diferentes objetos 3D. AGRADECIMENTOS Os autores agradecem ao CNPq, à Fapesp e ao INCT–MACC pelo apoio financeiro. REFERENCES [1] (2) [2] Outro parâmetro importante é o valor da massa atribuído à malha. Em uma malha triangular e para distribuir com precisão a massa total da malha, é calculada a massa “ ” de cada vértice “i” de acordo com a área do triângulo adjacente ”j” [6]. A densidade é dada pelo material que se pretende simular. Na Equação (3) é uma adaptação realizada por Phannurat et al. (2008) [6]. A constante de amortecimento da mola é parâmetro importante para simular uma deformação realística, na literatura este parâmetro tem sido utilizado como uma constante em todo o sistema de molas. Para simular o melhor comportamento dos modelos, a constante de amortecimento da mola de amortecimento “c”, é obtida de acordo com a Equação (4), sendo M a massa final entre . [3] [4] [5] [6] 56 I. L. L. Cunha, “ Estrutura de dados Mate Face e aplicações em geração e movimento de malhas”. Thesis - ICMC University of São Paulo. 2009. B. A. Lloyd; G. Szekely; M. Harders, M., "Identification of Spring Parameters for Deformable Object Simulation," Visualization and Computer Graphics, IEEE Transactions on , vol.13, no.5, pp.1081,1094, Sept.-Oct. 2007. H. Courtecuisse; J. Allard "Parallel Dense Gauss-Seidel Algorithm on Many-Core Processors," High Performance Computing and Communications, HPCC '09. pp.139-147, 2009. I. P. Soares Movimento de malhas e remalhamento de malhas superficiais. Thesis – ICMC University of São Paulo. 2007. E. Basafa; F. Farahmand “Real-time simulation of the nonlinear viscoelastic deformations of soft tissues”. International Journal of Computer Assisted Radiology and Surgery, v. 6, p. 297-307, 2011. P. Phannurat, W. Tharanon, and C. Sinthanayothin, “Simulation of Elastic Soft Tissue Deformation in Orthodontics by Mass Spring System”. 3rd International Symposium on Biomedical Engineering (ISBME), 2008. Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP Avaliação de interação háptica em ambientes virtuais para treinamento na área de saúde Fátima L. S. Nunes Cléber Gimenez Corrêa, Romero Tori Laboratório de Aplicações de Informática em Saúde - LApIS Laboratório de Tecnologias Interativas - Interlab Escola de Artes, Ciências e Humanidades da Escola Politécnica da Universidade de São Paulo - EPUSP Universidade de São Paulo - EACH/USP São Paulo, Brasil São Paulo, Brasil [email protected], [email protected] [email protected] possibilite indicar níveis de realismo. A abordagem não consiste em verificar se o usuário adquiriu conhecimento ou habilidades motoras para realizar um determinado procedimento, e sim em elaborar uma forma de avaliar a interação háptica oferecida por um sistema de simulação, no contexto de treinamento em saúde, considerando uma situação ou procedimento específico. A interação háptica ou tátil é considerada um elemento importante em ferramentas deste tipo. Deve-se ressaltar que a subárea de saúde selecionada para uma primeira experiência foi a odontologia, especificamente o procedimento para bloqueio do nervo alveolar inferior, um procedimento que apresenta alta taxa de insucesso. Os usuários são especialistas na subárea, consistindo em docentes da Faculdade de Odontologia de Bauru da Universidade de São Paulo (FOB/USP). As justificativas estão alicerçadas sobre a ausência de métricas desta natureza e a relevância de uma especificação adequada de realismo proporcionado por ambientes virtuais, principalmente ambientes no domínio de treinamento em saúde. Abstract—Virtual Reality based-systems are broadly used in the health area, mostly in the training. However, in order to achieve a suitable realism, desirable feature in computational systems of this type, certain attributes, such as those related to the characteristics of devices, should be evaluated in the context of the training. These attributes can cause problems in the human-computer interaction, invalidating the training. Thus, the development of an objective metric of quality of the haptic interaction can assist in the assessment, contributing to the building and validation of these systems. In the previous paper, the main objective consisted in the development of a training system in dental anesthesia with haptic interface. Keywords- Assessment; haptic interaction; training. Resumo— Os sistemas baseados em Realidade Virtual são amplamente utilizados na área de saúde, principalmente no treinamento. Entretanto, para atingir um realismo adequado, qualidade desejável em sistemas computacionais desta natureza, determinados atributos, como aqueles relacionados às características de dispositivos, devem ser avaliados no contexto do treinamento. Tais atributos podem causar problemas na interação humano-computador, inviabilizando o treinamento. Dessa forma, a elaboração de uma métrica objetiva de qualidade da interação háptica pode auxiliar na avaliação, contribuindo para o desenvolvimento e validação de sistemas desse tipo. No trabalho anterior, o ponto central consistia no desenvolvimento de um sistema de treinamento em anestesia odontológica com interface háptica. II. R EVISÃO DA L ITERATURA Palavras-chave- Avaliação; interação háptica; treinamento. A revisão do estado da arte demonstrou que há uma escassez de métricas objetivas para avaliação da interação háptica humano-computador em ambientes virtuais [1], principalmente relacionados à área de saúde, sendo que há uma série de métricas para avaliação de qualidade de áudio e imagem [2]. Em síntese, a maioria das avaliações da área consiste em testes subjetivos. I. I NTRODUÇÃO Os sistemas de Realidade Virtual são considerados como ferramentas de treinamento capazes de fornecer experiência aos aprendizes, principalmente na área de saúde. Tais ferramentas minimizam ou eliminam riscos aos pacientes, bem como a insegurança dos próprios aprendizes, que normalmente treinam em manequins, seus pares ou em pacientes reais [1]. Entretanto, problemas no contexto de treinamento virtual envolvem a definição e mensuração de realismo, visto que o objetivo é que a ferramenta comporte-se de forma semelhante ao mundo real. O presente trabalho visa a especificação de uma métrica objetiva baseada em testes subjetivos com usuários, que III. M ATERIAIS E M ÉTODOS Questionários com escala Likert-7 serão elaborados para coleta dos dados subjetivos junto aos especialistas. Com relação ao desenvolvimento do sistema computacional a ser utilizado nos testes experimentais, foram adotados um dispositivo háptico comercial e um framework de Realidade Virtual voltado ao treinamento médico [3]. 57 Corrêa, Nunes e Tori Tabela I A SPECTO HÁPTICO IV. D ESENVOLVIMENTO As atividades realizadas foram o levantamento de requisitos do sistema na FOB/USP, adaptação do dispositivo háptico, substituindo a caneta pela seringa Carpule (instrumento utilizado na aplicação de anestesia), a segmentação do procedimento em tarefas para testar atributos de forma isolada e a implementação de parte do sistema computacional (Figura 1) [4]. Os testes para especificação da métrica estão em estágio de planejamento. A adaptação do dispositivo pode ser observada na Figura 2. Atributo Taxa de atualização Força máxima de retorno Ergonomia do dispositivo Movimento de rotação Valor 01 500 Hertz 2.2 Newtons Caneta original 3 graus Valor 02 1.000 Hertz 3.3 Newtons Seringa Carpule 6 graus Tabela II A SPECTO V ISUAL Atributo Taxa de atualização Aparência dos modelos Complexidade dos modelos Pontos de vista - 2D Valor 01 30 Hertz Textura 2 camadas 1 ponto de vista Valor 02 60 Hertz Cor 3 camadas 2 pontos de vista Para trabalhos futuros, a métrica deverá ser aplicada no domínio de treinamento em biópsia mamária, com o intuito de ampliar e verificar a viabilidade da métrica em outras subáreas de saúde. Além disso, a adição e modificação de atributos devem ser realizadas, bem como o refinamento dos valores, incluindo a participação de mais especialistas, embora especialistas de diferentes centros médicos ou odontológicos podem atuar de formas distintas diante de uma mesma situação, visto que outros fatores (sociais, psicológicos e ambientais) podem interferir no contexto. Figura 1. Sistema de treinamento para aplicação de anestesia odontológica com dois pontos de vista. AGRADECIMENTOS Os autores agradecem ao Instituto Nacional de Ciência e Tecnologia - Medicina Assistida por Computação Científica (INCT-MACC) - Edital 15/2008, à CAPES (Coordenação de Aperfeiçoamento de Pessoal de Nível Superior), pelo apoio financeiro; ao Grupo de Design em Saúde, pela confecção dos modelos sintéticos tridimensionais; e aos discentes e docentes da FOB/USP, pela contribuição no levantamento de requisitos. R EFERÊNCIAS Figura 2. [1] T. R. Coles, D. Meglan, and N. W. John, “The role of haptics in medical training simulators: A survey of the state of the art,” IEEE Transactions on Haptics, vol. 4, no. 1, pp. 51–66, Jan.-Mar. 2011. Substituição da caneta do dispositivo háptico para adaptação. V. R ESULTADOS [2] E. Steinbach, S. Hirche, M. Ernst, F. Brandi, R. Chaudhari, J. Kammerl, and I. Vittorias, “Haptic communications,” Proceedings of the IEEE, vol. 100, no. 4, pp. 937–956, 2012. Para a elaboração da métrica, a especificação de determinados atributos foi realizada, a qual foi baseada no levantamento de requisitos, na tarefa a ser desempenhada no ambiente e no dispositivo háptico adotado. Nas tabelas I e II os atributos e os valores definidos empiricamente podem ser observados, considerando o aspecto háptico, bem como a influência do aspecto visual. [3] A. C. M. T. G. Oliveira and F. L. S. Nunes, “Building an open source framework for virtual medical training,” Journal of digital imaging: the official journal of the Society for Computer Applications in Radiology, vol. 23, no. 06, pp. 706–720, Dec. 2010. VI. C ONCLUSÃO [4] C. G. Corrêa, R. Tori, and F. L. S. Nunes, “Haptic simulation for virtual training in application of dental anesthesia,” in Proceedings of the 2013 XV Symposium on Virtual and Augmented Reality, 2013, pp. 63–72. A aplicação dos testes subjetivos deve averiguar se a simulação háptica, ainda que limitada, pode oferecer uma experiência ”realista” ao usuário, e quais atributos são relevantes no contexto. 58 Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP Framework conceitual para a integração de bases de dados de Biodiversidade distribuídas em larga escala Daniel Lins da Silva Pedro Luiz Pizzigatti Corrêa Escola Politécnica da USP – Sistemas Digitais – Universidade de São Paulo São Paulo, Brasil [email protected] Escola Politécnica da USP – Sistemas Digitais – Universidade de São Paulo São Paulo, Brasil [email protected] Abstract — In recent years the integration of computational systems and databases of biodiversity have been one of the major challenges in the field of Biodiversity Informatics. The diversity and heterogeneity of existing data systems and data models makes the process even more complex. In parallel, the technological advances in storage and communication of data, the discovery of new techniques for the acquisition and digitization of information and the advancement of tools for generating content through the Internet, also contribute to the growth of these massive data. In Brazil, government initiatives for digitalizing of environmental data and the creation of open data policies are also generating a significant increase of data in the databases of environmental systems. Data from other domains, such as social and economic, are also considered in these systems, because their importance in processes of environmental impact analysis. But after the integration of these data many challenges are identified. How to perform the efficient management of large-scale data that are stored in a distributed computational infrastructure? From this scenario, this project proposes the development of a conceptual framework, based on distributed systems technologies and big data, enabling the management of these long-term data, considering its growth and its relationship with new information domains. To the validation of this model we will analyse the computational scenario of data interoperability from the Ministry of Environment of Brazil and its related institutions. destes dados novos desafios são identificados. Como realizar a gestão eficiente de dados em larga escala que são armazenados em uma infraestrutura computacional distribuída? A partir deste cenário, este projeto propõe a elaboração de um framework conceitual, baseado em tecnologias de sistemas distribuídos e Big Data, que possibilite a gestão destes dados em longo prazo, considerando seu crescimento e o seu relacionamento com novos domínios de informação. Para validação do modelo será analisado o cenário computacional da interoperabilidade de dados do Ministério do Meio Ambiente do Brasil e de suas instituições vinculadas. Keywords— Sistemas Distribuídos; Biodiversidade; Big Data; Interoperabilidade; I. INTRODUÇÃO Nos últimos anos a integração de sistemas computacionais e bases de dados de biodiversidade têm sido um dos grandes desafios da área de Biodiversity Informatics [1]. A diversidade dos dados existentes e a heterogeneidade dos sistemas e das informações torna o processo ainda mais complexo. Em paralelo, os avanços tecnológicos no armazenamento e na comunicação de dados, a descoberta de novas técnicas para aquisição e digitalização de dados e o avanço das ferramentas de geração de conteúdo por meio da internet, contribuem para o crescimento massivo destes dados [2]. Keywords— Distributed Systems; Biodiversity; Big Data; Interoperability; Relacionado a este cenário, diversas pesquisas têm buscado soluções para os desafios provenientes da manipulação de grandes volumes de dados, também chamado de Big Data. Sendo que este não é o único desafio. Além da diversidade e heterogeneidade dos dados de biodiversidade, existe um grande variedade de dados provenientes de outros domínios, que ao serem integradas nesta arquitetura possibilitam análises adicionais de problemas complexos como os impactos das mudanças climáticas no planeta [3]. Como realizar a gestão eficiente de dados em larga escala, que são armazenados em uma infraestrutura computacional distribuída? Como gerar valor agregado a esta informação após a sua integração com outros domínios de informação relacionados? Resumo — Nos últimos anos a integração de sistemas computacionais e bases de dados de biodiversidade têm sido um dos grandes desafios da área de Biodiversity Informatics. A diversidade dos dados existentes e a heterogeneidade dos sistemas e modelos de dados torna o processo ainda mais complexo. Em paralelo, os avanços tecnológicos de armazenamento e comunicação de dados, a descoberta de novas técnicas para aquisição e digitalização dos dados e o avanço das ferramentas de geração de conteúdo por meio da internet, também contribuem para o crescimento massivo destes dados. No Brasil, iniciativas governamentais de digitalização de dados ambientais e a criação de políticas de dados abertos também estão gerando um aumento significativo nas bases de dados dos sistemas ambientais. Dados de outros domínios, como sociais e econômicos, também são considerados nestes sistemas, pelo sua importância em processos de análise de impacto ambiental. Sendo que após a integração Este projeto propõe a elaboração de um framework conceitual, baseado em tecnologias de Sistemas Distribuídos e Big Data, para possibilitar a gestão em longo prazo de dados massivos de biodiversidade em uma arquitetura distribuída, 59 Silva e Corrêa possibilitando também seu relacionamento com informações de outros domínios. II. biodiversidade. Algumas focadas na definição de chaves taxonômicas globais [1], outras pesquisas definindo uma solução de arquitetura para a integração de dados ambientais [5]. Também existem abordagens para a integração de dados com uma visão de longo prazo [6] e com foco em Big Data [7], [8]. Sendo que estudos mostram que as ferramentas que tratam de dados em larga escala perdem eficiência quando envolvem a necessidade de armazenamento de dados heterogêneos [3]. Com base nestas informações, a revisão da literatura está sendo realizado com foco principal nas áreas de Big Data, interoperabilidade e gestão de dados de biodiversidade e sua interação com dados socioeconômicos. OBJETIVOS Os principais objetivos deste projeto de pesquisa são: Definir um framework conceitual para a gestão, em longo prazo, de dados massivos de biodiversidade em uma arquitetura distribuída, considerando a utilização de conceitos de Sistemas Distribuídos e Big Data. Definir um modelo de dados que possibilite o relacionamento das diversas informações de biodiversidade com dados de outros domínios da ciência, com o objetivo de compreender problemas complexos e apoiar possíveis soluções de análise e apoio a tomada de decisão. III. REFERENCES [1] RELEVÂNCIA [2] Um dos grandes desafios da ciência é apoiar o desenvolvimento sustentável do planeta. Mudanças climáticas, populacionais, na biodiversidade de uma região ou nos níveis dos oceanos, afetam diretamente o bem-estar da população mundial e geram consequências como fome, doenças, migrações populacionais e a pobreza. Existe a necessidade de uma análise integrada de dados ambientais, sociais e econômicos, onde os impactos nestas áreas poderão ser analisados de forma abrangente. Conforme identificado pela International Council for Science (ICSU), os cinco grandes desafios da ciência nesta década, na área de Big Data, estão relacionados com a busca de conhecimento necessário para garantir um desenvolvimento sustentável do planeta, por meio da integração das diversas áreas do conhecimento [4]. [3] [4] [5] [6] No Brasil diversas iniciativas para digitalização, integração e análise de dados ambientais estão em andamento, gerando uma grande quantidade de dados ambientais e científicos. Como organizar estes dados da forma com que se possa obter benefícios a partir de sua análise? A proposta desta pesquisa é propor uma solução para estes desafios por meio de um modelo distribuído para a gestão sustentável destes dados. IV. [7] [8] REVISÃO DA LITERATURA Dentro da área de Biodiversity Informatics diversas pesquisas foram realizadas com foco na integração de dados de 60 R. D. M. Page, “Biodiversity informatics: the challenge of linking data and the role of shared identifiers”, Brief. Bioinform., vol. 9, no 5, p. 345– 354, abr. 2008. M. Branco, “Distributed data management for large scale applications”, phd, University of Southampton, 2009. M. A. Parsons, Ø. Godøy, E. LeDrew, T. F. de Bruin, B. Danis, S. Tomlinson, e D. Carlson, “A conceptual framework for managing very diverse data for complex, interdisciplinary science”, J. Inf. Sci., vol. 37, no 6, p. 555–569, dez. 2011. “International Council for Science (ICSU) and the Challenges of Big Data in Science”, Research Trends. [Online]. Available at: http://www.researchtrends.com/issue-30-september-2012/internationalcouncil-for-science-icsu-and-the-challenges-of-big-data-in-science/. [Acessado: 15-maio-2013]. J. Bendix, J. Nieschulze, e W. K. Michener, “Data platforms in integrative biodiversity research”, Ecol. Informatics, vol. 11, p. 1–4, set. 2012. S. L. Collins, S. R. Carpenter, S. M. Swinton, D. E. Orenstein, D. L. Childers, T. L. Gragson, N. B. Grimm, J. M. Grove, S. L. Harlan, J. P. Kaye, A. K. Knapp, G. P. Kofinas, J. J. Magnuson, W. H. McDowell, J. M. Melack, L. A. Ogden, G. P. Robertson, M. D. Smith, e A. C. Whitmer, “An integrated conceptual framework for long-term social– ecological research”, Front. Ecol. Environ., vol. 9, no 6, p. 351–357, nov. 2010. E. Aronova, K. S. Baker, e N. Oreskes, “Big Science and Big Data in Biology: From the International Geophysical Year through the International Biological Program to the Long Term Ecological Research (LTER) Network, 1957–Present”, Hist. Stud. Nat. Sci., vol. 40, no 2, p. 183–224, maio 2010. L. Dai, X. Gao, Y. Guo, J. Xiao, e Z. Zhang, “Bioinformatics clouds for big data manipulation”, Biol. Direct, vol. 7, no 1, p. 43, nov. 2012. Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP Uma extensão do agroXML para representação do conhecimento técnico das operações agrícolas da cana-de-açúcar através de ontologia Elcio Abrahão André Riyuiti Hirakawa Laboratório de Automação Agrícola Departamento de Engenharia de Computação Escola Politécnica - Universidade de São Paulo (USP) Av. Prof. Luciano Gualberto, travessa 3, nº 158, sala C2-56 Cidade Universitária - São Paulo - SP - CEP 05508-900 [email protected] Laboratório de Automação Agrícola Departamento de Engenharia de Computação Escola Politécnica - Universidade de São Paulo (USP) Av. Prof. Luciano Gualberto, travessa 3, nº 158, sala C2-56 Cidade Universitária - São Paulo - SP - CEP 05508-900 [email protected] sobre o domínio das operações agrícolas da cana-de-açúcar, dificultando o processo de tomada de decisões operacionais e gerenciais na cadeia de produção. A proposta deste artigo é apresentar uma extensão para o padrão agroXML baseado em uma ontologia. Ontologia é o estudo do conhecimento sobre um determinado domínio, no caso, as operações agrícolas da cana-de-açúcar no Brasil. A extensão proposta será referenciada pelo agroXML [2]. Isto permitirá uma maior agilidade na tomada de decisões operacionais e gerencias das operações agrícolas da produção de cana de açúcar. Abstract — There is a huge exchange of information among information systems on the sugar cane production chain to manage all the agriculture operations. Although there are standards to transport and represent operations shared data, there is no standard to represent specific knowledge of such data. This article aims at proposing a extension of the agroXML protocol to represent and share the knowledge about the sugar cane operations domain through a formal ontology. Access to this knowledge will allow better operational and managerial decisionmaking throughout the whole production chain. Keywords — agroXML, sugar-cane, agriculture operations, ontology. II. Resumo — Há uma grande troca de informações entre os diversos sistemas de informática na cadeia de produção da canade-açúcar. Apesar de já existirem padrões para transporte e representação dos dados destas operações, não há um padrão para representação do conhecimento específico destes dados. Este artigo propõe uma extensão do padrão agroXML para representar e compartilhar o conhecimento técnico sobre o domínio das operações agrícolas da cana-de-açúcar através da criação de uma ontologia. O acesso a esse conhecimento permitirá uma melhora na qualidade da tomada de decisões operacionais e gerenciais em toda a cadeia de produção. Para desenvolver uma ontologia que possa ser referenciada através de uma extensão do protocolo agroXML foi utilizado um método descrito por Zheng [7] que consta de 4 fases: (a) aquisição de conhecimento; (b) representação do conhecimento; (c) formalização da ontologia e (d) avaliação da ontologia. A ontologia resultante foi base para o desenvolvimento da extensão do protocolo agroXML. A. Aquisição do Conhecimento As operações agrícolas são classificadas conforme os grandes grupos de operações: (a) Plantio, (b) Cultivo, (c) Colheita e (d) Apoio. Os nomes que identificam as operações são atribuídos segundo o padrão AGROVOC [1] em português e inglês e foi feita uma descrição simplificada de cada operação para facilitar a distinção entre as mesmas. Palavras chave — agroXML, cana-de-açúcar, operações agrícolas, ontologia. I. MATERIAL E MÉTODOS INTRODUÇÃO Segundo [6] as operações agrícolas representam cerca de 67,16% do custo de processamento do açúcar e do etanol e há grande competição entre os produtores que estão constantemente em busca de redução de custos e aumento da produtividade. Neste cenário os sistemas de informação são de fundamental importância e a cadeia de produção depende da troca de informações para operar e gerenciar a produção agrícola. B. Representação do Conhecimento A segunda fase consiste na criação de conceitos, sua classificação e criação de relacionamentos entre estes conceitos. Este processo deve ser acompanhado por um especialista e validado a fim que não haja conceitos redundantes ou regras conflitantes. Os seguintes relacionamentos devem são identificados: (a) Recursos utilizados por cada operação; (b) Ordem de execução das operações; (c) Parâmetros para as regras de restrição. Apesar de já existirem padrões consolidados para troca de informações entre sistemas agrícolas [3], não existe um padrão para representar e compartilhar os conhecimentos técnicos 61 Abrahão e Hirakawa pode ser apontada antes de uma operação de distribuição de mudas. Fig. 1. Hierarquia de classes gerado pela ontologia. C. Formalização da Ontologia Uma vez determinados os conceitos, relacionamentos e regras foi utilizada a OWL [4] para representar a ontologia que originou a extensão XML a ser referenciada pelo agroXML D. Avaliação da Ontologia A avaliação propõe uma prova de conceito onde as tabelas das operações serão enviadas a seis produtores que serão solicitados a classificar cada operação com notas de 0 (menos adequado) até 5 (mais adequado) nos seguintes quesitos: (a) nome da operação; (b) classificação no grande grupo; (c) atribuição de recursos; (d) lista de parâmetros; (e) regras de restrição. Fig. 3. XML Schema que representa a hierarquia da ontologia. IV. A descrição do conhecimento técnico de operações agrícolas através de um estudo ontológico e sua representação formal através da OWL contribui para a melhoria da tomada de decisões operacionais e gerenciais é pode ser estendida a operações agrícolas de outras culturas. Este artigo apresentou uma extensão do agroXML para as operações agrícolas da cana-de-açúcar no Brasil que mantem a compatibilidade com o protocolo original e permite a melhoria na tomada de decisões em toda a cadeia de produção. E. Extensão para o protocolo agroXML Após a formatação da ontologia utilizando o OWL foi utilizado o XML Schema [5] para gerar uma extensão para o agroXML. [1] [2] Fig. 2. A esquerda os relacionamentos necessários para reaizar uma operação de herbicida e a direita as restrições aplicaveis a mesma operação. III. CONCLUSÃO [3] RESULTADOS E DISCUSSÃO [4] A hierarquia de classes gerada pela ontologia é apresentada na figura 1. Na figura 2 são exibidos os relacionamentos de uma operação agrícola de pulverização de herbicidas em pósemergência e as regras de restrição para os parâmetros das operações. A hierarquia de classes OWL, figura 3, origina um XML Schema para ser associado ao protocolo agroXML no formado de um arquivo de extensão. [5] [6] Em comparação com o protocolo original a adição do extensão pode, entre outros benefícios, impedir erros no sequenciamento de operações, por exemplo: uma operação de cobertura de sulcos para um determinado talhão de cana não [7] 62 AGROVOC Thesaurus, Food and Agriculture Organization of the United Nations (FAO). [2011-02-13]. http://aims.fao.org/website/AGROVOCThesaurus/sub Douschitz, R., Kunisch, M., Jungbluth, T. e Eider, C. 2005. agroXML A Standardized Data Format for Information Flow in Agriculture. In: EFITA/ WCCA, Portugal. Santos, C. ; Riyuiti, A. An Overview of the Use of Metadata in Agriculture - IEEE Latin America Transactions, Jan. 2012, Vol.10(1), pp.1265-1267 W3C, OWL Web Ontology Language, W3C Recommendation, disponível em: http://www.w3.org/TR/owl-features/, acessado em 12/05/2013 W3C, Extensible Markup Language Schema (XML Schema) 1.1 - W3C Recommendation, disponível em: http://www.w3.org/XML/Schema, acessado em: 12/05/2013. Xavier, C., Rosa, J. Custos da Produção de Cana-de-Açúcar, Açúcar e Etanol no Brasil, Safra 2011/2012 - Pecege - ESALQ - USP, Brasília, Agosto 2012, 24p. Zheng, Y.L., He, Q.Y., Qian, P. e Li, Z., Construction of the OntologyBased Agricultural Knowledge Management System. Journal of Integrative Agriculture 11, 2012, 700-70. Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP Plataforma Online de Produção, Execução e Compartilhamento de Conteúdos Interativos de Realidade Virtual Evandro C. Freiberger Romero Tori Interlab POLI/USP, Brazil Email: [email protected] Interlab POLI/USP, Brazil Email: [email protected] Resumo—Realidade Virtual e Aumentada são usadas na produção de simulações complexas para ambientes virtuais 3D, utilizando-se de dispositivos de entrada e de saída não triviais, para fornecer aos usuários uma sensação de imersão em um mundo sintético em tempo real. Nesse trabalho é apresentado um modelo arquitetural para uma plataforma de produção, compartilhamento e execução de aplicações de realidade virtual. O objetivo é produzir e validar um modelo arquitetural que possibilite a produção colaborativa por meio do reuso de conteúdo interativo em ambiente de nuvem. A plataforma foi projetada com base no paradigma de computação orientada a serviços, com o objetivo de promover a interoperabilidade, flexibilidade e baixo acoplamento entre os componentes. Abstract—Virtual and Augmented Reality are used in the production of complex virtual environments, using non-trivial input and output devices to provide users with a sense of immersion in real-time synthetic worlds. In this paper we present an architectural model for a platform for the production, sharing and implementation of Virtual Reality applications. The goal is to produce and validate an architectural model that enables the collaborative production through the reuse of interactive content in cloud environment. The platform was designed based on the paradigm of service-oriented computing, aiming to promote interoperability, flexibility and low coupling between components. I. I NTRODUÇÃO Os ambientes virtuais 3D (AV) possibilitam a ampliação dos sentidos e das capacidades dos seres humanos, podendo ver, ouvir, sentir, acionar e viajar muito além das capacidades naturais, criando alternativas para a produção de aplicações voltadas para o entretenimento, simulações e treinamento [7]. Muitos trabalhos de pesquisas estão sendo desenvolvidos para promoverem ganhos na produção de AV, em especial, aqueles que envolvem aplicações de realidade virtual (RV). Várias abordagens com diferentes níveis de granularidade de componentes foram propostas para viabilizar o aumento de produtividade e qualidade no desenvolvimento de aplicações de RV. Podem ser citados exemplos como as API (Application Programming Interface), os frameworks e as plataformas de componentes. Também são encontradas propostas que combinam o desenvolvimento orientado a componentes com a computação distribuída, permitindo que os sistemas de aplicação RV sejam distribuídos em vários nós de redes de computadores. Computação orientada a serviços (COS) envolve conceitos 63 originários de uma variedade de disciplinas, como sistemas de computação distribuída, arquiteturas de computadores e middlewares, computação em grade, engenharia de software, linguagens de programação, sistemas de banco de dados, segurança e representação de conhecimento. A solução técnica mais adotada para o desenvolvimento de computação orientada a serviços atualmente é o Web Services [5]. Com o objetivo de aumentar o potencial de reuso e compartilhamento de conteúdos interativos, este trabalho propõe uma plataforma de software orientada a serviços com vistas a permitir a produção, execução e compartilhamento de conteúdo interativo de aplicações de RV em ambiente distribuído e online. Além da plataforma é proposto um modelo de representação de mundos virtuais composto por elementos que podem ser recombinados para produzirem outros mundos virtuais. II. T RABALHOS R ELACIONADOS Shao e McGraw [6] propõem um framework que combina COS e Computação em Nuvem para produzir simulação militar, por meio da composição de componentes. Li et al. [4] apresentam um middleware baseado em componentes para produção de aplicações de RV para simulação de subestações de transformação de energia elétrica. Filho et al. [3] descrevem uma plataforma composta por um conjunto de frameworks e ferramentas com o propósito de facilitar e acelerar o desenvolvimento de ambientes virtuais. Chevaillier et al. [1] propõem uma metodologia de desenvolvimento e um framework para a concepção de ambientes semânticos de RV por meio de modelos baseados em UML. III. M ODELO A RQUITETURAL A plataforma especificada é caracterizada como um barramento de serviços, cujo diferencial, está na capacidade de produção e execução de aplicações de RV, em um ambiente distribuído online. A visão lógica dos elementos da plataforma, ilustrada pela Figura 1, é constituída por quatro subsistemas e suas relações de dependência. A seguir serão apresentados os subsistemas: • Produção de Mundos Virtuais - possui as funcionalidades para a criação, alteração, exclusão e reuso de elementos de mundos virtuais. Os mundos virtuais, cenas e objetos virtuais são mantidos em repositórios para que Freiberger e Tori em uma fase de desenvolvimento e disponibilização, onde todas as funcionalidades dos subsistemas serão implementadas para implantação e disponibilização da plataforma em um ambiente produção. V. C ONCLUSÃO Os resultados obtidos com a plataforma apontam para três pontos favoráveis. O primeiro é obtido pelas características do modelo arquitetural proposto, que em função do uso do paradigma da computação orientada a serviços, permite que qualquer aplicação capaz de invocar Web Services possa consumir os serviços oferecidos pela plataforma. O segundo ponto está relacionado com a representação de mundos virtuais em um ambiente online. Isso permite que os conteúdos interativos possam ser compartilhados e reusados para produzir novas aplicações de RV. O terceiro ponto é a redução de dependências a recursos computacionais especiais, como o processamento gráfico, armazenamento e dispositivos específicos de entrada, visto que, o processamento e controle das aplicações são realizados na plataforma remota, reduzindo as exigências desses recursos nos clientes consumidores dos serviços da plataforma. Figura 1. Como trabalhos futuros podem ser considerados o desenvolvimento de ambientes de produção e execução de aplicações de RV, para disponibilizar interfaces de alto nível de abstração para usuários finais. Visão Lógica da Plataforma possam ser reusados na composição de outras aplicações de RV. • Execução de Mundo Virtuais - disponibiliza um contexto de execução para as aplicações produzidas na plataforma. O controle do fluxo de execução é previamente estabelecido por meio de relações entre os objetos eventos, comportamentos e transformações. • Controle de Acesso - reúne as funcionalidades que permitem o controle de acesso e autorizações aos usuários da plataforma. • Gerenciador de Recursos - reúne as funcionalidades de gerenciamento, busca e recuperação de recursos usados na produção e execução de mundos virtuais, tais como: imagens, sons, vídeos, modelos de objetos 3D, texturas. IV. AGREDECIMENTOS Os autores agradecem a CAPES, a FAPEMAT pelo apoio dado à viabilização do convênio EPUSP/UFMT para realização do doutorado a qual esse trabalho tem origem. R EFERÊNCIAS [1] [2] [3] AVALIAÇÃO DA A RQUITETURA O método ARID foi escolhido para a avaliação arquitetural em função de poder ser aplicado em arquiteturas incompletas [2]. Associado aos resultados do método foram implementados protótipos como prova de conceito. As implementações produzidas seguiram uma lista de riscos e criticidade apontados pela aplicação do método de revisão. As implementações e testes foram realizados utilizandose as seguintes tecnologias de implementação e execução: kit de desenvolvimento Java (JDK 7), Java Runtime (JRE 7), IDE Netbeans 7.2.1, API Java 3D 1.5.1, API de mapeamento objeto relacional JPA 2.0 com motor EclipseLink, API JAX-WS para definição, implementação e geração de Web Services, banco de dados PostgreSQL 9, servidor de aplicação Glassfish 3.1.2. O objetivo da implementação dos protótipos é avaliar o modelo arquitetural proposto considerando requisitos funcionais e não funcionais críticos. Uma vez que esses pontos críticos tenham sido avaliados, o projeto da plataforma entra 64 [4] [5] [6] [7] P. Chevaillier, T.-H. Trinh, M. Barange, P. De Loor, F. Devillers, J. Soler, and R. Querrec. Semantic modeling of virtual environments using MASCARET. In 2012 5th Workshop on Software Engineering and Architectures for Realtime Interactive Systems (SEARIS), pages 1–8, 2012. P. C. Clements. Active reviews for intermediate designs. Norma Técnica CMU/SEI-2000-TN-009, 2000. R. F. d. A. Filho, V. Teichrieb, and J. Kelner. Hydra: Virtual environments development platform. In 2011 XIII Symposium on Virtual Reality (SVR), pages 102–111, 2011. M. Li, S. Wang, and T. He. A transformer substation simulation engine based on virtual reality. In 2010 International Conference on Computer, Mechatronics, Control and Electronic Engineering (CMCE), volume 2, pages 41–44. IEEE, Aug. 2010. M. Papazoglou and W.-J. Van Den Heuvel. Service oriented architectures: Approaches, technologies and research issues. VLDB Journal, 16(3):389– 415, 2007. G. Shao and R. McGraw. Service-oriented simulations for enhancing situation awareness. In Proceedings of the 2009 Spring Simulation Multiconference, SpringSim ’09, page 48:1–48:7, San Diego, California, 2009. Society for Computer Simulation International. ACM ID: 1639859. R. Tori and C. Kirner. Fundamentos de realidade virtual. In R. Tori, C. Kirner, and R. Siscoutto, editors, Fundamentos e Tecnologia de Realidade Virtual e Aumentada, pages 02–21. Editora SBC – Sociedade Brasileira de Computação, Porto Alegre, VIII Symposium on Virtual Reality Belém – PA, 2006. Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP Modelo de Data Mining aplicado a Data Marts de preços de comercialização de Grãos Fernando Elias Correa Prof. Dr. Pedro Luiz Pizzigatti Corrêa Dep. de Engenharia Computação e Sistemas Digitais - PCS Laboratório de Automação Agricola - LAA [email protected] Dep. de Engenharia Computação e Sistemas Digitais - PCS Laboratório de Automação Agricola - LAA [email protected] processar volumes grandes de dados, agrupados em diversas cadeias produtivas e regiões. Como exemplo pode se destacar o Instituto brasileiro de Geografia e Estatística – IBGE e o Centro de Estudos Avançados em Economia Aplicada – CEPEA da Universidade de São Paulo. Resumo Análise de informações integradas tem sido grande desafio para diferentes setores, em especial a área agricola, a qual possui variáveis multidimensionais. Tais séries temporais, ou seja, que evoluem no tempo podem ser analisadas usando modelos de Data Mining estatísticos, como a Decomposição de Tucker e correlações. Para isso, foram aplicados estudos de casos em Data marts de preços de comercialização de Grãos, tais bases contém informações históricas de 10 anos de preços, diferentes produtos e regiões. O estudo foi aplicado a 4 anos de séries temporais, para 7 regiões e 4 produtos. Os resultados da Decomposição de Tucker destacam que é possível identificar e prover análises integradas proveniente de visão conjunta de diferentes técnicas. Os desafios para agrupamento e organização dessa massa de dados foram iniciados em pesquisas anteriores realizada para geração de Data Marts para o Agronegócio, tornando possível sua expansão para modelos de processo de análise integrada [2]. O modelo para análise proposto é a detecção de eventos. E compreendem a aplicação de matrizes de Correlação e Decomposição de Tucker [6]. O estudo de caso foi aplicado à preços de comercialização da cadeia produtiva de Grãos. Palavra Chave: Data Mining, Decomposição de Tucker, Correlação, Agronegócio. II. REVISÃO BIBLIOGRÁFICA A técnica de Decomposição de Tucker foi apresentada em 1966 por Tucker [6] e trata-se de um método para análise de dados, abordando limpeza, compreensão e finalizando na visualização da estrutura principal dos dados em uma dimensão reduzida. Abstract Agribusiness, as many other activities, produces huge amounts of spatio-temporal data. We need a system in order to store, analyze, and mine this data. In a previous work, we developed data warehouse tools to store, organize and query Brazilian agribusiness data from several regions along 10 years. In this paper, we go a step ahead, and propose specific data mining techniques to discover marks and evolution patterns from Agribusiness data. We propose the use of Tucker decomposition to automatically detect short time windows that exhibit large changes in the correlation structure between the time-series of prices from the Brazil Grain market. A composição multidimensional dos dados forma um cubo, conforme a figura 1, sendo cada dimensão do mesmo usa uma parte do tensor. Assim teremos as dimensões A, B e C, e o tensor principal G, que explora todas as dimensões anteriores [4]. Para tanto, o método decompõe o tensor principal em matrizes de N dimensões. A variabilidade encontrada no cruzamento das diferentes dimensões resulta em elementos de destaque no conjunto de dados [5]. Keywords: Data mining, Tucker Decomposition, Correlation, Agribusiness. I. INTRODUÇÃO Análise integrada de informações tem grande importância para todas as áreas de pesquisa. E, em especial para o agronegócio, nas quais as variáveis são relacionadas entre si. [3]. Assim, modelar meios para análises integradas do agronegócio, envolvendo busca por eventos e ocorrências que evoluam ao longo do tempo irá potencializar análise dessas séries temporais. Figura 1: Decomposição básica do modelo Tucker3 [4] Assim, o modelo tucker3 busca um conjunto de matrizes que possa ser menor em dimensionalidade que o conjunto original (tensor principal e matrizes), mas que Com a necessidade crescente de aquisição de conhecimento, centros de pesquisas, instituições e órgãos governamentais tem se especializado em coletar, armazenar e 65 Corrêa e Corrêa permita representar as informações existentes no conjunto original [4]. mais importantes variabilidade encontrada nesses eventos. Assim aplicou-se a matriz de correlação e na Figura 3 percebe-se que até o primeiro semestre de 2007 a região de Sorriso tinha uma correlação negativa em relação às outras, sendo que no segundo semestre o comportamento se inverte, ficando totalmente positiva para o último trimestre. Já para 2009 o segundo trimestre também apresenta a inversão da correlação, se tornando negativa. III. RESULTADOS A pesquisa consistiu em separa anualmente as séries temporais, com periodicidades mensais. Para a decomposição de Tucker o primeiro processo a ser analisado é a Tabela 1, em que apresentada à variabilidade dos dados obtidos após a aplicação do modelo, dividido pelos blocos de anos entre 2006 a 2009. Assim a leitura do ano de 2006 é verificar o fator 1 para a dimensão região, após o fator 1 para a dimensão medidas e fator 1 para a dimensão tempo, fator (1,1,1) e correspondem a 52 % da variabilidade dos dados. Já os fatores 2, 1, 2 respectivos representam 43 % dos dados. Tabela 1: Explicabilidade de cada decomposição para os anos. Figura 3: Correlação da Região Sorriso para 2007 e 2009. Com os resultados obtidos foi possível mapear o perfil da região junto a especialistas de mercado e verificar que ao ano de 2007, a produção de milho na região era inexpressiva, a produção no estado de Mato Grosso era em torno de 4 milhões de toneladas para o ano safra de 2006/2007, sendo esse volume dobrado na safra de 2007/2008 para próximo dos 7,8 milhões de toneladas. Tornando o Estado de Mato Grosso (que inclui Sorriso) uma das referencias de preços de Milho [1]. Os fatores cuja combinação apresentarem maior percentual de explicação será o foco de análise. A próxima etapa será a análise individual das dimensões definidas na entrada do tucker3, que foram: regiões, medidas (produtos) e tempo. Para tanto serão usados os gráficos das saídas, no qual tem seus valores definidos entre -1 a 1, em que os fatores próximos dos extremos são eventos focos da análise. Novamente, em 2009, Sorriso foi uma das regiões mais importantes na produção de Soja, movimentando 1,33 Bilhões de Reais para aquele ano [1]. A Figura 2 observa-se que a região “Sorriso” em 2007 está no limite de -1 (fator2) e em 2009 está no limite de 1 (fator1). Variáveis próximas a zero não são analisadas, pois não possuem variações expressivas. IV. CONCLUSÃO Os modelos para análise integrada, utilizando a decomposição de Tucker e matriz de correlações, mostraramse eficazes para a detecção de eventos ocorridos nas séries temporais. Bem como, auxilia o pesquisador para a visualização e interação de dados multidimensionais. O estudo de caso a priori aplicado ao Data Mart de Grãos, será expandido como trabalho futuro a outras cadeias do agronegócio, como é a carnes, por ter uma importância forte na economia agrícola. REFERENCES [1] Figura 2: Decompsição de tucker para regiões. [2] Para a dimensão tempo, seguiu a mesma análise das regiões e identificarão alterações significativas. em 2007 o fator 1, nos meses de outubro a dezembro e em 2009 para os períodos de entre Maio e Junho e inversão para Dezembro. [3] [4] Dado que os resultados da aplicação de tucker3 evidenciaram eventos ocorridos para a região de “Sorriso” frente às outras regiões e também foram destacados períodos específicos durante os anos de 2007 e 2009, a proposta foi agregar outro modelo de análise que permitiria detalhar a [5] [6] 66 Conab. 2010. National Food Supply Company. Available at: http://www.conab.gov.br. Correa, F. E., Corrêa, P. L. P., Almeida Jr., J. R., Alves, L. R. A., Saraiva, A. M. 2009, Data warehouse for soybean and corn market on Brazil. Joint International Agricultural Conference. King, R. P., Boehlje, M., Cook, M., L., Sonka, S. T., 2010. Agribusiness Economics and Management, American Journal of Agricultural Economics, Oxford Journal, 92: 554-570 Kolda, T. G. and Bader, B. W., 2009. Tensor decompositions and applications. SIAM Review. vol. 51, n 3, pp. 455-500. Skillicorn, D., 2007. Understanding Complex Datasets: Data Mining with Matrix Decompositions, Chapman and Hall/CRC, New York – USA. Tucker, L. R., 1966. "Some mathematical notes on three-mode factor analysis", Psychometrika, vol. 31, pp. 279. Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP Differentiated Service Strategy for Backbone Networks Joana Sócrates Dantas, Regina Melo Silveira and Wilson Vicente Ruggiero Laboratório de Arquitetura e Redes de Computadores - LARC Engenharia da Computaça̋o - Engenharia Elétrica Escola Politécnica da Universidade de Sa̋o Paulo Email: [email protected] Abstract—Current Backbone data transport service is complied by Wavelength Division Multiplexing (WDM) networks. Even though this technology enables provision of a vast amount of resources, contention for resources may occur. For this reason service providers tend to differentiate the level of service according to Service Level Agreements (SLA) aiming on optimizing economic results. This doctoral research proposes an innovative methodology for differentiated resource allocation according to demands priority levels. I. I NTRODUCTION On a backbone network, carriers serve Internet Service Providers (ISP) with long-haul data transport. The service provided must guarantee a minimum supply quality stipulated by a Service Level Agreement (SLA). In order to be able to offer different service levels for each client, backbone network managers must rely on differentiated service (DiffServ) strategies. Fig. 1. Backbone network and its components Fig. 2. Russian Dolls Model - resource distribution constraint model Currently, the main type of Diff-Serv mechanism available for backbone networks are preemption policies described for Multi-Protocol Label Switching (MPLS) architecture [1] and extended to Generalized Multi-Protocol Label Switching (GMPLS) architecture [2]. In preemption strategies higher priority demands may use the resources previously assigned to a lower priority active connection that would be disrupted. A backbone network connection transmits a large volume of data and should ideally not be disconnected. Furthermore, preemption strategies tend to cause network instability [3], not tolerable on large complex networks, as is the case of backbone networks. The network scenario we focus on our research can be observed in Fig. 1. In the figure it is possible to observe a Path Computation Element (PCE) that works as a parent PCE in a hierarchical architecture and is able to compute end-to-end paths with information gathered from children PCEs present on various autonomous systems. A recent study on Elastic Optical Networks (EON) proposes a procedure where resources allocated to lower priority connections are diminished in case of a network element failure [4]. The aim is to increase the overall number of served connections, in a scenario where contention of resources may occur. Our research aims on proposing a differentiated service strategy for backbone networks based on constrained distribution of resources. At the moment we focus our study on WDM 67 networks. We consider a scenario where path and resources are computed centrally by a PCE. II. O UR P ROPOSAL In order to implement differentiated distribution of resources, a constrained model must be adopted. Our mechanism implements a variation of the Russian Dolls Model (RDM) as a resources distribution constraint model described for MPLS networks in [5]. In RDM, the maximum bandwidth usage allowed in a link is achieved by the accumulation of successive Class-Types (CTs) bandwidth constraints (BW). For example, CT7 may use resources up to BC7 limit, while CT6 shares its BC6 constraint with CT7, CT5 shares its BC5 constraint with CT6 and CT7 and so on as can be observed in Fig. 2. Dantas, Silveira e Ruggiero Fig. 3. Fig. 4. Resource distribution per Class-Type On a network state where contention for resources occurs, the resources distribution constrain model enforces the amount of resources allocated to demands to be less than the original amount requested. The constraint model guarantees that higher priority demands are granted more resources than lower priority demands. However, by guaranteeing a minimum amount of resources, the model also prevents lower priority connections from being fully disrupted. III. P RELIMINARY R ESULTS A. results from off-line scenario We have developed a Mixed Integer Linear Programming (MILP) model, via which we have tested our proposal for an off-line scenario. The mathematical model and the comparative results were presented in [6]. Results indicated that, by implementing our proposed mechanism, lower priority demands are allocated a minimum amount of resources, while in a scenario where the mechanism is not implemented, called standard, lowest priority demands are not served at all. Also, even though resources are more fairly distributed, higher classes connections are guaranteed more resources than lower ones. The partial results may be observed in Fig. 3. IV. As future work we intend to propose enhancements for the control plane of optical networks in order to accommodate allocation of resources that are less than the original value requested. These enhancement would include extensions to the PCE protocol and to Resource Reservation Protocol (RSVP) as part of the GMPLS architecture. ACKNOWLEDGMENT The authors would like to thank Capes-PROEX scholarship and Prof. Dr. José Roberto Amazonas for his collaboration. R EFERENCES [1] [2] In order to evaluate the mechanism we have developed an ad-hoc Java based discrete event driven simulator. We implemented a test using the German Nobel network topology with 17 nodes and 27 bidirectional links. Each link in the network corresponds to one fibre with 40 wavelengths. Each of them has a 100 Gbps bandwidth capacity. [3] Partial results indicate that our mechanism promotes a better service to higher priority demands either as lower blocking probability or as larger amount of resources allocated. These results can be observed in Fig. 4. By guaranteeing service and allocating more resources to higher priority connections, service providers avoid expensive penalties and increase their revenue. [5] 68 C ONCLUSION AND FUTURE WORK Our research proposes a mechanism that promotes differentiated distribution of resources according to classes of service. Partial results in both off-line and dynamic scenarios indicate that our mechanism guarantees a minimum level of service to lower classes when compared to conventional preemption techniques. Results also show that the mechanism increases the number of served higher priority demands and the amount of resources allocated to them. based on these results we assume that service providers may have, by implementing our proposed mechanism, an efficient and flexible tool to shape data transport service according to their economic objectives and traffic profile. B. results from dynamic scenario In a dynamic resource assignment scenario RDM connections are set-up and terminated online. In this case, in our model, resource allocation constrain is only enforced under resource contention scenario. Blocking Probability per Class-Type [4] [6] F. Le Faucheur, “Protocol extensions for support of diffserv-aware mpls traffic engineering,” Tech. Rep., 2005. E. Mannie, “Generalized multi-protocol label switching (gmpls) architecture,” Tech. Rep., 2004. J. C. de Oliveira, C. Scoglio, I. F. Akyildiz, and G. Uhl, “New preemption policies for diffserv-aware traffic engineering to minimize rerouting in mpls networks,” IEEE/ACM Transactions on Networking (TON), vol. 12, no. 4, pp. 733–745, 2004. Y. Sone, A. Watanabe, W. Imajuku, Y. Tsukishima, B. Kozicki, H. Takara, and M. Jinno, “Bandwidth squeezed restoration in spectrum-sliced elastic optical path networks (slice),” Journal of Optical Communication Networks, vol. 3, no. 3, pp. 223–233, 2011. F. Le Faucheur, “Russian dolls bandwidth constraints model for diffservaware mpls traffic engineering,” Tech. Rep., 2005. J. Dantas, D. Careglio, R. Silveira, W. Ruggiero, and J. Sole-Pareta, “Pce algorithm for traffic grooming and qos in multi-layer/multi-domain ip over wdm networks,” in Transparent Optical Networks (ICTON), 2011 13th International Conference on. IEEE, 2011, pp. 1–5. Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP Transition Support Services for Distributed User Interfaces João Paulo Delgado Preti Lucia Vilela Leite Filgueiras Escola Politécnica da Universidade de São Paulo Departamento de Eng. de Computação e Sistemas Digitais São Paulo, Brasil [email protected] Escola Politécnica da Universidade de São Paulo Departamento de Eng. de Computação e Sistemas Digitais São Paulo, Brasil [email protected] Abstract— The allocation of interactive narrative across several devices characterizes distributed interaction, a phenomenon that is occurring naturally as the number and availability of devices to support interaction grows, even though there is still only ad hoc technological support for designing such systems. This paper focuses on relevant aspects of a cross-device interaction and the bridges that allow user migration from one device to another and present DISS, a service middleware that supports a planned and distributed interaction. and communication between devices. As can be seen in Fig. 1, all devices in the distributed environment must have an implementation of DPWS specification. Keywords—component; DUI; SOA; transition; device as a service IMMS is responsible for mapping the interaction modality with the interface of a remote service a given application wants to interact with. I. Despite DPWS stack provide specifications for service description, location, security and events, it does not include some features needed for a distributed interaction scenario. For this reason, DISS existence becomes necessary, its rationale being described in the following paragraphs. INTRODUCTION DMS is responsible for registering desired devices, allowing grouping, sorting and adding information, such as location. Middleware consists of reusable functionality that offers solutions to frequently encountered problems like heterogeneity, interoperability, security, dependability, etc. This functionality is offered either by the core of a middleware infrastructure, or by complementary services. The former mediates the interaction between distributed objects, while the latter deal with complementary issues. Our goal is to define these complementary services in order to help in the construct of a planned and organized distributed interaction. CSS is responsible for managing the user context, persisting objects state in the server and client side, regardless the number or type of devices. UMS is responsible for user registration and device association. CCS is responsible for content conversion, in case the selected device does not support the received content. Therefore this section presents a service-oriented architecture that assist in the development of applications that need to coordinate a distributed interaction between multiple devices. Distributed Interaction Support Service (DISS) is a service that intermediates the communication between devices, as in Figure 1. DISS specifies a set of necessary services to allow the coordination between multiple devices sequentially or simultaneously. TSS is responsible to ensure that, during the execution of a task, users and devices can be interchanged. DGIS is a service that provides a default GUI to represent the target device. II. TRANSITION SUPPORT SERVICES In our middleware, TSS is responsible for allowing the users to continue their tasks into another device or transfer the task to another user to continue the task that was being held. Three types of transitions need to be supported in our middleware. Fig. 1. Distributed Interaction Support Service (DISS) on top of DPWS. The first one is input transition, when a user wants that other users interact with UI components, while the first one keeps the task management. For example a user requesting another one (in another device) to complete an input text, or to select an item of a list or even provide an image. SOA technologies for devices has emerged like UPnP and Jini, but a promising technology for compatibility with Web Services (WS) is proposed by OASIS through Device Profile for Web Service (DPWS) specification. DISS is being built on top of DPWS (Device Profile for Web Service) specification as architecture base for discovery 69 Preti e Filgueiras The second one is transition between devices, where users are directed to another device in order to achieve the required steps in pursuit of their goals. We tested the subset {1:0 , 1:1 , 1:Nl , 1:Na} successfully. The subset {1:Nl , 1:Na} were achieved by using WS-Eventing present in the DPWS Stack with two Android devices. For the broadcast solicit set {N:1f , N:1l , N:Mfd , N:Mld , N:Ma} a pool thread implementation is needed. We are investigating the possibility of using Constrained Application Protocol (CoAP), an emerging protocol defined by IETF CoRE WG that can create an alternative to HTTP RESTful APIs on highly resource-constrained devices, using HTTP over UDP instead of TCP with rudimentary reliability features. It can save a lot of protocol overhead that inherently comes with TCP. jCoAP is the CoAP Java implementation being used to realize these broadcast tests. The last one is transition between users, when it is necessary that other user carry out a task already begun, in order to use the steps already taken in pursuit of a goal. This service is responsible for migrating a user session to another, keeping the original state of the interactions previously performed. This service also needs to know the history of actions performed and place the new user in the last step performed by the previous one. From the technological point of view, several platforms are currently required to support transitions. Despite the technological convergence has simplified the task of engineering, different protocols and services are necessary to integrate different types of transition into an application. TSS defines a set of web services to allow transitions in an open way. The paragraphs that follow show what has been implemented and tested about the first of the three types of transitions and what is going ahead. III. These experiments helped the modeling of a state diagram for UI components that supports this kind of transition. See Fig. 2. As can be seen, the component is ready after getting all information about devices in the network and just do this operation again if a parse error occur or in case of a network error in invoking the selected operation (considering the device may not be online anymore). EXPERIMENTS AND RESULTS The tools used were JMEDS and DPWS Explorer of WS4D, JMEDS implements DPWS Stack and DPWS Explorer works as a client to navigate and interact with devices in the network. Astah 6.6.3 community edition was used to build UML diagrams. Java 1.6, Android SDK, Eclipse Indigo, Primefaces 2.2 and Tomcat 7 were used to develop and deploy the application. SOAPUI 4.5.1 and Wireshark 1.6.0 helped us debugging the application to understand messages exchanged between devices. These tools were executed on Mac OS X Lion and Linux Ubuntu 12.04. The browser used was Firefox version 15 and the devices were Samsung Galaxy S3, Samsung Galaxy N7000 and Nexus 7 with Android 4. There was no particular reason in the choice of the specified devices, just because they were available by the research team. We developed scenarios according to Table 1. Fig. 2. Generic State Diagram for UI Components. The guard condition [(lastInput || allInputs) && !firstInput] is desired because of the diversity of scenarios that can be composed according to Table 1. These experiments also helped us in the definition of 17 services and 49 operations in an Android application named XDevice. Other devices can invoke these services in order to promote a distributed interaction. REFERENCES TABLE 1. Solicitation (S) / Response (R) Scenarios S 1 1 R 0 1 1 Nl 1 Na N 1f N 1l N Mfd N Mld N Ma [1] Scene Just push a message, not a request. Typical case. Remote user can submit continuously, but only the last input is valid. Remote user can submit continuously and all inputs are valid. Broadcast request, only first response of all devices is valid. Broadcast request, only last response of all devices is valid. Broadcast request, only first response of each device is valid. Broadcast request, only last response of each device is valid. Broadcast request, all devices can submit continuously and all submissions are valid. [2] [3] [4] [5] [6] 70 Blumendorf, M., Roscher, D. and Albayrak, S. 2011. Distributed User Interfaces for Smart Environments: Characteristics and Challenges. DUI 2011 (Vancouver, BC, May. 2011), 25–28. Demeure, A., Sottet, J.-S., Calvary, G., Coutaz, J., Ganneau, V. and Vanderdonckt, J. 2008. The 4C Reference Model for Distributed User Interfaces. (Mar. 2008), 61–69. Elmqvist, N. 2011. Distributed User Interfaces: State of the Art. DUI 2011 (Vancouver, BC, May. 2011), 7–12. Filgueiras, L.V.L., Correa, D.O., Neto, J.S.O. and Facis, R.P. 2008. XGov Planning: How to Apply Cross Media to Government Services. Digital Society, 2008 Second International Conference on the (2008), 140–145. Neto, J.S. de O., Roussel, N. and Filgueiras, L.V.L. 2009. User’s issues in crossmedia applications. Proceedings of the 27th ACM international conference on Design of communication (Bloomington, Indiana, USA, 2009), 119–126. Zarras, A. 2004. A comparison framework for middleware infrastructures. Journal of Object Technology. 3, 5 (2004), 103–123. Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP Construção de mapas densos em ambientes internos utilizando sensores RGB-D Juan C Perafán Villota Anna Helena Reali Costa Laboratório de Técnicas Inteligentes (LTI/EPUSP) Escola Politécnica, Universidade de São Paulo São Paulo, SP, Brasil Laboratório de Técnicas Inteligentes (LTI/EPUSP) Escola Politécnica, Universidade de São Paulo São Paulo, SP, Brasil Abstract—This paper shows the first steps in the study and comparison of: 2D SLAM techniques and descriptors for building dense maps. We compared two SLAM techniques:GMapping and DP-SLAM, finding that although the best method is GMapping this requires an additional technique to enable a globally consistent alignment. Furthermore, we compared the SIFT and SURF descriptors, obtaining a larger amount of features using SIFT, but at a computational time much greater than those used by SURF. I. I NTRODUÇ ÃO As técnicas desenvolvidas para o mapeamento e localização simultâneos (SLAM) de robôs atingiram uma maturidade aceitável. O uso de sensores Laser Range e novas máquinas com alta capacidade de computação permitiu a construção de mapas cada vez mais precisos [1],[2]. Um aspecto negativo destas técnicas, é que os objetos dentro do ambiente não estão completamente identificados. Surgiram então técnicas como o RO-Maps (Relational Object Maps)[3], que permitiram que o robô fosse capaz de construir mapas métricos incluindo informações de objetos simples, como portas e paredes, garantindo assim uma melhor interação do robô com o ambiente. Entretanto, nos últimos anos, o uso do sensor tipo RGB-D [4],[5], [6] incrementou dramaticamente não só o reconhecimento de objetos, mas também as capacidades de manipulação, navegação e interação dos robôs. Além disso, foram introduzidas técnicas para RGB-D com base na detecção e reconhecimento de objetos demonstrando que a combinação de cores e informação de profundidade melhora a qualidade e a quantidade da informação do ambiente que é conhecido como mapas densos. Nossa proposta é fazer mapas 3D com informação de objetos a partir de dados RGB-D (Kinect) usando técnicas SLAM para melhorar a interação robô-ambiente na realização de diferentes tipos de tarefas, por exemplo robôs que ajudam aos seres humanos por meio da realização de um trabalho normalmente sujo, perigoso ou repetitivo, incluindo tarefas domésticas. A abordagem usual para a reconstrução de uma cena (parte essencial da construção do mapas 3D) é: 1.Obtenção de dados. 2. Extração de atributos (2D) 3. Alinhamento de atributos entre os quadros (2D) 4. Projeção e pré-filtragem 3D 5. Cálculo das transformações 3D. Embora o objetivo final seja gerar mapas 3D, este trabalho é dedicado à análise 2D, a fim de responder a estas duas perguntas: 1. Qual é a melhor técnica para a extração de atributos? 2. Qual pode ser uma boa técnica para resolver o problema de SLAM 2D? 71 II. E XTRAÇ ÃO DE ATRIBUTOS O núcleo de um sistema robusto de reconhecimento é a extração de atributos. Descritores como SIFT (Scalar Invariant Feature Transform), SURF (Speeded Up Robust Feature) e mais recentemente o NARF (Normal Aligned Radial Feature), têm implementações em bibliotecas como OpenCV (Open Source Computer Vision) e PCL (Point Clouds Library) que estão sendo amplamente utilizadas pela comunidade. Os pontos-chave de NARF são calculados diretamente a partir da nuvem de pontos 3D, mas estes pontos-chave são instáveis, aparentemente pelo ruı́do dos dados de profundidade do Kinect. Por isso, neste trabalho foi analisado qual é o melhor descritor entre SIFT e SURF. Os resultados na Tabela 1, mostram que a eficácia (número médio de atributos) do SIFT(740) é maior do que o SURF (342). Mas a eficiência (tempo médio em milisegundos) é muito menor (854 ms para o SIFT e 167 ms para o SURF) Tabela I. SURF SIFT COMPARAÇ ÃO DOS DESCRITORES Número médio de atributos 342 740 III. SIFT E SURF Tempo médio (ms) 167 854 SLAM 2D Devido a algumas limitações dos sensores RGB-D como: campo de visão (57◦ horizontal, 43◦ na vertical), profundidade (0,7 a 6 metros) e problemas para a detecção de objetos transparentes, é necessário combinar algumas caracterı́sticas que podem ser encontradas com técnicas SLAM 2D e sensores do tipo Laser Range (LIDAR). Para esta finalidade, foram simuladas duas técnicas que se revelaram bem sucedidas: DPSLAM e GMapping. DP-SLAM [1] é um algoritmo baseado em filtros de partı́culas, que são aplicados para determinar o mapa e a postura do robô. Dois fatos foram a contribuição deste algoritmo: em primeiro lugar, não é necessário o uso de marcas pois é utilizada uma técnica chamada DP-Mapping (Distributed Particle Mapping), que é capaz de manter um grande número de mapas eficientemente. O segundo fato é que não são necessárias técnicas especiais para identificar lugares já mapeados, o que é conseguido por meio da manutenção de um número suficiente de partı́culas. Foi utilizado o algoritmo proposto em sua versão 2.0, disponibilizada na página do autor 1 . 1 https://www.cs.duke.edu/ parr/dpslam/ Perafán Villota e Costa GMapping [7] é um algoritmo que utiliza um filtro de partı́culas, no qual cada partı́cula representa um único mapa do ambiente. A ideia foi reduzir o número de partı́culas utilizadas para a aprendizagem das representações de mapas de grades. Tomando não só o movimento do robô, mas também as observações mais recentes, foi reduzida a incerteza da postura do robô no passo de predição. Além disso, foi aplicada uma reamostragem seletiva baseada na proposta de Liu [8] chamada Neff (número efectivo de partı́culas), o que levou a uma redução drástica da perda de partı́culas. Foi utilizado o algoritmo GMapping disponı́vel via svn2 . O objetivo da simulação foi testar os dois algoritmos em um ambiente interno de grande extensão (O mapa tem uma área aproximada de 67 x 47 m2 ). Não existe uma plataforma geral para executar esses algoritmos, portanto, muitas vezes é necessário reescrever completamente o código ou readaptálo para ser executado em uma determinada plataforma. Na tabela 2, são mostradas as possibilidades de unir o algoritmo às plataformas Player/Stage ou ROS de simulação de robôs. Tabela II. O PÇ ÕES DE CONEX ÃO P LATAFORMA -A LGORITMO Tipo de Instalação direta com apenas wrapper com wrapper e reformatação Plataforma Player-Stage ROS Player-Stage ROS Player-Stage ROS DP-SLAM Não Não Não Não Sim Não GMapping Sim Não Sim Não Não Não Figura 2. Sobreposição do mapa real (linhas vermelhas) com o mapa obtido por GMapping (áreas cinzas) SIFT pode ser uma boa alternativa para a extração de atributos e correspondência entre quadros consecutivos, mas, como a eficiência não é muito boa, este trabalho será estendido usando outras técnicas, tal como a apresentada por Henry em [6], chamada Kernel Descriptor. Referindo-se às técnicas de SLAM 2D estudadas, o algoritmo GMapping apresentou melhores resultados na construção e alinhamento do mapa, mas é evidente que é necessário um alinhamento do sistema globalmente consistente (Figuras 1 e 2) que poderia ser feito com alguma ferramenta de otimização como, por exemplo, TORO (Tree-Based Network Optimizer). As simulações foram feitas como se segue: • • AGRADECIMENTOS DP-SLAM foi simulado com Player-Stage. GMapping foi simulado com ROS. Na figura 1 é mostrado o resultado de alinhamento do mapa real com o mapa obtido com DP-SLAM e na figura 2, com GMapping. Agradecemos a: CAPES, CNPq (proc. 311058/2011-6), FAPESP (proc. 2011/19280-8) por prover fundos para esta pesquisa. R EFER ÊNCIAS [1] [2] [3] [4] [5] [6] Figura 1. Sobreposição do mapa real (linhas vermelhas) com o mapa obtido por DPSLAM (áreas cinzas) [7] IV. C ONCLUS ÃO Foram estudados e analisados dois dos primeiros passos para atingir mapas densos 3D usando sensores RGB-D. No caso de extratores de atributos, foi mostrado que o uso de 2 svn co https://svn.openslam.org/data/svn/gmapping 72 [8] A. Eliazar and R. Parr, “Dp-slam: Fast, robust simultaneous localization and mapping without predetermined landmarks,” in IJCAI, vol. 3, 2003, pp. 1135–1142. K. Konolige, “Slam via variable reduction from constraint maps,” in Robotics and Automation, 2005. ICRA 2005. Proceedings of the 2005 IEEE International Conference on. IEEE, 2005, pp. 667–672. B. Limketkai, L. Liao, and D. Fox, “Relational object maps for mobile robots,” in IJCAI, 2005, pp. 1471–1476. P. Henry, M. Krainin, E. Herbst, X. Ren, and D. Fox, “Rgb-d mapping: Using depth cameras for dense 3d modeling of indoor environments,” in the 12th International Symposium on Experimental Robotics (ISER), vol. 20, 2010, pp. 22–25. H. Du, P. Henry, X. Ren, M. Cheng, D. B. Goldman, S. M. Seitz, and D. Fox, “Interactive 3d modeling of indoor environments with a consumer depth camera,” in Proceedings of the 13th international conference on Ubiquitous computing. ACM, 2011, pp. 75–84. P. Henry, M. Krainin, E. Herbst, X. Ren, and D. Fox, “Rgb-d mapping: Using kinect-style depth cameras for dense 3d modeling of indoor environments,” The International Journal of Robotics Research, vol. 31, no. 5, pp. 647–663, 2012. G. Grisetti, C. Stachniss, and W. Burgard, “Improved techniques for grid mapping with rao-blackwellized particle filters,” Robotics, IEEE Transactions on, vol. 23, no. 1, pp. 34–46, 2007. J. S. Liu, “Metropolized independent sampling with comparisons to rejection sampling and importance sampling,” Statistics and Computing, vol. 6, no. 2, pp. 113–119, 1996. Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP Um Modelo de Rastreabilidade da Cadeia do Vinho Baseado em Internet das Coisas Utilizando Redes de Sensores Sem Fio e RFID Leonardo Barreto Campos Carlos Eduardo Cugnasca Coordenação de Sistemas de Informação Instituto Federal de Educação da Bahia (IFBA) Bahia, Brasil [email protected] Escola Politécnica de Engenharia Universidade de São Paulo (USP) São Paulo, Brasil [email protected] comunicação e cooperar com seus vizinhos para alcançar objetivos comuns [6]. Abstract-There is a growing demand from consumers as to the reliability of production processes, especially in supply chains of high value like wine. Thus, this paper presents a model of traceability based on Internet of Things to the chain of wine intended for export that allows agents of the supply chain to monitor the quality of the product produced in real time. The proposed model uses the technologies of Radio Frequency Identification and Wireless Sensor Networks to monitor and track the product from the production unit of grapes to the final consumer in the country of destination of the wine. A IoT, através de Sistemas que utilizam Identificação por Radiofrequência (RFID) e Redes de Sensores Sem Fio (RSSF), tem-se apresentada como uma solução oportuna para fornecer o histórico de dados associados a cada produto unicamente, desde o processo de fabricação até seu descarte. A aplicação dos conceitos e tecnologias da IoT em cadeias de suprimentos assegura a qualidade dos insumos e dos produtos finais; evita a mescla de produtos; facilita chamadas de retorno (recall) e torna menos onerosa a localização de falhas e correção das mesmas [7]. Entre as cadeias de suprimentos passíveis de aplicação desse projeto destaca-se a cadeia de suprimentos do vinho que, devido o alto valor agregado e a alta demanda de qualidade por seus consumidores, viabilizam a aquisição de tecnologias modernas para a rastreabilidade da sua cadeia de suprimentos como um todo [8]. Palavras-chave—rastreabilidade;cadeia do vinho; RFID; RSSF I. INTRODUÇÃO A capacidade de identificar automaticamente e rastrear individualmente objetos tornaram-se fatores essenciais em diferentes processos de negócios e domínios, tais como, fabricação, logística, varejo, estoque, transporte, identificação humana, saúde, etc [1]. Entre essas aplicações o setor agroindustrial tem atraído esforços consideráveis de pesquisa para elevar a precisão na obtenção de dados, segurança, confiabilidade e a agilidade nos processos de produção, distribuição e comercialização de seus produtos [2]. Portanto, o principal objetivo deste trabalho foi desenvolver um modelo de rastreabilidade do vinho ao longo de sua cadeia de suprimentos utilizando RFID e RSSF. Este modelo possui informações relacionadas a todos os agentes da cadeia, da unidade produtora de uvas ao consumidor final do vinho, ao país de destino do produto. O conhecimento das ações e condições que transformaram uma matéria-prima em produto final, processo conhecido como rastreabilidade, é a exigência que mais cresce entre consumidores e receptores de mercadorias, especialmente para produtos exportados [3]. Por meio da rastreabilidade é possível saber, entre outras informações referentes a um produto, quais foram os lotes de cada matéria-prima utilizada na sua composição, sua data de validade, os seus laudos de análises, qual foi a transportadora entre outras informações de interesse para um determinado agente da cadeia de suprimentos [4]. II. ESTADO DA ARTE Lam et al (2013) desenvolveram um sistema para monitoramento do vinho armazenado, utilizando RFID e RSSF [9]. As principais variáveis monitoradas foram Temperatura (T) e Umidade Relativa (UR) nas adegas, e o sistema possui um algoritmo que permite a identificação automática de anomalias e o envio de mensagens aos administradores do sistema. Porém, este sistema não considera o monitoramento do transporte do produto entre os elos da cadeia. Tais demandas estão contribuindo substancialmente para firmar o conceito de uma rede mundial de objetos interligados endereçáveis baseado em protocolos de comunicação padrão [5] ou simplesmente, “Internet das Coisas” (Internet of Things – IoT). A IoT é um paradigma cuja ideia básica é a presença generalizada de coisas ou objetos em torno das pessoas que, através de um esquema único de endereçamento, são capazes de interagir uns com os outros por meio de redes de Evers e Havinga (2007) e Jedermann et al (2010) fornecem algumas alternativas para o acompanhamento da logística de produtos alimentícios, desenvolvendo um modelo denominado Contêiner Inteligente [10]. Jedermann et al (2010) sugerem um mínimo de 8 sensores por contêiner para identificar as variações de T e UR. Porém, este modelo foi desenvolvido para a cadeia de exportação de bananas, uma cadeia 73 Campos e Cugnasca consideravelmente menos complexa que a do vinho, por envolver um menor número de agentes e etapas. nestas etapas será realizada utilizando-se WLAN. A Etapa 7 não conta com coleta obrigatória de informações, porém o consumidor pode responder, caso queira, a um questionário relacionado ao produto e a experiência de compra. Este também pode utilizar o código na etiqueta da garrafa para verificar, via web, informações no sítio do fabricante. Hsueh e Chang (2010) complementam esta pesquisa facilitando a implementação do sistema por meio do uso de leitores RFID nos pontos de parada [11]. Estes autores também adicionam a tecnologia GPS para permitir a localização dos produtos. Becker et al (2010), por sua vez, melhoram esta configuração adicionando conexão Wireless Local Area Network (WLAN) nos pontos de parada e comunicação por satélite durante o transporte marítimo. III. Cada agente da cadeia possui seu próprio sistema de informação e só possui acesso a determinadas informações do produto, facilitando o uso do sistema e protegendo informações de parceiros que não podem ser divulgadas. Caso seja detectado um comportamento anormal para um produto, um alerta é enviado ao(s) agente(s) da cadeia envolvido(s), para que este(s) verifique(m) o problema e tome(m) uma decisão. MODELO PROPOSTO PARA RASTREABILIDADE DO VINHO De acordo com [12] e conforme mostra a Figura 1, o modelo proposto contém seis etapas. Na Etapa 1, uma RSSF é instalada para monitorar Temperatura (T), Umidade Relativa (UR) e Luminosidade (L) do ambiente, e potencial hídrico do solo. As atividades realizadas na unidade produtiva, considerando os insumos utilizados e sua quantidade, são inseridas no sistema pelo produtor rural. IV. CONCLUSÕES E TRABALHOS FUTUROS Os agentes da cadeia precisam de um sistema único que os permita assegurar a qualidade do produto. As próximas etapas no processo de pesquisa são relacionadas à: simulação de diversos cenários alternando RFID integrados com sensores, RSSF, comunicação GPS, Wi-fi, bluetooth, quantidade de tags, etc e desenvolver um protótipo com o melhor caso. REFERÊNCIAS [1] ILIE-ZUDOR, E. et al. A survey of applications and requirements of unique identification systems and RFID techniques. Computers in Industry, v. 62, n. 3, p. 227-252, 4// 2011. ISSN 0166-3615. Disponível em: < http://www.sciencedirect.com/science/article/pii/S0166361510001521>. [2] YAN, M. et al. The Application of the Internet of Things in Agriculture. 2011 International Conference on Future Computers in Education (Icfce 2011), Vol I, p. 232-235, 2011 2011. [3] MACHADO, J.; NANTES, J. F. D. a. A Visão Institucional do Processo de Rastreabilidade da Carne Bovina: Capturado em 2007. [4] BRASIL, G. Dicionário de Logística GS1. COSTA, W. S.: Comunicação e Eventos Corporativos: 222 p. [5] COMMISSION, E. Regulation (EC) No 178/2002 of the European Parliament and of the Council of 28 January 2002 laying down the general principles and requirements of food law, establishing the European Food Safety Authority and laying down procedures in matters of food safety. Official Journal of the European Communities L, v. 31, n. 1, p. 1-24, 2002. [6] (ISO), I. O. F. S. ISO 8402 (1994), International Standard: Quality Management and Quality Assurance – Vocabulary. Geneva, Switzerland 1994. [7] JURAN, J.; GODFREY, A. B. Quality Handbook. Republished McGraw-Hill, 1999. [8] CAIXETA-FILHO, J. V.; GAMEIRO, A. H. Transporte e logística em sistemas agroindustriais. São Paulo: Atlas, 2001. [9] Lam, H. Y., Choy, K. L., Ho, G. T. S., Kwong, C. K. and Lee, C. K. M. (2013) A Real-time Risk Control and Monitoring System for Incident Handling in Wine Storage. In Expert Systems with Applications, v. 40, 2013, pages 3665-3678. [10] Evers, M. and Havinga, P. (2007) Supply Chain Management Automation Using Wireless Sensor Networks. In: 2007 IEEE International Conference on Mobile Adhoc and Sensor Systems, Pisa, Proceedings…, pages 1-3. [11] Hsueh, C. and Chang, M. (2010) A model for intelligent transportation of perishable products. In International Journal of Intelligent Transportation Systems Research, n. 8, pages 36-41. [12] Fray, R., Campos, L. B., Cugnasca, C.E. (2013) Modelo de Rastreabilidade da Cadeia do Vinho para Exportação Utilizando Redes de Sensores Sem Fio e RFID In: IX Congresso Brasileiro de Agroinformática, Cuiabá-MT. 2013 Figura 1. Modelo de Rastreabilidade do Vinho A Etapa 2 irá acompanhar o produto durante o processo de produção do vinho. Após o engarrafamento, uma etiqueta RFID é colocada em cada caixa e pallets são montados. Sensores monitorando T, UR e L nos ambientes pelos quais as garrafas passarão irão coletar estas informações e enviar à nuvem, por meio de gateways. Os pallets são carregados em contêineres, com sensores que irão monitorar T e UR durante o transporte. As tags são lidas automaticamente quando o pallet é carregado. Nas Etapas 3 e 4, o produto está em trânsito, e gateways contidos nos caminhões (nos segmentos de transporte rodoviário) e nos navios (no segmento de transporte marítimo) irão coletar dados relacionados a T e UR dentro do contêiner e transmiti-los à nuvem, por meio de tecnologia General Packet Radio Service (GPRS). Na presença de conexão WLAN, esta será utilizada para reduzir os custos. A instalação de GPS nos gateways possibilitará a localização do produto em qualquer ponto de seu trajeto. As Etapas 5 e 6 são similares a Etapa 2, com monitoramento de T, UR e L. A transmissão de informações 74 Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP Database Refactoring to Increase Queries Performance on Precision Agriculture Information System Marcia Beatriz Pereira Domingues Jorge Rady de Almeida Jr. Doctorate Candidate - PCS-EPUSP Email: [email protected] Advisor Email: [email protected] Abstract—Precision Agriculture (PA) Information Systems improve farm management helping to make the best decisions based on all available information, keeping, controlling, and optimizing resources, returns, and preserving the environment. These systems need to archive, retrieve, and process large amounts of data from many different farms for future analyses. With minor changes in the database schema, the performance of geospatial queries can be improved by refactoring tasks in the literature related to Agile Software Development. A refactoring represents structural, architectural, integrity or data quality change that preserves the system functionalities. As a case study, a PA Information Portal System database that dynamically generates models based on input data. In this context, we redesigned this database introducing refactoring techniques in order to improve PA queries performance. I. I NTRODUCTION Precision Agriculture (PA) Information Systems integrate and process large amounts of data from many different farms [1]. Further complications are the relationship between geo-referenced data and the different ways to process, interpolate and combine them for precision analysis. about location and mapping. The refactorings called "Introduce Surrogate Key", "Merge Column", and "Introduce Index" were chosen from Ambler Database Refactoring Catalog. In the proposed experiment, the costs and time consumed for the queries were used to compare the performance between the original model and the refactored model. The tests performed included new codes in database function language (plpgsqq) for data insertion, selection, and cascade delete operations of geographic data through geospatial queries. III. CASE STUDY The original database model was built with composite natural keys. There is a strong coupling between database model and the PA business domain and some primary keys columns such as: farm_id, plot_id, and prod_id that are present in almost all relations. The Fig. 1 shows tables farm, plot, productivity and productivity_raw from the original model before refactoring. The recommended computational solution is the use of spatial databases associated with Web Services to take advantage of the multiple data source providers. A PA Information Systems needs to archive, retrieve, and process data for future analyses [2]. It has to be done without neglecting aspects of entity-relationship model (ER model) at the same time describing all crop cycle stages. The system needs to resolve geospatial queries to get information back from crop productivity [3]. In our experiment the database schema of PA system was changed in order to improve the performance of geospatial queries. In the literature related to Agile Software Development these changes are denominated as refactoring tasks [4]. A refactoring represents small structural, architectural, integrity or data quality change, it does not include new functionalities to the system. Ambler discusses in each refactoring the motivations, implications and cautions to its operation, showing the steps for the possible changes of the database. These steps were adapted in this paper to make refactoring tasks into an existing database of PA Information Portal System. II. M ATERIALS AND M ETHODS A spatial database of an existing PA Information Portal System was used to test the database refactoring. PostGIS extension was used to provide spatial objects for the PostgreSQL database in order to storage and query the information 75 Fig. 1: Tables (farm, plot, productivity and productivity_raw) before refactoring In the proposed experiment, time consumed for the queries was used to compare the performance between the original model and the refactored model.The tests performed included new codes in database function language (plpgsqq) for data insertion, selection, and propagation of data delete operations of geographic data through geospatial queries. The Fig. 2 presents the refactoring proposed to original model, where all composite natural keys were replaced by surrogate keys into the tables chosen for the experiment. Domingues e Almeida Jr. der to merge Latitude and Longitude columns of Product_raw table as illustrated in Fig. 4. To perform this refactoring a new geometry column "prod_geom" was introduced with the previous data from Latitude and Longitude columns. The select operation after this merge was 20% better in terms of time consuming to select data operation than in the original model. Fig. 2: Tables (farm, plot, productivity and productivity_raw) after refactoring To allow a direct comparison between original and refactored model, the consumed time (ms) was measured. After the refactoring, the time consumed was, 15% shorter to insert, 25% shorter to select, and 4% shorter to delete data for 189.730 rows, from both original and refactored databases. In the Fig. 3 we highlight that refactored database performance was better than original considering the time results. Fig. 4: Time results for select after "Merge Column" and "Introduce Index" IV. R ESULTS AND D ISCUSSION Improving queries performance was the main reason to make changes on the original database. In order to present the refactoring advance, all composite natural keys were replaced by surrogate keys into the entities chosen for the experiment. Comparing original and refactored database performance, the scores obtained by the refactorings were higher. For the "Introduce Surrogate Key" refactoring, measuring the consumed time (ms) to insert, delete, and select data was 15%, 4%, 25% shorter respectively. Whereas measurements for queries costs were basically the same to insert and select data, otherwise to delete data operation it was 4% shorter. Aiming at improving the refactored database a "Merge Column" refactoring was made merging "Latitude" and "Longitude" columns, generating an economy of 20% in terms of time consuming to select data operation. R EFERENCES [1] R. Khosla, “Precision agriculture: challenges and opportunities in a flat world,” in 19th World Congress of Soil Science, 2010. [Online]. Available: http://www.iuss.org/19th%20WCSS/Symposium/pdf/0779.pdf [2] F. S. Santana, “Evolution of a SOA-based architecture for agroenvironmental purposes integrating GIS services to an ESB environment,” 2009. [3] E. Murakami, A. M. Saraiva, L. C. M. Ribeiro, Junior, C. E. Cugnasca, A. R. Hirakawa, and P. L. P. Correa, “An infrastructure for the development of distributed service-oriented information systems for precision agriculture,” Comput. Electron. Agric., vol. 58, no. 1, pp. 37–48, Aug. 2007. [Online]. Available: http://dx.doi.org/10.1016/j. compag.2006.12.010 [4] S. W. Ambler and P. J. Sadalage, Refactoring Databases: Evolutionary Database Design. Addison-Wesley Professional, 2006. Fig. 3: Time results for insert and select data We also performed the "Merge Column" refactoring in or- 76 Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP Proposta de Mecanismo de Controle de Acesso para o ambiente SDN/OpenFlow Marco Antonio Torrez Rojas Tereza Cristina Melo de Brito Carvalho Dep. de Engenharia de Computação e Sistemas Digitais Escola Politécnica da Universidade de São Paulo São Paulo - Brasil [email protected] Dep. de Engenharia de Computação e Sistemas Digitais Escola Politécnica da Universidade de São Paulo São Paulo - Brasil [email protected] B. Segurança do Protocolo OpenFlow A abordagem proposta pelo SDN/OpenFlow apresentam as seguintes questões de segurança em aberto [3]: Abstract-The research aims to propose and validate an access control mechanism suited to the specific needs of the paradigm SDN/OpenFlow. The validation of the proposal will be done through modeling, simulation and analysis of states provided by the colored Petri net and CPNTools tool. A prototype as proof of concept of the mechanism will be implemented in the cloud computing platform OpenStack, using their support to OpenFlow through the Neutron module. This proposal has evolved from the one presented in the WPG-2012 CE in the research of the access control mechanism, method of formal validation and definition of the environment of the development of the prototype. Keywords-component: SDN; Colorida; Controle de Acesso I. OpenFlow; Rede de Segurança e Proteção do controlador: Envolve mecanismos de segurança lógica e física; • Estabelecimento de confiança: A comunicação entre controlador e comutador necessita ser autenticada, cifrada e adotar mecanismos seguros de comunicação; • Garantir a integridade das aplicações: É necessário ter certeza que aplicações maliciosas não podem se vincular ao controlador e assumir o controle da rede; • Política de segurança: Regras de acesso e políticas corporativas de sua utilização devem ser definidas; e • Análise forense: Em caso de incidente possibilitar a análise forense do ambiente e seus dados. Petri INTRODUÇÃO O paradigma das Redes Definidas por Software (SDN), através da aplicação do protocolo OpenFlow vem despontando como ferramenta para pesquisa experimental no campo da Internet do Futuro [1]. O OpenFlow separa o plano de dados do plano de controle de dispositivos como o comutador ou roteador. Em função desta separação possibilita a manipulação direta do plano de controle através de programação, permitindo inovação nas abordagens de controle da rede [2]. Entretanto, a adoção do OpenFlow apresenta desafios de segurança que necessitam ser analisados e tratados antes da sua adoção em larga escala [3]. Neste contexto, averiguar a questão de política robusta de segurança, através da definição de um mecanismo de controle de acesso ao controlador por parte das aplicações e também da relação controlador-comutador são os desafios abordados nesta pesquisa. C. Mecanismos de Controle de Acesso O controle de acesso é um tema de pesquisa importante dentro do contexto da segurança da informação. Basicamente os mecanismos de controle de acesso podem ser agrupados em quatro categorias e apresentam as seguintes características [7][11]: Neste contexto, propor, verificar e validar um mecanismo adequado de controle de acesso para este novo paradigma é necessário, este desafio é o objeto desta proposta de pesquisa. II. • SEGURANÇA EM AMBIENTE DE REDE COM OPENFLOW • A. Protocolo OpenFlow Um comutador OpenFlow é composto de três elementos [2]: a) Tabela de Fluxos: Contêm campos que compõe as regras de fluxo, com as ações de tratamento e estatísticas do fluxo; b) Canal Seguro: Comunicação entre o comutador e controlador, realizado através do protocolo SSL/TLS; e c) Protocolo OpenFlow: Protocolo que possibilita a manipulação da tabela de fluxos e a definição do comportamento do comutador (reativo ou proativo). Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq), Centro de Pesquisa e Desenvolvimento Ericsson S.A. e Laboratório de Arquiteturas e Redes de Computadores (LARC). 77 RBAC (Role-based Access Control): Neste modelo as políticas de controle de acesso são atribuídas de acordo com o papel que o usuário possui dentro do sistema e regras de acesso definidas para os papeis. O modelo de referência divide o RBAC em quatro componentes: 0) RBAC Básico, o qual define as entidades básicas do modelo e seus relacionamentos; 1) RBAC Hierárquico, o qual define as especificações e relacionamentos para dar suporte à hierarquia entre papéis; 2) Relação de Separação Estática de Tarefas; e 3) Relação de Separação Dinâmica de Tarefas, os quais definem os relacionamentos de separação de tarefas para assegurar que indivíduos não assumam papéis conflitantes de forma estática e dinâmica, Rojas e Carvalho garantindo assim as políticas de interesse das organizações. Os componentes 2 e 3 compõem o RBAC Restrito. • • • • DAC (Discretionary Access Control): Neste modelo as políticas de controle de acesso têm como base a identidade do requisitante e regras de acesso informando o que o requisitante pode ou não fazer. Como principal representes deste modelo temos a Matriz de Controle de Acesso. Levantar requisitos de controle de acesso necessários ou desejados pelo SDN/OpenFlow, principalmente para os cenários: a) controlador centralizado e controlador distribuído no ambiente de rede; b) aplicação ou aplicações acessando/solicitando recursos em ambiente de controlador centralizado e distribuído; • MAC (Mandatory Access Control): Neste modelo as políticas de controle de acesso têm como base regras determinadas por uma autoridade central. Os principais representantes deste modelo são: Bell-LaPadula e Biba’s. Elaborar um estudo aprofundado dos mecanismos de controle de acesso propostos na literatura, comparar e verificar a sua adequação as necessidades apresentadas pelo SDN/OpenFlow; • Elaborar uma proposta de mecanismo de controle de acesso adequada para o SDN/OpenFlow; • Validar e verificar a proposta do mecanismo de controle de acesso utilizando a rede de Petri colorida; • Desenvolver um protótipo como prova de conceito utilizando a plataforma open source de computação em nuvem OpenStack [8], principalmente o módulo Neutron [9] que possibilita o NaaS (Networking as a Service) entre os outros serviços do OpenStack. O módulo Neutron possibilita a utilização do OpenFlow através de um de seus plug-ins. O protótipo será responsável por fazer o controle de acesso aos recursos providos pelo OpenStack, como por exemplo máquinas virtuais, recursos de rede e recursos de software. Outros: Nesta classificação podemos enquadrar os modelos que são híbridos (MAC e DAC) e outras propostas. Os principais representantes deste modelo são: Clark-Wilson, Brewer-Nash e Chinese Wall Policy. III. MÉTODO DE VERIFICAÇÃO E VALIDAÇÃO Como ferramenta para o auxílio no processo de verificação e validação da proposta do mecanismo de controle de acesso será utilizada a Rede de Petri Colorida. A. Rede de Petri Colorida (RPC) A rede de Petri é uma ferramenta de modelagem matemática, com vasta aplicação na modelagem de sistemas: concorrentes, assíncronos, distribuídos, paralelos, nãodeterminísticos e/ou estocásticos, etc. A RPC é uma classe de rede de Petri que possibilita as seguintes abordagens para verificação e validação de modelos [4]: • PRINCIPAIS REFERÊNCIAS Modelagem: Possibilita desenvolver um metamodelo para o sistema a ser estudado; • Simulação: Possibilita observar o comportamento do modelo através de testes executados de forma interativa ou automática, contribuindo desta forma para a corretude do modelo. • Validação: Possibilita a geração do espaço de estados do sistema modelado. A partir do grafo do espaço de estados, podem-se analisar diversas propriedades da rede, tais como a existência ou não de deadlocks, reversibilidade e alcançabilidade de uma marcação específica. [1] S. Paul, J. Pan, and R. Jain, " Architectures for the Future Networks and the Next Generation Internet: A Survey" Computer Communications, UK, Volume 34, Issue 1, 15 January 2011, pp. 2-42. [2] N. McKeown, T. Anderson, H. Balakrishnan, G. Parulkar, L. Peterson, J. Rexford, S. Shenker, and J. Turner, “OpenFlow: Enabling innovation in campus networks,” ACM Computer Communication Review, Apr. 2008. [3] S. Sorensen, “Security implications of software-defined networking”, http://www.sdncentral.com/security/security-implications-of-softwaredefined-networking/2012/02. Acessado em abril de 2013. [4] K. Jensen, and L. M. Kristensen, Coloured Petri Nets for Modelling and Validation of Concurrent Systems. Springer, 2007. [5] C. Schuba, and E. H. Spafford, “Modeling firewalls using hierarchical colored petri nets”, NATO Symposium on Protecting Information Systems in the 21st Century October 1999. [6] H. Huang, and H. Kirchner, “Formal specification and verification of modular security policy based on colored petri nets”, IEEE Trans. Dependable Secur. Comput., December 2011, 8(6):852–865. [7] D. F. Ferraiolo, R. D. Kuhn, and R. Chandramouli. Role-Based Access Control, Second Edition, Artech House, Inc., Norwood, MA, 2007. [8] OpenStack, “Open source software for building private and public clouds”, http://www.openstack.org. Acessado em abril de 2013. [9] Neutron, “Neutron”. https://wiki.openstack.org/wiki/Quantum. Acessado em Abril 2013. [10] Tools, C. “Cpntools homepage”. http://www.cpntools.org. Acessado em Abril de 2013. [11] S. Sezer, S. Scott-Hayward, P. K. Chouhan, B. Fraser, D. Lake, J. Finnegan, N. Viljoen, M. Miller and N. Rao. “Are we ready for SDN ? Implementation Challenges for Software-Defined Networks”. Communications Magazine, IEEE Volume:51 Issue: 7. July 2013. Estas abordagens serão empregadas no modelo a ser proposto, com o auxílio do software CPN Tools a ser utilizado. O CPN Tools é uma ferramenta que possibilita a criação de modelos através de uma interface simples e intuitiva, permitindo a simulação da rede modelada e sua análise através da geração de seu espaço de estados [10]. Os recursos providos pela RPC vêm sendo aplicados no contexto da segurança da informação, através da validação de modelos relacionados a controle de acesso, mecanismo de firewall e políticas de segurança [5][6]. IV. ATIVIDADES EM DESENVOLVIMENTO Atividades da pesquisa relacionadas a esta proposta que se encontra em desenvolvimento: 78 Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP Multi Expression Linear Genetic Programming for Symbolic Regression Michel Jan Marinus Bieleveld and Antonio Mauro Saraiva Abstract—This paper describes in high level an algorithm that finds a symbolic representation that accurately models a given dataset. To find this representation multi expression linear genetic programming is used. The performance of the algorithm is compared to other solutions by using the Proben1 Cancer dataset. The result of this comparison is that the algorithm can accurately, error rate <3%, describe this dataset, which is a similar result as obtained through other techniques. Keywords—multi expression programming, linear genetic programming, symbolic regression, genetic algorithms, evolutionary algorithms. I. I NTRODUCTION The field of evolutionary algorithms is a relative new area that studies non-deterministic search algorithms that are loosely based on aspects of Darwin’s theory of evolution by natural selection. John Holland proposed evolutionary algorithms and showed that an evolutionary process could be applied to artificial systems. This led to evolving program code, so called genetic programming, that became widely known after the publication of a series of books by John Koza. Genetic Programming is, as Koza wrote, a method for getting a computer to solve a problem by telling it what needs to be done instead of how to do it. The ultimate problem to solve is how to compare and evaluate ecological niche models. Frequently use for this task is the Area Under Curve criteria. However, even though frequently used, the use of the AUC causes problems when comparing those models. As an example, [1] compared in a very thorough article 16 modeling methods over 226 species from 6 regions over the world. They show that the modeling algorithm Maxent outperforms GARP; Maxent with a mean AUC rank per species of 6.42 vs. DK-GARP with 10.47. In contrast,[2] wrote in response that for his experiments GARP performed better and concluded that currently accepted model evaluation techniques are not adequate for niche modeling applications, and can yield inaccurate and inappropriate conclusions in many cases. II. already inherent of the technique. While this is the end goal, currently, to start, this research is focussing on improving and implementing a linear genetic algorithm. III. P ROPOSED S OLUTION Genetic Algorithms work by creating populations consisting of individuals, see Figure 1. Each individual represents a possible solution for the problem at hand. Initially all individuals are initialized randomly, meaning that each gene of a individual is set to a random element from the genotype, which often is an instruction set of a programming language. The individuals are then tested until a certain stopping criteria are met. Then the algorithm is finished and the best individual is the solution to the problem. After creating the new generation it is evaluated again and the process repeats itself until a best solution is found. With genetic programming it is not guaranteed that one finds the best solution, just that you find a solution that performed better than the other solution of that particular population. Therefore performance of a genetic algorithm cannot be measured by the best-found solution in a single run, but measured by how often and how quick, in number of generations, it finds those solutions. Linear Genetic Programming [4] is chosen over other techniques for several reasons; (1) it has a low memory footprint, compared to conventional techniques such as Trees, (2) Linear Genetic Programming maps well on massively parallel architectures as mutation and reproduction are simplified. Last, no validity check is needed after mutation and reproduction as linear programs are always valid programs. A shortcoming of linear genetic programming is that often only the last output is considered, while earlier produced results are not considered as valid solutions. For this reason Multi Expression Programming [5] is used, where not only the fitness of the last node, or root for trees, is considered, but also the fitness of the every sub-program or sub-tree. IV. P ROBLEM R ESULTS Reference [3] in AUC: a misleading measure of the performance of predictive distribution models do not recommend to use the AUC for five reasons. The three important reasons are; (1) it weighs omission and commission errors equally, (2) it does not give information about the spatial distribution of model errors, and most importantly, (3) the total extent to which models are carried out highly influences the rate of wellpredicted absences and the AUC scores. One of the problems with Species Distribution Modeling is that there are no benchmarks. This makes comparing algorithms quite difficult, application dependent and highly subjective. For this reason and because genetic programming algorithms are considered to be problem agnostic the Proben1 benchmark [6] is used to evaluate the developed algorithm. The result of the algorithm is a symbolic representation of the data that tries to describe the dataset as accurately as possible. Genetic Programming will be used to improve this multiobjective optimization problem as creating many solution is The Proben1 benchmark contains a diagnosis of breast cancer problem based on a real world data originally obtained 79 Bieleveld e Saraiva Gen := 0 TABLE I: The algorithm vs. Proben1 Cancer benchmark D ATA S E T TRAINING VA L I D AT I O N TEST SET SET SET M SD M Create Initial Random Population ρ Termination CriterionSatisfied? SD M SD CANCER2 CANCER3 2.83 2.14 1.83 0.15 0.23 0.26 1.89 1.76 2.83 0.12 0.14 0.13 1.32 3.47 2.60 0.13 0.28 0.22 CANCER2 CANCER3 3.43 2.66 2.34 0.27 0.30 0.84 2.86 2.06 3.43 End I := 0 0.64 0.14 0.59 Gen := Gen + 1 0.47 0.61 1.04 2.36 5.0 4.89 0.50 0.66 1.09 Yes I=M ? No Pr Select Genetic Operation Probabalistically Pm Pc Research CANCER1 Designate Result EvaluateFitness of Each IndividualinPopulation Proben1 CANCER1 Yes No 0.17 0.55 0.64 Select One Individual Based on Fitness Select TwoIndividuals Based on Fitness Select One Individual Based on Fitness Perform Reproduction I := I + 1 Perform Mutation Copy intoNew Population Perform Crossover Insert Mutantinto NewPopulation Insert Two Offspring IntoNew Population from the University of Wisconsin Hospitals, Madison, from Dr. William H. Wolberg [7] and in benchmark form obtained from the UCI repository for machine learning databases. The problem is to classify a tumor as either benign or malignant based on the cell descriptions gathered by microscopic examination. Input attributes are for instance the clump thickness, the uniformity of cell size and cell shape, the amount of marginal adhesion, and the frequency of bare nuclei. In total there are nine inputs, two outputs (benign or malignant) and 699 samples, of which 65.5% are benign. The current implementation was benchmarked and the results are shown in Table I. The 699 samples were divided into three different partitions; training, validation and test. The training data was solely used to train the model. The validation data is used to help pick the final model and thus as a stopping criteria. After selecting the final model it was run on the test partition to find out how well the model generalizes on untrained data. The three partitions were created from the 699 samples, 350 for the training data, 175 for the validation data and 174 for the test data. Cancer1, Cancer2, Cancer3 present three different allocations of the same samples to these three partitions as defined by the benchmark. The first six columns depict the standard deviation and average over ten runs of obtaining error percentage for training, validation and test data. The first thing to notice is that all error rates are below 5%, thus the algorithm correctly found out a pattern in the data correctly predicting benign or malign for more than 95% of the presented samples. Considering that a single error in the training set already causes 0,29% error the data shows that the neural network solution presented in [6] has on average two less mispredictions on 350 samples for the training data, a difference for now considered negligible. The last column shows the cross validation for assessing how the results of the validation partition generalize to the test partition. V. C ONCLUSION The results show that the multi expression linear genetic programming solution as implemented works well on the Proben1 Cancer dataset. The research now focuses further on general optimization and new features for other datasets, ultimately it will be tested on ecological data. 80 I := I + 1 Fig. 1: Genetic Algorithm process ACKNOWLEDGMENT This study was supported by the Núcleo de Apoio á Pesquisa em Biodiversidade e Computação - BioComp. We thank the ESRI Conservation Program for providing a software grant. We also thank the Coordenação de Aperfeiçoamento de Pessoal de Nı́vel Superior (CAPES) for a scholarship grant to the first author. R EFERENCES [1] [2] [3] [4] [5] [6] [7] J. Elith, C. H. Graham, and P. Anderson, “Novel methods improve prediction of species’ distributions from occurrence data,” Ecography, vol. 29, no. 2, pp. 129–151, 2006. A. T. Peterson, M. Papeş, and J. Soberón, “Rethinking receiver operating characteristic analysis applications in ecological niche modeling,” Ecological Modelling, vol. 213, no. 1, pp. 63–72, 2008. J. M. Lobo, A. Jiménez-Valverde, and R. Real, “AUC: a misleading measure of the performance of predictive distribution models,” Global Ecology and Biogeography, vol. 17, no. 2, pp. 145–151, 2008. M. Brameier and W. Banzhaf, Linear genetic programming, ser. Genetic and evolutionary computation series. New York: Springer, 2007. M. Oltean and D. D., “Multi expression programming,” 2006. L. Prechelt et al., “Proben1: A set of neural network benchmark problems and benchmarking rules,” Fakultät für Informatik, Univ. Karlsruhe, Karlsruhe, Germany, Tech. Rep, vol. 21, p. 94, 1994. Olvi L. Mangasarian and W. Nick Street and William H. Wolberg, “Breast cancer diagnosis and prognosis via linear programming,” OPERATIONS RESEARCH, vol. 43, pp. 570–577, 1995. Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP Avaliação da Adoção de Sensores Virtuais em Redes de Sensores Legadas Visando à Sua Predisposição ao Contexto de Internet das Coisas R. M. Marè; C. E. Cugnasca Departamento de Sistemas Digitais Engenharia de Computação, Escola Politécnica da USP São Paulo, Brasil [email protected]; [email protected] energética bem como, o conforto térmico e a qualidade do ar interior por eles proporcionados. Nos edifícios inteligentes consideram-se estas questões, por meio da aplicação de tecnologias inteligentes [3]. Os edifícios não residenciais apresentam constantes modificações relativas ao perfil dos usuários, uso da edificação, número de ocupantes, mudanças de leiaute, demandando flexibilidade nas estratégias de operação dos sistemas de ar condicionado, de modo a atender às necessidades de seus ocupantes. Configuram-se portanto, como potenciais usuários de aplicações baseadas em IoT, que podem permitir a expansão de possibilidades e funcionalidades de acordo com as mudanças ao longo do tempo, incrementando a sua inteligência ambiental [4]. A heterogeneidade de tecnologias, legadas e novas, relacionadas às redes de sensores capazes de fornecer subsídios à definição destas estratégias, dificulta a sua integração e eventual interação. Visto que a migração para IP de soluções baseadas em protocolos fechados mostra-se como uma tendência, a aplicação de sensores virtuais pode ser um primeiro passo neste sentido. Um sensor virtual pode fazer a ponte entre redes de sensores de tecnologias distintas, visto que abstrai a camada física, sendo relevante o fluxo de dados, seja aquele originado em sensores físicos ou em outros sensores virtuais [5]. Abstract—Air conditioning systems in non-residential buildings have an important role in maintaining acceptable indoor environmental conditions. In order to reach this goal, besides reducing energy consumption, its operation demands well-defined strategies. These strategies have to be flexible as well, since this kind of building has many occupation and use changes during its life cycle. Looking to a near future, the Internet of Things (IoT) will be able to contribute to this flexibility and ambient intelligence, adding resources to legacy automation system components (sensor networks and actuators). In this scenario, proprietary solutions and heterogeneous technologies impose a challenge in terms of interoperability, a pre requisite of the IoT. One of the resources to start this integration can be the application of virtual sensors, which contribution will be evaluated. Keywords—Internet of Things; virtual sensors; sensor network; Ambient Intelligence; air conditioning systems I. INTRODUÇÃO Manter o conforto térmico e a qualidade do ar interior com eficiência energética em edifícios não residenciais é um grande desafio, dado o expressivo consumo de energia dos sistemas de ar condicionado, responsáveis por aquela função. Estes precisam operar com flexibilidade, acompanhando a variação de ocupação e uso destes edifícios ao longo de sua vida útil. As informações essenciais à definição de estratégias podem ter origem em redes de sensores de tecnologias distintas. Para a sua integração, um caminho a se avaliar é a utilização de sensores virtuais, que permitem a abstração da camada física e, em um segundo momento, migrar os dispositivos das redes para o ambiente IP. Isso poderá permitir interação entre redes e atuação sobre sensores e atuadores, no contexto de Internet das Coisas (IoT). II. III. METODOLOGIA Pretende-se utilizar como estudo de caso, uma sala de aula com sistema de ar condicionado central do tipo distribuição e insuflamento de ar pelo piso, situada no edifício de Engenharia de Construção Civil da Escola Politécnica da USP (Figura 1). ! REVISÃO DA LITERATURA Os sistemas de ar condicionado são responsáveis por 50% dos gastos com energia em edifícios [1] tendo, no entanto, importante papel na qualidade do ambiente interior (QAI). Visto que o incremento da QAI melhora o desempenho e a saúde dos ocupantes, reduzindo o absenteísmo [2], é essencial que se considerem simultaneamente a operação sustentável dos sistemas de ar condicionado, do ponto de vista de eficiência Fig. 1. Sala de aula objeto de estudo. 81 Marè e Cugnasca Conta com uma rede de sensores destinada ao monitoramento de parâmetros de QAI (temperatura do ar, umidade relativa do ar, teor de CO2 no ar interno e externo, concentração de Compostos Orgânicos Voláteis no ar interno), diferencial de pressão e consumo de energia dos equipamentos cujo consumo é mais substancial no sistema de ar condicionado (fan coil e chiller). Além desta fonte de informações, o sistema supervisório do ar condicionado provê ao gestor, dados obtidos a partir de uma rede de sensores dedicada (solução proprietária), que monitora diversos parâmetros relativos à operação do sistema. Trata-se portanto, de exemplo de instalação legada típica: as redes de sensores, que fornecem informações de interesse à definição de estratégias de operação mais eficientes, não estão integradas e nem predispostas à IoT. Para que cada rede se conecte à Internet, faz-se necessário o uso de gateways específicos (Figura 2) [6]. Fig. 4. Raspberry Pi IV. RESULTADOS ESPERADOS Espera-se com este estudo, avaliar-se a contribuição do conceito de sensores virtuais à adequação de redes de sensores legadas ao contexto de IoT. O estudo dá ênfase às redes dedicadas aos sistemas de ar condicionado central em edifícios não residenciais, visto que demandam a definição de estratégias de operação flexíveis, proporcionando elevada qualidade do ambiente interior concomitante à eficiência energética. V. CONCLUSÕES Os edifícios não residenciais, com frequentes mudanças de ocupação e grande consumo energético, apresentam potencial para a utilização de aplicações baseadas em IoT. As diferentes tecnologias de redes de sensores utilizadas demandam soluções à sua predisposição a este novo paradigma. AGRADECIMENTOS Fig. 2. Conexão de cada rede proprietária por um gateway específico. À Fundação de Amparo à Pesquisa do Estado de São Paulo (processos nº 2012/50461-1 e nº 2012/51032-7) e à Financiadora de Estudos e Projetos (processo nº 2013/500852), pelo apoio ao projeto de desenvolvimento do sistema de monitoramento do ambiente interior aqui mencionado. Como passo inicial à interoperabilidade destas redes por meio da IoT, pretende-se promover a sua conectividade por meio de sensores virtuais (Figura 3) [6]. Referências [1] [2] Fig. 3. Conexão das redes por meio de camada superior. Na Figura 3, a Rede de Sensores representa a união virtual entre as duas redes físicas mencionadas. Ainda pesquisa-se a melhor alternativa de implementação do conceito de sensor virtual, responsável pela obtenção das leituras dos sensores das redes legadas e, portanto, por esta união. Pretende-se utilizar como gateway, o equipamento Raspberry Pi [7]. Trata-se de um computador diminuto baseado em um system on a chip (SoC) Broadcom BCM2835,7 que inclui um processador ARM1176JZF-S de 700 MHz, GPU VideoCore IV e 512 MB de memória RAM. Possui uma entrada de cartão SD para armazenamento de dados (Figura 4). [3] [4] [5] [6] [7] 82 ERICKSON, V. L. et al. Energy efficient building environment control strategies using real-time occupancy measurements. Proceedings of the First ACM Workshop on Embedded Sensing Systems for EnergyEfficiency in Buildings. In: BuildSys '09, 2009, Berkeley, California, New York, NY, USA. Proceedings… Berkeley, California, New York, NY, USA: ACM, 2009. p. 19–24. FISK, W.; SEPPANEN, O. Providing Better Indoor Environmental Quality Brings Economic Benefits. In: 9th REHVA World Congress Clima: Wellbeing Indoors, 2007, Helsinki. Proceedings… Helsinki: 2007. p. 3-19. TUNG, C. M. Growing trend of network-based, smart green buildings towards automatic energy-saving performance: A study based on Advantech’s energy-saving system. International Journal of Automation and Smart Technology, v. 2, n. 2, p. 3, 2012. MIORANDI, D. et al. Internet of things: Vision, applications and research challenges. Ad Hoc Networks, v. 10, n. 7, p. 1497-1516, 2012. MAINETTI, L.; PATRONO, L.; VILEI, A. Software, Telecommunications and Computer Networks (SoftCOM), 2011 19th International Conference on Evolution of wireless sensor networks towards the Internet of Things: A survey. 2011, Proceedings… 2011. p. 1-6. ISHAQ, I. et al. Internet of Things Virtual Networks: Bringing Network Virtualization to Resource-Constrained Devices. In: IEEE International Conference on Green Computing and Communications, 2012, Proceedings… 2012. p. 293-300. PI, F. R. Raspberry Pi. Disponível em: <http://www.raspberrypi.org>. Acesso em 12 Ago 2013. Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP Método de Avaliação de Segurança Crítica para a Inserção de Veículos Aéreos Não Tripulados (VANT) no Espaço Aéreo não Segregado Ricardo A. V. Gimenes Jorge R. de Almeida Junior Departamento de Engenharia de Computação Escola Politécnica da Universidade de São Paulo São Paulo, Brasil [email protected] Departamento de Engenharia de Computação Escola Politécnica da Universidade de São Paulo São Paulo, Brasil [email protected] dados científicos que mostrem se é uma tecnologia viável do ponto de vista da segurança crítica (do inglês safety). Abstract - The research proposes a method to evaluate the safety of Unmanned Aerial Vehicles due to this profile of aircraft be able to be used in controlled airspace following the guidelines of the International Civil Aviation Organization (ICAO). The motivation about this topic is based on the fact that the institutions responsible for the release and use of UAVs do not yet have evidence that they are not exposing the society to risks not adequately assessed and measured. III. Resumo - A pesquisa apresenta uma proposta de método para avaliar a segurança crítica de Veículos Aéreos não Tripulados para que esse perfil de aeronave seja utilizado no espaço aéreo controlado seguindo as diretrizes da Organização da Aviação Civil Internacional (OACI). Essa pesquisa nasceu da necessidade de os órgãos responsáveis pela liberação e uso de VANT ainda não possuírem elementos que provem que não estão expondo a sociedade a riscos não suficientemente avaliados e mensurados. IV. INTRODUÇÃO A Circular 328 da OACI [3] define VANT como sendo uma aeronave e seus demais elementos associados que são operados sem piloto a bordo. A Circular 328 também reforça que o VANT, em função das limitações apresentadas pela OACI, deve voar sob o comando de um piloto remotamente localizado em uma central de operação. A Circular 328 define que este tipo de aeronave, subgrupo de VANT, deve ser também designada pelo termo “remotely-piloted aircraft” (RPA). Tendo em vista tal foco, vêm sendo desenvolvidas diversas pesquisas em cujo centro está o veículo conhecido como Veículo Aéreo Não Tripulado (VANT). No entanto, este tipo de aeronave ainda está em fase prematura de desenvolvimento para o uso na aviação civil comercial, apesar de já existir VANTs sendo utilizados em aplicações civis [1]. A integração do VANT tem se tornado um grande desafio para o gerenciamento do espaço aéreo, o que proporciona novos desafios a serem pesquisados. Isto possibilita o desenvolvimento de várias novas áreas de pesquisa para que o controle de VANT seja realizado de maneira segura e confiável. II. REVISÃO DA LITERATURA Em função de o VANT ser, de uma forma generalista, uma aeronave com um sistema automático de tomada de decisões, surgem novos fatores de segurança crítica quando se considera a possibilidade de utilizar tais aeronaves com passageiros ou carga e estas mesmas aeronaves compartilhando o espaço aéreo com outras aeronaves tripuladas. Keywords—VANT, Segurança Crítica, Automação I. OBJETIVO O Objetivo desta pesquisa é apresentar um método de avaliação de segurança crítica (safety) para a introdução de Veículos Aéreos Não Tripulados em um espaço aéreo não segregado, espaço esse definido pela OACI, [2] e sujeito às regras do Controle de Tráfego Aéreo. A preocupação com o crescimento da demanda pelo transporte aéreo e a necessidade de torná-lo cada vez mais seguro têm exigido um constante desenvolvimento por novas soluções. Esta preocupação pode ser notada na implantação da Concepção Operacional do ATM Global definida pela OACI em sua décima primeira conferência de Navegação Aérea. MOTIVAÇÃO A OACI, referente aos Veículos Aéreos Não Tripulados (VANT), possui o artigo 8º: “Nenhuma aeronave capaz de voar sem um piloto deve voar sem um piloto sobre o território do Estado contratante sem autorização especial deste Estado e em acordo com os termos de tal autorização...”. Assim, pode-se observar que há quase 70 anos já existia a preocupação sobre regulamentação de veículos autônomos e a proibição do mesmo ser autônomo. Porém a demanda existe e carece de V. METODOLOGIA A base para o desenvolvimento do Método proposto é fundamentada no estudo de normas e metodologias de avaliação de segurança crítica (conhecidas como Safety Assessment Methodologies – SAM) utilizadas para a avaliação da segurança crítica na aviação civil internacional. Atualmente, estas metodologias são aplicadas às aeronaves tripuladas e 83 Gimenes e Almeida Jr. controladas por seres humanos, simplificadamente denominadas nessa pesquisa como aeronaves tripuladas. avaliado (4) e, consequentemente, qual metodologia deve ser aplicada sobre as alterações (5). Dado que a Eurocontrol SAM é generalista, uma etapa necessária é aplicar esta metodologia em um domínio específico de VANT no sistema de tráfego aéreo (6) e, ao se fazer o uso desta metodologia, pode-se definir e propor quais etapas desta metodologia serão utilizadas para a formalização da proposta (7). Considerou-se como hipótese principal que a inserção de VANT no Sistema de Navegação Aérea deve atender os mesmos níveis de segurança já existentes da aviação civil e; o VANT a ser testado deve atender aos requisitos mínimos necessários para operar em um espaço aéreo não segregado, ou seja, não é apresentada ou proposta a criação de um VANT real. Inserção de Vants no sistema de navegação aérea (1) A proposta apresentada nesta Tese compreende a proposição de um Método para avaliação da segurança crítica para a integração de VANT no espaço aéreo controlado e não segregado. Nesse método serão utilizados como base os requisitos constantes da Metodologia SAM da Eurocontrol, apoiado por métricas de avaliação de pilotos. Requisitos Regulatórios (2) Ainda não há um conjunto de elementos de dimensões técnicas, sociais e mesmo políticas que os órgãos responsáveis pela segurança de voo possam usar, permitindo a certificação dos VANT, sejam aqueles já existentes, sejam aqueles em desenvolvimento. Eurocontrol SAM (Generalista) (5) A viabilização do uso de VANT no espaço aéreo, então, necessita de uma quantificação de fatores que envolvem Tecnologia, Regras do Espaço Aéreo, Procedimentos Operacionais (tanto em voo como em solo) e dos requisitos não funcionais de disponibilidade, confiabilidade e segurança crítica. Em decorrência dessa carência de quantificação, esta Tese apresenta o método proposto para expor um caminho de mensuração de parâmetros de VANT ainda mal definidos na aviação civil. VI. O que será novo? (3) O que a Eurocontrol SAM necessita para avaliar a segurança de Vants no Sistema de Navegação Aérea (6) Como Será Avaliado? (4) Processos baseados na Eurocontrol SAM considerando Vants no Sistema de Navegação Aérea (7) Figura 1 – Eurocontrol SAM e Alterações necessárias Os processos necessitam ser definidos caso a caso, mas todos envolvem um paralelo ao que um piloto humano faria em diversas situações. Em função desta paridade com pilotos humanos, buscou-se as formas com que se avalia tais profissionais para que sejam autorizados a operar aeronaves em que foram aprovados em processos de certificação. DESENVOLVIMENTO VII. RESULTADOS E DISCUSSÕES O método proposto tem como base processos já existentes de certificação de pilotos, considerando as devidas adaptações no caso do VANT, visando definir um processo de avaliação de segurança crítica. A aplicação do método em desenvolvimento nessa pesquisa e sua validação, conforme os parâmetros que estão sendo definidos para, então, poder avaliar o quão integrável de forma segura o VANT testado se encontra no espaço aéreo segregado. O caminho para o desenvolvimento do método aqui proposto é ter como ponto de referência, práticas existentes e bem estabelecidas que são utilizadas em outros domínios e aplicações do Sistema ATM Global e, então, adaptá-los para a inserção de VANT neste contexto. VIII. CONCLUSÕES Os estudos realizados até o presente momento têm permitido verificar que é possível utilizar o método proposto para que as organizações responsáveis possam certificar o uso de VANT no espaço aéreo não segregado. Considerando a futura integração do VANT no espaço aéreo, a adaptação deve considerar as regras e definições já existentes da OACI, tendo como uma importante contribuição, a descrição de atividades específicas a serem validadas pelo método. AGRADECIMENTO Os autores agradecem ao apoio do "INCT-SEC Instituto Nacional de Ciência e Tecnologia em Sistemas Embarcados Críticos" com financiamento do CNPq e da FAPESP por meio dos processos 573963/2008-8 e 08/57870-9 respectivamente. Na Figura 1, é apresentado o fluxograma para ilustrar os pontos que necessitam ser desenvolvidos para a viabilização de metodologias como a Eurocontrol SAM de forma a aplica-las aos padrões dos VANT. Na Figura 1, tem-se o cenário de que é considerada a inserção de VANT no sistema de navegação aérea (1). Isto significa que é necessário definir o escopo das mudanças que serão necessárias. Para a formalização destas mudanças, existe o processo de requisitos regulatórios (2), baseados em uma documentação, explicando o que é necessário para formalizar tais mudanças. Em posse da documentação das alterações, sabe-se o que é necessário ser REFERENCES [1] [2] [3] 84 Strong, M., UAS Market Assessment, Eurocontrol UAS ATM Integration Workshop, Eurocontrol, Europe. 2008. ICAO – Global Air Traffic Management Operational Concept Ed 1. Doc 9854. 2004. ICAO, "Unmanned Aircraft Systems (UAS) Circular: UAS 328", Cir 328 AN/190. 2011. ISBN: 978-92-9231-751 Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP Modelo de Representação de Design Rationale para Projetos de Código Aberto Sandra Kawamoto1, Prof. Dr. Jorge Rady de Almeida Junior2 Departamento de Engenharia de Computação e Sistemas Digitais Universidade de São Paulo, Escola Politécnica, Sao Paulo, SP – Brasil 1 [email protected], [email protected] A utilização do DR pode proporcionar grandes benefícios ao processo de desenvolvimento de software [2]. Ela não só proporciona um melhor entendimento do projeto pela equipe atual de desenvolvimento como também traz benefícios a outros departamentos envolvidos e novos integrantes da equipe. Entretanto, ainda há muita resistência à sua utilização. Uma alternativa para se obter o uso eficaz do DR é definir um modelo de representação do DR adequado a um sistema específico. A maneira de se representar o DR efetivamente é a questão mais importante na gestão do DR [3]. Resumo—Design Rationale (DR) é uma representação da documentação de um projeto de software que contém os argumentos referentes a uma decisão bem como alternativas consideradas e que foram descartadas. Embora sua utilização possa trazer grandes benefícios ao processo de desenvolvimento de software, há muita resistência em sua adoção. Uma alternativa para se obter o uso eficaz do DR é definir um modelo de representação adequado a um ambiente específico. Os sistemas de software aberto possuem características muito favoráveis à utilização do DR. Os envolvidos possuem interesse no bom entendimento do projeto por todos os usuários e na disseminação do conhecimento sobre o mesmo. Este trabalho tem o objetivo de definir um modelo de representação do DR para projetos de software aberto. Sua validação será feita através de um estudo de caso, utilizando-se um ambiente real de desenvolvimento de software. Os sistemas de software aberto possuem características muito favoráveis à utilização do DR. São sistemas que podem se beneficiar consideravelmente com a utilização desta abordagem. Em geral, são softwares desenvolvidos por equipes heterogêneas e dispersas geograficamente. Os envolvidos possuem interesse no bom entendimento do projeto por todos e na disseminação do conhecimento sobre o mesmo. O desenvolvedor pode ter diferentes objetivos para um determinado componente, quando comparado a um usuário [4], tornando primordial a existência de uma boa documentação do software. Abstract—Design Rationale (DR) is a representation of a software design documentation which includes not only arguments of a decision but also alternatives that were considered and discarded. Although its use can bring great benefits to a software development process, DR is not widely adopted. An alternative to obtain an effective use of DR is to define a representation model suitable for a specific environment. Open software systems features are favorable to the use of DR. Project team have interest on the project understanding among all users and knowledge spread about it. The purpose of the present work is to define a representation model of DR suitable for open software projects. The validation will be done with a case study in a real software development environment. Dutoit et al. [5] afirma que após mais de 35 anos de pesquisa em DR, algumas questões básicas continuam sem solução, incluindo: 1. Como capturar as justificativas de decisões de projeto (rationales), isto é, como extrair e armazenar as informações; 2. Qual a melhor forma de representar as justificativas das decisões de projeto; Palavras-chave: Design Rationale; sistemas de software aberto; Projeto de software. I. 3. Como formalizar estas informações, isto é, como transformar a informação na forma de representação desejada; OBJETIVO E MOTIVAÇÃO 4. Design Rationale (DR) refere-se à documentação das alternativas, escolhas e decisões realizadas durante o processo de desenvolvimento de um projeto de software, bem como das razões de se ter tomado determinado rumo. DR é uma representação da documentação que contém as razões e argumentos referentes a um artefato específico [1]. Inclui tanto as razões de uma decisão de projeto como a justificativa para elas, as alternativas consideradas e que foram descartadas, alterações avaliadas e os argumentos que levaram à decisão. Como as informações gravadas podem ser utilizadas; 5. Quais são as potenciais representação, formalização e uso. barreiras à captura, O presente trabalho pretende trabalhar nas questões acima, especialmente nos itens 2 e 3, com o objetivo de definir um modelo de DR para projetos de software aberto. A verificação do modelo será feita através de um estudo de caso, utilizandose o modelo em um ambiente real de desenvolvimento de software. 85 Kawamoto e Almeida Jr. II. Pretende-se, no futuro, desenvolver uma ferramenta de edição do modelo de DR proposto, possivelmente incorporada a outras ferramentas de desenvolvimento de software. A definição do uso de DR dentro do processo de desenvolvimento de software também merece estudos. HISTÓRICO DO DESIGN RATIONALE O movimento de DR iniciou-se com o Issue Based Information System (IBIS), descrito por Kunz e Rittel. Tinha o intuito de fornecer suporte a grupos que eram confrontados com problemas complexos [6]. Na Figura 1 é ilustrada a representação dos nós do modelo IBIS. O modelo é formado por uma árvore ou grafo direcionado, cujos nós representam as questões a serem resolvidas, soluções alternativas e argumentos a favor ou contra. AGRADECIMENTOS Agradecimentos ao Conselho Nacional de Desenvolvimento Científico e Tecnológico – CNPq que financia esta pesquisa (Processo no. 2012-7/141053). REFERÊNCIAS [1] SOUZA, C. R. B. A Model Tool for Semi-automatic Recording of Design Rationale in Software Diagrams. In Proceedings of the String Processing and Information Retrieval Symposium, 1998, pages 306– 313. [2] CONKLIN, J.; BURGESS-YAKEMOVIC, K. A Process-Oriented Approach to Design Rationale, in Design Rationale Concepts, Techniques, and Use, T. Moran and J. Carroll, (editors), Lawrence Erlbaum Associates, Mahwah, NJ, pp. 293-428, 1995. [3] LIANG Y., LIU Y., KWONG C. K., LEE W. B.. 2012. Learning the "Whys": Discovering design rationale using text mining - An algorithm perspective. Comput. Aided Des.44, 10 (October 2012), 916-930. Disponível em: http://dx.doi.org/10.1016/j.cad.2011.08.002. [4] NORRIS, J.S., "Mission-critical development with open source software: lessons learned," Software, IEEE , vol.21, no.1, pp.42,49, JanFeb 2004. [5] DUTOIT, A. et al. Rationale Management in Software Engineering, Editors, Springer, 2006. [6] KUNZ, W.; RITTEL, W. J. Issues as Elements of Information Systems, Working Paper No 131, University of California, Berkeley, 1970, reprinted in 1979. [7] PARNAS, D.; CLEMENTS, P.; A Rationale Design Process: How and Why to Fake it. IEEE Transactions of Software Engineering, v. 12, n.2, p. 251-257, 1986. [8] POTTS, C.; BRUNS, G. Recording the Reasons for Design Decisions. In: Proceedings of the International Conference on Software Engineering, Kyoto, Japão. IEEE CS Press, 1988, p. 418-427. [9] BASS L.; CLEMENTS, P. NORD, R. L.; STAFFORD, J. Capturing and Using Rationale for a Software Architecture. In: A. H. Dutoit and R. McCall and I. Mistrík and B. Paech (eds.), Rationale Management in Software Engineering, Springer, p. 255-272, 2006 [10] PAIVA, D. M. B.; Um processo envolvendo elementos de design rationale para projetos de pesquisa em software. Tese de doutorado. Instituto de Ciências Matemáticas e de Computação – ICMC-USP, 254 páginas, 2007. [11] AURISICCHIO M., BRACEWELL R.H., 2013, Capturing an integrated design information space with a diagram-based approach, Journal of Engineering Design, Vol:24, ISSN:0954-4828, Pages:397-428. [12] BURGE, J. E. (2008). Design rationale: Researching under uncertainty. Artificial Intelligence for Engineering Design, Analysis and Manufacturing, 22, pp 311-324. Fig. 1. IBIS: Representação dos nós, baseada em Kunz e Rittel (1970). A importância do DR tem sido reconhecida desde a década de 1980 [7][8]. A partir dessa época, muitas pesquisas começaram a ser realizadas com o objetivo de aplicar a técnica em diferentes fases do processo de desenvolvimento de software [9] e em diversos ambientes e tipos de projetos [3][10]. Foram realizadas pesquisas com o objetivo de construir ferramentas de captura do DR [11]. Entretanto, na prática não houve uma grande adesão [12]. É difícil definir abordagens e sistemas que possam ser utilizados com sucesso em projetos reais [4]. III. METODOLOGIA DE PESQUISA O modelo de representação do DR para projetos de código aberto será construído a partir de projetos reais. Ele será baseado em alguns elementos de modelos anteriores, como o IBIS apresentado anteriormente. Serão considerados os principais projetos de software aberto, incluindo Apache e Linux. O modelo proposto pode ser utilizado em todas as fases do desenvolvimento de software. A validação do modelo proposto será realizada por meio de um estudo de caso. A partir dele, modificações e refinamentos podem ser propostos ao modelo. IV. RESULTADOS ESPERADOS E TRABALHOS FUTUROS Espera-se que o modelo de DR proposto contribua para a sua evolução na prática, facilitando e incentivando o seu uso. O estudo de caso será essencial para validar o modelo proposto e também para a sugestão de melhorias ou novas pesquisas sobre o assunto. 86 Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP Método de Super-Resolução de Imagem Digital usando Interpolação DCT e Representação Esparsa Saulo Roberto Sodré dos Reis Graça Bressan Departamento de Engenharia de Computação e Sistemas Digitais – PCS, Universidade de São Paulo - USP São Paulo, Brasil [email protected] Departamento de Engenharia de Computação e Sistemas Digitais – PCS, Universidade de São Paulo - USP São Paulo, Brasil [email protected] Este artigo apresenta um algoritmo híbrido para SR de imagem única, que combina a interpolação no domínio da transformada discreta de cosseno (DCT) [5], e um método de aprendizagem baseada na representação esparsa de sinais [3]. A proposta busca aproveitar as características mais importantes destes métodos na reconstrução de uma imagem final de resolução melhorada. A interpolação DCT tem como característica apresentar boa qualidade visual da imagem interpolada. Os algoritmos de representação esparsa tem se mostrado eficientes na reconstrução dos componentes de alta frequência. Abstract— This paper presents an algorithm for single image super-resolution that use discrete cosine transform (DCT) interpolation and sparse learning-based method. The input LR image is interpolated using both DCT interpolation and bicubic interpolation methods. The idea is to exploit of advantages of DCT interpolation in terms of visual quality and sparse representation in terms of reconstruction high-frequency components. The experimental results demonstrate the effectiveness of the algorithm in terms of PSNR and SSIM. Resumo— Este artigo apresenta um algoritmo para superresolução de imagem única que combina a interpolação no Domínio da Transformada Discreta de Cossenos (DCT) e o método baseado em representação esparsa de sinais. O algoritmo proposto busca aproveitar de forma complementar alguns benefícios dos métodos como: melhor qualidade visual da interpolação DCT e reconstrução dos componentes de alta frequência pelo método de representação esparsa. As simulações computacionais realizadas demonstram que a estratégia se mostra e eficiente em termos de PSNR e SSIM. Palavras-chave—Super-Resolução; Domínio Representação Esparsa; Métodos baseados em exemplos. I. II. REVISÃO DA LITERATURA A. Modelo de Aquisição da Imagem Para a construção de um algoritmo de SR é necessário inicialmente, adotar um modelo de observação para a imagem [1]. Um dos modelos mais adotados, leva em consideração os efeitos do processo de aquisição e está apresentado abaixo: DCT; (1) onde é a imagem de baixa resolução adquirida (imagem LR), representada por um vetor ordenado lexicograficamente de tamanho pixels. é a imagem de alta-resolução (Imagem HR), representada por um vetor ordenado lexicograficamente de tamanho , com . A matriz de tamanho representa os efeitos do sistema de aquisição da imagem como: distorção óptica e borramento. A matriz representa o operador de subamostragem e representa o ruído branco gaussiano de média zero e variância . INTRODUÇÃO Os algoritmos de super-resolução (SR) permitem melhorar a resolução de uma imagem ou mesmo uma sequência de imagens a partir da captura e processamento de um conjunto de imagens de baixa-resolução [1]. Uma das características mais importantes é a possibilidade de reduzir o custo de processamento de imagens de alta resolução, por meio da utilização de sistemas de aquisição de baixa-resolução existentes. Diversas áreas se beneficiam da SR, como por exemplo, sistemas de aquisição de imagens para sensoriamento remoto, sistemas de segurança, diagnóstico médico por imagens, TV digital móvel, entre outros. Recentemente, muitos trabalhos têm abordado propostas que utilizam métodos de SR baseados em aprendizagem. Estes métodos buscam reconstruir a imagem de resolução melhorada a partir de características extraídas de um conjunto de treinamento formado por imagens de alta e baixa resolução[24]. Os resultados mostram que estes algoritmos superam os algoritmos de interpolação e os algoritmos baseados em reconstrução tradicionais [1-3]. B. Interpolação no domínio DCT O processo de interpolação de uma imagem usando a transformada (DCT) adiciona zeros em regiões de alta frequência de um bloco, e em seguida aplica a transformada DCT inversa em todo o bloco, de forma a obter a imagem interpolada. No processo de interpolação, a capacidade da transformada DCT de concentrar quase toda a energia do sinal em regiões próximas aos componentes DC é importante porque permite a reconstrução da imagem sem muita perda da informação. 87 Reis e Bressan Imagem HR Final (IHRF) Imagem LR Entrada (IL) Imagem LR Interpolada (IDCT) Interpolação DCT Interpoalação bicúbica Imagem LR Interpolada Extração Características (IBIC) + OMP Fase Treinamento K-SVD e OMP Dicionário LR (DL) Imagem HR (IHR) Coeficientes X Dicionário HR (Representação Esparsa) Dicionário HR (DH) Conj. Treinamento Figura 1: Modelo de SR proposto utilizando interpolação DCT e Representação Esparsa C. Representação Esparsa A representação esparsa pode ser considerada como um processo de representação de um sinal como uma combinação esparsa de átomos em relação a um dicionário redundante[6]. A representação esparsa no contexto da SR utiliza um fragmento da imagem (patch) de baixa resolução, dado por , que pode ser representado como uma combinação esparsa de átomos em relação a um dicionário de baixa-resolução ·, conforme abaixo: TABELA I. RESULTADOS COM A MÉTRICA SSIM Interp. Interp. Método Imagem Métrica Bicúbica DCT Proposto PSNR 26,523 26,629 27,173 Bridge SSIM 0,974 0,984 0,992 PSNR 27,938 28,014 28,818 Man SSIM 0,980 0,987 0,993 PSNR 27,938 28,002 28,387 Barbara SSIM 0,963 0,979 0,987 PSNR 29,138 29,301 30,063 Coastguard SSIM 0,791 0,805 0,840 (2) III. V. 33,074 0,993 33,416 0,995 34,536 0,997 CONSIDERAÇÕES FINAIS Este artigo apresentou uma proposta de super-resolução para imagem digital que combina a interpolação DCT e um método de aprendizagem baseado em representação esparsa. Os resultados experimentais usando as métricas PSNR e SSIM mostraram a qualidade do método proposto em relação aos métodos de interpolação tradicionais. Futuras investigações incluem um aperfeiçoamento do método para reduzir o custo computacional e simulações para fatores de interpolação maiores do que dois. MÉTODO PROPOSTO O método proposto neste artigo para super-resolução de imagem única é composto de duas estratégias: a utilização da transformada DCT para obtenção de uma imagem Interpolada DCT e a utilização de um processo de aprendizagem com representação esparsa que gera uma segunda imagem com os componentes de alta frequência. A imagem final é obtida pela soma destas duas imagens parciais. A Figura 1 apresenta uma visão geral do algoritmo proposto. IV. PSNR SSIM Pepper onde é um operador para extração dos fragmentos na posição da imagem e está relacionado ao ruído. O modelo de representação esparsa de sinais têm sido utilizado em diversas aplicações como: compressão, reconhecimento de padrões, reconstrução, regularização de problemas inversos, entre outros. REFERÊNCIAS [1] RESULTADOS EXPERIMENTAIS [2] As simulações computacionais foram realizadas em MATLAB utilizando algumas imagens conhecidas da literatura como: bridge, man, pepper, barbara e coastguard. Em todas as simulações realizadas, foi utilizado um fator de interpolação igual a dois. Um conhecido conjunto de imagens [2, 3], composto por 92 imagens que incluem flores, paisagens, faces e construções foi utilizado para o treinamento. Para a construção dos dicionários e foram usados os algoritmos k-SVD e OMP [6]. Os resultados qualitativos utilizando as métricas PSNR e SSIM são apresentados na tabela I. O método proposto é analisado e comparado com métodos de interpolação bicúbica e DCT. [3] [4] [5] [6] 88 S. C. Park, M. K. Park, and M. G. Kang, “Super-resolution image reconstruction: A technical overview,” Ieee Signal Processing Magazine, vol. 20, no. 3, pp. 21-36, 2003. R. Zeyde, M. Elad, and M. Protter, “On single image scale-up using sparse-representations,” in Proceedings of the 7th international conference on Curves and Surfaces, Avignon, France, 2012. J. Yang, J. Wright, T. S. Huang et al., “Image Super-Resolution Via Sparse Representation,” Ieee Transactions on Image Processing, vol. 19, no. 11, Nov, 2010. W. T. Freeman, T. R. Jones, and E. C. Pasztor, “Example-based super-resolution,” Ieee Computer Graphics and Applications, vol. 22, no. 2, pp. 56-65, Mar-Apr, 2002. E. M. Hung, Garcia, D.C., Queiroz, R.L.D., “Transform domain semisuper resolution,” in ICIP'11, 2011, pp. 1193-1196. M. Aharon, M. Elad, and A. Bruckstein, “K-SVD: An algorithm for designing overcomplete dictionaries for sparse representation,” Ieee Transactions on Signal Processing, vol. 54, no. 11, Nov, 2006. Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP 1 Set Based Meta Modeling: uma alternativa ao MOF para definir metamodelos 1 Sergio R. M. Canovas, 2 Carlos E. Cugnasca especificação de metamodelos, não bastando especificá-los em linguagem natural. Este é o foco deste trabalho. Resumo — Model Driven Architecture (MDA) é uma abordagem para desenvolvimento de software baseada na transformação sucessiva de modelos de alto nível até a geração do código-fonte. Utiliza tecnologias específicas mantidas pelo Object Management Group (OMG). Uma delas é o Meta Object Facility (MOF), que permite descrever metamodelos, ou seja, modelos das linguagens de modelagem de software tais como a UML. Os metamodelos são elementos chave para a descrição de transformações de modelos, base da MDA. Este artigo tem foco na metamodelagem, apresentando um formalismo alternativo ao MOF para a especificação de metamodelos, o Set Based Meta Modeling (SBMM). Baseia-se na teoria de conjuntos e linguagens e tem como principal requisito ser mais simples que o MOF ao mesmo tempo que preserva sua essência. O MOF acabou se tornando complexo e de difícil aplicabilidade, principalmente por ser especificado em termos da UML ou fazendo referência a si mesmo, tornando seu aprendizado mais difícil. Como exemplo de aplicação do SBMM, uma versão simplificada do diagrama de classes UML é descrita com o mesmo. Fig. 1. Transformação de modelos segundo a MDA [1]. O Object Management Group (OMG) provê o Meta Object Facility (MOF) como uma linguagem para definir metamodelos. O MOF surgiu junto com a UML [4], mas não foi tão amplamente adotado quanto ela. Uma das razões para isso é que se tornou complexo demais, na tentativa de resolver diversos problemas. Além disso, sua especificação não é de trivial entendimento por usar o próprio MOF para definir o MOF [5]. O objetivo deste trabalho é introduzir o Set Based Meta Modeling (SBMM), uma alternativa mais simples em relação ao MOF baseada essencialmente na teoria de conjuntos e linguagens. I. INTRODUÇÃO M odel Driven Architecture (MDA) é uma abordagem para desenvolvimento de software através da qual um software é construído através da transformação sucessiva e encadeada de modelos. Um modelo de um sistema é uma descrição ou especificação do mesmo considerando um determinado propósito. Usualmente um modelo consiste em uma combinação de textos e desenhos, podendo estar descrito em linguagem de modelagem (ex: UML) ou em linguagem natural [1]. Em sua forma mais básica, a MDA propõe dois modelos: o platform-independent model (PIM), totalmente independente de plataforma, e o platform-specific model (PSM), dependente de plataforma [2]. A MDA propõe que o PSM seja gerado a partir do PIM através de uma transformação de modelos. Uma transformação é o processo de converter um modelo em outro modelo do mesmo sistema, conforme ilustrado na Figura 1. O quadro em branco da figura representa informações adicionais eventualmente necessárias para o processo. Para a MDA funcionar na prática com transformações automáticas, é necessário especificar funções de mapeamento. Funções de mapeamento são descritas sobre os metamodelos. Sendo assim, é necessário um certo grau de formalismo para a II. A ARQUITETURA DAS QUATRO CAMADAS A arquitetura das quatro camadas é um modelo conceitual que contempla objetos de tempo de execução, modelos, metamodelos e um nível conhecido informalmente como metametamodelo [3], conforme pode ser visto na Figura 2. A camada M0 contém os dados de um sistema em tempo de execução. A camada M1 contém os modelos do sistema considerado: diagramas UML de classes, definições de tabelas de um banco de dados relacional, diagramas de casos de uso, códigos-fonte, etc. As transformações de modelos da Figura 1 ocorrem dentro deste nível. A camada M2 contém os metamodelos, isto é, os metadados que capturam as linguagens de modelagem. Neste nível estão as definições da UML. A camada M3 contém os “meta-metamodelos” que servem para descrever os metamodelos. A OMG dedica esforços de padronização neste nível, e com isso criou o MOF [4]. O SBMM, alternativa apresentada neste trabalho, também fica nesta camada. 1 S. R. M. Canovas, Escola Politécnica da Universidade de São Paulo, Brasil (e-mail: [email protected]). 2 C. E. Cugnasca, Escola Politécnica da Universidade de São Paulo, Brasil (email: [email protected]). 89 Canovas e Cugnasca 2 é capaz de armazenar. O segundo elemento pode ser um número natural positivo ou um símbolo *, que representa infinito, denotando o limite superior de slots. As enumerações ei ∈ E servem para definir tipos de dados básicos cujas instâncias podem assumir um valor de um conjunto finito (ex: Boolean), definido pela própria enumeração. Ou seja, cada enumeração pode ser definida por: ei = (ui, Li) • ui ∈ Σ+ é a cadeia de símbolos que nomeia ei. • Li é o conjunto finito de valores que as instâncias de ei podem assumir. Fig. 2. A arquitetura das quatro camadas III. SET BASED META MODELING (SBMM) IV. RESULTADOS E DISCUSSÃO Um metamodelo nomeado consiste em um nome (cadeia de símbolos) n, um conjunto C de metaclasses nomeadas, um conjunto Γ de generalizações e um conjunto E de enumerações nomeadas. Ou seja, um metamodelo é uma quádrupla MM: Uma versão simplificada, mas significativa, do metamodelo do diagrama de classes UML contendo os elementos classe, atributo, operação, argumento, associação e generalização pôde ser descrito com a notação do SBMM em 41 linhas. O arquivo em formato XML Metadata Interchange (XMI) que define o próprio MOF, fornecido pela OMG [6], apresenta 571 linhas. Os elementos definidos nesse arquivo são similares aos utilizados no diagrama de classes, com algumas adições: pacote (package) e importação de pacote (package import). MM = (n, C, Γ, E) • n ∈ Σ+, onde Σ é um conjunto de símbolos pré-definido (fora da definição de MM) para a formação de cadeias que representam nomes. • C = {c1, ..., cn} é o conjunto finito, eventualmente vazio, de metaclasses. • Γ ⊂ C × C é uma relação transitiva livre de ciclos que mapeia submetaclasses em suas supermetaclasses, representando o conceito de herança da orientação a objetos. • E = {e1, ..., em} é o conjunto finito, eventualmente vazio, de enumerações. V. CONCLUSÃO Os estudos realizados até o momento apontam para a viabilidade da utilização do SBMM para descrição de metamodelos como alternativa ao MOF. Percebeu-se a possibilidade de introduzir um conjunto R de restrições no formalismo, tornando-o uma quíntupla, que definem restrições no metamodelo através de sentenças em lógica de primeira ordem. Além do ganho em simplicidade, o SBMM é uma notação puramente matemática, totalmente independente de linguagem ou implementação, permitindo a definição de metamodelos em um nível abstrato. Cada metaclasse ci possui um nome wi e um conjunto de propriedades Pi. Sendo assim, podemos defini-las como pares ordenados: ci = (wi, Pi) VI. REFERÊNCIAS • wi ∈ Σ é a cadeia de símbolos que nomeia ci. • Pi = {pi1, ..., pin} é o conjunto finito de propriedades, eventualmente vazio. + [1] OMG, MDA Guide Version 1.0.1. Disponível em: http://www.omg.org/cgi-bin/doc?omg/03-06-01. [2] Ambler, S., The Object Primer: Agile Modeling-Driven Development with UML 2.0. New York: Cambridge University Press, 2004. [3] Mellor, S., Scott, K., Uhl, A., e Weise, D., MDA Distilled: Principles of Model-Driven Architecture. Boston: Pearson Education Inc., 2004. [4] OMG, Meta Object Facility (MOF) Core Specification. Disponível em: http://www.omg.org/spec/MOF/2.4.1 [5] Bézivin, J., Gerbé, O., Towards a precise definition of the OMG/MDA framework. In: Automated Software Engineering, 2001. Proceedings. 16th Annual International Conference on (pp. 273-380). IEEE. [6] OMG, Metamodel for the MOF-specific model elements. Disponível em: http://www.omg.org/spec/MOF/ 20110701/MOF.xmi Cada propriedade pij consiste em um nome, multiplicidade, tipo alvo (que pode ser uma metaclasse ou enumeração) e uma multiplicidade que restringe quantos elementos o slot de informação representado consegue armazenar. Isto é: pij = (vij, tij, mij) • vij ∈ Σ+ é a cadeia de símbolos que nomeia pij. • tij ∈ C ∪ E é o tipo alvo da propriedade, ou seja, pode ser uma metaclasse ou uma enumeração do metamodelo. • mij ∈ N × (N+ ∪ {*}) é a multiplicidade da propriedade, sendo um par ordenado cujo primeiro elemento é um número natural que denota o limite inferior de slots que a propriedade 90 Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP Solução Mediada por Tecnologia como Suporte à Educação Inclusiva de Pessoas Surdas Soraia Silva Prietch Lucia Vilela Leite Filgueiras Curso de Sistemas de Informação Universidade Federal de Mato Grosso Rondonópolis-MT, CEP 78735-901 [email protected] Engenharia Elétrica, Departamento de Sistemas Digitais Escola Politécnica/ Universidade de São Paulo São Paulo-SP, CEP 05.508-970 [email protected] Resumo – As etapas de pesquisa, relatadas aqui, apresentam os procedimentos utilizados para efetuar o reconhecimento da situação atual e a proposição de soluções, especialmente no que se refere ao uso e projeto de tecnologias assistivas para suporte à educação de surdos. Ao propor tais soluções também se levou em consideração características de design universal, no sentido de buscar alternativas que sejam úteis tanto para estudantes surdos quanto para ouvintes. Sendo assim, o protótipo de uma solução para dispositivo móvel está em fase de desenvolvimento, o qual conta com um aplicativo de reconhecimento de voz (speech-totext) em plano de fundo. A ideia central desta solução é fornecer em texto escrito o que é falado em sala de aula de modo a auxiliar a comunicação e a colaboração entre estudantes e professores, proporcionando uma experiência de aprendizagem positiva. Estudos e Pesquisas Educacionais Anísio Teixeira (INEP) e da Secretaria de Educação do Estado de Mato Grosso (SEDUC/MT), tendo como foco o número de matrículas, o tipo de necessidade educacional especial e as etapas de ensino no que se refere à educação especial. A finalidade foi a de conhecer a realidade, em termos quantitativos, das pessoas surdas no contexto educacional, o que mostrou evidente a grande evasão entre as etapas de ensino fundamental e médio. B. Tecnologias para Assistir Surdos em seu Cotidiano [5] Esta etapa da pesquisa teve como foco principal realizar pesquisa bibliográfica a respeito de Tecnologias Assistivas (TA) para pessoas com deficiência auditiva e discutir os pontos principais a respeito das alternativas de uso das mesmas. Para isso, o método de Revisão Sistemática foi utilizado, sendo que cinquenta e dois trabalhos foram incluídos e categorizados em 05 grupos: acesso remoto; acesso direto/local; tradutores; (4) recursos de ensino-aprendizagem; e, outros dispositivos da vida diária. Com a realização desta pesquisa, foi possível perceber que existem muitos estudos sendo realizados sobre essa temática no mundo todo, desde a década de 70. Além disso, averiguaram-se várias características e preferências a respeito das pessoas surdas, a respeito da língua de sinais, das outras formas de comunicação, de questões relacionadas à percepção visual, das possibilidades de acessibilidade, dentre outras. Palavras-chave – IHC; reconhecimento de voz; UX; educação de surdos; tecnologias assistivas. I. INTRODUÇÃO No contexto de aplicação de técnicas de Interação HumanoComputador (IHC) e de Experiência do Usuário (User eXperience, UX), vem observando-se o interesse tanto em questões relacionadas à usabilidade (ex., facilidade de uso, eficácia, eficiência de um sistema) quanto àquelas relativas à vivência de situações que sejam positivas e memoráveis para o usuário (ex., satisfação, confiança, diversão, afetividade)[3]. Considerando estas como áreas de concentração da pesquisa, o objetivo principal deste trabalho é propor uma solução que promova uma experiência de aprendizagem positiva ao estudante surdo na escola, de forma que o mesmo possa receber informações e participar mais ativamente (do que a atual) durante as aulas, de maneira autônoma, por intermédio da tecnologia. Sendo assim, o presente resumo apresenta um relato das etapas de pesquisa já realizadas até o momento, na Seção II, e as considerações finais com trabalhos em andamento se encontram na Seção III. C. Barreiras Educacionais para Estudantes Surdos [6][7] Este estudo foi realizado usando os procedimentos metodológicos de observações em uma escola pública, de Rondonópolis/MT, e de revisão bibliográfica, resultando em uma relação de 22 possíveis causas de barreiras educacionais para estudantes surdos, dado o efeito da queda no número matrículas de estudantes surdos entre o ensino fundamental e médio. A identificação das barreiras educacionais evidenciou quais problemas poderiam ser solucionados com o uso de tecnologia, bem como levantou as seguintes questões: o que está disponível e o que poderia ser proposto? II. MATERIAIS E MÉTODOS D. Tecnologias Assistivas para Estudantes Surdos Um levantamento inicial foi realizado, o qual vem sendo atualizado à medida que novas TA são localizadas. O arquivo contendo essa relação foi organizado em seis tabelas, a saber: (1) produtos de tecnologia assistiva para auxílio às pessoas surdas, encontradas em trabalhos acadêmico-científicos; (2) As subseções a seguir descrevem brevemente as etapas de pesquisa cumpridas, com seus objetivos e resultados. A. Levantamento de Dados Estatísticos Esse levantamento foi realizado utilizando-se os dados estatísticos disponíveis nos websites do Instituto Nacional de 91 Prietch e Filgueiras softwares/jogos/vídeos educativos para auxílio às pessoas surdas, encontradas na Internet; (3) softwares/jogos educativos ou ambientes educacionais de acesso universal; (4) softwares aplicativos ou produtos genéricos úteis para pessoas surdas; (5) softwares aplicativos ou produtos genéricos de acesso universal; e, (6) serviços de TA úteis para pessoas surdas. Atualmente, essa relação de TA conta com 381 itens. A citar alguns trabalhos correlatos encontrados: [1], [2] and [4]. III. CONSIDERAÇÕES FINAIS E CRONOGRAMA FINAL Durante as etapas descritas nas subseções B e D, da Seção II deste resumo, foi possível mapear uma extensa gama de pesquisas e produtos comerciais desenvolvidos com foco no auxílio aos estudantes surdos. A partir disso, as lacunas ainda não exploradas sobre essa temática foram verificadas. Neste sentido, diante das evidências encontradas, a presente proposta revela-se inovadora, na área de sistemas digitais, bem como traz contribuição social, no que tange à sua aplicação. E. Mapeamento da Situação do uso de TA nas Escolas [8] A partir da identificação das barreiras e da descoberta de diversas tecnologias assistivas já existentes, surgiu a necessidade de saber se as escolas estaduais públicas regulares, na perspectiva da educação inclusiva, utilizavam recursos para promover a acessibilidade dos estudantes com deficiência, em especial os surdos, ao processo de ensino-aprendizagem (seja em sala de aula ou nas salas de recursos multifuncionais). Como resultado, as escolas que possuem salas de recursos utilizam na maior parte do tempo as TA low-tech (sem componente computacional); nas salas de aula, os estudantes surdos nem sempre contam com o auxílio de intérpretes; um grupo de profissionais geralmente é responsável por “prover” a acessibilidade e não a escola com sua “cultura inclusiva”. Até a conclusão da tese, ainda se pretende concluir algumas etapas que se encontram em andamento. A primeira diz respeito às adequações do instrumento Emotion-LIBRAS; a segunda refere-se ao projeto de Design de Interação de um recurso de conversão automática de fala para texto (Sample Voice App, da Nuance) para uso em dispositivo móvel em sala de aula; e a terceira é relativa à avaliação da experiência do usuário, usando o Emotion-LIBRAS como um dos instrumentos, enquanto estudantes surdos testam o protótipo. AGRADECIMENTOS CAPES, FAPEMAT e Programa DINTER EPUSP-UFMT. REFERÊNCIAS F. Emotion-LIBRAS [9][11] Como uma das intenções desta pesquisa é a de proporcionar uma experiência positiva de aprendizagem, o instrumento denominado Emotion-LIBRAS foi criado com a finalidade de identificar as emoções de pessoas surdas brasileiras, especialmente no que se refere às situações de uso de recursos mediados por tecnologia. A fundamentação teórica para a produção deste instrumento foi pautada em métodos reconhecidos internacionalmente na área de psicologia. Além da revisão teórica, pesquisas de campo foram realizadas com pessoas surdas, a fim de efetuar adequações no instrumento, as quais se encontram em andamento. A. Cavender. “Using Networked Multimedia to Improve Academic Access for Deaf and Hard of Hearing Students”. Dept. of Computer Science and Engineering, University of Washington. (2008). [2] A. Iglesias, L. Moreno and J. Jiménez. “Supporting Teachers to Automatically Build Accessible Pedagogical Resources: The APEINTA Project”. Technology Enhanced Learning. Springer, Vol 73, 2010. [3] L. Masip, M. Oliva, and T. Granolles. “User Experience Specification through Quality Attributes”. In: P. Campos et al. (Eds.): INTERACT 2011, Part IV, LNCS 6949, 2011. [4] M. Jun and X. Jia Cheng. “The Exploration of the Strategies and Skills of Effective Use of Voice Recognition Software in the Classroom for Deaf Students”. 2nd International Conference on Future Networks, 2010. [5] S. Prietch, and L. Filgueiras, “Tecnologias para Assistir Pessoas com Deficiência Auditiva: Levantamento e Discussão sobre seu Uso”. Interaction South America, IXDA Brasil, Curitiba/PR, 2010. [6] S. Prietch, and L. Filgueiras, “Identificação de Barreiras Educacionais aos Estudantes Surdos para Proposição de Solução usando Alta Tecnologia Assistiva”. 11º ErgoDesign/USIHC, Manaus/AM, 2011. [7] S. Prietch, and L. Filgueiras, “Assistive Technology in the Classroom Taking into Account the Deaf Student-Centered Design: the TApES project”. EIST/ CHI, Austin-TX, 2012. [8] S. Prietch, and L. Filgueiras, “Aplicação de Tecnologias Assistivas para Surdos no Atendimento Educacional Especializado: Um Papel para o Licenciado em Computação?” V CBEE, São Carlos/SP, 2012. [9] S. Prietch, and L. Filgueiras, “Emotional Quality Evaluation Method for Interviewing Deaf Persons (Emotion-LIBRAS)”, IADIS (ICHI), ISBN 978-989-8533-08-1, Lisbon, Portugal, 21- 23 July, 2012. [10] S. Prietch, and L. Filgueiras, “One Assistive Technology does not fit all Educational Strategies: A Reflection on Deaf Students in Mainstream Classroom”. Workshop on Rethinking Universal Accessibility, INTERACT 2013, Cape Town, South Africa, 2013. [11] S. Prietch, and L. Filgueiras, “Developing Emotion-Libras 2.0 - an Instrument to Measure the Emo-tional Quality of Deaf Persons while using Technology”. In: K. Blashki & P. Isaías (Ed.) “Emerging Research and Trends in Interactivity and the Human-Computer Interface”, IGI Global pub. (a ser publicado) [1] G. Uso das TIC em Salas de Aula de Escolas Regulares [10] A pesquisa teve como metodologia a observação de aulas em uma escola regular e revisão de literatura, obtendo como resultado a “montagem de um quebra-cabeça” que agregou peças provenientes de quatro frentes de estudos prévios: potenciais causas de barreiras educacionais; recursos mediados por tecnologia; seis estratégias de ensino-aprendizagem; e, combinação de perfis das pessoas surdas. A partir desse estudo, foi interessante notar que a maioria das tecnologias assistivas consideradas como passíveis de uso em salas de aula inclusivas não foram originalmente projetadas como tecnologias assistivas. Além disso, recomendações para utilização de tecnologias específicas foram mencionadas para cada tipo de estratégia, barreira e perfil, sendo que o sistema de reconhecimento de voz foi uma das soluções apontadas como uma forma alternativa de uso, principalmente, para os casos em que o intérprete de LIBRAS não esteja disponível no momento da aula para auxiliar o estudante surdo. 92 Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP Reutilização de Conceitos de Serviços no Cenário de Governo Eletrônico Wannessa Rocha da Fonseca Pedro Luiz Pizzigatti Corrêa Escola Politécnica da USP CEPROMAT, Brasil [email protected] Escola Politécnica da USP, Brasil [email protected] Resumo—No modelo orientado a serviços os processos de negócios são modelados e implementados sob a ótica de serviços. O governo mostra-se como um cenário de alto potencial para implantação de soluções orientadas a serviços, mas falta suporte para o reuso de conceitos de serviços já concebidos. Visando auxiliar a especificação de serviços no cenário de governo, este trabalho propõe um Método para Especificação de Serviços de Governo Eletrônico, baseado em padrões de serviço. A concepção de serviços aliada ao conceito de padrões de serviços pode ajudar arquitetos de software a identificar elementos funcionais recorrentes e reduzir a redundância de esforços para a concepção de serviços com os mesmos propósitos. Abstract —The business processes in the service-oriented model are modelled and implemented from the perspective of services. The government appears to be a high potential scenario for the deployment of service-oriented solutions, but it takes support to reuse the service concepts already conceived. Seeking to support the specification of services in the government scenario, this paper proposes the Service Specification Method for e-Government, based on service patterns. Thus, the idea that the use of service patterns adds value to the process of service specification is reinforced. The conception of services combined with the concept of patterns can help software architects to identify recurrent functional elements and reduce redundant efforts in the conception of services with the same purposes. I. I NTRODUÇÃO O governo, de uma forma geral, mostra-se como um cenário de alto potencial de implantação de soluções orientadas a serviços, principalmente pelo grande número de aplicações existentes, pela diversidade tecnológica, pela necessidade de interação entre essas aplicações e pela necessidade de gestão da qualidade dos serviços prestados. No contexto de governo eletrônico (e-Governo) quando usado o termo serviço, normalmente se remete ao termo serviço eletrônico prestado diretamente ao cidadão, por meio de uma interface de usuário final. Neste trabalho, o termo serviço é utilizado para representar uma interface de software, fornecida por uma instituição governamental para ser consumida por aplicativos de instituições governamentais ou instituições externas ao governo. Quando o governo oferece um serviço eletrônico ao cidadão, por meio de um aplicativo, esse aplicativo pode estar consumindo um serviço (via Web Service) ou não, isso depende da abordagem utilizada para o desenvolvimento da aplicação. Sistemas de informações são concebidos e desenvolvidos nas três esferas (Federal, Estadual e Municipal) e nos três poderes (Executivo, Legislativo e Judiciário), mas de um modo geral os serviços são concebidos a partir dos princípios elementares, muitas vezes sem o reuso de soluções já concebidas em outras esferas e poderes. 93 Assim os esforços para conceber soluções por meio do paradigma de serviços não são reaproveitados. De um modo geral, muitas atividades e obrigações são similares nos poderes e esferas de governo. Embora existam meios eletrônicos de divulgação dos serviços, como é o caso do catálogo de serviços interoperáveis do Governo Federal, esses não são divulgados visando o reuso da solução, e sim, informações para o consumo do serviço. O que se observa é a falta de subsídios para fomentar o reuso de soluções orientadas a serviços concebidas para processos de negócio relacionados a e-Governo. Este artigo apresenta um método de especificação de serviços para o cenário de e-Governo. O objetivo é conceber serviços a partir de padrões de serviços previamente catalogados, para subsidiar o reuso do conceito de serviço no cenário de e-Governo. II. PADRÕES DE S ERVIÇOS O conceito de padrões de serviços utilizado neste trabalho é similar ao definido por Fki et al. [1], ou seja, um serviço abstrato que representa uma descrição genérica e reutilizável. A essa definição é acrescido que o padrão de serviço deve contemplar a descrição de serviços atômicos e serviços compostos, assim os padrões devem considerar também as interações entre os serviços. III. T RABALHOS R ELACIONADOS Nazih e Alaa [2] apresentam padrões genéricos de serviços para sistema de saúde pública egípcia. Li et al. [3] apresentam um padrão de serviço de reputação como uma solução para o problema de confiança na prestação de serviços na Computação Orientada a Serviços. Tchuta e Chunhua [4] apresentam um padrão para criação de serviços atômicos. IV. M ÉTODO DE E SPECIFICAÇÃO DE SERVIÇOS PARA E -G OVERNO A Figura 1 ilustra uma visão abstrata do SSMe-Gov (Service Specification Method for e-government), onde serviços já existentes no Governo são definidos e catalogados como padrões de serviços em um repositório e servem como referência para a criação de novos serviços. O SSMe-Gov tem por objetivo: (1) abstrair o conceito vinculado a um serviço e representá-lo como um padrão de serviço, (2) documentar o padrão de serviço, (3) catalogar o padrão de serviço no repositório e (4) conceber novos serviços a partir dos padrões de serviços catalogados. A. Representação dos Padrões de Serviços Os padrões de serviços são representados, neste trabalho, por meio de três elementos: 1) Interface do Serviço - Para representar Fonseca e Corrêa Figura 2. Figura 1. Método de Especificação de Serviços de e-Gov baseado em Padrões de Serviços a interface do serviço é utilizado uma classe com o estereótipo ServiceInterface; 2) Diagrama de Atividade - O diagrama de atividade da UML é utilizado para descrever as ações realizadas pelas capacidades do serviço; e 3) Template de Descrição do Padrão de Serviço. O template proposto é apresentado na Tabela I. O template foi definido a partir da análise de trabalhos como: Tchuta e Chunhua [4], Li et al. [3] e Fki et al. [1]. Tabela I. Template D ESCRIÇÃO DE PADRÃO DE S ERVIÇO Elementos Relacionados a Padrões de Serviço Dois estudos de casos foram realizados para a área de governo. O primeiro para o processo de negócio de Agendamento de Diárias e o segundo a respeito da Nota Fiscal Eletrônica. Nos dois casos foram criados padrões de serviços a partir de serviços existentes no Governo. Com os resultados obtidos até o momento observa-se que os padões de serviços subsidiam o reaproveitamento de conceitos de serviços. Como trabalhos futuros podem ser considerados os aspectos de criação e localização de padrões de serviços no catálogo de padrões de serviços, definição do nível de granularidade do serviço a ser criado a partir dos padrões de serviços e outras fontes para a definição dos padrões de serviços, como por exemplo, os processos de negócios. AGREDECIMENTOS Os autores agradecem a CAPES, entidade do Governo Brasileiro voltada para a formação de recursos humanos e a FAPEMAT, Fundação de Amparo à Pesquisa do Estado de Mato Grosso, pelo apoio dado à viabilização do convênio EPUSP/UFMT/CEPROMAT para realização do doutorado a qual esse trabalho tem origem. R EFERÊNCIAS [1] A Figura 2 ilustra uma visão conceitual dos padrões de serviços e os elementos relacionados. A proposta é que a partir do processo de negócio modelado deve-se consultar o catálogo de padrões de serviços para localizar padrões de serviços que possam ser adequados ao processo de negócio. O catálogo é composto de padrões de serviços, sendo que cada padrão contém uma descrição do padrão, uma interface do serviço e para cada capacidade do serviço um diagrama de atividade que representa o comportamento da capacidade. O padrão de serviço deve servir de referência para a especificação de um novo serviço. V. C ONCLUSÃO Foi proposto o SSMe-Gov para especificar serviços de e-Governo a partir de padrões de serviços. Essa solução foi definida considerando: a falta de subsídios para fomentar o reuso de soluções orientadas a serviços concebidas para atender processos de negócio relacionados a e-Governo. 94 E. Fki, S. Tazi, and C. S. Dupuy, “Towards a user intention aware service composition,” in New Technologies of Distributed Systems (NOTERE), 2010 10th Annual International Conference on, Jun. 2010, pp. 113 – 120. [2] M. Nazih and G. Alaa, “Generic service patterns for web enabled public healthcare systems,” in 2011 7th International Conference on Next Generation Web Services Practices (NWeSP). IEEE, Oct. 2011, pp. 274– 279. [3] P. Li, M. Xiangxu, S. Zhiqi, and Y. Han, “A reputation pattern for service oriented computing,” in Information, Communications and Signal Processing, 2009. ICICS 2009. 7th International Conference on, Dec. 2009, pp. 1 –5. [4] L. Tchuta and G. Chunhua, “Atomic new service pattern,” no. International Journal of Software Engineering and Its Applications, 2011. Workshop de Pós Graduação da Área de Concentração Engenharia de Computação do PPGEE-EPUSP Spatial Analysis through Geo-objects Generated by Multiresolution Algorithm Wilian França Costa Antonio Mauro Saraiva Doctorate Candidate - PCS-EPUSP Email: [email protected] Advisor Email: [email protected] Abstract—This article is intended to present the current state of my research using georreferenced data soil samples to create spatial models. Those models have the intention to highlight and separate parcels of the observed terrain according its spatial differences. Concepts related to Object Based Image Analysis were used to generate a meaningful terrain Management Zone delineation. The aim is the construction of models based on a multi source georeferenced data fusion, building a concrete relationship among different inputs of information layers employed using the Multiresolution region-based segmentation algorithm to generate segments called here as geo-objects. Those geo-objects will be applied inside the analysis step under development. I. I NTRODUCTION Agricultural Crop Field Modelling is a technique that uses georeferenced data points of soil information analysis or spectral remote sensing imagery raster layers to obtain models. The models generated may be used to identify spatial differences in the regions; maximize the production, minimize the nutrient reposition; and find the desired characteristics in terrain based on a class of production selected [1]. Concepts related to Object Based Image Analysis - OBIA [2] were adopted to generate a meaningful Management Zone - MZ delineation. II. M ATERIALS AND M ETHODS OBIA is a sub-discipline of Geographic Information Sciences [2] developed to partition of remote sensing imagery into meaningful image-objects through spatial, spectral and temporal scale [3]. This requires an efficient image segmentation, attribution, classification, query and link to individual objects in space and time. The strength of OBIA is the ability to deal with multi-scale data, enabling its application in environmental monitoring, modelling and management. Its main advantages are [3]: (1) reduction of computational load due to dimension reduction (since the basic units are image-objects). (2) A more comprehensible way to analyse the region since it is partitioned into conceptually organized objects (e.g. more productivity regions). (3) Possibility to apply complex statistical techniques (e.g.: non-parametric). (4) Possibility to explore interesting relations through OBIA features (shape, texture and object context). (5) Last, an easier integration with vector GIS and spatial databases. The concepts adopted are used in multi-spectral images and need adaptation to be used with geoprocessed interpolated layers. The aim of geospatial multi-layer generated data type is to stablish a n-dimensional space where each dimension will represent one attribute of generated geo-objects. Virtually, we can use any type of georeferenced information that can be 95 quantified and have a given number of observations sampled over the place under analysis. III. G EOSPATIAL DATA S EGMENTATION The basic activity for object oriented modelling is a map segmentation (i. e. the process to produce a set of nonoverlapping segments/polygons that are expected to have a relatively homogeneous and semantically significant groups of pixels [2]). The main objective is the construction of models based on a multi source geo-referenced data fusion, building a concrete relationship among different layers employed [4].Considering crop productivity MZ as a set of homogeneous conditions to support the desired culture behaviour, the identification and segmentation of this area is a key factor to support further inferences and profiler analysis. To achieve this objective, the Multiresolution region-based segmentation algorithm [4] was chosen due to its capacity of dealing with multiple information layers, seeking to aggregate regions by minimizing their spatial and spectral heterogeneity (in our case, interpolated surface values).This algorithm is based on an iterative process of local optimization that minimizes the mean heterogeneity inside each segment. The heterogeneity definition adopted has a spatial and a spectral component (set of values on each pixel position) and is defined for the equation 1, where f represents the fusion factor among segments (objects), hspc , the calculated spectral factor, hf orm , the object form factor and the weight factor wspc defines the relative importance between those factors. f = wspc hspc + (1 − wspc )hf orm (1) The spectral component hspc is defined as the value associated to each pixel that belongs to one segment and is proportional to weighted mean of the standard deviation of each layer or dimension (Eq.: 2) where s1 is the selected segment, s2 is the neighbour under analysis and s3 is the resulting segment; c is the spectral band or layer index; wc is the weight defined for each band/layer; σcsi is the standard deviation on band/layer c; and ns2 is the number of pixels for each si , for i = 1, 2, 3 [5]. X hesp = wc (ns3 σcs3 (ns1 σcs1 − ns2 σcs2 )) (2) c The spatial component hf orm (Eq.: 3) is composed by two form attributes: compactness and smoothness. The relative importance between those factors is adjusted by wcomp weight value. hf orm = wcomp hcomp + (1 − wcomp )hsmo (3) Costa e Saraiva Compactness degree is defined as a ratio between segment perimeter and the squared root of its area (in pixels units times the number of object pixels). Smoothness is defined as the ratio between segment perimeter and its minimum bounding box.Initially each segment (object) is defined as a single image pixel. The segment grow as they are merged with their neighbours always trying to minimize the incorporated heterogeneity and only if the minimum fusion factor f is less than an value e defined as a squared for a scale parameter. The process continues until any segment can not grow more. More details about the Multiresolution algorithm can be seen in [4]. One of the most employed implementations is found in eCognition software [http://www.ecognition.com/]. IV. captured by Multiresolution to generate a meaningful zone area. C LASSIFICATION To assign meanings to obtained objects, is necessary to analyse each internal characteristics and apply some technique to classify and separate classes aiming the identification of important aspects that can give us some "glue" about what is happening, and support to further decisions about the best way to deal with each MZ selected. Considering the ponint of view about data-mining and machine learning techniques, we can use supervised (e.g.:Principal Component Analysis, Support Vector Machines), and unsupervised (e.g.: Kmeans, Maximum likelihood) algorithms to classify the data geo-objects. For this work, we mixed both techniques in a semi-supervised approach. In our case we selected objects according to the mean productivity obtained from harvest machine data. V. (b) P B. Conclusion The profiler applied in this study uses non-parametric statistics based on the Akaike information criterion to measure the relative quality of fit for samples histogram to some previous defined distribution (normal and weibull). With this technique, the maximum productivity probability and region profile can be indicated, helping the farmer to get best decisions about fertilizers and crop MZ selection. Experiments where conducted applying the following open source softwares: Interimage [www.lvc.ele.puc-rio.br/projects/interimage/], PostGIS [postgis.net], R [cran.r-project.org] and 52North OGC-WPS [52north.org/wps] implementation. R ESULTS AND D ISCUSSION ACKNOWLEDGEMENTS To exemplify the proposed approach, experiments were performed using data from a private farm crop field production of wheat (planted on set. 2008) on the State of Paraná, Brazil. A total of 67 samples were collected on mar. 2009 after the harvest (over a 1.6Km x 1.2Km area approximately) to estimate pH, H+AL, Al, Ca, Mg, K, Base Saturation, CEC, P, C, Organic Matter, V, Silt, Sand, Clay. For segmentation step, the layers pH, Ca, Mg, K, BS, CTC, P, Silt, Sandy and Clay were interpolated using Kriging algorithm from R Intamap packages [www.intamap.org] (Fig. 1). After performing data normalization of values to [0 − 1] interval, results were used as input in Multiresolution algorithm (from Interimage www.lvc. ele.puc-rio.br/projects/interimage/ implementation version). (a) K Fig. 2: Resulting MZ map (c) pH (d) Ca (e) Mg The authors would like to thank FINEP/MCT PROSENSAP project #01.08.0566.00 and CAPES. This research is part of a study on geopespatial cyberinfrastructures (geospatial modelling topic). R EFERENCES [1] [2] [3] [4] (f) B.S. Fig. 1: Generated Maps of some interpolated layers using Kriging method from Intamap R package A. Results The resulting segments are shown in 2. The segments where coloured according productivity mean values (red:low, yellow:medium, green:high). We can clearly see that layers Ca, Mg and base Saturation have high level of correlation and expose a spatial pattern. This is an important behaviour 96 [5] G. Jones, C. Gee, S. Villette, and F. Truchetet, “A crop field modeling to simulate agronomic images,” in 2010 4th International Symposium on Communications, Control and Signal Processing (ISCCSP), Mar. 2010, pp. 1 –4. T. Blaschke, “Object based image analysis for remote sensing,” ISPRS Journal of Photogrammetry and Remote Sensing, vol. 65, no. 1, pp. 2–16, 2010. [Online]. Available: http://www.sciencedirect.com/science/ article/pii/S0924271609000884 G. J. Hay and G. Castilla, “Object-based image analysis: Strengths, weaknesses, opportunities and threats (SWOT),” in Proceedings of 1st international conference on object-based image analysis (OBIA 2006), Salzburg University, Austria, 2006. M. Baatz, A. Schäpe, and J. Strobl, “Multiresolution Segmentation: an optimization approach for high quality multi-scale image segmentation,” in Angewandte Geographische Informationsverarbeitung XII. Beiträge zum AGIT-Symposium Salzburg 2000, Karlsruhe, Herbert Wichmann Verlag, 2000, pp. 12–23. P. N. Happ, R. d. S. Ferreira, C. Bentes, G. A. O. da Costa, and R. Q. Feitosa, “Segmentação multiresolução: uma abordagem paralela para segmentação de imagens de alta resolução em arquiteturas de múltiplos núcleos,” in Anais XIV Simpósio Brasileiro de Sensoriamento Remoto. Natal, Brasil: INPE, Apr. 2009, pp. 6935–6942. Índice de Autores Abrahão, E., 61 Almeida Jr, J.R., 75, 83, 85 Alves, R.C.A., 39 Amaral, M.C., 25 Januário, G.C, 13 Kawamoto, S., 85 Lima, A.D.S., 49 Beirigo, R.L., 37 Bieleveld, M.J.M., 79 Bressan, G., 87 Camargo Jr., J.B., 45 Campos, L.B., 73 Canovas, S.R.M., 89 Carvalho, T.C.M.B., 13, 21, 25, 27, 33, 53, 77 Cignasca, C.E., 73 Cirelli, M., 31 Corrêa, C.G., 57 Corrêa, F.E., 65 Corrêa, P.L.P., 59, 65, 93 Costa, A.F., 3 Costa, A.H.R., 7, 11, 17, 37, 43, 71 Costa, W.F., 95 Cugnasca, C.E., 15, 23, 81, 89 Dantas, J.S., 67 Dirickson, Y.M.R., 45 Domingues, M.B.P., 75 Ferreira, J.C., 19 Filgueiras, L.V.L., 69, 91 Fonseca, W.R., 93 Freiberger, E.C., 63 Gimenes, R.A.V., 83 Gomi, E.S., 5, 9 Gonzalez, N.M., 33 Goya, W.A., 41 Gutierrez, M., 29 Maçan, E.M., 5 Marè, R.M., 81 Margi, C.B., 19, 39 Massolino, P.M.C., 35 Mayor Toro, W.M., 43 NAkamura, R., 31 Nakamura, R., 3, 29 Nunes, F.L.S., 55, 57 Oliveira, A.C.M.T.G., 55 Perafán Villota, J., 71 Preti, J.P.D., 69 Prietch, S.S., 91 Reis, S.R.S., 87 Riekstin, A.C., 53 Rojas, M.A.T., 77 Ruggiero, W.V., 35 Rugierro, W.V., 67 Saraiva, A.M., 51, 79, 95 Schwarz, M.F., 27 Sichman, J.S., 49 Silva, D.L., 59 Silva, F.L., 7 Silva, L.O.L.A., 23 Silveira, R.M., 67 Simplı́cio Jr, M.A., 41 Souza, H.B., 17 Hattori, F., 9 Hirakawa, A.R., 61 Tori, R., 55, 57, 63 Toschi, G.M., 15 Truzzi, F.S., 11 Iwaya, L.H., 21 Veiga, A.K., 51