Aplicações de video digital em televisão e cinema. Computação
Transcrição
Aplicações de video digital em televisão e cinema. Computação
Título do Projeto Linha de Pesquisa Resumo do projeto O objetivo deste trabalho é o estudo da viabilidade para criação de uma solução de baixo custo para o armazenamento e distribuição de conteúdo de Cinema Digital 2k e 4k, com ou sem estereoscopia, seguindo as especificações da Digital Cinema Initiatives (DCI), como do padrão de vídeo já consolidado em TV Digital. Aplicações de video Avaliando-se a possibilidade de uso de sistemas híbridos de transmissão, ou seja, pretende-se explorar o uso de circuitos digital em televisão e Computação dedicados fim-a-fim de forma integrada e complementar à transmissão baseada nos padrões de redes de pacotes (ex. cinema. Distribuída Ethernet óptica e IP) para longa distância. Recentemente, junto com colegas na França e na Colombia, desenvolvemos um sistema de prova expressivo o suficiente para encodar sistemas CCP - Concurrent Constraint Programming - desenvolvidos para especificar sistemas reativos e distribuídos. Atualmente, a partir de uma especificação em CCP, não existem muitas técnicas de verificação baseadas em Teoria de Provas, que possibilitem a verificação de sistemas com estados infinitos. Os sistemas existentes se baseiam na checagem de modelos. Esperamos que a partir do nosso sistema de provas possamos fornecer os fundamentos para que tais ferramentas possam ser construídas. Esperamos também que seja possível desenvolver métodos para a verificação de sistemas distribuídos usando técnicas baseadas na checagem de modelos a partir de um ponto de vista sintático. A tarefa do estudante será de ler a literatura existente. Depois o estudante poderá escolher um tema mais teórico, como a formalização dos problemas a serem Verificação de Computação analisados e a análise de sua complexidade, ou um tema mais prático como sistemas distribuídos Distribuída o desenvolvimento de ferramentas para a verificação de sistemas distribuídos. Junto com colegas na Califórnia e na Filadélfia, estamos desenvolvendo modelos para a verificação de ensaios clínicos. Quando uma firma quer testar a eficâcia de um novo medicamento, esta firma contrata hospitais e institutos de saúde para realizar teste em seres humanos. Estes testes são chamados de ensaios clínicos. O objetivo, portanto, de um ensaio clínico é de coletar dados suficientes para avaliar a eficiência do medicamento mas ao mesmo tempo evitar que qualquer participante seja afetado negativamente pelo teste. Existe um espaço para a aplicação de métodos formais para o monitoramento e verificação destes processos. Recentemente, desenvolvemos modelos baseados em Multiset Rewriting para a especificação e verificação de tais ensaios e comprovamos que é possível implementar os nossos métodos na ferramenta computacional Maude (http://maude.cs.uiuc.edu/) uma ferramenta bastante usada tanto na academia como na indústria, e.g., NASA. Informática em Saúde A tarefa do estudante será de ler a literatura existente. Depois o estudante poderá escolher um tema mais teórico, como a formalização dos problemas a serem analisados e a análise de sua complexidade, ou um tema mais prático como o desenvolvimento das ferramentas que implementem os nossos métodos e Computação que possibilitem a partir de um conjunto de dados a verificação que os processos Distribuída foram executados como planejado. Orientador Vagas Referências Guido Lemos / Alexandre Duarte 4 http://www.lavid.ufpb.br/pt/projetos Vivek Nigam Vijay A. Saraswat: The Paradigm of Concurrent Constraint Programming. ICLP 1990: 777-778 Vivek Nigam: On the Complexity of Linear Authorization Logics by V. Nigam. 1 Accepted to LiCS’12 Vivek Nigam - Maude Manual: http://maude.cs.uiuc. edu/ - Towards an Automated Assistant for Clinical Investigations by V. Nigam, T. Ban Kirigin, A. Scedrov, C. Talcott, M. Kanovich, and R. Perovic. In Second ACM SIGHIT International Health Informatics Symposium (IHI’12), 2012. 1 ACM Digital Libray. Título do Projeto Linha de Pesquisa Resumo do projeto Orientador Vagas Referências Bernstein, P. Applying model management to classical meta data problems. In Proceedings of the 1st Biennial Conference on Innovative Data Systems Research, pages 209–220, 2003. Aranda, J., Ernst, N., Horkoff, J., Easterbrook, S. A Framework for Empirical Evaluation of Model Comprehensibility, Proceedings of the International Workshop on Modeling in Software Engineering, p.7, May 20-26, 2007. Uma Abordagem para Avaliação e Gestão de Modelos de Requisitos A Engenharia de Requisitos tem sido reconhecida como uma das mais importantes fases do processo de Engenharia de software. Isto porque a maior parte dos problemas e, geralmente, os mais dispendiosos e de maior impacto negativo no desenvolvimento de software, são originados da fase de Engenharia de Requisitos. Normalmente, falhas nesta fase resultam em documentos de requisitos inconsistentes, incompletos e, conseqüentemente, produtos de software de baixa qualidade, que não satisfazem as necessidades de seus clientes. Nesta fase, modelos de requisitos realizam um papel chave, pois são usados para, por exemplo: (i) documentar e comunicar informações tanto sobre o domínio do problema como sobre os requisitos do sistema; (ii) entender os relacionamentos entre os objetivos dos stakeholders e os requisitos do sistema, e; (iii) raciocinar sobre comportamentos alternativos do sistema para melhor alcançar os objetivos organizacionais. Modelos de requisitos devem possuir vários atributos de qualidade, tais como consistência, completude e facilidade de compreensão. Entretanto, estes atributos não são facilmente alcançáveis devido a vários fatores, tais como: (i) a dificuldade que os stakeholders têm de expressarem precisamente os problemas que pretendem solucionar por meio de um sistema de software; (ii) o desenvolvimento distribuído de software, que faz com que equipes separadas criem e manipulem modelos parciais de um mesmo sistema, e; (iii) as diferentes perspectivas que os vários stakeholders possuem sobre um mesmo problema. Portanto, este projeto propõe a construção de um framework de avaliação da compreensibilidade e completude de modelos de requisitos e um outro framework de avaliação da consistência entre visões de um mesmo modelo, além de propor uma adaptação de um conjunto de operadores para manipular estas várias visões. Um processo semi-automático será definido para guiar o uso dos frameworks e dos operadores com o objetivo de obter modelos de requisitos mais completos, consistentes e de fácil compreensão. Este processo será apoiado por uma Computação ferramenta de transformação de modelos, que irá gerar automaticamente um modelo de requisitos completo a partir de Distribuída várias visões, como também visões diferentes de um mesmo modelo de requisitos. Carla Silva Easterbrook, S., Yu, E., Aranda, J., Fan, Y., Horkoff, J., Leica, M., Qadir, R. Do viewpoints lead to better conceptual models? an exploratory case study. In Proceedings of the 13th International Requirements Engineering Conference, pages 199–208, 2005 Finkelstein, A., Gabbay, D., Hunter, A., Kramer, J., and Nuseibeh, B. Inconsistency handling in multiperspective specifications. IEEE Transactions on Software Engineering, 20(8):569–578, 1994. Sabetzadeh, M., Easterbrook, S. View merging in the presence of incompleteness and inconsistency. RE 1 J., 11(3):174–193, 2006. Brito, A. V. (2010). “Estudo da Utilização de Redes Sociais como Ferramenta de Avaliação de Participação”. III Workshop de Avaliação ..XXI Simpósio Brasileiro de Informática na Educação (SBIE), 2010, João Pessoa. Anderson, C. (2008) “A Cauda Longa: Do mercado de massa para o mercado de nicho”. Editora Campus, 2008. Análise de Redes Sociais Online Este projeto visa estudar técnicas de Análise de Redes Sociais para aplicação em redes sociais online, buscando entender Computação o comportamento dos indivíduos, e da sociedade como um todo, nessas redes e sua relação com seu comportamento no Distribuída cotidiano. Alisson Brito / Alexandre Duarte Pessoas com deficiência enfrentam sérias dificuldades para acessar informações. As tecnologias de informação e comunicação (TICs) quando são desenvolvidas dificilmente levam em conta os requisitos específicos destes usuários especiais. Neste projeto exploraremos o conceito de Acessibilidade como um Serviço, implementando e testando um serviço que torne possível o acesso a conteúdo digital para usuários especiais. A proposta é adicionar uma camada entre Acessibilidade como Computação os sistemas legados e os usuários especiais, adaptando a apresentação dos conteúdos digitais para as necessidades um Serviço Distribuída destes usuários. Alexandre OLIVEIRA, R. F. ; ARAUJO, J. ; MEDEIROS, F. P. A. ; BRITO, A. V. . Monitoramento das Interações dos Aprendizes na Rede Social Twitter como Apoio ao Processo de Mediação Docente. In: Brazilian Workshop on Social Network Analysis and Mining (BraSNAM), 2012, Curitiba. Anais do Congresso Brasileiro de Computação CSBC. Porto Alegre: Sociedade Brasileira de Computação, 2012. v. 1. p. 3 100-120. ARAÚJO, T. M. U. ; FERREIRA, F. L. S. ; SILVA, D. A. N. ; FALCÃO, E. L. ; Domingues, L. A. ; Lopes, L. H. ; Sato, Y. ; LIMA, H. R. G. ; DUARTE, A. ; SOUZA-FILHO, G. L. . Accessibility as a Service: Augmenting Multimedia Content with Sign Language Video Tracks. Journal of Research and Practice in Information Technology, v. 1, 1 p. 1-20, 2012. Título do Projeto Linha de Pesquisa Resumo do projeto Orientador Sistemas de software de alta complexidade frequentemente requerem o tratamento de requisitos não-funcionais (como eficiência, escalabilidade, adaptação ou segurança) O papel do design da arquitetura de software nesse cenário é Design de decisivo para alcançar o atendimento desses requisitos. Este projeto visa investigar técnicas e métricas de arquitetura de Arquiteturas de software que podem auxiliar no projeto de sistemas complexos através do mapeamento de requisitos não-funcionais. Software para Computação Como ambiente de testes do projeto será utilizada a ferramenta Arthron desenvolvida pelo GTAVCS voltada para área de Sistemas Complexos Distribuída Telemedicina. Tatiana Aires Tavares Este projeto se preocupa em investigar o design da interação focado na multidirecionalidade das aplicações e dispositivos. A definição de modalidade usada na Interacção Humano-Computador, advém da definição utilizada em Psicologia, onde são utilizadas as modalidades sensoriais das pessoas, tais como a visão, a audição e o tato. Assim, pode-se definir interfaces de usuário através da combinação de duas ou mais modalidades de entrada (tais como, fala, toque, gestos, movimentos da cabeça e mouse) de forma coordenada com as diversas saídas disponíveis em um sistema multimídia. Além disso, a utilização de múltiplos dispositivos acresce outras dimensões à interação, tornando-a também multisensorial. Esse fato é intensificado pela era da “convergência digital” que atua na Sociedade como catalisador da interação. Nesse contexto, este projeto está centrado no design da interação multisensorial, através do entendimento de seus conceitos, Design da Interação Computação arquiteturas, dispositivos de interação e métodos de avaliação. Como ambiente de testes e validação para este projeto Muntisensorial Distribuída serão utilizados os projetos GTAVCS e GTAAAS, os quais focam aplicações para Telemedicina e Acessibilidade. Tatiana Aires Tavares Opções para pesquisa em redes de comunicação Este projeto envolve temas ligados às áreas de Redes Ópticas, Redes de Sensores Sem Fio (RSSF) e Redes IP. Existe a possibilidade de desenvolver trabalhos de Dissertação em diferentes temas relacionados a estas redes, como por Computação exemplo, segurança em redes IP e na Internet, desenvolvimento de algoritmos e protocolos e qualidade de serviço em Distribuída redes ópticas e em RSSF, modelagem de tráfego em redes IP e na Internet, etc... Uso do Raciocínio Baseado em Casos na Definição de Técnicas para o Reuso de Componentes de Software O reuso de componentes é utilizado como estratégia para melhorar a produtividade do desenvolvimento de software. Para se atingir esta melhoria, é importante que o reuso seja feito de forma sistemática. Em outras palavras, o processo de recuperar, reusar, revisar e reter componentes deve estar bem definido e deve ser realizado de forma automática. Este projeto tem o objetivo de aplicar a técnica de raciocínio baseado em casos no processo de reuso de componentes, de Computação forma que não só os componentes, mas toda o trabalho de selecionar os componentes possa ser reusado na criação de Distribuída novos produtos. Comparações com outras abordagens também farão parte deste projeto. Clauirton Siebra Integração da Tecnologia Kinect em Projetos de Robótica A tecnologia Kinect disponibiliza um novo tipo de canal de percepção, o qual não é muito tratado por algumas plataformas Computação educacionais de robótica (e.g. Arduino e o Lego). O objetivo deste projeto é escolher e expandir uma destas plataformas, Distribuída de modo que o Kinect seja utilizando de uma maneira natural como um recurso a mais para os desenvolvedores de robôs. Clauirton Siebra Aplicações de Inteligência Artificial na Medicina A medicina se apresenta como um amplo campo de pesquisa onde diversas técnicas de Inteligência Artificial (IA) podem ser aplicadas na resolução de problemas clássicos, como o suporte a decisão médica, monitoramento pervasivo de pacientes e tratamento de grandes massas de dados clínicos. Deste modo, este projeto objetiva a identificação de um Computação problema ainda em aberto na área de IA aplicada a medicina, de modo que possamos gerar modelos, representações ou Distribuída algoritmos que contribuam com o avanço do estado da arte na área. Iguatemi E. Fonseca Vagas Referências http://tatiana.lavid.ufpb. 1 br/orientacoes/selecao-ppgi-2013-1/ http://tatiana.lavid.ufpb. 2 br/orientacoes/selecao-ppgi-2013-1/ Entrar em contato com o Prof. Iguatemi ([email protected], [email protected]) para obtenção de bibliografia. Curriculum Lattes: http://lattes.cnpq. 2 br/4519016123693631 Channarukul, S. (2005) Case-based reasoning for software design reuse. Proceedings of the 2005 IEEE Aerospace Conference, pp. 4296-4305. Gonzalez, P.A. (2000). Applying knowledge modelling and case-based reasoning to software reuse. IEEE 1 Software, 147(5): 169 – 177. El-laithy, R.A. (2012) Study on the use of Microsoft Kinect for robotics applications. Proceedings of the 2012 IEEE/ION Position Location and Navigation Symposium (PLANS), pp. 1280 - 1288. Stowers, J. (2011) Altitude control of a quadrotor helicopter using depth map from Microsoft Kinect sensor. Proceedings of the 2011 IEEE International Conference on 1 Mechatronics, pp. 358-362. Patel, V. et al. (2009) The coming of age of artificial intelligence in medicine☆, Artificial Intelligence in Medicine, 46(1): 5-17. Coiera E. W. (1996) Artificial intelligence in medicine: the challenges ahead. Journal of the American Medical Informatics Association, 3(6):363–366. Clauirton Siebra https://courses.csail.mit.edu/6. 1 034s/handouts/Medical_AI.pdf Título do Projeto Linha de Pesquisa Resumo do projeto Utilização de Métodos Inteligentes no Monitoramento do A autonomia energética dos dispositivos móveis é o grande gargalo atual para o desenvolvimento de aplicações, Consumo de Energia principalmente aquelas que envolvem troca de pacote de dados na rede. Este projeto tem o objetivo de identificar dos Dispositivos Computação oportunidades de melhoria do consumo energético de tais dispositivos, utilizando algoritmos inteligentes que possam Móveis Distribuída otimizar o gerenciamento da execução dos aplicativos e serviços de uma forma geral. Orientador Clauirton Siebra O aumento do poder computacional que estamos experimentando nos dias de hoje tem impactado de maneira substancial na área de simulação molecular e tornado possível a modelagem de sistemas complexos (ex: proteínas, DNA, polímeros, catalisadores, novos materiais, etc.) em um tempo significantemente menor [1]. Parte desse avanço tem sido conseguido com o uso de computação paralela de alta performance em sistemas computacionais híbridos contendo GPUs e CPUs multi-cores [2][3][4]. Em um trabalho nessa linha desenvolvido no nosso grupo [5], nós apresentamos modificações no código de um programa tradicional da área de modelagem molecular para que fosse possível sua paralelização usando a Acelerando plataforma NVIDIA/CUDA [7] e bibliotecas numéricas altamente otimizadas específicas para GPUs. Nossos esforços simulações produziram speedups de mais de 50 vezes em comparação à execução sequencial do programa. Assim, como uma forma moleculares pelo uso de ampliar nossos desenvolvimentos, nesse novo projeto tentaremos paralelizar outras partes desse programa que de arquiteturas Computação possuem algoritmos de complexidade O(N3) e O(N2). O objetivo final é termos um código que possa ser executado em híbridas CPU-GPU Distribuída clusters híbridos de CPU-GPU para a modelagem de sistemas macromoleculares como os citados no início. Gerd Bruno da Rocha Apesar do conteúdo da TV Digital Interativa ser direcionado a manipulação humana, o mesmo não dá suporte apropriado a performance de processos computacionais, tais como engenhos de busca. O problema central é que o conteúdo de documentos multimídia não pode ser explorado, reduzindo o limite de atuação de serviços e aplicações. Neste contexto, o projeto Knowledge TV propõe a definição de uma camada semântica para a plataforma de TV Digital interativa, baseada Computação nos conceitos da Web Semântica, que organiza o conteúdo e oferece serviços inteligentes, tais como consultas Knowledge TV Distribuída semânticas e recomendação. Natasha O presente projeto procura compreender de forma sistemática o estado da arte sobre o uso de técnicas da Inteligência Artificial aplicadas a Informática Médica, bem como propor novas soluções, principalmente nas subáreas da Inteligência Inteligência Artifical e Computação Artificial de Representação do Conhecimento (Ontologias); Aprendizagem de Máquina e Mineração de Dados; e Agentes e Informática Médica Distribuída Multiagentes Inteligentes. Natasha Metaheurísticas em GPU Ao longo dos últimos anos, o interesse em metaheurísticas aumentou consideravelmente no campo da otimização, permitindo que novos algoritmos fossem desenvolvidos. Estes são aplicados a problemas complexos que demandam cada vez mais tempo de CPU. Por outro lado, percebemos que os recentes avanços na arquitetura de hardware oferecem um enorme poder computacional proporcionado pelas GPUs ( Graphics Processing Unit ou Unidades de Processamento Gráfico), que deve ser explorado pelas metaheurísticas. Entretanto esta não é uma tarefa fácil e vários desafios relacionados principalmente ao gerenciamento de memória necessitam ser superados. O principal objetivo deste trabalho de pesquisa é lidar com as questões de projeto de metaheurísticas paralelas permitindo a resolução de problemas de otimização de larga escala explorando as GPUs. Assim, devem ser propostas metodologias eficentes para a construção de algoritmos paralelos eficientes baseados em GPUs tendo em vista algum problemas de otimização e alguma metataheurística. Por exemplo, Busca Tabu aplicada ao Problema de Roteamento de Veículos. Em Computação particular, há grande interesse neste projeto de aplicar metaheurísticas no contexto dos algoritmos de química Distribuída computacional. Lucídio dos Anjos Formiga Cabral Vagas Referências Shih, E., Bahl, P., Sinclair, M. (202) Wake on wireless: an event driven energy saving strategy for battery operated devices. Proceedings of the 8th annual international conference on Mobile computing and networking, pp. 160-171. R. Mayo and P. Ranganathan, “Energy Consumption in Mobile Devices: Why Future Systems Need RequirementsAware Energy Scale-Down”, HP 1 Technical Report, HPL-2003-167. (1) Jong, W. A. De; Bylaska, E.; Govind, N.; Janssen, C. L.; Kowalski, K.; Müller, T.; Nielsen, I. M. B.; Dam, H. J. J. Van; Veryazov, V.; Lindh, R. Physical Chemistry Chemical Physics 2010, 12, 6896–6920. (2) www.nvidia. com/object/computational_chemistry. html (3) Hwu, W. W. GPU Computing Gems Emerald Edition; 1st ed.; Morgan Kaufmann: Burlington, MA, 2011. (4) Ufimtsev, I. S.; Martínez, T. J. Computing in Science & Engineering 2008, 10, 26. (5) Maia, J. D. C.; Urquiza Carvalho, G. A.; Mangueira, C. P.; Santana, S. R.; Cabral, L. A. F.; Rocha, G. B. Journal of Chemical Theory and Computation 2012, DOI: 10.1021/ct3004645. (6) http://www.nvidia.com. br/object/cuda_home_new_br.html 1 (7) www.ks.uiuc.edu/Research/gpu/ http://knowledgetv.lavid.ufpb. 2 br/publications RUSSELL, S.; NORVIG, P. Artificial Intelligence: A Modern Approach. 3rd Edition. New Jersey: Prentice Hall; 2009. Hoyt. R. E. (2009). Medical Informatics Practical Guide for the Healthcare Professional. (ISBN-13: 978-0-5571 13323-9). [1] Enrique Alba (editor), “Parallel Metaheuristics: A New Class of Algorithms”, Wiley, 2005. [2] El-Ghazali Talbi (editor), “Parallel Combinatorial Optimization”, Wiley, 2006. [3] El-Ghazali Talbi, “Metaheuristics: From Design to Implementation”, Wiley, 2009. [4] David Kirk, Wen-mei Hwu, "Programming Massively Parallel Processors", Morgan Kaufmann, 2010. [5] Jason Sanders, Edward Kandrot, "CUDA by Example", Addison Wesley, 1 2011. Título do Projeto Linha de Pesquisa Resumo do projeto Orientador Clusterização é o processo em que elementos de um conjunto são alocados para Problema da Clusterização Automática grupos ou clusters de elementos similares. Nos algoritmos de clusterização, normalmente é assumido que o número de clusters é um dado de entrada. Entretanto, em muitas aplicações de clusterização, este número ideal de clusters não pode ser determinado ou estimado previamente. Estes problemas são conhecidos como Problemas de Clusterização Automática (PCA). Computação Este projeto de pesquisa tem como objetivo o desenvolvimento de algoritmos híbridos baseados em metaheurísticas e Distribuída programação linear inteira para a resolução aproximada do PCA. Lucídio dos Anjos Formiga Cabral Otimização com GPU´s Com o desenvolvimento de Unidades de processamento Gráfico (GPU´s) apresentou-se aos programadores de otimização de grande porte formas de processamento paralelo sem a necessidade de um grande número de clusteres economizando dinheiro e espaço, com isso algumas operações entre matrizes e vetores, matrizes e matrizes que de forma convencional são bastante onerosas passam a contribuir de uma forma menos onerosa no cômputo do tempo de execução. Operações deste tipo são encontradas ao resolvermos problemas de otimização de grande porte, onde um sistema de equações lineares é resolvido a a cada iteração, ditando assim a maior parte da complexidade do problema. O objetivo deste projeto Computação é desenvolver algoritimos para solução de problemas de otimização, onde a parte relativa a Algebra Linear será resolvida Distribuída com o auxilio de GPU´s, exemplo desses procedimentos são as decomposições LU, LDLt e Cholesk. Roberto Quirino do Nascimento Programação Probabilística Fatores de segurança da informação e sua relação com a publicidade da informação no setor público O uso de linguagens de programação para representação de modelos probabilísticos e inferência estatística tem sido vista como uma direção promissora nas áreas onde é necessário obter informações a partir de conjuntos de dados (mineração de dados, aprendizado de máquina, estatística). O ideal da programação probabilística, como acontece em modelos probabilísticos relacionados como redes bayesianas, é fazer que o especialista de um domínio possa simplesmente especificar o modelo probabilístico desejado e fazer inferências a partir dele, sem precisar saber os detalhes das técnicas de inferência. Este projeto tem como objetivo investigar algumas técnicas atuais de programação probabilística e suas Computação técnicas de inferência associadas, com ênfase na investigação de novas vertentes nas linguagens de programação Distribuída probabilísticas. Andrei de Araújo Formiga A Lei Federal 12.527 de Acesso à Informação, que tem como propósito regulamentar o direito constitucional de acesso dos cidadãos às informações públicas, traz a tona a discussão, no âmbito das instituições brasileiras, o acesso à informação em sua plenitude, o limite do que é informação pública e informação privada e, ainda, para quais fins esses dados serão utilizados. Por exemplo, para alguns, o salário não deveria ser “personalizado” e sim, apenas, categorizado conforme o cargo que o funcionário público ocupa. Paralelamente a essa discussão, a área de Tecnologia da Informação das instituições públicas, responsável pela salvaguarda dessas informações e executora das regras de negócio do Estado, deve manter o repositório dessas informações (servidores e data centers) em conformidade com as políticas de Confidencialidade, Integridade e Disponibilidade. A coexistência entre o interesse público e a segurança da informação nos dá uma série de embates, uma vez que, contrabalancear a disponibilidade e a abrangência desse recurso (informação) e a sua confidencialidade e integridade sempre foi um aspecto sensível no que se refere à adoção e utilização de tecnologias na publicidade da informação. Nesse sentido, o gestor de segurança da informação pode utilizar-se de princípios – responsabilidade, proporcionalidade, precisão - e procedimentos – padronização, acesso e compartilhamento, treinamento – que o ajudarão a planejar e a implementar a segurança da informação e de quantificar a a efetividade dos controles de segurança no acesso a informações e de como a estratégia de mitigação de riscos pode ser melhor adotada e aplicada. O presente projeto objetiva realizar um estudo de como esses princípios e procedimentos (fatores) estão sendo utilizados nas instituições públicas e de sua relação com relação com a segurança da informação através de investigações quantitativas e qualitativas, de forma a subsidiar o gerente de segurança da informação a tomar decisões na adoção de Computação tecnologias que dão apoio a publicidade da informação, sua gerência de riscos e no mantenimento da regra de negócio Distribuída institucional. Gustavo Motta Vagas Referências [1] El-Ghazali Talbi, “Metaheuristics: From Design to Implementation”, Wiley, 2009. [2] Hamdy Taha , “Pesquisa Operacional”, Pearson,2008. [3] Rui Xu, Don Wunsch, “Clustering”, Wiley-IEEE Press, 2008. [4] Marcelo D. Cruz, “O Problema da Clusterização Automática”, Tese de 1 Doutorado, COPPE/UFRJ, 2010. [1] David Kirk, Wen-mei Hwu, "Programming Massively Parallel Processors", Morgan Kaufmann, 2010. [2] Jason Sanders, Edward Kandrot, "CUDA by Example", Addison Wesley, 2011. [3] Numerical Linear Algebra and Optimization Gill Murray Wrigt, Addison Wesley 1991 [4] Linear Programming Foundations and Extensions Robert Vanderbei 2 Kluwer´s 1997 - D. Wingate, A. Stuhlmueller, N. D. Goodman, Lightweight Implementations of Probabilistic Programming Languages Via Transformational Compilation, AISTATS2011 - D. M. Roy, Computability, inference and modeling in probabilistic programming, Ph.D. Thesis, Massachusetts Institute of Technology, 2011. - I. Ntzoufras, Bayesian Modeling Using WinBUGS, Wiley, 2009. - P. Domingos, D. Lowd, Markov Logic: An Interface Layer for Artificial 1 Intelligence, Morgan & Claypool, 2009. 1. K. Aquilina. Public security versus privacy in technology law: A balancing act? Computer Law & Security Review 26 (2010) 130 – 143. 2. M. G. Hough. Keeping it to ourselves: Technology, privacy, and the loss of reserve. Technology in Society 31 (2009) 406 – 413. 3. S. Kierkegaard. Openaccess to publicdocuments – Moresecrecy, lesstransparency! Computer Law & 1 Security Review 25 (2009) 3 - 27. Título do Projeto Linha de Pesquisa Resumo do projeto Orientador O problema de Particionamento de Grafos por Edição de Arestas, mais conhecido na literatura como Edição de Clusters, é definido da seguinte forma: dado um grafo G, transformá-lo num grafo de clusters (uma união disjunta de cliques) através de um conjunto de operações de edições de arestas de custo mínimo. Cada operação de edição de arestas consiste em Problema de adicionar ou remover uma aresta. O problema é NP-Difícil e modela aplicações em processamento de imagens e Particionamento de biologia computacional, para citar algumas. Grafos por Edição de Computação Este projeto de pesquisa tem como objetivo o desenvolvimento de algoritmos híbridos baseados em metaheurísticas para Arestas Distribuída a resolução deste problema. Luiz Satoru Ochi/Lucídio dos Anjos Formiga Cabral A mineração de dados tornou-se uma importante atividade para a tomada de decisão para grandes ou pequenas corporações, pois a partir dela é possível extrair informações relevantes e não triviais de forma que correções e ajustes em estratégias econômicas e administrativas possam ser solucionados. Dessa forma, vê-se um aumento no armazenamento de dados geográficos, de tal forma que a mineração de dados convencionais não suporta realizar a extração de conhecimento em um banco de dados composto por estes tipos de dados. De acordo com a literatura atual, poucas ferramentas capazes de extrair conhecimento a partir de dados geográficos são encontradas, principalmente, quando a Mineração de Dados base de dados é composta por dados convencionais (numéricos e textuais) e geográficos (ponto, linha e polígono). via Programação Computação Este projeto de pesquisa tem como objetivo o desenvolvimento de algoritmos baseados em Programação Genética com o Lucídio dos Anjos Formiga Cabral / Valéria Genética Distribuída intuito de obter regras de classificação de padrões existentes combinando atributos numéricos e geográficos. Gonçalves Soares TOTAL DE VAGAS (Computação Distribuída) Vagas Referências [1] El-Ghazali Talbi, “Metaheuristics: From Design to Implementation”, Wiley, 2009. [2] Hamdy Taha , “Pesquisa Operacional”, Pearson,2008. [3] Lucas de Oliveira Bastos, “Novos Algoritmos e Resultados Teóricos para o Problema de Particionamento de Grafos por Edição de Arestas”, Tese de 1 Doutorado, IC/UFF, 2012. [1] El-Ghazali Talbi, “Metaheuristics: From Design to Implementation”, Wiley, 2009. [2] Mariana de Luna Freire Duarte, “Mineração de Dados usando Programação Genética”, Dissertação de Mestrado, PPGI/UFPB, 2012. [3] Pedrosa, K. A. GeoMiningVisualQL: Uma linguagem de consulta visual para Mineração de Dados Geográficos. Dissertação de Mestrado, João Pessoa PB. 2010. [4] Pereira, M. A.; Mineração de dados espaciais através de Algoritmos Evolucionários. Exame de Qualificação. Universidade Federal de Minas Gerais, 2010. [5] Marina A. P.; Mineração de regras de associação em dados georreferenciados. Dissertação de Mestrado. Instituto de Ciências Matemáticas e de Computação – ICMC 1 – USP. 2006. 32 MÓDULO IP DE UM DEMULTIPLEXADORPARA O SUBSISTEMA PLUXO DE TRANSPORTE-MPEG2-TS ADERENTE AO SISTEMA BRASILEIRO DE TELEVISÃO DIGITAL Aluno: Leonardo Medeiros Orientador: Antonio Carlos Cavalcanti Data da Defesa: 04/03/10 http://www. ppgi.di.ufpb.br/wpcontent/uploads/leonardo-medeirosdissertacao.pdf UM FRAMEWORK CONCEITUAL PARA INTEGRAÇÃO DE PADRÕES DE GESTÃO AO DESENVOLVIMENTO DE PROJETOS DE PROPRIEDADE INTELECTUAL DE SISTEMAS ELETRÔNICOS INTEGRADOS EM CHIPS (IP-SOCS). CARLOS AUGUSTO AYRES CARVALHO JOÃO PESSOA AGOSTO, 2012 _ A ser postada no site do PPGI em 09/2012 Sistemas Digitais Embarcados em Chips Sinais, Sistemas Digitais e Gráficos O projeto prevê o projeto de circuitos integrados digitais que agreguem sistemas e subsistemas a serem embarcados em aplicações como TV digital, sistemas móveis, equipamentos médicos, hospitalares, monitoração e de tele-cuidados de saúdea, bem como a evolução de ferramentas em uso e desenvolvimento no LASIC-CI, como o LASICProcess, de gestão e desenvolvimento automático de circuitos integrados digitais. Antonio Carlos Cavalcanti livro: Digital Design and Computer Architecture First ou Second Edition Elsevier MK 2013 (recém lançada) 3 David Money Harris and Sarah L. Harris Título do Projeto Linha de Pesquisa Resumo do projeto Orientador O objetivo principal é projetar e desenvolver um framework capaz de gerar sistemas para a modelagem, simulação e avaliação de Sistemas-em-Chip Reconfiguráveis (RSoC), assim como de Redes de Sensores sem Fio (RSSF), tudo no domínio dos Sistemas Embarcados. Um sistema embarcado é qualquer computador que é um componente num sistema maior e que depende do seu próprio processador. Uma vez que nós de uma RSSF podem ser formados por desde simples microprocessadores, até avançados RSoCs, ambas arquiteturas serão estudadas a avaliadas nesse projeto. Vagas Referências Iazeolla, G.; Pieroni, A. ; D'Ambrogio, A. ; Gianni, D. "A Distributed Approach to Wireless System Simulation", Sixth Advanced International Conference on Telecommunications (AICT), 2010 Bruschi, S.M.; Santana, R.H.C.; Santana, M.J.; Aiza, T.S. "An automatic distributed simulation environment". Proceedings of the 2004 Winter Simulation Conference, 2004. Sinais, Projeto e Simulação Sistemas Distribuída de Redes Digitais e de Sensores sem Fio Gráficos Sendo assim, este projeto é uma iniciativa de se estabelecer conhecimentos necessários para propor soluções em sistemas embarcados reconfiguráveis, principalmente no que diz respeito a sistemas adaptativos, visando o baixo consumo de energia. Visando o projeto de tais sistemas, é previsto o desenvolvimento de um simulador que permita a simulação de técnicas, tais como, Dynamic Frequency Scaling e Reconfiguração Dinâmica, de forma a serem utilizadas para modelar e analisar Redes de Sensores sem Fio formadas por dispositivos reconfiguráveis. Compreendendo também um avançado mecanismo de monitoramento, ele será capaz de gerar informações que auxiliem o projetista a reduzir o consumo de energia e aumentar o desempenho do sistema final. Alisson Brito Sinais, Simuladores de Sistemas Treinamento usando Digitais e Jogos Gráficos Os simuladores de treinamento têm se tornado cada vez mais populares, apresentando aplicações em diversas áreas, como na condução de aeronaves, procedimentos médicos, operações militares, operação de máquinas e equipamentos, etc... Os simuladores de treinamento de procedimentos têm a finalidade de capacitar o usuário na execução/operação de atividades bem definidas. A ideia deste projeto é contribuir nesta área, há espaço para trabalhos de dissertação em diferentes temas. Iguatemi E. Fonseca http://www.amazon.com/ParallelDistributed-Simulation-Systems2 Computing/dp/0471183830 Entrar em contato com o Prof. Iguatemi ([email protected], [email protected]) para obtenção de bibliografia. Curriculum Lattes: http://lattes.cnpq. 2 br/4519016123693631 Título do Projeto Linha de Pesquisa PROJETO BIOPASS PESQUISA E DESENVOLVIMENTO DE UM SISTEMA MULTIFATOR E MULTIBIOMÉTRICO Sinais, DE IDENTIFICAÇÃO Sistemas E AUTENTICAÇÃO Digitais e DE USUÁRIOS Gráficos Resumo do projeto Orientador A oferta de serviços automatizados é parte fundamental de grande parte das organizações nos dias atuais. Ao disponibilizar um serviço que exija controle de acesso, as organizações se deparam com o problema de estabelecer uma associação entre um indivíduo e uma identidade. Atualmente, serviços Web de autenticação baseados em políticas de senha, mecanismos de criptografia de dados e assinaturas digitais são massivamente utilizados. A metodologia tradicional de autenticação baseada em políticas de senha permite que qualquer pessoa munida de um login e sua respectiva senha, tenha acesso a um serviço. Há também serviços biométricos de identificação e autenticação de usuários, considerados, a princípio, mais seguros, por exigirem a apresentação de uma característica física única e, portanto, a presença do usuário ao menos no momento da autenticação. O projeto BioPass tem como objetivo o desenvolvimento de uma solução de segurança da informação, baseada em multibiometria, que seja móvel e funcione exclusivamente na presença do proprietário, garantindo a irrefutabilidade das transações deste, realizadas via Internet ou outras redes. A principal inovação do projeto BioPass, desenvolvido em parceria com a empresa VSoft Tecnologia, está na disponibilização do primeiro serviço público multifator e multibiométrico de autenticação de usuários para transações via Internet do Brasil. O serviço proposto poderá ser usado não só por instituições financeiras, mas por outras companhias, tais como lojas virtuais e sites governamentais, e reduzirá a dependência tecnológica do Brasil em relação a outros países. Prevê-se a utilização de cartão e senha associada a multibiometria por reconhecimento de face, impressão digital, geometria da mão, impressão palmar e voz-locutor, com segurança ativa, e poderá ser usado por qualquer instituição que tenha a necessidade de garantir a irrefutabilidade das transações realizadas em nome de seus usuários. Leonardo Vidal Batista Vagas Referências [1] ABATE, A. F; NAPPI, M.; RICCIO, D. and SABATINO, G.. 2D and 3D Face Recognition: A Survey, Pattern Recognition Letters 28, 2007, pp. 18851906. [2] BRADSKI, G. R.; KAEHLER, A. Learning OpenCV: Computer Vision with the OpenCV Library. O'Reilly, 2008. [3] GONZALEZ, R. C.; WOODS, R. R.. Digital Image Processing Using Matlab. 3ed. Prentice Hall, 2007. [4] JAIN, A. K.; CHEN, Y. DEMIRKUS, M. Pores and Ridges: High-Resolution Fingerprint Matching Using Level 3 Features. IEEE Transactions on Pattern Analysis and Machine Intelligence, v.29 n.1, p.1527, January 2007 [5] JIANXIN, W.; BRUBAKER, S.C.; MULLIN, M.D.; REHG, J.M. Fast Asymmetric Learning for Cascade Face Detection. Pattern Analysis and Machine Intelligence, IEEE Transactions on vol.30, no.3, pp. 369-382, March 2008. [6] KRISHNESWARI, K.; ARUMUGAM, S. A Review on Palm Print Verification System. International Journal of Computer Information Systems and Industrial Management Applications (IJCISIM), Vol.2, pp.113-120, 2010. [7] MATOS, F. M. S. ; BATISTA, L. V. ; POEL, J. V. D . Face Recognition using DCT Coefficients Selection. In: ACM Symposium on Applied Computing, 2008, Fortaleza. Proceedings of the 2008 ACM Symposium on Applied Computing. New York: Association for Computing Machinery, Inc. v. III. p. 1753-1757, 2008. [8] NEWMAN, R. Security and Access Control Using Biometric Technologies. Cengage Learning, 2009. [9] OMAIA, D.; POEL, J.; BATISTA, L. V.. 2D-DCT Distance Based Face Recognition Using a Reduced Number of Coefficients. XXIIth Brazilian Symposium on Computer Graphics and Image Processing, SIBGRAPI, 2009. [10] POLAT, O; Yildirim, T. Hand geometry identification without feature extraction by general regression neural network. Expert Systems with Applications: An International Journal, Vol. 34 , Issue 2 , pp. 845-849, 2008. [11] ROBERTS, C. Biometric attack vectors and defenses, Computers and Security Journal, Vol. 26, pp.14-25, 2007. 3 [12] ROSS, A. A., NANDAKUMAR, K., JAIN, A. K. Handbook of Multibiometrics. International Series on Biometrics , Vol. 6, Springer, 2006. PROJETO BIOPASS PESQUISA E DESENVOLVIMENTO DE UM SISTEMA Linha de MULTIFATOR E Título do Projeto Pesquisa MULTIBIOMÉTRICO Sinais, DE IDENTIFICAÇÃO Sistemas E AUTENTICAÇÃO Digitais e DE USUÁRIOS Gráficos Detecção de contornos em imagens geradas por descargas atmosféricas Sinais, Sistemas Digitais e Gráficos ao menos no momento da autenticação. O projeto BioPass tem como objetivo o desenvolvimento de uma solução de segurança da informação, baseada em multibiometria, que seja móvel e funcione exclusivamente na presença do proprietário, garantindo a irrefutabilidade das transações deste, realizadas via Internet ou outras redes. A principal inovação do projeto BioPass, desenvolvido em parceria com a empresa VSoft Tecnologia, está na disponibilização do primeiro serviço público multifator e multibiométrico de autenticação de usuários para transações via Internet do Brasil. O serviço proposto poderá ser usado não só por instituições financeiras, mas por outras companhias, tais como lojas virtuais Resumo do e sites governamentais, e reduzirá a dependência tecnológica doprojeto Brasil em relação a outros países. Prevê-se a utilização de cartão e senha associada a multibiometria por reconhecimento de face, impressão digital, geometria da mão, impressão palmar e voz-locutor, com segurança ativa, e poderá ser usado por qualquer instituição que tenha a necessidade de garantir a irrefutabilidade das transações realizadas em nome de seus usuários. O projeto é baseado no desenvolvimento de software (aplicativo) para detecção automatizada de bordas em imagens geradas por descargas. O programa deverá ser capaz de capturar um imagem a partir das originais registradas nos sensores, segmentar a região de interesse (circular ou retangular) automaticamente, calcular o diâmetro do circulo ou a área do retângulo e correlacionar com a tensão da descarga elétrica pré-determinada. A motivação deste trabalho se concentra na necessidade em se determinar em campo o valor da descarga elétrica, que é encontrada nos sensores sem a necessidade de um pós-processamento. Orientador Leonardo Vidal Batista Hou, Z. J. and G. W. Wei, A new approach to edge detection, Pattern Recognition, vol. 35, pp. 1559-1570, 2002 Ruy A. P. Altafim e Iguatemi Fonseca Visualização científica é a área da computação gráfica que procura atribuir representações visuais a elementos que não são normalmente visíveis, tornando prática a análise e a investigação de grandes volumes de dados. Este é o caso, por exemplo, da visualização de simulações de Dinâmica de Fluído Computacional (DFC), onde se analisam a formação de vórtices ou de ondas de choque ao redor de obstáculos, ou de dados obtidos através de sensores tais como a ressonância magnética e a tomografia, onde procura-se analisar a formação de tumores ou lesões. Entretanto, o esforço computacional geralmente exigido no processo de visualização faz com que a interatividade, essencial ao processo de investigação, fique as vezes comprometida. Como forma de tornar interativos, ou de enriquecer a experiência envolvida nos processos de visualização, o paralelismo massivo encontrado nas placas gráficas (Graphics Processing Units, ou GPUs) atuais começou a ser explorado. Além de permitir a interatividade em algumas modalidades de visualização, o uso das GPUs permitiu que novos métodos de visualização pudessem ser desenvolvidos. O uso de GPUs no Desenvolvimento de Técnicas de Visualização Robustas e Interativas Sinais, Sistemas Digitais e Gráficos Sinais, Compressão de Sistemas Vídeos para Cinema Digitais e Digital Gráficos International Journal, Vol. 34 , Issue 2 , pp. 845-849, 2008. [11] ROBERTS, C. Biometric attack vectors and defenses, Computers and Security Journal, Vol. 26, pp.14-25, 2007. Vagas [12] ROSS, A. Referências A., NANDAKUMAR, K., JAIN, A. K. Handbook of Multibiometrics. International Series on Biometrics , Vol. 3 6, Springer, 2006. Canny J. A. A computational approach for edge detection, IEEE transactions on pattern analysis and machine intelligence, vol. 8, issue 6, pp. 679-698, 1986 Este projeto visa o estudo e a exploração das GPUs como ferramentas de suporte ao desenvolvimento de técnicas robustas e interativas de visualização. Por "interativa" entende-se a capacidade da técnica de visualização de rebecer parâmetros do usuário e adaptar, de forma instantânea, os seus resultados de acordo com tais parâmetros. A robustes significa a capacidade do método de apresentar visualizações cujos erros estejam dentro de limites pré-estabelecidos. Espera-se que as técnicas de visualização desenvolvidas ao longo deste projeto auxiliem engenheiros, cientistas e estudantes a entenderem melhor os fenômenos que estudam, tendo assim maior embasamento para futuras tomadas de decisão. Christian Azambuja Pagot Os avanços tecnológicos dos últimos anos têm permitido a produção e exibição de vídeos digitais com qualidade equivalente a que pode ser alcançada com os filmes de 35 mm, que eram utilizados na maior parte das salas de cinema até recentemente. A expectativa para os próximos anos é de que projetores com resoluções superiores a 4K pixels na dimensão horizontal comecem a ganhar espaço. Embora com preços ainda muito elevados, aparelhos domésticos com resolução de 4K já começaram a ser comercializados. Com o barateamento da produção em massa de dispositivos geradores de conteúdo digital e a possibilidade de conectar tais dispositivos a infraestruturas de transmissão de dados, a demanda por informação audiovisual cresce continuamente. Esse crescimento exige das redes de transmissão maior velocidade e dos dispositivos de armazenamento maior capacidade e rapidez. Para reduzir custos com banda de transmissão e espaço nos meios de armazenamento, as informações digitais são submetidas a processamentos que resultam num volume de dados mais compacto que o original. Existem algoritmos de uso difundido que foram elaborados para tratar exclusivamente áudio ou vídeo. Tais algoritmos obtêm em geral melhor resultado que algoritmos para compressão de conteúdo genérico, porque exploram a suposição de que o conteúdo sendo processado apresenta certas características. Compressores de vídeos 3D, por exemplo, buscam por redundâncias que podem existir entre as duas visões que compõem um único quadro numa dada posição temporal de um vídeo. Quando se trata de áudio ou vídeo, pode ser tolerável a perda de informações durante o processo de compressão. A tolerância à perda depende do contexto. Para o contexto de cinema, existem compressores que descartam informações que em geral não são captadas pelo olho humano. Podem ser citados como compressores com perda aqueles que seguem os padrões JPEG2000 e H.264. Existem também os compressores de vídeo que não descartam qualquer informação. Os que utilizam o Golomb-Rice são exemplos de compressores sem perda. Este projeto tem como objetivo trazer contribuições no âmbito do cinema digital no que diz respeito à compressão de vídeos. As atividades do projeto incluirão: fazer um comparativo de desempenho dos algoritmos de compressão de vídeo existentes com o intuito de identificar os mais adequados nos vários contextos relacionados com cinema digital; estudar os fundamentos científicos que embasam os algoritmos de compressão; realizar adaptações e propor inovações que permitam melhorar o desempenho dos compressores de vídeo quanto à razão de compressão e tempo de processamento. Leonardo Vidal Batista Para maiores detalhes entre em contato com Ruy A. P. Altafim pelo email 1 [email protected] • Real-Time Volume Graphics.Klaus Engel, Markus Hadwiger, Joe M. Kniss, Christof Rezk-Salama, Daniel Weiskopf. 2006. • GPU-Based Interactive Visualization Techniques. Daniel Weiskopf. 2007. • Visualization Handbook. Charles D. Hansen and Chris R. Johnson. 2004. • CUDA C Programming Guide, NVIDIA. • CUDA C Best Practices Guide, NVIDIA. • Programming Massively Parallel Processors: A Hands-on Approach. David B. Kirk and Wen-mei W. Hwu. Morgan 2 Kaufmann 2010. [1]B. Shi, L. Liu, and C. Xu, “Comparison between jpeg2000 and h.264 for digital cinema,” in Multimedia and Expo, 2008 IEEE International Conference on, 23 2008-april 26 2008, pp. 725 –728. [2]T. Fujii, K. Shirakawa, D. Shirai, Y. Tonomura, and M. Kitamura, “Digital cinema over optical network - status of super hd development -,” in Optical Fiber Communication Conference and Exposition (OFC/NFOEC), 2011 and the National Fiber Optic Engineers Conference, march 2011, pp. 1 [3]H. Kalva, “The h.264 video coding standard,” Multimedia, IEEE, vol. 13, no. 4, pp. 86 –90, oct.-dec. 2006. [4]E. Martinian, A. Behrens, Jun Xin, A. Vetro, Huifang Sun, "Extensions of H. 264/AVC for Multiview Video Compression". [5] Shannon, Claude E. (July/October 1948). "A Mathematical Theory of Communication". Bell System Technical Journal 27 (3): 379–423. [6] Salomon, D. "Data Compression: The Complete Reference". Springer; 3rd 3 edition (February 26, 2004) Título do Projeto Linha de Pesquisa Resumo do projeto Orientador As redes de sensores sem fio (RSSF) são classificadas como a terceira onda da computação, pois possuem a capacidade de monitorar, processar, transmitir informações. Redes de sensores sem fio é o termo utilizado para classificar dispositivos dotados da capacidade de processamento e comunicação que se auto-organizam em redes do tipo ad hoc estáticas. Apesar dos nós serem estáticos a topologia de rede das RSSFs é dinâmica. Sistema para automação de posto de combustível usando Rede de Sensores Sem Fio e o conjunto de especificações ZigBee O termo ZigBee designa um conjunto de especificações para a comunicação sem-fio entre dispositivos eletrônicos, com ênfase na baixa potência de operação, na baixa taxa de transmissão de dados e no baixo custo de implantação. Sinais, Sistemas Digitais e Gráficos Tal conjunto de especificações define camadas do modelo OSI subsequentes àquelas estabelecidas pelo padrão IEEE 802.15.4. O projeto de pesquisa em questão tem como objetivo geral a especificação e implementação de um sistema de automação para postos de combustível utilizando Rede de Sensores Sem Fio e o conjunto de especificações ZigBee. José Antonio Gomes de Lima TOTAL DE VAGAS (Sinais) TOTAL DE VAGAS Vagas Referências S. Dulman, S. Chattterjea, P. Havinga. Introduction to wireless sensor network, Embeded systems Handbook, p. 31.1 – 31.10, 2006. R. Musunuri, S. Gandham, M.D. Patel. Issues and solutions in wireless sensor network, Embeded systems Handbook, p. 32.1 – 32.17, 2006. ftp://ftp.inf.ufrgs.br/pub/... /IntroducaoaRedesdeSensoressemFio. pdf http://www.sensornet.dcc.ufmg. br/disciplina/seminarios/RSSF_Industria. 1 pdf 17 49