Aplicações de video digital em televisão e cinema. Computação

Transcrição

Aplicações de video digital em televisão e cinema. Computação
Título do Projeto
Linha de
Pesquisa
Resumo do projeto
O objetivo deste trabalho é o estudo da viabilidade para criação de uma solução de baixo custo para o armazenamento e
distribuição de conteúdo de Cinema Digital 2k e 4k, com ou sem estereoscopia, seguindo as especificações da Digital
Cinema Initiatives (DCI), como do padrão de vídeo já consolidado em TV Digital.
Aplicações de video
Avaliando-se a possibilidade de uso de sistemas híbridos de transmissão, ou seja, pretende-se explorar o uso de circuitos
digital em televisão e Computação dedicados fim-a-fim de forma integrada e complementar à transmissão baseada nos padrões de redes de pacotes (ex.
cinema.
Distribuída Ethernet óptica e IP) para longa distância.
Recentemente, junto com colegas na França e na Colombia, desenvolvemos
um sistema de prova expressivo o suficiente para encodar sistemas CCP - Concurrent
Constraint Programming - desenvolvidos para especificar sistemas reativos e distribuídos.
Atualmente, a partir de uma especificação em CCP, não existem muitas técnicas de verificação
baseadas em Teoria de Provas, que possibilitem a verificação de sistemas com estados infinitos.
Os sistemas existentes se baseiam na checagem de modelos. Esperamos que a partir do nosso
sistema de provas possamos fornecer os fundamentos para que tais ferramentas possam
ser construídas. Esperamos também que seja possível desenvolver métodos para
a verificação de sistemas distribuídos usando técnicas baseadas na checagem
de modelos a partir de um ponto de vista sintático.
A tarefa do estudante será de ler a literatura existente. Depois o estudante poderá
escolher um tema mais teórico, como a formalização dos problemas a serem
Verificação de
Computação analisados e a análise de sua complexidade, ou um tema mais prático como
sistemas distribuídos Distribuída o desenvolvimento de ferramentas para a verificação de sistemas distribuídos.
Junto com colegas na Califórnia e na Filadélfia, estamos desenvolvendo modelos
para a verificação de ensaios clínicos. Quando uma firma quer testar a eficâcia de um
novo medicamento, esta firma contrata hospitais e institutos de saúde para realizar teste
em seres humanos. Estes testes são chamados de ensaios clínicos. O objetivo, portanto,
de um ensaio clínico é de coletar dados suficientes para avaliar a eficiência do medicamento
mas ao mesmo tempo evitar que qualquer participante seja afetado negativamente pelo
teste. Existe um espaço para a aplicação de métodos formais para o monitoramento
e verificação destes processos. Recentemente, desenvolvemos modelos baseados
em Multiset Rewriting para a especificação e verificação de tais ensaios e comprovamos
que é possível implementar os nossos métodos na ferramenta computacional Maude
(http://maude.cs.uiuc.edu/) uma ferramenta bastante usada tanto na academia como
na indústria, e.g., NASA.
Informática em
Saúde
A tarefa do estudante será de ler a literatura existente. Depois o estudante poderá
escolher um tema mais teórico, como a formalização dos problemas a serem
analisados e a análise de sua complexidade, ou um tema mais prático como
o desenvolvimento das ferramentas que implementem os nossos métodos e
Computação que possibilitem a partir de um conjunto de dados a verificação que os processos
Distribuída foram executados como planejado.
Orientador
Vagas
Referências
Guido Lemos / Alexandre Duarte
4 http://www.lavid.ufpb.br/pt/projetos
Vivek Nigam
Vijay A. Saraswat: The Paradigm of
Concurrent Constraint Programming.
ICLP 1990: 777-778
Vivek Nigam: On the Complexity of
Linear Authorization Logics by V. Nigam.
1 Accepted to LiCS’12
Vivek Nigam
- Maude Manual: http://maude.cs.uiuc.
edu/
- Towards an Automated Assistant for
Clinical Investigations by V. Nigam, T.
Ban Kirigin, A. Scedrov, C. Talcott, M.
Kanovich, and R. Perovic. In Second
ACM SIGHIT International Health
Informatics Symposium (IHI’12), 2012.
1 ACM Digital Libray.
Título do Projeto
Linha de
Pesquisa
Resumo do projeto
Orientador
Vagas
Referências
Bernstein, P. Applying model
management to classical meta data
problems. In Proceedings of the 1st
Biennial Conference on Innovative Data
Systems Research, pages 209–220,
2003.
Aranda, J., Ernst, N., Horkoff, J.,
Easterbrook, S. A Framework for
Empirical Evaluation of Model
Comprehensibility, Proceedings of the
International Workshop on Modeling in
Software Engineering, p.7, May 20-26,
2007.
Uma Abordagem
para Avaliação e
Gestão de Modelos
de Requisitos
A Engenharia de Requisitos tem sido reconhecida como uma das mais importantes fases do processo de Engenharia de
software. Isto porque a maior parte dos problemas e, geralmente, os mais dispendiosos e de maior impacto negativo no
desenvolvimento de software, são originados da fase de Engenharia de Requisitos. Normalmente, falhas nesta fase
resultam em documentos de requisitos inconsistentes, incompletos e, conseqüentemente, produtos de software de baixa
qualidade, que não satisfazem as necessidades de seus clientes. Nesta fase, modelos de requisitos realizam um papel
chave, pois são usados para, por exemplo: (i) documentar e comunicar informações tanto sobre o domínio do problema
como sobre os requisitos do sistema; (ii) entender os relacionamentos entre os objetivos dos stakeholders e os requisitos
do sistema, e; (iii) raciocinar sobre comportamentos alternativos do sistema para melhor alcançar os objetivos
organizacionais. Modelos de requisitos devem possuir vários atributos de qualidade, tais como consistência, completude e
facilidade de compreensão. Entretanto, estes atributos não são facilmente alcançáveis devido a vários fatores, tais como:
(i) a dificuldade que os stakeholders têm de expressarem precisamente os problemas que pretendem solucionar por meio
de um sistema de software; (ii) o desenvolvimento distribuído de software, que faz com que equipes separadas criem e
manipulem modelos parciais de um mesmo sistema, e; (iii) as diferentes perspectivas que os vários stakeholders possuem
sobre um mesmo problema. Portanto, este projeto propõe a construção de um framework de avaliação da
compreensibilidade e completude de modelos de requisitos e um outro framework de avaliação da consistência entre
visões de um mesmo modelo, além de propor uma adaptação de um conjunto de operadores para manipular estas várias
visões. Um processo semi-automático será definido para guiar o uso dos frameworks e dos operadores com o objetivo de
obter modelos de requisitos mais completos, consistentes e de fácil compreensão. Este processo será apoiado por uma
Computação ferramenta de transformação de modelos, que irá gerar automaticamente um modelo de requisitos completo a partir de
Distribuída várias visões, como também visões diferentes de um mesmo modelo de requisitos.
Carla Silva
Easterbrook, S., Yu, E., Aranda, J., Fan,
Y., Horkoff, J., Leica, M., Qadir, R. Do
viewpoints lead to better conceptual
models? an exploratory case study. In
Proceedings of the 13th International
Requirements Engineering Conference,
pages 199–208, 2005
Finkelstein, A., Gabbay, D., Hunter, A.,
Kramer, J., and Nuseibeh, B.
Inconsistency handling in
multiperspective specifications. IEEE
Transactions on Software Engineering,
20(8):569–578, 1994.
Sabetzadeh, M., Easterbrook, S. View
merging in the presence of
incompleteness and inconsistency. RE
1 J., 11(3):174–193, 2006.
Brito, A. V. (2010). “Estudo da Utilização
de Redes Sociais como Ferramenta de
Avaliação de Participação”. III Workshop
de Avaliação ..XXI Simpósio Brasileiro
de Informática na Educação (SBIE),
2010, João Pessoa.
Anderson, C. (2008) “A Cauda Longa:
Do mercado de massa para o mercado
de nicho”. Editora Campus, 2008.
Análise de Redes
Sociais Online
Este projeto visa estudar técnicas de Análise de Redes Sociais para aplicação em redes sociais online, buscando entender
Computação o comportamento dos indivíduos, e da sociedade como um todo, nessas redes e sua relação com seu comportamento no
Distribuída cotidiano.
Alisson Brito / Alexandre Duarte
Pessoas com deficiência enfrentam sérias dificuldades para acessar informações. As tecnologias de informação e
comunicação (TICs) quando são desenvolvidas dificilmente levam em conta os requisitos específicos destes usuários
especiais. Neste projeto exploraremos o conceito de Acessibilidade como um Serviço, implementando e testando um
serviço que torne possível o acesso a conteúdo digital para usuários especiais. A proposta é adicionar uma camada entre
Acessibilidade como Computação os sistemas legados e os usuários especiais, adaptando a apresentação dos conteúdos digitais para as necessidades
um Serviço
Distribuída destes usuários.
Alexandre
OLIVEIRA, R. F. ; ARAUJO, J. ;
MEDEIROS, F. P. A. ; BRITO, A. V. .
Monitoramento das Interações dos
Aprendizes na Rede Social Twitter como
Apoio ao Processo de Mediação
Docente. In: Brazilian Workshop on
Social Network Analysis and Mining
(BraSNAM), 2012, Curitiba. Anais do
Congresso Brasileiro de Computação
CSBC. Porto Alegre: Sociedade
Brasileira de Computação, 2012. v. 1. p.
3 100-120.
ARAÚJO, T. M. U. ; FERREIRA, F. L. S.
; SILVA, D. A. N. ; FALCÃO, E. L. ;
Domingues, L. A. ; Lopes, L. H. ; Sato,
Y. ; LIMA, H. R. G. ; DUARTE, A. ;
SOUZA-FILHO, G. L. . Accessibility as a
Service: Augmenting Multimedia
Content with Sign Language Video
Tracks. Journal of Research and
Practice in Information Technology, v. 1,
1 p. 1-20, 2012.
Título do Projeto
Linha de
Pesquisa
Resumo do projeto
Orientador
Sistemas de software de alta complexidade frequentemente requerem o tratamento de requisitos não-funcionais (como
eficiência, escalabilidade, adaptação ou segurança) O papel do design da arquitetura de software nesse cenário é
Design de
decisivo para alcançar o atendimento desses requisitos. Este projeto visa investigar técnicas e métricas de arquitetura de
Arquiteturas de
software que podem auxiliar no projeto de sistemas complexos através do mapeamento de requisitos não-funcionais.
Software para
Computação Como ambiente de testes do projeto será utilizada a ferramenta Arthron desenvolvida pelo GTAVCS voltada para área de
Sistemas Complexos Distribuída Telemedicina.
Tatiana Aires Tavares
Este projeto se preocupa em investigar o design da interação focado na multidirecionalidade das aplicações e dispositivos.
A definição de modalidade usada na Interacção Humano-Computador, advém da definição utilizada em Psicologia, onde
são utilizadas as modalidades sensoriais das pessoas, tais como a visão, a audição e o tato. Assim, pode-se definir
interfaces de usuário através da combinação de duas ou mais modalidades de entrada (tais como, fala, toque, gestos,
movimentos da cabeça e mouse) de forma coordenada com as diversas saídas disponíveis em um sistema multimídia.
Além disso, a utilização de múltiplos dispositivos acresce outras dimensões à interação, tornando-a também multisensorial.
Esse fato é intensificado pela era da “convergência digital” que atua na Sociedade como catalisador da interação. Nesse
contexto, este projeto está centrado no design da interação multisensorial, através do entendimento de seus conceitos,
Design da Interação Computação arquiteturas, dispositivos de interação e métodos de avaliação. Como ambiente de testes e validação para este projeto
Muntisensorial
Distribuída serão utilizados os projetos GTAVCS e GTAAAS, os quais focam aplicações para Telemedicina e Acessibilidade.
Tatiana Aires Tavares
Opções para
pesquisa em redes
de comunicação
Este projeto envolve temas ligados às áreas de Redes Ópticas, Redes de Sensores Sem Fio (RSSF) e Redes IP. Existe a
possibilidade de desenvolver trabalhos de Dissertação em diferentes temas relacionados a estas redes, como por
Computação exemplo, segurança em redes IP e na Internet, desenvolvimento de algoritmos e protocolos e qualidade de serviço em
Distribuída redes ópticas e em RSSF, modelagem de tráfego em redes IP e na Internet, etc...
Uso do Raciocínio
Baseado em Casos
na Definição de
Técnicas para o
Reuso de
Componentes de
Software
O reuso de componentes é utilizado como estratégia para melhorar a produtividade do desenvolvimento de software. Para
se atingir esta melhoria, é importante que o reuso seja feito de forma sistemática. Em outras palavras, o processo de
recuperar, reusar, revisar e reter componentes deve estar bem definido e deve ser realizado de forma automática. Este
projeto tem o objetivo de aplicar a técnica de raciocínio baseado em casos no processo de reuso de componentes, de
Computação forma que não só os componentes, mas toda o trabalho de selecionar os componentes possa ser reusado na criação de
Distribuída novos produtos. Comparações com outras abordagens também farão parte deste projeto.
Clauirton Siebra
Integração da
Tecnologia Kinect
em Projetos de
Robótica
A tecnologia Kinect disponibiliza um novo tipo de canal de percepção, o qual não é muito tratado por algumas plataformas
Computação educacionais de robótica (e.g. Arduino e o Lego). O objetivo deste projeto é escolher e expandir uma destas plataformas,
Distribuída de modo que o Kinect seja utilizando de uma maneira natural como um recurso a mais para os desenvolvedores de robôs. Clauirton Siebra
Aplicações de
Inteligência Artificial
na Medicina
A medicina se apresenta como um amplo campo de pesquisa onde diversas técnicas de Inteligência Artificial (IA) podem
ser aplicadas na resolução de problemas clássicos, como o suporte a decisão médica, monitoramento pervasivo de
pacientes e tratamento de grandes massas de dados clínicos. Deste modo, este projeto objetiva a identificação de um
Computação problema ainda em aberto na área de IA aplicada a medicina, de modo que possamos gerar modelos, representações ou
Distribuída algoritmos que contribuam com o avanço do estado da arte na área.
Iguatemi E. Fonseca
Vagas
Referências
http://tatiana.lavid.ufpb.
1 br/orientacoes/selecao-ppgi-2013-1/
http://tatiana.lavid.ufpb.
2 br/orientacoes/selecao-ppgi-2013-1/
Entrar em contato com o Prof. Iguatemi
([email protected],
[email protected]) para
obtenção de bibliografia.
Curriculum Lattes: http://lattes.cnpq.
2 br/4519016123693631
Channarukul, S. (2005) Case-based
reasoning for software design reuse.
Proceedings of the 2005 IEEE
Aerospace Conference, pp. 4296-4305.
Gonzalez, P.A. (2000). Applying
knowledge modelling and case-based
reasoning to software reuse. IEEE
1 Software, 147(5): 169 – 177.
El-laithy, R.A. (2012) Study on the use
of Microsoft Kinect for robotics
applications. Proceedings of the 2012
IEEE/ION Position Location and
Navigation Symposium (PLANS), pp.
1280 - 1288.
Stowers, J. (2011) Altitude control of a
quadrotor helicopter using depth map
from Microsoft Kinect sensor.
Proceedings of the 2011 IEEE
International Conference on
1 Mechatronics, pp. 358-362.
Patel, V. et al. (2009) The coming
of age of artificial intelligence in
medicine☆, Artificial Intelligence in
Medicine, 46(1): 5-17.
Coiera E. W. (1996) Artificial intelligence
in medicine: the challenges ahead.
Journal of the American Medical
Informatics Association, 3(6):363–366.
Clauirton Siebra
https://courses.csail.mit.edu/6.
1 034s/handouts/Medical_AI.pdf
Título do Projeto
Linha de
Pesquisa
Resumo do projeto
Utilização de
Métodos Inteligentes
no Monitoramento do
A autonomia energética dos dispositivos móveis é o grande gargalo atual para o desenvolvimento de aplicações,
Consumo de Energia
principalmente aquelas que envolvem troca de pacote de dados na rede. Este projeto tem o objetivo de identificar
dos Dispositivos
Computação oportunidades de melhoria do consumo energético de tais dispositivos, utilizando algoritmos inteligentes que possam
Móveis
Distribuída otimizar o gerenciamento da execução dos aplicativos e serviços de uma forma geral.
Orientador
Clauirton Siebra
O aumento do poder computacional que estamos experimentando nos dias de hoje tem impactado de maneira substancial
na área de simulação molecular e tornado possível a modelagem de sistemas complexos (ex: proteínas, DNA, polímeros,
catalisadores, novos materiais, etc.) em um tempo significantemente menor [1]. Parte desse avanço tem sido conseguido
com o uso de computação paralela de alta performance em sistemas computacionais híbridos contendo GPUs e CPUs
multi-cores [2][3][4]. Em um trabalho nessa linha desenvolvido no nosso grupo [5], nós apresentamos modificações no
código de um programa tradicional da área de modelagem molecular para que fosse possível sua paralelização usando a
Acelerando
plataforma NVIDIA/CUDA [7] e bibliotecas numéricas altamente otimizadas específicas para GPUs. Nossos esforços
simulações
produziram speedups de mais de 50 vezes em comparação à execução sequencial do programa. Assim, como uma forma
moleculares pelo uso
de ampliar nossos desenvolvimentos, nesse novo projeto tentaremos paralelizar outras partes desse programa que
de arquiteturas
Computação possuem algoritmos de complexidade O(N3) e O(N2). O objetivo final é termos um código que possa ser executado em
híbridas CPU-GPU
Distribuída clusters híbridos de CPU-GPU para a modelagem de sistemas macromoleculares como os citados no início.
Gerd Bruno da Rocha
Apesar do conteúdo da TV Digital Interativa ser direcionado a manipulação humana, o mesmo não dá suporte apropriado a
performance de processos computacionais, tais como engenhos de busca. O problema central é que o conteúdo de
documentos multimídia não pode ser explorado, reduzindo o limite de atuação de serviços e aplicações. Neste contexto, o
projeto Knowledge TV propõe a definição de uma camada semântica para a plataforma de TV Digital interativa, baseada
Computação nos conceitos da Web Semântica, que organiza o conteúdo e oferece serviços inteligentes, tais como consultas
Knowledge TV
Distribuída semânticas e recomendação.
Natasha
O presente projeto procura compreender de forma sistemática o estado da arte sobre o uso de técnicas da Inteligência
Artificial aplicadas a Informática Médica, bem como propor novas soluções, principalmente nas subáreas da Inteligência
Inteligência Artifical e Computação Artificial de Representação do Conhecimento (Ontologias); Aprendizagem de Máquina e Mineração de Dados; e Agentes e
Informática Médica
Distribuída Multiagentes Inteligentes.
Natasha
Metaheurísticas em
GPU
Ao longo dos últimos anos, o interesse em metaheurísticas aumentou consideravelmente no campo da otimização,
permitindo que novos algoritmos fossem desenvolvidos. Estes são aplicados a problemas complexos que demandam cada
vez mais tempo de CPU. Por outro lado, percebemos que os recentes avanços na arquitetura de hardware oferecem um
enorme poder computacional proporcionado pelas GPUs ( Graphics Processing Unit ou Unidades de Processamento
Gráfico), que deve ser explorado pelas metaheurísticas. Entretanto esta não é uma tarefa fácil e vários desafios
relacionados principalmente ao gerenciamento de memória necessitam ser superados.
O principal objetivo deste trabalho de pesquisa é lidar com as questões de projeto de metaheurísticas paralelas permitindo
a resolução de problemas de otimização de larga escala explorando as GPUs. Assim, devem ser propostas metodologias
eficentes para a construção de algoritmos paralelos eficientes baseados em GPUs tendo em vista algum problemas de
otimização e alguma metataheurística. Por exemplo, Busca Tabu aplicada ao Problema de Roteamento de Veículos. Em
Computação particular, há grande interesse neste projeto de aplicar metaheurísticas no contexto dos algoritmos de química
Distribuída computacional.
Lucídio dos Anjos Formiga Cabral
Vagas
Referências
Shih, E., Bahl, P., Sinclair, M. (202)
Wake on wireless: an event driven
energy saving strategy for battery
operated devices. Proceedings of the
8th annual international conference on
Mobile computing and networking, pp.
160-171.
R. Mayo and P. Ranganathan, “Energy
Consumption in Mobile Devices: Why
Future Systems Need RequirementsAware Energy Scale-Down”, HP
1 Technical Report, HPL-2003-167.
(1) Jong, W. A. De; Bylaska, E.; Govind,
N.; Janssen, C. L.; Kowalski, K.; Müller,
T.; Nielsen, I. M. B.; Dam, H. J. J. Van;
Veryazov, V.; Lindh, R. Physical
Chemistry Chemical Physics 2010, 12,
6896–6920.
(2) www.nvidia.
com/object/computational_chemistry.
html
(3) Hwu, W. W. GPU Computing Gems
Emerald Edition; 1st ed.; Morgan
Kaufmann: Burlington, MA, 2011.
(4) Ufimtsev, I. S.; Martínez, T. J.
Computing in Science & Engineering
2008, 10, 26.
(5) Maia, J. D. C.; Urquiza Carvalho, G.
A.; Mangueira, C. P.; Santana, S. R.;
Cabral, L. A. F.; Rocha, G. B. Journal of
Chemical Theory and Computation
2012, DOI: 10.1021/ct3004645.
(6) http://www.nvidia.com.
br/object/cuda_home_new_br.html
1 (7) www.ks.uiuc.edu/Research/gpu/
http://knowledgetv.lavid.ufpb.
2 br/publications
RUSSELL, S.; NORVIG, P. Artificial
Intelligence: A Modern Approach. 3rd
Edition. New Jersey: Prentice Hall;
2009.
Hoyt. R. E. (2009). Medical Informatics Practical Guide for the Healthcare
Professional. (ISBN-13: 978-0-5571 13323-9).
[1] Enrique Alba (editor), “Parallel
Metaheuristics: A New Class of
Algorithms”, Wiley, 2005.
[2] El-Ghazali Talbi (editor), “Parallel
Combinatorial Optimization”, Wiley,
2006.
[3] El-Ghazali Talbi, “Metaheuristics:
From Design to Implementation”, Wiley,
2009.
[4] David Kirk, Wen-mei Hwu,
"Programming Massively Parallel
Processors", Morgan Kaufmann, 2010.
[5] Jason Sanders, Edward Kandrot,
"CUDA by Example", Addison Wesley,
1 2011.
Título do Projeto
Linha de
Pesquisa
Resumo do projeto
Orientador
Clusterização é o processo em que elementos de um conjunto são alocados para
Problema da
Clusterização
Automática
grupos ou clusters de elementos similares. Nos algoritmos de clusterização, normalmente é assumido que o número de
clusters é um dado de entrada. Entretanto, em muitas aplicações de clusterização, este número ideal de clusters não pode
ser
determinado ou estimado previamente. Estes problemas são conhecidos como Problemas de Clusterização Automática
(PCA).
Computação Este projeto de pesquisa tem como objetivo o desenvolvimento de algoritmos híbridos baseados em metaheurísticas e
Distribuída programação linear inteira para a resolução aproximada do PCA.
Lucídio dos Anjos Formiga Cabral
Otimização com
GPU´s
Com o desenvolvimento de Unidades de processamento Gráfico (GPU´s) apresentou-se aos programadores de otimização
de grande porte formas de processamento paralelo sem a necessidade de um grande número de clusteres economizando
dinheiro e espaço, com isso algumas operações entre matrizes e vetores, matrizes e matrizes que de forma convencional
são bastante onerosas passam a contribuir de uma forma menos onerosa no cômputo do tempo de execução. Operações
deste tipo são encontradas ao resolvermos problemas de otimização de grande porte, onde um sistema de equações
lineares é resolvido a a cada iteração, ditando assim a maior parte da complexidade do problema. O objetivo deste projeto
Computação é desenvolver algoritimos para solução de problemas de otimização, onde a parte relativa a Algebra Linear será resolvida
Distribuída com o auxilio de GPU´s, exemplo desses procedimentos são as decomposições LU, LDLt e Cholesk.
Roberto Quirino do Nascimento
Programação
Probabilística
Fatores de
segurança da
informação e sua
relação com a
publicidade da
informação no setor
público
O uso de linguagens de programação para representação de modelos probabilísticos e inferência estatística tem sido vista
como uma direção promissora nas áreas onde é necessário obter informações a partir de conjuntos de dados (mineração
de dados, aprendizado de máquina, estatística). O ideal da programação probabilística, como acontece em modelos
probabilísticos relacionados como redes bayesianas, é fazer que o especialista de um domínio possa simplesmente
especificar o modelo probabilístico desejado e fazer inferências a partir dele, sem precisar saber os detalhes das técnicas
de inferência. Este projeto tem como objetivo investigar algumas técnicas atuais de programação probabilística e suas
Computação técnicas de inferência associadas, com ênfase na investigação de novas vertentes nas linguagens de programação
Distribuída probabilísticas.
Andrei de Araújo Formiga
A Lei Federal 12.527 de Acesso à Informação, que tem como propósito regulamentar o direito constitucional de acesso dos
cidadãos às informações públicas, traz a tona a discussão, no âmbito das instituições brasileiras, o acesso à informação
em sua plenitude, o limite do que é informação pública e informação privada e, ainda, para quais fins esses dados serão
utilizados.
Por exemplo, para alguns, o salário não deveria ser “personalizado” e sim, apenas, categorizado conforme o cargo que o
funcionário público ocupa.
Paralelamente a essa discussão, a área de Tecnologia da Informação das instituições públicas, responsável pela
salvaguarda dessas informações e executora das regras de negócio do Estado, deve manter o repositório dessas
informações (servidores e data centers) em conformidade com as políticas de Confidencialidade, Integridade e
Disponibilidade.
A coexistência entre o interesse público e a segurança da informação nos dá uma série de embates, uma vez que,
contrabalancear a disponibilidade e a abrangência desse recurso (informação) e a sua confidencialidade e integridade
sempre foi um aspecto sensível no que se refere à adoção e utilização de tecnologias na publicidade da informação.
Nesse sentido, o gestor de segurança da informação pode utilizar-se de princípios – responsabilidade, proporcionalidade,
precisão - e procedimentos – padronização, acesso e compartilhamento, treinamento – que o ajudarão a planejar e a
implementar a segurança da informação e de quantificar a a efetividade dos controles de segurança no acesso a
informações e de como a estratégia de mitigação de riscos pode ser melhor adotada e aplicada.
O presente projeto objetiva realizar um estudo de como esses princípios e procedimentos (fatores) estão sendo utilizados
nas instituições públicas e de sua relação com relação com a segurança da informação através de investigações
quantitativas e qualitativas, de forma a subsidiar o gerente de segurança da informação a tomar decisões na adoção de
Computação tecnologias que dão apoio a publicidade da informação, sua gerência de riscos e no mantenimento da regra de negócio
Distribuída institucional.
Gustavo Motta
Vagas
Referências
[1] El-Ghazali Talbi, “Metaheuristics:
From Design to Implementation”, Wiley,
2009.
[2] Hamdy Taha , “Pesquisa
Operacional”, Pearson,2008.
[3] Rui Xu, Don Wunsch, “Clustering”,
Wiley-IEEE Press, 2008.
[4] Marcelo D. Cruz, “O Problema da
Clusterização Automática”, Tese de
1 Doutorado, COPPE/UFRJ, 2010.
[1] David Kirk, Wen-mei Hwu,
"Programming Massively Parallel
Processors", Morgan Kaufmann, 2010.
[2] Jason Sanders, Edward Kandrot,
"CUDA by Example", Addison Wesley,
2011.
[3] Numerical Linear Algebra and
Optimization Gill Murray Wrigt, Addison
Wesley 1991
[4] Linear Programming Foundations
and Extensions Robert Vanderbei
2 Kluwer´s 1997
- D. Wingate, A. Stuhlmueller, N. D.
Goodman, Lightweight Implementations
of Probabilistic Programming Languages
Via Transformational Compilation,
AISTATS2011
- D. M. Roy, Computability, inference
and modeling in probabilistic
programming, Ph.D. Thesis,
Massachusetts Institute of Technology,
2011.
- I. Ntzoufras, Bayesian Modeling Using
WinBUGS, Wiley, 2009.
- P. Domingos, D. Lowd, Markov Logic:
An Interface Layer for Artificial
1 Intelligence, Morgan & Claypool, 2009.
1. K. Aquilina. Public security versus
privacy in technology law: A balancing
act? Computer Law & Security Review
26 (2010) 130 – 143.
2. M. G. Hough. Keeping it to ourselves:
Technology, privacy, and the loss of
reserve. Technology in Society 31
(2009) 406 – 413.
3. S. Kierkegaard. Openaccess to
publicdocuments – Moresecrecy,
lesstransparency! Computer Law &
1 Security Review 25 (2009) 3 - 27.
Título do Projeto
Linha de
Pesquisa
Resumo do projeto
Orientador
O problema de Particionamento de Grafos por Edição de Arestas, mais conhecido na literatura como Edição de Clusters, é
definido da seguinte forma: dado um grafo G, transformá-lo num grafo de clusters (uma união disjunta de cliques) através
de um conjunto de operações de edições de arestas de custo mínimo. Cada operação de edição de arestas consiste em
Problema de
adicionar ou remover uma aresta. O problema é NP-Difícil e modela aplicações em processamento de imagens e
Particionamento de
biologia computacional, para citar algumas.
Grafos por Edição de Computação Este projeto de pesquisa tem como objetivo o desenvolvimento de algoritmos híbridos baseados em metaheurísticas para
Arestas
Distribuída a resolução deste problema.
Luiz Satoru Ochi/Lucídio dos Anjos Formiga Cabral
A mineração de dados tornou-se uma importante atividade para a tomada de decisão para grandes ou pequenas
corporações, pois a partir dela é possível extrair informações relevantes e não triviais de forma que correções e ajustes em
estratégias econômicas e administrativas possam ser solucionados. Dessa forma, vê-se um aumento no armazenamento
de dados geográficos, de tal forma que a mineração de dados convencionais não suporta realizar a extração de
conhecimento em um banco de dados composto por estes tipos de dados. De acordo com a literatura atual, poucas
ferramentas capazes de extrair conhecimento a partir de dados geográficos são encontradas, principalmente, quando a
Mineração de Dados
base de dados é composta por dados convencionais (numéricos e textuais) e geográficos (ponto, linha e polígono).
via Programação
Computação Este projeto de pesquisa tem como objetivo o desenvolvimento de algoritmos baseados em Programação Genética com o Lucídio dos Anjos Formiga Cabral / Valéria
Genética
Distribuída intuito de obter regras de classificação de padrões existentes combinando atributos numéricos e geográficos.
Gonçalves Soares
TOTAL DE VAGAS (Computação Distribuída)
Vagas
Referências
[1] El-Ghazali Talbi, “Metaheuristics:
From Design to Implementation”, Wiley,
2009.
[2] Hamdy Taha , “Pesquisa
Operacional”, Pearson,2008.
[3] Lucas de Oliveira Bastos, “Novos
Algoritmos e Resultados Teóricos para o
Problema de Particionamento de Grafos
por Edição de Arestas”, Tese de
1 Doutorado, IC/UFF, 2012.
[1] El-Ghazali Talbi, “Metaheuristics:
From Design to Implementation”, Wiley,
2009.
[2] Mariana de Luna Freire Duarte,
“Mineração de Dados usando
Programação Genética”, Dissertação de
Mestrado, PPGI/UFPB, 2012.
[3] Pedrosa, K. A. GeoMiningVisualQL:
Uma linguagem de consulta visual para
Mineração de Dados Geográficos.
Dissertação de Mestrado, João Pessoa PB. 2010.
[4] Pereira, M. A.; Mineração de dados
espaciais através de Algoritmos
Evolucionários. Exame de Qualificação.
Universidade Federal de Minas Gerais,
2010.
[5] Marina A. P.; Mineração de regras de
associação em dados
georreferenciados. Dissertação de
Mestrado. Instituto de Ciências
Matemáticas e de Computação – ICMC
1 – USP. 2006.
32
MÓDULO IP DE UM
DEMULTIPLEXADORPARA O
SUBSISTEMA PLUXO DE
TRANSPORTE-MPEG2-TS ADERENTE
AO SISTEMA BRASILEIRO DE
TELEVISÃO DIGITAL
Aluno: Leonardo Medeiros
Orientador: Antonio Carlos Cavalcanti
Data da Defesa: 04/03/10 http://www.
ppgi.di.ufpb.br/wpcontent/uploads/leonardo-medeirosdissertacao.pdf
UM FRAMEWORK CONCEITUAL
PARA INTEGRAÇÃO DE PADRÕES
DE GESTÃO AO DESENVOLVIMENTO
DE PROJETOS DE PROPRIEDADE
INTELECTUAL DE SISTEMAS
ELETRÔNICOS INTEGRADOS EM
CHIPS (IP-SOCS).
CARLOS AUGUSTO AYRES
CARVALHO JOÃO PESSOA AGOSTO,
2012 _ A ser postada no site do PPGI
em 09/2012
Sistemas Digitais
Embarcados em
Chips
Sinais,
Sistemas
Digitais e
Gráficos
O projeto prevê o projeto de circuitos integrados digitais que agreguem sistemas e subsistemas a serem embarcados em
aplicações como TV digital, sistemas móveis, equipamentos médicos, hospitalares, monitoração e de tele-cuidados de
saúdea, bem como a evolução de ferramentas em uso e desenvolvimento no LASIC-CI, como o LASICProcess, de gestão
e desenvolvimento automático de circuitos integrados digitais.
Antonio Carlos Cavalcanti
livro: Digital Design and Computer
Architecture
First ou Second Edition Elsevier MK
2013 (recém lançada)
3 David Money Harris and Sarah L. Harris
Título do Projeto
Linha de
Pesquisa
Resumo do projeto
Orientador
O objetivo principal é projetar e desenvolver um framework capaz de gerar sistemas para a modelagem, simulação e
avaliação de Sistemas-em-Chip Reconfiguráveis (RSoC), assim como de Redes de Sensores sem Fio (RSSF), tudo no
domínio dos Sistemas Embarcados. Um sistema embarcado é qualquer computador que é um componente num sistema
maior e que depende do seu próprio processador. Uma vez que nós de uma RSSF podem ser formados por desde simples
microprocessadores, até avançados RSoCs, ambas arquiteturas serão estudadas a avaliadas nesse projeto.
Vagas
Referências
Iazeolla, G.; Pieroni, A. ; D'Ambrogio, A.
; Gianni, D. "A Distributed Approach to
Wireless System Simulation", Sixth
Advanced International Conference on
Telecommunications (AICT), 2010
Bruschi, S.M.; Santana, R.H.C.;
Santana, M.J.; Aiza, T.S. "An automatic
distributed simulation environment".
Proceedings of the 2004 Winter
Simulation Conference, 2004.
Sinais,
Projeto e Simulação Sistemas
Distribuída de Redes Digitais e
de Sensores sem Fio Gráficos
Sendo assim, este projeto é uma iniciativa de se estabelecer conhecimentos necessários para propor soluções em
sistemas embarcados reconfiguráveis, principalmente no que diz respeito a sistemas adaptativos, visando o baixo
consumo de energia. Visando o projeto de tais sistemas, é previsto o desenvolvimento de um simulador que permita a
simulação de técnicas, tais como, Dynamic Frequency Scaling e Reconfiguração Dinâmica, de forma a serem utilizadas
para modelar e analisar Redes de Sensores sem Fio formadas por dispositivos reconfiguráveis. Compreendendo também
um avançado mecanismo de monitoramento, ele será capaz de gerar informações que auxiliem o projetista a reduzir o
consumo de energia e aumentar o desempenho do sistema final.
Alisson Brito
Sinais,
Simuladores de
Sistemas
Treinamento usando Digitais e
Jogos
Gráficos
Os simuladores de treinamento têm se tornado cada vez mais populares, apresentando aplicações em diversas áreas,
como na condução de aeronaves, procedimentos médicos, operações militares, operação de máquinas e equipamentos,
etc... Os simuladores de treinamento de procedimentos têm a finalidade de capacitar o usuário na execução/operação de
atividades bem definidas. A ideia deste projeto é contribuir nesta área, há espaço para trabalhos de dissertação em
diferentes temas.
Iguatemi E. Fonseca
http://www.amazon.com/ParallelDistributed-Simulation-Systems2 Computing/dp/0471183830
Entrar em contato com o Prof. Iguatemi
([email protected],
[email protected]) para
obtenção de bibliografia.
Curriculum Lattes: http://lattes.cnpq.
2 br/4519016123693631
Título do Projeto
Linha de
Pesquisa
PROJETO BIOPASS
PESQUISA E
DESENVOLVIMENTO
DE UM SISTEMA
MULTIFATOR E
MULTIBIOMÉTRICO Sinais,
DE IDENTIFICAÇÃO Sistemas
E AUTENTICAÇÃO Digitais e
DE USUÁRIOS
Gráficos
Resumo do projeto
Orientador
A oferta de serviços automatizados é parte fundamental de grande parte das organizações nos dias atuais. Ao
disponibilizar um serviço que exija controle de acesso, as organizações se deparam com o problema de estabelecer uma
associação entre um indivíduo e uma identidade. Atualmente, serviços Web de autenticação baseados em políticas de
senha, mecanismos de criptografia de dados e assinaturas digitais são massivamente utilizados. A metodologia tradicional
de autenticação baseada em políticas de senha permite que qualquer pessoa munida de um login e sua respectiva senha,
tenha acesso a um serviço. Há também serviços biométricos de identificação e autenticação de usuários, considerados, a
princípio, mais seguros, por exigirem a apresentação de uma característica física única e, portanto, a presença do usuário
ao menos no momento da autenticação. O projeto BioPass tem como objetivo o desenvolvimento de uma solução de
segurança da informação, baseada em multibiometria, que seja móvel e funcione exclusivamente na presença do
proprietário, garantindo a irrefutabilidade das transações deste, realizadas via Internet ou outras redes. A principal
inovação do projeto BioPass, desenvolvido em parceria com a empresa VSoft Tecnologia, está na disponibilização do
primeiro serviço público multifator e multibiométrico de autenticação de usuários para transações via Internet do Brasil. O
serviço proposto poderá ser usado não só por instituições financeiras, mas por outras companhias, tais como lojas virtuais
e sites governamentais, e reduzirá a dependência tecnológica do Brasil em relação a outros países. Prevê-se a utilização
de cartão e senha associada a multibiometria por reconhecimento de face, impressão digital, geometria da mão,
impressão palmar e voz-locutor, com segurança ativa, e poderá ser usado por qualquer instituição que tenha a
necessidade de garantir a irrefutabilidade das transações realizadas em nome de seus usuários.
Leonardo Vidal Batista
Vagas
Referências
[1] ABATE, A. F; NAPPI, M.; RICCIO, D.
and SABATINO, G.. 2D and 3D Face
Recognition: A Survey, Pattern
Recognition Letters 28, 2007, pp. 18851906.
[2] BRADSKI, G. R.; KAEHLER, A.
Learning OpenCV: Computer Vision with
the
OpenCV Library. O'Reilly, 2008.
[3] GONZALEZ, R. C.; WOODS, R. R..
Digital Image Processing Using Matlab.
3ed.
Prentice Hall, 2007.
[4] JAIN, A. K.; CHEN, Y. DEMIRKUS,
M. Pores and Ridges: High-Resolution
Fingerprint Matching Using Level 3
Features. IEEE Transactions on Pattern
Analysis
and Machine Intelligence, v.29 n.1, p.1527, January 2007
[5] JIANXIN, W.; BRUBAKER, S.C.;
MULLIN, M.D.; REHG, J.M. Fast
Asymmetric
Learning for Cascade Face Detection.
Pattern Analysis and Machine
Intelligence,
IEEE Transactions on vol.30, no.3, pp.
369-382, March 2008.
[6] KRISHNESWARI, K.; ARUMUGAM,
S. A Review on Palm Print Verification
System. International Journal of
Computer Information Systems and
Industrial Management Applications
(IJCISIM), Vol.2, pp.113-120, 2010.
[7] MATOS, F. M. S. ; BATISTA, L. V. ;
POEL, J. V. D . Face Recognition using
DCT
Coefficients Selection. In: ACM
Symposium on Applied Computing,
2008, Fortaleza.
Proceedings of the 2008 ACM
Symposium on Applied Computing. New
York:
Association for Computing Machinery,
Inc. v. III. p. 1753-1757, 2008.
[8] NEWMAN, R. Security and Access
Control Using Biometric Technologies.
Cengage Learning, 2009.
[9] OMAIA, D.; POEL, J.; BATISTA, L.
V.. 2D-DCT Distance Based Face
Recognition
Using a Reduced Number of
Coefficients. XXIIth Brazilian
Symposium on Computer
Graphics and Image Processing,
SIBGRAPI, 2009.
[10] POLAT, O; Yildirim, T. Hand
geometry identification without feature
extraction by
general regression neural network.
Expert Systems with Applications: An
International Journal, Vol. 34 , Issue 2 ,
pp. 845-849, 2008.
[11] ROBERTS, C. Biometric attack
vectors and defenses, Computers and
Security
Journal, Vol. 26, pp.14-25, 2007.
3 [12] ROSS, A. A., NANDAKUMAR, K.,
JAIN, A. K. Handbook of Multibiometrics.
International Series on Biometrics , Vol.
6, Springer, 2006.
PROJETO BIOPASS
PESQUISA E
DESENVOLVIMENTO
DE UM SISTEMA
Linha de
MULTIFATOR E
Título do Projeto
Pesquisa
MULTIBIOMÉTRICO
Sinais,
DE IDENTIFICAÇÃO Sistemas
E AUTENTICAÇÃO Digitais e
DE USUÁRIOS
Gráficos
Detecção de
contornos em
imagens geradas por
descargas
atmosféricas
Sinais,
Sistemas
Digitais e
Gráficos
ao menos no momento da autenticação. O projeto BioPass tem como objetivo o desenvolvimento de uma solução de
segurança da informação, baseada em multibiometria, que seja móvel e funcione exclusivamente na presença do
proprietário, garantindo a irrefutabilidade das transações deste, realizadas via Internet ou outras redes. A principal
inovação do projeto BioPass, desenvolvido em parceria com a empresa VSoft Tecnologia, está na disponibilização do
primeiro serviço público multifator e multibiométrico de autenticação de usuários para transações via Internet do Brasil. O
serviço proposto poderá ser usado não só por instituições financeiras, mas por outras companhias, tais como lojas virtuais
Resumo do
e sites governamentais, e reduzirá a dependência tecnológica
doprojeto
Brasil em relação a outros países. Prevê-se a utilização
de cartão e senha associada a multibiometria por reconhecimento de face, impressão digital, geometria da mão,
impressão palmar e voz-locutor, com segurança ativa, e poderá ser usado por qualquer instituição que tenha a
necessidade de garantir a irrefutabilidade das transações realizadas em nome de seus usuários.
O projeto é baseado no desenvolvimento de software (aplicativo) para detecção automatizada de bordas em imagens
geradas por descargas. O programa deverá ser capaz de capturar um imagem a partir das originais registradas nos
sensores, segmentar a região de interesse (circular ou retangular) automaticamente, calcular o diâmetro do circulo ou a
área do retângulo e correlacionar com a tensão da descarga elétrica pré-determinada. A motivação deste trabalho se
concentra na necessidade em se determinar em campo o valor da descarga elétrica, que é encontrada nos sensores sem
a necessidade de um pós-processamento.
Orientador
Leonardo Vidal Batista
Hou, Z. J. and G. W. Wei, A new
approach to edge detection, Pattern
Recognition, vol. 35, pp. 1559-1570,
2002
Ruy A. P. Altafim e Iguatemi Fonseca
Visualização científica é a área da computação gráfica que procura atribuir representações visuais a elementos que não
são normalmente visíveis, tornando prática a análise e a investigação de grandes volumes de dados. Este é o caso,
por exemplo, da visualização de simulações de Dinâmica de Fluído Computacional (DFC), onde se analisam a formação
de vórtices ou de ondas de choque ao redor de obstáculos, ou de dados obtidos através de sensores tais como a
ressonância magnética e a tomografia, onde procura-se analisar a formação de tumores ou lesões.
Entretanto, o esforço computacional geralmente exigido no processo de visualização
faz com que a interatividade, essencial ao processo de investigação, fique as vezes comprometida. Como forma de tornar
interativos, ou de enriquecer a experiência envolvida nos processos de visualização, o paralelismo massivo encontrado
nas placas gráficas (Graphics Processing Units, ou GPUs) atuais começou a ser explorado. Além de permitir a
interatividade em algumas modalidades de visualização, o uso das GPUs permitiu que novos métodos de visualização
pudessem ser desenvolvidos.
O uso de GPUs no
Desenvolvimento de
Técnicas de
Visualização
Robustas e
Interativas
Sinais,
Sistemas
Digitais e
Gráficos
Sinais,
Compressão de
Sistemas
Vídeos para Cinema Digitais e
Digital
Gráficos
International Journal, Vol. 34 , Issue 2 ,
pp. 845-849, 2008.
[11] ROBERTS, C. Biometric attack
vectors and defenses, Computers and
Security
Journal, Vol. 26, pp.14-25, 2007.
Vagas [12] ROSS, A. Referências
A., NANDAKUMAR, K.,
JAIN, A. K. Handbook of Multibiometrics.
International Series on Biometrics , Vol.
3 6, Springer, 2006.
Canny J. A. A computational approach
for edge detection, IEEE transactions on
pattern analysis and machine
intelligence, vol. 8, issue 6, pp. 679-698,
1986
Este projeto visa o estudo e a exploração das GPUs como ferramentas de suporte ao
desenvolvimento de técnicas robustas e interativas de visualização. Por "interativa" entende-se a capacidade da técnica de
visualização de rebecer parâmetros do usuário e adaptar, de forma instantânea, os seus resultados de acordo com tais
parâmetros. A robustes significa a capacidade do método de apresentar visualizações cujos erros estejam dentro de
limites pré-estabelecidos. Espera-se que as técnicas de visualização desenvolvidas ao longo deste projeto auxiliem
engenheiros, cientistas e estudantes a entenderem melhor os fenômenos que estudam, tendo assim maior embasamento
para futuras tomadas de decisão.
Christian Azambuja Pagot
Os avanços tecnológicos dos últimos anos têm permitido a produção e exibição de vídeos digitais com qualidade
equivalente a que pode ser alcançada com os filmes de 35 mm, que eram utilizados na maior parte das salas de cinema
até recentemente. A expectativa para os próximos anos é de que projetores com resoluções superiores a 4K pixels na
dimensão horizontal comecem a ganhar espaço. Embora com preços ainda muito elevados, aparelhos domésticos com
resolução de 4K já começaram a ser comercializados. Com o barateamento da produção em massa de dispositivos
geradores de conteúdo digital e a possibilidade de conectar tais dispositivos a infraestruturas de transmissão de dados, a
demanda por informação audiovisual cresce continuamente. Esse crescimento exige das redes de transmissão maior
velocidade e dos dispositivos de armazenamento maior capacidade e rapidez. Para reduzir custos com banda de
transmissão e espaço nos meios de armazenamento, as informações digitais são submetidas a processamentos que
resultam num volume de dados mais compacto que o original. Existem algoritmos de uso difundido que foram elaborados
para tratar exclusivamente áudio ou vídeo. Tais algoritmos obtêm em geral melhor resultado que algoritmos para
compressão de conteúdo genérico, porque exploram a suposição de que o conteúdo sendo processado apresenta certas
características. Compressores de vídeos 3D, por exemplo, buscam por redundâncias que podem existir entre as duas
visões que compõem um único quadro numa dada posição temporal de um vídeo. Quando se trata de áudio ou vídeo,
pode ser tolerável a perda de informações durante o processo de compressão. A tolerância à perda depende do contexto.
Para o contexto de cinema, existem compressores que descartam informações que em geral não são captadas pelo olho
humano. Podem ser citados como compressores com perda aqueles que seguem os padrões JPEG2000 e H.264. Existem
também os compressores de vídeo que não descartam qualquer informação. Os que utilizam o Golomb-Rice são exemplos
de compressores sem perda. Este projeto tem como objetivo trazer contribuições no âmbito do cinema digital no que diz
respeito à compressão de vídeos. As atividades do projeto incluirão: fazer um comparativo de desempenho dos algoritmos
de compressão de vídeo existentes com o intuito de identificar os mais adequados nos vários contextos relacionados com
cinema digital; estudar os fundamentos científicos que embasam os algoritmos de compressão; realizar adaptações e
propor inovações que permitam melhorar o desempenho dos compressores de vídeo quanto à razão de compressão e
tempo de processamento.
Leonardo Vidal Batista
Para maiores detalhes entre em contato
com Ruy A. P. Altafim pelo email
1 [email protected]
• Real-Time Volume Graphics.Klaus
Engel, Markus Hadwiger, Joe M. Kniss,
Christof Rezk-Salama, Daniel Weiskopf.
2006.
• GPU-Based Interactive Visualization
Techniques. Daniel Weiskopf. 2007.
• Visualization Handbook. Charles D.
Hansen and Chris R. Johnson. 2004.
• CUDA C Programming Guide, NVIDIA.
• CUDA C Best Practices Guide,
NVIDIA.
• Programming Massively Parallel
Processors: A Hands-on Approach.
David B. Kirk
and Wen-mei W. Hwu. Morgan
2 Kaufmann 2010.
[1]B. Shi, L. Liu, and C. Xu, “Comparison
between jpeg2000 and h.264 for digital
cinema,” in Multimedia and Expo, 2008
IEEE International Conference on, 23
2008-april 26 2008, pp. 725 –728.
[2]T. Fujii, K. Shirakawa, D. Shirai, Y.
Tonomura, and M. Kitamura, “Digital
cinema over optical network - status of
super hd development -,” in Optical
Fiber Communication Conference and
Exposition (OFC/NFOEC), 2011 and the
National Fiber Optic Engineers
Conference, march 2011, pp. 1
[3]H. Kalva, “The h.264 video coding
standard,” Multimedia, IEEE, vol. 13, no.
4, pp. 86 –90, oct.-dec. 2006.
[4]E. Martinian, A. Behrens, Jun Xin, A.
Vetro, Huifang Sun, "Extensions of H.
264/AVC for Multiview Video
Compression".
[5] Shannon, Claude E. (July/October
1948). "A Mathematical Theory of
Communication". Bell System Technical
Journal 27 (3): 379–423.
[6] Salomon, D. "Data Compression:
The Complete Reference". Springer; 3rd
3 edition (February 26, 2004)
Título do Projeto
Linha de
Pesquisa
Resumo do projeto
Orientador
As redes de sensores sem fio (RSSF) são classificadas como a terceira onda da computação, pois possuem a capacidade
de monitorar, processar, transmitir informações.
Redes de sensores sem fio é o termo utilizado para classificar dispositivos dotados da capacidade de processamento e
comunicação que se auto-organizam em redes do tipo ad hoc estáticas. Apesar dos nós serem estáticos a topologia de
rede das RSSFs é dinâmica.
Sistema para
automação de posto
de combustível
usando Rede de
Sensores Sem Fio e
o conjunto de
especificações
ZigBee
O termo ZigBee designa um conjunto de especificações para a comunicação sem-fio entre dispositivos eletrônicos, com
ênfase na baixa potência de operação, na baixa taxa de transmissão de dados e no baixo custo de implantação.
Sinais,
Sistemas
Digitais e
Gráficos
Tal conjunto de especificações define camadas do modelo OSI subsequentes àquelas estabelecidas pelo padrão IEEE
802.15.4.
O projeto de pesquisa em questão tem como objetivo geral a especificação e implementação de um sistema de automação
para postos de combustível utilizando Rede de Sensores Sem Fio e o conjunto de especificações ZigBee.
José Antonio Gomes de Lima
TOTAL DE VAGAS (Sinais)
TOTAL DE VAGAS
Vagas
Referências
S. Dulman, S. Chattterjea, P. Havinga.
Introduction to wireless sensor network,
Embeded systems Handbook, p. 31.1 –
31.10, 2006.
R. Musunuri, S. Gandham, M.D. Patel.
Issues and solutions in wireless sensor
network, Embeded systems Handbook,
p. 32.1 – 32.17, 2006.
ftp://ftp.inf.ufrgs.br/pub/...
/IntroducaoaRedesdeSensoressemFio.
pdf
http://www.sensornet.dcc.ufmg.
br/disciplina/seminarios/RSSF_Industria.
1 pdf
17
49