Anais VII Seminário Fluminense de Engenharia

Transcrição

Anais VII Seminário Fluminense de Engenharia
MANOEL ISIDRO DE MIRANDA NETO
VII SEMINÁRIO FLUMINENSE DE ENGENHARIA
Niterói
Editora da Universidade Federal Fluminense
2011
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
S471 Seminário Fluminense de Engenharia (7.: 2011 : Niterói, RJ)
VII Seminário Fluminense de Engenharia / editor Manoel Isidro de
Miranda Neto – Niterói : Escola de Engenharia da Universidade Federal
Fluminense, 2011.
270p.:il.
1 CD
ISBN 978-85-228-0698-0
1. Engenharia – Pesquisa - Congressos. I. Escola de Engenharia da
Universidade Federal Fluminense. II. Miranda Neto, M. I. III. Título.
CDD 620.0072
2
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Sumário
Prefácio .........................................................................................................................7
A comunicação como fator preponderante para o novo perfil do engenheiro ................8
Bárbara Marques Bianchini, Daylon Philippe Freitas e Fraga, João Carlos Reis Curvello, Johnny
David Simões Madeira, Otávio Cordeiro Campos, Maria Elizabete Villela Santiago, Renata dos
Santos Mendes.
A Escola de Engenharia da Universidade Federal Fluminense na perspectiva de uma
universidade inovadora ...............................................................................................14
Jeaninne de Campos Rennó, Sérgio Luiz Braga França, José Rodrigues de Farias Filho.
A gestão do conhecimento na administração pública municipal: um estudo preliminar em
secretarias de administração da região noroeste fluminense ......................................23
Walber Dias Arruda.
A importância do artigo científico na engenharia: linguagem e normalização ..............29
Aline Oliveira Rosa, Beatriz de Oliveira Ávila, Breno Augusto Silva Carvalho, Hana Camila
Gomes Silva, Isabella Ribeiro Martins, Juliana Santos Moura, Luciana Duarte Oliveira, Romulo
Duarte dos Santos, Thaísa Andrade Kelles, Maria Elizabete Villela Santiago, Renata dos
Santos Mendes.
A legislação de saúde e segurança no trabalho aplicável aos servidores públicos das
universidades federais brasileiras ...............................................................................35
Celso Lima Bitencourt, Hilda Alevato.
Ajuste de modelo de cobertura na faixa de 3,5 GHz para a orla de Icaraí ...................41
Fabiano Carvalho dos Santos Assumpção, Felippe José Soares dos Santos, Leni Joaquim de
Matos.
Análise da influência das cores na emissividade de superfícies no espectro do infravermelho
....................................................................................................................................46
Selson Carias Gomes Júnior, Guilherme Gonçalves Dias Teixeira, Roberto Márcio de Andrade,
Rafael Augusto Magalhães Ferreira, Henrique Eduardo Pinto Diniz.
Análise de desempenho de catalisadores de cobalto e cobre, suportados em sílica na
decomposição de metano ...........................................................................................53
Natália M. Esteves, André M. R. Souza, Lília F. C. Souza, Rosenir R. C. M. Silva, Fabio B.
Passos.
Análise de fatores que contribuem para a redução no índice de evasão .....................59
Neuci Nobrega Canelas Costa Guimarães, Fernando B. Mainier, Rosenir Rita de Cássia
Moreira da Silva.
Aperfeiçoamento da técnica de parâmetros concentrados para escoamentos em
desenvolvimento térmico .............................................................................................67
Leandro Santos de Barros.
3
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Aplicação de redes neurais artificiais no diagnóstico de falhas em transformadores de
potência ......................................................................................................................78
Caio Monteiro Leocádio, Vitor Hugo Ferreira.
Avaliação da cinética de secagem da polpa e casca da banana para a velocidade de 2m.s-1
....................................................................................................................................84
Luciana P. Teixeira; José G. da Silva; Ednilton T. de Andrade; Angelo José L. Braz.
Avaliação da cinética de secagem da polpa e casca da banana para a velocidade de 3m.s-1
....................................................................................................................................89
Ednilton T. de Andrade; José G. da Silva; Luciana P. Teixeira; Angelo José L. Braz.
Avaliação da resistência à corrosão de anéis de aço ASTM A-36 para junção metálica de
estacas de concreto para utilização submarina ...........................................................94
R. S. P. Domingos, J. M. Pardal, S. S. M. Tavares, A. B. Salles, R. R. Pinheiro, F. B. Mainier,
M. L. O. Medrano.
Avaliação dos processos de soldagem TIG e MIG em estruturas de alumínio 6082 T6 NBR
6834 .......................................................................................................................... 104
Ednilson Antonio Ribeiro Pimenta, Ronaldo Shiguemi Fujisawa, Ailton Roberto da Conceição.
Desastres industriais: um alerta aos cursos de engenharia ....................................... 115
Fernando B. Mainier, Sabrina de Azevedo Faria, Matheus R. M. Signorelli, Marcus V. S. Silva,
Carlos V. M. Inocêncio, Rafaela L. Santos de Souza.
Determinação da velocidade terminal dos grãos de pinhão-manso ........................... 121
Ednilton T. de Andrade, Jacqueline M. Brasil, Luciana P. Teixeira, Angelo José L. Braz, Neila S.
Freixo, Patrícia M. de Araujo.
Determinação das propriedades físicas dos grãos de pinhão-manso ........................ 126
Ednilton T. de Andrade, Jacqueline M. Brasil, Luciana P. Teixeira, Angelo José L. Braz, Neila
S. Freixo, Patrícia M. de Araujo.
Emprego catalítico do ouro e sua aplicação na oxidação seletiva de CO .................. 133
Luís Eduardo Terra, Fábio Barbosa Passos.
Energia limpa: a energia solar no aquecimento de água ........................................... 142
João Carlos Curty Alves, Fernando B. Mainier, Reinaldo C. de Souza, Henrique Henriques.
Engenharia química e mercado de trabalho: percepções discentes .......................... 148
2
3
Vicentina Lúcia da S. Cardoso, Fernando B. Mainier, Rosenir R. C. M. da Silva.
Estado da arte de redes ópticas passivas ................................................................. 155
Leandro Codeço de Alvarenga Prazeres, Paula Brandão Harboe, José Rodolfo Souza.
Estado da arte dos sistemas de controle de tráfego aéreo por radiodifusão .............. 161
Leonardo da Silva Paiva.
Estimação de parâmetros elétricos de motores de indução trifásicos utilizando algoritmos
genéticos ................................................................................................................... 167
Alex Palma Francisco Coelho, Vitor Hugo Ferreira e Márcio Zamboti Fortes.
Fortaleza fora dos trilhos ........................................................................................... 173
Juscelino Chaves Sales, Clint Walton Siebra.
4
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Fotobiorreatores para processamento de microalgas ................................................ 183
Alexsandro Bona, Daniel Machado Thomaz, Felipe Cardoso Chicralla, Fernando Maia
de Magalhães Senna, Fabio Barboza Passos.
Interdisciplinaridade na Universidade Federal Fluminense: possibilidades de desenho
industrial e engenharia .............................................................................................. 188
João Carlos Lutz Barbosa, Regina Celia de Souza Pereira.
Métodos de controle de odor em estações de tratamento de efluentes ..................... 193
Caldas Priscila Furghieri Bylaardt, Fernandes Lisiane Heinen.
Monitor de potência óptica para uso permanente num enlace de comunicação por fibra
óptica ........................................................................................................................ 199
Taiane Alvarenga Menandro Garcia de Freitas, Ricardo Marques Ribeiro, Paulo Sérgio
Travassos do Carmo Cyrillo, Andrés Pablo López Barbero, Odair da Silva Xavier, Wagner da
Silva Zanco.
O design e o emprego de materiais alternativos: uma abordagem na indústria de confecção
.................................................................................................................................. 203
Luiza Helena Boueri Rebello.
O impacto da introdução da portabilidade numérica sobre o churn das operadoras de
telefonia móvel brasileiras ......................................................................................... 210
Gustavo de Castro Brantes, Sandra Regina Holanda Mariano.
O plano nacional de banda larga e suas metas ......................................................... 215
Luiz Fernando Taboada.
Padrões de consumo de água: análise da influência de características das edificações
multifamiliares no dimensionamento de seus reservatórios ....................................... 221
Jeferson Luiz Schmidt, Dieter Wartchow, Carin Maria Schmitt.
Predição de cobertura de sistemas worldwide interoperability microwave access (WiMAX)
.................................................................................................................................. 227
Matheus Bernardes de Moura, Leni Joaquim de Matos.
Projeto conceitual de rede para captura e sequestro de carbono no Estado do Rio de Janeiro
.................................................................................................................................. 233
Tiago Machado de Souza Jacques.
Proposta de síntese de circuitos reversíveis .............................................................. 243
Roberto Sampaio, Luis Antonio Kowada, Andre da Cunha Ribeiro.
Saneamento rural: uma visão segundo o panorama do saneamento básico no Brasil 249
Anna Virgínia Muniz Machado, Ana Carolina Mendes Guedes, Andressa de Azevedo Souza,
Lennon Queiroz, Ricardo Franklin Pineda Britto.
Síntese e análise faixa estreita do sinal rádio móvel: aplicação a ambiente de vegetação
.................................................................................................................................. 254
Fabio Mainart da Silva, Renan Luiz Pereira, Rener Camara Lima Nogueira, Leni Joaquim de
Matos.
Telemedicina no contexto brasileiro: avaliações e resultados.................................... 260
Leonardo Severo Alves de Melo, Alessandro Severo Alves de Melo, Julio Cesar Dal
Bello, Eduardo Rodrigues Vale.
5
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Visão crítica da remoção ultrassônica aplicado a efluentes industriais ...................... 265
Antonio Carlos Moreira da Rocha, Fernando B. Mainier, Carlos Henrique Figueiredo Alves.
6
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Prefácio
A engenharia é uma ciência e também uma arte. Para alguns é mais uma arte que
uma ciência. Embora o termo engenharia seja recente, desde a antiguidade o conceito da
engenharia estava associado às invenções fundamentais, aos princípios básicos da
mecânica e ao desenvolvimento de ferramentas. A etimologia do termo engenharia está
ligada ao engenho e a genialidade.
A abordagem científica das atividades e dos processos que envolvem a engenharia
iniciou há poucos séculos com o estudo e compreensão de fenômenos físicos, químicos,
climáticos e biológicos. Mais recentemente, outros conhecimentos de natureza econômica,
social e ambiental foram sendo incorporados ao exercício da engenharia. O que parecia ser
apenas arte, o gênio de fabricar ferramentas, inventar mecanismos e edificar, foi sendo
aperfeiçoado com o progressivo conhecimento.
Existe uma técnica básica entre conceber e executar que alia o espírito da
concepção com a ciência da materialização do engenho. A concepção não é apenas arte,
requer alguma técnica, e a execução não é apenas um processo técnico, exige muitas
vezes criatividade. Hoje, praticar engenharia é trabalhar com conhecimentos de diversas
áreas. Com o desenvolvimento das técnicas de disseminação da informação, esse
conhecimento começa a ficar ao alcance de todos. A engenharia está cada vez mais
interdisciplinar e difusa.
O Seminário Fluminense de Engenharia tem o propósito de contribuir com a
disseminação do conhecimento da engenharia. Embora a maioria dos trabalhos reunidos
seja de origem ou natureza acadêmica, nosso seminário não está restrito a apenas o
ambiente da academia. Nessa sétima edição do seminário temos trabalhos de
universidades, institutos e empresas de diversos estados do Brasil envolvendo as áreas de
engenharia agrícola, civil, elétrica, mecânica, meio ambiente, produção, química,
telecomunicações, desenho industrial e administração escolar. Essa diversidade de origens
contribui para que o seminário obtenha um caráter nacional.
A presente publicação constitui os anais do VII Seminário Fluminense de
Engenharia, com os trabalhos apresentados pelos respectivos autores, nas áreas
mencionadas. Esses trabalhos estão organizados por ordem alfabética dos títulos,
independente das áreas de interesse. Espera-se que proporcionem contribuição ao
conhecimento e a evolução da engenharia no limiar deste novo século.
Convém lembrar que a responsabilidade e o mérito de cada um dos trabalhos aqui
publicados compete aos autores dos respectivos artigos.
Agradecimentos à Direção da Escola de Engenharia por ter proporcionado os meios
para a realização desse seminário, aos autores pela apresentação de trabalhos e ao corpo
técnico pela revisão efetuada.
Niterói, em 19 de outubro de 2011.
Manoel Isidro de Miranda Neto, Editor.
7
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
A comunicação como fator preponderante para o novo
perfil do engenheiro
1
1
1
1
Bárbara Marques Bianchini, Daylon Philippe Freitas e Fraga, João Carlos Reis Curvello, Johnny
1
2
2
David Simões Madeira, Otávio Cordeiro Campos, Maria Elizabete Villela Santiago, Renata dos
Santos Mendes
1
Universidade Federal de Itajubá - campus Itabira (Unifei - Itabira)
Itabira, MG, Brasil
2
Coautoras; Universidade Federal de Itajubá – campus Itabira (Unifei – Itabira)
Itabira, MG, Brasil
[email protected], [email protected], [email protected],
[email protected], [email protected], [email protected],
[email protected]
RESUMO
O objetivo deste artigo é discutir a necessidade de a língua portuguesa atuar como subsídio
para aprimoramento do novo perfil do engenheiro. O uso correto da comunicação tem sido
um dos principais fatores para satisfazer as demandas do mercado atual. Apresentam-se,
ainda, algumas mudanças ocorridas com esses profissionais, decorrentes de alterações
organizacionais na sociedade de maneira geral. O estudo em questão foi realizado por meio
de pesquisa bibliográfica e aborda, em suas seções, os seguintes tópicos: o engenheiro
como responsável pelo desenvolvimento da sociedade e o uso da linguagem no ambiente
profissional do engenheiro. Conclui-se que, atualmente, não se visa apenas ao profissional
com conhecimentos técnicos, mas que saiba argumentar sobre questões de âmbitos social,
econômico, ambiental e até político. O engenheiro, por sua vez, deve-se preocupar com
questões políticas, econômicas e, acima de tudo, com a responsabilidade social, tornando
compreensíveis as suas considerações. E, por fim, que tenha domínio do processo de
comunicação como meio para aprimoramento do novo perfil do engenheiro de que a
sociedade necessita.
Palavras-Chave: Perfil. Engenheiro. Comunicação. Atualidade.
1. INTRODUÇÃO
A sociedade passa por constantes transformações e, em virtude disso, cada
indivíduo tem de se adaptar aos novos padrões. Paralelamente, é perceptível que o perfil
profissional vem sofrendo grandes mudanças, exigindo proatividade, preocupação com a
empresa e a comunidade, em detrimento à pura aplicabilidade de conhecimentos técnicos.
Consequentemente ocorre a necessidade de se questionar frequentemente quais as
expectativas do mercado de trabalho, ou seja, o que as empresas, ou mesmo a
comunidade, esperam dos profissionais.
Este artigo aborda a importância atual de dominar a língua e a linguagem para se
atingir essas expectativas bem como analisa os impactos das alterações sociais, políticas e
econômicas no papel do engenheiro, até o período atual, marcado pela grande revolução
tecnológica que estabeleceu um marco divisor na vida de tantos, senão todos profissionais,
entre eles o engenheiro, com a imensa disseminação da comunicação em amplitude global.
Essa abordagem se justifica pelo fato de muitas vezes os profissionais das áreas
exatas não se preocuparem com o domínio da língua e, portanto, estarem mais vulneráveis
às falhas na comunicação, sejam internas ou externas.
2. O ENGENHEIRO E A SOCIEDADE
8
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
A sociedade passou por diversas transformações até atingir o nível de
desenvolvimento e complexidade atual. Isso só foi possível devido ao fato de o ser humano
ser um animal racional, dotado com a habilidade de modificar o meio em que vive ao seu
favor. Durante esse processo de transformação, alguns fatos são marcantes, podendo ser
encarados como avanços tecnológicos, pois demonstram um avanço na técnica dominada
pelos seres humanos até aquele momento.
Avanços tecnológicos que possibilitaram a evolução da sociedade ao longo do tempo
são: o controle do fogo, o domínio da técnica de fundição dos metais e polimento de pedras,
a domesticação de animais, novas técnicas de agricultura, descobrimento da roda e
alavanca, a imprensa e mais recentemente avanços na área da robótica, por exemplo.
Entretanto, isso só foi possível devido ao surgimento de um profissional que se
preocupa com o seu aprimoramento e com o desenvolvimento de técnicas (BAZZO;
PEREIRA, 2008). Ainda, segundo os autores, na história recente da sociedade, esse
desenvolvimento se deve a um novo tipo de intelectual que possui base educacional técnica
e íntima relação com o desenvolvimento tecnológico: o engenheiro.
Assim, pode-se perceber que a evolução da humanidade também é possível porque
a sociedade se altera por influência dos indivíduos que nela vivem, pois estes são capazes
de interagir com ela e modificá-la. Ao mesmo tempo, a sociedade obriga esses indivíduos
que nela vivem a modificar-se, para que estes possam atender as novas demandas
impostas pela sociedade que eles mesmos modificaram, estabelecendo-se um ciclo: um
processo dinâmico em que os indivíduos transformam a sociedade e esta, por sua vez, o
transforma, estando todos em constante evolução. Diante disso, pode-se dizer que, assim
como outros profissionais, o engenheiro contribui, em grande parcela, com o
desenvolvimento da sociedade.
2.1. O PAPEL DO ENGENHEIRO INFLUENCIADO PELAS MUDANÇAS NA SOCIEDADE
A cada mudança ocorrida na sociedade, o papel dos indivíduos que a compõem se
modifica, não sendo diferente para os engenheiros. Inicialmente este atuava de forma
sistêmica e empírica, mas, com a chegada da Revolução Industrial, os conhecimentos
científicos passaram a fazer parte da atuação deste profissional.
Uma nova política de formação de engenheiros foi gerada pela expansão industrial,
admitindo-se uma diversidade de especializações nessa profissão, fragilizando a prática de
um conhecimento mais generalista. Evidência disso está na intensificação e
aprofundamento da ideia de uma ciência aplicada aos problemas concretos a partir da
década de 30. (LAUDARES; RIBEIRO, 2000).
Com o advento da terceira revolução industrial, mais mudanças ocorreram, porém
estas foram marcadas principalmente pelo grande avanço da indústria de informática e da
microeletrônica e consequentemente da comunicação, em escala global. Percebe-se, a
partir daí, o surgimento de uma nova ordem mundial que afetou diretamente o engenheiro
devido ao desdobramento da cadeia produtiva e à forte tendência de terceirização de
serviços. Isso resultou na eliminação e na criação de muitas hierarquias intermediárias, além
de relacionamentos, o que, consequentemente, afetou vários trabalhadores, dentre eles os
engenheiros.
Uma dessas conseqüências é o aumento das exigências e tarefas do profissional da
engenharia, já que o mercado de trabalho passou a demandar atividades mais diversificadas
deste, a saber: domínio de informações tecnológicas, conhecimentos de informática,
administração, capacidade de inovação, domínio de diversas línguas, capacidade de
comunicação e atualização contínua, além de conhecimentos de coordenação de atividades
terceirizadas e avaliação de trabalhos em geral.
A microeletrônica, a informática e a robótica, ao mesmo tempo em que auxiliam o
trabalho dos engenheiros, exigem destes uma maior qualificação. Isso se agrava com a
9
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
rápida evolução da tecnologia e disseminação do conhecimento, ocasionados pela
globalização, pois a tecnologia torna-se obsoleta em intervalos de tempo cada vez menores,
exigindo que os profissionais de engenharia busquem por atualizações de forma ainda mais
frequente.
Portanto, para corroborar com essa atuação exigida pela sociedade, o engenheiro
deve se capacitar constantemente, tendo em vista que a formação inicial dos novos
profissionais deve compreender uma pluralidade de aspectos não simplesmente técnicos,
como antes, mas também relacionados com os âmbitos social, econômico e político.
2.2. INTERFERÊNCIAS NO PERFIL DO ENGENHEIRO
A globalização e a nova ordem econômica vigente passaram a exigir do profissional
da engenharia uma maior pluralidade e versatilidade dentro da empresa; diante disso, é
lógico pensar que ele necessita incorporar ao seu perfil profissional habilidades antes não
consideradas.
O engenheiro, ao longo do tempo, passou a ser idealizado pela sociedade como um
profissional hábil a conviver com mudanças e, principalmente, comprometido e capacitado
para atuar de forma efetiva no seu desenvolvimento. Com isso, ele adquire, junto ao
mercado de trabalho, uma posição vista como indispensável para o crescimento social.
Entretanto, com as mudanças ocorridas nos setores socioeconômicos, tanto as
organizações quanto os profissionais que nelas trabalham veem-se obrigados a se
adequarem ao novo cenário. Assim, a sociedade passou a exigir do engenheiro não
somente um comprometimento com o desenvolvimento desta, mas um desenvolvimento
responsável, levando-se em consideração impactos ambientais, sociais, econômicos e
políticos. Como consequência, os empregadores passaram a exigir do engenheiro a
capacidade de comunicar à sociedade como seu trabalho está sendo desenvolvido,
considerando-se os impactos ocasionados e a minimização destes. São qualidades
desejáveis para esse profissional: possuir e empregar os conhecimentos objetivos, conhecer
as relações humanas, realizar experiências, saber comunicar-se (por escrito e oralmente),
trabalhar em equipe, buscar o aperfeiçoamento contínuo e ter ética profissional (BAZZO;
PEREIRA, 2008).
Atualmente, é prática corriqueira do engenheiro emitir laudos técnicos bem como ter
um conhecimento generalizado sobre todas as áreas da empresa, especialmente finanças,
marketing e relações profissionais, sendo ainda mais importante que ele tome conhecimento
da necessidade de uma educação continuada, ou seja, que ele procure aprimorar-se de
forma independente de instituições.
Essa pluralidade exigida do engenheiro baseia-se em suas múltiplas tarefas. Liderar
um grupo de pessoas, estabelecer contato com um cliente, emitir relatórios e ministrar
palestras são exemplos de suas atribuições. Antigamente, a maioria dessas tarefas não
cabia aos engenheiros, mas cada vez mais esses profissionais se veem trabalhando de
forma multidisciplinar.
O perfil de um engenheiro que, geralmente, é esperado pelas empresas segue
alguns parâmetros, a saber: capacidade de trabalhar em equipe, ter ética, saber aplicar o
conhecimento técnico da área, administrar mudanças, ser líder, saber negociar, administrar
situações estressantes, saber decidir, empreender, trabalhar em equipe, comunicar-se
(inclusive na língua inglesa) e dominar a informática (NOSE; REBELATTO, 2001).
É destacado, ainda, que, além desses parâmetros, a sociedade, de uma forma geral,
espera que os engenheiros estejam conscientes do seu papel e dos impactos que seu
trabalho acarreta ao meio ambiente, estando aptos para minimizá-los, por meio da
responsabilidade social (NOSE; REBELATTO, 2001), cuja noção engloba os benefícios que
as empresas devem proporcionar à sociedade, a realização profissional dos empregados, a
promoção de benefícios aos parceiros, a preservação do meio ambiente e o retorno aos
10
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
investidores, de forma clara e transparente quanto aos objetivos e compromissos éticos da
empresa (INSTITUTO ETHOS, 2007).
Portanto, pode-se perceber que o engenheiro possui atribuições mais diversificadas,
sendo necessário que esse profissional desenvolva a capacidade de perceber quais são as
novas exigências impostas sobre ele e procure incorporá-las ao seu perfil.
3. A LÍNGUA E A LINGUAGEM NA SOCIEDADE
A língua tem a função de socializar as pessoas, transmitindo as mensagens de forma
que os interlocutores entendam o que estejam compartilhando, ou seja, desenvolvam um
processo interlocutório. Ela proporciona a interação entre o indivíduo e o mundo real
(MILANI, 2008), além de ter o papel primordial de auxiliar a formação do pensamento.
Dessa forma, pode-se considerar que a comunicação será eficaz a partir do
momento em que o indivíduo conseguir se expressar, seja pela linguagem escrita, oral,
multimodal (uso de imagens associado ou não à linguagem verbal) ou de sinais, no caso
dos deficientes auditivos. Sendo a língua, em qualquer forma, a instância que permite
estruturar o pensamento, pode-se dizer que o indivíduo que melhor se comunica é o que
possui o maior domínio dela e consegue aplicá-la de forma mais eficaz. Logo, o homem,
para se comunicar e interagir com o meio em que vive, deve ter domínio da linguagem
(verbal e não-verbal), que seria utilizar os elementos da língua como meio de comunicação.
Pode-se dizer, pois, que é intrínseco do ser humano a capacidade e, especialmente,
a necessidade de se comunicar. Logo, a criação da língua - signo e significantes - ocorreu
como uma forma de viabilizar esta necessidade.
3.1. A LÍNGUA E A LINGUAGEM COMO FERRAMENTA PARA ATINGIR O PERFIL DO
ENGENHEIRO ATUAL
Hoje, apesar de existirem muitas formas de obter informações e conhecimentos, nem
sempre as pessoas comunicam-se efetivamente; existe grande diferença entre comunicação
e informação. Numa empresa isso não é diferente. Muitas informações são produzidas e
causam impacto na vida dos funcionários, mas nem sempre geram mudanças de atitudes,
ou ainda, causam confusão porque não foram divulgadas da forma adequada. Outras
informações sequer chegam aos verdadeiros destinatários porque um gestor não identificou
a essência comunicativa de determinado fato. Nesse contexto, percebe-se o valor da
comunicação interna numa organização.
Por comunicação interna entendem-se as interações, os processos de trocas, os
relacionamentos dentro de uma empresa ou instituição, responsáveis por fazer circular as
informações e conhecimentos, sejam verticalmente - da direção para os níveis subordinados
- ou horizontalmente - entre os empregados de mesmo nível de subordinação. Esse tipo de
comunicação é próprio da área empresarial, a qual faz uso da linguagem técnica com
características próprias, dentre as quais se destaca a comunicação objetiva, cuja
padronização valida o trabalho do redator, que faz uso da norma culta, apresentando
clareza, correção e adequação do vocabulário à área de atuação (NADÓLSKIS, 2010).
Analisando-se a importância da comunicação para o funcionamento de um
empreendimento, é lógico pensar que os empregadores tenham preferências por
profissionais que estejam aptos a se comunicarem de forma eficaz, seja na modalidade
escrita ou oral.
Levando-se em consideração a discussão feita sobre língua e linguagem, pode-se
dizer que neste novo mercado de trabalho, cujas mudanças ocorrem de forma rápida e
integrada, os profissionais que saem na frente são os que possuem a capacidade de
assimilar novas informações de maneira rápida e eficiente e transmiti-las de forma
satisfatória, contribuindo para a modernização e desenvolvimento da empresa. Na verdade,
11
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
o profissional eficiente aplica seus conhecimentos, pesquisa constantemente e expressa
eficazmente as ideias e resultados do seu trabalho (BAZZO; PEREIRA, 2008).
Logo, expressar-se, de forma segura e clara, é ferramenta, hoje, indispensável às
qualificações de um engenheiro. Na verdade, esse profissional atua diretamente no
desenvolvimento tecnológico das empresas em que trabalha, sendo responsável por
transmitir as novidades aos demais trabalhadores e incorporá-las ao sistema produtivo.
Considerando o perfil mencionado, percebe-se que não é apenas na comunicação
interna que o engenheiro deve dominar a língua e a linguagem. Cada vez mais os
engenheiros devem estar aptos para fazer negociações e empreender (NOSE;
REBELATTO, 2001). Assim sendo, esse profissional deve sair da universidade com a
capacidade de desenvolver um raciocínio lógico de forma ordenada e clara, e, então,
transmitir este raciocínio para o papel ou socializá-lo de forma que suas ideias
empreendedoras sejam bem compreendidas e executadas. Deve, ainda, ser capaz de expor
o seu ponto de vista a fim de realizar negociações e, neste contexto, precisa ser capaz de
usar a língua como um instrumento para compreender a proposta do outro e articular
respostas.
4. CONSIDERAÇÕES FINAIS
Desde o início, este texto objetivou apresentar, de forma sucinta, as mudanças
ocorridas na sociedade, bem como suas influências, para que um novo perfil do engenheiro
fosse traçado e como a aplicação da língua e linguagem contribui para alcançar este perfil.
Pretendeu-se, também, mostrar que as novas habilidades exigidas pela sociedade e
empregadores são quesitos para se manter no mercado de trabalho que se encontra cada
vez mais dinâmico e exigente, cuja discussão se mostra de fundamental importância para a
carreira dos engenheiros.
Para os acadêmicos que pretendem se tornar engenheiros, é primordial que o uso da
linguagem seja bem desenvolvido e assimilado, no intuito de que estes, durante a vida
acadêmica, agreguem as habilidades que futuramente lhes serão necessárias como
também estejam atentos às modificações da sociedade e suas influências em um novo perfil
profissional.
Outro ponto relevante é destacar a importância de se desenvolver na universidade a
capacidade de comunicar-se, pois é neste espaço que eles terão a oportunidade de
aprender com os próprios erros e se prepararem para assumir uma carreira profissional
sabendo utilizar, de forma eficiente, tanto a comunicação interna quanto a externa.
5. REFERÊNCIAS
BAZZO, W. A.; PEREIRA, L. T. V. (2008). Introdução à Engenharia: conceitos, ferramentas
e comportamentos. 2. ed. Editora da UFSC, Florianópolis, 270 p.
INSTITUTO ETHOS. (2007) Indicadores Ethos de Responsabilidade Social Empresarial.
São Paulo. Disponível em:
<http://www.ethos.org.br/docs/conceitos_praticas/indicadores/temas/valores.asp>.
Acesso em: 9 ago. 2011.
LAUDARES, J. B.; RIBEIRO, S. (2000). Trabalho e formação do engenheiro. Revista
Brasileira de Estudos Pedagógicos vol. 81 (199), Brasília, DF, 491-500. Disponível em:
<www.rbep.inep.gov.br/index.php/RBEP/article/view/135/135>. Acesso em: 30 maio
2011.
MILANI, S. E. (2008). Historiografia Linguística: Língua e Linguagem. Revista UFG, ano 10
(5),
Goiânia,
123-129.
Disponível
em:
<http://www.proec.ufg.br/revista_ufg/dezembro2008/>. Acesso em: 2 jun. 2011.
12
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
NADÓLSKIS, H. (2010). Comunicação redacional atualizada. 12. ed. rev. e atual. segundo
as regras do acordo ortográfico. Saraiva, São Paulo, 278 p.
NOSE, M. M.; REBELATTO, D. A. N. (2001). O Perfil do Engenheiro segundo as Empresas.
In: CONGRESSO BRASILEIRO DE ENSINO DE ENGENHARIA, 29., 2001, Rio Grande
do Sul. Anais... Rio Grande do Sul: Pontifícia Universidade Católica do Rio Grande do
Sul. p. 25-30. Disponível em: <www.pp.ufu.br/Cobenge2001/trabalhos/DTC007.pdf>.
Acesso em: 2 jun. 2011.
13
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
A Escola de Engenharia da Universidade Federal
Fluminense na perspectiva de uma universidade inovadora
1
2
3
Jeaninne de Campos Rennó; Sérgio Luiz Braga França; José Rodrigues de Farias Filho
1,2,3
Escola de Engenharia - Universidade Federal Fluminense (UFF)
Niterói, RJ, Brasil
1
[email protected]
2
[email protected]
3
[email protected]
RESUMO
O presente trabalho pretende refletir sobre as relações estabelecidas, na atualidade, entre a
Escola de Engenharia da Universidade Federal Fluminense e o mercado produtivo nacional,
efetivadas por meio de contratos de parcerias com empresas públicas e privadas, com
vistas ao oferecimento de atividades de ensino, pesquisa e extensão por meio de seus
laboratórios e núcleos de pesquisa. Com base no pressuposto de que, no atual momento, a
Escola de Engenharia, no contexto da própria UFF, tem se destacado por atuar
academicamente em consonância com essa tendência, cada vez mais evidente na
contemporaneidade, de aproximação entre a Universidade e o mercado, procura-se
compreender essa sua postura como indicadora da adoção de uma perspectiva universitária
inovadora, justificando, portanto, a análise de seu caso como de interesse para contribuir
com as discussões a respeito dos caminhos trilhados pela universidade brasileira hoje. Para
tornar mais concreta a reflexão proposta, toma-se, aqui, como elemento central de análise,
um profícuo núcleo de estudos e pesquisas desta Escola, a fim de demonstrar, de maneira
mais objetiva, a natureza e os propósitos que motivam a atuação da Escola de Engenharia
da UFF.
Palavras-chave: Universidade Brasileira; Universidade Inovadora; Universidade Federal
Fluminense; Escola de Engenharia; Núcleo de Estudos e Pesquisas.
1. INTRODUÇÃO
A Escola de Engenharia da UFF, por força de sua identidade vocacional, possui,
desde sua fundação, objetivos que incluem a adoção de uma grade curricular estruturada de
acordo com princípios de formação profissional à altura da demanda conjuntural da época,
com vistas ao desenvolvimento nacional (BARROS, 2002).
Na atualidade, esses objetivos recebem os influxos das transformações por que vem
passando a sociedade brasileira nos últimos tempos e que vêm ocasionando mudanças
significativas nas universidades públicas, principalmente aquelas relacionadas às suas
relações com o mercado e a iniciativa privada. Tal situação vem gerando um debate muitas
vezes tenso no interior do ambiente acadêmico, resultando numa questão que tem tomado
contornos políticos de cisão e polarização.
Entretanto, no caso da Escola de Engenharia da UFF, ao se considerarem os
caminhos pelos quais passou e passa a educação superior no Brasil, é possível
compreender que a sua adesão (e de diversas outras unidades de ensino superior públicas)
ao modelo educacional classificado como “inovador” justifica-se em função de uma
necessidade de sobrevivência, de procurar manter os objetivos a que desde o início se
propôs, recorrendo, por isso, na atualidade, às parcerias com as empresas públicas e
privadas.
14
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Nessa perspectiva e, buscando elucidar a trajetória desenvolvida pelas universidades
públicas brasileiras ao longo de todo esse processo histórico, o presente artigo, tomando
como referência a Escola de Engenharia da UFF, tem como objetivo geral identificar as
diretrizes inovadoras assumidas por esta unidade de ensino superior nos dias atuais, sendo
estruturado estudo de caso que abordará as atividades de ensino, pesquisa e extensão
desenvolvidas em um de seus núcleos de estudos e pesquisas.
2. METODOLOGIA
Dentro do universo a ser pesquisado, correspondendo aos diversos laboratórios e
núcleos de estudos e pesquisas integrantes da estrutura da Escola de Engenharia, será
destacado, como amostra, um núcleo de estudos e pesquisas que desenvolve projetos e
cursos de extensão - em nível de pós-graduação [especialização e MBAs (Master in
Business Administration)], bem como projetos de pesquisa.
Não obstante possuir a Escola de Engenharia diversificada oferta de cursos e
projetos de pesquisa e extensão, por meio de setores específicos vinculados a sua estrutura
organizacional, estes, de forma geral, o fazem direcionados a uma oferta específica – alguns
desenvolvem apenas cursos de especialização; outros, oferecem cursos de mestrado e
especialização, e alguns atuam preponderantemente em projetos de pesquisa e extensão.
Assim sendo, o Núcleo destacado para o presente estudo, que, doravante, será denominado
Núcleo de Estudos e Pesquisas (NEP), recebeu essa preferência, tendo em vista apresentar
uma estrutura funcional que abrange todas as áreas de interesse voltadas a essa oferta,
como já mencionado anteriormente.
A metodologia utilizada para o desenvolvimento deste artigo foi o estudo de caso, por
ser esta uma ferramenta investigativa que busca a identificação de fenômenos
contemporâneos individuais, organizacionais, sociais, políticos e de grupos, entre outros
(YIN, 2005). Considerando ainda que os meios de investigação não são mutuamente
excludentes (VERGARA, 2009), simultaneamente ao método do estudo de caso foram
utilizadas pesquisas bibliográfica, documental e de campo, como elementos que podem
esclarecer a ambiência de atuação da Escola de Engenharia da UFF. A pesquisa
bibliográfica valeu-se de livros e trabalhos acadêmicos que abordam sobre o processo
histórico da educação superior no Brasil e que apresentam fundamentações conceituais de
diretrizes inovadoras adotadas pelas universidades públicas brasileiras. A pesquisa
documental foi elaborada com base em sites, preponderantemente, em função da
recentidade do assunto, e também a partir do levantamento de informações e documentos
relacionados ao núcleo objeto do estudo de caso. A pesquisa de campo foi realizada com
base em informações fornecidas pela equipe integrante do núcleo pesquisado, por meio de
entrevistas.
Após descrição das atividades do Núcleo de Estudos e Pesquisas (NEP), objeto do
estudo de caso, e sua correspondência com conceitos de Universidade Inovadora, sob a
perspectiva do empreendedorismo em apoio às atividades acadêmicas de ensino, pesquisa
e extensão, espera-se, como resultados a serem alcançados, elucidar ao leitor não só o
perfil acadêmico da Escola de Engenharia da UFF, como também fundamentar
conceitualmente esse perfil – direcionado, preponderantemente, à capacitação de
excelência de seu corpo discente, para fazer frente às exigências de competência
profissional diferenciada impostas pela sociedade contemporânea, e ao atendimento
especializado demandado pelo setor produtivo nacional.
3. UNIVERSIDADE INOVADORA
Schmitz, Bernardes e Wolf (2008) conceituam Universidade Inovadora como aquela
que busca a inserção social por meio do atendimento às demandas advindas da
necessidade de capacitação profissional sofisticada e da inovação tecnológica, colocando-a
institucionalmente a serviço dos interesses da sociedade contemporânea.
15
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Nesse sentido, conforme constata Santos (2005), a transição sofrida pela
universidade, a partir das últimas décadas do século XX, gerada pelo fenômeno da
globalização, promoveu, de fato, um impacto de opiniões e conceitos em seu interior.
Ressalta, nesse aspecto, a década de 1990, a partir da qual a universidade pública passou
a ser severamente desafiada, pela significativa alteração havida nas relações entre
conhecimento e sociedade, a ponto de transformar a ambos em termos conceituais. Isto
porque, até então, o conhecimento produzido na universidade era “predominantemente
disciplinar” (p.155), isto é, descontextualizado ante as reais necessidades da sociedade,
podendo a autonomia do investigador traduzir-se “numa certa irresponsabilidade social
deste ante os resultados da aplicação do conhecimento” (p. 156). Porém, a partir dos anos
1990, o conhecimento universitário passou a adotar outro perfil, isto é, o de “um
conhecimento contextual, na medida em que o princípio organizador da sua produção é a
aplicação que lhe pode ser dada” (2005, p.156).
Em 1996, Henry Etzkowitz propôs um novo modelo, buscando viabilizar um padrão
de ligações nos vários estágios do processo de inovação e ainda caracterizar a interação
entre a Universidade, a Indústria e o Governo, o modelo Triple Helix – ou seja, uma “hélice
tríplice”, de configuração espiral, onde haja também um fluxo reverso da indústria para a
academia, integrando ciência, tecnologia e desenvolvimento econômico (Apud RIBEIRO;
ANDRADE, 2008).
Segue-se a essa transformação, o que alguns estudiosos denominaram de “Segunda
Revolução Acadêmica”, consistindo na interligação das atividades de ensino e pesquisa,
desenvolvidas na Universidade, com as demandas advindas do desenvolvimento
econômico, local e regional (BRISOLLA et al., 1997), redundando no seu fortalecimento e,
portanto, no resgate de sua importância social.
No Brasil, a universidade se deparou com o desafio de responder à queda dos
recursos advindos do financiamento público, o que a levou a redefinir seus objetivos
estratégicos e a reestruturar-se para um novo ambiente. Assim, muito apropriadamente,
Brisolla et al. (1997), apoiados em vários estudiosos do assunto, elencam razões que
estimularam a aproximação entre Universidade e Empresa, quais sejam:
o Aumento crescente dos custos de pesquisa e desenvolvimento, tanto para as empresas
industriais quanto para as universidades;
o Redução dos recursos governamentais para a pesquisa universitária, estimulando os
pesquisadores a procurarem novas fontes de apoio;
o O surgimento, nos anos 1980, de novo paradigma científico, no sentido da aproximação
entre inovação e aplicação tecnológica;
o A busca por maior interdisciplinaridade e pelo enfoque globalizado para as soluções dos
problemas industriais, intensificando a colaboração entre diferentes agentes econômicos
e a estruturação de redes e consórcios.
4. ESTUDO DE CASO
4.1
A ESCOLA DE ENGENHARIA DA UNIVERSIDADE FEDERAL FLUMINENSE
Fundada em 1952, através da lei nº 1741, de 31/10/1952, então como Escola
Fluminense de Engenharia, passou a sua denominação atual a partir de 1965, quando,
através do Decreto nº 4.759, a então Universidade Federal do Estado do Rio de Janeiro
(UFERJ) passou a denominar-se Universidade Federal Fluminense (UFF), congregando, já
de início, diversos estabelecimentos isolados de ensino em funcionamento à época na
cidade de Niterói, entre os quais a Escola de Engenharia (ANTUNES, 2008).
Dotada de uma ampla estrutura acadêmica integrada por dez cursos de graduação,
nove cursos de pós-graduação stricto sensu (sendo três cursos de doutorado, cinco cursos
de mestrado acadêmico e um curso de mestrado profissional), vinte e nove cursos de pósgraduação lato sensu e quatro cursos de extensão, a Escola de Engenharia tem se revelado
um organismo em constante evolução, com grande destaque entre as unidades de ensino
16
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
da UFF (www.uff.br), sobretudo por seus relevantes esforços no sentido de inserir-se nos
cenários nacional e internacional, através de suas atividades de ensino, pesquisa e
extensão.
São dez os seus cursos de graduação, a saber: Desenho Industrial; Engenharia
Agrícola e Ambiental; Engenharia Civil; Engenharia de Petróleo; Engenharia de Produção;
Engenharia de Recursos Hídricos e do Meio Ambiente; Engenharia Elétrica; Engenharia
Mecânica; Engenharia Química; e Engenharia de Telecomunicações.
No campo da Pós-Graduação Stricto Sensu, os cursos se dividem em três áreas:
Mestrado Acadêmico, Mestrado Profissional e Doutorado. Os cursos oferecidos dentro da
área de Mestrado Acadêmico são: Engenharia Civil; Engenharia Mecânica; Engenharia de
Produção; Engenharia Química e Engenharia de Telecomunicações. Até o momento, o
único curso de Mestrado Profissional oferecido pela Escola de Engenharia é o de Sistemas
de Gestão. Em nível de Doutorado, o Programa de Pós-Graduação da Escola de
Engenharia possui os cursos de: Engenharia Civil; Engenharia Mecânica e Engenharia de
Produção.
Além destes, a Escola de Engenharia, através de seus departamentos de ensino,
laboratórios e núcleos de pesquisa, oferece cursos de Especialização e MBAs, bem como
faz atendimento sob a forma de consultorias e projetos, voltados às demandas do mercado
produtivo nacional.
Sob esta perspectiva, podem-se citar também os nove cursos de pós-graduação lato
sensu integrantes do PROMINP – Programa de Mobilização da Indústria Nacional de
Petróleo e Gás Natural -, instituído pelo Governo Federal, sob a coordenação geral do
Ministério de Minas e Energia e a coordenação executiva da Petrobras (ANTUNES, 2008).
Tais cursos estão vinculados aos Departamentos de Engenharia de Produção e de
Engenharia Mecânica.
Além dos âmbitos do Ensino e da Pesquisa, a Escola de Engenharia também
desenvolve atividades de Extensão, citando-se também aqui os seguintes cursos
integrantes do PROMINP: dois cursos em nível técnico, vinculados ao Departamento de
Desenho Técnico, quais sejam: Curso Técnico de Desenhista Projetista de Tubulação e
Curso Técnico de Projetista de PDMS (Plant Design Management System); um curso de
Formação de Aprendizes de Soldagem, profissionalizante, dirigido a comunidades carentes
e voltado à formação de mão-de-obra direta, também vinculado ao Departamento de
Engenharia Mecânica.
Ainda no âmbito extensionista, a Escola de Engenharia possui organismos atuantes,
sob a perspectiva inovadora de inserção da Universidade como elo entre o conhecimento
produzido em seu seio e o setor empresarial (RIBEIRO; ANDRADE, 2008), sendo exemplos
disso a Incubadora de Empresas de Base Tecnológica da UFF e as Empresas Juniores.
4.2
NÚCLEO DE ESTUDOS E PESQUISAS (NEP): DESCRIÇÃO E PRINCIPAIS
AÇÕES
Dentro da perspectiva inovadora da construção de uma proposta de modelo
alternativo, permitindo a flexibilidade de captação de financiamento para a Universidade com
base em recursos do estado e da sociedade, foram criados, na Escola de Engenharia da
UFF, organismos extensionistas que visam ao atendimento dessa interação, tais como: as
Empresas Juniores, bem como a oferta de cursos de atualização e capacitação profissional
em nível de PG Stricto e Lato Sensu. No âmbito da pesquisa, na busca de promover um
desenvolvimento tecnológico integrado, estabeleceu-se um sistema de cooperação com
outras instituições de pesquisa, a iniciativa privada e o estado, concretizado por meio do
desenvolvimento de projetos de pesquisa e prestação de serviços extensionistas,
endereçados ao atendimento de demandas do setor produtivo (ANTUNES, 2008).
17
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
O universo a ser abordado por este estudo de caso compreende os diversos núcleos
e laboratórios vinculados à Escola de Engenharia, cujas atividades estão sendo
desenvolvidas na direção desse atendimento.
Destacou-se, como amostra a ser investigada, um determinado núcleo que atua em
ensino de pós-graduação, pesquisas e extensão/pesquisa aplicada. Esse Núcleo possui
uma estrutura organizacional formada por:
o Coordenação geral do Núcleo - cujo objetivo central é o de coordenar a política de
interação do Núcleo com as diversas instâncias administrativas e unidades de ensino da
Universidade, bem como interagir externamente com outras instituições, buscando a
comunhão da prática profissional com as atividades de ensino, pesquisa e extensão.
o Coordenação administrativa de Cursos – cujo objetivo central é exercer a interface entre
alunos e coordenações geral e acadêmica, por meio de ações voltadas ao alinhamento
de todas as partes interessadas.
o Coordenação acadêmica de Cursos – cujo objetivo central é propiciar as condições
ideais para a realização dos cursos oferecidos pelo Núcleo, por meio de ações que
envolvem desde a adequação dos cursos aos moldes da UFF, simultaneamente à
política de gestão acadêmica do Núcleo, até o provimento de suporte acadêmico para
elaboração de editais, relatórios, adequação legal dos cursos, bem como avaliação e
acompanhamento do desempenho do corpo docente.
o Coordenação dos Cursos – responsável por: acompanhar o desempenho dos alunos,
dando suporte individual a sua vida acadêmica; elaborar o desenho instrucional dos
cursos a serem ministrados, envolvendo, entre outros: material didático a ser utilizado,
construção das ementas, definição da metodologia a ser aplicada, definição das formas
de avaliação dos alunos, indicação do referencial bibliográfico que proverá suporte às
disciplinas.
o Coordenação geral de Pesquisa – cujo objetivo central é atuar no sentido de direcionar
as atividades de execução das pesquisas desenvolvidas no Núcleo, visando ao
atendimento dos objetivos de cada projeto.
o Coordenação dos projetos de Pesquisa – cujo objetivo central é controlar e monitorar o
andamento das atividades desenvolvidas em cada projeto, de forma a cumprir as metas
preestabelecidas.
o Coordenação geral financeira – cujo objetivo central é dar suporte à gestão financeira de
todas as atividades do Núcleo.
o Corpo docente qualificado – integrado por professores da UFF e também de outras
instituições de ensino públicas e privadas.
Os objetivos do Núcleo abordado neste estudo são:
o Atuar como campo de estágio para a graduação e a pós-graduação, revertendo para o
meio acadêmico as lições aprendidas (pesquisa aplicada) com as atividades de
consultoria executadas pelo Núcleo, que são utilizadas como ferramentas para o
desenvolvimento de trabalhos científicos na Universidade (artigos, monografias,
dissertações e teses).
o Prestar atendimento específico que oriente o desenvolvimento de trabalhos de projeto
final de cursos, bem como dissertações e produção científica.
o Disseminar a prática de interação e troca de conhecimentos e informações, através da
utilização de redes sociais.
o Oferecer treinamento nas áreas de gestão e planejamento empresarial;
o Oferecer cursos em nível de especialização e MBA, voltados a: formar especialistas nas
técnicas e práticas de gestão de projetos, bem como propiciar o aperfeiçoamento a
profissionais que já tenham atuado na área e queiram se aperfeiçoar nas modernas
práticas de gerenciamento.
o Realizar cursos de qualificação profissional de nível superior, pesquisas teóricas e
aplicadas em parceria com o Governo Federal, centros de pesquisa e organizações
públicas e privadas, tais como: Petrobras, Denit, Vale do Rio Doce, Chemtech, Faperj,
entre outras.
18
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
o
Disponibilizar tecnologia desenvolvida no próprio Núcleo para empresas, através de
atividades de consultoria e de assessoria técnica.
Suas atividades de ensino diversificam-se por meio de:
o Treinamentos: realizados de acordo com as necessidades específicas demandadas por
seus clientes, dentre os quais:
• Análise do ciclo de vida dos produtos; auditoria interna em segurança industrial;
avaliação de impacto ambiental; avançado em gerenciamento de projetos; básico
de gerenciamento de projetos para engenheiros; gestão do meio ambiente.
o Pós-Graduação: são oferecidos cursos em nível de especialização e MBA nas seguintes
áreas:
• MBA em Gerenciamento de Projetos: voltado à especialização de profissionais
que necessitem investir em capacitação gerencial, adquirindo técnicas que lhes
possibilitem a utilização plena de recursos, controle de custos, programação das
etapas dos projetos organizacionais e gerenciamento de riscos.
• PROMINP: O Programa de Mobilização da Indústria Nacional de Petróleo e Gás
Natural, coordenado pelo Ministério de Minas e Energia, foi instituído pelo
Governo Federal em 2003. Esse Programa visa a intensificar a atuação da
indústria nacional de bens e serviços na implantação de projetos de petróleo e
gás natural no Brasil e no Exterior, de forma competitiva e sustentável.
Para atender à demanda por pessoal qualificado para o setor de petróleo e gás
natural, foi criado, em 2006, o Plano Nacional de Qualificação Profissional
(PNQP), com vistas a capacitar, gratuitamente, profissionais que estejam
localizados em regiões do Brasil em que haja alguma iniciativa empreendedora
nesse setor. Os cursos são de nível básico, médio, técnico e superior
(www.prominp.com.br).
O Núcleo em estudo é responsável pelos cursos de:
Especialização em SMS em Obras de Engenharia de Construção e
Montagem;
Especialização em Engenharia da Qualidade de Obras de Construção e
Montagem;
Especialização em Planejamento de Obras de Construção e Montagem.
As atividades de pesquisa desse Núcleo objetivam contribuir científica e
tecnologicamente com as demandas advindas da sociedade, buscando sempre
estabelecer interface com o meio acadêmico e o mercado e realizando parcerias com
Petrobras, Prominp, entre outras.
Os temas pesquisados concentram-se em áreas como:
o Competitividade Industrial, compreendendo estudos sobre desenvolvimento local;
mecanismos de avaliação da competitividade; análise sobre novos arranjos
produtivos, suas particularidades e impacto nos setores econômicos.
o Estratégia, compreendendo vinculação entre modelos de gestão de operações x
estratégia geral da corporação; relacionamentos das redes empresariais; definição
de uma tipologia para a estratégia mais adequada à realidade da indústria nacional.
o Organizações, compreendendo o entendimento dos desafios organizacionais e suas
tendências; o comportamento das empresas participantes de prêmios ligados ao
conceito da qualidade e suas variantes; a validação dos critérios de excelência e
suas relações com os fundamentos da excelência.
As atividades de pesquisa pura e pesquisa aplicada desenvolvidas pelo Núcleo em
referência prestam atendimento, no que diz respeito às ações descritas abaixo, entre
outras:
o Execução de pesquisas bibliográficas diversas, Análise de indicadores e
performance empresarial e de projetos, Definição de plano de marketing industrial,
Desenvolvimento de novos produtos, Implantação, diagnóstico e metodologias em
19
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
gerenciamento de projetos, programas e portfólio, Implantação de sistema integrado
de gestão, Planejamento estratégico corporativo (www.labceo.uff.br).
4.3
IDENTIFICAÇÃO DE AÇÕES DESENVOLVIDAS PELO NEP EM
CONSONÂNCIA COM AS DIRETRIZES INSPIRADAS NA CONCEPÇÃO DA
UNIVERSIDADE INOVADORA
De acordo com a pesquisa realizada acerca das diretrizes que norteiam uma parcela
expressiva das unidades de ensino integrantes das universidades públicas brasileiras sob a
perspectiva inovadora da formação de sua comunidade acadêmica para o atendimento às
demandas do mercado produtivo nacional e demais setores da sociedade (tópico 3),
buscou-se identificar, por meio de quadro ilustrativo, a seguir, as citadas diretrizes
inovadoras com as atividades atualmente desenvolvidas pelo Núcleo de Estudos e
Pesquisas (NEP) da Escola de Engenharia da UFF, selecionado para objeto deste estudo
de caso.
DIRETRIZES PARA A UNIVERSIDADE
INOVADORA
1 – Buscar a inserção social por meio do
atendimento às demandas advindas da
necessidade de capacitação profissional
sofisticada e de inovação tecnológica,
colocando-a institucionalmente a serviço
dos interesses da sociedade
contemporânea
2 - Interligar as atividades de ensino e
pesquisa desenvolvidas na Universidade
com as demandas advindas do
desenvolvimento econômico, local e
regional, redundando no seu
fortalecimento e, portanto, no resgate de
sua importância social.
3 – captar recursos advindos do
estabelecimento de parcerias públicas e
privadas, através da oferta de cursos de
especialização e MBAs, bem como por
meio da prestação de serviços de
consultoria, como forma de suportar as
atividades de ensino, pesquisa e extensão
gratuitas desenvolvidas na Universidade,
frente à queda dos recursos advindos do
financiamento público para as
universidades públicas.
4 – executar o modelo Triple Helix, idealizado
por Henry Etzkowitz, em 1996, que busca
viabilizar um padrão de ligações nos vários
estágios do processo de inovação,
entrelaçando Universidade, Indústria e
Governo, propiciando um fluxo reverso da
AÇÕES DO NEP QUE ATENDEM A
TODAS ESSAS DIRETRIZES
Oferecer treinamento nas áreas de
gestão e planejamento empresarial;
Oferecer cursos em nível de
especialização e MBA, voltados a:
formar especialistas nas técnicas e
práticas de gestão de projetos, bem
como propiciar o aperfeiçoamento a
profissionais que já tenham atuado na
área e queiram se aperfeiçoar nas
modernas práticas de gerenciamento.
Realizar cursos de qualificação
profissional de nível superior,
pesquisas teóricas e aplicadas em
parceria com o Governo Federal,
centros de pesquisa e organizações
públicas e privadas, tais como:
Petrobras, Denit, Vale do Rio Doce,
Chemtech, Faperj, entre outras.
Disponibilizar tecnologia desenvolvida
no próprio Núcleo para empresas,
através de atividades de consultoria e
de assessoria técnica.
20
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
indústria para a academia e integrando
ciência, tecnologia e desenvolvimento
econômico.
Quadro 1 – diretrizes para a universidade inovadora e respectivas ações do NEP
Fonte: elaboração própria
Após o levantamento de dados acerca das atividades exercidas pelo núcleo de
estudos e pesquisas selecionado para objeto deste estudo, integrante da estrutura
acadêmica da Escola de Engenharia da Universidade Federal Fluminense, pode-se verificar,
pela natureza de sua proposta, pelos objetivos a serem alcançados, pelo público a ser
atendido e pelas interfaces estabelecidas, sua transversalidade com o conjunto de ações
que caracteriza as premissas inovadoras que se apresentam, na atualidade, como
alternativas de atuação acadêmica para as universidades públicas brasileiras.
5. CONSIDERAÇÕES FINAIS
O desenvolvimento do presente artigo foi motivado pela grande polêmica que se
instalou nos corredores do meio acadêmico universitário, quanto às diretrizes assumidas por
diversas unidades de ensino superior públicas, no desempenho de suas funções
institucionais de ensino, pesquisa e extensão. Entre essas unidades de ensino, destacou-se,
para este estudo, a Escola de Engenharia da Universidade Federal Fluminense, por sua
vocação acadêmico-profissional voltada ao atendimento de demandas sociais em várias
áreas, tais como: ambiental, construção civil, saneamento, industrial, naval,
telecomunicações, química e petróleo. Trata-se de setores que demandam soluções
tecnológicas cada vez mais sofisticadas, urgentes e inovadoras, que possam ser capazes
de solucionar as inúmeras e graves consequências geradas pelo superdimensionamento
populacional, com todas as suas implicações ambientais.
Para o desenvolvimento de expertise adequada, espera-se das instituições de ensino
superior públicas, por suas características próprias quanto a corpo docente qualificado em
pesquisas, sobretudo, que daí venham as reflexões e propostas resultantes, que possam
dar conta da expectativa de soluções para as demandas supracitadas. Contudo, conforme
se pode constatar, por meio da trajetória apresentada no presente artigo com respeito ao
tratamento que os sucessivos governos têm dispensado, ao longo das últimas décadas, a
cada vez mais escassa disponibilização de recursos para as instituições federais de ensino
superior, a parceria público-privada tem sido a alternativa a ser adotada para o
encaminhamento não só da questão financeira, como também para a saudável e como mais
do que nunca necessária permuta de conhecimentos especializados com a sociedade, que
possa fazer face a tão urgentes e sofisticadas soluções para os problemas gerados pelo
mundo globalizado.
Finalmente, o presente estudo busca contribuir para o entendimento não só das
características ambientais que envolvem as unidades de ensino superior públicas com o
perfil acadêmico da Escola de Engenharia da UFF, como também identificar as ações
desenvolvidas por esta com foco no ensino, pesquisa e extensão, sob a perspectiva
inovadora do atendimento às expectativas da sociedade e do setor produtivo nacional.
6. REFERÊNCIAS
ANTUNES, L. R. M. S. (2008). Reflexões sobre a aplicação da gestão do conhecimento
pelas universidades: o caso da Escola de Engenharia da Universidade Federal
Fluminense. Dissertação de Mestrado (Programa de Pós-Graduação em Engenharia de
Produção), Universidade Federal Fluminense,
Niterói 187p. Disponível em:
<http://www.bdtd.ndc.uff.br/tde_arquivos/29/TDE-2008-08-19T091735Z1596/Publico/Liane%20Antunes-Dissert.pdf. > Acesso em: 13 set. 2010.
21
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
BARROS, E. V. (2002). Escola de Engenharia da UFF: meio século de história (1952/2002).
Ed. Daugraf, Rio de Janeiro, 287p.
BRISOLLA, S. N. ; CORDER, S. M. ; GOMES, E. J. ; MELLO, D. L. (1997). As Relações
Universidade-Empresa-Governo: Um Estudo Sobre a Universidade Estadual de
Campinas. Educação e Sociedade, v. 61, n. 28, Campinas, 187-209. <Disponível em:
http://www.scielo.br/pdf/es/v18n61/4704.pdf.> Acesso em: 19 set. 2010.
SCHMITZ, A. L. F.; BERNARDES, J. F.; WOLF, S. M. (2008). Desafios das Universidades
Empreendedoras: Universidade Tradicional X Universidade Corporativa X Universidade
Empresa. Anais XIX Congreso Latinoamericano y del Caribe sobre el Espíritu
Empresarial, Florianópolis, 72-87. Disponível em: <http://www.clee2008.ufsc.br/3.pdf>.
Acesso em: 04 jul. 2010.
RIBEIRO, A. C. S.; ANDRADE, E. P. (2008). Modelo de gestão para incubadora de
empresas sob a perspectiva de metodologias de gestão apoiadas em rede: o caso da
Incubadora de Empresas de Base Tecnológica da Universidade Federal Fluminense.
Boletim Técnico Organização & Estratégia, v.4 n.1, Niterói, 71-90. Disponível em:
<http://www.latec.uff.br/bt/V2008/numero1/PDF/BT084_2007.pdf>. Acesso em: 04 jul.
2010.
SANTOS, B. .S. (2005). A Universidade no Século XXI. Para uma reforma democrática e
emancipatória da Universidade. Revista Educação, Sociedade & Culturas, n. 23, Porto,
137-202. Disponível em:<http://www.fpce.up.pt/ciie/revistaesc/ >. Acesso em: 03 set.
2010.
UFF
em
Números.
Disponível
em:
numeros.php>. Acesso em: 22 jun. 2011.
<http://www.uff.br/uffon/arquivos/uff/uff-em-
VERGARA, S. C. (2009). Projetos e Relatórios de Pesquisa em Administração. Ed. Atlas,
São Paulo, 92p. 11ª. ed.
YIN, R. K. (2005). Estudo de Caso: Planejamento e Métodos. Ed. Bookman, Porto Alegre,
212p. 3ª. ed.
Sites consultados:
http://www.prominp.com.br / Acesso em: 23 jun. 2011.
http://www.labceo.uff.br/index / Acesso em: 23 jun. 2011.
22
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
A gestão do conhecimento na administração pública
municipal: um estudo preliminar em secretarias de
administração da região noroeste fluminense
Walber Dias Arruda.
Instituto do Noroeste Fluminense de Educação Superior - Universidade Federal Fluminense (UFF)
Santo Antônio de Pádua, RJ, Brasil
E-mail:[email protected]
RESUMO
A Gestão do Conhecimento é um novo campo de estudo e pesquisa que traz a si as
reflexões sobre os processos de criação, obtenção e uso do saber acumulado nas
organizações. O presente trabalho é resultado de uma pesquisa exploratória que buscou
verificar como tal modalidade de gestão vinha sendo utilizada pela Administração Pública.
Adotou-se o contexto da Administração Municipal em função da lacuna existente nos
estudos em Gestão do Conhecimento no setor Público, em particular no que tange a
investigação de ações desenvolvidas da municipalidade brasileira. O estudo lançou mão de
questionário baseado no modelo das Sete Dimensões da Gestão do Conhecimento e tendo
como público alvo os gestores de secretarias municipais de Administração do Noroeste
Fluminense. A análise dos dados levantados demonstrou que as prefeituras têm dado seus
primeiros passos na área, apresentando dificuldades na aferição dos resultados de seu
trabalho, mensuração esta considerada uma das importantes dimensões do modelo.
Palavras-Chave: Conhecimento. Gestão do Conhecimento. Administração Pública Municipal.
1. INTRODUÇÃO
Na atualidade observa-se um crescente interesse sobre temas relacionados à
Gestão do Conhecimento Organizacional. Vários são os termos utilizados pela Academia
para referir-se aos assuntos relevantes à prática organizacional da Gestão do
Conhecimento: competências, conhecimentos, tecnologia da informação, aprendizagem e
habilidade organizacional, capital intelectual, capital humano, inteligência empresarial, ativos
intangíveis, dentre outros, o que demonstra claramente a busca da compreensão dessa
nova ótica de gestão.
Uma definição clássica de Gestão do Conhecimento é a que a considera como “a
atividade de divulgar e explicitar o conhecimento que está embutido nas práticas individuais
ou coletivas da organização” (NONAKA E TAKEUCHI, 1995 apud SPENDER, 2001). Assim,
é de fundamental importância que os gestores tomem consciência dos meios necessários à
apropriação de tal conhecimento, com vistas a garantir sua utilização como uma vantagem
competitiva frente a seus concorrentes. A Gestão do Conhecimento pode ser tomada como
o processo estruturado e sistemático de identificação, promoção, melhoria e aplicação de
conhecimentos estratégicos no ínterim das organizações (REZENDE E ABREU, 2009).
A aprendizagem, as relações dos colaboradores entre si e com o meio externo, a
disponibilidade de informações pertinentes aos processos, as linhas de comunicação e
vários outros recursos intangíveis relacionados ao conhecimento organizacional passam a
ser considerados essenciais para o sucesso das empresas. A Gestão do Conhecimento está
ligada à capacidade das empresas em utilizar e combinar as várias fontes de conhecimento
organizacional para desenvolverem competências específicas e capacidade inovadora
(TERRA, 2001). A ação de identificar, desenvolver e disseminar o conhecimento de maneira
relevante para a empresa, tendo por base esforços internos ou que extrapolem suas
fronteiras também deve ser considerada neste contexto (FLEURY; OLIVEIRA JR, 2001).
Gerir o conhecimento é possibilitar na organização uma cultura que tenha como ponto
23
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
central a idéia de que suas atividades podem ser uma importante fonte de novos saberes, e
que esses podem ser convertidos em ganhos para ela por meio da elaboração de novas
formas de pensar e agir (inovação), na busca de novos produtos e serviços ou melhoria dos
processos já desempenhados.
Se nas organizações privadas a Gestão do Conhecimento já é de certa forma
conhecida e tenta-se aplicá-la, no Setor Público este ainda é um tema que começa a se
descortinar no cenário de sua atuação. Assim, a abordagem da administração do
conhecimento também deve ser considerada na Gestão Pública. Desta forma torna-se
possível identificar, mensurar e valorar os saberes presentes nas tessituras das relações de
trabalho no âmbito governamental, apropriar-se deles e utilizá-los com vistas ao
oferecimento de um serviço de melhor qualidade.
2. RELEVÂNCIA DO ESTUDO
Em virtude da atual configuração das relações sociais, econômicas e políticas, a
Administração Pública deve estar em consonância com os paradigmas da Era do
Conhecimento, partindo para uma nova ótica de compreensão das relações intra e extraorganizacionais, pautada no uso dos conhecimentos produzidos pela mesma ou advindos
de suas relações com outras, para construir modelos orgânicos e flexíveis que se adequem
às crescentes necessidades da sociedade. Numa economia em ritmo acelerado, as
organizações não podem perder tempo ou vantagem competitiva refazendo processos a
todo tempo (AMANCIO, 2007). Assim, gerir o conhecimento organizacional torna-se cada
vez mais imperativo na busca da eficácia e excelência organizacional, seja na iniciativa
pública ou na iniciativa privada.
Com vistas a oferecer uma melhor qualidade nos Serviços Públicos e uma
otimização de seus processos internos, é condição indispensável que o Governo e seus
funcionários estejam a par das contribuições que a Gestão do Conhecimento tem a oferecer
a tais atividades. A escolha de situar a pesquisa no contexto da Administração Pública
Municipal deve-se ao fato de que existe uma lacuna com relação ao estudo da Gestão do
Conhecimento no setor Público, havendo diversos trabalhos acadêmicos sobre tal Gestão
na esfera da Administração Pública Federal, tais como alguns textos para discussão
elaborados pelo Instituto de Pesquisa Econômica e Aplicada – IPEA (vide BATISTA et al,
2005) e pouco destaque à investigação de ações desenvolvidas neste sentido no âmbito da
municipalidade brasileira.
3. METODOLOGIA ADOTADA
O presente trabalho constitui-se numa Pesquisa Descritiva, composta de uma
Pesquisa Exploratória em uma amostra dos gestores das Secretarias Municipais de
Administração da Região Noroeste Fluminense, visando identificar o que se tem feito no que
diz respeito a políticas ou práticas de Gestão do Conhecimento, objetivando assim a
melhoria contínua da performance de sua atuação, o que conduz a um Serviço Público de
melhor qualidade, a exemplo do que buscam as organizações privadas. A Pesquisa
Exploratória visa familiarizar o pesquisador com o tema da pesquisa. Por meio dela, o
problema em questão torna-se mais explícito, dando margem a posteriores estudos de uma
maior profundidade. Esta modalidade é usada especialmente quando o tema proposto é
pouco explorado e não existe ainda substancial produção científica específica sobre ele.
Neste trabalho, esta etapa é empreendida por meio da aplicação de um questionário
acerca do tema Gestão do Conhecimento em uma amostra de Secretários Municipais de
Administração da Região Noroeste Fluminense e sua posterior análise constituindo-se numa
Pesquisa de Campo, haja vista esta modalidade de pesquisa trabalhar com amostragens
que representam parte de uma população que se pretende estudar (FARIA et al. , 2007).
3.1 POPULAÇÃO E AMOSTRA
24
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Com vistas ao estudo parcial proposto foi considerada uma amostra aleatória de
Secretários ou Gestores Municipais de Administração de seis municípios da Região
Noroeste do Estado do Rio de Janeiro que representam 46,15 % da população total,
composta por treze municípios. A escolha por Secretarias de Administração e,
concomitantemente, dos seus secretários ou gestores, se deve ao fato de essas serem
responsáveis pela coordenação dos processos da Administração Pública Municipal e por
isso, potenciais disseminadoras de metodologias e práticas de Gestão do Conhecimento.
Cumpre salientar que outros gestores foram procurados a fim de participarem da pesquisa,
mas se recusaram a colaborar. As causas dessa não colaboração poderão ser escopo de
pesquisas posteriores, dado que a eles foi esclarecido ser este um trabalho sigiloso e cujos
resultados poderiam ser disponibilizados para sua apreciação, crítica ou sugestão.
3.2 COLETA DOS DADOS
Para coleta dos dados optou-se pela utilização de um questionário, baseado nos
trabalhos desenvolvidos sobre o modelo das Sete Dimensões da Gestão do Conhecimento
(TERRA, 2001; CARLETTO et al, 2006), com perguntas fechadas do tipo Likert, Para a
aplicação dos questionários, fez a opção da entrega pessoal dos mesmos, tendo cuidado de
não interferir nas respostas, deixando a cargo dos respondentes a sua interpretação.
4. ANÁLISE DOS DADOS
O questionário apresentou vinte e uma assertivas nas quais os Secretários deveriam
exprimir seu grau de concordância baseando-se na realidade de sua Secretaria, indicando
assim a existência de ações relacionadas à prática da Gestão do Conhecimento, mesmo
que de maneira não estruturada formalmente. As assertivas relacionam-se a cada uma das
Sete Dimensões propostas por Terra (2001) e são subdivididas da seguinte forma:
Dimensão 1 - Alta Administração: assertivas 1, 2 e 3; Dimensão 2 - Cultura Organizacional:
assertivas 4, 5, 6 e 7; Dimensão 3 - Estrutura Organizacional: assertivas 8, 9 e 10;
Dimensão 4 - Política de Recursos Humanos: assertivas 11, 12 e 13; Dimensão 5 - Sistemas
de Informação: assertivas 14, 15, 16 e 17; Dimensão 6 - Mensuração de Resultados:
assertivas 18 e 19; Dimensão 7 - Aprendizado com o Ambiente: assertivas 20 e 21.
Figura 1. Dimensões da Gestão do Conhecimento segundo TERRA (2001)
A fim de mensurar o grau de concordância dos Secretários com relação a cada uma
das assertivas propostas, optou-se por utilizar a fórmula estatística do Ranking Médio (RM),
julgada conveniente para o trabalho em questão. Assim, utilizou-se a seguinte expressão
para a obtenção do grau de concordância:
25
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Grau de Concordância = RM = (a x Grau de CT) + (b x Grau de C) + (c x Grau de I) + (d x Grau
de D) + (e x Grau de DT) / n ; onde a= total de respostas “Concordo Totalmente”, b= total de
respostas “Concordo”, c= “total de respostas “Indiferente”, d= total de respostas “Discordo”, e= total
de respostas “Discordo Totalmente ; graus CT= 5, C= 4, I=3, D=2 e DT= 1 ; n=total de respostas.
A tabela a seguir apresenta os escores obtidos para cada assertiva:
Tabela 1. Escores obtidos nas assertivas apresentadas no questionário.
Assertiva
Grau
(RM)
1- Os funcionários da Secretaria de Administração 4,0
estão cientes dos pontos fortes deste órgão e da
contribuição de seu trabalho para o bom
funcionamento da prefeitura como um todo
2- Os objetivos de trabalho e metas a serem 3,8
atingidas são comunicadas a todos os funcionários
da secretaria, dos mais variados níveis hierárquicos.
3- Existe preocupação em estimular os funcionários 3,8
por intermédio de metas de trabalho desafiadoras e
comprometidas com uma visão de melhoria
contínua.
4- Os funcionários confiam na organização e se 4,0
orgulham em trabalhar nela.
5- As pessoas se sentem encorajadas a buscar 3,3
novas maneiras de realizar as atividades
6- Os funcionários estão preocupados apenas em 2,8
alcançar objetivos de curto prazo na Secretaria.
7- Há uma cultura de respeito, tolerância e 4,0
colaboração entre os funcionários.
8- As estruturas das equipes de trabalho são 2,8
estáveis e raramente os funcionários se reorganizam
para realizar melhor suas atividades.
9- As decisões são tomadas conjuntamente como os 4,0
funcionários, possibilitando difusão de idéias e busca
de soluções compartilhadas.
10- A burocracia ainda é tida como entrave para 3,0
realização das atividades.
11- Existe um plano de carreira estruturado que 4,2
possibilita o desenvolvimento dos funcionários no
26
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
que diz respeito à experiência e aprendizado.
12- O sistema de remuneração dos funcionários está 3,7
atrelado a uma política de meritocracia.
13 – Valoriza-se a busca pelo aprendizado, 3,8
estimulando o desenvolvimento do conhecimento
dos funcionários de maneira sistemática
14- A comunicação dentro da Secretaria é ampla, 4,3
ágil, clara e eficiente em todos os níveis.
15- O acesso a informações por parte dos 4,5
funcionários
é
amplo
e
valoriza-se
o
compartilhamento delas
16- Existe um sistema de Tecnologia de Informação 4,5
estruturado, garantindo o acesso a dados e
informações relevantes no ambiente de trabalho
17- O conhecimento da Secretaria é documentado, 3,8
seja por meio de ferramentas em TI quanto por
relatórios de melhores práticas dos funcionários.
18- Existe um sistema de mensuração dos 3,5
resultados alcançados pela Secretaria, ou seja,
verifica-se quanto foi alcançado nas atividades que
se propôs a realizar
19- Os resultados positivos ou negativos alcançados 3,0
pela Secretaria são divulgados internamente aos
seus funcionários
20- Há constante intercâmbio da Secretaria com 3,8
agentes
externos
(empresas,
consultores,
universidades), visando garantir parcerias para uma
melhor realização do seu trabalho.
21- A Secretaria se preocupa em valorizar seus 4,0
clientes, ou seja, busca saber dos munícipes suas
opiniões, sugestões e reclamações com relação a
sua atuação.
27
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
À luz dos resultados obtidos pode-se verificar que os maiores pontos de debilidade
relativos à Gestão do Conhecimento dentro das Secretarias Municipais de Administração
dizem respeito a procedimentos de mensuração dos resultados obtidos com seu trabalho.
Envidar esforços para sanar tal disfunção pode converter-se num salutar instrumento de
feedback da gestão.
5. CONCLUSÃO
O presente trabalho buscou elaborar um estudo preliminar sobre Gestão do
Conhecimento e sua utilização na Administração Pública Municipal, tema ainda pouco
explorado pela atual literatura acadêmica. Com base no modelo das Sete Dimensões da
Gestão do Conhecimento, observa-se que os maiores níveis de concordância apurados
dizem respeito aos aspectos relativos aos Sistemas de Informação e Comunicação. No
entanto, mudanças positivas em relação a todas as dimensões apresentadas no modelo é
que propiciam o florescimento de uma nova cultura organizacional orientada para a Gestão
do Conhecimento.
Cumpre salientar que face à natureza preliminar deste estudo pode-se,
posteriormente, elaborar outros de natureza complementar, calcados sob a ótica dos
colaboradores, com vistas a corroborar ou não as análises levantadas, posto que as aqui
apresentadas encontram-se embasadas nas percepções e afirmações dos gestores.
Acredita-se, no entanto, que o presente trabalho contribui para as reflexões sobre a Gestão
do Conhecimento no âmbito da Gestão Pública.
5. REFERÊNCIAS
AMANCIO, J.L. (2007). Gestão do Conhecimento. Revista Profissão Mestre. Humana
Editorial, São Paulo. Disponível em : http://twixar.com/7n4Oa6HstyQN
BATISTA, F. F. et al. (2005). Gestão do conhecimento na administração pública. Instituto de
Pesquisa Econômica Aplicada, Brasília, 122 p.
CARLETTO, B.
et al.(2006). As sete dimensões da gestão do conhecimento na
organização: o caso Iapó. Anais do XIII Simpósio de Engenharia de Produção da
Universidade Estadual Paulista, Bauru, 1-8.
FARIA, A. C. et al.(2007). Manual prático para a elaboração de monografias, Trabalhos de
Conclusão de Curso , Dissertações e Teses. Ed. Vozes, Rio de Janeiro, 34.
FLEURY, M. T. L. ; OLIVEIRA JR., M. M. (2001). Gestão Estratégica do Conhecimento:
integrando aprendizagem, conhecimento e competências. Ed. Atlas, São Paulo, 352p.
NONAKA, I. ; TAKEUCH, H. (1995). The knowledge creating company: How japanese
companies create the dynamics of innovation. Oxford University Press, New York, 304p.
REZENDE, D. A. ; ABREU, A. F. (2009). Tecnologia da informação aplicada a sistemas de
informação empresariais. Ed. Atlas, São Paulo, 301-306.
SPENDER, J.C. (2001). Gerenciando Sistemas de Conhecimento. In: Gestão Estratégica do
Conhecimento: integrando aprendizagem, conhecimento e competências. Ed. Atlas,
São Paulo, 31.
TERRA, J. C. C. (2001) Gestão do Conhecimento: aspectos conceituais e estudo
exploratório sobre as práticas de empresas brasileiras. In: Gestão Estratégica do
Conhecimento: integrando aprendizagem, conhecimento e competências. Ed. Atlas,
São Paulo, 214-215.
28
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
A importância do artigo científico na engenharia:
linguagem e normalização
1
Aline Oliveira Rosa, 1Beatriz de Oliveira Ávila, 1Breno Augusto Silva Carvalho, 1Hana
Camila Gomes Silva, 1Isabella Ribeiro Martins, 1Juliana Santos Moura, 1Luciana Duarte
Oliveira, 1Romulo Duarte dos Santos, 1Thaísa Andrade Kelles, 2Maria Elizabete Villela
Santiago, 2Renata dos Santos Mendes
1
Universidade Federal de Itajubá - campus Itabira (Unifei - Itabira)
Itabira, MG, Brasil
2
Coautoras; Universidade Federal de Itajubá – campus Itabira (Unifei – Itabira)
Itabira, MG, Brasil
[email protected], [email protected], [email protected],
[email protected], [email protected], [email protected],
[email protected], [email protected], [email protected],
[email protected], [email protected]
RESUMO
O presente artigo analisa a importância da boa comunicação na formação e atuação do
profissional de engenharia. Foca-se o gênero artigo científico, delimitando desde a
importância enquanto meio de comunicação até as regras estruturais de sua construção.
Aborda, ainda, o uso da linguagem adequada assim como a Norma Brasileira (NBR) 6022 da
Associação Brasileira de Normas Técnicas (ABNT). O estudo busca, dessa forma, fornecer
as bases necessárias para a elaboração de um artigo científico, abordando principalmente o
papel desse gênero na engenharia. A elaboração deste artigo ocorreu por meio de pesquisa
bibliográfica e aborda, em suas seções, os seguintes tópicos: fatores positivos para a boa
comunicação na engenharia, apresentação de vantagens para se utilizar o artigo científico na
engenharia e instruções para elaboração de um artigo (normalização e linguagem). Devido
às dificuldades usuais para se elaborar um artigo, pretende-se que este estudo seja utilizado
como fonte de referência acerca de pontos importantes quanto ao assunto tratado. Concluise que o artigo científico é de suma importância para o setor da engenharia, principalmente
porque é um meio para divulgação de resultados que contribuem com os profissionais da
engenharia.
Palavras-Chave: Artigo científico. Engenharia. Comunicação. Elaboração. Normalização.
1. INTRODUÇÃO
O desenvolvimento da pesquisa científica, seja em qualquer área, requer do
pesquisador muito empenho e determinação. Isso se refere à necessidade de investigar e
apresentar respostas para questões de conflito em relação ao tema escolhido; por isso, é
importante que um profissional saiba desenvolver pesquisas e apresentar os resultados
destas durante a sua formação e atuação profissional. As pesquisas científicas variam
quanto ao enfoque, ao campo, ao objetivo e podem ser quantitativas, qualitativas ou
receberem diversas outras classificações; porém elas possuem um ponto em comum: uma
pesquisa, sem a devida divulgação de seus resultados, não tem valor científico algum.
Assim, uma das formas para divulgação de uma pesquisa é o artigo científico, que, por sua
vez, requer atenção diferenciada.
Artigos científicos são ferramentas de grande importância para o complemento da
literatura no meio em que se insere e para tornar acessível o assunto tratado para o público
de interesse. Com tal objetivo, a publicação de um artigo científico implica muito mais
atenção do que se normalmente imagina, em um processo minucioso que vai desde a
definição do objeto a ser estudado até a publicação, que deve seguir normas necessárias
29
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
para eficácia da divulgação. A obediência aos padrões estabelecidos pode conferir ao artigo
produzido maior capacidade de impacto e importância, extrapolando os limites inicialmente
almejados, além de certificar a qualidade e promover a confiança no pesquisador e na
pesquisa. É um instrumento que acompanhará toda a vida profissional do estudante e
graduado em engenharia.
Entretanto, um estudante de engenharia, durante a produção de um artigo científico,
pode ter certas dúvidas como: qual a importância do artigo científico na engenharia? Como
se produzir corretamente um artigo científico? É fácil se confundir em meio a tantas normas,
e errar em algum aspecto durante a confecção de um artigo; por isso é fundamental prestar
bastante atenção durante todas as etapas de desenvolvimento deste. Assim, devido à
importância, e dificuldades de execução, faz-se extremamente necessária a existência de
orientações, tais como neste artigo, para ajudar acadêmicos, profissionais, ou quem quer
que deseje produzir um artigo, facilitando, então, a exposição de saberes provenientes de
uma pesquisa científica.
Como organização pressupõe o uso de regras, o artigo científico também é
regulamentado pela ABNT, visando à padronização e regulamentação das metodologias
aplicadas na produção e publicação de um artigo. Em vista disso, é necessário que se
busquem informações acerca da metodologia de produção de um artigo científico,
especialmente, em bibliografias especializadas e sítios da Internet. Não é difícil encontrar
auxílios para a produção de artigos, porém a grande maioria é confusa e extensa, criando
assim margem para o erro e dúvida.
Sendo assim, foram traçados dois aspectos a serem detalhados na extensão deste
trabalho: a importância do artigo científico, especialmente na área das engenharias, e as
normas, tanto ao desenvolvimento quanto à produção gráfica para estruturar de maneira
adequada o artigo. Portanto, será apresentada, neste trabalho, a importância do artigo
científico na engenharia, enquanto meio de comunicação, bem como a normalização
aplicada (ABNT NBR 6022), tudo isso de forma sucinta, intencionando prestar assistência a
quem queira obedecer aos requisitos fundamentais para o desenvolvimento de um artigo
científico.
2. COMUNICAÇÃO NA ENGENHARIA
Um engenheiro verdadeiramente capacitado não se limita apenas em saber
empregar de forma correta os conhecimentos obtidos ao longo da graduação. Na verdade,
ele deve saber se expressar e comunicar com eficácia o seu trabalho, pois um bom trabalho
aprisionado na cabeça de seu criador é inteiramente inútil.
A comunicação está sempre presente na vida do engenheiro. Ele precisa dar ordens,
realizar projetos, elaborar relatórios, preparar manuais e divulgar seus trabalhos. Dessa
forma, ele precisa deixar claro o que tem em mente (BLIKSTEIN, 2006), levando em
consideração que comunicar gera o pressuposto de que os interlocutores têm um repertório
comum de palavras, as quais são compreendidas da mesma forma (VANOYE, 2007). E
ainda: compreende-se algo à medida que a palavra apresentada possui, para vários
indivíduos, alguma uniformidade fixada pelo uso da língua (VANOYE, 2007). Por isso, é
necessário que o profissional pesquise as informações, selecione-as e armazene-as, para
que ele possa comunicar às pessoas ao seu redor as informações mais importantes sobre a
sua área. Apesar disso, muitas pessoas não levam esta habilidade a sério, pois possuem o
pensamento equivocado de que um indivíduo que projeta e calcula tem a comunicação em
sua vida como algo irrelevante, deixando-a em segundo plano.
Portanto, a eficácia de um engenheiro depende tanto da qualidade do seu trabalho
quanto da sua desenvoltura em fazer com que as pessoas o entendam. Ser compreendido é
tão importante quanto ser competente tecnicamente.
30
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
3. VANTAGENS DE SE UTILIZAR O ARTIGO CIENTÍFICO NA ENGENHARIA
O engenheiro é essencial para a sociedade. Praticamente todos os grandes avanços
pós-revolução industrial estão ligados à engenharia, pois esse profissional tem
desempenhado um importante papel nos âmbitos econômico, cultural e político, o que torna
importante, sem desmerecer as outras profissões, a formação de bons engenheiros para
enfrentarem os desafios deste século. E ser um bom engenheiro não se baseia apenas nos
conhecimentos técnicos sobre determinada área específica. Saber expressar suas ideias e
resultados e se comunicar de forma clara são pré-requisitos para a entrada no mercado de
trabalho. A comunicação, principalmente a escrita, faz-se constante no trabalho de um
engenheiro.
É hoje prática corriqueira de um engenheiro, mesmo que não dedicado à carreira de
investigação, escrever artigos para serem publicados em revistas especializadas de
abrangências nacional e internacional ou para serem apresentados em aulas, cursos,
palestras ou simpósios, sendo, portanto, relevante que o engenheiro saiba atender o
formato característico dos artigos científicos.
A escrita do engenheiro é a forma direta com que ele compartilha seu conhecimento
e transmite informações à sociedade. É a transformação de assuntos técnicos em
informações que serão executadas por um técnico ou expostas à população. A boa escrita
proporciona a eficiência da comunicação, que, se realizada com êxito, deve estabelecer o
pensamento comum e persuadir o leitor (BLIKSTEIN, 2006). Assim, ela deve ser sempre
feita de forma clara e precisa, com uma boa abordagem do tema e de forma coerente e
organizada.
O artigo científico é uma forma de escrita muito usada pelo profissional ou
acadêmico da engenharia, pois é um gênero que apresenta o resultado breve de uma
pesquisa realizada de acordo com a metodologia de ciência aceita pela comunidade
científica. É apresentado segundo uma linguagem e método próprios de uma área da
ciência e, de modo geral, com uma estrutura lógica de argumentação, apresentando o
problema, os objetivos, as hipóteses, as possíveis soluções do problema, a descrição dos
métodos e técnicas utilizados nos experimentos científicos, a análise dos resultados e a
conclusão. E neste contexto, tanto a normalização da metodologia de produção de um artigo
científico quanto a de outros tipos textuais têm contribuído para a organização das
informações nas diversas áreas do conhecimento de modo a tornar oficial a busca febril pelo
conhecimento. Além disso, facilita o direcionamento das pesquisas e a seriedade do estudo
para possível aquisição de investimentos financeiros.
Percebe-se que o artigo científico na engenharia é empregado tanto pelo profissional
quanto pelo acadêmico da engenharia. Como a principal função de um engenheiro é
solucionar problemas, este gênero textual lhe permite expor os resultados de trabalhos de
pesquisa à opinião pública. O seu principal objetivo é ser um meio rápido de divulgação,
tornando a análise do tema, metodologia e resultados conhecidos ao público.
Além da divulgação, a publicação de um artigo científico aumenta a credibilidade do
autor, pois pesquisadores com muitas publicações têm status social e melhores
oportunidades no mercado de trabalho. Publicando, eles também divulgam o nome da
instituição a que estão vinculados como também das empresas patrocinadoras, o que
aumenta o prestígio da sua instituição ou empresa, atrai novos investimentos e estimula a
perenização dos já concedidos. Além disso, ao escrever um artigo, o autor adquire
experiência profissional, enriquece o currículo e pode contribuir de maneira positiva para
com a humanidade.
4. INSTRUÇÕES PARA A ELABORAÇÃO DE UM ARTIGO
O artigo científico é utilizado para a apresentação de análises e resultados de
pesquisas. Ele tem a finalidade de lealdar e promover a divulgação de estudos e pesquisas
31
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
acerca de assuntos inéditos ou elucidações sobre questões em discussão na comunidade
científica (SEVERINO, 2007).
Para manter o foco principal, um bom artigo científico deve ser objetivo e conciso,
para facilitar a busca e entendimento do assunto abordado. É importante lembrar que não
existe fórmula mágica para um artigo perfeito, mas sim orientações para a boa elaboração,
as quais servem para organizar de maneira lógica e sequencial as ideias do autor.
A sequência lógica envolve, primeiro, uma introdução sucinta que enuncia um
problema e mostra possíveis soluções, hipóteses a serem trabalhadas. Nela o autor tem
maior liberdade para mostrar suas considerações.
Depois é a vez de apresentar os métodos científicos utilizados e a justificativa da
escolha, o que proporciona um bom encaminhamento para o desenvolvimento. Durante
esse passo, o autor deve focar-se no que é relevante. Toda essa parte deve ser ordenada
como um manual, mostrando o que é importante e retirando as partes que não
comprometem o entendimento. Muitos acadêmicos tornam o texto repetitivo, pois retraem
partes importantes para colocar outras supérfluas. O desenvolvimento não pode ser muito
breve nem longo em demasia, mas deve oferecer explicações condizentes para que o leitor
possa repetir o experimento explicado e obter os mesmos resultados.
A conclusão ou considerações finais demonstram a importância do artigo e possíveis
novas linhas de pesquisas.
Além de domínio do conteúdo, cabe ao autor ter coerência e bom conhecimento da
norma culta. Afinal, o artigo deve refletir seriedade, não podendo conter erros básicos de
estruturação.
4.1. NORMALIZAÇÃO E ESTRUTURAÇÃO DO ARTIGO
A estrutura do artigo científico, normalizado pela NBR 6022 (ASSOCIAÇÃO
BRASILEIRA DE NORMAS TÉCNICAS, 2003a), constitui-se em:
a) elementos pré-textuais (título e subtítulo, identificação da autoria, resumo na língua do
texto, palavras-chave na língua do texto);
b) elementos textuais (introdução, desenvolvimento e considerações finais);
c) elementos pós-textuais (título e subtítulo em língua estrangeira, resumo em língua
estrangeira, palavras-chave em língua estrangeira, notas explicativas, referências, glossário,
apêndice e anexo).
4.2. ELABORAÇÃO DAS SEÇÕES
Para melhor compreensão, apresentar-se-á a normalização e estruturação do artigo
científico segundo a ABNT NBR 6022.
Após o título e a indicação de autoria, é estruturado o resumo (de 100 a 250
palavras), que contribuirá para despertar no leitor a vontade de conhecer todas as
informações apresentadas em um artigo. Segundo a NBR 6028 (ASSOCIAÇÃO
BRASILEIRA DE NORMAS TÉCNICAS, 2003c), o resumo deve salientar o objetivo, a
metodologia, os resultados e as conclusões do documento, para cuja ordem e extensão
deve ser considerado o tipo de resumo (informativo ou indicativo) e a maneira com a qual
cada item foi abordado no documento original. Nessa parte ainda são acrescidas as
palavras-chave, que são alocadas abaixo do resumo e iniciadas pela expressão
correspondente (Palavras-chave:), sendo o ponto o que separa e finaliza cada uma delas.
A introdução deve assinalar muito bem qual será o problema tratado no artigo, os
objetivos de sua realização e a relevância da pesquisa realizada para determinada área do
conhecimento, no intuito de, também, prender a atenção do leitor. Assim, nesta seção, devese delimitar o assunto e apresentar os objetivos da pesquisa bem como outros itens que
32
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
sirvam para situar o tema do artigo (ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS,
2003a).
O desenvolvimento é a parte seguinte na qual há a exposição de toda a base teórica
que fundamentou a pesquisa, as hipóteses levantadas, os experimentos realizados bem
como os resultados obtidos. No desenvolvimento, pode-se utilizar a numeração progressiva,
para expor, numa sequência lógica, os assuntos tratados naquele documento, facilitando a
sua localização de acordo com a NBR 6024 (ASSOCIAÇÃO BRASILEIRA DE NORMAS
TÉCNICAS, 2003b). Assim, no texto, pode haver até cinco seções numéricas: a primária (1),
secundária (1.1), terciária (1.1.1), quaternária (1.1.1.1) e a quinária (1.1.1.1.1). Por fim, para
fundamentar a base teórica da pesquisa, a NBR 10520 regulamenta o uso de citações, as
quais consistem em mencionar uma informação que foi extraída de outra fonte
(ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS, 2002b), visando ao enriquecimento
de um texto sem, contudo, perder de vista os princípios éticos.
Nas considerações finais, há que se fazer uma conclusão do estudo de forma objetiva
e concisa, resumindo os resultados obtidos, encerrando o estudo feito e deixando espaço
para as próximas possíveis pesquisas porque nenhuma verdade é absoluta.
E para encerramento do artigo, são apresentados os elementos pós-textuais, quais
sejam: título e subtítulo em língua estrangeira, resumo e palavras-chave em língua
estrangeira, notas explicativas (utilizadas para fragmentos que não possam ser inseridos no
texto), as referências – dados que permitem a identificação de livros, artigos e outras obras
usadas e referenciadas ao longo do artigo, as quais devem obedecer à NBR 6023
(ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS, 2002a) –, o glossário, o apêndice e
o anexo.
4.3. LINGUAGEM
Como qualquer outra redação acadêmico-científica, o artigo requer uma linguagem
precisa e apoiada no sentido denotativo das palavras. Assim, é necessário que se recorra à
linguagem impessoal por meio do uso de verbos conjugados na terceira pessoa,
demonstrando, dessa maneira, certa modéstia. É imprescindível a linguagem objetiva e clara,
privilegiando-se o uso da razão em detrimento da emoção. Vale lembrar que,
frequentemente, muitas pessoas pensam que o artigo científico é sinônimo de texto extenso,
mas, entretanto, o que vale é a qualidade das informações, atentando-se para o uso de
frases completas e sucintas, para que se obtenha um texto conciso e não prolixo (extenso e
redundante).
Ademais, é prudente que não se usem os clichês, pois estes causam prejuízo ao
valor do texto (MEDEIROS, 2010). É importante também que se empregue, na redação de
um artigo, um código fechado, no qual se utilizam palavras específicas que impedem a
ambiguidade (MEDEIROS, 2010), porque isso confere maior precisão ao texto, evitando-se a
transmissão de ideias vagas e genéricas que não são compatíveis com a objetividade de
uma redação acadêmica.
É obvia, pois, a necessidade de emprego da linguagem formal; por isso deve-se
obedecer às normas gramaticais sem, claro, excessiva preocupação sob pena de se perder a
espontaneidade do texto. Dessa forma, ressalta-se que, durante a escrita, deve-se ter
cuidado gramatical, preocupando-se com a estrutura da frase que engloba o sujeito, o
predicado e o complemento e suas respectivas distribuições dentro da frase (MEDEIROS,
2010).
5. CONSIDERAÇÕES FINAIS
A elaboração de um artigo científico é essencial para a divulgação de resultados de
uma pesquisa científica e, devido à sua normalização pela ABNT, tem contribuído com a
sistematização da metodologia de aquisição e produção de conhecimento, haja vista a forte
33
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
atuação dos profissionais da engenharia nessa área. E, como qualquer outro profissional, é
necessário saber a metodologia de produção de um artigo científico, levando-se em conta a
relevância deste para o reconhecimento de uma pesquisa e de seu autor na comunidade
científica.
Mas, sabendo-se das diversas dúvidas que permeiam a mente de quem tem de
produzir esse gênero textual, elaborou-se este estudo, tendo, como estímulo, a demasiada
importância de se fazer uma pesquisa e a possibilidade de status social que esta oferece,
quando se logra êxito, já que um texto bem redigido coloca uma informação, fruto do trabalho
intelectual às vezes de uma minoria, à disposição da sociedade.
Para se produzir um artigo, é necessário saber comunicar-se de forma objetiva,
concisa, impessoal e formal, o que é muito importante nas jornadas acadêmica e profissional
de um engenheiro, que necessita dar ordens, dividir tarefas e elaborar projetos, pesquisas e
relatórios. Além disso, espera-se desse profissional a habilidade de trabalho em equipe nos
ambientes acadêmico e empresarial, evidenciando, novamente, a exigência de uma boa
capacidade de comunicação e de oratória.
E como o papel mais primitivo do engenheiro é resolver problemas por meio do
desenvolvimento de novas técnicas ou pela otimização das existentes, o artigo, cuja
estrutura segue uma lógica argumentativa, é de suma importância para o amadurecimento
profissional de qualquer engenheiro, o que acarreta o desenvolvimento da prática da ciência.
Por isso, torna-se relevante que os engenheiros saibam produzir adequadamente esse meio
de comunicação escrita, cuja confecção requer muita pesquisa, dedicação e disciplina, dos
quais o principal benefício é a contribuição com o progresso humano-científico.
6. REFERÊNCIAS
ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS. (2003a). NBR 6022. Informação e
documentação – Artigo em publicação periódica científica impressa – Apresentação. Rio
de Janeiro.
______. (2002a). NBR 6023. Informação e documentação – Referências – Elaboração. Rio
de Janeiro.
______. (2003b). NBR 6024. Informação e documentação – Numeração progressiva das
seções de um documento escrito – Apresentação. Rio de Janeiro.
______. (2003c). NBR 6028. Informação e documentação – Resumo – Apresentação. Rio
de Janeiro.
______. (2002b). NBR 10520. Informação e documentação – Citações em documentos –
Apresentação. Rio de Janeiro.
BLIKSTEIN, Izidoro. (2006). Técnicas de comunicação escrita. 22. ed. São Paulo: Ática.
MEDEIROS, João Bosco. (2010). Redação empresarial. 7. ed. São Paulo: Atlas.
SEVERINO, Antônio Joaquim. (2007). Metodologia do trabalho científico. 23. ed. rev. e
atual. São Paulo: Cortez.
VANOYE, Francis. (2007). Usos da linguagem: problemas e técnicas na produção oral e
escrita. Tradução: Clarice Madureira Sabóia. 13. ed. São Paulo: Martins Fontes.
34
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
A legislação de saúde e segurança no trabalho aplicável
aos servidores públicos das universidades federais
brasileiras
1
2
Celso Lima Bitencourt, Hilda Alevato
1,2
Universidade Federal Fluminense (UFF), Niterói, RJ, Brasil
1
2
[email protected], [email protected]
RESUMO
O presente artigo apresenta uma análise das iniciativas legais voltadas à proteção da saúde
e da segurança no trabalho dos servidores técnico-administrativos das Instituições Federais
de Ensino Superior - IFES a partir do levantamento da legislação aplicável a tais servidores.
A Constituição Federal, a Consolidação das Leis do Trabalho e a Lei nº 8.112/1990
compuseram as referências básicas para o desenvolvimento desta pesquisa, de natureza
documental. Os documentos pesquisados foram consultados através de meio eletrônico. Os
resultados deste estudo permitem afirmar que há um esforço governamental no sentido de
melhorar o amparo legal nos assuntos relacionados à saúde e segurança dos servidores e
criar condições de aplicação das recomendações e normas já existentes. Tal esforço, no
entanto, ainda não contempla inúmeros aspectos já consagrados para os trabalhadores
contratados sob o regime da Consolidação das Leis do Trabalho - CLT como, por exemplo,
a exigência de um número mínimo de profissionais da área de Engenharia de Segurança e
Medicina do Trabalho.
Palavras-Chave: Legislação, Saúde e Segurança no Trabalho, Servidor Público Federal
1. INTRODUÇÃO
Com as mudanças globais e seus diversos seguimentos, a introdução de novas
tecnologias, a revolução da informação e muitos outros aspectos do mundo do trabalho na
contemporaneidade, grandes investimentos em máquinas, equipamentos e instalações são
realizados pelas organizações em busca de melhor desempenho empresarial; tais
investimentos, porém, não apresentam os resultados desejados sem o investimento
correspondente nas pessoas e nos bens intangíveis, tais como o conhecimento humano.
Neste sentido, o papel das Universidades é cada vez mais destacado. É nelas que se
produz conhecimento científico de valor e é através de sua atuação que este conhecimento
é socializado e transformado em benefícios para a população e para o país.
A diversidade de atividades profissionais relacionadas à pesquisa, ao ensino e à
extensão em todas as áreas do conhecimento – pilares de sustentação das universidades
brasileiras – é, sem dúvida, bastante ampla. Durante a execução de suas funções, o
servidor público das Instituições Federais de Ensino Superior (IFES) está submetido a riscos
laborais semelhantes aos que se expõem os trabalhadores regidos pela Consolidação das
Leis do Trabalho – CLT. A grande diferença, porém, reside na prevenção, no cumprimento
da legislação e na fiscalização sobre os empregadores, que fazem com que, no campo da
SST, o amparo dado ao trabalhador celetista e o amparo destinado ao servidor público
estatutário não garantam a mesma proteção.
Dentre as leis relacionadas à Saúde e Segurança do Trabalho - SST é possível citar
o exemplo das Leis nº 6.514/77 e 8.213/91, além das Normas Regulamentadoras (NR) do
Ministério do Trabalho e Emprego, existentes desde a década de 1970 do século passado.
Com relação aos servidores estatutários, o cumprimento da lei, porém, ainda não tem
mostrado grande vigor.
35
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Com aproximadamente 540 mil servidores espalhados por todo o País (Revista
Proteção nº 226/10), promover condições adequadas à proteção da saúde e segurança no
trabalho torna-se um grande desafio para o governo federal. Desse total, mais de 180 mil
são trabalhadores técnico-administrativos em educação1, atuando nas 52 IFES2 que
englobam as Universidades Federais, as Instituições Isoladas e os Centros de Educação
Tecnológica.
Apesar dos compromissos internacionais assumidos pelo governo brasileiro ao
assinar a Convenção no. 161 da Organização Internacional do Trabalho - OIT, dentre outras,
muito pouco se faz em relação à saúde e segurança no trabalho (SST) dos servidores
públicos. Mesmo tendo asseverado há mais de duas décadas (Decreto 127, de 22/05/91)
que “se compromete a instituir, progressivamente, serviços de saúde no trabalho para todos
os trabalhadores, entre os quais se contam os do setor público e os cooperantes das
cooperativas de produção, em todos os ramos da atividade econômica e em todas as
empresas;” e que “as disposições adotadas deverão ser adequadas e corresponder aos
riscos específicos que prevalecem nas empresas” o governo brasileiro tem dedicado
atenção tardia aos riscos enfrentados por seus servidores estatutários.
2 – A LEGISLAÇÃO DE SAÚDE E SEGURANÇA NO TRABALHO APLICÁVEL
AOS SERVIDORES PÚBLICOS DAS UNIVERSIDADES FEDERAIS BRASILEIRAS
A Constituição da República Federativa do Brasil promulgada em 1988 instituiu, no
Capítulo referente aos direitos sociais, uma série de direitos voltados aos trabalhadores. Em
seu Art. 39 (atualizado pela Emenda Constitucional 19/98), os servidores públicos da
administração direta são lembrados e a eles é assegurado, dentre outros pontos, o
constante do Art. 7º em relação ao direito à “redução dos riscos inerentes ao trabalho por
meio de normas de saúde higiene e segurança”.
Além de disposições a respeito dos adicionais de periculosidade e insalubridade, a
Lei nº 8.112/90 também aborda outros assuntos pertinentes à Saúde e Segurança do
Trabalho - SST do servidor público federal. Quanto à licença por acidente em serviço, por
exemplo, a Lei determina que o servidor seja licenciado com remuneração integral. Ainda
segundo a mesma Lei, “Configura-se acidente em serviço o dano físico ou mental sofrido
pelo servidor, que se relacione, mediata ou imediatamente, com as atribuições do cargo
exercido”.
A Portaria nº 1.675, de 6/10/06, instituiu o “Manual para os Serviços de Saúde dos
Servidores Civis Federais”. Esta Portaria faz referência aos procedimentos periciais em
saúde, para uso clínico e epidemiológico, em busca de uniformizar a política de seguridade
social para todos os servidores civis federais.
A Portaria nº 3.214/78, do Ministério do Trabalho e Emprego que aprovou as NR é
aplicável apenas aos servidores regidos pela CLT. Porém, a Portaria nº 1.675/06 recepciona
no âmbito do SIPEC (Sistema de Pessoal Civil) – ligado ao Ministério do Planejamento,
Orçamento e Gestão – as NR nº 07 e 09, do Ministério do Trabalho e Emprego - MTe.
A NR-7 estabelece a obrigatoriedade de elaboração e implementação do Programa
do Controle Médico de Saúde Ocupacional – PCMSO, por parte de todos os empregadores
e instituições que admitam trabalhadores como empregados, com o objetivo de promoção e
preservação da saúde do conjunto dos seus trabalhadores. Já a NR-9 estabelece a
obrigatoriedade da elaboração e implementação, por parte de todos os empregadores e
instituições que admitam trabalhadores como empregados, do Programa de Prevenção de
Riscos Ambientais – PPRA, visando à preservação da saúde e da integridade dos
trabalhadores, através da antecipação, reconhecimento, avaliação e consequente controle
1
2
www.fasubra.org.br. Acesso em 19/09/2011.
www.educabrasil.com.br. Acesso em 20/09/2011.
36
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
da ocorrência de riscos ambientais existentes ou que venham a existir no ambiente de
trabalho, tendo em consideração a proteção do meio ambiente e dos recursos naturais.
De acordo com a Portaria nº 1.675/06, do Ministério do Planejamento, Orçamento e
Gestão, a caracterização de acidente em serviço deverá ser feita por Médico do Trabalho,
pelo engenheiro de segurança do trabalho, por técnico de segurança do trabalho, ou ainda
por um fiscal / inspetor de vigilância sanitária, de acordo com os critérios legais
estabelecidos. Nessa Portaria pode ser observada uma definição de acidente em serviço de
caráter mais abrangente que a dada pela Lei 8112/90, além da introdução do conceito de
doença profissional ou do trabalho. Conforme seu texto, os danos decorrentes de agressão,
acidentes de percurso e outras condições especiais de trabalho são equiparados ao
acidente de trabalho ou em serviço.
O prazo para a comunicação do acidente em serviço é de até 48 (quarenta e oito)
horas úteis, podendo ser realizada pelo próprio servidor, pela sua família, sua chefia
imediata ou pela equipe de vigilância à saúde do servidor. A referida comunicação se dará
através de formulário próprio definido como Comunicação de Acidente em Serviço – CAS.
Posteriormente, o Decreto nº 6.833, de 29/04/09, do Ministério do Planejamento,
Orçamento e Gestão – MPOG –, revogou o Decreto nº 5.961, de 13/11/06 (que instituía o
Sistema Integrado de Saúde Ocupacional do Servidor Público Federal – SISOSP, que tinha
por finalidade uniformizar os procedimentos administrativos em busca da promoção da
saúde ocupacional do servidor público federal) e instituiu o Comitê Gestor de Atenção à
Saúde do Servidor, integrante do SIPEC, e o Subsistema Integrado de Atenção à Saúde do
Servidor – SIASS – com o objetivo de “coordenar e integrar ações e programas nas áreas
de assistência à saúde, perícia oficial, promoção, prevenção e acompanhamento da saúde
dos servidores da administração federal direta, autárquica e fundacional”.
Ainda segundo o Decreto nº 6.833, o Comitê Gestor terá como uma de suas
atribuições aprovar as diretrizes para aplicação da política de atenção à SST do servidor
público federal, e para capacitação dos servidores em exercício nas unidades do SIASS. O
SIASS, através do art.4º, inciso VI, parágrafo 2º, especifica a preocupação do poder
executivo federal no que se refere às ações voltadas à preservação da saúde do servidor e
à redução do absenteísmo laboral.
De acordo com o Decreto nº 6.856, de 25/05/09, “a realização de exames médicos
periódicos tem como objetivo, prioritariamente, a preservação da saúde dos servidores, em
função de riscos existentes no ambiente de trabalho e de doenças ocupacionais ou
profissionais”. No caso de acumulação legal de cargos públicos federais, estes exames
periódicos deverão ser realizados com base no cargo de maior exposição a riscos nos
ambientes de trabalho.
Quanto à periodicidade dos exames médicos periódicos, o Decreto nº 6.856, de
25/05/09, estabelece intervalos: bienais (para servidores entre 18 e 45 anos) anuais (para
servidores acima de 45 anos) e intervalos menores para os servidores expostos a riscos que
possam implicar o desencadeamento ou agravamento de doença profissional ou
ocupacional e para os portadores de doenças crônicas. No caso de servidores que operam
com Raios-X ou substâncias radioativas, serão submetidos a exames médicos periódicos a
cada seis meses.
As orientações para aplicação do Decreto nº 6.856, de 25/05/09, são estabelecidas
pela Portaria Normativa (PN) nº 4, de 15/09/09, da Secretaria de Recursos Humanos, do
Ministério do Planejamento, Orçamento e Gestão – MPOG, que revogou a Instrução
Normativa (IN) nº 1, de 03/07/08, também do MPOG, que tratava dos exames médicos
periódicos previstos no art. 21, Inciso II, da Portaria nº 1, de 27/12/07 (MPOG). De acordo
com a PN nº 4, de 15/09/09 (MPOG), independentemente de adesão a planos de saúde, os
exames médicos periódicos dos servidores públicos federais ativos, deverão abranger todos
os servidores ativos, além dos nomeados para cargos em comissão e os anistiados que
retornaram à administração direta.
37
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Ainda de acordo com a PN nº 4, o planejamento e execução dos exames periódicos
de saúde dos servidores e empregados públicos poderão ser prestados diretamente pelos
órgãos ou entidades, e também mediante contratos administrativos com operadoras de
planos de assistência à saúde, observado o disposto na Lei nº 8.666, de 21/06/93.
O Decreto nº 7.003, de 9/11/09, regulamenta a licença para tratamento de saúde de
servidor de que tratam os artigos 202 a 205 da Lei nº 8.112/90, e os casos em que poderá
ser dispensada a perícia oficial.
A Orientação Normativa (ON) SRH/MPOG nº 2, de 19/02/10, estabelece orientação
sobre a concessão dos adicionais de insalubridade, periculosidade, irradiação ionizante e
gratificação por trabalhos com Raios-X ou substâncias radioativas e objetiva uniformizar
entendimentos no tocante à concessão de adicionais estabelecidos pelos artigos 68 a 70 da
Lei nº 8.112, de 11/12/90, pelo artigo 12 da Lei nº 8.270, de 17/12/91, e pelo Decreto nº
97.458, de 15/01/89. Essa Orientação traz modificações em relação aos textos da ON nº 4,
de 13/07/05, da ON nº 6, de 23/12/09, e do Ofício Circular nº 25/COGSS/DERT/SRH/MP, de
14/12/05.
No caso dos trabalhadores regidos pelo regime da CLT, o adicional de insalubridade
é calculado sobre o salário mínimo, através dos percentuais 10%, 20% e 40% para
insalubridade de grau mínimo, médio e máximo, respectivamente, e a periculosidade, 30%
incidente sobre o salário, sem os acréscimos resultantes de gratificações, prêmios ou
participação nos lucros da empresa. Diferentemente, no caso dos servidores abrangidos
pela ON no. 6, a gratificação e os adicionais são calculados sobre o vencimento do cargo
efetivo, tendo como base percentuais entre 5 e 20%, de acordo com a situação. De acordo
com a ON SRH/MPOG nº 2, de 19/02/2010, a caracterização e a justificativa para a
concessão de adicionais de insalubridade e periculosidade dependem de laudo técnico nos
termos das NR 15 e 16 bem como o estabelecido nos Anexos II e III da mesma ON.
Vale ressaltar que as NR nº 15 e 16 previstas na Portaria nº 3.214/78, do MTe, citada
nessa ON nº 2, têm sua aplicabilidade voltada para os trabalhadores sob o regime da
Consolidação das Leis do Trabalho – CLT; porém, a caracterização e justificativa para a
concessão dos adicionais a que se referem essas NR aos servidores, quando houver
exposição permanente ou habitual a agentes físicos ou químicos, se dará por meio de laudo
técnico, como já foi dito. Esse laudo técnico para concessão de adicionais não terá prazo de
validade, segundo a ON nº 2, e sempre que houver alteração dos riscos presentes deverá
ser refeito. Deverá também ser preenchido pelo Médico do Trabalho ou Engenheiro de
Segurança do Trabalho, ocupante do cargo público, na esfera federal, estadual, municipal
ou do Distrito Federal.
Segundo a mesma ON, o servidor somente poderá receber um adicional ou
gratificação. Além disso, a concessão desses adicionais ou da gratificação são formas de
remuneração do risco à saúde dos trabalhadores e têm caráter transitório, enquanto durar a
exposição, de acordo com a Lei nº 8.112/90: o “direito ao adicional de insalubridade ou
periculosidade cessa com a eliminação das condições ou dos riscos que deram causa à sua
concessão”. Essa Lei acompanha o que já estava previsto na NR-15, do MTe.
A PN nº 2 de 22/03/10, do MPOG, estabelece orientações básicas sobre os
procedimentos mínimos para a realização de Acordos de Cooperação Técnica (ACT) para a
criação das unidades do SIASS do Servidor Público Federal, previstas no art. 7º do Decreto
nº 6.833, de 29/04/09, além de revogar a Portaria nº 5, de 15/09/09. As ações consensuadas
nos ACT serão avaliadas quanto ao cumprimento de seus objetivos após um ano de sua
assinatura, e serão supervisionadas por uma comissão interinstitucional constituída por, pelo
menos, um representante de cada um dos órgãos partícipes.
Ainda conforme a PN nº 2, de 22/03/10, o prazo de vigência do Acordo de
Cooperação Técnica será de 24 meses, a contar da data de assinatura, e poderá ser
prorrogado mediante Termo Aditivo, desde que haja interesse dos partícipes, nos termos do
art.57, da Lei nº 8.666/93.
38
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
A PN nº 3, de 07/05/2010, estabelece orientações básicas sobre a Norma
Operacional de Saúde do Servidor – NOSS, e tem como finalidade a criação de um
instrumento que oriente a implantação de serviços e o desenvolvimento de ações inerentes
às áreas de Vigilância e Promoção à Saúde do Servidor Público Federal. A NOSS é
direcionada para os órgãos e entidades que compõem o Sistema de Pessoal Civil da
Administração Pública Federal – SIPEC.
A NOSS apresenta relevantes conceitos para aplicabilidade das ações da Política de
Atenção à Saúde e Segurança do Trabalho do Servidor Público Federal, no que concerne a:
Acidente em Serviço, Ambiente de Trabalho, Condições de Trabalho, Equipe
Multiprofissional, Organização do Trabalho, Prevenção, Processo de Trabalho, Promoção à
Saúde do Servidor, Proteção à Saúde, Risco e Vigilância em Saúde do Servidor. A NOSS
sustenta-se na interrelação entre os eixos de vigilância e promoção, perícia médica e
assistência à saúde do SIASS.
3 - CONSIDERAÇÕES FINAIS
É possível perceber na breve apresentação da legislação analisada por este
trabalho, a preocupação governamental a respeito dos aspectos relacionados à saúde e
segurança no trabalho de seus servidores civis.
É possível também perceber através dos destaques aqui registrados que o governo
federal vem procurando propiciar o aprimoramento de suas instituições, normatizando,
regulamentando, indicando responsabilidades e favorecendo um melhor atendimento às
condições de saúde e de trabalho dos servidores.
Nesse sentido, é interessante registrar avanços através da análise da legislação
voltada para saúde e segurança no trabalho, especialmente na última década. No entanto,
ainda há um longo caminho a ser percorrido em relação às múltiplas facetas do campo da
saúde e segurança no trabalho. Especialmente no caso dos servidores públicos técnicoadministrativos lotados nas universidades federais brasileiras, é importante considerar
também a complexidade de lidar com milhares de profissionais, espalhados pelo território e
exercendo atividades das mais variadas e seus diferentes riscos.
Se as exigências contidas na legislação voltada à saúde e segurança no trabalho
para os trabalhadores celetistas fossem estendidas aos servidores estatutários, os avanços
poderiam ser ainda mais relevantes. Ou seja, se houvesse a preocupação de obedecer aos
compromissos assumidos pelo país, ao assinar as Convenções internacionais da OIT,
citadas na Introdução deste texto, já seria possível registrar um grande salto de qualidade
social.
Além da preocupação governamental na adequação de uma legislação voltada à
saúde e segurança no trabalho dos servidores públicos da administração pública federal,
autárquica e fundacional, há necessidade de reflexão sobre inúmeros aspectos ainda não
contemplados na prática: as condições disponíveis para a realização das atividades, a
existência e a qualidade dos equipamentos de proteção individual e coletiva, a ausência de
fiscalização e de rigor na aplicação das leis, dentre muitos outros.
Na legislação e nos textos examinados para a pesquisa aqui sintetizada, não foi
percebida, por exemplo, a exigência de um número mínimo de profissionais da área de
Engenharia de Segurança e Medicina do Trabalho como ocorre na legislação aplicada aos
trabalhadores sujeitos ao regime Celetista. É fácil, portanto, constatar a emergência da
atenção sobre a saúde e a segurança no trabalho dos servidores públicos. Grande parte dos
vitimados poderia ter sido poupada se houvesse mais cuidado no trato com a vida humana.
É preciso que a administração pública dê o exemplo.
39
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
5. REFERÊNCIAS
BRASIL. Lei nº 8.112, de 11 de dezembro de 1990. Diário Oficial da República Federativa do
Brasil, Brasília, DF, 12 de dezembro de 1990.
Constituição da República Federativa do Brasil de 1988. Brasília, 5 de outubro de 1988.
Disponível em www.planalto.gov.br.
Decreto nº 5.961, de 13 de novembro de 2006. Diário Oficial da República Federativa do
Brasil, Brasília, DF, 14 de novembro de 2006.
Decreto nº 6.833, de 29 de abril de 2009. Diário Oficial da República Federativa do Brasil,
Brasília, DF, 30 de abril de 2009.
Decreto nº 7.003, de 09 de novembro de 2009. Diário Oficial da República Federativa do
Brasil, Brasília, DF, 10 de novembro de 2009.
Instrução Normativa nº 1, de 03 de julho de 2008. Diário Oficial da República Federativa do
Brasil, Brasília, DF, 08 de julho de 2008.
Lei nº 6.514, de 22 de dezembro de 1977. Diário Oficial da República Federativa do Brasil,
Brasília, DF, 23 de dezembro de 1977.
Lei nº 8.213, de 24 de julho de 1991.Diário Oficial da República Federativa do Brasil,
Brasília, DF, 14 de agosto de 1991.
Lei nº 8.270, de 17 de dezembro de 1991. Diário Oficial da República Federativa do Brasil,
Brasília, DF, 18 de dezembro de 1991.
Orientação Normativa nº 4, de 13 de julho de 2005. Diário Oficial da República Federativa do
Brasil, Brasília, DF, 14 de julho de 2005.
Orientação Normativa SRH/MPOG nº 2, de 19 de fevereiro de 2010. Diário Oficial da
República Federativa do Brasil, Brasília, DF, 22 de fevereiro de 2010.
Orientação Normativa SRH/MPOG nº 6, de 23 de dezembro de 2009. Diário Oficial da
República Federativa do Brasil, Brasília, DF, 24 de dezembro de 2009.
Portaria nº 1.675, de 6 de outubro de 2006. Diário Oficial da República Federativa do Brasil,
Brasília, DF, 7 de outubro de 2006.
Portaria nº 2, de 22 de março de 2010. Diário Oficial da República Federativa do Brasil,
Brasília, DF, 23 de março de 2010.
Portaria nº 3.214, de 8 de junho de 1978. Diário Oficial da República Federativa do Brasil,
Brasília, DF, 6 de julho de 1978.
Portaria nº 4, de 15 de setembro de 2009. Diário Oficial da República Federativa do Brasil,
Brasília, DF, 16 de setembro de 2009.
Portaria Normativa nº 01, de 27 de setembro de 2007. Diário Oficial da República Federativa
do Brasil, Brasília, DF, 28 de dezembro de 2007.
Portaria Normativa nº 03, de 07 de maio de 2010. Diário Oficial da República Federativa do
Brasil, Brasília, DF, 08 de maio de 2010.
Portaria Normativa nº 04, de 15 de setembro de 2009. Diário Oficial da República Federativa
do Brasil, Brasília, DF, 16 de setembro de 2009.
Portaria Normativa nº 05, de 15 de setembro de 2009. Diário Oficial da República Federativa
do Brasil, Brasília, DF, 16 de setembro de 2009.
Revista Proteção. Rio Grande do Sul: Proteção. nº 226, Ano XXIII, 2010.
40
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Ajuste de modelo de cobertura na faixa de 3,5 GHz para a
orla de Icaraí
1
2
3
Fabiano Carvalho dos Santos Assumpção, Felippe José Soares dos Santos, Leni Joaquim de Matos
1,2,3
Escola de Engenharia - Universidade Federal Fluminense (UFF)
Niterói, RJ, Brasil
1
[email protected],[email protected],[email protected]
RESUMO
Nos sistemas celulares atuais, aliar alto grau de mobilidade com altas taxas de
transmissão tem sido um grande desafio, devido às muitas variáveis decorrentes do
ambiente onde o usuário se encontra e que podem ocasionar a degradação do sinal rádio
móvel. Devido às suas características, a tecnologia WiMAX pode suprir tais necessidades.
Sendo, a princípio, a faixa de 3,5 GHz uma das reservadas para operação licenciada no
Brasil para tal tecnologia, é importante um estudo da cobertura de sinal nessa faixa. Com
este fim, medições foram realizadas e um modelo de cobertura de melhor ajuste foi
determinado para a região da orla de Icaraí.
Palavras-Chave: Modelos de Cobertura. Propagação em 3,5 GHz. Sondagem de canal.
1. INTRODUÇÃO
O desenvolvimento das tecnologias de telecomunicações exige cada vez mais
qualidade dos serviços oferecidos, tais como confiabilidade na transmissão/recepção de
dados e mobilidade com altas taxas de transmissão. Com tais características, a tecnologia
WiMAX surgiu como uma alternativa para os sistemas celulares atuais (ANDREWS et al.,
2007).
No projeto do sistema para cobrir determinada região, é importante atentar para
diversos fatores como a faixa de frequência utilizada, a morfologia e a topografia do
ambiente. Com isso, vários modelos de predição de cobertura de sinal têm surgido ao longo
dos anos (PARSONS, 2000); (BLAUNSTEIN, 1999); (PLITSIS, 2003) e são utilizados como
ferramentas auxiliares no cálculo de cobertura.
Com o objetivo de se determinar qual modelo de propagação deve ser usado para a
determinação de cobertura do sinal no ambiente onde será implantado o sistema, deve-se
dispor da frequência utilizada, altura e ganho da antena transmissora e receptora, potência
de transmissão, altura média de obstáculos, dentre outros.
A fim de se determinar qual o modelo que melhor se ajusta à região da orla de Icaraí,
é realizada uma sondagem no ambiente, onde níveis de sinal e distâncias Tx-Rx
(Transmissor-Receptor) são coletadas, com o deslocamento do móvel relativamente ao
transmissor (BERTONI, 2000). Na maioria dos casos, não se encontra um modelo que
represente melhor toda a região observada, sendo necessário dividir a região em setores e
verificar os modelos que se ajustam a cada setor (DIAS, 2010).
A Seção 2 descreve o sistema de medição empregado na sondagem do ambiente assim
como suas especificações e foto do ambiente sondado. Na Seção 3, são descritos alguns
modelos de predição de propagação para a faixa de frequência proposta e, na Seção 4, os
resultados dos cálculos de previsão de cobertura são fornecidos juntamente com os valores
práticos, medidos ao longo da orla. Finalmente, na Seção 5, conclui-se sobre o modelo
adequado para a cobertura de sinal de 3,5 GHz na região da orla de Icaraí.
41
VII Seminário Fluminense de Engenharia Niterói-RJ 19
9 de outubro de 2011
2. SISTEMA E AMBIENTE DE
D MEDIÇÃO
O sistema de transmissão, empregado nas medições, foi instalado no prédio da
Reitoria da UFF e consistia em: gerador de RF (rádio frequência), que gera um tom de 3,5
GHz no nível escolhido de 0 dBm (≡
( 1 mw) de potência; amplificador de potência com ganho
de 45 dB, polarizado por uma fonte DC e antena transmissora HG3511U-PRO,
omnidirecional, com ganho de 11 dBi, polarização vertical, faixa de operação de 3,4 a 3,7
MHz e 60 cm de comprimento. A Figura 1(a) mostra o diagrama de blocos do sistema de
transmissão e a Figura 1(b), os diagramas de irradiação da antena transmissora.
(a)
(b)
Figura 1. Sistema de transmissão:
transmissão (a) diagrama de blocos; (b) diagramas de irradiação da antena Tx.
Já o sistema de recepção, que foi montado no carro, deslocou-se
deslocou se ao longo da orla
com velocidade aproximada de 40 km/h e consistia em: antena receptora HG3505RD-RSP,
omnidirecional, do modelo rubber duck,
duck, 5 dBi de ganho, polarização vertical, faixa de
operação
ção de 3,4 a 3,6 MHz e 21 cm de comprimento; amplificador de baixo ruído (LNA);
analisador de espectro. A Figura 2(a) mostra o diagrama de blocos do sistema de recepção
e a Figura 2(b), os diagramas de irradiação da antena receptora.
A associação dos dados obtidos com a distância à antena transmissora que a
estação móvel se encontrava, seria feita conectando um GPS ao analisador de espectro,
porém, este não tinha a interface de GPS habilitada, então se adotou uma solução simples:
realizaram-se
se as medições em
em um dia de sábado, bem cedo, em que havia pouquíssimo
trânsito e, assim, foi possível manter a velocidade da estação móvel praticamente constante
e assumir que a distância percorrida até cada ponto era proporcional ao tempo despendido
desde o ponto iniciall em velocidade constante até o ponto em questão. O tempo foi marcado
com um cronômetro, sincronizado com a captura do sinal pelo analisador de espectro.
Dessa forma, também foi possível traçar a variação do sinal com a distância.
(a)
(b)
Figura 2. Sistema de recepção:
recepção (a) diagrama de blocos; (b) diagramas de irradiação da antena Rx.
O local escolhido para as medições foi a Avenida Jornalista Alberto Torres, na orla
da praia de Icaraí (1150 m), em Niterói. Como pode ser observado na Figura 3, o ambiente
42
VII Seminário Fluminense de Engenharia Niterói-RJ 19
9 de outubro de 2011
onde as medidas foram realizadas possui características bem diversificadas: de um lado,
l
prédios altos que podem causar reflexões do sinal; do outro, o mar que pode ocasionar a
dispersão do sinal, que nele é refletido. Além disso, a vegetação à frente ao local de
instalação da antena transmissora é responsável pela absorção, reflexão e espalhamento
es
do
sinal. Diante disto, para melhor modelar o ambiente, dividimos o mesmo em 3 trechos (A, B
e C) de acordo com sua condição de visada, a partir do local onde foi instalada a antena de
transmissão. Foi determinado um ponto de referência que se encontrava
encontrava a 115 m da
estação base, no qual já se estava com a velocidade de 40 km/h. Com isso, o trecho A
possui, aproximadamente, 47,32
47,32 m; a região de obstrução pela vegetação (trecho B) se
estende de 47,32 m até 286,4 m,
m aproximadamente, e o trecho C se estende de 286,4 m até
o fim do percurso das medições (1150 m). A Figura 4 mostra os trechos A e C com visada e
o B, aquele cuja visada é obstruída pela vegetação.
Figura 3. Visada da antena Tx.
Figura 4. Divisão da rota sondada em trechos.
43
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Para fins de comparação de resultados, foi determinado de forma aproximada o
momento de entrada na região B, mostrada na Figura 3(b), de forma que se pudesse
encontrar um modelo mais adequado para aquela região.
Antes de partir para as medições, todo o sistema que seria utilizado nas medições foi
simulado no laboratório e, além disso, foi realizada uma captura de sinais em toda a orla, na
frequência desejada, com a finalidade de observar se a frequência que seria usada estava
realmente livre de interferências.
3. MODELOS UTILIZADOS
Exemplos de modelos de predição de cobertura consagrados são: Okumura-Hata
(HATA, 1980), Hata COST 231, Walfisch-Ikegami com e sem visada (PLITSIS, 2003), Sui e
Erceg (ANDREWS ET al., 2007). Todos simulam o comportamento aleatório do sinal, mas
diferem nas características que são consideradas, por isso, foram considerados 2 (dois)
desses modelos com características mais próximas da orla de Icaraí: Okumura-Hata e Hata
COST 231, já que nos outros modelos as características do ambiente são diferentes das
considerações da região sondada. Para suas equações básicas de perda média (em dB),
tem-se:
•
Okumura-Hata
Aprop = 69,55 + 26,16 log(f) – 13,82 log(hb) + (44,9 – 6,55 hb) log(d) – a(hm)
Para grandes cidades e 400 MHz ≤ f ≤ 1500 MHz
a(hm) = 3,2 [log (11,75 hm)]2 - 4,97
Para pequenas e médias cidades:
a(hm) = [ 1,1.log f( MHz ) - 0,7 ].hm- [ 1,56.log f( MHz ) - 0,8 ] (dB)
•
Hata COST231 (estende-se até 6 GHz, segundo Plitsis)
Aprop = 46,3 + 33,9 log(f) – 13,82 log(hb) + (44,9 – 6,55 hb) log(d) – a(hm) + CF
onde: a(hm) = [ 1,1.log f( MHz ) - 0,7 ].hm- [ 1,56.log f( MHz ) - 0,8 ] (dB)
CF = 3 dB, para áreas urbanas
CF = 0 dB, para áreas suburbanas
f ≤ 2GHz (confirmado por Plitsis para até 6 GHz)
Quanto aos parâmetros que aparecem nas fórmulas, são definidos:
f → frequência em MHz
hm → altura da antena na estação móvel
hb → altura da antena na estação base
d → distância entre a base e o móvel (km)
CF → fator de correção do modelo de Hata COST 231
4. RESULTADOS
Através de programação adequada, simulou-se um script, que realiza o cálculo da
atenuação de sinal para cada modelo de predição citado no item 3 e, então, comparou-se os
resultados obtidos utilizando o teste de aderência, conhecido como Chi-Quadrado, que
avalia o quanto os valores observados estão próximos dos valores esperados. O modelo
que apresenta menor valor da variável Chi-Quadrado é aquele que mais se ajusta aos
dados obtidos das medições.
44
VII Seminário Fluminense de Engenharia Niterói-RJ 19
9 de outubro de 2011
A Tabela 1 mostra os resultados dos testes de aderência dos modelos para cada
trecho, mostrado na Figura 4.
4 Na Figura 5,, as curvas dos modelos que melhor aderem ao
ambiente sondado são mostradas. Vale ressaltar que os outros modelos apenas citados no
item 3 foram testados, para fins de constatação, mas o erro de ajuste foi acima daqueles
encontrados nos modelos mostrados na tabela 1, como era de se esperar.
Tabela 1. Teste de Aderência de cada modelo para cada trecho da orla.
Modelo
Okumura-Hata, pequenas e médias cidades
Okumura-Hata,
Hata, grandes cidades
Hata COST 231, para meios suburbanos
Hata COST 231, para meios urbanos
da Região
A
148,6
134,1
66,2
28,5
da Região
B
84,7
74,4
29,7
11,7
da Região
C
81,2
86,8
133,1
191,9
Figura 5 – Decaimento do sinal recebido com a distância.
Legenda:
Modelo de Okumura-Hata
Okumura Hata para pequenas e médias cidades
Modelo de Hata Cost231 para meios urbanos
5. CONCLUSÕES
Na sondagem faixa estreita realizada na orla de Icaraí, observou
observou-se que no trecho
inicial, até cerca de 300 m, o nível de sinal caiu com a distância, porém cresceu
cresce um pouco
assim que o receptor saiu da vegetação, já que a mesma atenua o sinal devido à sua forte
absorção. A partir daí, o sinal mostrou variabilidade, contudo
contud o mesmo mantinha
man
sua média
decrescendo com a distância.
Embora no trecho inicial da orla, mais próximo à antena transmissora, o modelo de
predição de cobertura de melhor ajuste tenha sido o de Hata COST 231, a análise dos
dados obtidos nas
as medições mostrou
mostrou que o modelo de cobertura que melhor se ajustou aos
valores medidos no restante da orla,
orla, na faixa de 3,5 GHz, foi o de Okumura-Hata
Okumura
para
pequenas e médias cidades,, embora tenha sido desenvolvido para frequências até 1500
MHz. Resumindo: para a região inicial
inicial e a obstruída pela vegetação da praça próxima ao
transmissor, mostrada na Figura 3, o modelo de Hata COST 231, aplicável para frequências
até 6 GHz, foi o de melhor ajuste, enquanto que o de Okumura-Hata
Okumura Hata para pequenas e
45
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
médias cidades foi o adequado para a predição de sinal na região da orla, que apresentava
uma ou duas árvores no caminho de propagação do sinal.
6. REFERÊNCIAS
ANDREWS, J. G., GHOSH, A., MUHAMED, R. (2007) Fundamentals of WiMAX:
Understanding Broadband Wireless Networking. Prentice Hall, USA, 449 p.
BERTONI, H. L. (2000) Radio Propagation for Wireless Systems. Prentice Hall PTR, NJ, 276
p.
BLAUNSTEIN, N. (1999). Radio Propagation in Cellular Networks. Artech House, USA,
387p.
DIAS, P.P. (2010). Análise Comparativa de Modelos de Previsão de Cobertura na Faixa de
3,5 GHz para Sistemas Celulares. Dissertação de Mestrado, UFF, 147p.
HATA, M. (1980). Empirical Formula for Propagation Loss in Land Mobile Radio Service.
IEEE Transactions on Vehicular Technology, Vol. 29, No.3.
LEE, W. C. Y. (1989). Mobile Cellular Telecommunications Systems. McGRAW-HILL,
Singapore 450p.
OKUMURA, Y. (1968). Field Strength and its Variability in the VHF and UHF Land Mobile
Radio Services. Review Electronic Communications, Labs, 16.
PARSONS, J. D. (2000). The Mobile Radio Propagation Channel. JOHN WILEY & SONS,
England 483p.
PLITISIS, G. (2003). Coverage Prediction of New Elements of Systems Beyond 3G: The
IEEE 802.16 System as a Case Study. Communication Networks, Aachen University.
YACOUB, M. D. (1993). Foundations of Mobile Radio Engineering. CRC Press, NY, 481p.
46
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Análise da influência das cores na emissividade de
superfícies no espectro do infravermelho
¹Selson Carias Gomes Júnior, ¹Guilherme Gonçalves DiasTeixeira, ¹Roberto Márcio de Andrade,
¹Rafael Augusto Magalhães Ferreira, ²Henrique Eduardo Pinto Diniz.
¹Escola de Engenharia - Universidade Federal de Minas Gerais (UFMG)
Belo Horizonte, MG, Brasil
²Companhia Energética de Minas Gerais - CEMIG Distribuição S.A.
Belo Horizonte, MG, Brasil
Email dos Autores
[email protected], [email protected], [email protected], [email protected],
[email protected]
RESUMO
A termografia é um tipo de ensaio não destrutivo onde, a partir da medição de temperatura
superficial, é possível analisar o perfil térmico de um determinado objeto. Para que os
resultados sejam satisfatórios, uma série de parâmetros devem ser registrados e ajustados
no termovisor. Um dos principais parâmetros que deve ser conhecido é a emissividade, que
representa, basicamente, a capacidade de uma superfície emitir radiação. Diversos fatores
influenciam a emissividade de um material (forma da superfície, rugosidade etc.). Este artigo
apresenta uma investigação sobre a qualidade dos resultados que podem ser alcançados
pelo emprego de revestimentos na superfície de objetos sob inspeção, visando aumentar a
emissividade. Os objetos analisados foram conexões utilizadas em redes de energia
elétrica, submetidas a ciclos térmicos de aquecimento e resfriamento. A incerteza de
medição foi calculada em cada um dos casos e os resultados obtidos para superfícies
cobertas por diferentes cores de tintas foram comparados àqueles obtidos para a superfície
natural do material, mostrando que regiões pintadas com cores diferentes apresentam um
comportamento idêntico quanto à emissão de radiação para comprimentos de onda na faixa
do infravermelho. Logo, a cor não é parâmetro determinante da emissividade, mas sim a
textura que a superfície pintada adquire.
Palavras-Chave: emissividade, incerteza de medição, termografia infravermelha
47
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
1. INTRODUÇÃO
A termografia infravermelha é uma técnica não destrutiva muito ágil e objetiva.
Utilizada em diversos setores da indústria, e também em inovações de diagnósticos clínicos,
consiste na avaliação da temperatura superficial de um objeto, tornando possível a
visualização de anomalias que, quando presentes, podem causar distúrbios ou
funcionamento irregular.
Figura 2. Inspeção Termográfica
Para realizar uma inspeção termográfica com um termovisor, é necessário o ajuste
de diversos parâmetros, que são importantes para a qualidade dos resultados apresentados.
Dentre estes parâmetros encontramos: temperatura ambiente, umidade, distância do
termovisor ao objeto sob análise, emissividade, dentre outros. A emissividade pode ser
definida como a razão entre a radiação emitida por uma superfície qualquer e a radiação
emitida por uma superfície ideal (corpo negro) à mesma temperatura. A determinação da
emissividade de um material depende de vários fatores, desde o método de fabricação
utilizado à rugosidade da superfície, e sua correta avaliação é fundamental para que os
resultados da inspeção termográfica sejam coerentes.
Um fator que traz divergências em muitos usuários da termografia é a cor de uma
superfície. A faixa do visível está alocada na região das centenas de nanômetros do
espectro, ou seja, possuem comprimento de onda menor do que os utilizados pela
termografia, cuja faixa vai dos 3 µm aos 15 µm, geralmente. Portanto, superfícies de cores
diferentes podem sim apresentar emissividades iguais.
Para que estas dúvidas sejam esclarecidas, este trabalho traz a avaliação da
incerteza dos resultados de uma inspeção termográfica em um corpo pintado com tintas
semelhantes quanto à composição, mas de cores diferentes, e compara as informações
geradas, deixando claro que a cor não é relevante.
2. EXPERIMENTO
Para coletar as informações utilizadas na elaboração deste trabalho, foi necessário a
realização de uma série de testes usando uma conexão elétrica, submetida a processos de
aquecimento, e um termovisor, SC660 da marca FLIR, para registrar a evolução da
temperatura. Estes ensaios aconteceram em um laboratório climatizado, com temperatura
ambiente entre 20ºC (293ºK) e 25ºC (298ºK). Foi necessário utilizar uma fonte de corrente
elétrica, LET - 1000 RD da marca EuroSMC, para gerar um aumento de temperatura na
conexão, através da circulação de corrente. Termopares foram posicionados em pontos
48
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
específicos da conexão para que suas indicações fossem comparadas com as indicações
do termovisor, validando o experimento.
A conexão teve quatro áreas iguais pintadas, com diferentes cores, e uma área
deixada intacta. Dessa forma, uma comparação pode ser feita, relacionando a confiabilidade
dos resultados, entre as superfícies com tinta e a superfície polida.
Figura 2. Conexão tipo H pintada,a) espectro visível b) espectro infravermelho.
2.1. ENSAIO DE CICLOS DE AQUECIMENTO E RESFRIAMENTO
O ensaio foi constituído de um ciclo de aquecimento, momento em que a fonte era
ligada e uma corrente de 500 A circulava pela conexão, elevando sua temperatura. Estes
ciclos duraram aproximadamente uma hora e meia, tempo necessário para que uma
temperatura estável fosse alcançada na conexão, em torno de 110ºC (383ºK). Na
sequência, o ciclo de resfriamento, onde aguardava-se a temperatura da conexão diminuir
até a temperatura ambiente. Ao final de cada ciclo havia o registro de termogramas.
Figura 3. Estrutura dos ensaios realizados em laboratório
2.2. ENSAIO A ALTAS TEMPERATURAS
Para avaliar o comportamento das tintas aderidas a conexão elétrica, a temperaturas
mais altas do que as alcançadas nos ensaios de ciclos, um teste diferente foi realizado.
Utilizou-se uma conexão elétrica defeituosa, que em função de sua alta resistência elétrica,
atinge temperaturas maiores, mesmo com uma corrente baixa. A metodologia foi parecida:
um valor de corrente era ajustado e deixado assim por uma hora e meia, buscando a
estabilização da temperatura. Ao final deste período, registrou-se alguns termogramas e
ajustou-se um novo valor de corrente. O valor inicial foi de 150 A e o final 600 A, com a
temperatura variando de 50ºC (323ºK), no princípio, até 550ºC (823ºK), no fim do ensaio.
49
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Usando tintas convencionais, observamos que a partir de 473ºK (200ºC), houve
degradação da tinta, chegando à desfiguração completa a uma temperatura de
aproximadamente 673ºK (400ºC). Para poder analisar esta condição de altas temperaturas,
outro tipo de tinta, mais resistente à temperatura, foi utilizada. O ensaio foi executado com
as mesmas características do anterior.
3. RESULTADOS E DISCUSSÃO
Em todos os resultados foi realizado o cálculo da incerteza de medição pelo método
GUM (TEIXEIRA, 2011). A Tabela 1 apresenta os resultados obtidos para três ciclos (de um
total de dez) do ensaio térmico realizado na conexão ilustrada na Figura 2. A emissividade
das regiões pintadas foi estimada em aproximadamente 0,97 enquanto que a região em cor
natural apresentou emissividade média de 0,128. Estes resultados estão ilustrados
graficamente na Figura 4, onde as barras indicam a faixa de incerteza presente em cada
medição de temperatura sobre as regiões pintadas em azul, branco, preto e verde,
respectivamente, além da faixa sem tinta, mantida em sua cor natural.
Ciclo
1
2
3
Azul
Temp.,
±U%
K
380,47 1,04
380,49 1,04
380,67 1,04
382,66 1,05
382,77 1,05
382,75 1,05
380,55 1,05
380,67 1,05
381,51 1,07
Tabela 1. Dados do ensaio.
Área
Branca
Preta
Verde
Temp.,
Temp.,
Temp.,
±U%
±U%
±U%
K
K
K
382,84 1,06 380,74 1,04 381,79 1,05
382,83 1,06 380,76 1,04 381,81 1,05
383,01 1,06 380,93 1,04 382,07 1,05
384,41 1,06 382,57 1,04 383,61 1,05
384,52 1,06 382,66 1,05 383,82 1,05
384,54 1,06 382,69 1,05 383,74 1,05
382,05 1,06 380,10 1,05 381,25 1,06
382,08 1,06 379,97 1,05 381,08 1,05
382,66 1,07 380,72 1,05 381,94 1,06
Natural
Temp.,
±U%
K
381,46 7,96
381,53 7,92
381,67 7,77
383,06 7,85
383,40 7,93
383,38 7,93
380,77 6,09
380,69 6,08
381,42 7,26
50
VII Seminário Fluminense de Engenharia Niterói-RJ 19
9 de outubro de 2011
Figura 4. Resultados dos ciclos térmicos
O valor elevado de emissividade de 0,97 obtido em todas as faixas de cores forneceu
um valor médio de temperatura de aproximadamente 109ºC
109 (382ºK),
K), com uma incerteza de
medição de cerca de 1% em cada medição. Por outro lado, devido à baixíssima
emissividade da superfície natural do objeto, a incerteza das medições realizadas nesta
área alcançou valores elevados, aproximadamente 8%.
Figura 5. Incerteza de medição
A Figura 5 ilustra a evolução da incerteza de medição em relação à elevação da
temperatura para o ensaio descrito na Subseção 2.2. Até a temperatura de 400ºC (673ºK)
todas as cores se mantiveram com a mesma emissividade, embora já apresentassem
aprese
sinais
de degradação a temperatura de 200ºC (473ºK). Para temperaturas superiores a 400ºC
(673ºK), a degradação das tintas foi suficiente para causar uma queda de emissividade, logo
foi observado um sensível aumento da incerteza de medição nas faixas
faixas de cores. A tinta
especial suportou temperaturas maiores, mantendo sua emissividade durante todo ensaio.
51
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
4. CONCLUSÃO
Os resultados apresentados demonstram que a cor não é fator determinante para a
emissividade da superfície. A emissividade elevada se deve, principalmente, pela
uniformização da área de aplicação das tintas. A tinta especial, por exemplo, possui
coloração fosca e aspecto rugoso, contudo sua emissividade foi tão elevada quanto aquelas
manifestadas pelas tintas azul, branco, preta e verde.
A incerteza de medição corrobora os resultados, demonstrando não haver diferença
significativa entre as medições de temperatura obtidas em cada faixa pintada. Além disso,
observa-se claramente que a qualidade das medições em termografia infravermelha pode
ser melhorada simplesmente pela aplicação de alguma substância capaz de conferir textura
à superfície, como por exemplo, tinta, independentemente de sua cor. Todavia, a
temperatura suportada pela cobertura é um fator importante a ser avaliado, assim como sua
degradação ao longo do tempo.
5. TRABALHOS FUTUROS
Sugere-se que, em trabalhos futuros, o comportamento de superfícies possa ser
avaliado em ambiente aberto, submetido ao carregamento solar por exposição das tintas ao
sol, chuva, ventos, poeira etc. Assim como a utilização de tintas seletivas e outras texturas
sintéticas, que também possam suportar altas temperaturas.
6. REFERÊNCIAS
MALDAGUE, X. P. V. (2001). Theory and Practice of Infrared Technology for Nondestructive
Testing, Ed. Wiley-Interscience, 1ª ed, 496p.
INCROPERA, F. P. e DEWITT, D. P. (2003). Transferência de Calor e de Massa, Ed. LTC,
Rio de Janeiro, 5ª ed., 509p.
TEIXEIRA, G. G. D.; GOMES S. C. Jr.; ANDRADE, R. M.; FERREIRA E. H. B.; DINIZ,
H.
E. P. (2011). Avaliação de Incerteza de Resultado de Medição em Termografia
Infravermelha pelos Métodos GUM e Monte Carlo, Aplicada ao Diagnóstico de
Conexões Elétricas. Anais X Congresso Ibero-Americano em Engenharia Mecânica,
Porto, 510.
52
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Análise de desempenho de catalisadores de cobalto e
cobre suportados em sílica na decomposição de metano
Natália M. Esteves, André M. R. Souza, Lília F. C. Souza, Rosenir R. C. M. Silva, Fabio B. Passos
Escola de Engenharia - Universidade Federal Fluminense (UFF)
Niterói, RJ, Brasil
[email protected], [email protected]
[email protected],[email protected],[email protected]
RESUMO
Catalisadores de Co e Cu suportados em SiO2 foram testados na reação de decomposição
de metano para analisar suas propriedades catalíticas e seu desempenho na produção de
hidrogênio. O teor nominal de Co é de 20% e o teor nominal de Cu varia entre 0,1% e 10%.
Também foi testada uma mistura física composta pelos catalisadores de 20%Co/SiO2 e
5%Cu/SiO2. Foi investigada a formação dos depósitos carboníferos nos catalisadores
metálicos a 500oC. Estes foram reagidos com vapor d’água. A reação de vaporização dos
depósitos foi realizada a temperatura isotérmica de 500oC e variando de 300-800oC.
Verificou-se que o desempenho desta mistura física para a produção de hidrogênio é
superior aos outros catalisadores de Co e Cu testados; e que a vaporização isotérmica a
500oC não se mostrou satisfatória uma vez que a reação de regeneração do catalisador
inicia de fato antes dessa temperatura como pode ser percebido quando esta mesma reação
ocorreu entre 300-800oC.
Palavras-Chave: Decomposição de Metano, Produção de Hidrogênio, Catalisadores de
Cobalto e Cobre
1. INTRODUÇÃO
O hidrogênio tem sido considerado como uma das fontes de energia mais
promissoras e ambientalmente limpas. Diversos processos são utilizados para sua
produção, sendo atualmente, a reforma catalítica com vapor e a reforma autotérmica, a
partir de combustíveis fósseis, as principais rotas. No entanto, esses processos produzem
gás de síntese, do qual o H2 é separado.
Na busca por novas tecnologias que produzam H2 livre de COx, surge a perspectiva
de utilização da decomposição catalítica do metano.
A reação, moderadamente endotérmica, produz hidrogênio e depósitos carboníferos
na superfície do catalisador, podendo ser representada da seguinte forma:
CH4 → C + 2H2
∆H298K = 74,52 kJ/mol
(1)
(ERMAKOV et al, 2000) afirmaram que o processo de decomposição catalítica do
metano dificilmente poderia ser de interesse prático a menos que catalisadores altamente
eficientes fossem desenvolvidos. A eficiência do catalisador inclui não só a sua atividade
específica, mas sua vida útil operacional, dada a grande quantidade de acúmulo de carbono,
que provoca a desativação, e a necessidade de regeneração.
Os catalisadores mais comumente usados são os a base Ni, Fe, Co e Pd. Quanto
aos suportes, Al2O3 e SiO2 são os mais estudados (PINILLA et al, 2009), atuando no sentido
de melhor dispersar as partículas metálicas, diminuindo o tamanho das mesmas e
conseqüentemente prevenindo a sinterização. Quanto à natureza do suporte, há estudos
que revelam a sua importância na atividade catalítica. Trabalhos anteriores realizados no
RECAT investigaram a influência do suporte em catalisadores de Co na decomposição do
metano, sendo o mais ativo o suportado em SiO2 (COVRE et al, 2009).
53
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
A utilização de um segundo metal, como dopante, abre caminhos interessantes
(AVDEEVA et al, 1996 e TAKENAKA et al, 2003) para aumentar a produção de hidrogênio
em decomposição do metano. Diferentes metais estão sendo utilizados, sendo o Cu um dos
mais promissores (PINILLA et al, 2009). Catalisadores de Ni-Cu/Al2O3 têm sido estudados
por diversos autores. De acordo com a literatura (SUELVES et al 2006), o efeito do Cu em
catalisadores de Ni melhora a quimissorção do metano em superfícies limpas de Ni,
facilitando a formação de filamentos de C que crescem devido ao efeito de diluição.
Menores “ensembles” de átomos de Ni na superfície poderiam diminuir a interação das
espécies de carbono adsorvidas, reduzindo a formação do carbono encapsulado,
responsável pela desativação catalítica.
Comparando-se os catalisadores de Co com os de Ni, parecem existir algumas
diferenças importantes, apesar da proximidade na Tabela Periódica. Enquanto os de Ni
apresentam maiores atividades que os de Co, em contrapartida requerem um período de
indução, fato não observado nos catalisadores de Co. Os tipos de filamentos são diferentes
e o tamanho das partículas metálicas para sua formação também. No entanto, não existem
muitas informações com relação à influência da adição de um segundo metal em
catalisadores de Co. Catalisadores de Co-Mo são estudados com objetivos voltados para a
produção de nanotubos de carbono (OLIVEIRA, 2007). Para geração de H2 é importante terse uma alta atividade e boa capacidade de regeneração do catalisador, que poderia ser
realizada a menores temperaturas dependendo da facilidade de regeneração das espécies
carboníferas formadas na reação de decomposição.
2. EXPERIMENTAL
2.1. PREPARAÇÃO DOS CATALISADORES
A sílica usada como suporte (SiO2 - Davicat SP 550-10022) foi pré-calcinada a uma
temperatura de 550°C a uma taxa de aquecimento de 5 °C/min por 4h em mufla. Os
catalisadores foram preparados por impregnação seca. Como precursor metálico utilizou-se
Co(NO3)2.6H2O da Merk com um teor nominal de 20% em massa de cobalto. A amostra foi
seca em estufa a 120°C por 24h e calcinada em mufla a 400°C por 2h. Depois realizou-se a
impregnação do promotor Cu utilizando o Cu(NO3)2.3H2O da Merk. Os teores preparados
foram de 0,1; 0,5; 1; 2; 5; e 10% de cobre em massa sobre o catalisador de 20%Co/SiO2
preparado anteriormente. Os catalisadores foram novamente secos e calcinados.
Com a finalidade de branco foi preparado um catalisador 5%Cu/SiO2 utilizado a
mesma metodologia usada nos demais. Este branco foi adicionado ao catalisador
20%Co/SiO2 na proporção 1:5 e denominado Mistura Física.
2.2. TESTE CATALÍTICO – REAÇÃO ISOTÉRMICA COM CH4 A 500°C
Os testes catalíticos foram realizados numa unidade convencional acoplada a um
cromatógrafo a gás, modelo Varian CP3800 com coluna capilar Supelco Carboxen TPLOT
1010, para análise em linha dos produtos formados. Estes consistem em três etapas: (i)
secagem do catalisador a 150°C por 30 min sob fluxo de He; (ii) redução sob fluxo de H2
(100mL/min) a 500°C por 2h; (iii) reação isotérmica a 500°C sob fluxo de 20% CH 4/He com
vazão total de 100ml/min.
2.4. REAÇÃO DOS DEPÓSITOS CARBONÍFEROS COM VAPOR D’ÁGUA
Novos testes catalíticos com regeneração foram realizados na unidade convencional
acoplada ao cromatógrafo gasoso. Após as etapas de secagem e redução do catalisador,
foi conduzida a reação de decomposição do metano por 2h, seguida da reação com vapor
d’água para avaliar a reatividade das espécies de carbono formadas, utilizando-se um fluxo
de vapor d’água/He, passando-se 80 ml/min de He por um saturador contendo água a 60oC.
As temperaturas da reação de regeneração dos depósitos carboníferos foram 500oC
isotermicamente e variando de 300 a 800oC com taxa de aquecimento 2oC/min.
54
VII Seminário Fluminense de Engenharia Niterói-RJ 19
9 de outubro de 2011
3. RESULTADOS E DISCUSSÃO
DISCUSS
3.1. TESTE CATALÍTICO – REAÇÃO ISOTÉRMICA COM CH4 A 500°C
A Figura 1 apresenta os resultados dos testes catalíticos para os catalisadores de
Co-Cu
Cu suportados contendo teores nominais de 20% de Co e 0,1; 0,5; 1; 2; 5 e 10% de Cu e
para a Mistura Física. O catalisador contendo 0,1% de Cu exibiu certa estabilidade
apresentando um comportamento semelhante ao do catalisador de Co sem Cu, com uma
atividade ligeiramente inferior. No entanto, os catalisadores contendo teores acima de 0,5%
de Cu exibiram menores taxas iniciais e rapidamente desativaram,
desativaram, sendo o efeito mais
intenso para maiores teores de Cu. Isto sugere um efeito geométrico de recobrimento da
superfície pelo Cu, bloqueando os sítios ativos para reação. À medida que os teores de Cu
aumentam, os tamanhos das partículas de Co expostas
expostas podem ter sido alterados pelo
recobrimento. Pesquisadores (AVDEEVA et al, 1999; BOSLOVIC & SMITH, 1999; ZHANG
& SMITH, 2002) afirmam que a formação dos filamentos de carbono depende do tamanho
das partículas metálicas de cobalto, sendo necessárias partículas
partículas na ordem de 15-20
15
nm
para sua formação. Provavelmente, a adição de Cu destrói os “ensembles” necessários
para formação desses filamentos, o que provocaria a rápida diminuição da atividade desses
catalisadores nos primeiros instantes de reação.
Figura 1. Taxa de conversão do metano para os catalisadores com 20% Co/SiO2, contendo 0,1%,
0,5%, 1%, 2%, 5% e 10% de Cu e para a Mistura Física.
Foi realizado também o teste catalítico para o catalisador sem Co (5%Cu/SiO2, dado
apresentado sob a forma de total
total de carbono formado durante a reação na tabela 1) que
apresentou resultado semelhante aos catalisadores contendo 5%Cu20%Co. Os resultados
mostram que quando o catalisador sem cobalto (5%Cu/SiO2) foi adicionado em proporção
1:5 ao catalisador de Co puro (20%Co/SiO2) houve um aumento na atividade da produção
de hidrogênio. De acordo com estudos anteriores (AMMENDOLA et al, 2006) não há a
formação de carbono filamentar em catalisadores de Cu durante a decomposição de
metano, o carbono formado é acumulado uniformemente
uniformemente na superfície do catalisador. Em
contrapartida, cientistas (DRIESEN & GRASSIAN, 1996) propuseram que os grupos CH3
adsorvidos no Cuo migram para a superfície da SiO2 onde reagem com os grupos silanóis
(SiOH) e formam SiOCH3. Eles
E
propõem o spillover do CH3 adsorvido do metal para o
suporte e verificaram que não há spillover de CH3 na SiO2 pura sem Cuo e também não há
adsorção de CH3 se a SiO2 não tiver grupos OH ligados a superfície (SiOH). Porém como a
sílica utilizada é amorfa e foi calcinada a baixa temperatura existem grupos OH no suporte.
Esses dois efeitos concomitantemente poderiam explicar esse aumento na atividade da
decomposição do metano usando a Mistura Física.
A Tabela 1 apresenta a quantidade de carbono formado durante a reação de
decomposição calculada a partir dos dados de conversão do metano. A Mistura Física
apresenta maior taxa de formação de carbono tanto na 1a hora de reação quanto em toda a
sua duração mostrando que contribui também para a estabilidade na produção de H2.
Observa-se
se que os catalisadores sem Cu e com baixo teor do mesmo, 0,1%, se mostraram
mais ativos do que os com teores de Cu superiores a 1%, produzindo maiores quantidades
55
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
de carbono. O catalisador contendo 10% Cu exibiu a menor quantidade de C produzido,
sendo inferior inclusive ao catalisador contendo apenas Cu. Os dados de taxa por massa de
catalisador foram incluídos na tabela para permitir uma comparação com o catalisador sem
cobalto, de 5%Cu/SiO2. Durante a primeira hora de reação, todos os catalisadores se
mostraram mais ativos, apresentando taxas de formação de carbono bem superiores a
média global de formação de carbono.
Tabela 1. Taxas de formação de carbono calculadas a partir dos testes catalíticos de
decomposição do metano em catalisadores a base de cobalto
Catalisador
(teor nominal)
20% Co/SiO2
20% Co-0,1 %Cu/SiO2
20% Co-0,5 %Cu/SiO2
20% Co-1 %Cu/SiO2
20% Co-2 %Cu/SiO2
20% Co-5 %Cu/SiO2
20% Co-10 %Cu/SiO2
5%Cu/SiO2
Mistura Física
Taxa média Taxa de carbono
Total de carbono Total de carbono
formado na 1a formado durante formado durante
de carbono
formado
hora de reação
a reação
a reação
(µmolC/ a
(µmolC/ b
(206min)
(206min)
(mgCo.min)
mgCo.min)
(µmolC/mgCo) (µmolC/mgCat)
2,6
3,6
537
100
2,1
3,2
431
81
1,8
2,6
379
71
0,9
1,2
186
34
0,6
0,9
114
21
0,7
0,8
144
25
0,3
0,5
67
11
23
3,4
3,9
710
133
3.2. REATIVIDADE DOS DEPÓSITOS CARBONÍFEROS COM VAPOR D’ÁGUA
As Figura 2 e 3 apresentam as taxas de produção de CO, CO2, H2 e O2 durante a
reação dos depósitos carboníferos, formados na decomposição do metano, com vapor
d’água para os catalisadores 20%Co/SiO2, Mistura Física e 0,5%Cu-20%Co/SiO2
isotermicamente à 500oC e para os catalisadores 20%Co/SiO2, Mistura Física, 0,1%Cu20%Co/SiO2 e 1%Cu-20%Co/SiO2 com a temperatura variando de 300 à 800oC,
respectivamente.
É observado na Figura 2 que durante a vaporização isotérmica a 500oC há uma
maior produção de H2 seguido de CO2 e CO e que os perfis de produção variam de acordo
com o catalisador utilizado. Indicando que a reação (3) ocorre preferencialmente à reação
(2).
Cdepósito + H2O → CO + H2
(2)
Cdepósito + 2H2O → CO2 + 2H2
(3)
Co + H2O → CoO + H2
(4)
CoO + H2 → Co + H2O
(5)
Quando a temperatura da vaporização varia de 300oC à 800oC , figura 3, pode-se
perceber que a reação de vaporização inicia de fato a 300oC para o catalisador contendo
apenas Co e em torno de 400oC para os catalisadores contendo Co e Cu. Sendo o máximo
de temperatura de reação em torno de 610oC para 20%Co/SiO2 , 630oC para Mistura Física e
entre 500-550oC para os catalisadores com 1 e 0,1% de Cu. Nota-se ainda que para a
Mistura Física e 20%Co/SiO2 existem faixas de temperatura em que a produção de CO é
superior a de CO2. Com relação às quantidades, verificou-se que houve uma maior taxa de
produção de H2 para a Mistura Física devido a sua maior atividade catalítica e,
conseqüentemente, uma maior formação de depósitos carboníferos.
56
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Figura 2. Reatividade dos depósitos carboníferos com vapor d’água de isotermicamente a
o
500 C.Catalisadores utilizados a: 20%Co/SiO2; b:Mistura Física; c: 0,5%Cu-20%Co/SiO2.
o
o
Figura 3. Reatividade dos depósitos carboníferos com vapor d´água de 300 C à 800 C com taxa de
o
aquecimento de 2 C/min.. Catalisadores utilizados a: 20% Co/SiO2; b:Mistura Física; c: 0,1% Cu 20%
Co/SiO2; d: 1% Cu 20% Co/SiO2.
Há que se considerar que a presença do vapor d’água poderia reoxidar parcialmente
o Co a CoO, e que a produção de hidrogênio manteria algumas partículas ainda na forma
metálica contribuindo para restabelecer a atividade catalítica em nova etapa de
decomposição.
4. CONCLUSÕES
Durante os testes catalíticos, o catalisador contendo 0,1% de Cu apresentou um
comportamento semelhante ao do catalisador de Co sem Cu, com uma atividade
ligeiramente inferior. Os catalisadores contendo teores acima de 1% de Cu exibiram
menores taxas iniciais e tiveram uma rápida queda na ativação, sendo o efeito mais intenso
para maiores teores de Cu.O catalisador denominado Mistura Física apresentou atividade
superior aos demais catalisadores inclusive aos catalisadores de Co e Cu puros que são a
sua origem, esse comportamento pode ser explicado pela soma de dois efeitos: o spillover
do grupamento metil adsorvido do metal para o suporte e o acúmulo uniforme do carbono
produzido na superfície do catalisador e não de forma filamentar.
57
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
A vaporização dos depósitos carboníferos formados inicia de fato entre 300-400oC
antes da temperatura de reação, 500oC, indicando que não seria satisfatória a execução de
ciclos isotérmicos de reação e regeneração do catalisador utilizado.
5. AGRADECIMENTOS
Agradecemos ao CNPq e a CAPES pelo auxílio financeiro.
6. REFERÊNCIAS
AMMENDOLA P., CHIRONE R., RUOPPOLO G., RUSSO G. (2006). H2 production by
catalytic methane decomposition on Cu bades cataltst. WHEC 16, Lyon France.
AVDEEVA L.B., GONCHAROVA O.V., KOCHUBEY D.I., ZAIKOVSKII V.I., PLYASOVA L.M.,
NOVGORODOV B.N., SHAIKHUTDINOV S.K. (1996), Coprecipitated Ni-alumina and niCu-alumina catalysts oh methane decomposition and carbon deposition. Appl. Catal. A
Gen, 141, 117.
AVDEEVA L.B., KOCHUBEY D. I., SHAIKHUTDINOV S. K. (1999).Cobalt catalysts of
methane decomposition: accumulation of the filamentous carbon. Appl. Catal. A.177, 43.
BOSLOVIC G., SMITH K. J. (1997), Catal. Today, 37, 25-32.
COVRE J. P. M., PASSOS F. B., SILVA R. R. C. M.(2009), in Anais do 15o Congresso
Brasileiro de Catálise, CDROM, Armação dos Búzios, RJ.
DRIESSEN M.D; GRASSIAN V.H. (1996) Methyl Spillover on Silica-Supported Copper
catalysts from the Dissociative Adsorption oh Methyl Halides. J. Catal, 161, 810-818.
ERMAKOV M. A.; ERMAKOV D. Y.; KUVSHINO G.G.(2000) New nickel catalysts for the
formation of filamentous carbon in the reaction of methane decomposition.Appl. Catal. A,
201, 61.
KITIYANAN B., ALVAREZ W. E., HARWELL J. H., RESASCO D. (2000) E.Chemical Physics
Letters, 317, 497-503.
OLIVEIRA H.A., (2007) Dissertação de Mestrado, Universidade Federal Fluminense.
PINILLA J.L.; SUELVES I.; LÁZARO M. J.; MOLINER R.; PALACIOS J.M., (2009) Influence
of nickel crystal domain size on the behaviour of Ni and NiCu catalysts for the methane
decomposition reaction. Appl. Catal. A Gen, 363, 199-207.
SUELVES, I, LÁZARO M.J, MOLINER R., ECHEGOYEN, J. M, PALACIOS (2006)
Characterization of NiAl and NiCuAl catalysts prepared bydifferent methods for hydrogen
production by thermocatalytic decomposition of methane. J.M. Catal. Today, 116, 271.
TAKENAKA S., SHIGETA Y., TANABE E., OTSUKA K., (2003) J. Catal, 220, 468.
ZHANG Y., SMITH K. C. H, (2002) CH4 Decomposition on Co Catalysts: Effect of
Temperature, Dispersion, and the Presence of H2 or CO in the Feed. Catal. Today, 77,
257.
58
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Análise de fatores que contribuem para a redução no
índice de evasão
Neuci Nobrega Canelas Costa Guimarães, Fernando B. Mainier
Rosenir Rita de Cássia Moreira da Silva
Escola de Engenharia - Universidade Federal Fluminense (UFF)
Niterói, RJ, Brasil
[email protected]
[email protected]
[email protected]
RESUMO
Novas proposições e reflexões são necessárias, constantemente, para a modernização do
ensino e, particularmente, o de Engenharia. Qualidade e Inovação são temas que precisam
estar associados e não podem se distanciar da realidade da educação tecnológica. Ensino
que dê ênfase à qualidade e à inovação, pode contribuir para a redução da evasão, uma
questão fortemente presente nos cursos de engenharia. Vários fatores podem influenciar os
índices de evasão e precisam ser diagnosticados. Este trabalho tem como objetivo
identificar alguns desses fatores que possam contribuir para reduzir a evasão nos cursos de
engenharia. A partir de uma pesquisa realizada com 80 alunos dos diversos cursos de
engenharia da Universidade Federal Fluminense (UFF) foi possível fazer uma análise
preliminar e enumerar alguns dos fatores que podem influenciar a evasão. Um panorama da
evolução da relação candidato/vagas e do número de formados por curso, ao longo dos
últimos 10 anos, é apresentado, evidenciando uma relação com as perspectivas do mercado
de trabalho e consequentemente com o grau de evasão no curso. Verificou-se que a
disciplina “Introdução à Engenharia” fornece aos alunos um melhor esclarecimento sobre os
cursos, contribuindo para a adaptação dos mesmos à instituição, divulga os programas
acadêmicos existentes na Universidade, que são fatores qualitativos que interferem no
desempenho acadêmico e, por conseguinte nos índices de evasão.
Palavras-Chave: Qualidade. Inovação. Evasão. Introdução à Engenharia.
1. INTRODUÇÃO
As instituições públicas e privadas precisam prestar um ensino de qualidade, para
que sejam objeto de novas escolhas e preferências, atraindo os melhores alunos e
professores, garantindo assim a sua sobrevivência, já que a qualidade do ensino é
determinante para tal (SARAIVA, 2007).
São realizadas reformas nos sistemas educacionais para torná-los mais eficientes
para que acompanhem as transformações do mundo moderno. Termos como “qualidade” e
“inovação” precisam estar associados, e não podem se distanciar desta realidade (SILVA e
CECÍLIO, 2007). É necessário pensar em um novo perfil do engenheiro, de mente aberta,
preparado para aprender sempre, como está salientado em (LONGO, 2001), quando propõe
o “fim da formatura”, e termos como “professor estudante”, ou seja, aquele que está em
contínuo aprender. Aprender com qualidade e produtividade a fim de consequentemente, se
alcançar a competitividade.
Os altos índices de reprovação nas disciplinas do ciclo básico de Engenharia
contribuem para dois fatores: para a retenção dos alunos nos períodos iniciais dos cursos,
elevando o tempo de permanência na instituição, e para o abandono do curso (SILVA et al.,
2006). Propor inovações no ensino propicia a motivação e o envolvimento dos alunos
contribuindo para reduzir a evasão, tema que ainda é preocupação de muitos autores.
Propor mudanças no ensino de Engenharia que aprimorem a qualidade, através de um
59
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
ensino que dê ênfase às inovações que o mercado exige, é uma meta a ser atingida,
conforme propostas da Coordenação de Aperfeiçoamento de Pessoal de Nível Superior
(CAPES), no Plano Nacional Pró-Engenharia, entregue ao Ministério da Educação (MEC). O
objetivo é fazer com que os alunos se sintam motivados, evitando-se as perdas e a retenção
dos mesmos nos períodos iniciais dos cursos, minimizando assim a evasão.
A inclusão da disciplina “Introdução à Engenharia” no primeiro período dos cursos de
Engenharia veio contribuir para motivar os alunos e reduzir a evasão dos cursos, mas não
eliminá-la. Por meio desta é possível diagnosticar os problemas existentes no início do curso
e buscar soluções que possam minimizá-los (SILVA et al, 2006). Diversos fatores estão
envolvidos neste processo provocando a desmotivação do aluno e, consequentemente sua
evasão.
Desta forma, o presente trabalho apresenta inicialmente uma análise preliminar do
panorama da evasão nos cursos de engenharia.
Por meio de um questionário aplicado aos alunos de diversos períodos foi possível
identificar possíveis causas e fatores que influenciam a evasão.
2. REVISÃO DA LITERATURA
2.1. QUALIDADE NO ENSINO
A globalização faz com que haja um processo constante de mudanças. A interação
entre as pessoas proporcionada por essa globalização faz com que essas mudanças
tenham urgência em serem implantadas a partir das necessidades de cada ambiente.
“O sucesso das organizações dependerá de sua capacidade de ler a realidade
externa, rastrear mudanças e transformações, identificar oportunidades [...] modificar sua
linha de ação, renovar-se, ajustar-se, transformar-se e adaptar-se rapidamente
[...]”.(CHIAVENATO, 2001, p.23).
Os conceitos de qualidade e inovação no ensino estão intimamente ligados. É
necessário elevar a qualidade da educação para que se estimule a inovação e o ensino
venha atender às demandas que a sociedade exige (CAVALCANTE, 2005).
Muito embora outros autores analisem a qualidade separadamente e existam
divergências quanto a sua definição, fatores quantitativos (número de escolas, de alunos, de
professores e orçamento) são levados em consideração, assim como fatores qualitativos
(programas, avaliação do ensino, inovação, partilha de recursos, interação e nível de
satisfação dos envolvidos).
A Universidade Federal Fluminense tem como missão “[...] a constante busca por
uma qualidade sempre maior [...]. Formar pessoal qualificado, gerando conhecimento para a
sociedade, é a nossa missão” (MELLO, 2010, p.5).
Engers, destaca a importância do ensino superior no desenvolvimento da sociedade:
[...] O ensino superior qualifica profissionais para formarem outros...
Portanto, seu desempenho é fundamental. A universidade precisa
desenvolver suas atividades de forma a articular o tripé que compõe a sua
estrutura. É, pois, essencial que essa instituição desenvolva uma educação
voltada para a qualidade profissional e pessoal do indivíduo, [...] (ENGERS,
2002, p.15).
Como as universidades são questionadas pela sociedade e pelo governo quanto à
eficiência, os seus modelos são alvo de estudos por parte da Academia e do MEC
(CORRÊA e SCHUCH JÚNIOR, 1999). Faz-se necessário então, propor mudanças no
ensino de Engenharia que aprimorem a qualidade.
60
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
2.2. INOVAÇÃO NO ENSINO
As inovações no campo educacional não significam práticas necessariamente novas,
podendo ser uma melhoria de uma prática já utilizada anteriormente (HUBERMAN, 1973).
Estimular a visão Interdisciplinar nos cursos de engenharia pode ser um exemplo disto.
A interdisciplinaridade não é uma prática recente, “desde o início do século já se
desenvolvia, somente agora se manifesta como um conceito enriquecido, propulsionado
pela consciência cada vez mais consolidada da fragmentação do saber [...]” e ainda:
No ensino, o objetivo da interdisciplinaridade é alcançar a visão globalizada
de mundo e dominar a complexidade da realidade de forma integradora [...].
A prática interdisciplinar deve, portanto, fazer ligação entre disciplinas,
estabelecer linguagem de orientação comum entre os professores, integrar
o ensino à realidade, superar os problemas da fragmentação e,
principalmente, formar o aluno para enfrentar os problemas do mundo
globalizado (RODRIGUES et al., 2001, p. 3).
“O crescimento de um país depende, diretamente, do estímulo à inovação, por meio
de investimentos em pesquisa e desenvolvimento (P & D) e na formação, qualificação e
retenção de profissionais da área tecnológica”. (CAVALCANTE, 2005, p.48). A estimulação
de ambientes simultâneos “universitários” e “empresariais” é um desafio para o país, sendo
necessária a colaboração entre governo, empresas e instituições de educação e pesquisa.
Uma melhor utilização da internet como aliada em vários níveis do processo de
aprendizagem em prol do conhecimento e das práticas educativas. (NOVAK, 2003).
A Resolução no 11, de 11 de março de 2002, do Conselho Nacional de Educação da
Câmara de Educação Superior (CNE/CES), contribui para essa motivação e inovação, onde
em seu Artigo 5o, parágrafos 1o e 2o, é favorável à redução da carga horária em sala de aula,
estimulando os trabalhos individuais e em grupos, atividades complementares, iniciação
científica, monitorias, participação em empresas juniores e outros. Portanto, diversos são os
caminhos para a inovação.
2.3. A EVASÃO NO ENSINO SUPERIOR
A evasão no ensino superior pode ser considerada sob diversos fatores: o número de
alunos que se matriculam e não efetuam inscrições em disciplinas nos períodos seguintes; o
número de alunos que entram num curso e não recebem a titulação ao final de
determinados períodos previstos, ou seja, ficam retidos e, o número de alunos que desistem
logo no primeiro ano. Pode-se acrescentar também o número de alunos que são
sucessivamente reprovados e que acabam sendo desligados dos cursos. (SILVA FILHO et
al., 2007).
A falta de recursos financeiros para a continuação dos estudos é também apontada
como causa, porém várias outras contribuem para a desistência do aluno, como a falta de
integração com a instituição e desta com o mercado de trabalho. A condição financeira é a
principal razão, reforçada pela falta de tempo para os estudos, quando o aluno necessita
trabalhar (SILVA FILHO et al., 2007). Esses autores apontam também o alto custo das
mensalidades das instituições particulares como um fator a ser considerado.
A falta de maturidade, de informação e de interesse pela carreira escolhida
favorecem ao abandono do curso, somada à falta de adaptação ao novo ambiente. Muitos
alunos que ingressam na universidade vêm de um ensino médio deficiente e se deparam
com as dificuldades das novas disciplinas. Estão nesse processo, muitas vezes, obrigados,
seja pela obtenção de um diploma ou para satisfação de seus pais. Além disso, quando se
estuda aquilo que gosta, o interesse é maior, a facilidade no aprendizado vem naturalmente,
bem como o tempo para adquirir e assimilar o conhecimento passa a ser muito menor.
Particularmente, no caso dos cursos de Engenharia, a evasão é uma questão
preocupante. Segundo dados da Pró-Reitoria de Graduação da UFF (2010), nos anos de
61
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
2009 e 2010, a evasão nos cursos de engenharia chegou a 442 e 414 alunos,
respectivamente. Atualmente, no Brasil, a falta de profissionais qualificados na área de
engenharia pode limitar seu crescimento.
A Figura 3 mostra a evolução do número de alunos evadidos por curso de
Engenharia na UFF, no período compreendido entre os anos 2000 a 2010.
Evasão nos Cursos de Engenharia da UFF
100
90
80
Elétrica
Núm ero de Evadidos
70
Civil
Mecânica
60
Agrícola
Produção
Telecomunicações
50
Química
Petróleo
40
Rec.Hid.M.Amb.
30
20
10
0
2000
2001
2002
2003
2004
2005
2006
2007
2008
2009
2010
Figura 3. Evasão nos Cursos de Engenharia da UFF
Fonte: Pró-reitoria de Graduação da UFF
3. METODOLOGIA EMPREGADA NA PESQUISA
O estudo apresentado tem um caráter exploratório, buscando-se fazer um
diagnóstico da evasão nos cursos de engenharia da UFF. O objetivo é identificar fatores que
possam influenciar no desenvolvimento do aluno e na sua motivação para o curso.
Desta forma, uma pesquisa foi realizada utilizando-se dados disponibilizados pela
universidade e questionários aplicados a 80 alunos dos cursos de engenharia, cursando o 1º
Semestre de 2011, divididos em dois grupos:
• GRUPO 1: 30 alunos inscritos no primeiro período, cursando a disciplina “Introdução à
Engenharia”;
• GRUPO 2: 50 alunos de diversos períodos que já cursaram a disciplina anteriormente.
4. DISCUSSÃO DOS RESULTADOS
4.1.
INFLUÊNCIA DO MERCADO DE TRABALHO NA RELAÇÃO CANDIDATO/VAGA E
NO NÚMERO DE FORMADOS
As Figuras 2 e 3 apresentam a evolução da relação candidato/vaga apresentada por
alguns cursos de engenharia da UFF nos últimos 10 anos. A Figura 2 apresenta essa
evolução para os cursos que exibiram aumento na relação e que em 2011 apresentaram
62
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
valores superiores a 15. A Figura 3 apresenta essa evolução para os cursos que exibiram
diminuição nessa relação e que em 2011 apresentaram valores inferiores a 15.
Relação Candidato/Vaga
É visivelmente evidenciada a procura acentuada por alguns cursos como Engenharia
Mecânica, Petróleo, Produção e Engenharia Química a partir de 2007, em função do novo
cenário político e econômico no Brasil. Cabe esclarecer que, o vestibular para o curso de
Engenharia de Petróleo teve início no ano de 2006 com uma elevada taxa na relação
candidato/vaga, em torno 27, em função da exploração das grandes reservas de petróleo do
pré-sal e dos investimentos do setor, altamente demandante de mão-de-obra qualificada
(Agência Nacional do Petróleo - ANP). O curso de Engenharia Civil também apresenta uma
crescente procura, conforme apresentado na Figura 2, tendo em vista o aquecimento da
construção civil com o aumento do número de obras em todo país, reforçada com grandes
obras visando a Copa do Mundo de Futebol em 2014 e os Jogos Olímpicos Mundiais de
2016 (Olimpíadas de 2016), que se realizarão no Brasil.
30
20
Civil
10
Mecânica
0
Química
Produção
Petróleo
Ano
Figura 2. Evolução do aumento da relação candidato/vaga apresentada por alguns cursos de
Relação Candidato/Vaga
engenharia da UFF.
25
20
15
Agrícola
10
Elétrica
5
Rec.Hídr.
0
Telecomun
Ano
Figura 3. Evolução da diminuição da relação candidato/vaga apresentados por alguns cursos
de engenharia da UFF
63
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
A Figura 4 apresenta a evolução do número de formados por curso. Observa-se uma
tendência de crescimento em alguns cursos e em outros uma diminuição, alguns exibindo
máximos, com comportamentos que sugerem uma correlação com a relação
candidato/vagas, apresentada nas Figuras 2 e 3. Cabe ressaltar que até ano de 1999, a
opção para os cursos de engenharia, exceto engenharia química, não era feita no vestibular
e sim após o quarto período, refletindo posteriormente nos altos índices de formados para
engenharia de produção e de telecomunicações, estando de acordo com os interesses do
mercado da época.
120
Petróleo
90
Agrícola
Número de
formados 60
Civil
30
Elétrica
0
Mecânica
Química
Produção
Telecom
Ano
Figura 4 – Número de formados por curso de engenharia
A baixa quantidade de formados observada para alguns cursos coincidem com a
baixa relação candidato/vagas e com um alto índice de evasão. Considerando que entre
2000 e 2009 ingressavam nos cursos uma média de 30-35 alunos por semestre (40 para
engenharia química), segundos dados oficiais disponibilizados na página da Coordenadoria
de Seleção Acadêmica (COSEAC) vinculada à Pró-Reitoria de Graduação da UFF
(PROGRAD). A grande diferença observada na quantidade de formados não se justifica,
sem que seja por motivo de evasão.
4.2.
CONTRIBUIÇÃO DA DISCIPLINA DE INTRODUÇÃO A ENGENHARIA
A Tabela 1 apresenta os resultados dos questionários distribuídos aos grupos para
se verificar a contribuição da disciplina Introdução à Engenharia nos cursos. Em 30 alunos,
integrantes do Grupo 1, vinte e cinco responderam que a disciplina contribuiu para “melhor
esclarecimento sobre o curso”, correspondendo a 83%, e oito responderam que contribuiu
para “adaptação no curso”, correspondendo a 26%. Analisando os resultados do Grupo 2,
verificou-se que 27 alunos num total de 50 afirmaram que a disciplina contribuiu para
“melhor esclarecimento sobre o curso”, correspondendo a 54% do total enquanto que 14
alunos disseram que a disciplina contribuiu para “conhecer os projetos acadêmicos
existentes” na instituição, correspondendo a 28% do total, ocupando a segunda posição
dentre as opções apresentadas. Em terceira posição, 12 alunos (24%) responderam que a
disciplina contribuiu para sua “adaptação no curso”. É interessante observar que mesmo
após diversos períodos os alunos concordam que a disciplina contribuiu para a sua
adaptação no curso.
Tabela 1. Contribuições da disciplina “Introdução à Engenharia”.
Respostas
Grupo 1
Grupo 2
64
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Melhor esclarecimento sobre o curso
83%
54%
Adaptação no curso
26%
24%
Conhecer os projetos existentes
3%
28%
Não contribuiu
3%
6%
Não opinou
1%
0
Obs.: Os alunos foram instruídos a marcar mais de uma opção, se necessário.
Com relação ao nível de motivação, para os 80 alunos, 22% a consideram como
“Ótima”, 59% como “Boa” e 19% como “Razoável”.
4.3.
PARTICIPAÇÃO EM PROGRAMAS ACADÊMICOS
Por meio da aplicação dos questionários pôde-se também verificar a importância dos
programas acadêmicos existentes na Universidade como a Monitoria, a Iniciação Científica,
o Programa de Educação Tutorial (PET) e outros que contribuem para seu crescimento, o
que proporciona um maior interesse nos cursos.
Dos alunos que participaram dos programas acadêmicos, 43% responderam que os
programas influenciaram “Muito” na sua motivação, sendo que os principais motivos que o
levaram a participar foram o de “Interesse em pesquisa”, seguido de “Entrosamento na
universidade”. Tais alunos afirmam que tais programas contribuem para “Trabalho em
equipe” e “Crescimento intelectual”.
32% dos alunos que participaram dos programas acadêmicos consideram sua
motivação como “Ótima”, contra apenas 17,4% dos que não participaram. 82% dos alunos
que participaram dos programas acadêmicos consideram sua motivação entre “Boa” a
“Ótima”, contra 68% dos que não participaram.
5. CONCLUSÃO
Vários fatores podem interferir ou colaborar para a evasão do corpo discente de uma
instituição, influenciando diretamente no grau de motivação do estudante.
Pela pesquisa realizada verificou-se que o mercado de trabalho interfere diretamente
na relação candidato/vaga, estimulando a procura por cursos que apresentam boas
perspectivas de empregabilidade, e no número de formados. Atualmente, os cursos
relacionados às atividades no setor de óleo e gás, área de grande expansão no Brasil, são
os que apresentam maior procura e um crescente aumento no número de formados. Tais
cursos são os de engenharia mecânica, química, de petróleo e de produção.
Por meio da análise dos questionários, verificou-se que a disciplina “Introdução à
Engenharia” contribuiu consideravelmente para um bom desempenho dos alunos nos
cursos. Todos os alunos pesquisados concordaram que a disciplina contribuiu para um
“melhor esclarecimento sobre o curso”, “adaptação no curso” e para “conhecer os projetos
acadêmicos”.
Verificou-se também que os alunos apresentaram grande interesse nos programas
acadêmicos, e que a participação aumenta o grau de motivação para a realização do curso.
6. REFERÊNCIAS
CAVALCANTE, C. R. R. (2005). Educação e inovação: o papel e o desafio das engenharias
na promoção do desenvolvimento industrial, científico e tecnológico. Parcerias
Estratégicas, n. 21. Disponível em:
65
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
http://seer.cgee.org.br/index.php/parcerias_estrategicas/article/viewFile/261/255. Acesso
em: 03 out. 2010.
CHIAVENATO, I. (2001). Teoria Geral da Administração. vol. 1, 6a ed. Rio de Janeiro,
Editora Elsevier.
CORREA, A. C. e SCHUCH JUNIOR, V. F. (1999). Gestão da Qualidade na Universidade:
um estudo de caso do perfil da divulgação da produção científica em Medicina
Veterinária – UFSM. Artigo apresentado no ENEGEP, 1999. Disponível em:
http://www.abepro.org.br/biblioteca/ENEGEP1999_A0406.PDF. Acesso em: 02 set.
2010.
ENGERS, M. E. A. (2002). O ensino superior no século XXI: visão e ação. Revista
Educação/PUCRS,
v.
25,
n.
46,
p. 119 – 136.
Disponível em:
http://revistaseletronicas.pucrs.br/ojs/index.php/faced/article/viewFile/4163/3159. Acesso
em: 15 fev. 2011.
HUBERMAN, A. M. (1973). Como se realizam as mudanças em educação. Subsídios para o
estudo do problema da inovação. Ed. Cultrix. São Paulo.
LONGO, W. P. (2001). “Reengenharia” do Ensino de Engenharia: uma necessidade.
Disponível em: http://www.engenheiro2001.org.br/programas/971207a.htm Acesso em:
06 abr. 2011.
MELLO, S. L. M. (2010). Comunicado da PROAC sobre conceito preliminar de curso.
Disponível em http://www.proac.uff.br/avaliacao-das-universidades/comunicado-daproac-sobre-conceito-preliminar-de-curso. Acesso em: 03 out. 2010.
RODRIGUES, J. A.; NETO, B. G. A.; NETO, M. L. da C. (2001). Multidisciplinaridade e
Interdisciplinaridade no Ensino de Informática em Engenharia. Artigo apresentado no
COBENGE
2001.
Disponível
em:
http://www.pp.ufu.br/Cobenge2001/trabalhos/MTE129.pdf. Acesso em: 15 fev. 2011.
SILVA, L. P. e CECÍLIO, S. (2007). A mudança no modelo de ensino e de formação na
engenharia. Educação em Revista. n. 45, Belo Horizonte. Jun, 2007.
SILVA FILHO, R. L. L; MOTEJUNAS, P. R.; HIPÓLITO, O.; LOBO, M. B. C. M. (2007). A
Evasão
no
Ensino
Superior
Brasileiro.
Disponível
em:
http://www.scielo.br/pdf/cp/v37n132/a0737132.pdf. Acesso em: 10 out. 2010.
SILVA, R. R. C. M.; MAINIER, F. B.; PASSOS, F. B. (2006). A contribuição da disciplina de
introdução à engenharia química no diagnóstico da evasão. Ensaio: Avaliação e
Políticas Públicas em Educação. Fundação Cesgranrio. vol.14, n.51, p.261-277.
NOVAK, J. D. (2003). The Promise Of New Ideas And New Technology For Improving
Teaching And Learning. Cell Biology Education. vol 2, n 2, p 122-132, 2003. Disponível
em:http://www.scopus.com/inward/record.url?eid=2-s2.03042715695&partnerID=40&md5=95fd69781146db2133b5d76c2e4be223. Acesso em:
09 jul. 2010.
SARAIVA, M. M. (2007). Os desafios e o futuro da gestão da qualidade total no ensino
superior português, 2003. Revista Dirigir, n.98, Instituto de Emprego e Formação
Profissional. Lisboa, p. 18 – 21. abr - jun 2007. Disponível em:
http://www.iefp.pt/iefp/publicacoes/Dirigir/Documents/Dirigir%202007/DIRIGIR_98.pdf.
Acesso em: 28 abr. 2011.
66
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Aperfeiçoamento da técnica de parâmetros concentrados
para escoamentos em desenvolvimento térmico
1
Leandro Santos de Barros
1,
Escola de Engenharia - Universidade Federal Fluminense (UFF)
Niterói, RJ, Brasil
[email protected]
RESUMO
Este trabalho tem o objetivo de aplicar a Técnica das Equações Integrais Aproximadas
(TEIA) ao problema de escoamento em desenvolvimento térmico para encontrar expressões
analíticas para a temperatura de mistura e comparar com as aproximações clássicas
(parâmetros concentrados) e a solução exata. Inicialmente é feito uma descrição da técnica
que se baseia em aproximar integrais por uma combinação linear da função integrada e suas
derivadas, aplicadas nos limites de integração. A equação diferencial parcial que rege o
problema é então transformada numa simples equação diferencial ordinária e resolvida
analiticamente. Com isso é possível fazer um comparativo gráfico entre as diferentes
aproximações e a solução exata. O pequeno esforço computacional aliado ao pequeno erro
máximo associado à aproximação são as duas vantagens da TEIA.
Palavras-Chave: Parâmetros Concentrados. Convecção-difusão. Convecção de calor.
Modelagem matemática.
1. INTRODUÇÃO
Durante séculos, os métodos analíticos foram a única solução disponível para
problemas de escoamento de fluido e calor.
Após a introdução dos computadores, métodos numéricos evoluíram muito e seu uso
tornou-se inevitável. Hoje em dia, com a disponibilidade de pacotes fechados para resolver
problemas de engenharia (que são baseados principalmente em técnicas numéricas),
métodos analíticos se tornaram antiquados, e em várias ocasiões técnicas numéricas são
usadas para problemas que possuem soluções analíticas. No entanto, soluções analíticas
desempenharam um papel crucial no desenvolvimento da ciência e da engenharia, e sua
relevância não deve ser negligenciada.
Aproximar uma integral por uma combinação linear do integrando e suas derivadas
nos limites de integração, foi uma idéia originalmente desenvolvido por Hermite
(Hermite,1878) e apresentado pela primeira vez por Menning et al. (J. Menning e Halg,
1983), os primeiros a usarem esta abordagem de dois pontos, derivando-o em uma forma
completamente diferencial chamado H α , β . Estes, além disso, mostraram que a já conhecida
fórmula de Obreschkoff não apresentava nenhuma nova característica em relação ao
método H α , β e usou esta técnica para resolver sistemas de equações diferenciais ordinárias
EDO (problemas de valor inicial e condição de contorno), mostrando a vantagens desta
abordagem em comparação com outros métodos.
Se aproximações são consideradas, os métodos de análise podem ser estendidos a
uma classe muito mais ampla de problemas. No entanto, os erros envolvidos em
aproximações devem ser controlados para manter a precisão exigida. Uma técnica que leva
isso em conta é a Técnica das Equações Integrais Aproximadas, que é com base na
literatura acima citada. Este método foi utilizado em uma variedade de problemas, tais como
problemas de mudança de fase (Menning e Ozinik, 1985), transferência de calor em aletas
67
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
(J. B. Aparecido, 1989), trocadores de calor (Neto e Cotta), condução de calor linear (Côrrea
e Cotta, 1998), condução de calor hiperbólica (Reis et al., 2000), resfriamento radiativo (Su,
2004), remoção (Ruperti ET al., 2004), secagem (L. B. Dantas, 2007), condução de calor
com condutividade dependente da temperatura (Su et al,. 2009). Uma abordagem muito
semelhante também foi usada no trabalho de Keshavarz e Taheri (Keshavarz e Taheri,
2007), no entanto, os autores se referem a ele como o método de aproximação polinomial.
Neste estudo, a Técnica das Equações Integradas Aproximadas é empregada para o
problema de escoamento em desenvolvimento térmico em placas paralelas. Com esta
abordagem uma formulação aperfeiçoada de parâmetros concentrados para representar o
problema é obtida. Esta formulação é naturalmente mais simples que a equação original,
uma vez que consiste em uma EDO simples para determinar a temperatura de mistura,
enquanto que o problema original era uma EDP para o cálculo da temperatura em todo o
domínio e a partir deste cálculo obtinha-se a temperatura média. A fórmula de Hermite é
usada para produzir níveis diferentes de aproximação, e, portanto, diferentes modelos de
parâmetros concentrados são obtidos. Estes modelos são analiticamente resolvidos, e cada
solução é comparada a com a solução do problema original. Os resultados fornecem uma
indicação da melhor formulação para representar a formulação original do problema.
2. APROXIMAÇÃO DE HERMITE
A base para a Técnica das Equações Integrais Acopladas (TEIA) é a aproximação
integral de Hermite H α , β que é dada pela expressão geral:
∫
α
xi
xi −1
f ( x)dx = ∑cν (α , β )hi
ν +1
ν =0
f
(ν )
β
( xi −1 ) + ∑cν ( β , α )(−1)ν hiν +1 f (ν ) ( xi ) + Eα , β
(1a)
ν =0
onde
(α + 1)!(α + β − ν + 1)!
(ν + 1)!(α − ν )!(α + β + 2)!
hi = xi − xi −1 , cν (α , β ) =
e f (x) a suas derivadas f
(ν )
aproximação. Assume-se que f
(1b)
( x) são definidas em x ∈ [ xi −1 , xi ] . Eα , β é o erro da
(ν )
ν = 0,1,2,K , β .
( xi −1 ) = f i −(ν1) para ν = 0,1,2, K , α e f (ν ) ( xi ) = f i (ν ) para
Esta fórmula de integração permite diferentes níveis de aproximação, começando da
clássica formulação por parâmetros concentrados até formulações mais sofisticadas. Uma
detalhada análise de erros envolvendo aplicações da TEIA em problemas de difusão usando
aproximações de Hermite H 0, 0 , H 0,1 , H 1,1 pode ser verificada em (Alves et al., 2000).
Aproximações de ordem maior que H 1,1 envolvem derivadas de ordem maior que um, estas
são evitadas para manter a simplicidade da metodologia. Por isso, apenas duas diferentes
aproximações são consideradas abaixo:
h
H 0,0 ⇒ ∫ f ( x)dx ≈
0
h
H 1,1 ⇒ ∫ f ( x)dx ≈
0
1
h( f (0) + f (h)),
2
(2a)
1
1
h( f (0) + f (h)) + h 2 ( f ′(0) − f ′(h)),
2
12
(2b)
que corresponde as conhecidas fórmulas de integração do trapézio e a fórmula corrigida do
trapézio, respectivamente.
68
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
3. CONVECÇÃO-DIFUSÃO / PROBLEMA DE ESCOAMENTO EM DESENVOLVIMENTO
TÉRMICO
Para ilustrar a metodologia proposta, um problema genérico de escoamento em
placas paralelas é considerado, escrito na sua forma adimensional abaixo:
1 ∗ ∂θ
∂ 2θ ∂ 2θ
u
= Pe −H2 2 + 2 ,
2 ∂ξ
∂ξ ∂η
(3a)
 ∂θ 


= 0,
 ∂η  η = 0
(3b)
 ∂θ 
 =1,
(1 − ω )θ (ξ ,1) +ω 
 ∂η η =1
(3c)
θ (0,η ) =0,
(3d)
 ∂θ 
 
= 2ω ,
 ∂ξ  ξ →∞
(3e)
onde ω é o parâmetro que indica o tipo de condição de contorno na parede. Para
temperatura constante na parede temos ω =0, enquanto que para fluxo de calor constante na
parede ω =1. A velocidade é dada pelo perfil de Hagen-Poiseuille:
(
)
3
u =u 1 − η 2 ,
2
η = 2 y/H ,
with
(4)
e parâmetros adimensionais e variáveis são definidas por:
Pe H =
η=
y
,
H/2
uH
x
L
ξ= ,
θ=
(5a)
α
L=
H
Pe H ,
2
(5b)
T −Tmin
,
Tmax −Tmin
(5c)
Para fluxo de calor constante na parede, Tmax e Tmin são definidos como:
Tmax =Tin +
( H/2)
q& '′w ,
k
Tmin =Tin ,
(6)
enquanto que para parede com temperatura constante (parede isotérmica), define-se como:
Tmax =Tw ,
Tmin =Tin ,
(7)
Após o cálculo da temperatura adimensional, o número de Nusselt é computado de:
Nu = Nu (ξ )=
4  ∂θ 

 ,
θ w − θ m  ∂η η =1
(8)
onde θ w e θ m , temperatura da parede e de mistura são calculadas por:
θ w =θ (ξ ,1),
1
θ m = ∫ u ∗ θ dη .
(9)
0
69
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
4. PARÂMETROS CONCENTRADOS PARA ESCOAMENTO UNIFORME
Esta seção apresenta a metodologia para escoamento uniforme, na qual o perfil de
velocidade adimensional é simplificado para:
u ∗ =1
(10)
Definição de temperatura média:
1
θ (ξ )= ∫ θ (ξ ,η ) dη
(11)
2
2
1∂ θ
1∂ θ
1 1 ∂θ
−2
dη = Pe H ∫
dη + ∫
dη ,
0 ∂ξ 2
0 ∂η 2
2 ∫0 ∂ξ
(12)
0
4.1. EQUAÇÃO INTEGRAL
η =1
2
1
 ∂θ 
1 d 1
−2 d
θ
η
θ dη +  ,
d
=
Pe
H
2
∫
∫
2 dξ 0
dξ 0
 ∂η  η = 0
(13)
Substituindo a definição de temperatura média e aplicando as condições de contorno:
2
1 dθ
− 2 d θ  ∂θ 
 ,
= Pe H
+
2 dξ
dξ 2  ∂η η =1
(14)
A forma anterior é usada na condição de parede termicamente isolada ( ω = 0 ); entretanto
para fluxo de calor constante a condição na parede leva a:
2
1 dθ
−2 d θ
= Pe H
+1,
2 dξ
dξ 2
(15)
Para ambas as condições da parede, temos as seguintes condições:
θ (0)= 0,
 dθ 
 
= 2ω.
 dξ 
  ξ →∞
(16)
Para parede isotérmica, diferentes níveis de aproximação implicam em diferentes
formulações de parâmetros concentrados, como descrito a seguir:
4.2. FORMULAÇÃO CLÁSSICA POR PARÂMETROS CONCENTRADOS
Corresponde à regra de integração por retângulos:
1
∫ θ dη ≈θ (ξ ,0)
ou
 ∂θ 
∂θ
∫0 ∂η dη ≈ ∂η 
η =0
ou
0
1
1
∫ θ dη ≈θ (ξ ,1)
(17)
0
1
∂θ
 ∂θ 
∫ ∂η dη ≈ ∂η 
0
(18)
η =1
Para evitar uma temperatura de mistura constante e obter uma relação que leve
θ (ξ ,0) diferente de θ (ξ ,1) , o par seguinte é selecionado:
70
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
1
∫ θ dη ≈θ (ξ ,0)
(19)
0
1
 ∂θ 
∂θ
∫ ∂η dη ≈ ∂η 
0
(20)
η =1
levando ao seguinte sistema para determinar a relação entre o valor de contorno
desconhecido e a temperatura de mistura:
θ (ξ )≈θ (ξ ,0)
(21)
 ∂θ 

 ∂η η =1
θ (ξ ,1)−θ (ξ ,0) ≈
(22)
que pode ser resolvido para gerar:
 ∂θ 

 ≈θ (ξ ,1) −θ (ξ ) =1−θ (ξ )
 ∂η η =1
(23)
substituindo na equação (14), temos:
2
1 dθ
−2 d θ
= Pe H
+1−θ (ξ ),
2 dξ
dξ 2
(24)
Caso não haja difusão axial (Alto valor para o número de Péclet):
1 dθ
=1−θ (ξ ),
2 dξ
(25)
θ (ξ ) =1 − exp(−2ξ ),
(26)
onde se obtem a seguinte solução:
A solução com difusão axial é dada por:
θ (ξ )=1+exp(Pe 2H ξ/4 ) c1 cosh

 Pe H
 4


 Pe
16 + Pe 2H ξ + c 2 sinh  H

 4

16 + Pe 2H ξ  

(27)
ou

θ (ξ )=1+c1 exp Pe 2H ξ/4 +

Pe H
Pe


16 + Pe 2H ξ + c 2 exp Pe 2H ξ/4 − H
4
4



16 + Pe 2H ξ 

(28)
A condição de contorno em ξ → ∞ requer que a solução seja dada por (para evitar
que a solução tenda ao infinito):

θ (ξ )=1−exp Pe 2H ξ/4 −

Pe H

16 + Pe 2H ξ 
4

(29)
4.3. FORMULAÇÃO H 0, 0 / H 0, 0
Vamos aproximar as integrais que definem a temperatura média e o fluxo na placa
1
1
∫ θ dη ≈ 2 (θ (ξ ,0)+θ (ξ ,1))
(30)
0
71
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
1   ∂θ 
∂θ
∫ ∂η dη ≈ 2   ∂η 
1
0

 ∂θ  
+

∂
η

η =1 
η =0
(31)
usando as equações acima e mais as condições de contorno (3b) e (3c) temos:
1
2
θ (ξ ) ≈ (1+θ (ξ ,0))
(32)
1  ∂θ 

1−θ (ξ ,0) ≈ 
2  ∂η η =1
(33)
resultando em :
(
 ∂θ 

 ≈ 4 1−θ (ξ )
 ∂η η =1
)
(34)
substituindo na equação (14), temos:
(
)
2
1 dθ
−2 d θ
= Pe H
+ 4 1−θ (ξ ) ,
2 dξ
dξ 2
(35)
Caso não haja difusão axial (Alto valor para o número de Péclet):
(
)
1 dθ
= 4 1−θ (ξ ) ,
2 dξ
(36)
θ (ξ ) =1 − exp(−8ξ ),
(37)
onde se obtem a seguinte solução:
A solução com difusão axial é dada por:
θ (ξ )=1+exp(Pe 2H ξ/4 ) c1 cosh

 Pe H
 4


 Pe
64 + Pe 2H ξ  + c 2 sinh  H

 4

64 + Pe 2H ξ  

(38)
ou

θ (ξ )=1+ c1 exp Pe 2H ξ/4 +

Pe H
4
Pe


64 + Pe 2H ξ + c 2 exp Pe 2H ξ/4 − H
4



64 + Pe 2H ξ 

(39)
A condição de contorno em ξ → ∞ requer que a solução seja dada por (para evitar
que a solução tenda ao infinito):

θ (ξ ) =1−exp Pe 2H ξ/4 −

Pe H
4

64 + Pe 2H ξ 

(40)
4.4. FORMULAÇÃO H 1,1 / H 0, 0
Tornando a aproximação melhor, temos :
1
1
2
∫ θ dη ≈ (θ (ξ ,0)+θ (ξ ,1))+
0
 ∂θ  
1   ∂θ 

 −

12   ∂η η = 0  ∂η η =1 
(41)
72
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
1   ∂θ 
∂θ
∫ ∂η dη ≈ 2   ∂η 
1
0

 ∂θ  
+

∂
η

η =1 
η =0
(42)
Aplicando as condições de contorno (3b) e (3c):
1
2
θ (ξ ) ≈ (1+θ (ξ ,0)) −
1  ∂θ 


12  ∂η η =1
(43)
1  ∂θ 

1−θ (ξ ,0) ≈ 
2  ∂η η =1
(44)
que pode ser resolvido para gerar:
(
 ∂θ 

 ≈3 1−θ (ξ )
 ∂η η =1
)
(45)
substituindo na equação (14), temos:
(
)
1 dθ
d 2θ
= Pe −H2 2 +3 1−θ (ξ ) ,
2 dξ
dξ
(46)
Caso não haja difusão axial (Alto valor para o número de Péclet):
(
)
1 dθ
=3 1−θ (ξ ) ,
2 dξ
(47)
θ (ξ ) =1 − exp(−6ξ ),
(48)
onde se obtem a seguinte solução:
A solução com difusão axial é dada por:
θ (ξ )=1+exp(Pe 2H ξ/4 ) c1 cosh

 Pe H
 4


 Pe
48 + Pe 2H ξ  + c 2 sinh  H

 4

48 + Pe 2H ξ  

(49)
ou

θ (ξ )=1+ c1 exp Pe 2H ξ/4 +

Pe H
4
Pe


48 + Pe 2H ξ + c 2 exp Pe 2H ξ/4 − H
4



48 + Pe 2H ξ 

(50)
A condição de contorno em ξ → ∞ requer que a solução seja dada por (para evitar
que a solução tenda ao infinito):

θ (ξ ) =1−exp Pe 2H ξ/4 −

Pe H
4

48 + Pe 2H ξ 

(51)
4.5. FORMULAÇÃO H 1,1 / H 1,1
Vamos aperfeiçoar a aproximação:
1
1
2
∫ θ dη ≈ (θ (ξ ,0)+θ (ξ ,1))+
0
 ∂θ  
1   ∂θ 

 −

12   ∂η η = 0  ∂η η =1 
(52)
73
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
 ∂θ   1   ∂ 2θ
∂θ
1   ∂θ 
∫0 ∂η dη ≈ 2   ∂η  + ∂η   +12   ∂η 2
η =0
η =1 


1

 ∂ 2θ
 − 2
η = 0  ∂η
 

η =1 
(53)
Usando a equação (3a) e a (3c) determina-se a relação para as derivadas segundas:
 ∂ 2θ
 2
 ∂η

 ∂ 2θ
1  ∂θ 
 =   − Pe −H2  2
η =0 2  ∂ξ η =0
 ∂ξ
 ∂ 2θ
 2
 ∂η


η = 0
(54a)

 = 0
η =1
(54b)
Aplicando as condições de contorno e as equações acima, temos:
1
2
θ (ξ )≈ (1+θ (ξ ,0)) −
1  ∂θ 


12  ∂η η =1
(55)
 ∂ 2θ  
1  ∂θ 
1  1  ∂θ 
1−θ (ξ ,0)≈   +    − Pe −H2  2  
2  ∂η η =1 12  2  ∂ξ η =0
 ∂ξ η =0 
(56)
 ∂θ 
e aplicando em (14) e (56), temos o
Resolvendo a equação (55) para 

 ∂η η =1
seguinte sistema:
2
1 dθ
−2 d θ
= 6 + 6θ (ξ ,0) − 12θ (ξ ) + Pe H
2 dξ
dξ 2

 ∂θ
Pe 2H  48 + 96θ (ξ ,0)−144θ (ξ )+

 ∂ξ



η = 0
  ∂ 2θ
= 2
  ∂ξ 2

(57a)


η = 0
(57b)
Após resolver o sistema acima, para valores altos de Péclet, temos:
θ (ξ ) = 1 −
(
1
exp(−60ξ ) 21 cosh (12 21ξ ) + 4 21 sinh (12 21ξ )
21
)
(58)
5. SOLUÇÃO EXATA
θ n (ξ )Yn (η )
N (λ n )
n =1
∞
θ (ξ ,η ) = ∑
βn =
Pe H
4
(59)
Pe 2H + 16λ 2n
(60)
 Pe 2H ξ  4 β n cosh ( β n (ξ max − ξ )) + Pe 2H sinh ( β n (ξ max − ξ ))

4
4 β n cosh ( β n ξ max ) + Pe 2H sinh ( β n ξ max )


θ n (ξ )=bn exp
(61)
74
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
6. RESULTADOS E DISCUSSÃO
Expressões analíticas foram obtidas para cada formulação. Dois casos foram
analisados distintamente: Para altos valores de Péclet e para Péclet igual a 3. Este
parâmetro é importante, pois caracteriza o escoamento.
As figuras 1 e 2 são relativas à situação de valores altos de Péclet (escoamento sem
difusão axial); Na primeira temos um gráfico da temperatura média pela distância axial
(adimensional). À medida que o nível de aproximação cresce as soluções se tornam cada
vez mais próximas da solução exata. Esta aproximação pode ser mais bem compreendida
pela figura 2, o gráfico do erro cometido em cada aproximação.
Exceto na região de entrada, o erro cometido é pequeno (o cálculo do erro relativo
na região de entrada envolve divisão do tipo 0/0, por isso essa discrepância).
Figura 4: Comparativo entre a solução exata e os diferentes tipos de formulação para altos valores de
Péclet
Figura 2: Gráfico do Erro Relativo ao se aproximar a solução exata (Altos valores de Péclet)
As Figuras 3 e 4 expressam a análise para Péclet igual a 3. Na figura 3 temos um
gráfico da temperatura de mistura pela distância axial (adimensional). À medida que o nível
de aproximação cresce as soluções se tornam cada vez mais próximas da solução exata. O
sistema da formulação H 1,1 / H 1,1 foi resolvido numericamente.
Na figura 4 temos o gráfico do erro relativo. Para H 1,1 / H 0, 0 e H 1,1 / H 1,1 o erro
envolvido é menor que 3% na maior parte do escoamento. Além de uma boa representação
do problema original, o método apresentado neste trabalho se mostra de fácil manipulação.
75
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Isto é, mesmo sem exigir um grande esforço computacional, é alcançada uma boa
aproximação da solução exata.
Figura 3: Comparativo entre a solução exata e os diferentes tipos de formulação
Figura 4: Gráfico do Erro Relativo ao se aproximar a solução exata
7. AGRADECIMENTOS
O autor gostaria de agradecer o apoio financeiro do CAPES, CNPq, FAPERJ e
Universidade Federal Fluminense.
8. REFERÊNCIAS
L. S. B. Alves, L. A. Sphaier, and R. M. Cotta. Error analysis of mixed lumped-differential
diffusion problems. Hybrid Methods in Engineering, 2(4):409–435, 2000.
E. J. Corrêa and R. M. Cotta. Enhanced lumped-differential formulations of diffusion
problems. Applied Mathematical Modelling, 22(3):137–152, 1998.
M. C. Hermite. Sur la formule d’interpolation de lagrange. J. Crelle, 84, 1878.
R. M. Cotta J. B. Aparecido. Improved one-dimensional fin solutions. Heat Transfer in
Engineering, (11): 49–59, 1989.
76
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
T. Auerbach J. Menning and W. Hälg. Two point hermite approximate for the solution of
linear initial value and boundary value. Computacional Methods in Applied Mechanical
Engineering, (39):199–224, 1983.
P. Keshavarz and M. Taheri. An improved lumped analysis for transient heat conduction by
using the polynomial approximation method. Heat and Mass Transfer, 43(11):1151–
1156, 2007.
R. M. Cotta L. B. Dantas, H. R. Orlande. Improved lumped-differential formulations and
hybrid solution methods for drying in porous media. International Journal of Thermal
Sciences, (46):878–889, 2007.
J. Menning and M. N. Özi ¸sik. Coupled integral equation approach for solving melting or
solidification. International Journal of Heat and Mass Transfer, 28(8):1481–1485, 1985.
F.S. Neto and R. M. Cotta. Improved hybrid lumped-differential formulation for double- pipe
heat-exchanger analysis. Journal of Heat Transfer (ASME), 115(4):921–927, 1993.
M. C. L. Reis, E. N. Macêdo, and J. N. N. Quaresma. Improved lumped-differential
formulations in hyperbolic heat conduction. International Communications in Heat and
Mass Transfer, 27(7):965–974, 2000.
N. J. Ruperti, R. M. Cotta, C. V. Falkenberg, and J. Su. Engineering analysis of ablative
thermal protection for atmospheric reentry: Improved lumped formulations and symbolicnumerical computation. Heat Transfer in Engineering, 25(6):101–111, 2004.
Ge Su, Zheng Tan, and Jian Su. Improved lumped models for transient heat conduction in a
slab with temperature-dependent thermal conductivity. Applied Mathematical Modelling,
33(1):274–283, 2009.
Jian Su. Improved lumped models for transient radiative cooling of a spherical body.
International Communications in Heat and Mass Transfer, 31(1):85–94, 2004.
77
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Aplicação de redes neurais no diagnóstico de falhas em
transformadores de potência
Caio Monteiro Leocádio, Vitor Hugo Ferreira.
Departamento de Engenharia Elétrica - Universidade Federal Fluminense (UFF)
Niterói, RJ, Brasil
[email protected], [email protected]
RESUMO
O monitoramento e diagnóstico de falhas incipientes e potenciais em transformadores de
potência imersos em óleo isolante permitem determinar um programa de manutenção
periódico para detectar e prevenir possíveis falhas nos transformadores, evitando prejuízos
para as empresas de energia. O objetivo principal do trabalho é aplicar as Redes Neurais
Artificiais (RNA) na criação de uma ferramenta de diagnóstico de falhas incipientes através
dos gases dissolvidos no óleo isolante, podendo assim ser utilizado como um método
adicional para identificação de falha interna do equipamento. São realizados testes com dois
modelos neurais distintos e é feita a comparação dos resultados com os métodos
convencionais de diagnóstico de falhas. Os resultados obtidos através do testes
comparativos evidenciam a aplicabilidade das redes neurais no diagnóstico de falhas
incipientes, onde as mesmas apresentaram resultados superiores aos determinados pelos
critérios convencionais, além de mostrar maior capacidade de reconhecimento de diferentes
falhas e condições de operação. As RNA' ainda se confirmaram como uma boa ferramenta
para a manutenção preventiva dos transformadores de potência, visto que elas indicam a
probabilidade de ocorrência de cada falta para um determinado estado de operação.
Palavras-Chave: transformadores de potência, falhas incipientes, redes neurais artificiais.
1. INTRODUÇÃO
Os transformadores de potência são um dos mais importantes equipamentos que
compõem um sistema elétrico e suas aplicações abrangem desde concessionárias de
energia, indústrias a pequenos consumidores. O sistema de isolamento de um
transformador, mesmo operando em condições de normalidade, sofre redução de sua
capacidade na medida em que envelhece. No caso de operação em condições críticas, esta
redução pode ser acelerada e a vida útil do material isolante se torna mais breve. Quando a
capacidade do sistema de isolamento é reduzida, vários processos podem ser
desencadeados. Estes processos que colaboram para a aceleração da incapacidade do
sistema de isolamento, quando em estágio inicial, são conhecidos como falhas incipientes
(BARBOSA, 2008). Essas são caracterizadas por esforços térmicos, como
sobreaquecimentos, e elétricos, relacionados às descargas internas no equipamento.
O monitoramento e diagnóstico de falhas incipientes em transformadores de potência
imersos em óleo isolante permitem determinar um programa de manutenção periódico para
detectar e prevenir possíveis falhas nos transformadores, evitando prejuízos para as
empresas de energia. Os sistemas de diagnóstico de transformadores possuem a função de
interpretar os dados relativos ao funcionamento do transformador e cuja coleta envolve
modernas tecnologias em sensores, técnicas de aquisição de dados e dispositivos digitais
ou analógicos. Essa interpretação pode ser realizada por um especialista ou por um
software especialmente desenvolvido para este fim.
Os métodos de diagnósticos com base na Análise de Gases Dissolvidos (DGA) são
os mais estudados e os mais aplicados nos transformadores de potência imersos em óleo.
Estes métodos baseiam-se na análise de tipos de concentração e taxa de produção de
gases gerados e dissolvidos no óleo do transformador e procuram associar o tipo de falha
ao gás presente. Os principais gases formados a partir da decomposição do óleo mineral de
78
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
transformadores submetidos a falhas são: hidrogênio (H2), metano (CH4), etano (C2H6),
etileno (C2H4), acetileno (C2H2). Os métodos convencionais DGA têm sido empregados por
mais de trinta anos e constituem uma técnica de sucesso comprovado, a ponto de a
metodologia ser padronizada por diversas normas, tais como a NBR 7070, a IEC 599 e a
IEEE C57.104. Dentre os principais métodos de diagnóstico podem-se destacar os Métodos
do Gás Chave, de Rogers e de Doernenburg.
Estas metodologias são facilmente computadas e geram resultados satisfatórios no
diagnóstico para a prevenção ou após a ocorrência de faltas severas em transformadores,
mas podem ser pouco sensíveis na detecção de falhas incipientes. Entretanto, os mesmos
métodos são usados como guias para os sistemas inteligentes baseados em Inteligência
Artificial. Atualmente, observa-se a tendência da substituição do diagnóstico feito por um
especialista por sistemas automáticos de diagnóstico que incorporam técnicas inteligentes
para representar entre outros conhecimentos, aquele acumulado com a experiência de um
especialista (BARBOSA, 2008); (ARANTES, 2005); (LIMA, 2005); (MORAIS, 2004).
2. REDES NEURAIS
A Rede Neural Artificial (RNA) é provavelmente a técnica de aprendizado de
máquina (um tipo de modelo caixa-preta) de maior sucesso e com estrutura matemática
flexível, capaz de identificar relações não lineares complexas entre entrada e saída, sem a
necessidade de entendimento dos fenômenos naturais. O neurônio artificial é composto por
p terminais de entrada x1, x2, ..., x p, , que podem ser os padrões de entrada da rede ou as
saídas dos neurônios da camada anterior, e por uma saída. Cada entrada do neurônio
artificial xi possui associada a ela um valor w ki , chamado de peso sináptico, em uma alusão
às sinapses presentes no cérebro humano, que são as conexões entre os dendritos de um
neurônio e os axônios de outros neurônios. Esses pesos têm a função de regular os valores
das entradas no corpo da célula. O neurônio propriamente dito é onde são processadas a
soma das entradas já multiplicadas pelos respectivos pesos. A soma é, então, fornecida à
função de ativação (Φ), gerando assim a saída do neurônio. O processamento de uma rede
neural pode ser dividido basicamente em duas fases: aprendizado, onde ocorre o processo
de atualização dos pesos sinápticos para a aquisição do conhecimento; e recuperação de
dados, onde ocorre o processo de cálculo da saída da rede, dado certo padrão de entrada.
Os Perceptrons Multicamadas ou, no inglês, Multi Layer Perceptron (MLP) são as
redes mais utilizadas em problemas envolvendo as RNAs e, em geral, possuem uma
camada oculta de neurônios e uma saída linear. A saída y ∈ℜ é dada por:
m
 n

y = f ( x, w ) = ∑ w i ϕ  ∑ w ij x j + bi  + b
i =1
 j =1

(1)
Seja x ∈ ℜ n o vetor contendo os sinais de entrada, d ∈ ℜ a saída desejada, w ∈ ℜM ,
onde M = mn + 2m + 1 (M igual ao número total de parâmetros do modelo e m o número de
neurônios na camada oculta), o vetor contendo os pesos das conexões e os “bias”
bk , k = 1,2,..., m e b, e ϕ ( x ) : ℜ → ℜ , uma função não linear.
79
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Figura 1. Estrutura de uma RNA
Conforme demonstra a Figura 1, a RNA é composta pela camada de entrada, onde
os neurônios constituem a interface de entrada (X), por uma ou mais camadas
intermediárias ou escondidas, e por uma camada de saída (Y). As setas denotam cada
conexão e esta mantém uma associação com um peso sináptico (wij) que pondera a referida
entrada i do neurônio j, por exemplo. Em termos de aplicações em reconhecimento de
padrões, A MLP é talvez a rede neural mais popular (HAYKIN, 1999).
3. DESCRIÇÃO DA METODOLOGIA ADOTADA
O presente tópico apresenta a metodologia e os critérios adotados para a aplicação
de Redes Neurais Artificiais para diagnóstico de falhas incipientes em transformadores de
potência. A base de dados utilizada neste trabalho para treinamento e teste dos modelos
neurais desenvolvidos é composta por 503 medições dos gases dissolvidos no óleo dos
transformadores de uma distribuidora de energia, provenientes dos relatórios de análise
cromatográfica. Todas as medições obtidas apresentam as concentrações de cada um dos
gases presentes na amostra coletada. Foram considerados os seguintes gases encontrados
na amostras: hidrogênio (H2), metano (CH4), etano (C2H6), etileno (C2H4), acetileno (C2H2),
monóxido de carbono (CO) e dióxido de carbono (CO2), oxigênio (O2) e nitrogênio (N2). A
análise cromatográfica de cada uma das amostras coletadas vem acompanhada ainda do
diagnóstico de falha incipiente realizado por uma empresa especializada. A cada tipo de
diagnóstico de falha foi atribuído um número representando o padrão da saída desejada,
conforme Tabela 1. Esta mesma padronização foi aplicada nos diagnósticos obtidos pelos
métodos tradicionais que utilizam DGA, para futura comparação.
Tabela 1. Numeração atribuída às falhas
Como mencionado anteriormente, para cada saída da rede neural foi associado um
valor. Posteriormente, este valores numéricos, que representam um dos cinco possíveis
diagnósticos de falha, são associados a uma codificação binária de 1 a n para melhor
caracterização das saídas desejadas. Em outras palavras, a codificação 1 de n é utilizada
para representar a classe de cada padrão x i . Nesta representação, a saída desejada d i é
um vetor binário de dimensão n com todos os seus componentes nulos (inativos), sendo
ativado (igual a 1) somente o bit relacionado com a classe à qual o padrão x i pertence (
dij = 1 ). Como as classes são mutuamente exclusivas, ou seja, um determinado padrão x i
só pode pertencer a uma única classe,
∑
C
k =1
d ik = 1 . Como exemplo, o diagnóstico com valor
1 será representado pelo vetor v1 = (1 0 0 0 0), o de valor 2 por v2 = (0 1 0 0 0) e assim por
80
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
diante. Esta estratégia garante que a rede neural não entenda os valores de saída como
uma sequência de números crescentes.
Com o objetivo de determinar um modelo neural que obtenha um desempenho
satisfatório, foram testadas e comparadas duas estratégias distintas de treinamento, sendo
um treinado pelo algoritmo Levemberg-Marquardt e o outro utilizando a Inferência
Bayesiana. O treinamento bayesiano se utiliza de técnicas estatísticas baseadas em
inferência bayesiana. Ele ainda usa artifícios matemáticos para não ocorrer o treinamento
excessivo da rede, não sendo necessário variar o número de épocas do treinamento da rede
(FERREIRA, 2008). O vetor de entrada é composto pelos dados das concentrações dos
seguintes gases: hidrogênio (H2), metano (CH4), etano (C2H6), etileno (C2H4), acetileno
(C2H2), monóxido de carbono (CO). A estrutura da rede neural escolhida para ambos os
modelos foi a MLP com uma camada escondida. Esta estrutura tem comprovada
capacidade de generalização e é utilizada em diversos trabalhos presentes na literatura. A
função de ativação tangente sigmoidal é utilizada nos neurônios da camada escondida,
devido à sua anti-simetria que proporciona maior velocidade de convergência, e a função
linear no neurônio de saída (HAYKIN, 1999). Finalmente, obtemos os seguintes modelos:
•
Modelo LM1 - com treinamento back-propagation e algoritmo LevembergMarquardt, 6 entradas e 7 neurônios na camada escondida;
•
Modelo BAY1 - com treinamento por inferência bayesiana, 6 entradas e 4
neurônios na camada escondida;
4. RESULTADOS
A Tabela 2 apresenta alguns exemplos de diagnósticos obtidos pelo modelo BAY1,
utilizando as Redes Neurais Artificiais. Como se pode observar, a camada de saída da rede
neural desenvolvida é composta por 5 neurônios, representando as 5 possíveis falhas que
podem ser diagnosticadas. Os valores de cada neurônio correspondem a probabilidade de
acontecer determinada falta. Para selecionar apenas um diagnóstico, a saída da rede neural
passa por uma função competitiva, de tal forma que o neurônio que apresentou maior valor
de saída seja associado à falta, conforme destacado na Tabela 2.
Tabela 2. Exemplo de Diagnósticos das Redes Neurais
Um detalhe interessante da utilização das redes neurais é que as mesmas apontam
a possibilidade de ocorrer outro tipo de falta além da indicada pelo diagnóstico. Como
exemplo, a Tabela 3 mostra a saída de 10 diagnósticos errados gerados pela rede neural
BAY1. Observa-se que, apesar do neurônio que possui o maior valor de saída indicar o
diagnóstico errado, ele possui um número muito próximo ao neurônio que representa o
diagnóstico correto. Portanto, entende-se que o valor contido na saída de cada neurônio
ilustra a probabilidade de determinada falha ocorrer. Na 3ª linha da Tabela 3, por exemplo, o
modelo indicou que a chance da falha 1 ocorrer é de 37,3%, enquanto que a possibilidade
de a falta 2 ser a correta é de 36,6%. Analisando ainda todos os 39 erros do modelo BAY1
81
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
constatou-se que 62% deles apresentavam valores inferiores a 0,5 no neurônio que
demonstrou a falta e com uma diferença menor que 0,25 em relação ao diagnóstico correto.
Tabela 3. Diagnósticos Errados RNAs
Para comparação dos resultados das redes neurais artificiais com os dos métodos
tradicionais, foram obtidas as taxas de diagnósticos corretos para alguns dos principais
métodos tradicionais presentes na literatura, conforme a Tabela 4.
Tabela 4. Comparação entre os métodos
De posse dos resultados apresentados na Tabela 4, pode-se perceber que os
modelos neurais tiveram desempenho considerado bem superior em relação aos outros
métodos, com mais de 60% dos casos identificados de forma correta. É importante salientar
que mesmo os diagnósticos errados obtidos pelas redes neurais possibilitam ao usuário
verificar a probabilidade de ocorrer outro tipo de falta através dos valores contidos nas
outras saídas do modelo. Ao contrário dos outros métodos que, quando não são conclusivos
quanto ao tipo de falta, geram como resultado a condição de normalidade, os modelos
neurais sempre apontam um diagnóstico próximo do exato, quando o valor apresentado em
determinada falta for maior que 0,5. Quando este valor é inferior a 0,5, a ferramenta permite
ao usuário identificar quais outras condições de falta podem ocorrer ao além da indicada.
Excetuando-se os erros de diagnósticos que se encontram nessa condição, a ferramenta
poderia atingir até 85% de acertos. A aplicação de redes neurais proporcionou uma solução
para o problema da não decisão. O problema de não decisão é crítico quando os métodos
tradicionais são aplicados no diagnóstico de falhas.
Outro comentário pertinente é a análise da alta taxa de diagnósticos corretos obtidos
pelos critérios convencionais quando sinalizam a operação normal dos transformadores.
Apesar de apenas 28% da amostra testada ser composta de condição “Normal”, verificada
pela opinião do especialista, os métodos tradicionais indicam diagnóstico de operação
normal em 70% dos testes. Isto explica em partes o porquê da alta taxa de diagnósticos
corretos obtidos por estes critérios. Segundo o IEEE, quando os limites de concentração dos
gases não forem atingidos, o método vai fornecer como diagnóstico a operação normal do
equipamento. Sendo assim, e para os dados em questão, esses limites por muitas vezes
não foram atingidos, fazendo com que a resposta deste critério, aplicado individualmente,
fosse na maioria dos casos, a condição de normalidade. Além disso, é importante mencionar
que, para 78% do total de amostras, as quais apresentavam falhas, os métodos
convencionais acertaram não mais que 32%. Por outro lado, as redes neurais artificiais
tiveram índice de acerto na faixa de 51%. Isso mostra a perspectiva de que os critérios
tradicionais não teriam boas taxas de diagnósticos corretos se as amostras se
apresentassem em maior número com condições de falhas.
82
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
5. CONCLUSÕES
Este trabalho teve por objetivo demonstrar a aplicabilidade das redes neurais no
diagnóstico de falhas incipientes em transformadores de potência. A utilização da
inteligência computacional para problemas de tomada de decisões operativas vêm se
consolidando como uma ferramenta importante para a segurança e planejamento de um
sistema elétrico e de fácil adaptação a diversos problemas. Foram testados dois modelos
com algoritmos distintos de treinamento para avaliação e comparação dos resultados com
os métodos convencionais presentes na norma.
Os resultados obtidos pelos testes comparativos evidenciam a aplicabilidade das
redes neurais no diagnóstico de falhas incipientes. As redes neurais apresentaram
resultados de diagnósticos corretos superiores aos determinados pelos critérios
convencionais, além de mostrar maior capacidade de reconhecimento de diferentes falhas e
condições de operação. Por fim, as redes neurais artificiais se confirmaram como mais uma
ferramenta para a manutenção preventiva dos transformadores de potência, visto que elas
indicam a probabilidade de ocorrência de cada falta para aquele estado de operação. Este
fato pode auxiliar os operadores numa análise mais cuidadosa de possíveis falhas e na
tomada de decisões operativas.
6. REFERÊNCIAS
ARANTES, J. G. (2005). Diagnóstico de Falhas em Transformadores de Potência pela
Análise de Gases Dissolvidos no Óleo Isolante Através de Redes Neurais. Dissertação
de Mestrado. UNIFEI.
BARBOSA, F. R. (2008). Monitoramento e diagnóstico inteligente da qualidade dielétrica do
isolamento líquido de transformadores de potência. Dissertação de Mestrado em
Engenharia Elétrica – Universidade Federal do Ceará, Fortaleza.
FERREIRA, V. H. (2008). Desenvolvimento de Modelos Neurais Autônomos para Previsão
de Carga Elétrica, Tese de Doutorado, COPPE/UFRJ, Rio de Janeiro, RJ, Brasil.
GUARDADO, J. L et al. (2001). A Comparative Study of Neural Network Efficiency in Power
Transformers Diagnosis Using Dissolved Gas Analysis, IEEE Trans. on Power Delivery.
Vol. 16, No. 4, pp. 643-647.
HAYKIN, S. (1999). Neural Networks – A Comprehensive Foundation, Second Edition,
Macmillan College Publishing CO.
IEEE C57.104-1991 (1991). IEEE Guide for the Interpretation of Gases Generated in OilImmersed Transformers.
LEOCÁDIO, C. M. (2011). Aplicação de redes neurais artificiais no diagnóstico de falhas em
transformadores de potência - Trabalho de Conclusão de Curso – Departamento de
Engenharia de Elétrica, Universidade Federal Fluminense, Niterói.
LIMA, S. E. U. (2005). Diagnóstico Inteligente de Falhas Incipientes em Transformadores de
Potência Utilizando a Análise dos Gases Dissolvidos em Óleo. Dissertação de
Mestrado, UFC/CT/DEE - Departamento de Energia Elétrica, Fortaleza, CE.
MORAIS, D. R. (2004). Ferramenta Inteligente para Detecção de Falhas Incipientes em
Transformadores Baseada na Análise de Gases Dissolvidos no Óleo Isolante.
Dissertação de Mestrado em Engenharia Elétrica – Universidade Federal de Santa
Catarina, Florianópolis, SC.
83
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Avaliação da cinética de secagem da polpa e casca da
banana para a velocidade de 2m.s-1
Luciana P. Teixeira; José G. da Silva; Ednilton T. de Andrade; Angelo José L. Braz
Universidade Federal Fluminense (UFF)
Niterói, RJ, Brasil
[email protected]; [email protected]; [email protected];
[email protected]
RESUMO
Este trabalho teve por objetivo estudar a cinética de secagem da polpa e casca da banana
para a velocidade de 2m.s-1 submetida a diferentes temperaturas do ar de secagem, além
de ajustar os dados experimentais a diferentes modelos matemáticos representativos da
razão de umidade, analisando-se também as variâncias entre os resultados obtidos. Para
condução do experimento de secagem foram utilizadas as temperaturas de 35, 45, 55, e
70ºC. Para o ajuste dos modelos matemáticos aos dados experimentais, realizou-se análise
de regressão não linear, pelo método Quasi-Newton, sendo os valores dos parâmetros dos
modelos estimados em função da temperatura do ar de secagem. Como resultado, foi
verificado que o modelo de Midilli foi o que melhor representou o fenômeno nas
temperaturas de 35, 45, 55 e 70ºC. Já, para a casca da banana na temperatura de 35 ºC, o
modelo de Dois termos apresentou melhor ajuste, enquanto que para as temperaturas de
45, 55 e 70ºC, houve melhor representação pelo modelo de Midilli.
Palavras-Chave: banana, cinética de secagem, modelos matemáticos.
1. INTRODUÇÃO
As bananas são frutos comestíveis do gênero Musa cavendishii., cultivadas na
maioria dos países tropicais.
A obtenção de um produto de alta qualidade deve ser a meta de qualquer processo
de produção para grandes ou pequenos produtores. Uma vez alcançada, resulta numa
melhor aceitação pelo mercado consumidor e maior retorno financeiro à base produtiva.
Contudo, a pós-colheita da banana apresenta certos inconvenientes, tais como:
a) a fruta madura é bastante suscetível a danos físicos durante o transporte e
comercialização, devido aos constantes manuseios dos cachos;
b) as bananas maduras deterioram-se rapidamente, devido ao ataque dos fungos
que podem instalar-se nos frutos antes ou após a colheita;
c) em condições naturais, existe desuniformidade no amadurecimento de bananas
após a colheita.
A banana caracteriza-se por apresentar uma respiração muito ativa, sendo
classificada do tipo climatérico, portanto para sua conservação se faz necessário utilizar-se
de meios físicos para reduzir seu metabolismo, dentro dos limites tolerados pelas frutas,
sem causar qualquer problema em sua estrutura celular e, consequentemente, sem que
haja perda de sua qualidade (CHITARRA e CHITARRA, 2005).
Vários processos tecnológicos têm sido explorados em escala industrial para
preservar frutas, tais como, enlatamento, congelamento e desidratação, produzindo frutas
do tipo passa. A banana-passa é obtida pela secagem natural ou artificial dos frutos em
estádio de maturação avançado.
Em virtude da importância desse processo, o presente trabalho tem o objetivo
estudar a cinética de secagem da polpa e casca da banana para a velocidade de 2m.s-1
84
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
submetida a diferentes temperaturas do ar de secagem, e ajustar os dados experimentais a
diferentes modelos matemáticos representativos da razão de umidade, analisando-se
também as variâncias entre os resultados obtidos.
2. MATERIAIS E MÉTODOS
O presente trabalho foi desenvolvido na Universidade Federal Fluminense, pelo
Departamento de Engenharia Agrícola e Meio Ambiente. Para a realização das análises foi
utilizado o Laboratório de Termociências do Departamento de Engenharia Mecânica.
Para a realização do estudo, foram analisadas separadamente a polpa e a casca da
banana, da cultivar nanica, as quais se encontravam completamente amarelas, com áreas
café no estádio de cor 7 (CHITARRA e CHITARRA, 2005).
As bananas foram lavadas, antes dos descascamentos com água clorada (300 ppm
de cloro ativo) durante 20 minutos e posteriormente secas ao ar. A seguir, elas foram
descascadas e submetidas a sulfitação com imersão em solução de 0,5% de metasulfito de
sódio, durante um minuto (SILVA, 1995) e dispostas em bandejas para secagem. Antes da
secagem, separou-se a polpa da casca, sendo que a polpa foi subdividida para a análise em
cortes de 0,5, 1 e 2 cm, além de meia banana e banana inteira. Estas amostras foram
individualmente submetidas a secagem em secador industrial, para as temperaturas do ar
de secagem 35, 45, 55, e 70°C, e velocidade do ar d e secagem de 2 m.s-1.
Durante o processo de secagem, as amostras foram pesadas periodicamente, até
atingir seu teor de água de equilíbrio com a condição do ar especificada, de forma a
possibilitar o cálculo da razão de umidade do produto, que será utilizado para a
determinação das curvas de secagem e ajuste dos modelos. Para a determinação da razão
de umidade da polpa e casca da banana, para as diferentes condições de secagem, utilizarse-á a Equação 1 a seguir:
RU =
θe
(1)
ie
em que,
RU - razão de umidade do produto, adimensional; Uθ - teor de água da banana no tempo θ,
(decimal b.s.); Ui- teor de água inicial, (decimal b.s.); e Ue- teor de água de equilíbrio, (decimal b.s.).
Para a determinação do teor de água de equilíbrio da banana, foi utilizado o modelo
de Halsey Modificado para a polpa e Sigma Copace para a casca (ANDRADE et al., 2010),
sendo, para a determinação da umidade relativa no interior do equipamento, utilizado o
programa GRAPSI. Os modelos matemáticos obtidos na literatura e representativos da
secagem de produtos agrícolas (CORRÊA et al., 2005; DOYMAZ, 2007; MOHAPATRA &
RAO, 2005; LAHSASNI et al., 2004; MIDILLI et al., 2002; PANCHARIYA et al., 2002;
OZDEMIR & DEVRES, 1999), utilizados neste estudo, estão expostos na Tabela 1.
Tabela 1. Modelos utilizados para a verificação da Razão de Umidade.
Modelo
Equação
Aproximação da Difusão
RU = aexp
−kt + 1 − aexp
−kbt
Dois Termos
Exponencial de Dois Termos
Henderson e Pabis
Henderson e Pabis Modificado
Logarítmico
Midilli
RU = aexp
−k t + bexp
−k t
RU = aexp
−kt + 1 − aexp
−kat
RU = aexp
−kt
RU = aexp
−kt + bexp
−k t + cexp
−k t
RU = aexp
−kt + c
RU = aexp
−kt + bt
(2)
(3)
(4)
(5)
(6)
(7)
(8)
85
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
RU = exp
−kt Page
(9)
RU = exp
−a
a + 4bt, ⁄2b
Thompson
(10)
RU = aexp
−kt + 1 − aexp
−kt
Verna
(11)
em que,
t – tempo de secagem, h; k, ko, k1 - constantes de secagem, h-1; e a, b, c, n coeficientes dos modelos.
Para estimar os parâmetros dos modelos matemáticos ajustados foi utilizado o
programa STATISTICA 5. A representatividade dos modelos foi determinada em função do
erro médio relativo (P) e o erro médio estimado (SE), Equações 12 e 13.
P=
SE = $
∑
Y − Ŷ/Y)
(12)
∑
%Ŷ&
(13)
'()
em que,
Y - valor observado experimentalmente; Ŷ - valor calculado pelo modelo; e GLR graus de liberdade do modelo.
3. RESULTADOS
Através dos valores de razão de umidade calculados pela Equação 1, em função do
tempo e seus respectivos teores de água obtidos experimentalmente, foram analisadas as
estimativas relacionadas com os modelos de razão de umidade. Para cada modelo foram
determinados seus respectivos parâmetros, coeficientes de determinação (R2), e erros
médio relativo (P) e estimado (SE). Na Tabela 2, estão apresentados os melhores modelos
de razão de umidade para cada temperatura e cortes analisados, assim como seus
parâmetros estimados e coeficientes de determinação, e erros médio relativo e estimados.
De acordo com Mohapatra e Rao (2005), os modelos com P superiores a 10% não
apresentam um ajuste satisfatório. Lomauro et al. (1985) acrescenta que os valores de R2
devem ser próximos da unidade.
Assim como o exposto na Tabela 2, de acordo com os resultados obtidos a partir da
análise dos modelos estudados, para a temperatura de 35°C, o modelo de Midilli para todas
as diferentes espessuras da polpa da banana apresentou melhor representatividade do
fenômeno, enquanto para a casca foi o modelo de Dois Termos. Para as temperaturas de
45, 55, e 70°C, a razão de umidade da polpa da bana na com diferentes espessuras foi
também melhor representada pelo modelo de Midilli.
Já, para a casca, nas temperaturas de 45°C, 55 e 70 °C o modelo com melhor
representatividade foi o modelo de Midilli.
Tabela 2. Parâmetros estimados, coeficientes de determinação, e erros médio relativo e
estimado dos melhores modelos para cada temperatura e corte.
Temperatura
o
Cortes
( C)
Melhores
modelos
Parâmetros
P
SE
(%)
(decimal)
99,97
4,98
0,0201
0,0001
99,97
6,11
0,0183
0,7163
0,0000
99,94
16,60
0,0258
0,8025
0,0000
99,97
8,93
0,0160
R2
A
K0
K
K1
N
B
1,0048
-
0,0658
-
0,7731
0,0001
0,9913
-
0,0554
-
0,9950
2 cm
1,0089
-
0,1309
-
1 cm
0,9949
-
0,1589
-
Inteira
Meia
35
Midilli
86
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
0,5 cm
0,9985
Casca Dois termos 0,0188
-
0,3331
0,0044 0,9713
-
0,7815
0,0001
99,99
5,81
0,0098
0,0752
-
-
99,95
9,42
0,0250
Inteira
0,9995
-
0,0593
-
0,9225
-0,0001
99,99
1,50
0,00963
Meia
0,9948
-
0,0803
-
1,0016
0,0006
99,97
2,25
0,0134
0,9946
-
0,1298
-
0,8504
0,0007
99,86
5,84
0,0265
1 cm
1,0020
-
0,2044
-
0,8152
0,0006
99,97
0,67
0,0092
0,5 cm
0,9917
-
0,3576
-
0,9261
0,0013
99,89
2,90
0,0194
0,9967
-
0,1223
-
0,9941
-0,0006
99,97
0,65
0,0090
Inteira
0,9938
-
0,0639
-
1,0082
0,0006
99,98
1,06
0,0111
Meia
0,9994
-
0,1217
-
0,9475
-0,0006
99,99
0,29
0,0043
0,9950
-
0,1407
-
0,9107
0,0012
99,97
2,24
0,0116
1 cm
0,9978
-
0,2367
-
0,8823
0,0006
99,98
0,79
0,0071
0,5 cm
0,9960
-
0,4986
-
0,9271
0,0002
99,90
5,99
0,0184
0,9933
-
0,1151
-
1,0791
0,0001
99,99
5,84
0,0100
0,9919
-
0,0894
-
1,0379
0,0004
99,97
2,27
0,0124
0,9926
-
0,1589
-
1,0558
0,0017
99,96
1,91
0,0140
0,9951
-
0,1409
-
1,0694
0,0010
99,99
0,71
0,0069
1 cm
0,9831
-
0,2955
-
1,0794
0,0007
99,84
7,00
0,0262
0,5 cm
0,9872
-
0,5338
-
1,1108
0,0024
99,65
13,37
0,0360
0,9909
-
0,1976
-
1,1633
0,0004
99,83
9,79
0,0300
2 cm
Midilli
45
Casca
2 cm
Midilli
Midilli
55
Casca
Midilli
Inteira
Meia
2 cm
Midilli
70
Casca
Midilli
4. CONCLUSÃO
De acordo com as análises realizadas, o modelo de Midilli foi o que melhor
representou o fenômeno de cinética de secagem da polpa da banana para velocidade de
2m.s-1, nas temperaturas de 35, 45, 55 e 70ºC. Já, o fenômeno para a casca da banana,
analisada para a mesma velocidade, na temperatura de 35 ºC foi melhor representada pelo
modelo de Dois termos, enquanto que para as temperaturas de 45, 55 e 70ºC, houve melhor
representação pelo modelo de Midilli.
5. REFERÊNCIAS
ANDRADE, E. T.; BECKMAN, E. H.; ANDRADE, D. O.; BRAZ, A. J. L.; SILVA, J. G.;
PEREIRA, R. G. (2010). Equilíbrio higroscópico e entalpia de vaporização da bananapassa e da casca da banana. Revista Brasileira de Armazenamento. Viçosa, MG. v.35,
n.1, p.80-89
CHITARRA, M. I. F.; CHITARRA, A. B. (2005) Pós-colheita de frutos e hortaliças: fisiologia e
manuseio. 2ª Edição, Editora UFLA. 783p.
CORRÊA, P. C.; GONELI, A. L. D.; RESENDE, O.; RIBEIRO, D. M. (2005). Obtenção e
modelagem das isotermas de dessorção e do calor isotérico de dessorção para grãos
de trigo. Revista Brasileira de Produtos Agroindustriais, v.7, p.39-48.
DOYMAZ, I. (2007). The kinetics of forced convective air-drying of pumpkin slices. Journal of
Food Engineering, v.79, n.1, p. 243-249.
LAHSASNI, S.; KOUHILA, M.; MAHROUZ, M.; JAOUHARI, J.T. (2004). Drying kinetics of
prickly pear fruit (Opuntia ficus indica). Journal of Food Engineering, v.61, n.2, p. 173179.
LOMAURO, C. J.; BAKSHI, A. S.; LABUZA, T. P. (1985). Evaluation of food moisture
sorption isotherm equations. Part I: Fruit, vegetable and meat products. LebensmittelWissenschaft and technologie, Zurich, v.18, n.2, p.111-117
87
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
MIDILLI, A.; KUCUK, H.; YAPAR, Z. (2002). A new model for single-layer drying. Drying
Technology, Philadelphia, v.20, n.7, p.1503–1513.
MOHAPATRA, D.; RAO, P.S. (2005). A thin layer drying model of parboiled wheat. Journal of
Food Engineering. p.513-518
ÖZDEMIR, M.; DEVRES, Y. O. (1999). The thins layer drying characteristics of hazelnuts
during roasting. Journal of Food Engineering, v.42, n.4, p. 225 - 233
PANCHARIYA, P. C.; POPOVIC, D.; SHARMA, A. L. (2002). Thin-layer modeling of black
tea drying process. Journal of Food Engineering, Davis, v.52, n.4, p.349-357
SILVA, C. A. B. (1995). Produção de banana-passa. Brasília. Ministério da Agricultura, do
Abastecimento e da Reforma Agrária, Secretaria do Desenvolvimento Rural. Série perfis
agroindustriais 5. 32p.
88
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Avaliação da cinética de secagem da polpa e casca da
banana para a velocidade de 3 m.s-1
Ednilton T. de Andrade; José G. da Silva; Luciana P. Teixeira; Angelo José L. Braz
Universidade Federal Fluminense (UFF)
Niterói, RJ, Brasil
[email protected]; [email protected]; [email protected];
[email protected]
RESUMO
Este trabalho teve por objetivo estudar a cinética de secagem da polpa e casca da banana
para a velocidade de 3m.s-1 submetidas a diferentes temperaturas do ar de secagem (35,
45, 55, e 70ºC) e ajustar os dados experimentais a diferentes modelos matemáticos,
verificando-se também as variâncias entre os resultados obtidos. Para o ajuste dos modelos
matemáticos aos dados experimentais foi utilizado o método Quasi-Newton, a partir da
análise de regressão não linear, sendo os parâmetros dos modelos estimados em função da
temperatura do ar de secagem utilizada. Como resultado, foi verificado para a temperatura
de 35 e 45°C, que o modelo Logarítimico foi o de me lhor representação do fenômeno de
cinética de secagem para a polpa, enquanto o modelo de Midilli para a casca da banana. Já,
para a temperatura de 55°C, o modelo da Aproximação da difusão foi o que apresentou
melhor ajuste para a polpa da banana, e o modelo Logarítimico para a casca. Por fim, para a
temperatura de 70°C, o modelo de Midilli foi o mais representativo para a polpa, enquanto,
para a casca da banana foi o modelo da Aproximação da difusão.
Palavras-Chave: banana, cinética de secagem, razão de umidade.
1. INTRODUÇÃO
As bananas são frutos comestíveis do gênero Musa cavendishii, cultivadas na
maioria dos países tropicais. Elas possuem um alto valor energético e nutricional, sendo
uma importante fonte na alimentação humana, tanto na forma in-natura como industrial
(BARBOSA LIMA, et al., 2000).
Contudo, a pós-colheita da banana apresenta certos inconvenientes tais como a alta
suscetibilidade a danos físicos durante o transporte e comercialização; a rápida deterioração
por microorganismos quando maduras, antes ou após a colheita; e, em condições naturais,
a sua desuniformidade no amadurecimento após a colheita. A banana caracteriza-se por
apresentar uma respiração muito ativa, sendo classificada do tipo climatérico, portanto para
sua conservação se faz necessário utilizar-se de meios físicos para reduzir seu metabolismo
sem que haja perda de sua qualidade (CHITARRA e CHITARRA, 2005).
Dessa forma, para um melhor aproveitamento, vários processos tecnológicos têm
sido explorados em escala industrial para preservar frutas, tais como, enlatamento,
congelamento, e desidratação que produz frutas do tipo passa. A banana-passa é obtida
pela secagem natural ou artificial dos frutos em estádio de maturação avançado. Dentre os
processos de aproveitamento industrial, a produção de banana-passa requer baixo
investimento inicial e perspectivas de lucratividade compatíveis com o investimento.
Em virtude da importância desse processo, o presente trabalho tem o objetivo
estudar a cinética de secagem da polpa e casca da banana para a velocidade de 3m.s-1
submetida a diferentes temperaturas do ar de secagem, e ajustar os dados experimentais a
diferentes modelos matemáticos representativos da razão de umidade, analisando-se
também as variâncias entre os resultados obtidos.
2. MATERIAIS E MÉTODOS
89
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
O presente trabalho foi desenvolvido na Universidade Federal Fluminense, pelo
Departamento de Engenharia Agrícola e Meio Ambiente. Para a realização das análises foi
utilizado o Laboratório de Termociências do Departamento de Engenharia Mecânica.
Para a realização do estudo, foram analisadas separadamente a polpa e a casca da
banana, da cultivar nanica, as quais se encontravam completamente amarelas, com áreas
café no estádio de cor 7 (CHITARRA e CHITARRA, 2005).
As bananas foram lavadas, antes dos descascamentos com água clorada (300 ppm
de cloro ativo) durante 20 minutos e posteriormente secas ao ar. A seguir, elas foram
descascadas e submetidas a sulfitação com imersão em solução de 0,5% de metasulfito de
sódio, durante um minuto (SILVA, 1995) e dispostas em bandejas para secagem.
Antes da secagem, separou-se a polpa da casca, sendo que a polpa foi subdividida
para a análise em cortes de 0,5, 1 e 2 cm, além da meia banana e da banana inteira. Estas
amostras foram individualmente submetidas a secagem em secador industrial, para as
temperaturas do ar de secagem 35, 45, 55, e 70°C, e velocidade do ar de secagem de 3
m.s-1. Durante o processo de secagem, as amostras foram periodicamente pesadas, até
atingir seu teor de água de equilíbrio com a condição do ar especificada, de forma a
possibilitar o cálculo da razão de umidade do produto, que será utilizado para a
determinação das curvas de secagem e ajuste dos modelos.
Para a determinação da razão de umidade da polpa e casca da banana, para as
diferentes condições de secagem, utilizar-se-á a Equação 1.
RU =
θe
ie
(1)
em que,
RU - razão de umidade do produto, adimensional; Uθ - teor de água da banana no
tempo θ, (decimal b.s.); Ui- teor de água inicial, (decimal b.s.); e Ue- teor de água de
equilíbrio, (decimal b.s.).
No que diz respeito à determinação do teor de água de equilíbrio da banana, foi
utilizado o modelo de Halsey Modificado para a polpa e Sigma Copace para a casca, assim
como o indicado por ANDRADE et al. (2010).
Para a determinação da umidade relativa no interior do equipamento foi utilizado o
programa GRAPSI. Os modelos matemáticos obtidos na literatura e representativos da
secagem de produtos agrícolas (CORRÊA et al., 2005; DOYMAZ, 2007; MOHAPATRA &
RAO, 2005; LAHSASNI et al., 2004; MIDILLI et al., 2002; PANCHARIYA et al., 2002;
OZDEMIR & DEVRES, 1999), utilizados neste estudo, estão expostos na Tabela 1.
Tabela 1. Modelos utilizados para a verificação da Razão de Umidade
Modelo
Equação
Aproximação da Difusão
RU = aexp
−kt + 1 − aexp
−kbt
Dois Termos
Exponencial de Dois Termos
Henderson e Pabis
Henderson e Pabis Modificado
Logarítmico
Midilli
Page
RU = aexp
−k t + bexp
−k t
RU = aexp
−kt + 1 − aexp
−kat
RU = aexp
−kt
RU = aexp
−kt + bexp
−k t + cexp
−k t
RU = aexp
−kt + c
RU = aexp
−kt + bt
RU = exp
−kt
(2)
(3)
(4)
(5)
(6)
(7)
(8)
(9)
90
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
RU = exp
−a
a + 4bt, ⁄2b
Thompson
(10)
RU = aexp
−kt + 1 − aexp
−kt
Verna
(11)
em que,
t - tempo de secagem, h; k, ko, k1 - constantes de secagem, h-1; e a, b, c, n coeficientes dos modelos.
Para estimar os parâmetros dos modelos matemáticos ajustados foi utilizado o
programa STATISTICA 5. A representatividade dos modelos foi determinada em função do
erro médio relativo (P) e o erro médio estimado (SE), Equações 12 e 13.
P=
∑
Y − Ŷ/Y)
SE = $
(12)
∑
%Ŷ&
(13)
'()
em que,
Y - valor observado experimentalmente; Ŷ - valor calculado pelo modelo; e GLR graus de liberdade do modelo.
3. RESULTADOS
Através dos valores de razão de umidade calculados pela Equação 1, em função do
tempo e seus respectivos teores de água obtidos experimentalmente, foram analisadas as
estimativas relacionadas com os modelos de razão de umidade.
Para cada modelo foram determinados seus respectivos parâmetros, coeficientes de
determinação (R2), e erros médio relativo (P) e estimado (SE). Na Tabela 2, estão
apresentados os melhores modelos de razão de umidade para cada temperatura e cortes
analisados, assim como seus parâmetros estimados e coeficientes de determinação, e erros
médio relativo e estimados. De acordo com Mohapatra e Rao (2005), os modelos com P
superiores a 10% não apresentam um ajuste satisfatório. Lomauro et al. (1985) acrescenta
que os valores de R2 devem ser próximos da unidade.
Assim como o exposto na Tabela 2, de acordo com os resultados obtidos na análise
dos modelos estudados, para a temperatura de 35 e 45°C, o modelo Logarítimico foi o que
melhor representou o fenômeno de cinética de secagem para a polpa, enquanto o modelo
de Midilli para a casca da banana. Já, para a temperatura de 55°C, o modelo da
Aproximação da difusão foi o que apresentou melhor ajuste para a polpa da banana, e o
modelo Logarítimico para a casca. Por fim, para a temperatura de 70°C, o modelo de Midilli
foi o mais representativo para a polpa, enquanto, para a casca da banana foi o modelo da
Aproximação da difusão.
Tabela 2. Parâmetros estimados, coeficientes de determinação, e erros médio relativo e
estimado dos melhores modelos para cada temperatura e corte.
Temperatura
o
Cortes
( C)
35
Melhores
modelos
Parâmetros
R2
P
SE
(%)
(decimal)
A
K
C
N
B
Inteira
0,8500
0,0366
0,1238
-
-
99,92
1,14
0,0259
Meia
0,8768
0,0586
0,1094
-
-
99,98
0,44
0,0133
0,8360
0,0534
0,1057
-
-
99,28
3,99
0,0570
1 cm
0,8664
0,1154
0,1086
-
-
99,86
2,98
0,0274
0,5 cm
0,8885
0,1983
0,0890
-
-
99,84
3,33
0,0295
2 cm
Logarítimico
91
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Casca
Midilli
Inteira
Meia
0,9976
0,0529
-
0,8641
-0,0082
99,99
0,65
0,0062
0,9147
0,0396
0,0450
-
-
99,88
1,50
0,0359
0,9203
0,0793
0,0511
-
-
99,94
2,52
0,0270
0,8698
0,0695
0,0775
-
-
99,69
9,46
0,0567
1 cm
0,8892
0,1163
0,0547
-
-
99,69
6,45
0,0561
0,5 cm
0,9224
0,2266
0,0487
-
-
99,83
5,17
0,0378
0,9764
0,0630
-
1,0860
-0,0002
99,93
1,80
0,0236
0,8800
0,0827
-
-
0,0657
99,91
4,74
0,0375
0,9459
0,1462
-
-
0,0193
99,89
2,58
0,0388
0,9110
0,1472
-
-
0,0354
99,78
7,12
0,0545
1 cm
0,9092
0,2446
-
-
0,0616
99,38
7,48
0,0800
0,5 cm
0,7776
0,7347
-
-
0,1073
99,47
5,32
0,0520
1,0122
0,1197
-0,0269
-
-
99,93
6,63
0,0172
Inteira
0,9927
0,1263
-
0,8345
0,0006
99,93
4,37
0,0229
Meia
1,0047
0,3117
-
0,7263
0,0008
99,94
4,24
0,0184
2 cm
Logarítimico
45
Casca
Midilli
Inteira
Meia
2 cm
55
Casca
2 cm
70
Aproximação
da difusão
Logarítimico
Midilli
0,9996
0,2651
-
0,7232
0,0003
99,96
9,60
0,0162
1 cm
0,9899
0,3890
-
0,6607
0,0002
99,59
5,83
0,0398
0,5 cm
1,0011
0,7748
-
0,7592
0,0021
99,60
6,05
0,0207
0,6541
0,9614
-
-
0,0557
98,27
9,44
0,0977
Casca
Aproximação
da Difusão
4. CONCLUSÃO
A partir dos resultados, pode-se verificar que os modelos com melhores ajustes são
representativos do fenômeno de cinética de secagem para a velocidade de 3m.s-1 tanto para
as diferentes espessuras da polpa como para a casca da banana, podendo, dessa forma,
serem utilizados como representação do fenômeno.
5. REFERÊNCIAS
ANDRADE, E. T.; BECKMAN, E. H.; ANDRADE, D. O.; BRAZ, A. J. L.; SILVA, J. G.;
PEREIRA, R. G. (2010). Equilíbrio higroscópico e entalpia de vaporização da banana-passa
e da casca da banana. Revista Brasileira de Armazenamento. Viçosa, MG. v.35, n.1, p.8089
BARBOSA DE LIMA, A. G.; AZUCENA NEBRA, S.; QUEIROZ, M. R. (2000).
Comunicado Técnico Aspectos Científico e Tecnológico da Banana. Revista Brasileira de
Produtos Agroindustriais, Campina Grande, v.2, n.1, p.87-101
CHITARRA, M. I. F.; CHITARRA, AB. (2005). Pós-colheita de frutos e hortaliças:
fisiologia e manuseio. 2ª Edição, Editora UFLA. 783p.
CORRÊA, P. C.; GONELI, A. L. D.; RESENDE, O.; RIBEIRO, D. M. (2005). Obtenção e
modelagem das isotermas de dessorção e do calor isotérico de dessorção para grãos de
trigo. Revista Brasileira de Produtos Agroindustriais, v.7, p.39-48
DOYMAZ, I. (2007). The kinetics of forced convective air-drying of pumpkin slices.
Journal of Food Engineering, 79(1): 243-249.
LAHSASNI, S.; KOUHILA, M.; MAHROUZ, M.; JAOUHARI, J.T. (2004). Drying kinetics
of prickly pear fruit (Opuntia ficus indica). Journal of Food Engineering, 61(2): 173-179
LOMAURO, C.J.; Bakshi, A.S.; Labuza, T. P. (1985). Evaluation of food moisture
sorption isotherm equations. Part I: Fruit, vegetable and meat products. LebensmittelWissenschaft and technologie, Zurich, v.18, n.2, p.111-117
92
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
MIDILLI, A.; KUCUK, H.; YAPAR, Z. (2002). A new model for single-layer drying. Drying
Technology, Philadelphia, v.20, n.7, p.1503–1513
MOHAPATRA, D.; RAO, P.S. (2005). A thin layer drying model of parboiled wheat.
Journal of Food Engineering. p.513-518
ÖZDEMIR, M.; DEVRES, Y.O. (1999). The thins layer drying characteristics of hazelnuts
during roasting. Journal of Food Engineering, v.42, n.4, p. 225 - 233
PANCHARIYA, P. C.; POPOVIC, D.; SHARMA, A. L. (2002). Thin-layer modeling of
black tea drying process. Journal of Food Engineering, Davis, v.52, n.4, p.349-357
SILVA, C.A.B. (1995). Produção de banana-passa. Brasília. Ministério da Agricultura, do
Abastecimento e da Reforma Agrária, Secretaria do Desenvolvimento Rural. Série perfis
agroindustriais 5. 32p
93
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Avaliação da resistência à corrosão de anéis de aço ASTM
A-36 para junção metálica de estacas de concreto para
utilização submarina
1
1
1
1
2
2
R.S.P. Domingos , J.M. Pardal , S.S.M. Tavares , A.B. Salles , R. R. Pinheiro , F.B.Mainier , M.L.O.
3
Medrano
1,2
Escola de Engenharia – Universidade Federal Fluminense
Niterói, RJ, Brasil.
3
SCAC Fundações e Estruturas Ltda.
São Paulo, SP, Brasil.
1
[email protected]
RESUMO
O presente trabalho refere-se à avaliação da resistência à corrosão de anéis de aço ASTM
A-36 soldados para junção metálica de estacas de concreto imersas em água do mar. A
motivação deste trabalho é atribuída a uma solução logística da empresa SCAC Fundações
e Estruturas Ltda, tendo em vista a dificuldade da locomoção de estacas de dimensões
muito grandes através de rodovias no Brasil. Deste modo, os processos corrosivos no anel
metálico e no aço CA-50 da armadura concreto foram avaliados através de ensaios de
imersão por perda de massa realizados em uma solução de 3,5% de NaCl, assim como pela
utilização de proteção catódica com anodo de sacrifício de zinco. Com os resultados destes
ensaios foram propostas diversas soluções para mitigar o processo corrosivo, dos anéis
metálicos da junção, fazendo uso de sistemas de proteção mediante anodos de sacrifício de
zinco e de alumínio com o intuito a proteger o anel de aço das estacas de concreto para
uma vida útil de 100 anos.
Palavras-Chave: Corrosão, estacas de concreto, anéis de junção de aço, proteção catódica.
1. INTRODUÇÃO
Com o crescimento da construção civil em nosso país, a aplicação de estacas de
concreto armado em meios muito agressivos tem apresentado rotineiramente novos
desafios para a engenharia, em termos de soluções logísticas. Este estudo foi motivado por
uma solução logística da SCAC Fundações e Estruturas Ltda, tendo em vista a dificuldade
da locomoção de estacas de dimensões muito grandes através de rodovias. Uma vez o
papel da engenharia contemporânea visa buscar soluções técnicas e financeiramente
viáveis de problemas constatados no cotidiano. Para tal, foi projetada pela empresa o uso
de um anel de aço carbono vinculado à armação metálica na extremidade da estaca. Deste
modo, a mesma pode ser fixada a outra estaca, produzida de forma análoga, mediante a
deposição de um cordão de solda no bisel feito na região da extremidade tal como mostrado
na figura 1. Neste contexto, será abordado o processo corrosivo, em água do mar, dos aços
ASTM A-36 e CA-50, utilizados na construção civil em junções de estacas de concreto. Por
fim, são propostos meios de prevenção contra corrosão, para garantir uma vida útil de 100
anos para junção metálica de estacas com emenda soldada.
94
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Figura1. Junção de duas estacas de concreto armado com um anel de aço em cada extremidade.
2. MATERIAIS E MÉTODOS
Para este trabalho, os ensaios realizados foram: Perda de massa com imersão em
água salgada de corpos de provas lisos e soldados; Imersão em água contendo 3,5% NaCl
de amostras de aço CA-50 conectado ao vergalhão do concreto armado e imersão da
estaca de concreto contendo um anel de aço com anodo de sacrifício de zinco para analisar
a eficiência da proteção catódica proposta.
Os materiais utilizados nos ensaios de imersão foram fornecidos pela empresa
SCAC Fundações e Estruturas Ltda, sendo estes listados a seguir:
•
Cinco corpos de prova lisos (CPL) retangulares de aço ASTM A-36 de
dimensões (50 mm x 30 mm x 6 mm) com furo passante de diâmetro 1,6 mm.
•
Cinco corpos de prova retangulares de aço ASTM A-36 de dimensões (50 mm
x 30 mm x 6 mm) com furo passante de diâmetro 1,6 mm, contendo um cordão de solda
(CPS) depositado em uma das faces pelo processo de eletrodo revestido SMAW com
consumível AWS E- 7018.
•
Um corpo de prova de concreto (SCAC) com diâmetro de 150 mm e altura de
300 mm contendo cinco vergalhões de CA-50, em forma radial, com diâmetro de 20 mm e
altura de 250 mm e um vergalhão de CA-50 com diâmetro de 20 mm e 350 mm de altura,
sendo a superfície superior do corpo de prova coberta com resina epóxi.
•
Um segmento de estaca de concreto centrifugado (SCAC) com diâmetro de
150 mm e altura de 250 mm contendo um anel de aço ASTM A-36 com altura de 60,3 mm e
espessura de 2,8 mm soldados internamente com 5 vergalhões de CA-50 com diâmetro de
20 mm e altura de 250 mm.
•
Um segmento de estaca de concreto centrifugado (SCAC) de características
semelhantes ao anterior com diâmetro de 150 mm e altura de 250 mm contendo um anel de
aço ASTM A36 com altura de 57,1 mm, espessura de 2,9 mm e diâmetro de 260 mm
soldados internamente a 5 vergalhões de CA-50 com diâmetro de 20 mm e altura de 250
mm. Cabe salientar que neste corpo de prova foi fixado um anodo de zinco.
•
Um anodo de sacrifício de zinco com diâmetro de 10,65 mm, altura de 19,95
mm e peso de 12,810 g.
•
Um cilindro maciço de aço carbono com diâmetro de 15,88 mm, altura de
74,95 mm e peso de 114,400 g.
Cabe ressaltar que o anodo de sacrifício de Zn e o cilindro de aço possuem uma
rosca interna de fixação passando através de um cilindro de teflon. Deste modo pretende-se
isolar eletricamente o sistema mediante uso de anéis de vedação.
2.1 Ensaio 1 – Perda de Massa com Imersão de Amostras de Aço ASTM A36 em Água 3,
5% NaCl.
95
VII Seminário Fluminense de Engenharia Niterói-RJ 19
9 de outubro de 2011
Neste ensaio os dez corpos de prova lisos e soldados foram
foram imersos em solução
aquosa de 3,5% NaCl à temperatura ambiente com o objetivo de determinar as respectivas
taxas de corrosão. Para simular uma situação mais rigorosa, foi feita uma aeração forçada,
usando aeradores com pedra porosa acionados por uma bomba
bomba de ar, tal como mostrado
na figura 2. Cabe destacar, que os corpos de prova, antes de serem imersos na solução,
foram escovados para remoção da camada superficial de óxido, desengordurados, secos e
pesados em uma balança com 3 casas decimais de precisão.
precisã
Figura 2. Início do Ensaio 1 com sistema de aeração.
Nos respectivos períodos de 2 dias (CPL1 e CPS1), 7 dias (CPL2 e CPS2), 14 dias
(CPL3 e CPS3), 21 dias (CPL4 e CPS4) e 28 dias (CPL5 e CPS5) um corpo de prova liso e
soldado foram retirados da solução,
soluç
fotografados, limpados e pesados.
2.2 Ensaio 2 – Imersão em Água 3,5% NaCl de Amostras de Aço CA-50
CA
Conectado ao
Vergalhão do Concreto Armado.
O Ensaio 2, mostrado na figura 3, consistiu na imersão em solução aquosa com
3,5% NaCl de um cilindro de concreto (SCAC) ligado eletricamente ao cilindro de aço
carbono de CA-50.
50. Através do uso de um fio de cobre foi ligado o vergalhão do cp de
concreto ao cilindro de aço carbono, intercalando-se
intercalando se um amperímetro para a medição da
corrente em função do tempo do ensaio. O ensaio foi realizado durante o período de 7 dias.
Os objetivos deste ensaio foram: avaliar o processo corrosivo do aço CA-50
C
imerso
em solução salina e a corrosão galvânica entre o aço do concreto e o aço carbono do anel,
devido à pilha formada pela diferença
diferença de pH do concreto ( com aproximadamente pH 12) e
da solução (pH 6-8).
Figura 3. Início do Ensaio 2.
2.3 Ensaio 3 – Imersão de Corpo de Prova Simulando a Extremidade de uma Estaca com
Anel.
O Ensaio 3 foi realizado submergindo duas estacas de concreto centrifugado (SCAC)
contendo o anel de aço ASTM A36, uma sem anodo de zinco e outra com anodo de zinco
durante um período de 34 dias, tal como mostrado na figura 4.
96
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
(a)
(b)
Figura 4. (a) Segmento de estaca de concreto centrifugado com anodo de zinco e (b) sem anodo
após 17 dias de ensaio.
3. RESULTADOS E DISCUSSÕES
Para o Ensaio 1 foi observado, depois de 48 horas, o processo de corrosão nas
amostras com depósito de produto de corrosão em suas superfícies, assim como a
precipitação do mesmo produto no fundo do recipiente do ensaio. Com a evolução do ensaio
ficou mais visível e espessa a camada do produto de corrosão nos corpos de prova imersos,
e consequentemente a solução se tornou mais turva. Devido à coloração marrom levemente
alaranjada da solução, deduz-se que o depósito no fundo do recipiente seja de hidróxido de
ferro (Fe(OH)2). A figura 5 mostra o andamento do teste após 2 dias de ensaio.
As taxas de corrosão dos 10 corpos de prova foram calculadas através da equação 1
(GENTIL, 2007).
TC =
K × ∆W
A×T × D
(1)
Onde: TC é a taxa de corrosão em mm/ano; K = constante (8,76 x 104); ∆W = perda
de massa em g; A = área exposta em cm2; T = tempo em horas; D = densidade em g/cm3
(7,86 g/cm3 para o aço). Neste sentido, a figura 6 expressa graficamente os resultados
obtidos das taxas de corrosão em mm/ano no Ensaio 1 que foi realizado no período de 28
dias.
Figura 5. Ensaio 1 com 2 dias de imersão.
97
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Figura 6. Variação da taxa de corrosão com o tempo de imersão para corpos de prova lisos e
soldados.
Através da análise dos dados obtidos experimentalmente no Ensaio 1, representados
na figura 6, verifica-se um imprevisto, pois a taxa de corrosão do CPL1 não deveria ser
superior ao do CPS1. Para os CPL2, CPS2, CPL3 e CPS3 as taxas de corrosão estão
corretas, uma vez que para os corpos soldados é maior do que para os corpos lisos devido
à presença de frestas e imperfeições na solda. No caso dos CPL 4, CPS 4, CPL 5 e CPS 5,
as taxas de corrosão dos corpos soldados podem ser consideradas iguais ao dos corpos
lisos. Este fato pode ser conseqüência do depósito de produto de corrosão na superfície do
aço que protegeu o metal e assim diminuiu o processo corrosivo. Outra explicação para esta
discrepância encontrada refere-se à balança utilizada que não teve sensibilidade suficiente
para detectar a perda de massa devido ao pequeno intervalo de tempo do ensaio no caso
do CPL1 e CPS1.
Para o ensaio 2 o cilindro usinado de aço CA-50 sofreu corrosão com a formação de
produtos de corrosão concentrada na área mais próxima ao concreto. Este processo
corrosivo pode ser observado através da figura 7.
Figura 7. Ensaio 2 após de 7 dias.
A figura 8 mostra a variação da corrente durante o intervalo de tempo do ensaio 2.
No mesmo foi observado o decréscimo da corrente no decorrer do tempo, fato que é
justificado pela formação de uma camada de produto de corrosão no aço CA-50. A
existência da corrente medida confirma a formação de uma pilha que contribui para o
processo corrosivo e deve ser considerada para fins de calculo do anodo. A formação desta
pilha ocorre devido às diferentes películas de óxido formadas no aço do concreto e no aço
imerso na água do mar.
98
VII Seminário Fluminense de Engenharia Niterói-RJ 19
9 de outubro de 2011
Figura 8. Variação da corrente em função do tempo do Ensaio 2.
A Tabela 1 expressa a taxa de corrosão do aço carbono obtida no Ensaio 2.
Tabela 1. Taxa de corrosão do aço carbono no Ensaio 2.
Massa inicial (g)
Massa final (g)
Perda de massa (g)
Taxa de corrosão
(mm/ano)
114,400
113,991
0,409
0,689
Os resultados do ensaio 3 com e sem proteção catodica podem ser observados nas
figura 9 (a) e (b), respectivamente. Na figura 9 (a) observa-se
observa se a estaca de concreto contendo
anodo de sacrifício de zinco fixado no anel, onde o anel encontra-se
encontra se isento de corrosão.
corr
Por
outro lado, a Figura 9(b) mostra o processo corrosivo severo no anel de aço ASTM A36
quando imerso em água do mar sem nenhum tipo de proteção contra corrosão.
(a)
(b)
Figura 9. (a) Segmento de estaca com concreto centrifugado com anodo de zinco e (b) sem anodo
de zinco após o término do ensaio 3.
No fundo do recipiente após o término do ensaio observou-se
se o provável depósito de
hidróxido de ferro no fundo do recipiente, produto da reação entre o aço do anel e do anodo
de zinco.
3.1 Propostas para Proteção Galvânica
A proteção galvânica é o método de proteção mais adotado para proteção
pr
de
aço carbono imerso em água do mar. O sistema de proteção contra corrosão do metal se
deve a polarização catódica do metal até alcançar a área de imunidade. Segundo o
Diagrama de Pourbaix, para que o material seja protegido é necessário que o metal
meta deixe a
área de corrosão e alcance a área de imunidade (representado pelo ponto A) na Figura 10.
99
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Entretanto, para que tal fato aconteça é necessária a introdução de uma corrente para
polarização catódica do mesmo até o potencial desejado. Na proteção galvânica a corrente
é fornecida através do consumo do anodo de zinco que se oxida e libera elétrons para
proteção do aço carbono.
Os cálculos para determinar a massa dos anodos foram realizados segundo a
metodologia apresentada por DUTRA & NUNES (2001) e GENTIL (2007) baseando-se na
utilização da seguinte equação.
M=
8760 × Ir × V
φ ×C
(2)
Onde, M = massa total de anodos em kg; Ir = corrente requerida em àmpere; V =
vida dos anodos em ano; φ = fator de utilização; C = capacidade de corrente do anodo em
Ah/kg. O fator de utilização expressa o percentual de massa do anodo consumido. Uma vez
que quando resta pouca massa de anodo a sua capacidade de produzir corrente é reduzida.
Portanto, este valor adotado permitirá a proteção da estrutura (DUTRA & NUNES, 2011).
Conforme comentado, no ensaio 2 foi verificada a circulação de uma corrente elétrica
entre o aço CA-50 do vergalhão da estaca e o aço carbono imerso em contato direto com a
água do mar. Isto ocorre por causa da pilha formada entre os dois aços imersos em água do
mar. Devido a este fato é necessário fornecer uma corrente para proteger também o aço dos
vergalhões. Segundo LOURENÇO (2007), a densidade de corrente para proteção catódica
do aço do concreto armado está compreendida de 0,2 a 2 mA/m2. Neste projeto, foi adotado
conservativamente o valor de 2,0 mA/m2.
Figura 10. Diagrama de Pourbaix (MENNUCCI, 2006).
3.1.1
Solução 1 – Anodo de Liga de Zn (Tipo Braçadeira)
A primeira solução proposta consiste na formulação de um anodo de liga de
zinco, tipo braçadeira, que possui alma de aço com dois anéis de aço dobrado e 10 barras
de aço verticais. O fator de utilização adotado conservativamente é φ = 0,60 e V = 100 anos.
As características deste anodo são exemplificadas através da figura 11.
Conforme a Figura 11, a alma ou armadura dos anodos é composta de dois
anéis compostos de duas barras dobradas e soldadas e 10 barras verticais de comprimento
igual a 7,0 cm (70 mm). Estas barras devem ser de aço galvanizado. O peso estimado da
armadura de aço será de 15 kg, de modo que o peso total do anodo de Zn tipo braçadeira
seria de aproximadamente 249 kg.
100
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Vista Frontal
Vista Superior
Figura 11. Anodo tipo braçadeira proposto (cotas em mm).
3.1.2
Solução 2 – Anodo de Liga de Zn de Seção Retangular
A solução 2 consiste na formulação de 2 anodos de liga de zinco de seção retangular
cujo fator de utilização é φ = 0,90. Para anodos de liga de Zn, o valor da capacidade de
corrente é de 740 Ah/kg e a massa específica é 7,2 g/cm3. Neste caso, são propostos 4
anodos por estaca de dois anéis, fixados por braçadeiras, dispostos em forma de cluster,
conforme mostrado na figura 12.
Figura 12. Solução 2 - 4 Anodos tipo estaca.
101
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Figura 12 (continuação). Solução 2 - 4 Anodos tipo estaca.
3.1.3
Solução 3 – Anodo de Liga de Aluminio de Seção Retangular
A solução 3 se baseia na formulação de anodos de liga de Al de seção
retangular cujo fator de utilização é φ = 0,90. Para anodos de liga de Al, o valor da
capacidade de corrente é de 2300 A.h/kg e a massa específica é 2,8 g/cm3. São propostos 2
anodos por estaca de dois anéis, fixados por braçadeiras, dispostos em forma de cluster. O
arranjo é semelhante ao da figura 12, porém são recomendados 2 anodos ao invés dos 4 da
solução 2.
A alma dos anodos será formada por uma barra quadrada de aço galvanizado
de 15,9 mm de lado. O comprimento desta barra deve ser de 1,35 m e a massa estimada do
mesmo de 2,70 kg. É necessária uma verificação adicional com relação ao comprimento de
especificado de 65 cm. O volume total seria de 65 x 12 x 12 = 9360 cm3. Entretanto, este
volume inclui o volume da alma de aço galvanizado. Por tanto, é preciso garantir que a
massa de liga de alumínio efetiva seja igual ou superior ao valor necessário, ou seja, 25,052
kg.
Na tabela 2 são apresentadas as dimensões dos anodos das 3 soluções formuladas.
Tabela 2. Resumo das dimensões dos anodos para as Soluções 1, 2 e 3.
Solução 1
Solução 2
Solução 3
Tipo de anodo
Liga de Zn – tipo
braçadeira
Liga de Zn – estacas
de seção quadrada
Liga de Al – estacas
de seção quadrada
Dimensões
Dint = 95 cm; Dint =
80 cm e L = 17 cm
12 x 12 x 40 (cm3)
12 x 12 x 65 (cm3)
Massa de liga por
anodo
≥ 233,60 kg
40,00 kg
25,75 kg
Massa total por
anodo
∼ 248,60 kg
∼ 42,78 kg
∼ 28,45 kg
Número de anodos
1
4 / cluster
2 /cluster
102
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
A Tabela 3. apresenta as principais características das 3 soluções apresentadas para
garantir uma proteção anticorrosiva por anodos de sacrifício por 100 anos aos anéis da
junção metálica. Os valores são aplicáveis aos dados de áreas fornecidas dos anéis e dos
vergalhões.
Tabela 3. Resumo das soluções apresentadas para estacas de 15 m, contendo dois anéis, um em
cada extremidade.
Anodos
Corrente
Número
de
anodos
Massa por
anodo*
Tipo
Material
requerida
Massa
requerida
1
Braçadeira
Liga de Zn
118,4 mA
233,60 kg
1
233,60 kg
2
Estaca
Liga de Zn
118,4 mA
155,73 kg
4
38,93 kg
Solução
3
Estaca
Liga de Al 118,4 mA
50,11 kg
2
* Esta é a massa de liga de Zn ou Al, ou seja, não considera a massa da armadura dos anodos.
25,05 kg
4. CONCLUSÕES
O presente trabalho teve como objetivo avaliar a corrosão em um anel de aço ASTM
A-36 submerso em água do mar permitindo obter as seguintes conclusões:
1. Na maioria das condições analisadas os corpos de prova com cordão de solda
apresentaram uma taxa de corrosão superior aos corpos de prova lisos, conforme
encontrado na literatura.
2. Nos aços a formação da película protetora é promovida pela reação entre o zinco
e o aço do concreto. Tal fato foi observado através do decaimento da corrente desta pilha
galvânica.
3. Foi observado que existem dois processos corrosivos agindo simultaneamente nos
anéis metálicos um atribuído à própria imersão e outro à corrosão pela pilha galvânica entre
o aço da armadura e o aço do anel.
4. A proteção galvânica com anodo de zinco para aços submersos em água do mar é
realmente eficiente.
5. Foram apresentadas três soluções para proteção catódica com anodo de liga de
zinco e alumínio, dentre estas a com anodo de liga de alumínio de seção quadrada é a que
requer menor massa de anodo.
5. REFERÊNCIAS BIBLIOGRÁFICAS
DUTRA, A. C.; NUNES, L.P. (2011). Proteção Catódica, Técnica de Combate à Corrosão.
Editora Interciência.
GENTIL, V. (2007). Corrosão. Editora LTC.
LOURENÇO, Z. (2007). Proteção catódica de estruturas de betão armado. Corrosion
Protection Material. Vol. 26 Nº 3.
MENNUCCI, M. M. (2006). Avaliação de potencialidade de aditivos como inibidores de
corrosão do aço carbono CA-50 usado na armadura de estruturas de concreto.
Dissertação de Mestrado, Universidade de São Paulo.
103
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Avaliação dos processos de soldagem TIG e MIG em
estruturas de alumínio 6082 T6 NBR 6834
Ednilson Antonio Ribeiro Pimenta, Ronaldo Shiguemi Fujisawa, Ailton Roberto da Conceição
Escola de Engenharia - Universidade de Taubaté (UNITAU)
Taubaté, SP, Brasil
[email protected]
[email protected]
ailton.conceiçã[email protected]
RESUMO.
É possível soldar estruturas de alumínio, utilizando-se de equipamentos básicos de uma
indústria, determinando seus parâmetros e obtendo o melhor desempenho possível. O
alumínio e suas ligas são muito utilizados em estruturas, por possuírem baixo peso, alta
resistência à fadiga, e serem resistentes à corrosão. Má aderência do cordão de solda,
porosidades, mordeduras, falta de penetração, são alguns dos defeitos e dificuldades
comuns em processos de soldagem. Os processos de soldagem Metal Inert Gas (MIG) e
Tungsten Inert Gas (TIG), são utilizados na soldagem de estruturas de alumínio. Este estudo
tem como objetivo geral desenvolver um processo otimizado para soldagem em estruturas
de alumínio, com qualidade e produtividade. Especificamente busca determinar os
parâmetros de soldagem e obter, assim, o melhor desempenho possível no que se refere à
produtividade, à qualidade na soldagem e propriedades mecânicas. Foram feitos corpos de
prova pelos processos de soldagem TIG e MIG, sendo dimensionados por macrografia e
resistência à tração. Com base na análise do software minitab, foi obtido os melhores
parâmetros para o processo TIG sendo 180 A, vazão de 12 l/min. E para o processo MIG,
foram 170A e 23 Volts. Com esses novos parâmetros, conseguiu-se aumentar a
produtividade em 30%. Para o critério de resistência, tanto o processo MIG como o processo
TIG, atenderam a especificação da Aluminum Design Manual 2005.
Palavras-chave: Alumínio, MIG, TIG, Resistência Mecânica, Acabamento Superficial
1. INTRODUÇÃO
Na indústria de estrutura de alumínio, é extremamente elevada a quantidade
produzida de componentes soldados pelo processo “GMAW” e GTAW, portanto, é de suma
importância garantir um controle tanto no aspecto de resistência, como no aspecto visual.
Para isso, as indústrias de caldeirarias e estruturas procuram melhorar seus processos
visando tanto à otimização, quanto à qualidade.
Esta pesquisa tem como objetivo estudar a possibilidade de soldar estruturas de
alumínio, utilizando-se de equipamentos básicos de uma indústria, para determinar os
parâmetros de soldagem e obter assim, o melhor desempenho possível no que se refere à
produtividade, à qualidade na soldagem e propriedade mecânica. O alumínio e suas ligas
são muito utilizados em estruturas, por serem de baixo peso e, serem resistentes à corrosão
e à alta resistência à fadiga, que são propriedades desejadas. Por isso, construções
soldadas com baixo peso são preferidas por todos projetistas. A resistência, a
trabalhabilidade, a soldabilidade e a resistência à corrosão, determinam a seleção da liga
certa.
Devido à tendência de formar uma película estável e refrataria de óxido de alumínio e
requerer uma grande energia por causa da sua condutibilidade térmica, torna-se difícil a
soldagem do alumínio e suas ligas.
2. REVISÃO DA LITERATURA
104
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
As indústrias de estruturas de alumínio utilizam comumente o processo GTAW (Gás
Tungsten Arc Welding), também designado TIG (Tungsten Inert Gás), A soldagem a arco
com eletrodo não consumível de tungstênio e proteção gasosa (Gas Tungsten Arc Welding)
é um processo no qual a união de peças metálicas é produzida pelo aquecimento e fusão
dessas, através de um arco elétrico estabelecido entre o eletrodo de tungstênio, não
consumível, e as peças a unir. A proteção da poça de fusão e do arco contra a
contaminação pela atmosfera é feita por uma nuvem de gás ou mistura de gases inertes que
geralmente são Argônio e/ou Hélio.
O Processo GMAW (Gas Metal Arc Welding) ou MIG (Metal Inert Gas), é a soldagem
ao arco elétrico com gás de proteção (GMAW – Gas Metal Arc Welding), também conhecida
como soldagem MIG/MAG (MIG – Metal Inert Gas e MAG – Metal Active Gas), um arco
elétrico é estabelecido entre a peça e um consumível na forma de arame. O arco funde
continuamente o arame à medida que este é alimentado à poça de fusão. O metal de solda
é protegido da atmosfera pelo fluxo de um gás (ou mistura de gases) inerte ou ativo.
A soldagem é hoje um dos processos de fabricação mais importantes e populares
para a união de materiais metálicos (1). A garantia de sua qualidade requer, no entanto, em
determinadas aplicações, avaliações e qualificações da junta soldada. A inspeção e a
aceitabilidade de determinada solda deve atender a critérios preestabelecidos, tais como em
normas especificas (2). Nos paises desenvolvidos, onde a qualidade do produto é fator
determinante da sua aceitabilidade no mercado, o desenvolvimento de normas e inspeção e
aprovação do produto torna-se necessidade indispensável (3).
O processo de soldagem é bastante antigo e comum na maioria das indústrias.
Apesar da evolução das técnicas, ainda existe um número elevado de processos que
dependem da experiência do operador no ajuste dos parâmetros. Estes parâmetros são
importantes e estão relacionados com defeitos e dificuldades comuns em processos de
soldagem: má aderência do cordão de solda, porosidades, mordeduras, falta de penetração,
entre outras (4).
São inevitáveis as distorções em estruturas leves onde a solda por fusão é aplicada.
Ao ver a integridade do projeto estrutural, a racionalidade da tecnologia de fabricação e, a
confiabilidade do serviço, os problemas de tensão residual da solda e de distorção em
estruturas leves, são os quais muitas vezes afetam a qualidade dos produtos e causam um
custo adicional de operação para remover distorções ou para avaliar as tensões residuais
(5).
Conhecendo-se a capacidade de cada processo de soldagem comumente utilizado
na soldagem do alumínio, e aplicando-o na soldagem de estruturas de alumínio, pode-se
determinar o melhor processo, e os parâmetros mais adequados para obtenção de uma
soldagem de qualidade, com a menor distorção possível. Esse conhecimento possibilita o
desenvolvimento de estruturas leves mais precisas e de melhor qualidade.
3. MATERIAIS E METODOLOGIA EXPERIMENTAL
O presente trabalho aborda a avaliação dos processos de soldagem GMAW (Gas
Metal Active Welding) e GTAW (Gas Tungstein Active Welding) de alumínio aplicados em
torres, plataformas, sistemas de palcos, barricadas, estruturas para sonorização, prateleiras,
“pallets”, “geo túnel”, “top tenda”, etc.
3.1 Materiais
Foram utilizados materiais específicos para fabricação de estruturas de alumínio:
tubos e perfis com a liga 6082-T6, conforme norma NBR 6834, com classificação das
temperas “T6” que são solubilizadas e envelhecidas artificialmente, conforme Quadro 1.
Estes materiais e corpos de prova foram fornecidos pela empresa Feeling Structures e
possui boa trabalhabilidade, soldabilidade, e resistência à corrosão.
105
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Foram utilizados para o ensaio dos corpos de provas tubos redondos 44,4”x1/8” e
2”x1/8”; chapa L 100 mm x 34 mm x 9,5mm; e barra chata 10”x ¼”.
Analis
e
Liga
Espe
c.
6082
T6
MP
Chap
ae
Tubo
LE
(MP
a)
LT
(MP
a)
255
Máx.
300
Máx.
Alon
g.(%)
60
mm
6
min.
Composição Química (%)
Si
Fe
Cu
Mn
Mg
Cr
Zn
TI
0,70,5
1,3
0,1
0
0,4
0,61,2
1,0
0,2
5
0,2
0
0,1
0
Quadro 1 – Propriedades físicas e químicas, especificadas e utilizadas nos componentes das
estruturas de alumínio (NBR 6834/7000).
Para a soldagem dos componentes das estruturas de alumínio foram utilizados os
processos “GTAW” e “GMAW”, usando como material de adição para o processo GTAW a
vareta ER 4043 com diâmetro de 2,35 mm, e para o processo GMAW o arame ER 4043 com
diâmetro de 1 mm, conforme Quadro 2. Sendo a liga do material de adição a predileta da
maioria dos soldadores, porque “molha e flui melhor” e, é menos sensível ao fissuramento
da solda com metal de base 6082-T6. Também proporciona um acabamento de solda
superficialmente mais brilhante e com menos fuligem. O gás de proteção utilizados nos dois
processos foi o Argônio.
Tipo do
Composição química (%)
Analise
Liga
material de
Si
Fe
Cu
Mn
Mg
Zn
Ti
adição
Especificado
ER
4043
Arame
4,5-6,0
0,8
0,3
0,05
0,05
0,10
0,20
Especificado
ER
4043
Vareta
4,5-6,0
0,8
0,3
0,05
0,05
0,10
0,20
Quadro 2 – Composição química nominal dos metais de adição (AWS 5.10)
Para soldagem das amostras analisadas, foram utilizadas uma máquina de solda TIG
(marca Merkle Insquare W300) e uma máquina de solda MIG (marca Merkle Pu 250K série
32217).
Figura 1- Máquina de solda TIG
......... Figura 2- Máquina de solda MIG
106
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
3.2 Metodologia Experimental
Para a fabricação dos corpos de provas simulando as juntas soldadas das estruturas
de alumínio, foram utilizados procedimentos de soldagem convencional de “GTAW” e
“GMAW” com solda em ângulo utilizando a ferramenta DOE do software Minitab para
determinar a quantidade de corpos de provas para o ensaio macrografia, tanto no processo
MIG como no processo TIG, conforme quadro 3. Após os ensaios de macrografia e visual,
foram definidos os melhores parâmetros do processo MIG e TIG, onde foram feitos 5 corpos
de provas de junta de topo pelo processo TIG e 5 corpos de provas de junta de topo com o
processo MIG. Os corpos de provas foram posicionados sobre a mesa e presos com
grampos para evitar o deslocamento dos mesmos. Após a soldagem, foi feito um lixamento
para retirar o excesso de solda e em seguida o ensaio de líquido penetrante, conforme
ilustrado nas figuras 3 e 4. Posteriormente, foi retirado o líquido penetrante e aplicado o
revelador de acordo com as figuras 5 e 6, para avaliar os possíveis defeitos na solda como
trincas, poros, mordeduras, etc., depois disso foi feito o ensaio de tração, para avaliar a
resistência à tração do material após a soldagem.
Processo TIG
Processo MIG
Nº CDPS
Nº CDPS
Amperagem
Vazão
Amperagem
Voltagem
1
145
14
1
150
22
2
165
12
2
108
22
3
165
12
3
192
22
4
185
10
4
150
22
5
165
12
5
150
28
6
185
14
6
150
16
7
145
10
7
150
22
8
165
12
8
150
22
9
165
9
9
180
18
10
165
12
10
150
22
11
193
12
11
180
26
12
165
12
12
150
22
13
165
15
13
120
18
14
137
12
14
120
23
Quadro 3 (Parâmetros de solda em ângulo TIG e MIG).
Para a realização da solda de topo com processo TIG e MIG foram fixados os
parâmetros conforme mostrado no quadro 4:
107
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Processo
Tipo de Junta
Corrente
Voltagem
Vazão
MIG
Junta de topo
170 A
23 V
12 L/Min
TIG
Junta de topo
180 A
19 V
12 L/Min
Quadro 4 (Parâmetros de solda de topo TIG e MIG).
Figura 3: Aplicação de líquido penetrante
Figura 5: Aplicação de revelador
3.3
Figura 4: Aplicação de líquido penetrante
Figura 6: Aplicação de revelador
Ensaios Mecânicos e Macrográficos
Foi realizado a análise macrográfica dos corpos de provas soldados em ângulo, para
avaliar a penetração, a garganta, a perna e a largura de solda conforme ilustrado na figura 7
e 8. A preparação das amostras consistiu da técnica convencional de lixamento e polimento,
seguido de ataque químico com reagente keller e as respectivas normas de soldagem e
suas especificações.
Em seguida, foram retirados corpos de prova no sentido de laminação do material e,
transversais ao cordão de solda, para ensaios de tração, mostrados na figura 9, dureza e
macrograficos. Os ensaios de dureza foram executados, em corpos de prova retirados do
mesmo lote do material.
108
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Figura 7: Corpo de prova solda ângulo processo TIG
Figura 8: Corpo de prova solda ângulo processo MIG
Figura 9: Corpo de Prova para ensaio de tração.
4. RESULTADOS E DISCUSSÃO
Foram realizadas as medições da garganta de solda(G), largura do cordão (L) e
penetração da solda (P) como pode-se observar nas figuras 10, 11, 12 e 13. A garganta é a
distância mais curta entre a raiz e a superfície da solda, para critério de aprovação da
garganta deve ter no mínimo 70% da espessura mais fina. A largura é a distância entre
ambas as extremidades, ou seja, em uma parcela do metal da solda sem desvio, para
critério de aprovação da largura da solda deve-se ter pelo menos 1,5 vezes a espessura
109
VII Seminário Fluminense de Engenharia Niterói-RJ 19
9 de outubro de 2011
mais fina. A penetração é a profundidade atingida pela zona fundida no metal de base, para
critério de aprovação da solda deve-se
deve se ter no mínimo 20 % de penetração da espessura da
chapa mais fina. Com as medidas obtidas na macrografia das soldas TIG, os dados
dad foram
aplicados no software Minitab, estando representado no quadro 5 e gráfico 1.
Figura 10 e 11: Macrografia processo de solda TIG
Figura 12 e 13: Macrografia processo de solda MIG
StdOrder RunOrder PtType
Blocks
3
1
1
5
2
0
6
3
0
2
4
1
7
5
0
4
6
1
1
7
1
12
8
0
10
9
-1
13
10
0
9
11
-1
14
12
0
11
13
-1
8
14
-1
1
1
1
1
1
1
1
2
2
2
2
2
2
2
AmperagemVazão
145
165
165
185
165
185
145
165
165
165
193
165
165
137
14
12
12
10
12
14
10
12
9
12
12
12
15
12
Perna
Penetração
PenetraçãoGarganta
Largura
5,045
0,96
2,55
7,33
5,29
1,115
2,425
8,235
4,875
0,825
2,98
8,645
6,845
3,035
3,955
9,435
5,91
1,67
2,825
8,945
5,875
1,36
2,68
9,175
5,915
1,43
2,85
8,405
5,05
1,24
2,67
7,995
6,445
1,675
3,1
9,11
5,705
1,445
2,99
7,985
5,93
1,67
2,92
8,665
6,155
1,79
2,81
8,06
5,965
1,485
2,76
7,77
6,705
1,685
3,325
9,16
Quadro 5: Resultado da macrografia da solda em ângulo TIG
110
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Amperage
New
High 193,2843
D
Cur [180,1315]
0,00000 Low 136,7157
Vazão
14,8284
[12,0]
9,1716
Composite
Desirability
0,00000
Perna
Targ: 4,50
y = 5,7461
d = 0,00000
Penetraç
Targ: 1,50
y = 1,6392
d = 0,72157
Garganta
Targ: 3,0
y = 2,9405
d = 0,88106
Largura
Targ: 6,0
y = 8,6758
d = 0,00000
Grafico 1: Resultado da macrografia da solda em ângulo TIG
Com as medidas obtidas na macrografia das soldas MIG, os dados foram aplicados
no software Minitab, estando representado no quadro 6 e gráfico 2.
StdOrder RunOrder PtType
Blocks
13
1
0
8
2
-1
9
3
-1
14
4
0
11
5
-1
10
6
-1
12
7
0
7
8
0
2
9
1
5
10
0
4
11
1
6
12
0
1
13
1
3
14
1
2
2
2
2
2
2
2
1
1
1
1
1
1
1
AmperagemVoltagem Perna
PenetraçãoGarganta Largura
150
22
8,92
1
7,68
6,96
108
22
6,54
0,255
6,04
5,44
192
22
9,41
2,39
8,19
7,21
150
22
7,94
0,885
7,19
6,72
150
28
8,67
1,32
6,43
7,76
150
16
7,975
0,33
2,22
6,78
150
22
8,445
0,97
7,3
6,61
150
22
8,675
0,84
7,78
6,45
180
18
8,45
1,225
8,41
6,45
150
22
10,51
0,905
9,38
7,83
180
26
8,445
2,555
6,44
6,9
150
22
9,705
0,74
8,17
7,17
120
18
7,565
0,145
7,33
6,47
120
26
8,1
1,105
5,17
11,99
Quadro 6: Resultado da macrografia da solda em ângulo MIG
111
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Amperage Voltagem
New
192,4264 27,6569
High
D
Cur [170,6021] [23,0708]
0,00000 Low 107,5736 16,3431
Composite
Desirability
0,00000
Perna
Targ: 4,50
y = 9,2363
d = 0,00000
Penetraç
Targ: 1,50
y = 1,6315
d = 0,73706
Garganta
Targ: 3,0
y = 8,2832
d = 0,00000
Largura
Targ: 6,0
y = 6,7652
d = 0,23483
Grafico 2: Resultado da macrografia da solda em ângulo MIG.
O processo MIG na parte de resistência a tração atingiu os resultados esperados,
conforme mostra a figura 14 e o quadro 7, rompeu na solda com valores acima do exigido
pela norma Aluminum Design Manual 2005.
Figura 14: Resultado ensaio de tração MIG
Carga
Tensão
encontrada
(N/mm2)
Tensão
especificada
(n/mm2)
Nº CDPS
Material
Aluminio
Dureza
HB
Area
(mm2)
Maxima
Maxima
Maxima
2MIG2
6082 T6
96
82,55
16122,39N
195,31
170
3MIG2
6082 T6
96
82,55
15779,15N
191,14
170
4MIG2
6082 T6
96
82,55
15308,42N
185,44
170
5MIG2
6082 T6
96
82,55
16671,57N
201,95
170
Quadro 7: Resultado ensaio de tração MIG
112
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
O acabamento dos cordões de solda nos corpos de provas soldados no processo
MIG esteticamente ficou mais fosco, não apresentou boa uniformidade no depósito, houve
muitos respingos e, apresentou um grande volume de poros, conforme observado nas
figuras 8 e 9.
Figura 9: Foto cordão solda MIG
Figura 8: Foto cordão solda MIG
Os resultados com o processo TIG atingiram os resultados esperados em
todos os aspectos, acabamento, resistência, conforme visto no quadro 6.
Carga
Tensão
encontrada
(N/mm2)
Tensão
especificada
(n/mm2)
Nº CDPS
Material
Aluminio
Dureza
HB
Area
(mm2)
Maxima
Maxima
Maxima
6 TIG1
6082 T6
96
82,55
17191,33N
208,25
170
7 TIG1
6082 T6
96
82,55
17103,07N
207,18
170
8 TIG1
6082 T6
96
82,55
17181,52N
208,13
170
9 TIG1
6082 T6
96
82,55
17289,40N
209,44
170
10 TIG1
6082 T6
96
82,55
17202,53N
208,39
170
Quadro 6: Resultado ensaio de tração TIG
O acabamento do cordão de solda nos corpos de provas soldado no processo TIG
esteticamente ficou bem melhor que o processo MIG, apresentou uma boa uniformidade no
depósito e, não houve muitos respingos, como se pode observar nas figuras 10 e 11.
113
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Figura 10 (Foto cordão solda TIG)
Figura 11 (Foto cordão solda TIG)
5. CONCLUSÕES
De acordo com os resultados obtidos pôde-se concluir que o processo TIG
apresentou o melhor resultado para soldagem das estruturas de alumínio. Na inspeção
visual, as características geométricas do cordão de solda realizado com o processo TIG se
deram mais uniformes que do cordão de solda realizada com o processo MIG. Quanto ao
acabamento superficial, o processo TIG apresentou melhores resultados em relação o
processo MIG.
Com base na análise do software minitab foram obtidos os melhores parâmetros
para o processo TIG sendo 180 A, vazão de 12 l/min. E para o processo MIG foram 170A e
23 Volts. Com esses novos parâmetros otimizados para a liga de alumínio e faixas de
espessura utilizados conseguiu-se aumentar a produtividade em 30%. Para o critério de
resistência, tanto o processo MIG como o processo TIG atenderam a especificação da
Aluminum Design Manual 2005. Com isso, esse trabalho visa dar contribuição relevantes ao
desenvolvimento dos sistemas produtivos das indústrias de estruturas de alumínio.
6. REFERÊNCIAS.
ALMENDRA, A.C.; SILVA F.L.T.; PIRANI, J.L.; RAMALHO, J.P.; Soldagem. Editora Senai –
São Paulo, 1997.
ANSI/AWS D1.2/D1.2M:2008 Structural Welding Code – Aluminum.
AWS, Welding Inspection- American Welding, Society USA, 1980,222p.
MARQUES, P.V.; MODENESI, P.J.; BRACARENSE, A.Q.; Soldagem Fundamentos e
tecnologia. Editora UFMG, 2005.
ALCAN ALUMINIO DO BRASIL S.A. Manual de Soldagem, 1 edição, 1993.
114
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Desastres industriais: um alerta aos cursos de engenharia
1
2
3
4
Fernando B. Mainier, Sabrina de Azevedo Faria, Matheus R.M. Signorelli, Marcus V.S. Silva,
5
6
Carlos V.M. Inocêncio, Rafaela L. Santos de Souza
1,2,3,4,5,6
Escola de Engenharia, Universidade Federal Fluminense (UFF), Niterói, RJ, Brasil
1
2
3
[email protected]; [email protected]; [email protected];
5
6
[email protected]; [email protected]; [email protected]
4
RESUMO
Os
grandes
complexos
industriais,
preferencialmente,
os
químicos,
petrolíferos/petroquímicos e metalúrgicos armazenam e processam, grande quantidade de
produtos químicos e combustíveis. O processamento destas substâncias é controlado por
normas e procedimentos que visam a minimizar os riscos, os danos aos equipamentos, ao
meio ambiente e preservar a saúde do trabalhador. Também se deve levar em conta que a
maioria destes processos foi concebida no início do século ou na década de quarenta,
quando os princípios da precaução, do ambiente e da segurança industrial não eram
requisitos fundamentais nas implantações destes complexos industriais. O momento atual
de crise social e ambiental também leva a refletir no que é desejável quanto à produção e a
sustentabilidade para a sociedade. Objetiva-se neste trabalho, avaliar, criticamente, alguns
vazamentos industriais mostrando a importância de inserir nos programas das disciplinas de
engenharia esses fatos que podem aclarar e construir um novo horizonte baseado nas
inovações e na precaução industrial.
Palavras-Chave: desastres industriais, meio ambiente, segurança, contaminações.
1. INTRODUÇÃO
A história das tecnologias mostra que o homem tem lançado, desde os primórdios
das civilizações, seu lixo, seus resíduos no meio ambiente, principalmente, nos cursos d’
água, no solo ou no ar atmosférico. Mesmo considerando os processos artesanais ou semiindustrializados, não restam dúvidas de que havia, naquela época, uma preocupação com o
cheiro desagradável ou com as fumaças agressivas que tais sistemas exalavam, de tal
forma que, tanto na Grécia quanto na Roma Antiga, as fundições de cobre e prata, as
fábricas de azeite, os matadouros e os curtumes eram localizados em zonas desabitadas e
longe da cidade (FALLENBERG, 1970).
A história das tecnologias também mostra, que a degradação ambiental vem
ocorrendo de forma sistemática a partir da Revolução Industrial do século XIX, entretanto, o
quadro nestas últimas décadas tem apresentado um crescimento espetacular,
principalmente em função das atividades tecnológicas desenvolvidas a qualquer custo, não
dando importância as consequências a curto e a longo prazo. Atualmente, a ordem mundial
converge no sentido do estabelecimento da proteção ambiental, principalmente, com base
na definição de meio ambiente que não coloca o homem como uma parte externa a esse
meio, e sim como sua parte integrante e fundamental nas decisões presentes e futuras.
Consequentemente aumentou-se o rigor no controle das condições de qualidade do
meio ambiente, como fator essencial para a manutenção da vida da espécie humana, mas
considerando
que grande
parte
dos
processos
e
complexos
industriais
químicos/petrolíferos/metalúrgicos e afins foram projetados e construídos nas décadas de
1930-1940, onde as teorias ambientais, de precaução de acidentes e da saúde do
trabalhador e das populações que habitam as cercanias das instalações industriais, ainda
eram incipientes. É claro, que têm havido aperfeiçoamentos e modificações nos processos
industriais visando maior segurança, consequentemente, reduzindo possibilidades de
acidentes. Entretanto, as tecnologias obsoletas ainda em uso, associadas aos processos de
reúso, reciclagem, lixos tóxicos, sucatas, falta de controle de qualidade, grandes mercados
115
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
emergentes ávidos por produtos de baixo custo, acabam gerando, direta ou indiretamente,
derramamentos, vazamentos e contaminações com grande impacto ambiental.
Outro ponto que merece destaque nesta lógica de processo é o tratamento de
efluentes, onde grande parte dos grandes complexos industriais adota uma política do
tratamento dos resíduos no final do processo (end-of-pipe tecnology) em detrimento do
tratamento baseado nas tecnologias limpas (clean tecnology) que se desenvolvem ao longo
do processo levando em consideração uma série de parâmetros importantes, tais como: a
segregação dos processos e procedimentos, redução da energia, recuperação dos resíduos,
utilização de boas práticas gerenciais, etc. (TIGRE et al., 1994; MAINIER, 1999).
As tecnologias limpas se destacam das tecnologias tradicionais podendo ser
definidas como o conjunto de métodos e técnicas que objetivam a minimização dos resíduos
e tem como eixo central a preservação do meio ambiente, consequentemente, adotando
normas de gestão ambiental. Observa-se que os tratamentos de efluentes devem ser
realizados na própria fonte geradora da poluição, pois o que se tem observado normalmente
é um grande esforço acompanhado de um elevado custo de tratamento, para recuperar o
sistema final contaminado quando na verdade, a maioria das análises mostra que se deve
cuidar do efluente contaminante na sua origem e não final do processo. Como exemplo são
apresentadas na Figura 1 duas indústrias que geram grandes volumes de resíduos cujos
vazamentos podem causar grande impacto ambiental.
Figura 1 – Visão geral de unidades fabris geradoras de grande quantidade de resíduos.
Fonte: Google map.
2. OS ACIDENTES INDUSTRIAIS COMO TEMA DE DISCUSSÃO NA DISCIPLINA DE
INTRODUÇÃO À ENGENHARIA
Atualmente a sociedade se defronta com notáveis avanços científicos e tecnológicos
que, de uma maneira ou de outra, acabam impactando a vida diária do homem comum, com
conhecimentos que não podem ficar enclausurados e segregados na escuridão do
desconhecido, conhecimentos que devem ser desvelados e expostos, de maneira simples,
nos primeiros degraus do ensino.
A disciplina Introdução à Engenharia deve propiciar esta assistência ao aluno, de tal
forma, que possa ser construído no primeiro degrau do ensino de engenharia a consciência
técnica crítica que deve acompanhá-lo no seu caminho universitário até o momento da
colação do grau de engenheiro e continuar com aperfeiçoamento contínuo dessa
consciência crítica ao longo de sua existência profissional para que o conhecimento vise
processos, equipamentos e materiais que não estejam na contramão da sociedade.
O conhecimento científico é feito por pessoas para pessoas. O leigo aceita o que o
cientista lhe diz com o espírito de credulidade, pois sabe que aprender a “pensar
cientificamente” é um processo longo e complexo. Além disto, é preciso estar plenamente
116
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
familiarizado com os fundamentos conceituais da pesquisa do momento, e aprender os
paradigmas contemporâneos que envolvem o conhecimento de uma disciplina.
Daí a necessidade de repensar ideias inovadoras para a disciplina baseadas, por
exemplo, no desenvolvimento de um tema que possa ligar os alunos na temática ambiental
considerando os desastres tecnológicos que ocorrem impactando o meio ambiento e
deixando um rastro de destruições e mortes.
Conforme referido anteriormente a maioria dos processos industriais químicos foi
concebida no início do século ou na década de quarenta, onde os princípios da preservação
do homem, do ambiente e da segurança industrial não eram requisitos fundamentais nas
implantações destas grandes indústrias de base. Atualmente, é comum, no mínimo, a
existência de três tecnologias competitivas para fabricação de um mesmo produto químico,
entretanto, dependendo de sua utilização é fundamental estabelecer critérios diversos para
cada processo industrial, por exemplo, os critérios de uma indústria farmacêutica são
inteiramente diferentes da indústria petroquímica, daí a importância de definir critérios
amplos ou detalhados para cada ação industrial. (MAINIER & MELLO, 2001)
Em função dos acidentes químicos que podem ocorrer nos processos industriais, é
fundamental conscientizar o Engenheiro, principalmente, o Engenheiro Químico da
responsabilidade no uso, direto ou indireto, de um produto químico e das tecnologias
correlatas de sua produção, bem como o do seu uso, direto ou indireto, e também
estabelecer projetos confiáveis de tratamento de efluentes. Além disso, conhecer e
conceber planos de emergência caso haja um acidente químico. As substâncias químicas
produzidas industrialmente com potenciais de risco de acidentes químicos podem ser
classificadas em função dos seguintes parâmetros: toxidez; propriedades físico-químicas;
diversidade de aplicação; volume e concentração durante o processamento industrial,
armazenamento e transporte.
Na visão de Duarte (2002), os acidentes poderiam ser evitáveis, considerando que o
estudo sistemático de um grande número de acidentes industriais foi gerado por falhas
humanas e/ou de equipamentos, que poderiam ser evitados caso houvessem planos e
diretrizes gerenciais compatíveis, procedimentos e programas de manutenções efetivas. Por
outro lado, os acidentes podem ser considerados inevitáveis quando estão associados aos
fenômenos naturais catastróficos difíceis de serem diagnosticados em tempo hábil.
Ainda com base em Duarte (2002), os acidentes industriais mais traumáticos podem
proporcionar vítimas fatais, entre os empregados e os membros das comunidades dos
arredores e causar grandes danos ambientais, entretanto, o estudo sistemático do acidente
pode estabelecer um aprendizado significativo no sentido de determinar diretrizes, planos e
projetos futuros visando processos industriais mais confiáveis. Geralmente, as
consequências de um acidente com liberação de substâncias químicas dependerão de
vários fatores, tais como, propriedades das substâncias, a quantidade da descarga, o
período durante o qual as pessoas estão expostas e o tempo que decorre entre a exposição
propriamente dita e o tratamento médico efetivo nas vítimas. Visando discutir o problema
dos desastres ambientais são apresentados os seguintes acidentes químicos.
2.1. VAZAMENTO DE BENZENO
Segundo Silva & Mainier (2004), o benzeno é representado pela fórmula molecular,
C6H6, é um líquido volátil, estável e incolor. Tem o odor característico dos hidrocarbonetos
aromáticos. É altamente inflamável. É pouco solúvel em água, mas miscível com a maior
parte dos solventes orgânicos. O benzeno também é encontrado na formulação de tintas,
ceras, lubrificantes, misturas de solventes, agrotóxicos, detergentes, borrachas, graxas,
resinas, etc. No setor sucro-alcooleiro, o benzeno é utilizado para produção do álcool anidro.
Além disso, pode ser encontrado em alguns petróleos e na própria gasolina automotiva.
117
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Ainda com base em Silva & Mainier (2004), o benzeno devido a grande afinidade por
gordura é armazenado em tecidos ricos em gorduras, como o sistema nervoso central e a
medula óssea. O efeito agudo na via respiratória provaca a irritação nos brônquios e na
laringe, surgindo, consequentemente, tosse, rouquidão e edema pulmonar. O benzeno pode
provocar depressão generalizada na medula óssea onde o sangue é produzido, que se
manifesta pela redução da contagem de todos os tipos de células sanguíneas: células
vermelhas, brancas e plaquetas. Há relação causal comprovada entre exposição ao
benzeno e ocorrência de Leucemia. A Leucemia mais comum relacionada ao benzeno é a
Leucemia Mieloide Aguda e suas variações, entre elas a Eritroleucemia e a Leucemia.
No dia 13 de novembro de 2005, em Jilin, China, ocorreram uma série de explosões
no complexo petroquímico de produção de anilina onde o benzeno é a principal matériaprima. Nesta operação ocorreram a morte instantânea de cinco pessoas e fez com que pelo
menos dez mil moradores da região fossem obrigados a fugir da fumaça amarelada
resultante do acidente conforme mostra a Figura 2, a seguir.
Figura 2 – Explosão no Complexo Petroquímico da China.
Fonte: http://www.chinadaily.com.cn/
Grande parte do benzeno e nitrobenzeno vazou para águas do Rio Songhua,
nordeste da China resultou num dos maiores desastres ecológicos do país, atingindo a
Rússia e até ameaçou as relações diplomáticas entre os dois países. Os níveis de benzeno
alcançaram valores superiores a 108 vezes o valor permitido e seguro para o homem. A
Figura 3, a seguir, apresenta a contaminação do rio Songhua. As investigações iniciais
mostraram que o desastre foi causado quando os operadores tentaram desbloquear a torre
de retificação de nitrobenzeno. O Governo Chinês não mais divulgou relatórios sobre o
acidente.
2.2. VAZAMENTOS DE SULFETO DE HIDROGÊNIO (H2S)
O sulfeto de hidrogênio (H2S), também denominado gás ácido ou gás sulfídrico, é um
gás incolor, de cheiro desagradável, extremamente tóxico e corrosivo, e mais denso que o
ar.
Figura 3 – Contaminação do Rio Songhua pelo vazamento da Petroquímica, China.
Fonte: http://www.gov.cn
118
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
A ação tóxica do sulfeto de hidrogênio nos seres humanos é conhecida desde o
século XVIII, entretanto, passados tantos anos, ainda ocorrem casos de intoxicações,
inclusive com mortes. Sua agressividade também é avaliada nos contatos com materiais e
equipamentos, resultando, na maioria das vezes em deteriorações ou fraturas com
consequências catastróficas. Devido a sua toxidez, o H2S é capaz de irritar os olhos e/ou
atuar no sistema nervoso e respiratório dos seres humanos. Dependendo da concentração
pode matar rapidamente. Desta forma, caso haja um acidente envolvendo vazamento de
H2S, as consequências podem alcançar proporções imensuráveis, colocando em risco a
vida humana, a integridade do patrimônio industrial e o meio ambiente (MAINIER, 2002). A
Tabela 2, a seguir, mostra uma série histórica de acidentes com vazamentos de H2S
resultando em intoxicações e mortes.
Tabela 2 – Acidentes com vazamentos de H2S (Mainier, 2002)
Acidentes/local
Intoxicações
Mortes
320
22
Vazamento em refinaria de petróleo, Texas, USA,1969
6
3
Formação de H2S em tanque de ácido crômico, Maine, USA, 1971
---
6
Formação de H2S em tanque de ácido crômico Chicago, USA,1978
6
3
Vazamento em refinaria de petróleo Texas, USA,1979
10
2
Vazamento em planta de água pesada em usina nuclear, Índia,1984
3
1
Vazamento de petróleo em parque de tanque Texas, USA,1989
30
---
Descarga de produtos químicos, Whitehall, USA,1999
1
1
Refinaria de petróleo Memphis, USA, 1999
11
---
Fábrica de produtos químicos, Dalian, China, 1999
11
4
Manutenção em válvula de gasoduto, Alberta, Canadá, 2000
13
---
Fábrica de ácido sulfúrico Ufa, Rússia, 2000
9
3
Planta de remoção de H2S em gás natural, Poza Rica, México, 1950
Resultados de estudos realizados com animais, que inalaram sulfeto de hidrogênio,
indicam que o gás em questão distribui-se no cérebro, fígado, rins, pâncreas e pequeno
intestino. A percepção inicial do seu cheiro varia de indivíduo para indivíduo, porém a
concentração de 0.13 ppm (0.18 mg/m3) foi considerada suficiente para que o odor comece
a ser percebido. Os seres humanos não são capazes de sentir o odor de H2S em
concentrações acima de 100 a 150 ppm (140 – 210 mg/m3), provavelmente devido a uma
fadiga olfativa que ocorre após ficarem expostos por prolongado período a concentrações
mais baixas (DENG, 1992).
Segundo estudos realizados por Kilburn & Warshaw (1991) com operários e
moradores residentes nas cercanias de uma refinaria de petróleo na Califórnia, destinada a
recuperar enxofre proveniente de petróleo rico em H2S, foi constatado que parte desta
população residente queixava-se, rotineiramente, de náuseas, vômitos, dores de cabeça e
depressão. Quando foram comparados com outros residentes da região, porém não
expostos à exposição de H2S, apresentaram alguns distúrbios na coordenação motora e na
discriminação de cores.
Na ótica de Chaves (2004), a experiência e o aprendizado decorridos dos grandes
acidentes industriais apoiaram a transformação e o aprimoramento do conceito de
gerenciamento do risco. As próprias técnicas de análise de risco vêm sendo também
revistas, abrindo espaço para abordagens holísticas, considerando a sensibilidade ambiental
da região em estudo. Assim, podem ser aplicadas metodologias, na avaliação do risco
119
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
ambiental, sendo bastante úteis para o gerenciamento de riscos de empreendimentos que
apresentam o potencial de ocorrência de acidentes, em grandes proporções, como o setor
de petróleo.
3. CONCLUSÕES
Diante dos fatos expostos, conclui-se da necessidade de:
•
reavaliar e reestruturar os projetos industriais, de tal forma, que os efeitos
ambientais, sociais, econômicos e políticos sejam identificados na fase de planejamento do
projeto, antes que as decisões de implantações sejam adotadas;
•
estimular a participação dos jovens universitários no conhecimento crítico
confiável dos processos industriais com relação aos riscos industriais considerando a
potencialidade de resultar em impactos ambientais, sociais e econômicos.
4. REFERÊNCIAS
CHAVES,L.A. O. (2004), Fatores que afetam os planos de emergência aplicados às
atividades petrolíferas offshore: Estudo de caso, Dissertação de Mestrado. Universidade
Federal Fluminense. Niterói, RJ, 2004.
DENG, J, F, (1992), Hydrogen sulphide, In: JB Sullivan, GR Krieger, eds. Hazardous
materials toxicology: clinical principles of environmental health. Baltimore: Williams and
Wilkins,: p.711-717.
DUARTE, M. (2002), Riscos Industrias. Etapas para a investigação e a prevenção de
acidentes, Rio de Janeiro: FUNENSEG, 340p.
FELLENBERG, G. (1970), Introdução aos problemas da poluição ambiental. São Paulo:
EPU: Springer: Editora da Universidade de São Paulo, 196p.
KILBURN, K. H. & WARSHAW, R. H., (1991), Neurobehavioral impairment from H2S,
University of Southern California School of Medicine, Environmental Sciences
Laboratory: Los Angeles, CA.
MAINIER, F. B. & MELLO, M. H. CAMPOS SOARES (2001), Implantação da disciplina
Tecnologia Química aplicada aos cursos de Engenharia, In: XXIX Congresso Brasileiro
de Ensino de Engenharia - COBENGE, 2001, Porto Alegre, Rio Grande do Sul, 20 a 21
de Setembro, 7p.
MAINIER, F. B. (1999), Tecnologias Limpas: um direito da sociedade. Anais: XXVII
Congresso Brasileiro de Ensino de Engenharia – COBENGE 99, Natal, Rio Grande do
Norte, 12/15 setembro, 7p.
MAINIER, F.B., (2002), H2S rotas de aproveitamento industrial frente aos problemas de
corrosão e contaminação ambiental, Engevista, v. 4, n. 6, março, p.16-22, 2002.
SILVA, E. F. & MAINIER, F. B., (2004), Contaminações ambientais provocadas pelo
benzeno existente na gasolina automotiva, Anais: Simpósio sobre Excelência em
Gestão e Tecnologia, 27/29 Outubro, AEDB, Resende, RJ, http://www.aedb.br/seget
TIGRE, P. B., VANDERLEY, A. FERRAZ, J. C., RUSH, H. (1994), Tecnologia e Meio
Ambiente - Oportunidade para a indústria, Rio de Janeiro: Editora UFRJ,139p.
120
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Determinação da velocidade terminal dos grãos de pinhãomanso (Jatropha curcas L.)
Ednilton T. de Andrade; Jacqueline M. Brasil; Luciana P. Teixeira; Angelo José L. Braz; Neila S.
Freixo; Patrícia M. de Araujo
Universidade Federal Fluminense (UFF)
Niterói, RJ, Brasil
[email protected]; [email protected]; [email protected];
[email protected]; [email protected]; [email protected]
RESUMO
O objetivo do presente trabalho é determinar experimentalmente a velocidade terminal dos
grãos de pinhão-manso e comparar os resultados com os resultados obtidos a partir de
modelo matemático presente na literatura da área. Dessa forma, é possível caracterizar a
velocidade máxima do ar envolvida no processamento e beneficiamento do grão em
questão, como transporte e separação. A partir dessa análise é possível determinar o
coeficiente de arrasto, possibilitando a regulagem de máquinas e equipamentos. Para a
realização das análises experimentais, as amostras foram submetidas a teores de água de,
aproximadamente, 4, 9, 11, 15, 18, 20 e 25% (b.u.). Como resultado verificou-se que a
equação utilizada para o cálculo da velocidade terminal está de acordo com os resultados
obtidos experimentalmente. Além disso, o resultado também demonstra que a velocidade
terminal dos grãos de pinhão-manso é diretamente proporcional ao teor de água.
Palavras-chave: Pinhão-manso, Velocidade terminal, Teor de água
1. INTRODUÇÃO
Nos últimos anos, pesquisas envolvendo a obtenção de energia proveniente de
biomassa têm recebido especial atenção. Dentre as principais formas de energias obtidas a
partir da biomassa, está o biodiesel. Além de ser uma fonte limpa e renovável, o biodiesel
também possibilita a redução da importação de óleo diesel, assim como pode representar
uma importante oportunidade de desenvolvimento econômico para diversas regiões do País.
O biodiesel pode ser obtido a partir de óleos vegetais, gorduras de origem animal e
até mesmo de óleos usados em frituras. O Brasil possui um grande número de oleaginosas
com possibilidade de extração de óleos vegetais para a produção de biodiesel em grande
escala, dentre elas está o pinhão-manso (Jatropha curcas L.).
Contudo, para a utilização dos grãos do pinhão-manso para a extração de óleo
visando à produção de biodiesel, se faz necessário o conhecimento de suas propriedades
físicas. De acordo com a literatura da área, as principais aplicações do conhecimento das
propriedades físicas dos grãos relacionam-se com a elaboração de projetos, construção e
operação de equipamentos de limpeza, secagem, classificação, armazenamento e
industrialização, otimização da operação de equipamentos visando maior rendimento,
racionalização de energia, controle de poluição e redução de custos.
Dentre as principais características, destaca-se a velocidade terminal e,
consequentemente, o coeficiente de arrasto. De acordo com Teixeira et al. (2003), a
velocidade terminal é uma propriedade que determina a velocidade a ser imposta ao ar,
para que este não arraste os grãos durantes a sua passagem pelos mesmos.
Dessa forma, o conhecimento a respeito da velocidade terminal e do coeficiente de
arrasto dos produtos agrícolas é de fundamental importância no projeto e no
dimensionamento de equipamentos e estruturas utilizados, sobretudo, nas operações de
colheita e pós-colheita desses produtos, visto que grande parte dos equipamentos utiliza
121
VII Seminário Fluminense de Engenharia Niterói-RJ 19
9 de outubro de 2011
água ou ar para transportar ou separar o produto desejável,
sejável, impurezas presentes ou
materiais de qualidade variável.
Dessa forma, o presente trabalho tem o objetivo de determinar a velocidade terminal
dos grãos de pinhão-manso,, de forma a caracterizar a velocidade máxima do ar envolvida
nos processos
sos de beneficiamento do pinhão-manso,
pinhão
, possibilitando a análise entre os
resultados experimentais e os obtidos por meio de modelagem matemática.
2. MATERIAIS E MÉTODOS
O presente trabalho foi realizado no Laboratório de Termociências (Latermo), na
Universidade
iversidade Federal Fluminense, Niterói - RJ. Para a realização dos experimentos, foram
utilizados grãos de pinhão-manso
manso,, com teor de água inicial de 3,9% (b.u.), colhidos
manualmente, proveniente do Horto Municipal de Macaé, Macaé - RJ.
A amostra inicial foi dividida em sete subamostras de aproximadamente 250g cada.
As subamostras foram submetidas a diferentes teores de água de aproximadamente 3,9; 9;
11; 15; 18; 20 e 25% (b.u.), sendo posteriormente armazenadas em saco hermético, de
forma a garantir a manutenção
utenção do respectivo teor de água.
Os teores de água das subamostras
sub
de pinhão-manso foram determinados a partir
do método da estufa com temperatura de 105 ± 1°C po r 24 horas (INSTITUTO ADOLFO
LUTZ, 2008). Para tanto,, foram utilizadas amostras de aproximadamente
adamente 30 gramas em 3
repetições, para cada tratamento.
Para a verificação da velocidade terminal foi utilizado um dispositivo formado por um
ventilador acoplado a um tubo de PVC com 150 mm de diâmetro e 104 cm de comprimento
(Figura 1). Essas dimensões foram utilizadas, a fim de se obter uma maior uniformidade de
distribuição da velocidade do ar na secção transversal do duto. À distância de 7,5 cm de sua
extremidade superior, fixou-se
se uma tela para sustentação das amostras. Na entrada do
ventilador, a uma
ma distância de 70 cm, foi fixado um registro gaveta para regulagem da
velocidade do fluxo de ar.
Figura 1. Equipamento utilizado para medição da Velocidade Terminal
122
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Para as análises foram utilizados 49 grãos de pinhão-manso, sendo 7 para cada
subamostra, sendo a velocidade do fluxo de ar medida no ponto localizado a 7,5 cm acima
da tela de sustentação, utilizando-se um anemômetro digital.
A medição da velocidade do ar correspondente à velocidade terminal foi realizada no
início da trepidação da amostra, de forma a evitar sua flutuação.
Para todos os tratamentos, a obtenção dos valores correspondentes a velocidade
terminal foi realizada com grãos cuja massa variava de 0,7 a 1,0 gramas, para cada um das
7 repetições correspondentes aos respectivos teores de água estudados.
A partir dos resultados experimentais, e com o intuito de buscar um modelo
representativo do fenômeno da velocidade terminal foi utilizada a equação proposta por
Hawk et al. (1966) e Santana & Braga (1999), Equação 1, para a determinação da
velocidade terminal.
Vt = +
.-.
ρ.ρ/
0.ρ..ρ/.1.
2
3
(1)
em que:
Vt - velocidade terminal, em m.s-1; w - peso das partículas, em N; ρp - massa
específica da partícula, em kg.m-3; ρf - massa específica do fluido, em kg.m-3; C - coeficiente
de arrasto, adimensional; e Ap - área projetada das partículas, normal ao seu movimento em
relação ao fluído, em m².
Para a determinação do coeficiente de arrasto foi utilizada para correção da forma do
grão a Equação 2 proposta por Petty-john e Christiansen, citado por Mohsenin (1978).
C = 5,31 – 4,88f
(2)
em que:
C = coeficiente de arrasto, adimensional; e f = esfericidade, adimensional.
A esfericidade que corresponde ao grau de aproximação da forma do produto com
uma esfera, pode ser determinada por meio da Equação 3.
E=
de
dc
(3)
onde:
E - esfericidade, adimensional; de – diâmetro de uma esfera correspondente ao
mesmo volume, cm; e dc – diâmetro da menor esfera circunscrita, cm.
3. RESULTADOS E DISCUSSÃO
Na Tabela 1 estão apresentados os teores de água dos grãos de pinhão-manso,
analisados neste trabalho.
Tabela 2 - Teor de água dos grãos de pinhão após reumidecimento
Amostras
Teor de água (%b.u.)
1
3,94
2
8,82
3
10,83
4
14,66
5
16,68
6
18,90
123
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
7
25,04
Para a determinação do coeficiente de arrasto utilizou-se o valor médio
correspondente da esfericidade de 0,593. Dessa forma, o coeficiente de arrasto médio
calculado utilizado para os cálculos envolvidos com a velocidade terminal corresponde a
2,522.
Na Tabela 2, observa-se os valores médios da velocidade terminal em função do teor
de água dos grãos de pinhão e a velocidade terminal calculada. Verifica-se a relação direta
de proporcionalidade entre o aumento dos valores de velocidade terminal com a elevação
do teor de água do produto.
Tabela 3 - Medidas obtidas para o cálculo da Velocidade Terminal calculada em função do
teor de água
Teor de água
(%b.u.)
Velocidade terminal
Experimental (m/s)
Velocidade terminal
Calculada (m/s)
3,9
7,81
7,79
8,8
7,96
7,95
10,8
8,09
8,03
14,7
8,29
8,20
16,7
8,43
8,30
18,9
8,67
8,42
25,0
8,97
8,81
Possivelmente, este aumento deve-se às alterações das características físicas do
produto, principalmente massa, área e volume, confirmando a expectativa de que a maior
presença de água na composição do produto contribui para a alteração direta da relação
entre a massa e a velocidade terminal.
A velocidade terminal é determinada a fim de obter a velocidade do ar máxima nas
colunas pneumática de máquinas de limpeza, sem que ocorra transporte de grãos
juntamente com as impurezas, bem como em equipamentos para transporte e
movimentação dos grãos.
A partir dos resultados, verifica-se que os dados experimentais não destoam
acentuadamente dos obtidos através da equação.
124
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Velocidade Terminal (m.s -1)
9,2
9
8,8
8,6
8,4
8,2
8
Velocidade terminal
experimental
7,8
Velocidade terminal
calculada
7,6
0
5
10
15
20
Teor de água (% b.u.)
25
30
Gráfico 1- Velocidade terminal experimental e calculada da massa de pinhão-manso em
função do teor de água
4.CONCLUSÃO
De acordo com os dados analisados neste trabalho, a velocidade terminal dos grãos
é diretamente proporcional ao teor de água, aumentando conforme há o aumento do teor de
água do pinhão-manso.
5.BIBLIOGRAFIA
HAWK, A. L.; BROOKER, D. B.; CASSIDY, J.J. (1966). Aerodynamic characteristics of
selected farm grains. Transactions of the ASAE, St. Joseph, Michigan, v. 9, n. 1, p. 4851.
INSTITUTO ADOLFO LUTZ. (2008). Métodos físico-químicos para análise de alimentos.
Edição IV. 1ª Edição digital. São Paulo, p. 98-99.
MOHSENIN, N. N. (1978). Physical properties of plant and animal material. Gorson and
Breach Science Publishess. New York,2 ed, 742p.
SANTANA, M. F. S.; BRAGA, M. E. D. (1999). Parâmetros aerodinâmicos que influenciam
na separação de amendoim. Revista Brasileira de Produtos Agroindustriais, Campina
Grande, v.1, n.1, p.66-72.
TEIXEIRA, M. M.; MARTYN, P. J.; HARA, T.; CUNHA, J. P. A. R. (2003). Propriedades
físicas e aerodinâmicas aplicadas ao projeto de máquinas de limpeza para grãos de
milho. Engenharia na Agricultura, Viçosa, v.11, 52 n.1-4.
125
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Determinação das propriedades físicas dos grãos de
pinhão-manso (Jatropha curcas L.)
Ednilton T. de Andrade; Jacqueline M. Brasil; Luciana P. Teixeira; Angelo José L. Braz; Neila S.
Freixo; Patrícia M. de Araujo
Universidade Federal Fluminense (UFF)
Niterói, RJ, Brasil
[email protected]; [email protected]; [email protected];
[email protected]; [email protected]; [email protected]
RESUMO
O objetivo do presente trabalho é determinar as propriedades físicas de grãos de pinhãomanso, tais como: tamanho e forma, massa específica, e porosidade dos grãos. Para a
realização das análises experimentais, as amostras foram submetidas a teores de água de,
aproximadamente, 4, 8, 13, 18, e 24% (b.u.). No que diz respeito à determinação do
tamanho e forma dos grãos se utilizou das características de esfericidade e circularidade,
sendo verificado que a esfericidade variou proporcionalmente com a variação do teor de
água, enquanto a circularidade permaneceu aproximadamente constante. Quanto a massa
específica e a porosidade, o resultado obtido demonstra que a porosidade é diretamente
proporcional ao teor de água, até o ponto em que a interação entre a redução do teor de
água e a contração volumétrica fazem com que a massa específica volte a aumentar,
reduzindo, assim, a porosidade.
Palavras-Chave: pinhão-manso; propriedades físicas, teor de água
1. INTRODUÇÃO
Em razão ao alto consumo de combustível, as incertezas quanto a disponibilidade de
combustíveis fósseis, bem como a redução das reservas, e as constantes variações no seu
preço e dos seus derivados, vários estudos referentes a outras fontes renováveis para
produção de energia têm se mostrado cada vez mais presentes. Essa intensificação de
estudos também se dá devido às questões ambientais, já que a utilização de energia a partir
de fontes renováveis reduz as emissões de gases poluentes causadores do efeito estufa na
atmosfera. A partir disto tem-se dado grande atenção as fontes de energia produzida a partir
da biomassa, como é o caso do biodiesel.
Em meio a diferentes oleaginosas com alto potencial produtivo de óleo para fins
combustíveis, o pinhão-manso (Jatropha curcas L.) mostra-se como uma cultura promissora,
que pode ser usada em escala para extração de óleo destinado à fabricação de biodiesel,
porém apresenta características físicas dos grãos que ainda necessitam de maiores estudos.
De acordo com a literatura da área, as principais aplicações das propriedades físicas
dos grãos relacionam-se com a elaboração de projetos, construção e operação de
equipamentos de limpeza, secagem, classificação, armazenamento e industrialização,
otimização da operação de equipamentos visando maior rendimento, racionalização de
energia, controle de poluição e redução de custos.
Em razão das características expostas, o presente trabalho objetiva a determinação
das principais características físicas dos grãos de pinhão-manso, tais como: tamanho e
forma, massa específica, e porosidade dos grãos de pinhão.
2. MATERIAL E MÉTODOS
O presente trabalho foi realizado no Laboratório de Termociências (Latermo), da
Universidade Federal Fluminense. Para o experimento foram utilizados grãos de pinhãomanso colhidos manualmente, proveniente do Horto Municipal de Macaé, em Macaé - RJ.
126
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
A amostra inicial foi dividida em cinco subamostras de aproximadamente 250g cada.
As subamostras foram submetidas a diferentes teores de água de, aproximadamente, 4, 8,
13, 18, e 24% (b.u.), sendo posteriormente armazenadas em saco hermético, de forma a
garantir a manutenção do respectivo teor de água.
Os teores de água das subamostras de pinhão-manso foram determinados a partir
do método da estufa com temperatura de 105 ± 1°C po r 24 horas (INSTITUTO ADOLFO
LUTZ, 2008). Para tanto, foram utilizadas amostras de, aproximadamente, 30 gramas em 3
repetições, para cada tratamento.
2.1 TAMANHO E FORMA DOS GRÃOS
Para a determinação do tamanho e forma dos grãos de pinhão utilizou-se amostras
de 200 grãos para cada valor de teor de água. O tamanho dos grãos de pinhão foi
determinado utilizando-se um paquímetro digital, medindo-se as características de largura
(a), espessura (b), e comprimento (c) de cada grão, conforme especificado na ilustração
referente às dimensões (Figura 1).
Figura 1. Largura (a), espessura (b), e comprimento (c) do grão de pinhão-manso
Segundo Corrêa et al. (2002), a determinação da forma do grão pode ser
caracterizada por meio do cálculo da circularidade e esfericidade dos mesmos. Mohsenin
(1986) citado por Corrêa et al. (2002), com o intuito de analisar tais características, propôs a
Equação 1 para a verificação da circularidade que indica o quanto a área da projeção do
material na posição de repouso se aproxima de um círculo, de forma a medir a agudeza dos
cantos de um sólido. Já a esfericidade que corresponde ao grau de aproximação da forma
do produto com uma esfera, pode ser determinada por meio da Equação 2.
C=
E=
1.
15
de
dc
(1)
(2)
onde:
E - esfericidade, adimensional; C – circularidade, adimensional; Ap – área projetada,
cm2; Ac - área circunscrita, cm2; de – diâmetro de uma esfera correspondente ao mesmo
volume, cm; e dc – diâmetro da menor esfera circunscrita, cm.
Para delimitação dos círculos inscritos e circunscritos, e áreas projetadas, utilizou-se
o AutoCad 2008 (Figura 2), no qual se inseriu a imagem tirada do pinhão, através do
comando insert – raster image reference, e posteriormente foi realizada a delimitação do
pinhão, círculo inscrito e circunscrito (Figura 3). Os valores destes foram obtidos por meio do
comando list.
127
VII Seminário Fluminense de Engenharia Niterói-RJ 19
9 de outubro de 2011
Figura 2. . Autocad 2008 com o comando list
Figura 3. Área projetada e círculo circunscrito
2.2 MASSA ESPECÍFICA
A determinação da massa específica aparente foi realizada em sete repetições para
cada amostra, utilizando uma proveta de 1000 ml e uma balança de precisão.
Após a balança entrar em equilíbrio com o ambiente, pesa-se
pesa se a proveta seca e tara a
balança para se desconsiderar o peso desta. O pinhão então é depositado na proveta até a
marca de 1000 ml e em seguida é pesado. A massa especifica aparente é então estimada
pela Equação 3.
µap =
6
7
(3)
em que:
µap - massa especifica aparente, em kg m-3; m - massa do produto, em kg; e V volume da proveta, em m³.
Para a realização da
modelagem matemática representativa da massa específica foi utilizada a Equação 4. Os
128
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
parâmetros da Equação 4 foram determinados através dos programa STATISTICA 4.2, com
modelagem não linear pelo método Quasi-Newton.
Massa específica calculada= A (Ta)3 + B (Ta)2 + C (Ta) + D
(4)
em que:
A, B, C, D – parâmetros que dependem da natureza do produto, adimensional; e Ta
– Teor de água, em b.s.
2.3 POROSIDADE
A porosidade foi determinada pelo método direto, onde a mesma é obtida
acrescentando-se um volume líquido conhecido e necessário para complementação dos
espaços da massa granular (MOHSENIN,1986). Para esta análise foram utilizadas provetas
de 500 ml e 100 ml para a aferição da porosidade, e o líquido utilizado foi óleo de soja.
Já, no que diz respeito a realização da modelagem matemática representativa da
porosidade foi utilizada a Equação 5, descrita a seguir, cujos parâmetros foram
determinados através dos programa STATISTICA 4.2, com modelagem não linear pelo
método Quasi-Newton.
Porosidade calculada= A (Ta)3 + B (Ta)2 + C (Ta) + D
(5)
em que:
A, B, C, D – parâmetros que dependem da natureza do produto, adimensional; e Ta
– Teor de água, em b.s.
3. RESULTADOS E DISCUSSÃO
Na Tabela 1 estão apresentados os teores de água dos grãos de pinhão, utilizados
neste trabalho.
Tabela 1. Teor de água dos grãos de pinhão-manso
Amostras
Teor de água (%b.u.)
1
4,3
2
8,3
3
13,3
4
17,8
5
23,7
A Tabela 2 mostra os valores médios dos eixos axiais para os grãos de pinhão nos
teores de água estudados. Nota-se um aumento dos eixos de caracterização do tamanho
dos grãos: largura (a), espessura (b), e comprimento (c) a medida que o teor de água
elevou-se. Além disso, pode-se notar que a espessura foi a que apresentou menor variação,
o que já era esperado, pois este é o menor eixo.
Tabela 2. Valores médios dos eixos axiais em função do teor de água dos grãos
Teor de água (%b.u.)
Largura (a)
Comprimento
(c)
Espessura
(b)
4,3
10,965
17,275
8,400
8,3
11,205
17,555
8,825
13,3
11,215
17,520
8,790
17,8
11,238
17,570
8,870
129
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
23,7
11,358
17,793
9,003
Na Tabela 3, observam-se os valores médios da esfericidade e circularidade dos
grãos em função do teor de água dos grãos de pinhão. A esfericidade apresenta valores
diretamente proporcionais ao teor de água dos grãos, portanto, ocorre uma tendência no
aumento desta propriedade física. Observa-se que a circularidade permaneceu
aproximadamente constante apesar dos diferentes teores de água.
Tabela 3. Valores médios da esfericidade e circularidade em função dos teores de água dos
grãos de pinhão
Teor de água
(%b.u.)
Circularidade
Esfericidade
Peso de Mil Grãos
(kg)
4,3
0,598
0,570
0,777
8,3
0,595
0,575
0,794
13,3
0,582
0,565
0,825
17,8
0,602
0,571
0,889
23,7
0,604
0,576
0,954
A Tabela 4 mostra os valores médios das massas específicas e da porosidade dos
grãos de pinhão-manso em função do teor de água. Observa-se nesta tabela que a
porosidade é diretamente proporcional ao teor de água até determinado ponto, onde a
interação entre a redução do teor de água e a contração volumétrica, fazem com que a
massa específica volte a aumentar, reduzindo assim a porosidade. Esse fenômeno pode ser
explicado devido à redução do teor de água influenciar a contração volumétrica do produto
fazendo com que haja variação no volume do produto.
Tabela 4. Medidas obtidas para a massa específica e porosidade em função do teor de água
Teor de água
(%b.u.)
Massa Específica
(kg/m3)
Massa Específica
real (kg/m3)
Porosidade
(%)
4,3
480,47
932,71
44,92
8,3
436,66
873,89
47
13,3
430,40
912,29
47,08
17,8
439,34
969,91
46,42
23,7
446,72
1001,85
45,56
A determinação da massa específica real foi realizada a partir do peso do grão de
pinhão-manso conhecido, divido pelo seu volume.
A Figura 4 exibe as curvas provenientes das equações ajustadas, juntamente com os
valores médios experimentais e calculados.
130
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
massa específica
Massa Específica Calculada
Porosidade
490,00
47,50
Porosidade Calculada
47,00
470,00
46,50
460,00
46,00
450,00
Porosidade (%)
Massa Especifica (kg m
-3
)
480,00
45,50
440,00
45,00
430,00
420,00
44,50
0
5
10
15
20
25
Teor de Agua (% b.u.)
Figura 4. Porosidade de massa de pinhão-manso e massa específica em função do teor de água
Ao se utilizar as equações ajustadas em um intervalo de teor de água comum a
massa específica e porosidade, verifica-se que os valores calculados se encontram na
mesma faixa de valores experimentais.
A massa específica foi calculada por meio da Equação 6, e os resultados estão
expostos na Tabela 5.
Massa específica calculada= (-0,03275).(Ta)3 + 1,782836.(Ta)2 + (-28,8412).(Ta) + 573,5893 (6)
Tabela 5. Massa específica experimental e calculada em função do teor de água
Teor de
água
(%b.u.)
Repetiçã
o1
Repetiçã
o2
Repetiçã
o3
Média
M
Calculad
o
4,3
488,71
479,35
478,9
473,73
481,64
480,47
479,93
8,3
439,78
433,51
440,42
435,63
433,95
436,66
438,30
13,3
429,65
433,57
421,75
432,57
434,47
430,40
428,32
17,8
444,39
443,77
431,11
436,5
440,93
439,34
440,40
23,7
468,29
463,10
459,79
462,28
455,71
446,72
455,51
Repetiçã Repetição
o4
5
Igualmente, a porosidade também pode ser calculada através pela Equação 7, sendo
seus resultados expostos na Tabela 6.
3
2
Porosidade calculada= 0,001544.(Ta) + (-0,08761).(Ta) + (1,403172).(Ta) + 40,41263
(7)
131
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Tabela 6. Porosidade experimental e calculada
Teor de água
(%b.u.)
Repetição Repetição
1
2
Porosidade
(%)
Porosidade Calculada
(%)
4,3
45,17
44,67
44,93
44,95
8,3
47,00
47,00
47,00
46,91
13,3
47,00
47,17
47,08
47,21
17,8
47,50
45,33
46,42
46,34
23,7
47,67
44,00
45,55
45,01
4.CONCLUSÃO
A partir dos resultados obtidos, pode-se verificar a que esfericidade é diretamente
proporcional ao teor de água dos grãos. Com o aumento do teor de água ocorreu um
aumento dos eixos de caracterização do grão de pinhão-manso (largura, comprimento e
espessura); sendo que a dimensão que menos sofreu alteração com a elevação do teor de
água foi a espessura. Os valores da esfericidade variaram de 0,565 a 0,576.
Já, a circularidade manteve-se aproximadamente constante para diferentes teores de
água, sendo sua variação presente no intervalo de 0,582 a 0,604.
No que diz respeito à porosidade, a mesma é diretamente proporcional ao teor de
água, até o ponto em que a interação entre a redução do teor de água e a contração
volumétrica faz com que a massa específica volte a aumentar, reduzindo assim a
porosidade. A porosidade variou de 44,93 a 47,08%, indo de acordo com os valores
calculados pela equação proposta; assim como a massa específica que variou de 430,40 a
480,47.
Logo, a metodologia utilizada neste trabalho mostrou-se adequada à determinação
das propriedades físicas e identificam adequadamente as características analisadas dos
grãos de pinhão-manso.
5.BIBLIOGRAFIA
CORRÊA, P. C.; JÚNIOR, P. C. A.; QUEIROZ, D. M.; SAMPAIO, C. P.; CARDOSO, J. B.
(2002). Variação das dimensões características e da forma dos frutos de café durante o
processo de secagem. Revista Brasileira Engenharia Agrícola Ambiental. vol.6, no.3.
Campina Grande Sept./Dec.
INSTITUTO ADOLFO LUTZ. (2008). Métodos físico-químicos para análise de alimentos.
Edição IV. 1ª Edição digital. São Paulo. p. 98-99.
MOHSENIN, N. N. (1986). Physical properties of plant and animal material. New York
Gorson and Breach Science Publishess. 841p.
132
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Emprego catalítico do ouro e sua aplicação na oxidação
seletiva de CO
1
2
Luís Eduardo Terra, Fábio Barbosa Passos.
Escola de Engenharia - Universidade Federal Fluminense (UFF)
Niterói, RJ, Brasil
1.
2.
[email protected], [email protected]
RESUMO
Os avanços tecnológicos e nos métodos de preparo mostraram a possibilidade do preparo
de catalisadores formados por partículas nanométricas de ouro, descobrindo-se então a sua
atividade catalítica, o que desperta interesse, uma fez que possui menor custo que platina e
paládio. Foram preparados catalisadores de ouro e de cobre, e contendo as duas espécies,
suportados em céria, pelo método deposição-precipitação. Os catalisadores foram
caracterizados pelas análises de fluorescência de raios-x, fisissorção de N2, redução a
temperatura programada, espectroscopia com reflectância difusa no ultra-violeta visível e
difração de raios-x. Os ensaios mostraram poder ter ocorrido limitação do teor de ouro no
preparo do monometálico e que o cobre precipitou na superfície, favorecendo a deposição
do ouro nos catalisadores bimetálicos; as propriedades texturais não foram alteradas; o
perfil de redução indicou a presença das espécies Cu2+ e Au3+; houve identificação da
ressonância de plasmon, característica normalmente atribuída a aglomeração de partículas;
não foi verificada a formação de fase cristalina de ouro, nem de cobre. O teste catalítico
mostrou um melhor desempenho dos catalisadores bimetálicos frente aos monometálicos,
os catalisadores contendo ouro alcançaram a conversão máxima em menores temperaturas
e a presença do cobre pode ter sido responsável pela seletividade para CO2.Este arquivo
apresenta a formatação a ser adotada na elaboração de artigos para submissão ao VII
Seminário Fluminense de Engenharia com vistas à publicação nos anais deste evento.
Palavras-Chave: Ouro. Cobre. Céria. Oxidação Seletiva de CO. Célula a Combustível.
1. INTRODUÇÃO
Os catalisadores de ouro foram durante muitos anos considerados de baixo
desempenho. Mas os avanços tecnológicos e nos métodos de preparo mostraram a
possibilidade do preparo de catalisadores de ouro formados por partículas nanométricas,
que apresentaram boa atividade catalítica em diversas reações e tem despertado elevado
interesse em função do seu custo ser inferior, se comparado com outros metais nobres,
como Pt e Pd.
A descoberta da atividade de catalisadores de ouro em reações heterogêneas de
oxidação a baixas temperaturas, tais como oxidação de CO e oxidação seletiva de propeno,
feita pelo grupo de catálise formado por Haruta e seus colegas (HARUTA et al, 1989;
HARUTA et al, 1993; HARUTA, 1997; HARUTA E DATÉ, 2001), motivaram um considerável
aumento de pesquisas reportando a atividade de catalisadores baseados em ouro. Os
catalisadores de ouro suportado têm apresentado elevado desempenho na oxidação de CO
em temperaturas muito mais baixas que os usuais catalisadores de platina e os bimetálicos
contendo estas duas espécies têm apresentado uma melhor estabilidade térmica (MIN E
FRIEND, 2007).
O aumento do consumo de combustíveis fósseis vem aumentando cada vez mais a
emissão de gases do efeito estufa, especialmente CO2. E estas emissões são responsáveis
pelo agravamento do efeito estufa que provoca um aumento na temperatura do planeta
trazendo grande desequilíbrio ao nosso ecossistema.
133
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
No intuito de minimizar esta emissão de CO2 dentre as tecnologias para geração de
energia as células a combustível estejam entre as fontes mais promissoras (CHOUDHARY
E GOODMAN, 2002).
A célula a combustível de membrana polimérica trocadora de prótons (PEMFC) é
considerada altamente interessante para sistemas móveis e estacionários devido a elevada
geração de energia em temperaturas relativamente baixas e a seu design compacto
(DUDFIELD et al., 2001). O combustível preferencial empregado nestas células é o H2 que
apresenta elevada reatividade no eletrodo e gera um produto de baixo impacto ambiental,
que é a H2O (LÖFFLER et al., 2003).
As correntes de H2 produzidas industrialmente pela reforma de hidrocarbonetos
formam também CO2, CO, e H2O. Apesar desta produção, o maior interesse ambiental está
na elevada eficiência de motores operando com células a combustível, quando comparado
com a queima de combustíveis, chegando até metade do consumo de energia
(PETTERSSON E WESTERHOLM, 2001).
O CO envenena o eletrodo de platina da célula a combustível e precisa ter seu teor
reduzido à aproximadamente 10 ppm (PETTERSSON E WESTERHOLM, 2001). A oxidação
seletiva catalítica tem se mostrado promissora na redução do teor de CO para o limite
estabelecido sem elevar o consumo de H2, além de apresentar baixo custo operacional
(HUANG et al., 2009).
Diversos autores vêm estudando a atividade de catalisadores de ouro sobre
diferentes suportes nesta reação, e a atividade dos catalisadores de cobre suportados em
céria já é conhecida na literatura há bastante tempo.
Pesquisas com Au/CeO2 (LUENGNARUEMITCHAI et al., 2004) e Cu/CeO2
(AVGOUROPOULOS et al., 2002) demonstraram conversões da ordem de 98%, que
sofreram queda com a presença de H2O e CO2, sendo estas menos intensas em Cu/CeO2.
O catalisador Au-Cu/Al2O3 também já foi investigado, de modo a identificar o efeito
da dispersão do Au no suporte, uma vez que Cu/Al2O3 não apresenta atividade na reação.
As pesquisas demonstraram uma diminuição na conversão, mas um aumento na
seletividade em baixas temperaturas. (MOZER at al., 2009)
O presente trabalho teve como objetivo estudar o preparo e o desempenho de
catalisadores bimetálicos de ouro-cobre na oxidação de CO. Os catalisadores preparados
foram caracterizados pelas técnicas de fluorescência de raios-X, fisissorção de N2, redução
a temperatura programada, espectroscopia com reflectância difusa no ultra-violeta visível e
difração de raios-X, além de testados na reação de oxidação seletiva de CO.
2. EXPERIMENTAL
2.1. PREPARAÇÃO DOS CATALISADORES
O suporte CeO2 foi obtido a partir da calcinação do (NH4)2Ce(NO3)6 (Merck) a 800°C
por 1 hora, com uma taxa de aquecimento de 5°C/min. Os catalisadores foram preparados
pelo método deposição-precipitação.
Para a deposição do ouro, foi usada uma solução do precursor HAuCl4 (Aldrich) que
teve o pH ajustado em 7 através da adição de NaOH.
Para o cobre foi empregada uma solução do precursor CuCl2.2H2O (Merck).
Para os catalisadores monometálicos, a solução do precursor foi adicionada à uma
suspensão contendo o suporte. Já nos catalisadores bimetálicos foi adicionado primeiro a
solução contendo ouro e imediatamente em seguida a solução contendo cobre.
Em todos os casos, a suspensão resultante teve seu pH mantido em 7 através da
adição de NaOH e permaneceu sob vigorosa agitação, por 2 horas.
134
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Passado este tempo, a suspensão foi filtrada a vácuo e lavada com água deionizada,
para remoção dos íons residuais, especialmente o cloreto. A secagem foi feita em mufla a
120°C por 16 horas. Todo o procedimento foi realiza do com baixa luminosidade e as
amostras não foram calcinadas, para evitar a aglomeração das partículas de ouro.
2.2. TESTES DE CARACTERIZAÇÃO
2.2.1. FLUORESCÊNCIA DE RAIOS-X E FISISSORÇÃO DE N2
As análises de fluorescência de raios-X (FRX) foram realizadas em um equipamento
Rigaku RIX 3100, equipado com um tubo de raios-X com alvo de ródio (Rh), potência de
4 kW e pressão de 13 Pa.
Para as análises de fisissorção de N2 foi utilizado um equipamento Micromeritics
ASAP 2020.
2.2.2. DIFRAÇÃO DE RAIOS-X
A difração de raios-X (DRX) foi feita num equipamento Rigaku - Miniflex, com
radiação CuKα (1,540 Å). Os difratogramas foram obtidos entre 2θ = 2° e 2 θ = 90°, usando
um passo de 0,05° e um tempo de contagem de 1 segun do por passo.
2.2.3. REDUÇÃO A TEMPERATURA PROGRAMADA
A redução à temperatura programada (TPR) foi realizada em uma unidade
multipropósito acoplada a um espectrômetro de massas Pfeiffer Vacuum – Prisma, com uma
massa de amostra de 0,5 g. A redução dos catalisadores foi realizada com uma mistura de
5%H2/Ar a uma taxa de aquecimento de 10°C/min, entre 25 e 1050°C.
2.2.4. ESPECTROSCOPIA COM REFLECTÂNCIA DIFUSA NO ULTRA-VIOLETA
VISÍVEL
As análises de espectroscopia com reflectância difusa no ultra-violeta visível (DRS
UV-Vis) foram realizadas a temperatura ambiente entre 200-800 nm, a 1800 nm/min, em um
espectrofotômetro VARIAN - Cary 500. Para que a contribuição do suporte fosse
diferenciada, os espectros de reflectância R(λ) da amostra foram divididos pela reflectância
do suporte, antes do cálculo da função “Kubelka-Munk”.
2.3. TESTE CATALÍTICO
Os testes de oxidação seletiva de monóxido de carbono foram realizados em uma
unidade acoplada a um cromatógrafo gasoso Varian CP-3800 equipado com uma coluna de
separação SUPELCO CARBOXEN 1010 PLOT 30 m x 0,53 mm, um metanador, um
detector de condutividade térmica (TCD) e um detector de ionização em chama (FID).
A massa de catalisador utilizada foi de 200 mg, numa faixa de temperatura de 0300°C em 100 mL/min de uma mistura reacional conten do 30% H2, 1% CO, 1% O2 e He
para balanço. E para identificar o efeito da presença H2O e CO2, incorporou-se 10% de H2O
e 20% de CO2 a mistura anterior.
3. RESULTADOS E DISCUSSÃO
3.1. FLUORESCÊNCIA DE RAIOS-X E FISISSORÇÃO DE N2
Segundos os resultados listados na Tabela 1, as análises de fisissorção de N2
indicaram que o procedimento adotado no preparo dos catalisadores não provocou
alterações significativas nas propriedades texturais do suporte.
135
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Já os resultados de fluorescência de raios-X demonstraram haver uma limitação no
teor de ouro depositado no catalisador Au/CeO2, que alcançou 1,4%. Segundo alguns
estudos (SOUZA et al., 2008), o teor obtido pelo método deposição-precipitação está
vinculado ao pH adotado no método de preparação e o mesmo deve ter ocorrido neste caso.
Acredita-se não ter sido percebido este efeito nos catalisadores bimetálicos devido à
interação cobre-ouro, que favoreceu a deposição de ouro.
Tabela 1. Resultados de fluorescência de raios-X e fisissorção de N2.
Teor Nominal
Au (%)
Cu (%)
Teor Real
Au (%)
Cu (%)
Área BET
2
(m /g)
Volume de poros
-3
3
x10 (cm /g)
Tamanho de poros
(Å)
0
0
0
0
11
29
103
0
1,5
0
1,4
13
34
109
2,5
0
1,4
0
10
27
101
2,5
1,0
2,2
0,8
11
25
98
2,5
1,5
2,5
1,4
13
34
104
2,5
4,0
2,5
3,7
12
28
100
3.2. DIFRAÇÃO DE RAIOS-X
Através dos resultados do teste de difração de raios-X, exibidos na figura 1, não foi
constatada a presença de fase cristalina de ouro, nem de cobre nas amostras, tendo sido
percebido claramente a fase cristalina de céria.
A impossibilidade de perceber formação de fase cristalina pode ter ocorrido pelo
baixo teor de metal, ficando abaixo do limite de detecção (BAE at al., 2005) ou ainda pela
formação de óxidos amorfos, seja devido ao pH adotado no preparo (WANG et al., 2007),
seja pela ausência de calcinação (SCIRÈ et al., 2008).
Em todos os casos foram verificados os picos da CeO2 em 28,68°, 33,10°, 47,44°,
56,44°, 59,02°, 69,40°, 76,71°, 79,00° e 89,00°, re presentativos das formas (111), (200),
(220), (311), (222), (400), (331), (420) e (333), respectivamente (FUENTES et al, 2008).
Figura 1. Difratograma dos catalisadores e do suporte.
3.3 REDUÇÃO A TEMPERATURA PROGRAMADA
O perfil de redução do suporte e dos catalisadores monometálicos apresentado na
figura 2 exibiu para o suporte consumo de H2 a 520°C e 1000 °C que podem ser atribuídos à
redução do óxido de cério superficial e do mássico (SANTOS, 2009).
136
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Para o catalisador 1,4%Cu/CeO2 verificaram-se quatro bandas de consumo de H2. O
pico a 210°C corresponde à redução do Cu 2+ a Cu+, enquanto o pico a 260°C a redução do
Cu+ a Cu0 (JUNG et al., 2004). O pico a 400°C corresponde ao óxido superficial de cério
cuja redução foi catalisada para menores temperaturas (FUENTES et al, 2008) e por fim um
a 1000°C correspondendo a céria mássica.
O catalisador 1,4%Au/CeO2 apresentou consumo de hidrogênio a 110°C, 300°C e a
1000°C, sendo a temperatura de 110°C atribuída à re dução do óxido Au2O3 (NERI et al.,
1999). Na temperatura de 300°C ocorreu a redução do óxido de céria superficial, indicando
que a presença de ouro fragiliza a ligação do oxigênio com a céria, melhorando a
redutibilidade do catalisador e a 1000°C correspond endo a céria mássica.
Figura 2. TPR do suporte e catalisadores monometálicos.
O perfil de redução dos catalisadores bimetálicos, ilustrados pela figura 3, exibiu
características similares com duas bandas de consumo de hidrogênio a 175°C e a 225°C,
devido à redução dos óxidos de ouro e cobre, outra em 325-350°C referente ao óxido de
cério superficial (com exceção do 2,5%Au-1,4%Cu/CeO2) e a 1000°C da redução da céria
mássica. No caso do catalisador 2,5%Au-1,4%Cu/CeO2 não foi possível constatar a banda
referente ao óxido de cério superficial, que possivelmente ocorreu simultaneamente à
redução dos precursores da fase ativa.
Figura 3. TPR dos catalisadores bimetálicos.
3.4. ESPECTROSCOPIA COM REFLECTÂNCIA DIFUSA NO ULTRA-VIOLETA
VISÍVEL
137
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Os espectros de DRS UV-Vis dos catalisadores monometálicos apresentados na
figura 4 exibiram para o catalisador 1,4%Cu/CeO2 bandas a 360nm correspondente a
“clusters” de (Cu-O-Cu)2+ altamente dispersos, a 450nm devido a Cu1+ formado pela redução
parcial de Cu2+ e entre 600-800nm devido a transições d-d da espécie Cu2+ coordenado
octaedricamente (PILLAI E DEEVI, 2006).
Figura 4. DRS UV-Vis dos catalisadores.
Enquanto para o catalisador 1,4%Au/CeO2, o espectro de DRS exibiu uma banda a
370nm referente a transferência de carga de Au3+ e Au+ com ligantes ou a transição de
elétrons entre orbitais moleculares de “clusters” (Aun, n<10) e banda a 580nm atribuída à
ressonância de plasmon de Au metálico, descrita como um conjunto de elétrons de
condução em resposta a uma excitação ótica (CHEN E GAO, 2008).
Para os catalisadores bimetálicos, percebeu-se que os efeitos se combinaram,
tornando-se difícil diferenciar as bandas do cobre e do ouro. Cabendo destacar, neste caso,
o aparecimento de uma banda a 270 nm não percebida nos monometálicos e que segundo
a literatura corresponde à transferência de carga Cu2+ ← O2- (MOZER et al., 2009).
3.5. OXIDAÇÃO SELETIVA DE CO
O teste catalítico apresentado na figuras 5 exibiu baixa conversão de CO para o
suporte, cuja atividade foi desprezível. Todos os catalisadores atingiram conversão de CO
acima de 94% na faixa de temperatura estudada.
Em baixas temperaturas, as seletividades foram muitas elevadas, mas as
conversões foram baixas. As seletividades dos catalisadores bimetálicos foram próximas à
apresentada pelo catalisador monometálico de cobre e o catalisador monometálico de ouro
apresentou o pior resultado de conversão (94%) e de seletividade (54%), indicando a forte
influência do cobre na reação, especialmente sobre a seletividade para CO2. Esta presença,
no entanto, provocou um aumento da temperatura necessária para alcançar os valores
máximos de conversão. Isto é, os catalisadores contendo ouro apresentaram suas
conversões máximas em temperaturas inferiores à do catalisador contendo cobre.
138
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Figura 5. (a) conversão de CO, (b) conversão de O2 e (c) seletividade para CO2 na oxidação seletiva
de CO. Mistura reacional: 30% H2; 1,0% O2; 1,0% CO; He para balanço. Vazão total: 100 mL/min;
200 mg de catalisador.
4. CONCLUSÕES
Os catalisadores foram preparados pelo método deposição-precipitação. Verificou-se
a possibilidade de haver um limite máximo para o teor de Au depositado pelas condições
adotadas, mas devido à interação Cu-Au houve o favorecimento da deposição de Au nos
catalisadores bimetálicos. A analise de DRS UV-Vis exibiu uma banda de ressonância de
plasmon no espectro, indicando a possibilidade de as partículas não terem ficado tão
finamente divididas quanto desejado. Esta suposição, só poderia ser confirmada mediante
uma análise de microscopia eletrônica de transmissão que não dispomos no momento. No
catalisador de cobre, foi percebida a presença de espécie Cu2+ e Cu+ pelo resultado de TPR
e de DRS UV-Vis, tendo este último mostrado ainda a presença de pequenos aglomerados
de cobre. Não foi constatado, através do DRX, a formação de estruturas cristalinas nos
catalisadores preparados, que se deve ao baixo teor, bem como a ausência de calcinação.
Todos os catalisadores preparados foram ativos para a reação de oxidação de CO,
alcançando valores altos de conversão de CO e tendo a seletividade sido afetada
principalmente pela presença de Cu.
Os catalisadores bimetálicos apresentaram um pequeno aumento da conversão, mas
não na seletividade, indicando que o ouro não é o principal responsável pela seletividade. E
o catalisador 2,5%Au-3,7%Cu/CeO2 apresentou uma pequena diminuição frente aos demais
catalisadores bimetálicos, pelo excesso de cobre ter bloqueado os sítios de ouro.
139
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
5. REFERÊNCIAS
AVGOUROPOULOS, G., el al. (2002). A comparative study of Pt/γ-Al2O3, Au/α-Fe2O3 and
CuO-CeO2 catalyst for the selective oxidation of carbon monoxide in excess hydrogen.
Catalysis Today. n. 75, p. 157-167.
BAE, C. M., KO, J. B. e KIM, D. H. (2005). Selective catalytic oxidation of carbon monoxide
with carbon dioxide, water vapor and excess hydrogen on CuO-CeO2 mixed oxide
catalysts. Catalysis Communications. n. 6, p. 507-511.
CHEN, Z. e GAO, Q. (2008). Enhanced carbon monoxide oxidation activity over gold-ceria
nanocomposites. Applied Catalysis B: Environmental. n. 84, p. 790-796.
CHOUDHARY, T. V. e GOODMAN D. W. (2002). CO-free fuel processing for fuel cell
applications. Catalysis Today. n. 77, p. 65-78.
DUDFIELD, C. D., CHEN, R. e ADCOCK, P. L. (2001). A carbon monoxide PROX reactor for
PEM fuel cell automotive application. International Journal of Hydrogen Energy. n. 26, p.
763-775.
FUENTES, R. O., et al. (2008). Formation and Structural Properties of Ce-Zr Mixed Oxide
Nanotubes. Chemistry of Materials. n. 20, p. 7356-7363.
HARUTA, M., et al. (1989). Gold catalysts prepared by coprecipitation for low-temperature
oxidation of hydrogen and of carbon monoxide. Journal of Catalysis. n. 115, p. 301-309.
HARUTA, M., et al. (1993). Low-Temperature Oxidation of CO over Gold Supported on TiO2,
α-Fe2O3, and Co3O4. Journal of Catalysis. n. 144, p. 175-192.
HARUTA, M., et al. (1997). Size- and support-dependency in the catalysis of gold. Catalysis
Today. n. 36, p. 153-166.
HARUTA, M. e DATÉ, M. (2001). Advances in the catalysis of Au nanoparticles. Applied
Catalysis A: General. n. 222, p. 427-436.
HUANG, A., et al. (2009). Preferential oxidation of carbon monoxide in excess hydrogen over
platinum catalysts supported on different-pore-sized mesoporous silica. Applied
Catalysis A: General. n. 365, p. 268-273.
JUNG, C. R., et al. (2004). Selective oxidation of CO over CuO-CeO2 catalyst: effect of
calcinations temperature. Catalysis Today. n. 93-95, p. 183-190.
LÖFFLER, D. G., TAYLOR, K. e MASON, D. (2003). A light hidrocarbon fuel processor
producing high-purity hydrogen. Journal of Power Sources. n. 117, p. 84-91.
LUENGNARUEMITCHAI, A., OSUWAN, S., GULARI, E. (2004). Selective catalytic oxidation
of CO in the presence of H2 over gold catalyst. International Journal of Hydrogen
Energy. n. 29, p. 429-435, 2004.
MIN, B. K. e FRIEND, C. M. (2007). Heterogeneous Gold-Based Catalysis for Green
Chemistry: Low-Temperature CO Oxidation and Propene Oxidation. Chemical Reviews.
n. 107, p. 2709-2724.
MOZER, T. S., et al. (2009). The effect of copper on the selective carbon monoxide oxidation
over alumina supported gold catalysts.Journal of Power Sources. n. 187, p. 209-215.
NERI, G., et al. (1999). Au/iron oxide catalysts: temperature programmed reduction and Xray diffraction characterization. Thermochimica Acta. n. 329, p. 39-46.
PETTERSSON, L. J. e WESTERHOLM, R. (2001). State of the art of multi-fuel reformers for
fuel cell vehicles: problem identification and research needs. International Journal of
Hydrogen Energy. n. 26, p. 243-264.
PILLAI, U. R. e DEEVI, S. (2006). Highly active gold-ceria catalyst for the room temperature
oxidation of carbon monoxide. Applied Catalysis A: General. n. 299, p. 266-273, 2006.
140
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
SANTOS, D. C. R. M. (2009). Efeito da adição de Y2O3 e CeO2 ao catalisador Ni/α-Al2O3 na
reação de reforma autotérmica do metano. Tese de Doutorado. Universidade Federal
Fluminense, Niterói.
SCIRÈ, S., et al. (2008). Selective oxidation of CO in H2-rich stream over gold/iron oxide: An
insight on the effect of catalyst pretreatment. Journal of Molecular Catalysis A: Chemical.
n. 284, p. 24-32.
SOUZA, K. R., et al. (2008). Preparing Au/ZnO by precipitation-deposition technique. Applied
Catalysis A: General. Applied Catalysis A: General. n. 340, p. 133-139.
WANG, S.-P., et al. (2007). Synthesis characterization and catalytic activity of Au/Ce0,8Zr0,2O2
catalysts for CO oxidation. Journal of Molecular Catalysis A: Chemical. n. 272, p. 45-52.
141
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Energia limpa: a energia solar no aquecimento de água
1
1
2
1
João Carlos Curty Alves, Fernando B. Mainier, Reinaldo C. de Souza, Henrique Henriques.
1
Escola de Engenharia - Universidade Federal Fluminense (UFF) - Niterói, RJ, Brasil,
2
Pontifícia Universidade Católica – Rio de Janeiro, RJ, Brasil
Email dos autores
[email protected]
[email protected]
[email protected]
[email protected]
RESUMO
Este artigo apresenta o resultado de pesquisa no Curso de Mestrado Profissionalizante da
UFF – Universidade Federal Fluminense, analisando sistemas para aquecimento de água
por energia solar com discussão dos conceitos de Eficiência Energética, discutindo a
questão do Meio Ambiente e a viabilidade econômica da substituição dos chuveiros elétricos
por sistemas solares em unidades da classe residencial.
As práticas de investimentos em Eficiência Energética devem constituir uma política
abrangente preocupada com a preservação do Ecossistema, atrelado às questões do
sistema elétrico e com a Matriz Energética.
Avalia a possibilidade de retirar cargas no horário de ponta do sistema elétrico e sua
contribuição para o Meio Ambiente, questionando a necessidade da maior participação do
governo nesse tipo de projeto, tanto no que diz respeito aos investimentos quanto à
conscientização da população.
Palavras-Chave: Meio Ambiente – Energia Elétrica –– Eficiência Energética – Energia Solar;
1. INTRODUÇÃO
Cada vez mais o ser humano depende da energia elétrica, pois ao mesmo tempo em
que evolui o padrão de vida da humanidade, existe expressivo crescimento na oferta de
bens que detêm a capacidade de “melhorar” sua condição de vida mas que implica no
aumento da demanda de energia elétrica, qualquer que seja sua fonte de geração.
Após diversas crises energéticas e sérios problemas de impactos ambientais, a
comunidade científica concluiu pela necessidade da geração de energia de forma distribuída
e valorizou as fontes alternativas, conhecidas como energias limpas, em contraponto à visão
reinante, até finais do século XX, do foco em grandes usinas geradoras, com produção
centralizada, e grandes linhas de transmissão para transporte em corrente alternada, num
conjunto de ações agressoras ao meio ambiente.
O crescimento de Produto Interno Bruto (PIB) e o crescimento do consumo de
energia elétrica caminham associados, pois se estima que, para cada ponto percentual de
crescimento do PIB, o país precisa aumentar a produção de energia em 3%, já que
crescimento econômico compreende maior quantidade de produtos e serviços, demandando
maior potência elétrica disponível. Ressalte-se que, quando há crescimento econômico,
depois do aumento do consumo de alimentos, um dos primeiros segmentos que mais
crescem é o de bens duráveis, representados pelos eletroeletrônicos, os quais, via de regra,
fazem com que cresça o consumo de energia.
Particularizando o problema para o setor elétrico brasileiro, observa-se a sua
inserção numa conjuntura energética global complexa onde, muito provavelmente, haverá
142
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
períodos de grandes incertezas. O momento atual é particularmente instigante, pois
apresenta dois desafios de grande ineditismo e extrema gravidade (D’ARAUJO, 2009):
•
Dúvidas quanto ao horizonte de duração das reservas mundiais de petróleo.
•
Alterações ambientais em escala planetária.
A política de conservação de energia, a busca da energia limpa e o aumento da
eficiência energética, até agora pensados marginalmente, precisam fazer parte das políticas
públicas analisada sob o paradigma da eficiência energética e preservação dos recursos
naturais. É necessário reduzir a demanda de potência no horário de ponta do sistema
elétrico, determinada fortemente pela carga dos chuveiros elétricos, com utilização do
Sistema para Aquecimento de Água por Energia Solar.
2. A ENERGIA ELÉTRICA E O MEIO AMBIENTE
Em função dos recentes desastres ambientais ocorridos no Japão, aumenta a
pressão de organismos ambientalistas contrariamente à permanência das Usinas
Termonucleares, e a Europa movimenta-se no sentido de desativar usinas atômicas.
Entretanto, dado o nível de dependência deste tipo de geração de energia, interromper a
operação destas unidades não se faz factível em curto prazo, requerendo-se a busca de
alternativas consistentes e duráveis a esta fonte energética.
Segundo Capra (2005), as alternativas mais desejáveis para o meio ambiente estão
ainda num patamar distante daquilo que se imagina como ideal ou, se já descobertas, estão
escondidas e proibidas de serem reveladas, face ao desequilíbrio que causariam na
indústria mundial, principalmente a do petróleo e a automobilística. Contudo, segundo ele, o
futuro da energia está calcado principalmente na extração do hidrogênio da molécula da
água e a utilização desse gás como combustível, tecnologia absolutamente limpa, visto que
sua combustão gera água.
Abordando as questões do hidrogênio, Fritjof Capra (2005) chama a atenção para o
fato de que as células de combustível são caras e sua obtenção ainda não é fácil mas que o
volume de produção, necessário, para fazer baixar os preços, virá do uso dessas células em
edifícios, supondo que, enquanto não for possível um sistema de entrega residencial de
hidrogênio, um processador de combustível extrairá o hidrogênio do gás natural e as redes
de gás existentes estarão fornecendo também eletricidade.
Segundo cálculos de Lovins & Lovins (2001), a eletricidade gerada por essas células
de combustível concorrerá facilmente com a gerada pelas usinas de carvão e nucleares,
pois não somente terá um preço menor, como também economizará nos custos de
transporte de eletricidade por longas linhas de transmissão, caracterizando-se desta forma
em geração descentralizada, ou seja, produzida no próprio ponto de consumo.
3. CONSERVAÇÃO DE ENERGIA
Conservar energia é explorar os recursos naturais de forma racional, combatendo o
desperdício, para assegurar a produção menos onerosa e mais limpa, com o objetivo de
atenuar agressões ao ambiente. O processo de conservação de energia é a tradução do
que se conhece como eficiência energética e consiste na aplicação de técnicas e recursos
que permitam a obtenção de um mesmo serviço, resultado ou conforto, com menor
dispêndio de energia. Estas ações consistem do que se chama usina virtual, porque a
energia conservada permite gerar e transportar menores montantes de energia elétrica,
contribuindo para a preservação do ambiente (LORA; TEIXEIRA, 2006).
Estudo da Empresa de Pesquisas Energéticas (EPE), intitulado “Consumo Final e
Conservação de Energia Elétrica, baseado nas séries de informações do Boletim Energético
Nacional (BEN), no período de 1970 a 2010, retrata evolução do consumo de energia
elétrica no Brasil de 39,7 TWh, em 1970, para 420 TWh em 2010, crescendo a uma taxa
143
VII Seminário Fluminense de Engenharia Niterói-RJ 19
9 de outubro de 2011
média de 6,7% ao ano, sendo o chuveiro elétrico responsável por 26% do consumo de
energia na classe residencial (ELETROBRAS/PROCEL, 2007).
Cabe
abe ao homem deste século, entender o desenvolvimento e as vantagens da
d
preservação do Meio Ambiente, com estratégias de sustentáveis na utilização racional das
fontes primárias de energia,
energia através da eficiência energética. Necessário valorizar as
energias limpas como a eólica, a fotovoltaica e no futuro a célula combustível, considerando
no Planejamento do Sistema Elétrico o aproveitamento da Energia Solar, para aquecimento
de água e retirada da carga dos chuveiros elétricos (MARTON; CAMPOS, 2003).
4. PARTICIPAÇÃO
ICIPAÇÃO DO CHUVEIRO NO CONSUMO DE ENERGIA
A ELÉTRICA
No ano de 2007, foi elaborada pesquisa pela ELETROBRAS/PROCEL, para
avaliação do Mercado de Eficiência Energética no Brasil e o resultado trouxe informações
importantes, na
a utilização do aquecimento de água
ág
e ficou
icou demonstrado que 97,7% dos
domicílios da região Sudeste aquecem a água do banho (PROCEL/ELETROBRAS, 2007).
No gráfico da Figura 1, é apresentada
apresentad a participação percentual do consumo final
dos equipamentos dentro da carga residencial,
residencial realçando os eletrodomésticos mais
presentes no consumo médio domiciliar onde o chuveiro elétrico é responsável por 26% da
energia consumida nas residências (PROCEL/ELETROBRAS, 2007).
Figura 2 – Uso Final de Energia Elétrica no Setor Residencial – Região Sudeste.
Aparecem ainda dentro da mesma pesquisa, informações importantes
importante como:
•
O percentual das fontes utilizadas no aquecimento de água para banho,
aparecendo a eletricidade próximo de 92% e a energia solar com menos de 1%.
•
É predominante a existência de chuveiros elétricos
residenciais, com pelo menos um chuveiro em 91% das residências.
5. PROJETO AQUECIMENTO
AQUECIMENTO
IMPLEMENTADO
DE
ÁGUA
POR
em
domicílios
ENERG
ENERGIA
SOLAR
Como resultado prático da implantação de um Projeto de Aquecimento de Água por
Energia Solar em substituição a chuveiros elétricos, retrata-se
retrata se um investimento da
d Ampla
Energia e Serviços S/A, em pequeno Hospital da sua Área de Concessão, no Programa de
Eficiência Energética e por
or Normas
Normas Internas da Empresa, o nome e localização da unidade
consumidora não podem ser divulgados. Pretende-se
se ressaltar a importância da medição
das grandezas elétricas e apuração dos ganhos energéticos trazidos pelo Projeto.
A estratégia das
as medições foi de
de avaliar o comportamento das cargas, previamente à
implementação do projeto e após, avaliando requisitos de energia e potência elétrica nestes
dois momentos. As medições foram repetidas em 3 semanas distintas, enquanto 9 chuveiros
de 4,5 kW cada estavam em
m operação com nova medição, após instalaçã
ção do Sistema para
Aquecimento de Água por Energia Solar,
Solar envolvendo todas as cargas a ele relacionadas
144
VII Seminário Fluminense de Engenharia Niterói-RJ 19
9 de outubro de 2011
como moto-bombas,
bombas, quadros de comando e resistências de suporte e apoio para
aquecimento da água em caso da falta
fal de sol.
5.1 MEDIÇÕES - CHUVEIROS ELÉTRICOS INSTALADOS
As medições foram realizadas com medidores SAGA 1.000, providos de software
que processa o registro de Demanda e os armazena em memória de massa. Os registros
apresentados retratam a integralização dos valores de demanda em intervalos de 15
minutos, cuja informação foi a base para o cálculo da energia consumida em kWh, nestes
intervalos, totalizada para cada período de hora e nas 24 horas do dia. As medições
preliminares à implementação do Projeto ocorreram
ocorreram nas semanas de 22 a 28/02/2010, de 08
a 14/03/2010 e de 22 a 28/03/2010.
5.2 TABULAÇÃO DE LEITURAS E GRÁFICOS DE MEDIÇÃO
Por meio das Figuras 4 e 5, apresenta-se
apresenta se resultados de medições de demanda de
potência em kW e do consumo de energia em kWh, apurados
apurados nas avaliações realizadas nos
circuitos que supriam a carga dos chuveiros elétricos, previamente à instalação do Sistema
para Aquecimento de Água por Energia Solar. As medições foram instaladas de forma que
os medidores registrassem tão somente a carga
carga requerida pelos chuveiros, com o cuidado
de que os resultados não fossem contaminados com outras cargas, a exemplo de tomadas
ou de iluminação.
Figura 3 – Demandas Máximas – 3 semanas de avaliação.
Figura 4 - Consumo Diário de Energia - 3 semanas de avaliação.
Medições posteriores à implantação do Sistema para Aquecimento de Água por
Energia Solar - Período de 17 a 24/04/2010:
145
VII Seminário Fluminense de Engenharia Niterói-RJ 19
9 de outubro de 2011
Comparando-se
se as medições, pré e pós-implementação
pós
das medidas
edidas de Eficiência
Energética, pode-se
se observar que os montantes de demanda de potência (kW) e energia
elétrica (kWh), requisitados pelo novo sistema para aquecimento de água, são
significativamente menores. As
A potências dos motores são pequenas (1/4 a 1/3
1 de HP),
assim como as resistências de apoio dos boilers.
As variações apresentadas
presentadas na curva de demanda,
demanda, demonstradas na Figura 6,
retratam os níveis de utilização do Sistema para Aquecimento
Aquecimento de Água por Energia Solar,
Solar
mostrando também os momentos em que foi acionado para consumo de água quente,
quente
mostrando a operação das
as bombas de circulação forçada e de prumada. Com relação ao
consumo de energia, também houve redução. Os valores são significativamente menores,
pois as cargas são pequenas, até porque, nesse período, não ocorreu entrada da
resistência de apoio.
Registros de Demanda - kW
Demandas Máximas - Sistema com Energia Solar
2
1,5
1
0,5
Sábado
Domingo Segunda
Terça
Quarta
Quinta
Sexta
Sábado
Período de Avaliação
Figura 5 - Demandas Máximas – Sistema com Energia Solar.
Figura 6 - Consumo Diário de Energia – Sistema com Energia Solar.
6. CONCLUSÃO
• A utilização de chuveiros elétricos traz efeitos maléficos para o sistema elétrico, É
uma carga que entra no horário da ponta, exigindo um sistema superdimensionado para
pequeno período de consumo.
• Os sistemas para aquecimento de água por energia solar reduzem
red
o valor das
faturas de energia elétrica e desoneram
desonera o sistema dos requisitos de demanda de potência.
146
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
• Os sistemas para aquecimento de água por energia solar desempenham o papel
de Usina Geradora virtual de energia, permitindo que a fonte energética, destinada a
produzir o calor para aquecer a água, venha da natureza.
• Além dos ganhos ambientais, o projeto possibilitou redução do valor da conta de
energia elétrica sendo possível a revisão do Contrato de Demanda junto à Empresa
Distribuidora de Energia Elétrica.
• Trouxe ganhos para a Concessionária, porque a unidade passou a operar com
melhor fator de carga, com a demanda média aproximando-se da demanda máxima.
REFERÊNCIAS
CAPRA, F. As Conexões Ocultas: ciência para uma vida sustentável. Tradução Marcelo Brandão
Cipolla. São Paulo: Cultrix, 2005.
D’ARAUJO, R. P. O Setor Elétrico Brasileiro – uma aventura mercantil. Brasília: CONFEA, 2009.
EMPRESA DE PESQUISA ELÉTRICA. EPE. A questão socioambiental no planejamento da
expansão da oferta de energia elétrica. Rio de Janeiro: EPE, 2006.
LORA, E. S.; TEIXEIRA, F. N. Conservação de Energia Eficiência Energética de Equipamentos e
Instalações. Universidade Federal de Itajubá. Eletrobras/ PROCEL, 2006.
LOVINS, A.; LOVINS H. RMI Solutions. Official Report Informative of Rocky Mountain Institute, 2001.
MARTON M; CAMPOS C. Aquecimento de água por Energia Solar. Relatório Final de Instrumentação
para o Ensino. UNICAMP; 2003.
INSTITUTO BRASILEIRO DE GEOGRAFIA E ESTATÍSTICA – IBGE. Contagem da População, 1996.
Rio de Janeiro: IBGE, 1997, v.1: Resultados relativos a Sexo da População e Situação da
Unidade Domiciliar, p. 23, tabela 6.
PROGRAMA NACIONAL DE CONSERVAÇÃO DE ENERGIA ELÉTRICA. PROCEL/ELETROBRAS.
Relatório - Pesquisa de posse de Equipamentos e Hábitos de Uso: Região Sudeste - Ano Base
2005/2007 - Classe Residencial
147
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Engenharia química e mercado de trabalho: percepções
discentes
1
2
3
Vicentina Lúcia da S. Cardoso, Fernando B. Mainier, Rosenir R. C. M. da Silva
1, 2, 3
Escola de Engenharia - Universidade Federal Fluminense (UFF)
Niterói, RJ, Brasil
1
2
3
[email protected], [email protected], [email protected]
RESUMO
A universidade tem a responsabilidade social de gerar e disseminar conhecimento e novas
tecnologias de forma a estimular a formação de profissionais qualificados e aptos a enfrentar
o desafio de ingressar, com sucesso, num mercado de trabalho cada vez mais exigente.
Nesse aspecto, a integração universidade/mercado de trabalho é fundamental. Na busca
dessa integração o presente estudo tem o propósito de analisar e destacar,
comparativamente, indicadores que permitam avaliar a expectativa e a percepção discente
sobre o impacto do curso de graduação em Engenharia Química no perfil profissional. O
estudo, primeiramente, aborda a problemática do ensino de engenharia no que tange a
necessidade de sua constante adequação, tendo em vista a incorporação de métodos
oriundos dos avanços tecnológicos e ao atendimento dos interesses do mercado. A seguir,
tomando por base o primeiro semestre de 2011, foi desenvolvida a pesquisa empírica e a
análise dos dados, a partir da aplicação de questionário envolvendo alunos ingressantes e
concluintes. Os resultados indicaram que ambos os grupos apresentaram uma expectativa
positiva sobre a influência do curso na sua formação profissional. As maiores discordâncias
apresentadas ocorreram nos critérios relacionados ao desenvolvimento do perfil
empreendedor e pesquisador, sugerindo que o estudo avalie futuramente o grau de
importância desses critérios, para o referido curso.
Palavras-chave: Percepção. Discentes. Engenharia química. Mercado de trabalho.
1. INTRODUÇÃO
Segundo especialistas da área, a economia brasileira tem dado sinal de crescimento
pautado em base mais sólida. A taxa de crescimento econômico mais elevada tem relação
direta com um maior número de profissionais especializados e com a demanda da
população por educação superior, cujo diploma universitário passa a ser símbolo de status,
de oportunidade de emprego e de vida melhor. Historicamente, tem-se conhecimento da
importância vital da engenharia para o desenvolvimento do Brasil. As atividades
profissionais dos engenheiros, nos diversos ramos de atuação, tem propiciado a melhoria
das condições de vida da população.
Nas últimas décadas, o avanço tecnológico afetou diretamente o profissional de
engenharia que deve ser preparado para aplicar os conhecimentos científicos para o bemestar da sociedade, com qualidade e custos apropriados (LONGO, 2001).
Hoje, quando se retoma a consciência nacional da necessidade de investir no
crescimento, evidenciada pelos programas do governo federal, tais como, o Programa de
Aceleração do Crescimento (PAC), de estratégias para zerar o déficit da habitação, o REUNI
– Programa de Apoio a Planos de Reestruturação e Expansão das Universidades Federais,
o investimento na infraestrutura para a realização da Copa do Mundo em 2014, as
Olimpíadas de 2016 e a exploração do petróleo na camada do pré-sal, é preciso reconhecer
o valor da contribuição da engenharia ao desenvolver projetos que ajudam a superar as
148
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
dificuldades que possam impedir o surgimento de novos investimentos. A engenharia está
relacionada a tudo o que se constrói neste País.
O desenvolvimento de um país perpassa pela engenharia e, a valorização dos seus
profissionais deve passar pela excelência de sua formação. Dessa forma, o presente
trabalho busca mapear as percepções do impacto do curso de graduação em Engenharia
Química oferecido pela Universidade Federal Fluminense no desempenho profissional dos
seus alunos, com o objetivo de contribuir com subsídios para ações que visem à elevação
da qualidade do curso oferecido.
2. REVISÃO BIBILOGRÁFICA
“Um país para se desenvolver necessita de engenheiros”. Enquanto, por um lado,
existe uma efetiva preocupação do Ministério da Educação (MEC) e das universidades com
a formação acadêmica de seu corpo docente, exigindo como pré requisito o grau de mestre
ou doutor para ministrar aulas na graduação, por outro, esse cuidado não é observado
quando se trata de sua formação profissional, desvinculada da obrigatoriedade de possuir
experiência em obras e projetos. Acrescenta-se, ainda, que esse descompasso do ensino
da Engenharia com o mercado de trabalho no Brasil teve um aumento significativo com os
avanços da ciência e de tecnologia, fazendo com que muitas empresas tenham dificuldades
de contratar os recém-formados por não preencherem os requisitos necessários à função.
(BOGOSSIAN, 2010)3.
A deficiência do sistema educativo tem colocado no mercado muitos profissionais
sem habilidades e conhecimentos necessários para formular soluções criativas para os
problemas que surgem no dia-a-dia, logo, o ensino de engenharia precisa ser reavaliado
para corrigir estas carências (APARÍCIO e RUIZ-TERAN, 2007).
As escolas de ensino médio, por sua vez, também precisam estar em sintonia com
as universidades para preparar melhor os alunos para a demanda tecnológica universitária.
Por outro lado, as universidades precisam de apoio para oferecer aos alunos que chegam
ao ensino superior, com um baixo nível de conhecimento tecnológico, uma estrutura
favorável ao seu nivelamento (FILHO et al., 1991).
O ensino tradicional das engenharias precisa passar por mudanças em seu processo
incorporando ao seu ensino a cultura de formação continuada, paralela à prática
profissional. De fato, o engenheiro precisa se atualizar nas áreas da profissão na qual ele
está atuando e se desenvolvendo, sob a pena de ser excluído do mercado de trabalho em
curto prazo. A informática e o desenvolvimento das novas tecnologias são fundamentais
nesse processo de busca constante de conhecimento (SILVA e CECÍLIO, 2007).
A discussão sobre como melhorar a educação de engenharia não se resume na
questão de se eliminar as metodologias da educação tradicional, mas complementá-las com
as metodologias inovadoras, a fim de tornar o profissional cada vez mais capacitado para
enfrentar os desafios do mundo globalizado (APARICIO e RUIZ-TERAN, 2007).
Na medida em que não há o acompanhamento dos egressos de forma sistemática e
consolidada, fica difícil avaliar se as Instituições de Ensino Superior estão cumprindo bem o
seu papel de preparar o aluno para a realidade profissional. Esse monitoramento e a
integração das empresas com as escolas são fundamentais para alavancar a qualidade do
ensino (LOUSADA e MARTINS, 2003).
Atualmente, não se admite que o profissional tenha apenas habilidades manuais
aliadas ao saber fazer; é necessário que sejam agregadas novas competências
relacionadas à inovação, ao trabalho em equipe, à criatividade e à autonomia na tomada de
decisões (SAMPAIO e GUIMARÃES, 2009).
3
Discurso feito por Francis Bogossian, presidente da Associação das Empresas de Engenharia - RJ,
em 2010, In; XXXVIII Congresso Brasileiro de Educação em Engenharia. COBENGE, Fortaleza,CE.
149
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Hoje, faz-se necessário que o profissional tenha a capacidade de atuar em vários
ramos dentro de sua especialidade profissional. Atributos como a capacidade de trabalhar
em equipe, de se comunicar bem, de gerir e resolver conflitos passam a ser uma exigência
do mercado e consequentemente um fator de empregabilidade (SILVA e CECÍLIO, 2007).
Estas constatações levam a refletir sobre o que é ensinado e o que é fundamental
para que o futuro profissional tenha as habilidades e o conhecimento necessários para se
manter no mercado de trabalho, na área de formação.
É, pois, imprescindível saber o que os egressos pensam a respeito da formação
recebida para que as mudanças necessárias sejam realizadas, periodicamente, no sistema
de ensino ofertado (LOUSADA e MARTINS, 2003).
Especificamente, em relação ao curso de engenharia química, nota-se uma demanda
crescente, motivada principalmente pela futura instalação do novo Complexo Petroquímico
em Itaboraí, no Rio de Janeiro, e pelo aumento expressivo da produção de petróleo no
Brasil, a principal matéria-prima para a indústria química. Altos investimentos vêm sendo
realizados no país para projeto e construção de novas refinarias e indústrias que atendam
ao mercado interno, altamente deficitário e importador de produtos químicos. Com este
cenário, é importante capacitar o futuro engenheiro químico para assumir as novas funções
decorrentes dessa reestruturação do país.
Neste contexto, encontra-se o problema central do presente trabalho, que visa
mapear as percepções discentes do curso de graduação em Engenharia Química, oferecido
pela Universidade Federal Fluminense, no que tange ao impacto do curso na sua inserção
no mercado de trabalho.
3. METODOLOGIA EMPREGADA
A metodologia aplicada no presente trabalho consiste em avaliar a percepção
discente sobre os impactos do curso de graduação em engenharia química na inserção no
mercado de trabalho.
Para tal foram adotados critérios a serem avaliados, ao todo 19 (dezenove), que
buscam mapear essas percepções, e aplicados na forma de questionários com questões
afirmativas, a 2 (dois) grupos de alunos, “Ingressantes”, alunos do primeiro período do
curso, e “Concluintes”, alunos formandos, isto é, alunos que estão cursando o último período
do curso. Em relação ao primeiro grupo, pretende-se verificar as expectativas que o
motivaram a escolher o curso e, em relação ao segundo grupo, verificar sua percepção
sobre o atendimento das expectativas e a percepção sobre a sua inserção no mercado de
trabalho, à luz de sua vivência e formação acadêmica adquiridas durante a realização do
curso.
A Tabela 1 apresenta o questionário aplicado aos dois grupos, onde serão captados
os graus de intensidade com que ocorrem as percepções dos discentes, segundo a relação
de critérios utilizados e a escala de julgamento. Os questionários foram aplicados aos
alunos ingressantes e concluintes, no primeiro semestre de 2011.
O conjunto de critérios foi definido usando-se como referência os trabalhos de
Oliveira et al., que aplicaram metodologia semelhante para avaliar o impacto de um
mestrado profissional da Área de Engenharia III da CAPES no desempenho de seus
egressos, e de Luiz et al., que aplicaram metodologia similar ao curso de graduação em
engenharia de produção. Além destes, foram acrescidos alguns critérios identificados como
adequados ao campo da pesquisa em questão, considerando os objetivos do presente
trabalho (OLIVEIRA et al., 2008; LUIZ et al., 2009).
150
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Tabela 1 - Critérios adotados para avaliação da percepção discente sobre o impacto do
curso de graduação em engenharia química
Critério
Descrição do Critério
Grau de Impacto
C1. Empregabilidade
Impacto na empregabilidade do aluno,
facilidade de obtenção de estágios
2
1
0
-1
-2
N
C2. Nível de resposta
às expectativas do
mercado
Adequação da grade curricular às reais
necessidades encontradas nas
empresas
2
1
0
-1
-2
N
C3. Remuneração
Impacto na remuneração do estudante
2
1
0
-1
-2
N
C4. Perfil
empreendedor
Impacto no perfil de empreendedor do
estudante
2
1
0
-1
-2
N
C5. Relacionamento
interpessoal
Impacto na capacidade do aluno para
trabalhar em equipe
2
1
0
-1
-2
N
C6. Perfil pesquisador
Impacto no perfil de pesquisador do
aluno
2
1
0
-1
-2
N
C7. Perfil negociador
Impacto no perfil de negociador do
estudante
2
1
0
-1
-2
N
C8. Auto-estima
Impacto na auto-estima do aluno
2
1
0
-1
-2
N
C9. Formação
continuada
Impacto na capacidade de buscar
aprendizado contínuo
2
1
0
-1
-2
N
C10. Vida pessoal
Impacto na vida pessoal do graduando
2
1
0
-1
-2
N
C11. Desinibição
Influência no desembaraço do
graduando
2
1
0
-1
-2
N
Impacto na capacidade de expressão do
aluno (exposição de idéias, sugestões,
conceitos, conclusões, etc.)
2
1
0
-1
-2
N
C13. Senso crítico
Impacto na capacidade do aluno em
estabelecer críticas
2
1
0
-1
-2
N
C14. Absorção de
críticas
Impacto na capacidade do graduando
em receber críticas
2
1
0
-1
-2
N
Impacto na capacidade do aluno em
resolver problemas
2
1
0
-1
-2
N
C16. Uso de método
organizado
Impacto na capacidade de aplicação de
métodos organizados
2
1
0
-1
-2
N
C17. Princípios éticos
e responsabilidade
social
Impacto na formação de princípios
éticos e de responsabilidade social
2
1
0
-1
-2
N
Impacto na capacidade de implementar
ações de preservação e controle
ambiental
2
1
0
-1
-2
N
Impacto na formação profissional
2
1
0
-1
-2
N
C12. Capacidade de
expressão
C15. Solução de
problemas
C18.
Responsabilidade
ambiental
C19. Programas e
projetos acadêmicos
(monitoria, iniciação
científica, empresa
júnior, etc.)
Para avaliação dos critérios, adotou-se uma escala de julgamento de acordo com os
trabalhos de Likert (1932 apud Oliveira, 2008) e de Miller (1954 apud Oliveira, 2008). Nesta
escala, que varia de -2 a 2, em números inteiros, considera-se a seguinte ordem de valores:
151
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
2 (Muito Bom), 1 (Bom), 0 (Regular), -1 (Ruim) e -2 (Muito Ruim). Introduziu-se na escala a
letra “N” para os alunos que não se sentem aptos a opinar ou a julgar o item respectivo, de
forma a evitar dúvida que a pontuação central poderia causar.
4. RESULTADOS
A Figura 1 apresenta as médias dos valores obtidos em todos os critérios ao
aplicarem-se os questionários para ambos os grupos. Pode-se verificar que em geral a
expectativa dos ingressantes é bem maior do que a dos concluintes, representando uma
média geral de 1,45 para os ingressantes e 0,91 para os concluintes. Esta observação se
verificou em todos os critérios, exceto no critério C10 (Impacto na vida pessoal).
A melhor expectativa foi verificada no critério C19 na percepção dos ingressantes,
seguida dos critérios C1 e C2, significando que os ingressantes possuem uma boa
expectativa, enquanto alunos da universidade, evidenciando a perspectiva de participação
em programas acadêmicos, e possuem uma boa expectativa após o término do curso de
que serão bem absorvidos pelo mercado de trabalho.
Já, para os concluintes, o critério C9 foi o que forneceu a melhor expectativa,
indicando a conscientização deste grupo para a necessidade da formação continuada,
seguido dos critérios C5 e C14, que fazem referência ao relacionamento interpessoal e a
absorção de críticas, que são critérios mais relacionados ao desenvolvimento pessoal do
que à formação acadêmica propriamente dita.
Pode-se observar também que os ingressantes possuem menores expectativas em
relação aos critérios C7, C10 e C11, que estão relacionados ao perfil negociador, vida
pessoal e desinibição. Já os concluintes possuem menores expectativas em relação aos
critérios C4, C6 e C7, referentes ao perfil empreendedor, perfil pesquisador e perfil
negociador.
2,00
1,80
1,60
Escala de valores
1,40
1,20
Ingressantes
1,00
Concluintes
0,80
0,60
0,40
0,20
0,00
Critérios
Figura 1 – Expectativas quanto ao impacto do curso no desempenho profissional
Apesar de haver concordância no critério C7 (perfil negociador), de menores
expectativas, para ambos os grupos é importante ressaltar que houve uma diferença
marcante nos valores médios obtidos neste critério. Enquanto os ingressantes apresentam
um valor médio de 1,08, considerado bom na escala de valores, os concluintes
apresentaram neste critério o menor valor dentre todos, de 0,33, considerado entre regular e
ruim. Houve, portanto, uma queda pronunciada na expectativa para a aquisição de um perfil
negociador. Luiz et al. (2009), ao analisar o curso de graduação em engenharia de
152
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
produção, também observaram menores expectativas dos concluintes para os critérios C6 e
C7. Cabe ressaltar, no entanto, que por ser outra especialidade o grau de importância de
cada critério pode ser relativamente diferente. A avaliação da importância dos critérios será
verificada em trabalhos futuros.
As maiores discordâncias entre os valores médios apresentados pelos dois grupos,
com diferenças superiores a 1,0, estão relacionadas aos critérios C4 (perfil empreendedor) e
C6 (perfil pesquisador). De certa forma, esses resultados sugerem que se dê maior atenção
ao desenvolvimento dessas habilidades, pois o inicialmente esperado não foi atendido.
As Figuras 2 e 3 apresentam as distribuições de valores atribuídos aos critérios C1
(Empregabilidade) e C2 (Impacto de respostas às expectativas do mercado). Observa-se
que no critério C1 ocorre uma modificação nas percepções de empregabilidade, enquanto o
grupo 1 apresenta uma expectativa muito boa com 70,7% das respostas, o grupo 2
apresenta uma distribuição diferenciada com um aumento considerável de expectativa
regular de 33,3%. Quanto ao critério C2, também se observa uma variação distinta, com
deslocamento do máximo de expectativa muito boa (grupo 1) para boa (grupo 2).
C1. Empregabilidade
Resposta (%)
80,0%
Ingressantes
60,0%
Concluintes
40,0%
20,0%
0,0%
Escala de valores
Figura 2. Distribuição de valores atribuídos ao critério C1
C2. Nível de resposta às expectativas do
mercado
Resposta (%)
80,0%
Ingressantes
60,0%
Concluintes
40,0%
20,0%
0,0%
Escala de valores
Figura 3. Distribuição de valores atribuídos ao critério C2
153
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
5. CONCLUSÃO
A partir dos resultados obtidos, pôde-se verificar que em geral a expectativa dos
ingressantes é bem maior do que a dos concluintes em relação ao impacto do curso de
engenharia química no perfil profissional.
O grupo dos ingressantes apresenta boas expectativas em relação à
empregabilidade e uma expectativa ainda maior no que tange a sua participação em
programas e projetos acadêmicos oferecidos pela universidade de forma a impactar
positivamente a sua formação profissional.
O grupo dos concluintes teve uma percepção maior no critério relacionado à
capacidade de busca de aprendizagem contínua, como um ponto importante a ser
considerado no desempenho profissional, seguido do critério que avaliou a capacidade de
relacionamento interpessoal do aluno como, por exemplo, capacidade para trabalhar em
equipe.
Os critérios considerados mais críticos pelos concluintes foram os C4, C6 e C7,
referentes ao perfil empreendedor, pesquisador e negociador, respectivamente, sendo que
os critérios C4 e C6 foram os que provocaram maiores discordâncias entre os ingressantes
e os concluintes.
6.
REFERÊNCIAS
APARICIO, A. C. e RUIZ-TERAN, A. M. (2007). Tradition and Innovation in Teaching
Structural Design in Civil Engineering. Journal of Professional issues in Engineering
Education and Practice © ASCE, 340-349.
FILHO, M. B. C.; SILVA, A. M. L.; SCHILLING, M. T. (1991). Power engineering education in
Brazil: Prospects and related issues. IEEE Transactions on Power Systems, 6 (3), 12861292.
LONGO, W. P. (2001). Reengenharia do ensino de engenharia: uma necessidade.
Disponível em: http://www.engenharia2001.org.br/programas/971207ªdoc. Acesso:
10/09/2010.
LOUSADA, A. C. Z. e MARTINS, G. A. (2003). Egressos como fonte de informação à gestão
dos cursos de Ciências Contábeis. 3o Congresso USP de Controladoria e Contabilidade,
São Paulo.
LUIZ, N. M.; COSTA, A. F.; COSTA, H. G. (2009). Influência da graduação em engenharia
de produção no perfil dos seus egressos: percepções discentes. Revista da Avaliação
da Educação Superior (Campinas), vol.15 (1) Sorocaba.
OLIVEIRA, L. D.; COSTA, H. G.; GUTIERREZ, H. R. (2008). Impacto do mestrado
profissional no desempenho dos seus egressos: modelo para mapeamento de
percepções da empresa. XXVIII Encontro Nacional de Engenharia de Produção,
Enegep.
SAMPAIO, B. e GUIMARÃES, J. (2009). Diferenças de eficiência entre ensino público e
privado no Brasil. Economia Aplicada, vol.13 (1), Ribeirão.
SILVA, L. P. e CECÍLIO, S. (2007). The change in the model of formation of teaching
engineering. Educação em Revista, (45), Belo Horizonte.
154
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Estado da arte de redes ópticas passivas
1
1
2
Leandro Codeço de Alvarenga Prazeres, Paula Brandão Harboe, José Rodolfo Souza.
1
Departamento de Engenharia de Telecomunicações - Universidade Federal Fluminense (UFF)
Niterói, RJ, Brasil
2
Departamento de Eletrônica e Telecomunicações - Universidade do Estado do Rio de Janeiro
(UERJ) Rio de Janeiro, RJ, Brasil
[email protected], [email protected], [email protected]
RESUMO
Este trabalho apresenta uma revisão bibliográfica de redes ópticas passivas e discute o
cenário atual de forma realista, incluindo tendências e previsões de mercado. As principais
características de uma rede PON são destacadas e os padrões BPON, EPON e GPON são
comparados. No final de 2009, estas soluções representavam, respectivamente, 5%, 55% e
21% do mercado mundial, e os especialistas acreditam que o padrão GPON será a principal
tecnologia em 2013. O estudo mostra, também, que a instalação de redes PON cresce
rapidamente, em particular na Ásia e nos Estados Unidos, com 74% e 15% das conexões,
respectivamente. O mercado latino-americano possui apenas 0,02% de assinantes. A
chamada era GigaPON (operação em taxa de 10 Gb/s e uso da tecnologia WDM) tem
instalações previstas para 2012.
Palavras-Chave: Redes ópticas passivas (PON). Acesso banda larga. Última milha.
1. INTRODUÇÃO
Nos anos 90, o explosivo crescimento da Internet mudou as características das então
estabelecidas redes de comunicação. A demanda por aplicações em banda larga − tais
como: TV de alta definição (HDTV), vídeo sob demanda (VoD), videoconferência,
transferência de imagens de alta resolução e entretenimento em tempo real − mostra que já
vivemos a era da comunicação sem limites, sem fronteiras geográficas, atemporal, mas
ainda com limitações de capacidade, em particular nas redes de acesso, que estabelecem
conectividade entre uma central (provedores de serviço) e as dependências do assinante
(usuário residencial ou corporativo).
Nos dias de hoje, as redes de acesso em banda larga instaladas são
predominantemente baseadas na tecnologia DSL (Digital Subscriber Line) e na solução
híbrida fibra-cabo coaxial (HFC – Hybrid Fiber-Coax), esta última usada pelas operadoras de
TV a cabo. Entretanto, ambas as tecnologias apresentam limitações, pois utilizam
infraestruturas originalmente desenvolvidas para transportar sinais de voz e vídeo analógico,
respectivamente. Por exemplo, da central para o usuário (direção denominada descendente
ou downstream), a tecnologia ADSL (Asymmetric DSL) é capaz de prover taxas de
transmissão que variam de 1,5 a 8 Mb/s e, na direção contrária (ascendente ou upstream),
entre 16 e 640 kb/s. A distância entre a central e o assinante DSL está limitada a poucos
quilômetros, devido às elevadas perdas nos ruidosos cabos metálicos. A tecnologia ADSL2+
suporta taxa de transmissão de 20 Mb/s e o recente padrão VDSL (Very-high-bit-rate DSL),
taxa de 50 Mb/s, descendente, mas com limitações de distância bem mais severas, de até
500 m. Por sua vez, redes CATV oferecem serviços de Internet através de canais RF
dedicados, utilizando cabos coaxiais, também com perdas elevadas, e inadequados para o
modelo bidirecional das redes de dados. Em um futuro próximo, as redes de acesso deverão
ser capazes de garantir larguras de banda da ordem de 100 Mb/s, simétricas, para alcançar
requisitos de qualidade de serviço (QoS). Especialistas estimam, ainda, que 50% do
155
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
faturamento das grandes companhias telefônicas serão baseados em serviços de vídeo, em
face da difusão das tecnologias IPTV e HDTV (KEISER, 2006).
Neste cenário, outras tecnologias de acesso em banda larga, com ou sem fio, vêm
sendo propostas e investigadas e incluem: sistemas WiMax (ANDREWS et al., 2007),
idealmente capazes de prover conectividade de até 70 Mb/s por distâncias em torno de
50 km; enlaces ópticos no espaço livre (FSO – Free Space Optics) (HARBOE E SOUZA,
2004), de fácil instalação e baixo custo e, mais recentemente, redes ópticas passivas (PON
– Passive Optical Network). Em particular, as redes ópticas de acesso em banda larga têm
despertado grande atenção da indústria e comunidade científica, por seu enorme potencial
em reduzir o estrangulamento (ou gargalo) de banda na última milha, aliado ao baixo custo.
Um outro fator importante é que, nas tecnologias competidoras, a largura de banda
oferecida decresce com o aumento da distância, limitação que não ocorre em PONs. Em
uma PON, não há dispositivos ativos entre a central e o assinante, apenas componentes
passivos são utilizados para a transmissão do sinal. Dessa forma, não há necessidade do
uso de esquemas de alimentação elétrica e gerenciamento nos cabos, o que acelera a
introdução de novos serviços e reduz custos de um modo geral. De fato, esta foi a grande
motivação para o desenvolvimento da primeira geração de redes ópticas passivas (fgPON –
first generation PON), então denominada TDM-PON.
Este trabalho apresenta uma revisão bibliográfica de redes ópticas passivas, e
discute o cenário atual de forma realista, incluindo tendências e previsões de mercado. A
Seção 2 apresenta as principais características de uma rede PON e ilustra a arquitetura
básica e os componentes da rede. A Seção 3 descreve e compara os padrões BPON,
EPON e GPON. A Seção 4 enfoca o estado da arte de instalações de redes TDM-PON em
diversas partes do mundo e apresenta estimativas de médio prazo. A Seção 5 apresenta as
conclusões do trabalho e indica a evolução e o futuro de redes PON. A Seção 6 lista as
principais referências bibliográficas.
2. REDE PON: CARACTERÍSTICAS E ARQUITETURA
Uma rede PON estabelece a conexão entre uma central e um conjunto de
assinantes, utilizando uma arquitetura ponto-multiponto (P2MP). A central pode estar
localizada, por exemplo, em um anel metropolitano. Para distinguir as direções de fluxo de
tráfego, o termo descendente (downstream) se refere às transmissões da central para os
assinantes e o termo ascendente (upstream), ao fluxo na direção contrária.
Na direção descendente, voz e dados são combinados e enviados no comprimento
de onda de 1490 nm; na direção ascendente, o tráfego é feito em 1310 nm. Serviços de
vídeo são disponibilizados apenas na descendente, no comprimento de onda de 1550 nm.
Usualmente, para reduzir custos, uma única fibra óptica monomodo é usada para a
transmissão bidirecional e os canais são multiplexados utilizando a tecnologia WDM. A
divisão da potência incidente é feita por um divisor óptico 1:N, localizado a cerca de 10 km
da central ou de 1 km dos assinantes. A extensão máxima de uma rede óptica passiva
tradicional (distância entre a central e o assinante) é de 20 km (LIN, 2006). A rede inclui
alguns módulos ativos, que consistem em um terminal de linha óptico (OLT – Optical Line
Terminal) e em terminais de rede ópticos (ONT – Optical Network Terminal), localizados,
respectivamente, na central e nas dependências do usuário. Estes módulos possuem um
par transmissor/ receptor, onde são realizadas as conversões eletroópticas. O termo
unidade de rede óptica (ONU – Optical Network Unit) é comumente usado para designar
que a fibra termina nas proximidades das residências ou empresas e que é necessário
algum outro meio de transmissão, por exemplo, cabo coaxial ou par trançado, para
estabelecer a conexão com o assinante. A arquitetura básica e simplificada de uma rede
PON típica é ilustrada na Figura 1.
156
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Figura 5. Arquitetura básica de uma rede PON.
Existem diversas maneiras de realizar uma rede PON. A aplicação da tecnologia
PON para prover conectividade em banda larga na rede de acesso é comumente chamada
FTTx (fiber-to-the-x). A letra x indica quão próxima a fibra óptica está do assinante. O termo
geral, mais popular, e por isso utilizado neste trabalho, é FTTP (fiber-to-the-premises).
Redes FTTP permitem, também, que provedores de serviço diversifiquem suas atividades,
que se estendem da comunicação ao entretenimento e informação, e aumentem seu
faturamento. Em uma rede PON, a topologia em árvore mostrada na Figura 1 é a precursora
e a mais típica, embora as topologias em barramento e em anel também sejam possíveis.
Usualmente, um OLT é projetado para controlar várias redes PON.
3. CONSÓRCIO FSAN E OS PADRÕES PON
O consórcio FSAN (Full-Service Access Network), formado em 1995 e hoje composto
pelos maiores provedores de serviço de todo o mundo, tem como principal objetivo
estabelecer padrões para redes de acesso óptico em banda larga, levando em conta a
diversidade geográfica, infraestrutura de redes já instaladas, aspectos de regulamentação
das telecomunicações em diferentes países, e visando acelerar a instalação comercial de
PONs. Na época da formação do grupo, o protocolo ATM era a mais conhecida e
promissora tecnologia de transporte e sinalização. Um conjunto de especificações técnicas
foi produzido e submetido ao ITU-T, que aprovou em 1998 a recomendação ITU-T G.983.1,
resultando nas primeiras redes PON baseadas em ATM (APON), com taxa simétrica
(direções descendente e ascendente) de 155 Mb/s. O entusiasmo inicial, no entanto, foi
dominado por um mercado potencialmente limitado. Para se tornar competitiva do ponto de
vista econômico, uma rede PON deve possuir um número suficiente de assinantes para
compartilhar os elevados custos associados à óptica.
Seguidos esforços do comitê FSAN e sua interação com outros órgãos normativos –
ITU-T, ETSI, ANSI – permitiram o desenvolvimento de novos esquemas de redes TDMPON: BPON (Broadband PON), EPON (Ethernet PON) e GPON (Gigabit PON) (KEISER,
2006), (WADA et al., 2009). A diferença fundamental entre os padrões está nos protocolos
de transmissão empregados, o que determina, em parte, o desempenho da rede.
O padrão BPON recebeu sua última revisão em 2005 e está descrito na série de
recomendações ITU-T G.983.1-8. O padrão APON é hoje um subconjunto desta categoria,
que também utiliza a tecnologia ATM, em taxas máximas de 1,2 Gb/s (descendente) e
622 Mb/s (ascendente). Redes BPON foram instaladas no Japão e nos Estados Unidos, no
início de 2001.
O padrão EPON, aprovado em 2004 e descrito nas recomendações IEEE 802.3ah
EFM, encapsula e transporta dados utilizando o formato Ethernet, simplificando o transporte
de pacotes IP e a interoperabilidade com redes LAN e MAN instaladas. Redes EPON −
157
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
também denominadas GEPON (padrão IEEE 802.3z) − têm taxa de transmissão simétrica
máxima de 1,2 Gb/s e foram instaladas, principalmente, na Ásia. Uma alternativa ao uso do
padrão EPON são as redes Ethernet ponto-a-ponto (EP2P – Ethernet point to point), com
fibras ópticas dedicadas e operando em taxas de até 100 Mb/s. Embora possuam
arquitetura simples, redes P2P têm custo elevado, pois requerem maior número de
transceptores. Redes EP2P estão descritas na recomendação ITU-T G.985 (2003).
O padrão GPON (Gigabit PON), descrito na família de recomendações ITU-T
G.984.1-4 (2003), utiliza um método de encapsulamento genérico (GEM) de pacotes e,
portanto, tem arquitetura mais versátil, capaz de suportar tráfegos ATM e Ethernet. GPON
provê serviço triple-play, e opera com taxas de transmissão mais elevadas – 2,5 Gb/s
(descendente) e 1,25 Gb/s (ascendente). O padrão GPON é a principal escolha na América
do Norte, Europa e Oriente Médio.
Em 2008, as tecnologias BPON, EPON, EP2P e GPON representavam,
respectivamente, 9%, 60%, 14% e 17% do mercado mundial. No final de 2009, estes
números passaram a 5%, 55%, 19% e 21% (The FTTH Prism, 2010). A adoção quase que
exclusiva do padrão EPON em países asiáticos justifica sua maior popularidade, embora já
se observe um crescimento da tecnologia GPON, motivado pelo anúncio de diversos testespiloto e pela falta de interoperabilidade entre equipamentos EPON de diferentes fabricantes.
Na América do Norte e Europa, há uma migração do padrão BPON para o padrão GPON.
No Brasil, os investimentos estão concentrados no padrão GPON. Os especialistas
acreditam que o padrão GPON será a principal tecnologia em 2013. O crescimento do
padrão EP2P é marginal, devido ao seu alto custo. A maior parte dos adeptos está nos
Estados Unidos, e também na França, Itália e Suécia (IDATE, 2011), (Sterlite Optical
Technologies Ltd., 2007).
4. INSTALAÇÕES FTTP NO MUNDO
Muitos acreditaram que redes FTTP seriam instaladas em larga escala e em
diversas partes do mundo, simplesmente porque a fibra óptica oferece banda quase
“ilimitada” quando comparada com tecnologias competidoras e, portanto, maiores
oportunidades de serviço. Entretanto, especialistas concordam que custos atuais, assim
como retorno de investimentos e projeções de faturamento em médio prazo efetivamente
determinam o ritmo das instalações. Um estudo recente mostrou que o custo de
equipamentos está em queda, atualmente em torno de 800 dólares por residência, mas os
custos de construção permanecem elevados, podendo variar entre 300 − 7000
dólares/residência, considerando o melhor e o pior cenários, respectivamente (Sterlite
Optical Technologies Ltd., 2007).
Após mais de uma década de testes e experimentos, a fibra na rede de acesso está
se tornando uma realidade, com significativo amadurecimento da tecnologia e crescimento
das instalações. Em meados de 2010, havia cerca de 44 milhões de assinantes FTTP em
todo o mundo, de um total de 120 milhões de domicílios com cabeamento óptico (home
passed). Estima-se que o número total de conexões supere os 150 milhões em 2014.
Naturalmente, a taxa de crescimento depende de cada mercado nacional – suas
características intrínsecas e de seus investidores e políticas de regulamentação – e cria um
cenário de desequilíbrio entre regiões e países. Nos dias de hoje, os mercados asiático e
norte-americano representam, respectivamente, 74% e 15% das conexões, enquanto o
mercado latino-americano possui apenas 0,02% de assinantes. As seis primeiras economias
globalmente classificadas são: Japão, Coréia do Sul, Estados Unidos, Taiwan, Rússia e
China (IDATE, 2011).
A Ásia é líder em instalações, com previsão de 85 milhões de domicílios conectados
no final de 2013. Nas Américas, estima-se que este número alcance 23 milhões, a maioria
nos Estados Unidos, enquanto Europa, Oriente Médio e África (EMEA – Europe, Middle
East, Africa), juntos, deverão ter em torno de 24 milhões de assinantes residenciais, com
158
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
significativas variações neste território. Acredita-se que, nas próximas duas décadas, a
transição do cobre para a fibra na rede de acesso estará completa. A aceleração das
instalações se deve, em grande parte, à elevada densidade demográfica, mas também aos
investimentos realizados por companhias locais. De acordo com estudo efetuado por IDATE
Consulting & Research, em junho de 2010, a NTT possuía em torno de 14 milhões de
assinantes FTTP, e China Telecom e China Unicom, em torno de doze e seis milhões,
respectivamente. O mesmo estudo mostrou que, na Coréia do Sul, Japão e Hong Kong, o
acesso com fibra óptica já supera as tecnologias DSL e modem a cabo. Os correspondentes
percentuais são de 63%, 56% e 38% (IDATE, 2011).
Na América do Norte, os Estados Unidos lideram as instalações FTTH, com
investimentos maciços das companhias Verizon e AT&T. Em 2010, o país ocupava a
terceira posição mundial, com 6,7 milhões de assinantes, atrás apenas do Japão e da
Coréia do Sul. No Canadá, a companhia Bell Alliants planeja ter 600 mil assinantes FTTP
em 2012. Por sua vez, o acesso óptico no mercado sul-americano é praticamente
inexistente, necessitando ainda de amadurecimento da tecnologia. México iniciou
investimentos básicos neste ano de 2011 e, Brasil e Chile deverão fazê-los em médio prazo.
Na Europa, as conexões em banda larga ainda são, em sua maioria, do tipo DSL. Os
indicadores mostram, por um lado pessimista que, as aplicações ainda não requerem
conexão à fibra e, por um lado otimista que, o número de domicílios com cabeamento óptico
(home passed) cresce. Em 2010, o acesso óptico na Europa era inferior a 10%, com
destaques para França, Holanda, Alemanha e Suíça.
Um marcador importante é a taxa de penetração da tecnologia FTTP, que se refere à
porcentagem dos domicílios com cabeamento óptico que efetivamente assinam o serviço. O
termo “fiber maturity“ (amadurecimento da utilização da fibra na rede de acesso)
corresponde a uma taxa de penetração de 20% (EFFENBERGER, 2007). Em 2010, esta
taxa era de 39%, 33% e 17%, para Japão, Estados Unidos e Europa, respectivamente. As
projeções indicam que, até o final de 2015, Suécia, Dinamarca, Franca e Portugal, por
exemplo, alcançarão “fiber maturity” (penetração de 20%), enquanto Itália, Espanha e
Alemanha, dentre outros países, permanecerão com taxa de penetração inferior a 10%. De
acordo com (The FTTH Prism, 2010), a taxa de penetração no mercado latino-americano
(LATAM), considerando seis economias, era de 13% e, especificamente no Brasil, de
11,6%.
5. CONCLUSÕES
Este trabalho discutiu a evolução de redes ópticas passivas, suas
características fundamentais, padrões e órgãos normativos. No final de 2009, as soluções
propostas – BPON, EPON e GPON – representavam, respectivamente, 5%, 55% e 21% do
mercado mundial e os especialistas acreditam que o padrão GPON será a principal
tecnologia em 2013. O cenário investigado mostrou significativo amadurecimento da
tecnologia e crescimento das instalações, em particular na Ásia e nos Estados Unidos, com
74% e 15% das conexões, respectivamente. O mercado latino-americano possui apenas
0,02% de assinantes.
Embora redes PON comerciais ainda estejam em pleno desenvolvimento, já se
investigam, na indústria e em universidades, melhorias no desempenho destas redes, que
envolvem aumentos na taxa de transmissão, comprimento do enlace e número de
derivações (razão de divisão 1:N). Em médio prazo, projetos flexíveis e compatíveis com as
redes TDM-PON já instaladas tornam-se necessários. Em 2008, dois grupos de trabalho –
IEEE e FSAN/ITU-T – iniciaram estudos de redes PON em taxas de 10 Gb/s, então
denominadas ngPON (next-generation PON). Em 2009, o IEEE concluiu e aprovou a
recomendação IEEE 802.3av, para operação em 10 Gb/s, como uma simples extensão da
tecnologia EPON. Por sua vez, FSAN/ITU-T aprovou, em 2010, uma série de padrões
baseados na tecnologia GPON. A combinação de fatores tais como aumento da largura de
159
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
banda, competição de mercado, maturidade da indústria e redução de custos deu início à
era GigaPON, com instalações previstas para 2012. Uma outra fase do trabalho, referida
como ng2PON (ou simplesmente WDM-PON), prevê o uso das tecnologias WDM e
OCDMA. A padronização deve começar em 2013 e as correspondentes instalações estão
previstas para 2017, portanto uma atividade de longo prazo. A implementação dos novos
sistemas e redes deverá ser acompanhada, é claro, por uma evolução na tecnologia de
dispositivos (LI, 2010).
6. REFERÊNCIAS
ANDREWS, J. G.; GHOSH A.; MUHAMED R. (2007). Fundamentals of WiMAX:
Understanding Broadband Wireless Networking. Prentice Hall Commun. Engineering
and Emerging Tech. Series.
EFFENBERGER F. J. (2007). PON as a driver for optical components. in 8th Int’l Workshop
on Optical Networking Technologies, Globecom’07.
HARBOE, P. B.; SOUZA, J. R. (2004). Free Space Optical Communication: a Feasibility
Study for Deployment in Brazil. Journal of Microwaves and Optoelectronics, vol. 3 (4),
58-66.
IDATE Consulting & Research. FTTX 2011: Markets & Trends Facts & Figures. www.idateresearch.com, visitado em 01/08/2011.
KEISER, G. (2006). FTTX Concepts and Applications. Wiley-Interscience Publication, John
Wiley & Sons Inc., New Jersey 293p.
LI,
A. (2010). 10G PON: steady steps towards commercial
www.huawei.com/en/static/hw-076445.pdf, visitado em 01/08/2011.
use.
In
LIN, C. (2006). Broadband Optical Access Networks and Fiber-to-the-Home. John Wiley &
Sons Inc.
Sterlite Optical Technologies Ltd. (2007). FTTH Market Forecast & Technology Trends.
Fiber. In www.sterlitetechnologies.com, visitado em 01/08/2011.
The FTTH Prism (2010). vol. 7 (2).
WADA, K. S.; PARK; YSHIKAWA, Y. (2009). Si Photonics and Fiber to the Home.
Proceedings of the IEEE, vol. 97 (7), 1329-1336.
160
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Estado da arte dos sistemas de controle de tráfego aéreo
por radiodifusão
Leonardo da Silva Paiva
Escola de Engenharia - Universidade Federal Fluminense (UFF)
Niterói, RJ, Brasil.
[email protected]
RESUMO
Este artigo descreve o Sistema de Vigilância Dependente Automática por Radiodifusão
(Automatic Dependent Surveillance Broadcast - ADS-B), que é uma nova tecnologia para
controle de tráfego aéreo, atualmente implantada em alguns países e futuramente no Brasil,
e que tem como meta o aperfeiçoamento do tráfego aéreo, evitando conflitos e permitindo o
gerenciamento eficaz do espaço aéreo.
Palavras-Chave: Sistemas ADS-B. Vigilância Automática. Controle de Tráfego Aéreo.
1. INTRODUÇÃO
O ADS-B é uma tecnologia de controle de tráfego aéreo em que a aeronave fornece,
automaticamente, através de um enlace de dados, informações provenientes dos sistemas
de navegação e de posicionamento que estão a bordo da aeronave, incluindo a sua
identificação e outros dados adicionais de relevância. A maior parte das aeronaves já está
equipada com um sistema de gerenciamento de vôo capaz de guiá-las ao longo dos pontos
de referência da rota pré-programada pelo piloto, assim o princípio do ADS-B é tornar estas
informações automaticamente disponíveis por radiodifusão (THALES ATM GmbH 2010),
podendo ser recebidas e processadas por outra aeronave e/ou sistemas em solo. É,
portanto, uma tecnologia que utiliza a radiodifusão do posicionamento da aeronave como
base para a vigilância. As aeronaves (ou veículos) equipadas com transponders ADS-B
difundem mensagens ADS continuamente a partir do sistema de gerenciamento de vôo a
bordo, utilizando-se de um canal rádio. A partir destas mensagens, é possível extrair, com
precisão, diversas informações, como por exemplo, a posição, a altitude, a velocidade e a
identificação da aeronave, de maneira semelhante ao radar secundário, utilizado nos
sistemas atuais, porém de forma mais detalhada e a um custo muito menor. Tal tecnologia
oferece, ainda, outras vantagens como maiores taxas de renovação das mensagens e o
potencial de transmitir outros dados a partir dos sistemas a bordo da aeronave, como a
atualização das condições de tempo local (condições climáticas) e a intenção de curso da
aeronave, além de dados referentes à aviônica a bordo.
A estação ADS-B em solo, por sua vez, recebe as mensagens ADS transmitidas, por
radiodifusão, pelas aeronaves e as encaminham ao Centro de Controle de Tráfego Aéreo.
Tais estações, também possuem a capacidade de difundir, no sentido inverso, mensagens
ADS que serão recebidas pelas aeronaves devidamente equipadas. Estas poderão
visualizar não somente as aeronaves com aviônica ADS-B, como também as demais
aeronaves, desprovidas de tal tecnologia, e que foram detectadas pelo radar. Informações
meteorológicas e situacionais sobre o espaço aéreo sobrevoado também poderão ser
difundidas, completando assim o cenário de informações a serem visualizadas pelo piloto no
CDTI, mostrado adiante. A Figura 1 exemplifica o Sistema ADS-B.
161
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
GNSS: GPS, GLONAS e GALILEO
ADS-B
Sem
ADS-B
SSR
Radar
Rede de dados
Meteorológico
Figura 1. Vigilância Dependente Automática por Radiodifusão.
Um sistema ADS (SUDARSHAN, 2003) é formado por seis grandes elementos, que
estão intimamente ligados: a interface com o piloto; a aviônica; o enlace de dados; a
automação do controle de tráfego aéreo e a interface com o controlador.
Para trafegar as mensagens ADS-B, as três tecnologias de enlaces de dados, que
servirão como meio de comunicação, são: Universal Access Transceiver (UAT); Very High
Frequency Data Link (VDL) mode 4 e 1090 MHz Extended Squitter (Mode S Data Link). A
Organização de Aviação Civil Internacional (OACI) recomenda o uso desta última como a
tecnologia de enlace de dados a ser adotada internacionalmente. As outras duas
tecnologias poderão ter aplicações apenas regionais.
Quanto às mensagens ADS, estas podem ser definidas como blocos de dados,
modulados através da técnica PPM (Pulse Position Modulation), contendo as seguintes
informações:
•
mérito);
Mensagem ADS básica (latitude, longitude, altitude, horário e figura de
•
Vetor em solo (velocidade em solo e taxa de subida e descida);
•
Vetor aéreo (velocidade e taxa de subida e descida);
•
Perfil projetado (próximo ponto de referência, altitude e hora estimadas até o
próximo ponto de referência, etc.);
•
turbulência).
Informação meteorológica (velocidade e direção do vento, temperatura e
Sob o ponto de vista do meio, as aplicações ADS-B podem ser feitas de três
maneiras: ar-ar, ar-terra e terra-terra.
Sob o ponto de vista do sentido do tráfego das informações, as aplicações ADS-B
podem ser definidas como: ADS-B Out, onde as mensagens ADS são difundidas da
aeronave para outros usuários e ADS-B In, onde as mensagens ADS são recebidas pela
aeronave, provenientes de outros usuários.
162
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
O ADS-B possui aplicações no gerenciamento do controle de tráfego aéreo em rota,
com alcance típico de 250 MN (Milhas Náuticas), em área terminal e em superfícies de
aeroportos, não só para aeronaves, como também para veículos automotivos de apoio em
solo.
2.
BENEFÍCIOS DA TECNOLOGIA ADS-B
Os principais benefícios do ADS-B estão relacionados com as aplicações de
vigilância. Assim, no cockpit da aeronave os pilotos poderão visualizar a situação aérea ao
seu redor, através do CDTI4, como mostra a Figura 2. Esta facilidade de visualização
permite ao piloto realizar, com maior segurança, procedimentos tais como (THALES, 2009):
manobras em fila, procedimentos de decolagem em fila, manutenção da posição relativa à
outra aeronave, e a utilização aprimorada da tecnologia anti-colisão (ACAS5) em aeronaves,
devidamente equipadas. Além disso, as estações em solo permitirão: separação em áreas
sem cobertura radar; melhoramento das operações na superfície aeroportuária (inclusive
sob condições de baixa visibilidade); redução e maior flexibilidade nos requisitos de
separação entre aeronaves e detecção; e resolução de conflitos de maneira aprimorada.
Figura 2 - Cockpit Display of Traffic Information – CDTI.
Adicionalmente, podem ser citados outros benefícios, tais como: redução no custo de
infraestrutura para a implantação como, também, para a manutenção de um sistema ADS-B,
quando em comparação a uma estação radar; maior precisão, aproximadamente, de 3 m;
maior taxa de renovação das informações, no caso do posicionamento do alvo, tipicamente,
são enviadas 2 mensagens por segundo, enquanto que as estações radar possuem taxas
de renovação que variam de 4 a 12 s; cobertura de todo o espaço aéreo e redução do
tempo de vôo, proporcionando economia de combustível e consequente diminuição do
impacto ambiental.
3.
3.1
ENLACE DE DADOS ADS-B
UNIVERSAL ACCESS TRANSCEIVER – UAT (978 MHZ)
O Transceptor de Acesso Universal (UAT) é especificamente designado para atender
ao ADS-B. Possui menor custo e maior capacidade de uplink do que o 1090ES. Para evitar
o congestionamento de frequência, que está presente na banda VHF, o UAT opera na faixa
de 960 – 1215 MHz.
3.2
VERY HIGH FREQUENCY DATA LINK – VDL MODE 4
É um enlace de dados que utiliza uma ou mais freqüências de VHF para a
transmissão. Utiliza o protocolo STDMA6, que permite ser auto-organizável, ou seja, não há
4
CDTI – Cockpit Display of Traffic Information: É um visor genérico que fornece informações de vigilância ao
piloto, incluindo a própria posição da aeronave. Adicionalmente, é possível visualizar as condições climáticas, o
terreno, a estrutura do espaço aéreo, obstruções, mapas detalhados dos aeroportos e outras informações
relevantes a quaisquer fases do vôo.
5
ACAS – Anti Collision Avoidance System: Sistema de prevenção contra colisões não intencionais com outras
aeronaves, obstáculos ou o solo.
6
STDMA – Self-Organized Time Division Multiple Access
163
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
a necessidade de uma estação principal e é melhor utilizável para transmissões de
mensagens curtas entre um grande número de usuários.
3.3
1090 MHZ EXTENDED SQUITTER (MODE S DATA LINK)
O SSR (Radar Secundário de Vigilância) Modo S é a última geração de sistema
desenvolvido para vigilância, a partir de radares secundários. As frequências de operação
são 1030 MHz para o enlace terra-ar e 1090 MHz, para o enlace ar-terra.
Assim, o Extended Squitter é uma aplicação adicional ao sistema Modo S, designado
para suportar o ADS-B, que também permitirá um melhoramento do sistema contra colisões
(ACAS). Consiste em um conjunto de mensagens, que fornece informações a respeito da
posição da aeronave, velocidade e identificação, entre outras.
4. APLICAÇÕES ADS-B
4.1
APLICAÇÕES AR-AR
Ao receber a mensagem ADS-B, o piloto da aeronave de fato visualiza outras
aeronaves em sua vizinhança. Através do CDTI esta facilidade é eletronicamente
apresentada, permitindo operações mais seguras e mais eficientes.
4.2
APLICAÇÕES AR-TERRA
O ADS-B fornece dados de vigilância aos Centros de Controle de Tráfego Aéreo em
solo. Estas informações são utilizadas para o estabelecimento do gerenciamento do tráfego
aéreo. No sentido inverso, terra-ar, as estações em solo fornecem às aeronaves,
devidamente equipadas, informações a respeito da situação aérea local, por radiodifusão.
Estas informações são classificadas em dois tipos de serviços, sendo eles:
TRAFFIC INFORMATION SERVICES – TIS-B
Os serviços de informação de tráfego por radiodifusão fornecem às aeronaves,
devidamente equipadas, o cenário situacional de todo o tráfego aéreo conhecido pelo
Centro de Controle. Este serviço é de suma importância para um enlace ADS-B em um
espaço aéreo, em que nem todas as aeronaves estão transmitindo informações ADS.
Através deste serviço é possível visualizar no cockpit da aeronave, através do CDTI, tanto
as aeronaves que não transmitem informações ADS-B e que foram detectadas pelo radar,
como também, as aeronaves que transmitem tais informações, porém utilizam outro tipo de
enlace de dados. As informações de tráfego aéreo dos enlaces de subida TIS-B são
resultantes de diversas fontes de vigilância, tais como: estações radar, (primárias ou
secundárias), sistemas de multilateração e diferentes enlaces ADS-B (UAT, VDL Mode 4 ou
Extended Squitter Mode S).
FLIGHT INFORMATION SERVICES – FIS-B
Os serviços de informações de vôo fornecem dados climáticos em texto e gráficos,
como por exemplo, NOTAMs7, ATIS8, e informações semelhantes. O FIS-B é inerentemente
diferente do ADS-B, uma vez que a fonte de dados é externa, ou seja, as informações
fornecidas não são provenientes das aeronaves e, além disso, possui requisitos de
desempenho diferenciados, como a periodicidade da radiodifusão. Os enlaces Extended
Squitter Mode S não possuem suporte a este serviço.
7
NOTAM - Notice to Airmen / Notice to All Members: O NOTAM serve para alertar os pilotos de aeronaves sobre
qualquer perigo de rota ou local específico.
8
ATIS - Automatic Terminal Information Service: É um serviço de informações automático, que é transmitido por
cada terminal, a partir de uma gravação reproduzida continuamente, cujo conteúdo é de interesse dos pilotos
que ali desejam pousar.
164
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Nas aplicações ar-ar e ar-terra, identificam-se duas tecnologias complementares,
relacionadas com o sentido de tráfego das informações: ADS-B Out e ADS-B In. Em uma
transmissão ADS-B Out, uma aeronave transmite, periodicamente, mensagens ADS, sem o
conhecimento de quais Centros ou outros veículos poderão recebê-las, conforme é
mostrado na Figura 3(a).
No caso do ADS-B In, como mostra a Figura 3(b), a mensagem ADS-B é recebida
pela aeronave, processada e apresentada no cockpit. É importante ressaltar que, as
aeronaves podem ser equipadas com o ADS-B Out sem a obrigatoriedade de serem
equipadas com o ADS-B In.
Figura 3 - (a) ADS-B OUT, (b) ADS-B IN (ITT, 2009).
4.1
APLICAÇÕES TERRA-TERRA
A vigilância ADS-B pode ser empregada tanto em aeronaves em solo como, também,
em veículos automotivos, desde que equipados. Assim, aeronaves e veículos, por
radiodifusão, enviam mensagens contendo posição, velocidade e sua identificação, entre
outras informações, às estações em solo, localizadas no entorno do aeroporto. Estas
informações são transmitidas aos Centros de Controle e ao Centro de Facilidades do
aeroporto. Assim, a vigilância da superfície aeroportuária é aprimorada com a implantação
dos enlaces ADS-B e, consequentemente, é possível experimentar uma maior segurança e
eficiência nas operações de superfície, sejam quais forem as condições climáticas.
5. CONCLUSÕES
Em função dos diversos benefícios que podem ser alcançados com a implantação de
um Sistema ADS-B, os órgãos e administrações de aviação em todo o mundo estão
desenvolvendo projetos pioneiros ou em conjunto com empresas e universidades, de modo
a atender a crescente demanda do mercado de aviação civil, com eficiência. Tal tecnologia
é uma mudança de paradigma e requer esforços de todos os envolvidos, ou seja, dos
órgãos e administrações de aviação e das empresas aéreas, que serão responsáveis pela
modernização da aviônica a bordo de suas aeronaves. Os principais beneficiários, além dos
citados anteriormente, serão os passageiros, que poderão contar com serviços mais
seguros, rápidos, pontuais e de qualidade.
6. REFERÊNCIAS
ERA. Multilateration Executive Reference Guide, www.multilateration.com, p. 6-7.
ITT (2009). ITT CNS / ATM Seminar 2009 – Brazil, Rio de Janeiro.
RTCA/DO-260 (2000).
RTCA/DO-260A, Change 1 (2006).
RTCA/DO-260A, Change 2 (2006).
SUDARSHAN, H.V. (2003). Seamless Sky. Ashgate Publishing Limited, England, p. 01-12 e
8-178.
165
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
THALES ATM GmbH (2010). ADS-B - Automatic Dependent Surveillance Broadcast. AS68x
Family and LCMS/RCMS. Technical Manual: Description, Operation and Maintenance,
Germany, p. 1-2.
THALES (2009). ADS-B (Automatic Dependent Surveillance Broadcast), Rio de Janeiro.
166
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Estimação de parâmetros elétricos de um motor de
indução trifásico utilizando algoritmos genéticos
Alex Palma Francisco Coelho, Vitor Hugo Ferreira e Márcio Zamboti Fortes
Engenharia Elétrica Escola de Engenharia - Universidade Federal Fluminense (UFF)
Niterói, RJ, Brasil
[email protected], [email protected] e [email protected]
RESUMO
Este artigo apresenta um método de estimação dos parâmetros elétricos do circuito
equivalente de um motor de indução trifásico, utilizando algoritmos genéticos. O método foi
aplicado em um modelo de motor de indução trifásico simulado no ambiente “Simulink” do
“software” MatLab®. A metodologia consiste na minimização de uma função objetivo
representando o erro de estimação de corrente utilizando como método de minimização os
algoritmos genéticos. A curva de corrente estatórica em função do escorregamento, obtida
durante a simulação, será utilizada para estimação dos parâmetros elétricos do circuito
equivalente do motor simulado. Serão utilizados dois modelos teóricos de circuito
equivalente monofásico (CHAPMAN, 2005) e (WILDI, 2002). Objetiva-se encontrar a melhor
estimativa da curva de corrente em função do escorregamento para cada um dos modelos
utilizados e determinar qual destes modelos melhor representa o motor simulado.
Palavras-Chave: Algoritmos genéticos. Estimação de parâmetros. Motor de indução trifásico.
Inteligência Computacional. Máquinas elétricas.
1. INTRODUÇÃO
O motor de indução trifásico (MIT) é um dos tipos de motores mais utilizados na
indústria, devido ao seu baixo custo de fabricação e manutenção, baixo peso e robustez.
Por longo período de tempo, o motor de indução foi utilizado somente em acionamentos de
cargas cujas variações de velocidade não causariam impactos significativos no processo de
fabricação ou atividade em que eram empregados. Isto se deve, em especial, a
característica conjugado eletromecânico em função do escorregamento dos MIT´s. Para
tensão e freqüência constantes, variações nas cargas acionadas pelo eixo do motor
provocam variações da velocidade de rotação do deste mesmo eixo. Com os avanços nas
áreas de eletrônica de potência e de controle superou-se este contratempo através da
utilização de dispositivos eletrônicos que permitem que os MIT´s operem com controle de
velocidade preciso. Tais dispositivos, como os conversores “AC-AC” fizeram com que os
MIT´s substituíssem os motores de corrente contínua, cujos custos de manutenção, de
fabricação e peso são mais elevados que os do MIT. Para a estabilidade e precisão do
sistema de controle do MIT é necessário o conhecimento do modelo do motor controlado e,
conseqüentemente, os valores dos parâmetros elétricos e mecânicos envolvidos.
Os parâmetros elétricos e mecânicos de um motor podem variar com a temperatura
ambiente, lubrificação dos mancais, transitórios eletromagnéticos, transitórios mecânicos
entre outros (BISHOP, 1990). Ou seja, necessita-se de uma forma para atualizar de maneira
contínua os parâmetros eletromecânicos do motor para a estabilidade e precisão do sistema
de controle. Este artigo propõe um método para estimação destes parâmetros através da
utilização de um algoritmo genético (AG). Neste aborda-se somente os parâmetros elétricos,
como as resistências e impedâncias dos enrolamentos deixando de lado, portanto, os
parâmetros mecânicos.
Os AG´s são métodos matemáticos que se baseiam na teoria da evolução das
espécies e em mimetismos biológicos, como cruzamento, elitismo e mutações. Os AG´s
fazem parte de um conjunto maior de algoritmos chamados algoritmos evolutivos.
167
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
2. ALGORITMO PROPOSTO
O algoritmo proposto para a solução do problema esta ilustrado na figura 1. Após a
simulação do MIT, os dados são ordenados e apresentados aos modelos de circuito
equivalente monofásico cujos parâmetros são gerados através do bloco AG. O bloco Modelo
do MIT sintetiza uma curva de corrente estimada 8:;<
9 em função do escorregamento ; para
cada indivíduo gerado no bloco AG. Estas curvas são comparadas com a curva (8=:>
×;)
9
através de uma função objetivo, implementada através dos blocos aritméticos. A função
objetivo é definida como
H
H
(1)
I1med
=:>
=:>
@ = A BCD:E8:;<
FG + C8=E8:;<
FG I.
9 − 89
9 − 89
Figura 7. Algoritmo de estimação de parâmetros
2. RESULTADOS OBTIDOS
2.1 MOTOR SIMULADO
As características do MIT simulado estão representadas na Tabela 1.
Tabela 1. Características do motor simulado
Característica
Valor
Tensão de linha (JKK )
460 V
Potência nominal
5 HP
Freqüência nominal
60 Hz
Número de pólos
4
Velocidade nominal
1780 rpm
168
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
2.2. ESTIMAÇÃO DAS CURVAS DE CORRENTE NO ESTATOR
As curvas de corrente estatórica 8:;<
9 ; geradas pelo algoritmo de estimação podem
ser vistas e comparadas com a curva de corrente estatórica simulada 89 ; na Figura 2 e
Figura 3, onde, na Figura 2 são apresentados os resultados obtidos com o modelo
(CHAPMAN, 2005) e na Figura 3 são apresentados os valores obtidos com o modelo
(WILDI, 2002), respectivamente.
Motor 3~ 460V 60Hz 5 HP usando modelo Chapman (Corrente x escorregamento)
70
60
40
30
Corrente (A)
50
20
10
0
1
0,8
0,6
0,4
Escorregamento s
0,2
I1 (A)
0
I1 est.(A)
Figura 8. Curva de corrente estatórica com modelo (CHAPMAN, 2005).
2.3. ESTIMAÇÃO DAS CURVAS DE CONJUGADO ELETROMECÂNICO
As curvas de conjugado eletromecânico L:;<
9 ; geradas pelo algoritmo de estimação
podem ser vistas e comparadas com a curva de conjugado eletromecânico simulada L9 ;
na Figura 4 e Figura 5, onde, na Figura 4 são apresentados os resultados obtidos com o
modelo (CHAPMAN, 2005) e na Figura 5 são apresentados os valores obtidos com o
modelo (WILDI, 2002), respectivamente.
Motor 3~ 460V 60Hz 5 HP usando modeloWildi (Corrente x escorregamento)
70
60
40
30
Corrente (A)
50
20
10
0
1
0,8
0,6
0,4
Escorregamento s
0,2
I1 (A)
0
I1 est.(A)
Figura 9. Curva de corrente estatórica com modelo (WILDI, 2002).
169
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Motor 3~ 460V 60Hz 5 HP usando modelo Chapman (Torque x escorregamento)
140
120
80
60
Torque (N.m)
100
40
20
0
1
0,8
0,6
0,4
Escorregamento s
0,2
0
Te est. (N.m)
Te (N.m)
Figura 10. Curva de conjugado eletromecânico com modelo (CHAPMAN, 2005).
Motor 3~ 460V 60Hz 5 HP usando modeloWildi (Torque x escorregamento)
140
120
80
60
Torque (N.m)
100
40
20
0
1
0,8
0,6
0,4
Escorregamento s
0,2
0
Te est. (N.m)
Te (N.m)
Figura 11. Curva de conjugado eletromecânico com modelo (WILDI, 2002).
2.3. PARÂMETROS ESTIMADOS E COMPARAÇÃO COM OS PARÂMETROS
TEÓRICOS
Os principais resultados obtidos da execução do algoritmo de estimação são os
parâmetros elétricos estimados utilizando dois modelos distintos. As Tabelas 2 e 3
apresentam os valores obtidos através de cada um destes modelos e os compara com os
parâmetros teóricos utilizados na simulação do MIT.
Tabela 2. Resultados obtidos utilizando-se o modelo (CHAPMAN, 2005).
M Ω
M Ω
N H
N H
NP H
Melhor
indivíduo
1,12496
1,07754
0,00611
0,00585
0,20416
Valores
médios
1,12496
1,09128
0,00483
0,00724
0,20544
-
6472,986
Desvio
padrão
0
0,023035 0,002171 0,002321 0,002171
-
0
Valores
1,11500
1,08300
-
-
0,00597
0,00597
0,20370
MQ Ω
Fitness
6472,986
170
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
de
referência
Erro
absoluto
0,00996
0,00828
0,00114
0,00724
0,0046
-
-
Tabela 3. Resultados obtidos utilizando-se o modelo (WILDI, 2002).
M Ω
M Ω
N H
N H
NP H
MQ Ω
Fitness
Melhor
indivíduo
1,24636
1,12565
0,00677
0,00554
0,23800
-
6552,343
Valores
médios
1,24636
1,12565
0,00639
0,00586
0,23800
-
6552,343
Desvio
padrão
0
0
Valores
de
referência
1,11500
1,08300
0,00597
0,00597
0,20370
-
-
Erro
absoluto
0,13136
0,04265
0,00042
0,00011
0,0343
-
-
0,001919 0,001919
0
0
3. CONCLUSÃO
Neste artigo demonstrou-se um método para determinação de parâmetros elétricos
de um motor de indução trifásico utilizando-se algoritmos genéticos. Uma simulação de um
motor de indução trifásico de 5 HP foi utilizada para geração dos dados para teste do
algoritmo de estimação. Os resultados deste teste demonstraram que o algoritmo obteve
êxito na estimação das curvas de corrente estatórica 89 e conjugado eletromecânico L. Os
erros obtidos na estimação dos parâmetros podem ser verificados nas Tabelas 2 e 3 do item
2.3. Para o caso particular deste motor simulado, o modelo que obteve melhor ajuste foi o
modelo (CHAPMAN, 2005). Este resultado pode ser verificado comparando-se os valores da
coluna “Fitness” das Tabelas 2 e 3.
4. REFERÊNCIAS
ALONGE, F., et al. (1998). Parameter Identification of Induction Motor Model Using Genetic
Algorithms. IEE Proc. Control Theory Appl. 6, 1998, Vol. 145, University of Palermo,
Viale delle Scienze, Palermo, Italy: IEEE, 1997.
BISHOP, Richard R.; RICHARDS, Gill G. (1990). Identifying Induction Machine Pameters
Using A Genetic Optimization Algorithm.. New Orleans, Luisiana: University of New
Orleans, IEEE.
171
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
CHAPMAN, Stephen J. (2005). Electric machinery fundamentals / Stephen Chapman. 4th
Ed. New York: McGrawHill.
FERREIRA, Vitor Hugo. (2010). Notas de aula: Inteligência computacional, UFF, Niterói, RJ,
Brasil.
FUCHS, Eward F. Power quality in power systems and electrical Machinery/ Eward F. Fuchs.
Burlington: Elsevier, 2008.
IEEE. (1991). STD 112: Standard Test Procedure for Polyphase Induction Motors and
Generators. New York: IEEE.
KAMPISIOS, Konstantinos, et al. (2008). Identification of Induction Machine Electrical
Parameters using Genetic Algorithms Optimization. University Of Nottingham
Nottingham: NG7 2RD, UK, IEEE.
RUSSELL, Stuart J, NORVIG, Peter. (2003). Artificial Intelligence A modern approach.
UpperSaddle River, New Jersey: Prentice Hall.
TRENTIN, Andrew, et al. (2006). A New Method for Induction Motors Parameters Estimation
Using Genetic Algorithms and Transient Speed measurements. University of
Nottingham, Nottingham, NG7 2RD, UK, IEEE.
WILDI, Theodore. (2002). Electrical machines, drives and power systems / Theodore Wildi,
5th Ed. New Jersey: Prentice Hall.
172
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Fortaleza fora dos trilhos.
Juscelino Chaves Sales, Clint Walton Siebra.
Faculdade de Engenharia - Universidade Estadual Vale do Acaraú (UVA)
Sobral, CE, Brasil.
[email protected] [email protected]
RESUMO
Sabemos que o transporte ferroviário é o modal de transporte mais barato e que todas as
grandes cidades do mundo possuem seu Metrô. O presente trabalho mostra a situação em
que se encontra a construção do Metrô de Fortaleza e dos trens urbanos. Uma situação em
que a falácia do custo perdido pode ser vista na obra do Metrô que está sendo construído na
cidade de Fortaleza, inclusive por falta de um cronograma financeiro na elaboração no
projeto executivo, acarretando constantes paralisações da obra, evidentemente aliadas ao
arrocho fiscal dos governos. Essas paralisações e o andamento em passos de tartaruga
dessa obra preocupam a população por causa dos enormes prejuízos e a péssima
mobilidade urbana da cidade. O custo dessa obra tem-se elevado exorbitantemente.
Analisando particularmente o Metrô de Fortaleza, obra iniciada desde 1999 podemos
concluir que é uma obra problemática. Para que se tenha idéia, aconteceram erros
estruturantes no projeto.
Palavras-Chave: metrô, mobilidade urbana, estação.
1.
INTRODUÇÃO
Qual o futuro da mobilidade urbana, num país que tem mais de 82% de seus
habitantes morando em cidades?
As regiões metropolitanas precisam ganhar melhor mobilidade e, portanto, mais
eficiência, por uma razão estratégica: constitui de uma extensa rede mundial de relações,
importante para o desenvolvimento do País. O metrô aparece como uma das grandes
soluções para melhorar o tráfego urbano nas grandes cidades como Fortaleza.
Em oito anos, o crescimento da frota de veículos foi de 60%, enquanto a frota do
transporte coletivo aumentou 7,3%. E o tamanho das vias permaneceu o mesmo. É às 18
horas, que o trânsito para em algumas áreas da cidade de Fortaleza (GUIMARÃES, 2008).
2.
HISTÓRIA DO METRÔ DE FORTALEZA
O Metrofor foi criado com o objetivo de assumir e modernizar a operação do
transporte dos trens metropolitanos de Fortaleza até então realizada pela CBTU.
As obras foram iniciadas em janeiro de 1999 com a construção de uma linha de
trens de carga independente da linha de passageiros para fazer a conexão da linha Tronco
Norte com a Tronco Sul da Companhia Ferroviária do Nordeste das linhas do metrô. A
implantação da Linha Sul pertencente a primeira fase do projeto depois de muitas
paralizações, será concluida no final de 2011.
Em 2006 o Governo do Estado do Ceará contratou a empresa da Espanha Eptisa
para fazer um estudo de viabilidade para construção de uma nova linha no Metrofor. A nova
linha terá como extremos a estação da Parangaba e o bairro do Mucuripe.
3.
METODOLOGIA
Para realização desse trabalho foram feitas visitas in loco, ao canteiro de obras
central do metrô, as obras em algumas estações, como tambem foram feitas viagens no
atual trem suburbano que trafega em Fortaleza. Realizou-se uma pesquisa bibliográfica, em
173
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
artigos, em jornais, trabalho de conclusão de curso e sites. Realizaram-se visitas ao
METROFOR (Metrô de Fortaleza) e a CBTU (Companhia Brasileira de Transportes
Urbanos) em Fortaleza.
4.
CARACTERÍSTICAS DO SISTEMA
O Metrô de Fortaleza contará com uma extensão total de 62,8 km em sua maioria na
superfície contando também 16 km de linhas subterrâneas e 4,4 km de via elevada. Ele será
implantado em três estágios, com a posterior implantação da Linha Leste, assim
aproveitando ao máximo a malha ferroviária já existente. Seguindo sua concepção
integradora, o novo sistema promoverá a modernização do transporte coletivo da Região
Metropolitana de Fortaleza (CBTU, 2007).
O sistema atenderá aos municípios de Fortaleza, Caucaia, Maracanaú, Maranguape
e Pacatuba, e com sua implantação total, o número de passageiros transportados
diariamente chegará a 485 mil usuários/dia.
Os veículos deste sistema possuirão uma velocidade comercial de 50 km/h e uma
velocidade máxima de 80 km/h. O calibre da trilha será de 1000 milímetros e a alimentação
dos trens é feita por catenárias aéreas utilizando uma tensão de 3000 VCC (OLANDA,
2008).
5. TABELA DO SISTEMA
A Tabela 1 mostra a as linhas de terminais do metrô, comprimento, numero de
estações, duração da viagem e previsão de inauguração (METROFOR, 2009).
Tabela 1: Linhas de terminais do metrô
Linha
Terminais
Previsão
Comp.
(km)
Estações
D. das
viagens
Func.
(min)
Sul
João Felipe ↔ Vila das
flores
2010
24,1
(20)
33
Em
obras
Oeste
Caucaia ↔ J. Felipe
-
19,5
14
-
estudo
Leste
J. Felipe ↔ Unifor
-
12
6
-
estudo
-
7,2
2
-
estudo
Maranguape Jereissati ↔
Maranguape
Mucuripe
Parangaba ↔ Mucuripe
2014
16
6
-
estudo
Aeroporto
Aeroporto Velho ↔
Castelão
2014
7
2
-
estudo
6.
LINHAS DO SISTEMA
As Tabelas 2, 3, 4, 5, 6 e 7 abaixo mostram as linhas do metrô com seus respectivos
trechos, mostrando como se encontra a execução da obra com as respsctivas estações a
serem construidas.
Tabela 2: Linha Sul – João Felipe ↔ Vila das Flores
Estação
Comentários
João Felipe
Em obras, futura integração gratuita com as Linhas Oeste e Leste do
Metrô.
Lagoinha
Em obras
174
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
São Benedito
Em obras
Benfica
Em obras
Padre Cícero
Em obras
Parangabussu
Em obras
Couto Fernandes
Em obras
Montese
Em obras
Parangaba
Em obras, futura integração gratuita com a Linha Mucuripe do Metrô.
Vila Pery
Em obras
Manuel Sátiro
Em obras
Mondubim
Em obras
Conjunto Esperança
Em obras
Aracapé
Em obras
Alto Alegre
Em obras
Pajuçara
Em obras
Novo Maracanaú
Em obras
Maracanaú
Em obras
Jereissati
Em obras, futura integração gratuita com a Linha Maranguape do
Metrô.
Vila das Flores
Em obras
Tabela 3: Linha Oeste – Caucaia ↔ João Felipe
Estação
Comentários
Caucaia
Em estudo
Parque
Soledade
Em estudo
Nova Metrópoli
Em estudo
Araturi
Em estudo
Jurema
Em estudo
Conjunto Ceará
Em estudo
Parque albano
Em estudo
São Miguel
Em estudo
Antonio Bezerra
Em estudo
Parque Andrade
Em estudo
Floresta
Em estudo
Álvaro Weyne
Em estudo
Francisco Sá
Em estudo
Tirol
Em estudo
João Felipe
Em estudo, futura integração gratuita com as Linhas Sul e Leste do
175
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Metrô.
Tabela 4: Linha Leste – João Felipe ↔ Unifor
Estação
Comentários
João Felipe
Em estudo, futura integração gratuita com as Linhas Sul e Oeste do Metrô.
Sé
Em estudo
Colégio Militar
Em estudo
Ceart
Em estudo
Des. Moreira
Em estudo
Nunes Valente
Em estudo
Dias da Rocha
Em estudo
Papicu
Em estudo, futura integração gratuita com a Linha Mucuripe do Metrô.
HGF
Em estudo
Cidade 2000
Em estudo
Iguatemi
Em estudo
Salinas
Em estudo
Unifor
Em estudo
Tabela 5: Linha Maranguape – Maranguape ↔ Jereissati
Estação
Comentários
Maranguape
Em estudo, futura integração gratuita com a Linha Sul do Metrô.
Jereissati
Em estudo
Tabela 6: Linha Mucuripe – Parangaba ↔Mucuripe
Estação
Comentários
Parangaba
Em estudo, futura integração gratuita com a Linha Sul do Metrô.
Montese
Em estudo
Aeroporto
Velho
Em estudo
Rodoviária
Em estudo
Assembléia
Em estudo
Antonio Sales
Em estudo
Papicu
Em estudo, futura integração gratuita com a Linha Oeste do Metrô.
Mucuripe
Em estudo
Tabela 7: Linha Aeroporto – Aeroporto Velho↔ Castelão
Estação
Comentários
Aeroporto
Velho
Em estudo, futura integração gratuita com a Linha Mucuripe do Metrô.
Aeroporto Novo
Em estudo
Castelão
Em estudo
176
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
7.
METROFOR E O PROGRAMA DE ACELERAÇÃO DO CRESCIMENTO
O Programa de Aceleração do Crescimento – PAC contempla, dentre outros, o
sistema de transporte de passageiros sobre trilhos de Fortaleza, operado pelo Metrofor.
O investimento até o ano 2011 trará benefícios que envolvem economias do tempo
de viagem, do consumo de derivados de petróleo e dos índices de poluição do ar, além da
melhoria dos níveis de acessibilidade, conforto e segurança nos deslocamentos da
população dos municípios atendidos pelo Metrofor no estado do Ceará, especialmente,
Fortaleza e vizinhança.
O projeto do sistema de transporte de passageiros sobre trilhos em Fortaleza está
sendo executado, lembrando que o PAC, de início, só contemplou as obras até o ano 2010,
que compreende:
•
Implantação completa da Linha Sul, trecho Vila das Flores a João Felipe, com
duplicação e eletrificação da via em uma extensão de 24,1km, sendo 2,2 km em elevado e
3,9 km em subterrâneo, e aquisição de 10 trens elétricos com 4 carros cada.
•
Modernização do sistema de trens metropolitanos da Linha Oeste, trecho
João Felipe a Caucaia, com recuperação da via permanente em uma expansão de 19,6 km
e das 10 estações existentes, e aquisição de 6 VLTs, veículos leves sobre trilhos, a diesel,
com 4 carros cada. (OLANDA, 2008)
7.1. INVESTIMENTOS DO PAC NO METROFOR
Os investimentos da União aprovados no PAC, para as obras no Metrô Fortaleza,
são de R$ 602,8 milhões distribuídos ao longo dos anos de 2007 a 2010. Com valores
investidos até 2006, o custo total do sistema é de R$ 1.526,1 milhões.
7.2. TABELA DE INVESTIMENTOS
A Tabela 8 abaixo mostra os investimentos já realizados e os futuros da Linha Sul,
inclusive já houve alterações, dados de 2005.
Tabela 8: Investimentos da Linha Sul
Períodos
8.
Até 2006
2007 a 2010
Total (R$ MIL)
Recursos da União
607.870,9
572.774,8
1.180.645,7
Recursos do Estado do Ceará
163.949,0
101.494,3
265.443,3
Total
771.819,9
674.269,1
1.446.089,0
DESAPROPRIAÇÃO DE IMÓVEIS
Segundo dados da Companhia Cearense de Trens Metropolitanos – CCTM, pelo
menos 1.200 imóveis serão desapropriados completa ou parcialmente, para a efetivação de
obras correspondentes ao metrô em sua parte subterrânea e de superfície.
As construções de estações de embarque e desembarque, túnel, viadutos e
modificações nos itinerários ocupados por tubulações de água, esgoto, gás, fibras óticas e
energia, requerem as desapropriações, que implicam em indenizações. Já foi estipulado o
montante de, aproximadamente, R$ 10 milhões para os pagamentos, mas muitas questões
ainda tramitam na Justiça.
Analisando particularmente do Metrô de Fortaleza, obra iniciada desde 1999
podemos dizer que é uma obra problemática. Para que se tenha idéia, dos erros
estruturantes de projeto, por falta de planejamento, inclusive por falta de um cronograma
financeiro na elaboração no projeto executivo, houve constantes paralisações,
177
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
evidentemente aliadas ao arrocho fiscal dos governos até chegar ao governo Lula. Essas
paralisações e o andamento em passos de tartaruga dessa obra preocupam a população
por causa dos enormes prejuízos aos comerciantes e à população. E mais: o custo dessa
obra tem-se elevado exorbitantemente.
O Metrô de Fortaleza, cuja conclusão da Linha Sul estava prevista a um custo de
R$500 milhões, está programado para ser concluído em 2011, ao elevadíssimo custo de
R$1,1 bilhão que incidirá na tarifa e causará grave problema. A tarifa terá de ser subsidiada
para a obra não ficar inacessível ao usuário em razão de seu elevado custo.
Temos, portanto um exemplo de falácia do custo perdido, pois todos os
governadores tomaram a decisão de continuar a obra sem levar em conta os gastos
passados levando em conta somente os gastos futuros. Em outras palavras, eles só
consideraram somente os custos futuros e necessários para concluir a obra para tomar a
decisão. A decisão de construir ou não a obra do metrô aparece somente na gestão do
governador Tasso Jereissati no ano de 1999, porém vale ressaltar ainda que o primeiro
projeto do Metrô de Fortaleza foi feito em 1984 com a fundação do Metrofor, ou seja, os
gastos com o Metrô vêm desde o governo do governador Adauto Bezerra.
O governador Cid Gomes recebeu apoio financeiro para o metrô de Fortaleza, de R$
142,3 milhões, que será destinado à construção do primeiro estágio do Metrofor, o da linha
Sul, trecho entre as estações de Vila das Flores e João Felipe. O projeto faz parte do Plano
de Aceleração do Crescimento (PAC) e está orçado em R$ 804,3 milhões, dos quais o
BNDES participará com 17,7%. Caso o governador Cid Gomes não consiga concluir a obra
este valor será o próximo custo a ser afundado ou perdido pelo seu sucessor.
9. ENTRAVES AO ANDAMENTO DO METROFORAs Figuras 1 e 2 mostra manchete em
jornais sobre o entrave na obra do Metrofor.
Figura 1. Machete do jornal Diario do
Nordeste.
Figura 2. Manchete da seção de negocios do jornal
Diario do Nordeste.
Obra parada custa caro. No caso do Metrofor, que já se estende por mais de 10
anos, os trabalhos paralisados representaram um dispêndio de US$ 6 milhões por ano
(Souza, 2008).
Os Trens urbanos que trafegam em Fortaleza estão totalmente obsoletos e mostram
que população da Região Metropolitana da Capital Cearense,está optando cada vez menos
por este meio de transporte nas condições existentes hoje, a Figura 3 mostra situação dos
trens urbanos até pouco tempo e a Figura 4 mostra o projeto do metrô de Fortaleza.
178
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Figura 3. Situação dos trens urbanos até
pouco tempo.
Figura 4. O projeto do Metrô de Fortaleza.
Primeiro foi a falta de dinheiro. Agora, são questões burocráticas que ameaçam a
celeridade das obras do Metrô de Superfície de Fortaleza — o Metrofor. Depois de ter
parado por cinco anos, o projeto, com 55% de execução da Linha Sul, passou por entraves
como a necessidade de atualização tecnológica dos trens e empecilhos de toda ordem,
principalmente, na área do Centro de Fortaleza. Até o fornecimento de aço no mercado
internacional pode trazer impacto negativo no prazo de conclusão do metrô cearense.
O problema principal eram os recursos, e isso não existe mais. Agora, uma série de
variáveis precisam ser equacionadas para fazer com que o projeto avance nos 45%
restantes para construir a Linha Sul. A Companhia Cearense de Transportes Metropolitanos
(Metrofor) negociou com o fornecedor dos trens, a multinacional francesa Alston do Brasil,
questões referentes à remodelação e à remontagem da linha de produção dos
equipamentos.
O elevado de Parangaba é necessário porque a estação Parangaba está próxima a
Lagoa com o mesmo nome. Se fosse subterrânea seria necessário fazer bombeamento
constante de água, daí ser melhor fazer a estação elevada mesmo tendo que rebaixar a
velha estação que foi tombada patrimônio histórico. Para fazer subterrâneo o trecho era
necessário fazer um desvio, ou seja, o metrô teria que passar longe da atual estação de
Parangaba, para evitar o bombeamento de água. A nova estação Parangaba do metrô será
elevada e está sendo feito vizinho ao já existente terminal ônibus urbano de Parangaba
como mostra as Figura 5, de, onde após a conclusão do metrô haverá uma interligação dos
modais, ferroviário e rodoviário. Os passageiros descerão do metrô e apanharão o ônibus no
terminal de integração de Parangaba sem pagar nova passagem.
179
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Figura 5. Terminal de ônibus de Parangaba, com estação de metrô logo atrás. Fonte própria, 2010.
Com a execução da parte do metrô na superfície, Fortaleza e Maracanaú ficaram
como uma grande dificuldade de fluxo de veículos, pois é como se tivesse uma parede nas
cidades, com as passagens de nível que já existem do trem suburbano.
Na realidade no trecho na superfície estamos substituindo o trem suburbano (CBTU)
a diesel por um trem elétrico moderno, mais rápido, seguro, não poluente e mais confortável,
pois o trajeto será o mesmo dos trens da CBTU, ou seja, as estações estão sendo
substituídas por outras mais modernas. Também a via permanente está sendo substituída.
Recentemente o Metrô sofreu nova paralisação imposta pelo TCU (Tribunal de
Contas da União), onde foi constatado superfaturamento na obra (VASCONCELOS,
2009).O metrô poderá passar por nova licitação atrasando ainda mais a obra, com o objetivo
de melhorar o trânsito e o transporte de passageiros. A obra do metrô de Fortaleza é uma
das mais polêmicas do Brasil, valendo ressaltar que a cidade de Natal terá seu metrô
funcionando antes de Fortaleza.
9.1. ADEQUAÇÕES
O primeiro projeto do Metrofor para a Linha Sul, não existia os 3,9 km em subterrâneo,
que é justamente o trecho do centro da cidade.A alegação dos engenheiros era que o trecho sendo
subterrâneo aumenta em 25 vezes o valor da obra. Porém depois o governo resolveu fazer a
modificação. O segundo projeto do Metrofor é de 1997/98 e começou a ser executado em
1999. Mas, as obras pararam em 2002 e só foram retomadas praticamente em 2008. Desde
então, a empresa fornecedora dos trens parou de fabricá-los. Com o avanço da tecnologia,
é necessario fazer adequações ao projeto. Não existem trem em pronta entrega. Tem-se de
garantir um adequado ao perfil de Metrofor.
No Metrofor, existe um trem com a caixa toda pronta, com motor de tração e outras
peças que já saíram da garantia. A Alston do Brasil, com filial em São Paulo, quer inclusive
receber da Companhia remuneração pelo custo de armazenagem do equipamento. Os
fornecedores cobram a remodelagem, a remontagem e o pátio, que é alugado.
9.2. MATÉRIA-PRIMA
Outro problema com a Alston é a falta de aço inox no mercado internacional. A
multinacional parou de produzir as peças das caixas dos trens de Nova York por falta da
matéria-prima. A China está comprando toda a produção de aço inox do mundo. Até isso
pode afetar a execução dos trens do Metrofor.
180
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
No projeto do metrô local, também devem passar por atualização as partes de
interface de fibra ótica, transmissão de dados, sinalização, telecomunicações e softwares.
O governo do Estado está buscando alternativas para absorver a tecnologia
moderna. O PAC (Programa de Aceleração do Crescimento) tem um dinheiro que
teoricamente custeia a atualização tecnológica. O PAC prevê 11% a mais do saldo
contratual para essa finalidade.
9.3. ESTAÇÃO DE PARANGABA
Tombada em 2006 pela Prefeitura de Fortaleza, a Estação de trem da Parangaba foi
rebaixada em 3,5 metros, para que os trilhos da linha leste do Metrofor, que liga a Estação
João Felipe, o Centro, à Estação Vila das Flores, em Maracanaú, passe por cima,
preservando o prédio histórico. O prédio tombado é de 1873 (BRAGA, 2009).
Depois de muita polêmica, finalmente a obra de rebaixamento e restauro da antiga
Estação da Parangaba foi feita. O trabalho foi executado pela Secretaria de Infra-Estrutura
do Ceará (Seinfra), com a parceria da Secretaria de Cultura de Fortaleza (Secultfor). O
trabalho foi concluido concluído em 90 dias, com um custo de cerca de R$ 800 mil. A
Figuras 6 e 7 mostram a antiga estação de Parangaba. Na figura 8 podemos ver
passageiros desembarcando na estação do trem suburbano (CBTU) da Parangada, onde
podemos ver tambem a obra do elevado (viaduto) do Metrofor, vendo no fundo da foto a
antiga estação que foi rebaixada.
Figura 6. A estação da Parangaba quando esta
foi tombada.
Figura 7. Desembarque na estação da Parangaba
(CBTU).
Engenheiros constataram que a melhor solução, ou seja a mais barata foi rebaixar a
estação para que o viaduto do metrô fosse concluido.A Figura 8 mostra a estação antiga de
Parangada rebaixada, onde se percebe um pilar logo a frente da antiga estação de
Parangaba que foi tambem toda recuperada.
181
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Figura 8. Estação antiga de Parangaba rebaixada. Fonte própria, 2010
10.
CONCLUSÃO
Os problemas porque passam o sistema de trens urbanos da Região Metropolitana
de Fortaleza (RMF) vão além da burocracia e dos entraves tecnológicos apontados pela
direção do Metrofor.
A cidade de Fortaleza possui um problema serio de tansporte urbano, hoje sua
população chega a mais de 2,4 milhões de pessoas e é inadimessivel não possuir um Metrô.
Dai a relevância, ou seja, a importância deste trabalho frente ao atual cenário do setor
metro-ferroviário no Brasil.
O projeto do metrô contém erros, como não fazer subterrâneo o restante da Linha
Sul, com uma ressalva para o elevado de 2,2km no Bairro de Parangaba. Na realidade
estamos substituindo o trem suburbano (CBTU) a diesel por um trem elétrico moderno, mais
rápido, seguro, não poluente e mais confortável, pois o trajeto será o mesmo dos trens da
CBTU, ou seja, estação substituindo as estações por outras mais modernas. Foi modificado
apenas 3 km do percurso antigo, o qual está subterrâneo. A obra do Metrofor está sempre
envolta em polêmicas como contingenciamento de verbas, supostas irregularidades e
problemas técnicos no projeto.
Passados mais de 10 anos, a obra, que é um símbolo da chegada do
desenvolvimento para a capital do Ceará e passou a ser um dos pilares de sustentação da
escolha de Fortaleza como sede da Copa de 2014, continua emperrada deixando Fortaleza
fora dos Trilhos.
11.
REFEFÊNCIAS BILBIOGRÁFICAS
BRAGA, T.(2009). Estação será rebaixada, Jornal O Povo, 12/07/2009
CBTU (2009). Companhia Brasileira de Trens Urbanos. http://www.cbtu.gov.br
GUMARÃES, Y (2008). Quando o transito para a cidade, Jornal O Povo, 24/11/2008,
http://www.opovo.com.br
METROFOR (2009). Metrofor. http://www.metrofor.ce.gov.br
OLANDA, E. P (2008). Metrofor, Trabalho de conclusão de curso, Universidade Estadual do
Vale do Acaraú - UVA.
SOUZA, S.(2008). Obra parada custa R$ 6 milhões, 30/06/2008, Jornal Diario do Nordeste.
30/06/2008
VASCONCELOS, P (2009). TCU manda reter verbas do Metrofor e obras param. Jornal
Diário do Nordeste, 02/07/2009, http:// diariodonordeste.globo.com
182
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Fotobiorreatores para processamento de microalgas
Alexsandro Bona, Daniel Machado Thomaz, Felipe Cardoso Chicralla, Fernando Maia de Magalhães
Senna, Fabio Barboza Passos.
Escola de Engenharia - Universidade Federal Fluminense (UFF) Niterói, RJ, Brasil
E-mail: [email protected], [email protected], [email protected],
[email protected], [email protected]
RESUMO
O presente trabalho estuda o cultivo de microalgas marinhas em fotobiorreatores como fonte
de óleo para produção de biodiesel, pois algumas espécies apresentam grande quantidade
de óleo, são de fácil cultivo e rápido crescimento. Avalia-se o crescimento comparativo
simulando lagoas em repouso e também a adição de CO2 industrial misturado com ar nas
concentrações de 2% e 4%, como fonte de carbono e estímulo de crescimento no
fotobiorreator. O fotobiorreator é um reator onde se processa a reação de fotossíntese, na
qual a microalga, utilizando-se de luz, sintetiza o CO2 com água, para produção de glicose.
A vantagem de se utilizar o fotobiorreator é, sobretudo, a possibilidade de se poderem
controlar parâmetros de processo, como: luz, pH, temperatura, nutrientes, velocidade de
escoamento, mistura gasosa, espécies, dentre outros. Estes parâmetros são variados com o
intuito de se obter maior crescimento de microalgas e/ou produtividade de óleo, em menor
tempo. Com 4% de mistura CO2/Ar, obteve-se o dobro de crescimento de microalgas
quando comparado ao ensaio sem a adição de CO2. Quanto às concentrações da mistura,
de 2% e 4%, obteve-se maior crescimento a 2%. Além do óleo, as microalgas podem ainda
gerar outros produtos de interesses comerciais.
Palavras-Chave: Biodiesel. Microalgas. Fotobiorreatores.
INTRODUÇÃO
O estudo de microrganismos como microalgas deve-se à essencial importância
destes nas diversas cadeias tróficas e na possibilidade da aplicação comercial em distintas
áreas como na nutrição, na saúde humana e animal, no tratamento de águas residuais, na
produção de energia e na obtenção de compostos de interesse das indústrias de alimentos,
química e farmacêutica, dentre outras. Atualmente, as pesquisas em biotecnologia
empregando microalgas vêm ganhando especial atenção. Mas a coleta e o cultivo para
utilização na alimentação humana já são realizados há séculos.
Diferentes estudos realizados mostram que as microalgas possuem o mais elevado
rendimento para extração de óleo vegetal, tornando-se uma excelente alternativa para a
extração de óleo para biocombustíveis – devido à sua elevada densidade de lipídios,
comparado com as oleaginosas, tais como canola, soja, palma, girassol, etc. Dessa forma,
as microalgas poderiam teoricamente produzir mais óleo por hectare e reduzir o custo dos
biocombustíveis.
Microalgas vêm sendo consideradas como fonte potencialmente útil para a produção
de biodiesel no futuro. Além disso, diversas espécies apresentam elevadas concentrações
de lipídeos encerrando altas concentrações de energia, característica interessante como
matriz para produção de combustíveis (LOURENÇO, 2006)
O presente trabalho estuda o cultivo de microalgas marinhas em fotobiorreatores
como fonte de óleo para produção de biodiesel.
MATERIAIS E MÉTODOS
Para os experimentos foi utilizada uma unidade de fotobiorreator tubular semi-piloto.
Pode-se desmembrar a construção da unidade em três partes estruturalmente
independentes. São elas: 1) estrutura mecânica de suporte; 2) parte elétrica; 3) reator.
183
VII Seminário Fluminense de Engenharia Niterói-RJ 19
9 de outubro de 2011
A estrutura mecânica de suporte, assim como estruturas padrão de laboratório para
unidades de diferentes finalidades de pesquisa, é composta por barras em "L" perfuradas,
chapa pré-galvanizada,
galvanizada, porcas e parafusos que mantêm a estrutura unida. As dimensões da
estrutura metálica foram estipuladas para que toda a unidade coubesse em cima da
bancada do laboratório, essa estrutura foi ainda revestida com isopor forrado com papel
alumínio, a fim de isolar o fotobiorreator da iluminação do laboratório e concentrar a
luminosidade.
Foram utilizadas 14 (catorze) barras ao todo, sendo 4 (quatro)
(quatro) para a composição da
base, juntamente com uma chapa de metal galvanizado, outras 4 (quatro) para sustentação
vertical, 2 (duas) para o suporte das lâmpadas e outras 4 (quatro) para a composição do
topo da estrutura. As barras que percorrem a largura da estrutura têm 100 cm de
comprimento, as que conferem altura à estrutura têm 70 cm de comprimento e as restantes
dão uma profundidade de 64 cm para a estrutura, mostrada na Figura 1a.
a)
Término da montagem.
b) Crescimento de microalgas no fotobiorreator.
fot
Figura 6:: Estrutura de aço contendo o fotobiorreator e iluminação.
iluminação
Observam-se
se ainda, na Figura 1a, as lâmpadas fluorescentes, parte integrante do
sistema de iluminação, contido na estrutura mecânica. A distância da base da estrutura até
as lâmpadas é de aproximadamente 38 cm. Para a montagem e facilidade na operação do
sistema de iluminação, as lâmpadas foram conectadas a três interruptores, sendo todas as
seis operadas ligadas em foto-período
foto
de 24h e todas com potência
ncia de 40 W cada.
Em conjunto com a estrutura metálica observada na Figura 1a. faz-se
faz
necessária a
instalação de um sistema de fornecimento de energia elétrica. A energia elétrica tem como
finalidade o provimento de iluminação ao fotobiorreator, bem como o provimento de energia
para o acionamento da bomba que compõe o fotobiorreator.
Por fim, o sistema do fotobiorreator deve ser apresentado. Trata-se
Trata
de um modelo
em scale-down, conforme sugerido por Roselo Sastre et al. (2007), tomando-se
tomando
como
referência básica
ásica parte do trabalho de Acién Fernández et al. (2001), de reator tubular.
O fotobiorreator (Figura 1b.) foi construído utilizando-se
utilizando se tubulação de vidro (boro(boro
silicato) para o coletor de luz, em uma única peça. As conexões utilizadas são de PVC, e o
degaseificador também é de material plástico. A bomba utilizada, de pequena vazão, é típica
para usos em aquários domésticos. Trata-se
Trata se de uma moto bomba submersa, da marca
Sarlobetter, modelo S300, com vazão máxima de 280 L/h, vazão esta utilizada em todos os
ensaios.
Para a manutenção inicial das algas utilizadas nos experimentos, foi utilizada uma
câmara de germinação com fotoperíodo e alternância de temperatura da marca CIENTEC,
mantida em um fotoperíodo de 12 h: 12 h (claro:escuro) e temperatura de 19 °C.
°
Para cada um dos experimentos, são preparados 5,0 (cinco) litros de solução de
meio de cultivo Gillard-"f/2"
"f/2" modificado, posteriormente transferidos para o interior do
184
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
fotobiorreator, após a desinfecção e esterilização do mesmo. A água do mar utilizada no
preparo do meio é proveniente da Baía da Ilha Grande, após tratamento realizado pelo
Instituto de Ecodesenvolvimento da Baía da Ilha Grande, situado em Angra dos Reis. A
título de esclarecimento, o tratamento realizado ali compreende sistema de filtração e
desinfecção por radiação UV. (SOARES, 2011)
São escolhidas cepas de Dunaliella tertiolecta para cada um dos experimentos, de
acordo com as que se apresentaram mais promissoras, por uma análise de viabilidade
celular em câmara de Neubauer. Após a inoculação da cepa, o fotobiorreator e o sistema de
iluminação são ligados à fonte de energia elétrica. Ao longo da operação, a cada dia, são
retiradas alíquotas de solução contendo algas, do interior do fotobiorreator, para contagem
celular utilizando-se contagem celular em câmara de Neubauer Improved, Optik New, com
profundidade de 0,100 mm e área de 0,0025 mm2, em um microscópio BIOVAL, modelo
L2000C. As alíquotas são preparadas com 10,0 (dez) mL de solução oriunda do
fotobiorreator e 1,0 (um) mL de solução de vinagre com tintura de iodo a 2%. São também
feitas medidas de pH em um pHmetro Quimis.
Após atingir a fase estacionária e se evidenciar declínio na população de microalgas,
o conteúdo do fotobiorreator é retirado, e se inicia um novo ensaio.
Os ensaios cujos resultados são apresentados na Figura 2, foram realizados
alimentando-se o fotobiorreator com um inóculo de cerca de 104 microalgas/mL de meio,
para tanto foram retiradas alíquotas do repique armazenado na câmara de germinação e
adicionado ao fotobiorreator contendo meio f/2, até o volume de 4,5L, adicionou-se então a
injeção da mistura de CO2/Ar a 4%, na saída da bomba de recirculação do sistema, como
fonte de carbono para o metabolismo das microalgas, a exemplo de Tang et al (2010).
Paralelamente foi realizado um ensaio com a mesma proporção de inóculo, 104
microalgas/mL, adicionado em um Béquer com 500 mL de meio “f/2”, a fim de simular o
cultivo em lagoas sem agitação, sob a mesma intensidade luminosa, a qual foi medida
utilizando-se um luxímetro.
Os ensaios cujos resultados são apresentados na Figura 3 foram realizados
alimentando-se o fotobiorreator semelhantemente aos ensaios da Figura 2, porém com um
inóculo de cerca de 105 microalgas/mL de meio, então injetou-se a mistura CO2/Ar a 4% e a
2%, a uma vazão de 60mL/min., na saída da bomba de recirculação do sistema. O objetivo
foi de avaliar diferentes misturas de CO2/Ar adicionado e sua influência no crescimento das
microalgas.
Cabe citar que, as contagens na câmara de Neubauer foram realizadas até atingir o
número de 400 microalgas, para então conversão mediante tabela fornecida pelo método, o
que resulta em um erro de até 10% no número de microalgas/mL, considerado aceitável
para este estudo.
RESULTADOS E DISCUSSÕES
Os valores apresentados na Figura 2 referem-se às médias de dois ensaios para
cada curva. As condições de luminosidade também foram mensuradas e se obteve valores
de 4.880 Lux no fotobiorreator (média de 7 pontos) e 4.860 Lux na superfície do Béquer.
Uma vez adicionado CO2, o pH do meio tornou-se levemente ácido, cerca de 6,4
enquanto que no Béquer o pH apresentava valor de 8,6. Observa-se ainda que o
crescimento inicial, após 24h, apresenta-se maior no caso do Béquer, onde o pH é mais
elevado, já no fotobiorreator, este tempo de 24h parece ser necessário para adaptação das
microalgas ao meio acidificado pela adição de CO2, ou seja, necessita-se de um período
mais longo de adaptação das microalgas no fotobiorreator. Após esta adaptação, os valores
encontrados em número de microalgas/mL foram superiores no fotobiorreator, não sendo
este, alcançado pelo ensaio realizado no Béquer, o qual atingiu a fase estacionária com
5,70x105 microalgas/mL, quando no fotobiorreator havia 1,47x106 microalgas/mL, após 96h.
185
VII Seminário Fluminense de Engenharia Niterói-RJ 19
9 de outubro de 2011
Figura 2.. Gráfico comparativo de crescimento de microalgas no fotobiorreator com 4% de CO2 versus
crescimento no Béquer em repouso.
Para incrementar o crescimento com redução do tempo, foram adicionado ao meio
um inóculo mais concentrado, contendo cerca de 105 microalgas/mL, para então realizar os
ensaios apresentados na Figura 3, com misturas contendo 2% e 4% de CO2 dissolvido em
Ar.
Pode-se
se observar em ambas as curvas um decaimento após 24h, contudo, como já
foi dito, este decaimento têm influência do erro de contagem inerente ao método,
métod quando da
contagem de 400 células na alíquota retirada. O resultado a 2% mostrou-se
mostrou
levemente
melhor que quando utilizados os 4% de mistura CO2/Ar, pois atingiu a fase estacionária com
1,55x106 microalgas/mL, enquanto que com 4% de mistura, o valor foi de
1,38x106microalgas/mL. Com o aumento da concentração do inóculo, houve um ganho
referente ao tempo, pois se atingiu a fase estacionária em apenas 72h. Isso se demonstra
interessante, pois se pretende produzir maior número de indivíduos em menor tempo.
Número de microalgas (indivíduos/mL)
Contagem de microalgas no FBR
2,56E+06
1,28E+06
6,40E+05
3,20E+05
1,60E+05
8,00E+04
4,00E+04
2,00E+04
1,00E+04
0:00
24:00
48:00
72:00
96:00
120:00 144:00 168:00 192:00
Tempo (Horas)
FBR com CO2 a 4%
FBR com CO2 a 2%
Figura 3. Gráfico comparativo entre crescimento de microalgas com mistura CO2 / Ar de 4% e 2%.
186
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
CONCLUSÕES
Pode-se concluir que o uso de fotobiorreatores com adição de mistura de CO2/Ar
para cultivo de microalgas Dunaliella tertiolecta, tem grande benefícios comparado com
sistemas de lagoas ou tanques sem agitação, pois atinge maior crescimento com valores
superiores de indivíduos em fase estacionária e em menor tempo, além de que em sistemas
fechados, como no caso do fotobiorreator utilizado, é possível controlar parâmetros de
processo. A adição de diferentes concentrações de CO2 pode ser mais amplamente
estendida, tomando-se como parâmetro também o valor de pH, pois o pH ácido ocasiona
inativação da microalga.
REFERÊNCIAS
ACIÉN FERNANDÉZ, F. G.; FERNANDÉZ SEVILLA, J. M.; SÁNCHEZ PÉREZ, J. A.;
MOLINA GRIMA, E.; CHISTI, Y. (2001). Airlift-driven external-loop tubular
photobioreactors for outdoor production of microalgae: assessment of design and
performance. Chemical Engineering Science, vol. 56 (8), 2721-2732.
BRASIL. Ministério de Minas e Energia. Agência Nacional de Petróleo, Gás Natural e
Biocombustíveis.(2008). Resolução No Ol, de 19 de março de 2008. Diário Oficial da
República Federativa do Brasil, Brasília, DF, 23 de março de 2008. Disponível em:
http://nxt.anp.gov.br/NXT/gateway.dll/leg/resolucoes_anp/2008/mar%C3%A7o/ranp%20
7%20-%202008.xml?f=templates$fn=document-frame.htm$3.0$q=$x=$nc=893l. Acesso
em: 5 de janeiro de 2011.
KNOTHE, G.; GERPEN, J. V.; KRAHL, J. (2005). The Biodiesel Handbook. Champaign,
Illinois: AOCS Press. 303p.
LOURENÇO, S. O. (2006). Cultivo de Microalgas Marinhas: Princípios e Aplicações. RiMa
Editora. São Carlos 588p.
ROSELO SASTRE, R.; CSÕGÕR, Z.; PERNER-NOCHTA, I.; FLECK-SCHNEIDER, P.;
POSTEN, C. (2007). Scale-down of microalgae cultivations in tubular photo-bioreactors A conceptual approach. Journal of Biotechnology, vol. 132 (2), 127-133.
SOARES, Von Held. A. (2011). Fotobiorreatores para processamento de microalgas.
Dissertação de Mestrado (Curso de Pós-graduação em Engenharia Química),
Universidade Federal Fluminense, Niterói 130p.
TANG, H.; ABUNASSER, N.; GARCIA, M.E.D.; CHEN, M.; SIMON NG, K.Y.; SALLEY, S.O.
(2010). Potential of microalgae oil form Dunaliella tertiolecta as a feedstock for biodiesel.
Applied Energy, vol 88 (10), Elsevier Ltd, 3324-3330.
187
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Interdisciplinaridade na Universidade Federal Fluminense:
possibilidades de desenho industrial e engenharia
João Carlos Lutz Barbosa, Regina Celia de Souza Pereira
Escola de Engenharia - Universidade Federal Fluminense (UFF)
Niterói, RJ, Brasil
[email protected], [email protected]
RESUMO
Este trabalho apresenta o novo curso de graduação em Desenho Industrial oferecido pela
Escola de Engenharia da UFF. O curso formará profissionais capazes de interagir com
outras áreas envolvidas no desenvolvimento de produtos e serviços. Novos produtos e
serviços têm gênese multidisciplinar e em seu desenvolvimento há campos interdisciplinares
que devem ser explorados para atingir resultados que respondam a necessidades humanas
reais. Consequentemente, o referido curso integra conhecimentos de áreas como:
Matemática, Administração, História, Computação, Economia, Automação, Ecologia,
Desenho e Ergonomia. O termo design se refere a um tipo de atividade projetual que lida
com o desenvolvimento de soluções para disfunções percebidas na sociedade. O design é
fundamental para agregar valor competitivo aos produtos, que incorporam tecnologia. Os
contextos de uso se multiplicam e nesse ambiente tecnológico o papel da ergonomia para
desenvolver interfaces e garantir usabilidade é crescente. O curso se volta para um mercado
tecnológico ligado às atividades econômicas regionais - por exemplo, petróleo e indústria
naval. Os egressos estarão capacitados a usar as ferramentas do design unidas às da
engenharia numa visão estratégica empreendedora comprometida com valores éticos de
sustentabilidade.
Palavras-chave: interação desenho industrial – engenharia; ergonomia; sustentabilidade.
1. INTRODUÇÃO
No Brasil os cerca de 400 cursos de graduação existentes em Desenho Industrial
estão associados a escolas ou departamentos de arquitetura, artes, comunicação ou à
própria área do Design. Nesse quadro, a criação de um curso de Design de Produtos
inserido na Escola de Engenharia da UFF representa uma inovação importante, na medida
em que resgata uma abordagem tecnológica para a atividade e se propõe a estabelecer
relações mais sólidas com o setor secundário da economia nacional.
Historicamente, no Brasil, das duas habilitações tradicionais, Design Gráfico e
Design de Produtos, a primeira teve desenvolvimento mais rápido e consistente, obtendo um
peso maior como atividade econômica e também o devido reconhecimento nacional e
internacional de profissionais que se destacaram pela qualidade e caráter inovador de seus
projetos.
O Design de Produtos, por contingências históricas, desenvolveu-se vagarosamente
em terras brasileiras e só a partir dos anos 1990, com o aprofundamento da globalização,
começou a ser reconhecido como atividade agregadora de valores funcionais fundamentais
para a competitividade da indústria nacional.
Entretanto, apesar desse reconhecimento tardio, a estrutura para o ensino do Design
de Produtos continua defasada quando comparada à estrutura existente para o ensino de
Design Gráfico.
Essa defasagem não diz tanto respeito à estrutura física de laboratórios e oficinas,
mas sim e principalmente aos métodos projetuais ensinados, ao entendimento do papel da
atividade de Design como ferramenta estratégica para empresas e para os próprios estados
nacionais, à inserção de procedimentos sistemáticos de pesquisa na graduação e,
188
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
finalmente, à utilização de “ferramentas tecnológicas” como Cálculo, Estatística, Engenharia
de Materiais, Ergonomia e Computação.
Cabe ainda ressaltar um segundo grupo de conhecimentos que tem fundamental
importância para a prática contemporânea do Design de Produtos e que pertence às
Ciências Humanas. A compreensão do papel das diferentes culturas em seus aspectos
históricos, sociológicos e antropológicos é (sempre foi, na verdade) determinante para o
desenvolvimento de produtos e serviços adequados a uma realidade comercial cada vez
mais globalizada e marcada pela busca da sustentabilidade ecológica.
O Projeto Pedagógico do curso de Design de Produtos da UFF considerou
cuidadosamente sua inserção nesse panorama complexo e procurou apresentar respostas
aos desafios conceituais e pedagógicos mencionados. É esse projeto que apresentamos
com mais detalhes a seguir.
2. MULTIDISCIPLINARIDADE E DESIGN
Reconhecendo que as atividades projetuais em geral, e em especial o Design de
Produtos, dependem de aportes de conhecimentos de diversas áreas, o curso da UFF
reuniu esses conhecimentos em quatro linhas didáticas:
1 - Desenho, Raciocínio Espacial e Computação Gráfica.
2 - História, Economia e Planejamento.
3 - Tecnologia
4 - Projeto Integrado à Ergonomia.
A primeira dessas linhas - Desenho, Raciocínio Espacial e Computação Gráfica agrupa 10 disciplinas obrigatórias e totaliza 606 horas. Tratamos do desenhar tradicional, a
mão livre e com instrumentos (316 horas), procurando enfatizar não tanto o virtuosismo
expressivo, mas sim as funções de comunicação dos desenhos e seu papel fundamental no
desenvolvimento de novas ideias e conceitos. São abordadas também as normas para o
Desenho Técnico e diversas técnicas consagradas no desenho de arquitetura e no design
gráfico.
Ainda nessa linha destaca-se o ensino da Computação Gráfica, com 290 horas
dedicadas ao domínio progressivo de programas como AutoCad e SolidWorks (a oferta
desses tipos de programas varia no tempo rapidamente, e aqui estão nomeados apenas
como exemplificação).
A segunda linha - História, Economia e Planejamento - reúne 11 disciplinas e totaliza
620 horas. Há disciplinas voltadas para a compreensão da relação entre desenvolvimento
tecnológico e evolução do design (História do Design); para a contextualização do
desenvolvimento do design industrial como parte integrante e fundamental do processo de
industrialização brasileira (História do Design Brasileiro); e para a compreensão da
importância do ecodesign em suas perspectivas ambiental e de negócios (Design
Ecológico).
189
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
LINHAS
DIDÁTICAS
PROJETO
INTEGRADO À
ERGONOMIA
PERÍODO
CH L.Didática
1 o.
2 o.
3 o.
4 o.
5 o.
6 o.
7 o.
8 o.
TDT
68h
projeto de
design 1
TDT
68h
projeto de
design 2
TDT
68h
projeto de
design 3
TDT
68h
projeto de
design 4
TDT
68h
projeto de
design 5
TDT
136h
projeto de
design 6
TDT
136h
projeto de
design 7
TDT
34h
TCC trabalho de
conclusão de
curso
TEP 04.017
60h
metodologia
de desenvolvimento de
produtos
TDT
68h
modelagem
física e
criatividade
TEP 04044
60h
ergonomia 1
TDT
68h
ergonomia 2
TDT
68h
ergonomia 3
TDT
68h
ergonomia 4
TDT
TDT
68h
68h
ergodesign 1 ergodesign 2
TDT
68h
comunicação
visual
1242
TECNOLOGIA
GFI00161
30h
física
experimental I
GMA 00.108
68h
cálculo I-A
GFI 00.158
68h
física I
TEM 00.190
TEM
60h
60h
introdução à
materiais e
mecânica dos processos de
sólidos fabricação
estática
TEP 04.027
60h
automação
da produção
TDT
optativa 1
optativa 4
GET 00.119
72h
estatística
básica para
engenharia II
418
HISTÓRIA,
ECONOMIA E
PLANEJAMENTO
TDT
68h
história do
design
TDT
34h
história do
design
brasileiro
TEP 04.074
60h
ciência e
tecnologia
TEP 00.109
60h
economia
aplicada à
engenharia
TEC 00.209
60h
propriedade
industrial
TER 00.180
60h
engenharia e
meio
ambiente
TEP 00.108
TEP 00.190
60h
60h
administração planejamento
aplicada à
estratégico
engenharia
industrial
TDT
68h
design
ecológico
TEP
60h
empreendedorismo
optativa 2
atividades
complementares
TER 00.030
30h
exercício
profissional e
cidadania
620
DESENHO,
RACIOCÍNIO
ESPACIAL,
COMPUTAÇÃO
GRÁFICA
TDT
60h
desenho de
observação
TDT 00.038
68h
fundamentos
do desenho
técnico I
TDT
TDT 00.043
60h
60h
projeto
projeto
assistido por assistido por
computador I computador II
TDT
34h
computação
gráfica 1
TDT 00.041
60h
desenho de
projetos
mecânicos
TDT 03.021
60h
técnicas
gráficas I
TDT
68h
rendering
TDT
68h
computação
gráfica 2
TDT
68h
multimeios
eletivas
optativa 3
606
CH período
324
408
428
444
478
400
302
102
2886
Figura 1 – Grade do curso de Desenho Industrial da UFF.
190
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Há ainda disciplinas da Engenharia voltadas: para questões de ciência e tecnologia
(Ciência e Tecnologia); para a interação com o meio ambiente (Engenharia e Meio
Ambiente); para a compreensão do sistema econômico e da administração de empresas
(Economia Aplicada à Engenharia, Administração Aplicada à Engenharia); para o
desenvolvimento de estruturas organizacionais compatíveis com estratégias competitivas
(Planejamento Estratégico Industrial). E ainda disciplinas voltadas para o conhecimento da
cultura empreendedora (Empreendedorismo), para a compreensão do sistema de proteção
intelectual (Propriedade Industrial), e para a discussão de responsabilidades éticoprofissionais (Exercício Profissional e Cidadania).
Nessa linha há algumas (03) disciplinas específicas criadas para o curso de Design e
outras (08) que são oferecidas para os diversos cursos de Engenharia da UFF. Essas
últimas disciplinas dessa segunda linha didática reúnem conhecimentos de diversas áreas,
já direcionados e preparados para os cursos de Engenharia. A decisão de oferecê-las para
os estudantes de Design visa criar e manter uma base comum entre os cursos e reforçar a
pertinência do Design de Produtos ao ambiente acadêmico dos cursos de Engenharia.
A terceira linha – Tecnologia – congrega sete disciplinas da Matemática, da Física e
da Engenharia, e totaliza 418 horas (Cálculo 1-A, Física I, Física Experimental I, Estatística
Básica para Engenharia II, Introdução à Mecânica dos Sólidos – Estática, Materiais e
Processos de Fabricação, Automação da Produção).
Cabe aqui notar que essas disciplinas, ao longo dos últimos 20 anos, foram sendo
gradativamente reduzidas ou eliminadas dos currículos dos cursos de design de produtos.
Como consequência, a formação tecnológica dos estudantes distanciou-se da formação dos
engenheiros e do setor industrial da economia. Ao resgatar essas disciplinas no curso de
design da UFF, o objetivo é justamente de reaproximar os designers de produtos do
ambiente fabril, estabelecendo através do dominio de ferramentas comuns a possibilidade
de uma comunicação mais eficaz entre “criadores” e “fabricadores”.
A quarta linha - Projeto Integrado à Ergonomia – compreende as disciplinas de
Projetos de Design (de 1 a 7, mais o TCC – Trabalho de Conclusão de Curso), Ergonomia
(de 1 a 4) e ErgoDesign (1 e 2). Inclui ainda Modelagem Física e Criatividade, e totaliza
1242 horas. A importância dessa linha didática para a integração criativa dos diversos
conhecimentos está apresentada em mais detalhes na seção que segue.
3. INTERDISCIPLINARIDADE E DESIGN
Nos quatro primeiros semestres os estudantes devem construir uma base de
conhecimentos que permita, a partir do quinto período, direcionar seus projetos e interesses
para atuação profissional após a graduação. Desde o primeiro período do curso os alunos
têm disciplinas de Projeto de Design, onde desenvolvem temas de complexidade crescente.
Como peça chave para agregar valor competitivo a produtos que incorporam tecnologia o
design é fundamental. Os contextos de uso se multiplicam e nesse ambiente tecnológico o
papel da ergonomia para desenvolver interfaces e garantir usabilidade é crescente. Assim,
as disciplinas de projeto têm papel integrador, assegurado pelo trabalho da coordenação do
curso.
Entre essas iniciativas integradoras destacam-se os esforços para que todos os
docentes de um mesmo período do curso adotem como tema comum (e integrador) de suas
respectivas disciplinas o tema de estudo proposto pela disciplina de projeto. Dessa forma
fortalece-se a compreensão de que “o projetar” está sempre entre as diversas disciplinas e é
tocado e conduzido por insights de todas elas.
O papel da pesquisa científica na graduação também merece destaque, na medida
em que representa a mais importante tendência nos melhores cursos em todo o mundo.
Mais do que o desenvolvimento de belas formas, os novos produtos, as inovações devem
estar baseadas em análises criteriosas da realidade. Esse procedimento analítico depende,
191
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
para ser eficaz, do domínio das ferramentas e do método de pesquisa científico. Some-se a
isso o comprometimento ideológico a que se propõe o curso de design de produtos da UFF:
trabalhar sobre e a partir de disfunções e necessidades reais da sociedade brasileira. Para
honrar tal proposição a pesquisa científica se revela como a principal estratégia e
ferramenta metodológica, na medida em que permite a construção de modelos e hipóteses
mais “reais” – pois esses modelos e hipóteses são construídos a partir de observações e
análises sistemáticas das relações entre usuário, objeto e contexto.
Projetar é lidar com o inexistente, é lançar algo ao espaço e a tempo desconhecidos.
Projetar não se resume a desenvolver produtos ou mesmo a serviços. Espera-se dos
designers formados pela UFF que participem do projeto e da construção das linhas mestras
que determinarão o porvir das sociedades, e em especial da sociedade brasileira, que
atravessa atualmente momentos de grandes perigos e possibilidades. Esses desafios
profundamente mobilizadores para a comunidade acadêmica e, particularmente, para os
estudantes estão profundamente relacionados com o conceito de sustentabilidade em seus
aspectos triplos: social, econômico e ambiental.
Os esforços para a construção da autonomia dos egressos devem culminar, no
oitavo e último período do curso, com o TCC - Trabalho de Conclusão de Curso. Espera-se
que os estudantes desenvolvam em seus TCCs estudos, pesquisa e projetos para a
melhoria da qualidade do design dos produtos nacionais, contribuindo assim para agregar
valor tecnológico à produção nacional. Fortalecendo a ênfase na pesquisa científica, esperase também que os estudantes relatem seus TCCs também sob a forma de artigos e que os
submetam a revisão em congressos e seminários para subsequente apresentação.
4. DESAFIOS E CONCLUSÕES
A coordenação do curso procurará estabelecer parcerias internas e externas para
direcionar, de forma flexível e estratégica, os projetos dos estudantes (nas disciplinas de
projeto e em especial nos TCCs) para atender carências detectadas em setores econômicos
regionais como os da indústria naval, petrolífera e moveleira.
Espera-se que ao final do curso os egressos estejam capacitados a usar as
ferramentas do design unidas às da engenharia numa visão estratégica empreendedora
comprometida com valores éticos de sustentabilidade. Espera-se que a construção de
competências e de vocabulário profissionalizante contribua para resolver questões
relacionadas à imaturidade do aluno, a carências de formação escolar ou ao seu
desconhecimento da atividade do design e suas peculiaridades. Espera-se também
estimular os estudantes a articular novos conhecimentos e desenvolver visões de mundo
próprias.
Os desafios são muitos, mas não são desconhecidos. A dificuldade maior não é
conceitual, e sim de ordem prática: como, com recursos humanos e materiais reduzidos,
almejar procedimentos e pedagogias que contribuam para a construção de novos
conhecimentos e não apenas para a reprodução de conhecimentos já existentes?
Nesse sentido, a formação de espíritos livres, curiosos e construtivamente críticos
representa o maior desafio para o corpo docente. Como mestres comprometidos com o
futuro, esperamos corresponder a esses desafios sempre com a força dos argumentos e
nunca com os argumentos da força.
5. REFERÊNCIAS
UNIVERSIDADE Federal Fluminense. Pró-Reitoria de Assuntos Acadêmicos. Coordenadoria
de Apoio ao Ensino de Graduação. Escola de Engenharia. TDT - Departamento de
Desenho Técnico. (2010). Projeto Pedagógico do Curso de Graduação em Desenho
Industrial. Niterói. 134p.
192
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Métodos de controle de odor em estação de tratamento de
efluentes
Caldas Priscila Furghieri Bylaardt, Fernandes Lisiane Heinen.
Escola de Engenharia - Universidade Federal Fluminense (UFF)
Niterói, RJ, Brasil
[email protected] [email protected]
RESUMO
A construção de uma Estação de Tratamento de Efluentes (ETE) tem como propósito
melhorar as condições de saúde da população. Entretanto, devido à emissão de gases
odoríferos, geram-se incômodos à comunidade local, sendo a ETE alvo de reclamações
constantes. Os odores gerados podem ser reduzidos com medidas de controle feitas
durante a fase de projeto e operação e até mesmo eliminados quando tratados com
métodos adequados. Este trabalho está baseado em diversas fontes bibliográficas e
apresenta as características de gases emitidos pela ETE, mostrando o sulfeto de hidrogênio
como principal causador do mau cheiro, os pontos críticos de geração destes odores e o
impacto ambiental. Por fim, tratamentos de odores são estudados, apresentando-se as
vantagens e desvantagens, a aplicabilidade, e o aspecto econômico de cada um. Devido às
baixas concentrações dos compostos odoríferos nas ETEs a combustão direta, a adsorção,
os sistemas bioquímicos e o precipitador hidrodinâmico são as tecnologias mais aplicáveis
ao tratamento do odor. Entretanto, a escolha depende de um conjunto de critérios técnicos,
econômicos e ambientais, que leva em consideração aspectos quantitativos e qualitativos de
cada alternativa. Portanto, para cada ETE em específico, fatores devem ser ponderados,
como por exemplo, a identificação dos compostos odorantes presentes.
Palavras-Chave: Estação de Tratamento, tratamento e controle de odor, sulfeto de
hidrogênio.
1. INTRODUÇÃO
A saúde pública sempre foi uma questão de grande preocupação nas civilizações
mais antigas, no Brasil foi somente a partir da década de 70 que ocorreu um maior avanço
na área de saneamento: implantação e modificação de estações de tratamento de resíduos
foram ocorrendo devido às maiores exigências da legislação (NUVOLARI, 2003).
As diferentes composições dos dejetos, os volumes gerados em um determinado
tempo, a toxicidade, todos, influenciam no tratamento dos dejetos. Por exemplo, os
efluentes domésticos contêm grandes quantidades de microorganismos – que refletem o
nível de saúde da população e as condições de saneamento da região – que podem
ocasionar problemas de saúde no cidadão, como hepatites, cólera, entre outros (VON
SPERLING, 2005). Além disso, esses se alimentam da matéria orgânica, gerando um
decréscimo dos teores de oxigênio dissolvido (OD). Para assegurar a vida aquática, o valor
mínimo é de 5,0 mg/L de OD (METCALF & EDDY,1977), mas em caso de atingir o valor
zero, gases fétidos serão lançados, molestando a região local. São, portanto, as
características físicas, químicas e biológicas que traduzem o caráter ou o potencial poluidor
do despejo.
As características físicas como cor e odor são perceptíveis ao estado que se
encontra o esgoto: fresco (coloração cinza e odor relativamente desagradável) ou séptico
(cor preta e odor fétido) – condição na qual ocorre a decomposição dos compostos
orgânicos pela ação das bactérias, em que a concentração de OD pode chegar à zero. O
gás desprendido na decomposição é o sulfeto de hidrogênio que pela ação dos
microorganismos anaeróbicos reduz os sulfatos a sulfitos, gerando o cheiro característico de
193
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
ovo podre no ar, que podem causar irritação nas vias respiratórias e levar a morte
(METCALF & EDDY,1977).
Entretanto, apesar de contribuir enormemente para o meio ambiente, as estações de
tratamento não são bem vistas pela população. Havendo muitas vezes conflitos entre as
partes. O motivo são os incômodos que uma ETE em operação pode provocar, como:
ruídos, tráfego pesado e odores desagradáveis. Conflitos com a sociedade local podem ser
gerados, e um exemplo real é o acontecimento de um acidente na cidade de Niterói no
Estado do Rio de Janeiro descrito a seguir.
Em abril de 2011 o rompimento de uma tubulação da ETE de Toque-Toque em
Niterói, figura 1, fere pelo menos nove pessoas. Exemplo de discórdia entre a sociedade,
que há alguns anos haviam feito um abaixo assinado com mais de 3 mil nomes para impedir
a ampliação da estação (EXTRA, 2011).
Figura 1: Charge referente ao acidente em Niterói. Fonte: (EXTRA, 2011).
Este desentendimento com a sociedade possivelmente afetará novos projetos de
implantação de novas ETE em locais com escassez de saneamento, pois é considerado um
problema de saúde pública (LUDUVICE et al., 1997). Reclamações de odores de ETE
representam mais de 50% das denúncias ambientais encaminhadas pela população aos
órgãos de controle ambiental em todo o mundo (KAYE E JIANG, 1996).
A importância de implementar uma política eficiente de controle e minimização das
fontes geradoras de gases odorantes está relacionada à qualidade de vida das pessoas,
pois tais gases podem causar efeitos/doenças, como: estresse psicológico, insônia, perda
de apetite, etc. Afeta também a auto-estima da comunidade, interferindo no relacionamento
humano, desencorajando investimentos, baixo status sócio-econômico, e inibindo o
crescimento (METCALF & EDDY, 1991).
2. ODOR
O odor da estação é causado por alguns compostos químicos encontrados nos
dejetos e/ou até mesmo resultado de ação bacteriana na rede coletora ou na própria
estação. Esses são provenientes de uma mistura complexa contendo moléculas como H2S e
NH3, por exemplo, e a sua liberação na atmosfera depende de três fatores: da área
superficial do líquido exposto à atmosfera, da concentração destes no líquido e do grau de
turbulência do fluxo deste líquido. A liberação de alguns compostos também são
beneficiadas pelo pH do meio (LUDUVICE et al., 1997).
O mau cheiro é maior em algumas etapas do tratamento, como nas unidades de
entrada, no tratamento preliminar e primário, e diminui à medida que o tratamento avança.
Com exceção das unidades de lodo que tem elevadas cargas orgânicas (LUDUVICE et al.,
1997). Limpeza regular dos equipamentos que acumulam material orgânico como os canais,
grades, etc. é importante para evitar o odor.
As condições atmosféricas contribuem para o espalhamento do odor a regiões
próximas, sendo muitas vezes responsável pelo transporte, transformação e dispersão dos
poluentes emitidos, e os parâmetros meteorológicos podem aumentar ou reduzir os níveis
de poluição em uma determinada região (SILVA, 2007).
194
VII Seminário Fluminense de Engenharia Niterói-RJ 19
9 de outubro de 2011
3. TRATAMENTO DO ODOR
ODO
Existem dois métodos de controle de emissões de gases e odores: a modificação do
processo e/ou equipamento e técnicas de tratamento (SCHIRMER, 2008). O primeiro
consiste um método indireto
indireto de controle, na qual, envolve modificação do
processo/equipamento, manutenção dos equipamentos e operação dos mesmos dentro da
sua limitação, etc. O segundo é um método direto de controle e tratamento dos gases
odorantes. Os principais processos são classificados
classificados em físicos, químicos e biológicos,
podendo estes se dar por técnicas destrutivas (como a incineração e biofiltração) ou
técnicas recuperativas (como absorção, adsorção e condensação) (SCHIRMER, 2008). Mas
também medidas de controle podem minimizar
minim
o odor, como controle na disposição do lodo
na ETE, o uso de tubulações de exaustão de ar, a implantação de um cinturão verde, entre
outros.
A escolha do método, ou a combinação de um processo, com a maior eficiência
possível que possa eliminar/reduzir
eliminar/reduzi o odor a um grau necessário com um menor custo,
difere quanto à fonte emissora, natureza do contaminante, legislação, entre outros, e
depende de alguns parâmetros tais como: característica do gás a ser tratado (temperatura,
matéria em suspensão,
spensão, umidade, volatilidade e vazão, etc.); concentração dos poluentes;
fatores de segurança (inflamabilidade, reatividade, corrosividade, etc.); custos de
investimento/instalação, funcionamento e manutenção; eficiência na remoção destes
poluentes, etc (SHIRMER, 2008).
Vazão do gás odorante
Considerando que os principais critérios de escolha são a vazão de gás e
concentração dos gases odorantes, a figura 2 indica as faixas típicas de aplicação de vários
processos tecnológicos baseados na concentração e na vazão do gás odorante.
Precipitador Hidrodinâmico
Concentração do gás odorante
Figura 2: Controle
ontrole de odor. Fonte: adaptado de Kennes et al. (2001), Noyola, Morgan-Sagastume
Morgan
e
9
López
López-Hernández
(2006) e informação verbal .
Sabendo-se
se que usualmente os compostos odorantes encontrados na ETE estão em
baixas concentrações, os métodos de aplicação resumem-se,
resumem se, de acordo com a figura 2 em:
combustão direta, sistemas bioquímicos, adsorção e precipitador hidrodinâmico.
Fatores como a biodegrabilidade dos gases odorantes, características locais, origem
das emissões e aspectos de projeto relacionados à captação e condução de gases,
concentração relativa de H2S/CH4, planos para recuperação de energia e objetivos do
tratamento, são critérios que devem ser considerados
considerados na seleção de alternativas de controle
de odores emitidos (CHERNICARO et al., 2010).
3.1. COMBUSTÃO DIRETA
A combustão é um método para eliminação de gases e vapores de origem orgânica,
na qual, consiste em transformar os compostos em compostos não poluentes.
poluentes. Por exemplo,
o H2S é transformado em SO2 e vapor de água.
9
Comunicação feita por Domênico Capulli em 31-05-2011
31
na Capmetal, Rio de Janeiro.
195
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Tabela 1: Vantagens e desvantagens da combustão direta.
Vantagens
Desvantagens
Custos de capital e operacional baixos
A combustão incompleta pode resultar na
geração de compostos sulfurados
Ocupa pequena área
Perda de potencial de energia quando o
calor não é recuperado
Boa alternativa para a queima de biogás em Aplicável principalmente
pequenas estações de tratamento
estações de tratamento
para
pequenas
3.2. ADSORÇÃO
Processo em que as moléculas de compostos orgânicos voláteis entram em contato
com a superfície de um adsorvente sólido e se ligam viam forças moleculares fracas.
Tabela 2: Vantagens e desvantagens da adsorção.
Vantagens
Desvantagens
Mecanicamente simples
Os poluentes são transferidos para uma nova fase
ao invés de serem destruídos
Ocupa pequena área (devido ao baixo
tempo de retenção)
Vida útil do carvão ativado reduzida pela umidade
do gás
Gera corrente secundária de resíduo (carvão não
Estável e de desempenho elevado e regenerável), e é somente aplicável para baixas
confiável
cargas de contaminantes (para permitir vida útil
aceitável para o carvão ativado)
Pode remover seletivamente H2S Hidrocarbonetos são preferencialmente adsorvidos
quando
combinado
com
um (por serem ligeiramentes polares) antes dos
adsorvente com afinidade pelo H2S compostos polares, como o H2S, prejudicando a
(exemplo: carvão ativado)
remoção seletiva
3.3. BIOFILTRO
O funcionamento de um biofiltro baseia-se na passagem de um gás, carregado com
poluente, através de um meio de contato (um suporte úmido), geralmente de origem natural,
para o crescimento da biomassa bacteriana e suficiente suprimento de ar onde estão fixados
os microrganismos (BELLI et al., 2001).
Tabela 3: Vantagens e desvantagens do biofiltro.
Vantagens
Desvantagens
Custos de capital moderado e operacional Apropriados somente para o tratamento de
baixo
baixas concentrações de odorantes
Partida e operação simples
Elevado tempo de residência requerido
Aplicável para a redução dos compostos Ocupam elevada área e requerem grande
odorantes encontrados em ETE
volume de meio suporte
Aplicável para o tratamento de grandes Controle limitado das condições das
vazões e baixas concentrações de odorantes reações (devido à inexistência de uma fase
sulfurados
líquida)
196
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
3.4. PRECIPITADOR HIDRODINÂMICO
O princípio se fundamenta nos fenômenos físico-químicos de absorção, em
mecânica dos fluidos e na transferência de massa e energia, promovidos através da força
da aceleração centrífuga da fase líquida com a subdivisão multiventuri materializada no
equipamento capaz de promover as reações químicas bifásicas que asseguram a
transferência de massa para o meio líquido.
Tabela 4: Vantagens e desvantagens do precipitador hidrodinâmico.
Vantagens
Desvantagens
Solução multimodal que trata tanto Custo de implantação elevado e o custo de
material particulado como gases operação e manutenção são moderados, pois há
odoríferos
demanda de energia
Requer produtos químicos, porém sua reposição
Eficiência alta para remoção de gases
ocorre em períodos prolongados devido à
odorantes, sendo superior a 98% para
conversão ser alta do líquido, trabalhando a
VOC`s (compostos orgânicos voláteis)
temperaturas baixas
Área mínima ocupada
4. CONCLUSÃO
O controle de odores emitidos em ETE faz-se necessário quando estes gases
perturbam e/ou prejudicam a saúde pública da área próxima as estações, incluindo os
trabalhadores da própria estação. Considerando também os gases que muitas vezes
apresentam-se abaixo do limiar de percepção, mas que a estas concentrações já são
prejudiciais a saúde. Conseqüentemente, um método de medidas e tratamento, gerará uma
melhoria do relacionamento entre a comunidade e as empresas de saneamento, sendo
importante também o incentivo de visitas regulares dos moradores a ETE e a consulta de
opinião para uma possível melhoria referente a novos incômodos causados pela estação à
sociedade.
Antes da escolha de um método de tratamento recomenda-se avaliar também a
aplicação de medidas operacionais que ajudam a minimizar o risco do odor, como
mudanças de processo ou modificações nas instalações, a construção de um cinturão verde
ao redor da ETE, entre outros. A adição de nitrato ou sais ferrosos nas redes coletoras
também é uma alternativa de minimizar a geração de odor e inclusive os efeitos da
corrosão, principalmente nas redes com longo tempo de detenção.
Analisando os principais métodos aplicáveis a redução/eliminação do odor de uma
ETE tem-se que a combustão direta devido à face reduzida da concentração das
substâncias iria gerar elevado consumo de energia e seu conseqüente custo operacional,
além da evidente poluição secundária devido aos gases de combustão criados. O problema
do biofiltro é referente ao requisito de uma grande área para sua implantação. Para
adsorção é necessário conhecer bem os compostos emitidos para não desativar os poros do
carvão ativo, por exemplo. O seu custo será também elevado durante a sua operação e
manutenção devido à reposição periódica do adsorvente.
O precipitador hidrodinâmico apresenta uma boa escolha para pequenas áreas
disponíveis e tem um custo moderado de operação e manutenção devido à reposição do
líquido re-circulante. Não apresenta remoção seletiva do H2S, porém tem eficiência elevada
a uma grande faixa de compostos gasosos emitidos.
Finalmente, a escolha de um método para o tratamento dos gases odoríferos em
estações de tratamento dependerá de um conjunto de fatores e considerações para cada
ETE em especifico. O tipo dos compostos odorantes, a localização da geração destes, o
tamanho da ETE, o custo disponível para aplicação, a vazão de gás odorante, a
197
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
concentração do gás e o objetivo da remoção/eliminação são exemplos a serem
ponderados.
5. REFERÊNCIAS
CHERNICHARO, Carlos Augusto de Lemos; et al. Alternativas para o Controle de Emissões
Odorantes em Reatores Anaeróbios tratando Esgoto Sanitário. Eng Sanit Ambient, v.15
n.3, jul/set 2010. 229-236 p.
EXTRA – Jornal Extra Online. Disponível em: <http://extra.globo.com/noticias/rio/doisferidos-em-rompimento-de-estacao-de-esgoto-de-niteroi-continuam-internados1615371.html>. Acesso em: 28 de Abril de 2011.
KAYE, R. e JIANG, K. Comparison study on portable wind tunnel system andisolation
chamber of VOC’s from areal sources. Water Science Technology, 1996. 34(3/4):583589.
KENNES, C., VEIGA, M.C.; PRADO, O. Non biological treatment technologies. In: KENNES,
C.; VEIGA, M.C. (Ed.). Bioreactors for waste gas treatment. Dordrecht: Kluwer Academic
Publishers, 2001.
LUDUVICE, Maurício L.; PINTO, Marcelo A. Teixeira; NEDER, Klaus D. Controle de Odores
em Estações de Tratamento de Esgotos. In: 19º Congresso Brasileiro de Engenharia
Sanitária e Ambiental, Foz do Iguaçu 1997. 107-116p
NOYOLA, A., MORGAN-SAGASTUME, J.M.; LÓPEZ-HERNÁNDEZ, J.E. Treatment of
biogas produced in anaerobic reactors for domestic wastewater: odour control and
energy/resource recovery. Reviews in Environmental Sciences and Bio/Technology, v.
5, 2006. 93-114 p.
NUVOLARI, Ariovaldo. Esgoto Sanitário: Coleta Transporte Tratamento e Reúso Agrícola. 1
ed. São Paulo: Editora Edgard Blücher, 2003. 519 p.
METCALF, L. e EDDY, H. P. Tratamiento y Depuración de las Aguas Residuales. 1 ed.
Barcelona – Espanha: Editorial Laboral, 1977. 837p.
METCALF, L. e EDDY, H. P. Wastewater Engineering – Treatment, Disposal and Reuse. 3
ed. Tchobanoglous, G (ed), Singapore, Mc. Graw Hill, 1991. 1334 p.
SILVA, Alcione Batista da. Avaliação da Produção de Odor na Estação de Tratamento de
Esgoto Paranoá e seus Problemas Associados. Brasília/DF: Dissertação de Mestrado
em Tecnologia Ambiental e Recursos Hídricos, 2007.
SCHIRMER, Waldir Nagel. Tratamento de Compostos Orgânicos Voláteis (COV) em
Refinarias de Petróleo – Principais Tecnologias. VI Semana de Estudos de Engenharia
Ambiental, Campus Irati, Junho 2008. 15 p.
VON SPERLING, Marcos. Introdução à Qualidade das águas e ao tratamento de Esgotos. 3
ed. Belo Horizonte: Departamento de Engenharia Sanitária e Ambienta; Universidade
Federal de Minas Gerais, 2005. 452p.
198
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Monitor de potência óptica para uso permanente num
enlace de comunicação por fibra óptica
Taiane Alvarenga Menandro Garcia de Freitas, Ricardo Marques Ribeiro, Paulo Sérgio Travassos do
Carmo Cyrillo, Andrés Pablo López Barbero, Odair da Silva Xavier, Wagner da Silva Zanco
Escola de Engenharia, Universidade Federal Fluminense (UFF) Niterói, RJ, Brasil
[email protected], [email protected], [email protected], [email protected],
[email protected], [email protected]
RESUMO
É aqui descrito o protótipo de um monitor de potência óptica (MPO) original que deve ser
inserido em linha (inline) num enlace de Fibra Óptica Plástica (POF). Conexões e emendas
inevitavelmente causam atenuações, mas o MPO em si não causa qualquer perda de
potência óptica da fibra. O MPO detecta a potência óptica proveniente do espalhamento
luminoso inevitável que emerge pela lateral sem cobertura da fibra. Após uma calibração
adequada, o MPO que é simples e de potencial baixo custo como o aqui apresentado, pode
mostrar se a POF está em estado "inativo" ou "ativo". Neste último caso o MPO é capaz de
medir o nível de potência óptica que trafega na fibra.
Palavras-Chave: Fibra Óptica, Monitor de Potência Óptica, Dispositivo Passivo, Fotônica.
1. INTRODUÇÃO
As Fibras Ópticas Plásticas (POFs) ainda são relativamente pouco conhecidas no
Brasil, embora tenham a nível mundial um mercado em franca expansão. Há uma
necessidade crescente de se fazer interconexões entre distâncias cada vez mais curtas (por
exemplo < 500 m) com tráfego de sinais (analógicos e digitais) em taxas cada vez mais altas
(dezenas de Gb/s), envolvendo uma diversidade de tipos de informações. Nesses casos ou
em situações em que o uso de cabos metálicos e fibras ópticas de sílica sejam
inapropriados, as POFs apresentam algumas características peculiares que as tornam
bastante eficientes para estes enlaces de distâncias curtas. Em qualquer sistema de
comunicações à fibra óptica, é necessário medir esporadicamente ou permanentemente a
potência óptica média que trafega pela fibra.
Esse trabalho está focado no desenvolvimento de um dispositivo simples, de
características originais em seu mecanismo de funcionamento, capaz de ser inserido em
linha (inline) na fibra óptica e sempre mostrar o valor da potência óptica propagante (monitor
de potência óptica), assumindo que o enlace funcione com apenas um canal em
comprimento de onda.
2. O PROTÓTIPO E A SUA CARACTERIZAÇÃO
POFs “padrão” de PMMA (Poly-Methyl-Metacrylate) operam no espectro visível e sua
tecnologia relacionada é simples e de relativo baixo custo quando se compara com a das
“fibras convencionais” (sílica). A POF “padrão” exibe uma grande dispersão modal de forma
que comumente é especificada como tendo um produto banda-distância menor do que 20
MHz.km, que a qualifica como sendo habilitada para realizar ordinariamente transmissões
de até ~ 200 Mbs em 100m. No entanto, implementando diversas técnicas, é possível
aumentar significativamente este produto banda x distância sem trocar o tipo de fibra.
199
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Figura 7. Esquema experimental de caracterização/calibração do MPO e o dispositivo em si.
Conforme está esquematizado na Figura 1, a luz visível emitida por um LED ultrabrilhante é injetada em uma POF de PMMA que atravessa uma pequena caixa
(encapsulamento), ou seja, o próprio dispositivo MPO inserido em linha. Internamente ao
MPO, parte da POF tem a cobertura de polietileno preto cuidadosamente retirado assim
expondo ~ 11 mm de comprimento de fibra nua a partir do qual pode-se coletar a luz
espalhada lateralmente. Bem próximo a fibra exposta, está posicionado um foto-detector tipo
foto-Darlington modelo IFD93 da Industrial Fiber Optics (EUA) dotado de uma micro-lente
integrada de 1,5 mm de diâmetro. O foto-Darlington gera foto-corrente proporcional à
potência luminosa recebida com responsividade efetiva máxima de 400 A/W (880 nm). Um
resistor é colocado em série com o foto-Darlington. Usando um voltímetro, mede-se a
voltagem, por sua vez proporcional à potência luminosa coletada. Um medidor de potência
óptica comercial, modelo PM20A da Thorlabs (EUA) apresentando sensibilidade de
aproximadamente -60 dBm com foto-detector de silício, é utilizado para fazer a calibração do
MPO. O MPO na atual etapa de desenvolvimento não utiliza qualquer estágio adicional de
amplificação eletrônica.
3. RESULTADOS E CONCLUSÕES
Foram feitas medidas de calibração preliminares do MPO utilizando fontes luminosas
de prova de espectro relativamente largo (LEDs) em ~ 30 nm. Especificamente, utilizou-se
LEDs da Diemount GmbH. A Figura 2 mostra os gráficos de calibração do MPO nas
seguintes cores e comprimentos de onda centrais: azul (470nm), verde (520nm), laranja
(590nm) e vermelho (650nm).
200
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Figura 2. Gráfico de calibração do MPO usando LEDs como luz de prova.
O eixo horizontal da Fig. 2 representa a potência óptica (em dBm) medida pelo
medidor de potência óptica e o eixo vertical o sinal elétrico (em dBV), fornecido pelo
voltímetro.
A sensibilidade é dada pelo coeficiente angular entre a voltagem medida e a potência
óptica injetada no MPO, calculado por regressão linear. Conforme esperado, a sensibilidade
se manteve constante em ~2,5 dBe/dBo, independente da cor do LED utilizado. A alteração
do comprimento de onda se refletiu no deslocamento da curva de calibração ao longo do
eixo horizontal, sem mudança no coeficiente angular. A partir de aproximadamente -5 dBm
observou-se que o foto-Darlington entrava em regime de saturação. Pode-se também notar
na Fig. 2 que o MPO foi capaz de medir potência óptica mínima de ~ -50 dBm, portanto
exibindo cerca de 45 dB de faixa dinâmica de operação.
O MPO foi então capaz de medir cerca - 50 dBm como potência óptica mínima. Esse
valor é comparável, por exemplo, ao intervalo usual de –50 dBm a -60 dBm de potência
óptica mínima detectável exibido por medidores de potência óptica comerciais do tipo
handheld.
O MPO aqui descrito permite ainda diversos aperfeiçoamentos tais como: aumento
da coleta de luz espalhada ao longo dos ~ 11 mm de comprimento da fibra exposta, pósamplificação do sinal, aumento da faixa dinâmica, aumento da estabilidade via promediação
temporal de sinais, etc.
4. AGRADECIMENTOS
Os autores gostariam de agradecer ao CNPq e a Faperj pelo apoio financeiro
concedido a esta pesquisa.
5. REFERÊNCIAS
O. ZIEMANN, J. KRAUSER, P.E. ZAMZOW AND W. DAUM, (2008) “POF Handbook: Optical
Short Range Transmission Systems”, 2nd edition, Spring.
S. BOTTACCHI, (2006). “Multi_Gigabit Transmission over Multimode Optical Fibre: Theory
and Design Methods for 10 GbE Systems”, Wiley
ACTIVE CABLES, IgiGroup em www.igigroup.com (acessado em 14 de agosto de 2011).
201
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
S. KATO, O FUJISHIMA, T. KOZAWA AND T. KACHI, (2004) “Transmission characteristics
of a 250 Mb/s POF datalink employing GaN green LED”, ICPOF 2004, Nürnberg,
Germany, pgs. 232-236.
D. MARCUSE, (1981) “Principles of Optical Fiber Measurement”, Academic Press, pg. 221,
202
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
O design e o emprego de materiais alternativos: uma
abordagem na indústria de confecção
Luiza Helena Boueri Rebello
Escola de Engenharia - Universidade Federal Fluminense (UFF)
Niterói, RJ, Brasil
[email protected]
RESUMO
É notório que o processo de industrialização no mundo afeta o meio ambiente e a saúde dos
indivíduos, onde o consumo desenfreado de artefatos e o desenvolvimento de produtos que
são manufaturados visando atender às necessidades do mercado. É preciso observar a
importância de percorrermos novos caminhos para a sustentabilidade através de uma
diminuição no consumo e na regeneração das matérias-primas, tecnologias e processos de
baixo impacto ambiental e social, questionando, principalmente, sua disponibilidade e
adequação e em que as tecnologias envolvidas no sistema de produção são acessíveis e se
estão de fato, integradas ao meio ambiente. Foi feito um levantamento de materiais e fonte
naturais sustentáveis na indústria de confecção a fim de poder atuar através do incremento
para o desenvolvimento de soluções sustentáveis, através de inovações para a
sustentabilidade, como fibras têxteis produzidas a partir de resíduos vegetais e polímeros.
Onde uma abordagem estratégica se faz necessária observando as questões de impacto
social, materiais e aspectos produtivos. O designer/desenhista industrial deve estar ciente
da sua responsabilidade e dos possíveis impactos resultantes da inadequação do
desenvolvimento de um produto. O estudo do sistema-produto em questão favorece
melhorias ambientais geradas pela modificação planejada e acarretando no
desenvolvimento projetual consciente de cada processo do produto com o intuito de
minimizar os impactos ambientais.
Palavras-Chave: Design. Sustentabilidade. Indústria de Confecção. Materiais Alternativos.
1. INTRODUÇÃO
O desenvolvimento tecnológico e a crescente sofisticação dos processos de
produção possibilitaram a existência de diversas alternativas para produtos ou serviços com
finalidades semelhantes.
A sociedade foi atribuindo cada vez mais importância às questões ambientais. Isto
promoveu a necessidade de desenvolvimento de abordagens e ferramentas de gestão que
possibilitassem às empresas, assim como, de uma maneira mais geral, às diversas partes
interessadas da sociedade, como governo, institutos de pesquisas e outros, avaliar as
consequências ambientais das decisões adotadas em relação aos seus processos ou
produtos.
O Desenho Industrial/Design está comprometido com a concepção e planejamento
de objetos dos atuais modelos de produção em escala. Estes modelos estimulam e
provocam o consumo com a finalidade de escoar a produção quando excedente e garantir o
pleno funcionamento da produtividade.
O “modo sustentável”, junto às comunidades, que utiliza tecnologias e matériasprimas disponíveis no local é, na maioria das vezes, esquecido.
2. OBJETIVO
O design para a sustentabilidade é o ato de projetar produtos, serviços e sistemas
com um baixo impacto ambiental e uma alta qualidade social.
203
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Quando falamos de sustentabilidade ambiental relacionada ao desenvolvimento de
produtos, nos referimos aos critérios, aos métodos e aos investimentos no Projeto do Ciclo
de Vida. O projeto, faz parte do Ciclo de Vida do Produto.
O objetivo ambiental deste ciclo é reduzir os inputs de materiais e energia, assim
como o impacto de todas as emissões e os dejetos. Não apenas do aspecto de produção
mais limpa, mas principalmente no momento em que o produto é usado.
Apresentar questões relativas o Desenho Industrial e de sustentabilidade em relação
à indústria da moda, mostrando que é possível interagir positivamente em termos
ambientais mesmo dentro de um setor onde o consumo é a engrenagem mestra.
3. METODOLOGIA
Fazer um levantamento dos materiais e fontes naturais sustentáveis, observando
suas particularidades em termos produtivos dentro do ciclo de vida do produto – do berço ao
berço.
Segundo VEZZOLI (2008), ao projetar uma peça de vestuário, é imprescindível que
se observe todos os procedimentos de cuidados (inclui-se, lavagens e outros cuidados) e
manutenção do produto, já que estes processos de manutenção também implicam em
gastos e produção de resíduos. Exemplo: uma vestimenta sustentável também deve sujar
menos para se gastar menos água e sabão. Deve ter boa durabilidade também,
minimizando assim, custos de produção e de manutenção.
O estudo de novos materiais e novas tecnologias no desenvolvimento de materiais é
de grande importância.
A biotecnologia nos mostra que é possível extrair elementos de matérias primas não
poluentes e de ótima qualidade e baixo impacto ambiental, como a soja, milho e palha de
milho, fibra de bananeira, bagaço de cana e bambu são hoje aproveitados como matériaprima para plásticos, fibras têxteis e nanofibras.
4. MATERIAIS NATURAIS – FIOS NATURAIS
A escolha de uma fibra é o primeiro passo para a criação de tecidos sustentáveis e
existe uma grande responsabilidade dentro deste contexto, que não é limitada se a fibra é
natural ou não, mas como a matéria prima é desenvolvida. (BAUGH, 2008)
De acordo com FLETCHER (2008), existe uma grande diversidade de materiais e os
fios naturais são obtidos diretamente da natureza e os filamentos são feitos a partir de
processos mecânicos de torção, limpeza e acabamento. Podem ser obtidos a partir de
frutos, folhas, cascas e tronco. As principais plantas têxteis são: o Algodoeiro (fibra de
algodão), a Juta (para fazer cordas), o Sisal (parecido com o linho), o Linho (caule com
filamentos rígidos) e o Rami (também muito utilizado como o linho). Os fios de origem
animais são os que seguem: lã, pelos finos e grosseiros, fios e tecidos de crina e seda.
Fibras limpas e ‘verdes’ são produzidas a partir de resíduos vegetais tais como soja,
milho e palha de milho, bananeira, abacaxi, cana de açúcar, bambu estão sendo estudadas
com o intuito de produzir novos materiais de baixo impacto ambiental.
Soja – SPF (Soybean Protein Fiber): Fibra têxtil produzida a partir de resíduos dos
grãos de soja resultantes da produção de óleo de soja. Esta fibra se transforma numa
viscose e foi inicialmente conhecida como “cashmere vegetal”.
Milho e Palha de Milho: Veio como uma solução para a substituição da fibra acrílica.
Muito utilizado em tecelagem para cobertores e roupas de cama e fios para tricot e crochet.
Mix de Fibra de Bananeira com Fibra de Abacaxi: Tecido filipino chamado “hablon”,
tecido à mão, que é uma mistura destas duas fibras vegetais. Outra mistura: “Bagong habi,”
uma combinação de tecido feito com fibra de abacaxi e seda.
204
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Fibra de Cana de Açúcar: Retirada do bagaço da cana de açúcar. Sugar Cane Jeans
é uma marca japonesa que faz jeans com cana–de-açúcar, ou melhor, misturando fibra de
cana e denim selvagem japonês - considerado o melhor do mundo.
Tabela 1. Tipos de fibras têxteis.
Fibras Naturais
Fibras Manufaturadas
Vegetais
Animais
Polímeros naturais Polímeros
(vegetal e animal)
sintéticos
Algodão
Lã
Linho
Seda
- Fibras de celulose Fibras
regeneradas
policondensadas
Cânhamo
Cashmere
Juta
Mohair
Rami
Sisal
Banana
Abacaxi
Bambu natural
Viscose
Poliester
Modal
Nylon
Lyocell
Fibras
polímeros
- Fibras de alginato
de
Acrílico
Acetato
Polipropileno
Triacetato
PVC
Elastodieno
(borracha)
PET
- Fibras de proteína
regeneradas
Caseína
Soja
-Fibra de poliester
biodegradável
Poly
PLA
(acido
lático)
PHA
PHB
4.1. UM MATERIAL QUE POSSUI CONTRAS E PRÓS: O BAMBU
A obtenção da matéria-prima dos fios é a partir da celulose das folhas de bambu.
Porém, existem prós e contras em relação à fibra de bambu:
Contras: Não existem tecidos de fibras de bambu, mas sim de viscose de celulose de
bambu. Como a viscose é decorrente de um processo altamente poluente, o tecido de
viscose de bambu não é necessariamente ecológico, como muitos podem pensar. O que
estão chamando de tecido de fibra de bambu na realidade é o rayon, ou viscose, e é obtido
a partir de qualquer vegetal, pelo processamento da celulose com o uso de produtos
químicos fortíssimos que prejudicam tanto o meio ambiente que não são mais permitidos no
ocidente - esses produtos são fabricados na China, usando o bambu, mas poderiam usar
até capim, e seria a mesma coisa - o produto químico usado transforma a celulose (qualquer
origem) em um material plástico que é extrudado e posteriormente tecido. O produto final
nada tem a ver com o bambu, não é ecologicamente correto nem tem suas características e a mão de obra é semiescrava.
Prós: É uma fibra biodegradável, regenerada da celulose de polpa de bambu, que
não degrada o meio ambiente. O que o degrada é a sua produção. Seu toque fica similar à
205
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
viscose, tem função bactericida (garantida por uma associação japonesa), é inibidora de
odores, tem a secagem rápida e é bem absorvente. A grande vantagem é que o bambu
cresce rapidamente (uns 4 anos para a maturidade). O processo físico adotado para o refino
e produção do material é sem elementos químicos ou poluentes.100% biodegradável, a fibra
do bambu é chamada de “fibra verde” nos termos da proteção ambiental. A fibra possui os
efeitos do bambu: repelente a insetos, ácaros e é resistente a odores. Sem contar que
possui maciez, é bactericida e protege contra os raios UVA e UVB. É a chamada fibra de
bambu natural, também conhecida como ‘linho’ de bambu (FLETCHER, 2008).
5. BIOPLÁSTICOS
As incertezas: destinação dos resíduos gerados, impactos produzidos durante o
processamento, e se adotam parâmetros sustentáveis.
Embora produzidos a partir de fontes renováveis e alguns com propriedades
biodegradáveis, podem emitir gases metano e dióxido de carbono e consumir grandes
quantidades de combustíveis fósseis.
Há uma grande polêmica em torno dos materiais produzidos pela nanotecnologia
tanto pelos processos quanto pelo descarte dos resíduos produzidos.
Segundo GOETTLICH (2004), os plásticos biodegradáveis estimulam o consumismo
sem a contrapartida devida com relação à sustentabilidade. São utilizadas maiores
quantidades de pesticidas já que são monoculturas e utilizam espécies geneticamente
modificadas: carecem de diversidade de espécies, há redução na produção e desarticulação
dos pequenos produtores. A biodegradabilidade é apenas um admirável conceito.
5.1. PLA (ÁCIDO POLILÁTICO) – DERIVADO DA DEXTROSE DE MILHO
Plástico biodegradável que utiliza bactérias que extraem o ácido polilácico da
dextrose do milho. É o único plástico com aparente potencial competitivo: 80% de cada kg
de açúcar do milho (dextrose) são transformados em produto plástico.
•
Este processo consome mais energia e produz maior quantidade de gases do
que a produção dos plásticos petroquímicos.
•
O primeiro benefício do processo: utilização de biomassa como fonte de
energia e não a utilização de plantas na transformação de plásticos.
•
Necessidade de construção de nova infraestrutura para geração de energia.
5.2. PHA (POLYHYDROXYALKANOATO) – DERIVADO DA CANA DE AÇÚCAR
A bactéria Ralstonia Eutropha converte o açúcar da cana-de-açúcar em grânulos de
plástico.
•
Requer uma etapa química para síntese do plástico, é mais custoso que os
plásticos convencionais e necessita de 300% mais energia do que a produção de PE
(polietileno).
•
Pode ser obtido a partir da síntese do plástico durante o crescimento da canade-açúcar, produzindo o plástico diretamente da planta e eliminando o processo de
fermentação.
206
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
5.3. PHB (POLÍMERO BIODEGRADÁVEL E BIOCOMPATÍVEL)
Síntese da cana-de-açúcar, extração e purificação do polímero com solventes
naturais.
•
A solução integrada do processo torna este processo competitivo: 3kg de
açúcar produz cerca de 1kg de plástico.
•
A biomassa obtida a partir do bagaço da cana fornece a energia necessária
para o processo.
5.4. PET RECICLADO
A fibra têxtil feita de garrafa PET reciclada é o mesmo que poliéster reciclado. Na
produção (transformação) do poliéster reciclado utiliza-se 30% da energia utilizada na
produção da fibra virgem, ou seja, além da própria reciclagem que contribui para reduzir o
lixo no meio-ambiente, a economia no uso de energia também é um ativo ambiental desse
produto.
Em média, para se confeccionar uma camiseta, utiliza-se uma quantidade de fibra
reciclada que corresponde a duas garrafas PET.
As etapas do processo até chegar na camiseta, basicamente, são (através das
cadeias direta e indireta):
CADEIA DIRETA
1. Extração do petróleo
2. Processo de refinamento
3. Resina virgem
4. Pré-forma
5. Garrafa
CADEIA INDIRETA
6. Uso pelo consumidor
7. Descarte
8. Coleta Seletiva
9. Moagem e descontaminação
10. Transformação em fibra
11. Fiação
12. Tecelagem
13. Confecção
6. RESULTADOS
O Processo do Ecodesign é desenvolvido através da descrição do sistema-produto
em estudo. Onde a prospecção dos efeitos ambientais que certa modificação no design
pode acarretar é estudada. A avaliação das melhoras ambientais geradas pela modificação
planejada. É importante que haja a comunicação dos resultados positivos da modificação
como informação ao consumidor.
•
O processo do Ecodesign em Moda - Conceitos Ambientais Fundamentais
a.
Educação ambiental;
b.
Histórico e evolução do ambientalismo;
207
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
c.
Práticas de sensibilização ambiental.
•
Sistemas de Gestão Ambiental (SGA)
a.
Normas ISO14000; Normas Ambientais Brasileiras;
b.
Legislação e direito ambiental;
c.
Metodologia de implantação do SGA.
•
Produção Mais Limpa (P+L)
a.
Conceitos básicos; Metodologia de implantação;
b.
Estudos de caso de P+L têxteis.
•
Eco-eficiência
a.
Indicadores Ambientais têxteis;
b.
Conceitos de desenvolvimento sustentável;
c.
Empresas têxteis sustentáveis.
A utilização de uma fibra de origem natural não significa necessariamente garantir a
preservação do meio ambiente, e sua aplicação deve ser avaliada, da obtenção da fibra ao
descarte do Produto, verificando-se sua adequação.
•
Design de Moda: Panorama no âmbito do Ecodesign
•
Aproveitamento de fibras naturais disponíveis;
•
Preservação do meio ambiente e saúde dos indivíduos;
•
Evitar a inadequação na escolha da matéria-prima;
•
Oferecer informações para a elaboração de projetos proporcionando
benefícios à sociedade;
•
Fatores que contribuam para a melhoria do bem estar físico e social (conforto,
relações sociais, tradições culturais).
A pesquisa, ao apresentar o aproveitamento das fibras naturais inseridas no cenário
da sustentabilidade e considerando os requisitos projetuais do Ciclo de Vida do Produto,
oferece informações para a elaboração de projetos, proporcionando benefícios à sociedade.
O desenvolvimento sustentável atende ao presente sem comprometer as gerações futuras.
7. CONCLUSÃO
Para MANZINI e VEZZOLI (2002), Ecodesign ou Design Sustentável é projetar
produtos que propiciem o bem-estar social com o mínimo desperdício e prejuízo para a
natureza. Pode-se, ainda, ter, como meta futura, a concepção de produtos que produzam
impactos positivos na sociedade e no meio ambiente.
A grande mudança de mentalidade introduzida pelo Ecodesign é uma estratégia de
início de processo. A responsabilidade da empresa fabricante começa na escolha das
matérias-primas (extração e eliminação), passando pela gestão dos processos de projeto,
fabricação, embalagem, transporte, instalação, utilização, durabilidade, reaproveitamento ou
atualização e tratamento de resíduos. O conceito de Ciclo de Vida do produto que considera
todas as fases desde a constituição até a eliminação e reaproveitamento dos produtos.
A indústria têxtil é muito complexa, compondo uma extensa cadeia produtiva que
engloba extração de matéria-prima das fibras, fiação, tecelagem, beneficiamento e
acabamento (estamparia, tinturaria etc.) para se chegar ao tecido. Este, pronto, entra-se na
parte de confecção de roupas: pesquisa, criação, escolha dos tecidos, cores, modelagem,
208
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
corte, costura, decoração e acabamento. A roupa pronta segue para setor comercial. O
consumidor compra, usa e descarta.
A maioria dos processos produtivos e de beneficiamentos geram resíduos que
podem poluir o meio ambiente. Diminuir o impacto ambiental é um desafio assumido pela
Associação Brasileira da Indústria Têxtil e de Confecção, ABIT (2011), que criou, em junho
de 2000, a Coordenadoria do Meio-Ambiente, com o intuito de orientar o produtor têxtil a
respeito das questões ambientais, dando informações sobre o que esta sendo feito em
termos de legislação, controle, tecnologia no tratamento de efluentes, gerenciamento de
resíduos, entre outros.
Desenvolvimento projetual consciente, observando a preservação da Natureza como
um todo, evitando impactos ambientais, do início do processo (produção da matéria-prima)
até o descarte. Passando pelo uso e manutenção do produto (lavagens, cuidados em geral).
Design de Moda Sustentável não é apenas o reaproveitamento de materiais pouco
usuais, é, acima de tudo, a conscientização de cada processo de desenvolvimento do
produto com o intuito de minimizar os impactos e incrementar o bem estar dos usuários e
habitantes do Planeta.
8. REFERÊNCIAS
ABIT (2011). Serviços – Meio Ambiente. Disponível em: < http://www.abit.org.br >. Acesso
em 04 de agosto de 2011.
BAUGH, Gail. (2008). Fibers: Clean and Green Fiber Options. In: HETHORN,
J./ULASEWICZ, C. (org.). Sustainable Fashion – Why not? A conversation about issues,
practices, and possibilities. New York. Fairchild Books, Inc..
FLETCHER, Kate. (2008). Sustainable fashion & textiles. London. Earthscan.
GOETTLICH, Paul. (2004). Is Biodegradable Plastic an Oxymoron Just Like Recyclable
Plastic? Disponível em: < http://www.mindfully.org/Plastic/Biodegrade/OxymoronBiodegradable-Plastic5dec04.htm >. Acesso em 04 de agosto de 2011.
MANZINI, Ezio; VEZZOLI, Carlo. (2002). O Desenvolvimento de Produtos Sustentáveis – Os
requisitos ambientais dos produtos sustentáveis. 1ª. Ed. – São Paulo. Ed. EDUSP.
VEZZOLI, Carlo. (2008). Cenário do design para uma moda sustentável. In: PIRES, Dorotéa
Baduy (Org.). Design de Moda: Olhares diversos. 1ª Ed., Estação das Letras e Cores,
São Paulo.
209
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
O impacto da introdução da portabilidade numérica sobre
o churn das operadoras de telefonia móvel brasileiras
¹Gustavo de Castro Brantes, ²Sandra Regina Holanda Mariano
¹Escola de Engenharia – Universidade Federal Fluminense (UFF) Niterói, RJ, Brasil
²Escola de Administração - Universidade Federal Fluminense (UFF) Niterói, RJ, Brasil
¹[email protected]
²[email protected]
RESUMO
Este artigo tem como objetivo analisar o impacto no churn das operadoras móveis
brasileiras diante da introdução da Portabilidade Numérica no Brasil. Para tanto, foram
avaliadas as informações históricas do indicador churn das operadoras que mostraram que
a introdução da Portabilidade Numérica, que garantia aos usuários a manutenção de
número de telefone em qualquer operadora, não teve efeito significativo na migração de
usuários entre estas, contrariando as previsões do regulador e das próprias operadoras. A
variação do indicador churn de todas as empresas de telecomunicações móveis brasileiras
será apresentada. Por meio da análise consolidada da evolução do indicador churn de todas
as operadoras móveis brasileiras pré e pós Portabilidade Numérica, pôde-se perceber o
quanto a Portabilidade Numérica influenciou no indicador churn das operadoras móveis no
Brasil.
Palavras-chave: Portabilidade Numérica. Consumidor. Churn. Telecomunicações.
1.
Introdução
O presente artigo tem como objetivo analisar a evolução do churn das operadoras de
telefonia móvel brasileiras antes e depois da introdução da Portabilidade Numérica no Brasil.
Em março de 2007, foi publicada, no Diário Oficial da União, a Resolução n.º 460, que
aprovava o Regulamento Geral de Portabilidade – RGP. Esta resolução estabeleceu que, a
partir de setembro de 2008, a Portabilidade Numérica (PN) deveria ser implementada no
Brasil.
O churn é um indicador que consiste em medir o número de clientes que abandonam
uma empresa em favor de uma concorrente, terminando toda a sua relação com a empresa
antiga e iniciando uma nova relação com outra, para tanto é necessário o desenvolvimento
de fundamentação teórica de marketing, a partir de grandes temas como: retenção de
clientes, fidelização, significado do churn e seus impactos, processo de decisão do
consumidor e marketing de relacionamento, objetivando conhecer o comportamento do
consumidor e como ele reagiria mediante a quebra de uma importante barreira de saída.
A telefonia é um serviço de utilidade pública que é regulado pela Agência Nacional
de Telecomunicações (ANATEL). É papel do órgão regulador, entre outras atribuições,
contribuir para um ambiente de ofertas de serviço com qualidade, estimulando a competição
entre as operadoras do mercado. Ao incentivar a competição, o órgão regulador garante a
melhoria do serviço prestado e a oferta de melhores preços, tendo em vista que a
competição é uma das formas de promover a auto-regulação do mercado. A introdução da
Portabilidade Numérica foi uma ação direta da ANATEL com o objetivo de incentivar a
competição dentro do serviço de telecomunicações.
O trabalho justifica-se já que, a introdução da Portabilidade Numérica é um fator
relevante, tanto do ponto de vista tecnológico como do ponto de vista comercial, pois a sua
introdução eliminou uma barreira de saída dos clientes das operadoras, o que,
potencialmente, interfere na dinâmica competitiva do setor.
210
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Estudos internacionais demonstraram que a introdução da Portabilidade Numérica
trouxe grandes impactos no setor de telecomunicações. Incremento do churn e ações de
retenção e fidelização foram os principais efeitos da Portabilidade Numérica em países onde
esta facilidade foi implementada. É importante a realização de estudos brasileiros que
analisem o fenômeno da portabilidade de modo a orientar e aperfeiçoar as políticas
regulatórias e ampliar a compreensão sobre o comportamento do consumidor brasileiro em
mercados de serviços regulados.
Como contribuição adicional, é relevante verificar o impacto da quebra de uma
barreira considerada muito importante pelas operadoras de telefonia móvel, dentro do
cenário comercial e conceitual de fidelização e retenção, mostrando resultados quantitativos
da implementação da Portabilidade Numérica, avaliada como a quebra de uma forte barreira
de saída.
2. Fundamentação teórica
Desde a privatização do setor de telecomunicações o órgão regulador passou a ter
papel fundamental e, ao longo dos anos, determinou grandes mudanças regulatórias e
obrigações, em benefício do usuário e da sociedade como um todo, que impactaram as
operadoras de telefonia no Brasil.
A Portabilidade Numérica é a facilidade de rede que possibilita ao usuário de serviço
de telecomunicações manter o código de acesso a ele designado, seu número de telefone,
independentemente da prestadora de serviço de telecomunicações ou de área de prestação
do serviço. Prevista na Lei Geral das Telecomunicações, a portabilidade deveria exercer
forte pressão competitiva e ser mais um impulso na mudança das relações entre usuários e
operadoras, gerando forte aumento do número de usuários que mudam de prestadora de
serviço medido através do churn.
Existem dois tipos de churn: o voluntário e o involuntário.
O churn voluntário ocorre quando o cliente por vontade própria termina os serviços
com a operadora. Ele pode ainda ser dividido em churn deliberado, quando o consumidor
possui razões relacionadas diretamente ao uso da tecnologia celular da operadora para
trocá-la por uma concorrente; ou churn acidental, causado por razões que fogem ao controle
do cliente, como grandes mudanças de localidade de moradia, problemas financeiros
pessoais e outras grandes mudanças de vida (MATTISON, 2001).
O churn involuntário é resultado de uma ação da própria empresa, que, por motivos
de fraude, falta de pagamentos e até mesmo falta de utilização do serviço, pode vir a romper
sua relação com o cliente (MATTISON, 2001).
As razões que levam ao churn voluntário deliberado podem variar muito, indo desde
insatisfação com o aparelho celular utilizado, passando por problemas com o valor da tarifa
por minuto de uso cobrada pela operadora e cobertura do serviço, e chegando até mesmo a
ter causas como a influência de família e amigos insistindo para que o usuário troque de
operadora para se beneficiar das vantagens de ligações dentro da rede de uma mesma
operadora (chamada intra-rede).
O churn não é o problema de fato, mas um sintoma de um problema maior. Na
verdade, o que falta às organizações é a habilidade de lidar e gerenciar os relacionamentos
que possuem com seus clientes. Em geral, as empresas não sabem quem seus
consumidores são, o que eles precisam e querem, o que os faria ficar na empresa e o que
os faria partir. Esse fato é a causa do churn parecer um problema tão grande (BERRY,
2000).
O negócio de telefonia móvel vai muito além, hoje, do simples fornecimento de um
serviço de comunicação móvel. Com o crescimento do número de clientes nos últimos anos,
os aparelhos e a variedade de serviços que disponibilizam (de transmissão de voz e dados
até câmeras digitais, localizador, internet e e-mail) tornaram-se essenciais para muitos
211
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
usuários. Possivelmente a telefonia celular já alcançou o status de necessidade básica do
ser humano do século XXI. Desta forma, muito mais do que simplesmente vender serviço de
telecomunicações, as operadoras estão empenhadas na venda de estilo, praticidade,
confiabilidade e tecnologia superior.
O mercado de telefonia móvel tem como característica a alta taxa de migração
clientes entre as operadoras (“Churn”). Para tanto, é importante analisar se as ações
captação e de retenção de clientes praticadas pelas operadoras por meio das práticas
marketing garantiram a manutenção dos patamares de churn mesmo após a introdução
Portabilidade Numérica no Brasil..
de
de
de
da
3. Benchmark internacional
Enquanto a implementação da portabilidade no Brasil ocorreu apenas em 2008, os
habitantes dos Estados Unidos, Cingapura, França e Suécia, por exemplo, podem trocar de
operadora sem perder o número desde 1996. No entanto, a maneira como a portabilidade é
implementada em cada país e o impacto que ela traz para os usuários e prestadoras variam
bastante.
É possível fazer um paralelo entre países e observar alguns fatores relevantes para a
implementação da portabilidade móvel e as diferentes práticas adotadas pelos países em
questão.
Em Hong Kong, as ações regulatórias executadas foram robustas. Implementação de
instrumentos que tornam obrigatória a aceitação de solicitação de Portabilidade Numérica,
validação simples das informações dos clientes quando da solicitação da Portabilidade
Numérica, definição de razões mínimas para que se recuse uma portabilidade e a criação de
base de dados nacional para suportar o processo foram fatores regulatórios fundamentais
para o sucesso da portabilidade nesse país. (UNIÃO INTERNACIONAL DE
TELECOMUNICAÇÃO-UIT, 2009)
Por outro lado, países como Reino Unido e Holanda pecaram nas definições, quando
da implementação da portabilidade, se destacando pelo mau desempenho desta facilidade
em seus respectivos países. No Reino Unido, não houve a implementação de uma base de
dados nacional para operacionalizar a portabilidade. Além disso, o modelo para validação de
informações cadastrais era extremamente rigoroso e burocrático. O tempo para a
transferência, após a solicitação, variava de 15 a 25 dias úteis e a taxa de sucesso
operacional era baixa. (UNIÃO INTERNACIONAL DE TELECOMUNICAÇÃO, 2009).
No Brasil, a ANATEL procurou estudar os cenários internacionais e definir um
modelo que não repetisse os erros de países onde a Portabilidade Numérica praticamente
passou despercebida e, sob o ponto de vista operacional, a implementação da Portabilidade
Numérica no Brasil foi considerada um sucesso e serve de referência para países sulamericanos como Chile e Paraguai, que estarão implementando essa facilidade entre 2011
e 2012.
4. Resultado
O indicador churn das operadoras mede a taxa percentual de clientes desligados,
durante um determinado período, que se obtém dividindo-se o total de cancelamentos no
período pelo número de celulares no início do período. O indicador churn significa o
percentual de usuários que migrou de uma operadora para outra, tendo em vista que, no
atual momento do setor, considera-se desprezível o número de clientes que se desliga de
uma determinada operadora e não mais utiliza o serviço de telefonia móvel.
Na tabela a seguir, pode-se verificar a evolução do indicador churn médio mensal
das quatro principais operadoras móveis brasileiras, responsáveis por mais de 98% do
mercado de telefonia móvel brasileiro, do primeiro trimestre de 2007 até o terceiro trimestre
de 2010. Ao comparar os indicadores de churn mensal médio das operadoras antes e
212
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
depois da implementação da Portabilidade Numérica, verifica-se que não houve grande
variação de comportamento entre as operadoras analisadas. Apesar de as operadoras Tim
e Oi terem maiores variações ao longo do período, conforme mostrado na tabela abaixo,
não se percebe uma evolução constante do indicador churn para nenhuma das operadoras
móveis do setor.
Tabela 1- Evolução trimestral do indicador churn mensal médio das operadoras móveis
Fonte: Relatório trimestral das operadoras de telefonia disponível em seus respectivos sites
na web.
Já no gráfico a seguir, verifica-se a evolução média do indicador churn mensal Brasil,
que exemplifica, de forma mais clara, uma curva com pequeno crescimento, principalmente
após a introdução da portabilidade no Brasil, período este destacado em vermelho no
gráfico.
Os percentuais de churn mensais das operadoras móveis brasileiras apresentam
valores altos, da ordem de 3% ao mês, desde janeiro de 2007. Desde a plena
implementação da Portabilidade Numérica, em março de 2009 até setembro de 2010,
verificou-se um pequeno crescimento do churn mensal da ordem de 0,5 pontos percentuais,
ainda que de forma não homogênea.
3,60%
3,20%
2,80%
2,40%
2,00%
1T07
2T07
3T07
4T07
1T08
2T08
3T08
4T08
1T09
2T09
3T09
4T09
1T10
2T10
3T10
Fonte: Relatório trimestral das operadoras de telefonia disponível em seus respectivos sites na web
Gráfico 1 - Gráfico consolidado da evolução trimestral do indicador churn mensal médio Brasil das
operadoras Móveis
O resultado desta análise sugere que houve crescimento moderado do churn
mensal, após a introdução da Portabilidade Numérica, de maneira não homogênea entre as
operadoras. A expectativa do mercado, segundo dados da Entidade Administradora da
Portabilidade Numérica (ABR-T) era de um crescimento médio da ordem de três pontos
percentuais, conforme volume contratado pela Entidade Administradora da Portabilidade
Numérica (ABR-T) ao fornecedor de solução tecnológica. No entanto, verificou-se um
crescimento médio da ordem de 0,5 pontos percentuais.
Pode-se assumir que o resultado apresentado mostra que a introdução da
Portabilidade Numérica representou um impacto no crescimento do churn de forma tímida,
213
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
até o momento, girando em torno de 0,5 pontos percentuais em aproximadamente quinze
meses de plena implementação da Portabilidade Numérica no Brasil.
Considerando que a média mensal de números portados, de março de 2009 a
setembro de 2010, é da ordem de 337.062 números portados por mês, e que a expectativa
do setor de telecomunicações, quanto ao volume de números portados por mês, era da
ordem de 1.750.000, verifica-se que a média mensal da quantidade de números portados
representa apenas 19,26% da expectativa inicial do setor de telecomunicações.
5. Conclusões
Levando em consideração o histórico do indicador churn do setor de telefonia móvel,
verifica-se que a Portabilidade Numérica trouxe incremento moderado nessa taxa de
migração, em torno de 0,5 ponto percentual e muito inferior às expectativas das operadoras
e do órgão regulador.
Apesar de o volume de números portados se revelar muito abaixo do planejado
inicialmente pelo setor, o benefício da possibilidade de trocar de operadora, com a
manutenção de número, foi alcançado com sucesso. Para tanto, o objetivo primordial da
ANATEL, que era aprimorar o direito do consumidor disponibilizando esta nova facilidade
para o usuário, foi atingido com a introdução da Portabilidade Numérica. A ANATEL fez
valer seu papel de regulador para que o usuário de telefonia tivesse mais facilidades e
menos barreiras quando quisesse mudar de operadora.
6. Referências
ASSOCIAÇÃO BRASILEIRA DE RECURSOS EM TELECOM - ABR-T. (2010). Disponível
em http://www.abrtelecom.com.br. Acesso em: out./dez. 2010.
AGÊNCIA NACIONAL DE TELECOMUNICAÇÕES - ANATEL.(2009). Disponível em:
http://www.anatel.gov.br. Acesso em: jan./ dez. 2009.
BANCO NACIONAL DE DESENVOLVIMENTO ECONÔMICO E SOCIAL (Brasil). (2009).
Área de Projetos de Infraestrutura Urbana. Operadoras de Telefonia Móvel no Brasil. In:
Caderno de Infraestrutura – Fatos /Estratégias, Rio de Janeiro, ago.2001. Disponível
em: http://www.bndes.gov.br. Acesso em: 22 jun. 2009.
BERRY, L.L; PARASURAMAN, A.(1992). Serviços de marketing: competindo através da
qualidade. Tradução: Beatriz Sidou. São Paulo: Maltese-Norma, 1992.
CLARO. Operadora.(2010).Disponível em http://www.claro.com.br. Acesso em: jan./out.
2010
MATTISON, R. (2001) Telecom Churn Management. APDG Publishing.
MINISTÉRIO DAS TELECOMUNICAÇÕES (1997). BsB. Lei Geral das Telecomunicações.
______. Reforma estrutural do sistema de telecomunicações, 1996.
OI. Operadora.(2010). Disponível em: http://www.oi.net.br. Acesso em: jan./out. 2010
TELECO
–
Inteligência
em
Telecomunicações.
http://www.teleco.com.br. Acesso em: set. 2009.
(2009).
Disponível
em:
TIM. Operadora.(2010). Disponível em: http://www.timbrasil.com.br. Acesso em: jan./out.
2010
UIT. União Internacional de Telecomunicação.(2010). Disponível em: http://www.UIT.com.
Acesso em: jan./abr. 2010
VIVO. Operadora.(2010). Disponível em: http://www.vivo.com.br. Acesso em: jan./out. 2010.
214
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
O plano nacional de banda larga e suas metas
Luiz Fernando Taboada
Escola de Engenharia - Universidade Federal Fluminense (UFF)
Niterói, RJ, Brasil
[email protected]
RESUMO
O Plano Nacional de Banda Larga (PNBL) formulado pelo governo federal objetiva fomentar
serviços e negócios na área de Telecomunicações. Este artigo pontua aspectos do
planejamento e das oportunidades de implementação de novas tecnologias e verifica, com
dados atuais, se as metas estabelecidas no plano do governo são exeqüíveis no contexto
brasileiro. Através da pesquisa documental e da abordagem quantitativa delineia-se o
cenário brasileiro, foco das aspirações sociais e econômicas que motivam o incremento do
plano em questão no sentido da redução das desigualdades existentes no Brasil. As
conclusões evidenciam as dificuldades e complexidades que envolvem as ações no âmbito
político, regulatório, tributário, pesquisa & desenvolvimento estratégico que constam do
PNBL.
Palavras Chave: Tecnologias, Metas, Gestão, Ciência e Pesquisa, Desigualdades
1.
CONCEITOS
A Presidência da República através do Decreto nº 7.175, de 12 de maio de 2010,
instituiu o Plano Nacional de Banda Larga – Brasil Conectado que estabelece as bases para
as ações a serem construídas e implantadas coletivamente no período de 2010 a 2014.
A Agência Nacional de Telecomunicações (ANATEL), órgão regulador brasileiro,
considera que a banda larga é um acesso com escoamento de tráfego tal que permita aos
consumidores finais, individuais ou corporativos, fixos ou móveis, usufruírem, com
qualidade, de uma cesta de serviços e aplicações baseada em voz, dados e vídeo.
As ações do Programa estão consolidadas em quatro dimensões pontuadas a saber:
-
natureza regulatória;
-
incentivos fiscais e financeiros;
-
política produtiva e tecnológica;
-
rede de telecomunicações nacional com foco no atacado.
Os principais objetivos do plano foram: a criação de oportunidades, a aceleração do
desenvolvimento econômico e social, a promoção da inclusão digital, a redução das
desigualdades social e regional, a promoção da geração de emprego e renda, a facilitação
do uso dos serviços do Estado, a promoção da capacitação da população para o uso das
tecnologias de informação e o aumento da autonomia tecnológica e da competitividade.
2.
CENÁRIO
Para entender melhor as razões que levaram o Brasil a conceber um plano de
tamanha envergadura é fundamental que seja feito um recorte da situação brasileira na área
de telecomunicações e compará-la com os demais países do mundo, possibilitando uma
análise mais realista sobre a pertinência da priorização do referido programa.
A Figura 1 propicia uma avaliação comparativa do serviço de telefonia fixa.
215
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
1300
1280
1260
Terminais
Fixos no
Mundo em
Milhões
1240
1220
1200
1180
2005 2006 2007 2008 2009 2010
Total Mundo - 1,19 bilhões – 2010
43
42
41
Terminais
Fixos no
Brasil em
Milhões
40
39
38
37
2005
2006
2007
2008
2009
2010
Total Brasil - 42,0 milhões – 2010
Figura 1 – Evolução de Terminais Telefônicos Fixos em funcionamento - ITU (2011)
As taxas de penetração (quantidade de acessos/habitantes x 100) são de 17,3 no
mundo contra 21,7 no Brasil.
Percebe-se que o Brasil ainda possui um pequeno espaço para crescimento e
conclui-se que boa parte da demanda está sendo atendida pela migração do serviço fixo
tradicional para o serviço móvel ou para outras formas não convencionais.
O comportamento do serviço móvel celular é apresentado pela Figura 2.
6000
250
5000
4000
3000
2000
200
Terminais
Móveis no
Mundo em
Milhões
100
1000
50
0
0
2005 2006 2007 2008 2009 2010
Terminais
Móveis no
Brasil em
Milhões
150
2005 2006 2007 2008 2009 2010
Figura 2 – Evolução de Terminais Móveis em funcionamento - ITU (2011)
Total Mundo - 5,28 bilhões - 2010
Total Brasil - 202,9 milhões – 2010
As taxas de penetração (quantidade de acessos/habitantes x 100) são de 76,2 no
mundo contra 104,7 no Brasil.
216
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
No demonstrativo evidencia-se que o Brasil ainda apresenta um crescimento
bastante expressivo, destacando-se o fato da taxa de penetração no Brasil encontrar-se
bem acima da média mundial, bem como a expressiva colocação brasileira como a quinta
maior planta mundial de linhas celulares em funcionamento.
A seguir elabora-se uma avaliação sobre a banda larga com os mesmos critérios
comparativos já utilizados anteriormente. A exigência sobre este serviço é determinante nos
dias de hoje, pois o mesmo promove a promoção de uma maior difusão das aplicações de
Governo possibilita o crescimento do Produto Interno Bruto (PIB) brasileiro e socializa as
diferentes culturas, as diferenças existentes entre o Brasil.
A situação brasileira é retratada pelas Figuras 3 e 4.
600
18
500
15
Acessos
Fixos BL no
Mundo em
Milhões
400
300
12
9
200
6
100
3
2005
2006
2007
2008
2009
Acessos Fixos
BL no Brasil
em Milhões
2005
2010
2006
2007
2008
2009
2010
Figura 3 – Evolução de Acessos Fixos Banda Larga em funcionamento – ITU (2011)
Total Mundo - 555 milhões - 2010
Total Brasil - 13,8 milhões – 2010
Taxa de Penetração - Mundo - 2010 - 8,0
Taxa de Penetração – Brasil - 2010 - 7,1
Acessos Móveis Banda Larga no Mundo em Milhões
Acessos Móveis Banda Larga no Brasil em Milhões
900
800
700
600
500
400
300
200
100
0
800
595
399
8,8
2,3
2008
2009
20,6
2010
Figura 4 - Evolução de Acessos Móveis Banda Larga em funcionamento - ITU (2011)
Total Mundo - 800 milhões - 2010
Total Brasil – 20,6 milhões - 2010
Taxa de Penetração - Mundo - 2010 – 13,6
Taxa de Penetração - Brasil - 2010 - 10,6
As figuras anteriores demonstram que o Brasil está situado abaixo da média mundial.
A diferença torna-se é mais relevante se a comparação for feita com a média dos
países componentes da Organização de Cooperação e Desenvolvimento Econômico
(OCDE), que representam economias de alta renda com um elevado Índice de
Desenvolvimento Humano (IDH). A taxa de penetração para acesso a banda larga fixa dos
membros da OCDE é superior a 25. Afinal o Brasil é o 7º Produto Interno Bruto (PIB) no
mundo e caminhando para o 5º lugar.
217
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Existe adicionalmente o aspecto qualitativo, expresso através da velocidade média
de conexão. Alguns valores são fundamentais para entender melhor a posição brasileira.
Nos EUA, a velocidade média de conexão estava situada entre 3 e 4 Mbps em 2008,
enquanto no Brasil o valor médio era de 1,7 Mbps em 2010.
Outro fato relevante é que a difusão da banda larga no Brasil não acontece de forma
homogênea, devido principalmente as desigualdades socioeconômicas existentes.
Por todas estas razões, a necessidade de estabelecimento de um Programa
estruturado pelo Governo Federal apresentou-se como uma ação urgente e prioritária,
visando a colocar o País em um patamar compatível com o seu nível de desenvolvimento.
3.
METAS
Preliminarmente a pretensão do governo é massificar, até 2014, a oferta de acessos
banda larga, promovendo o crescimento da capacidade de transporte de serviços de
telecomunicações, de modo que os valores estabelecidos no PNBL sejam atingidos.
A tabela 1 aponta as metas estabelecidas no plano..
Tabela 1. Metas do Plano Nacional de Banda Larga
Abrangência e
Tipo de Acesso
Acesso Fixo
Individual
(Urbano e Rural)
Metas para 2014
30 milhões de acessos BL fixa (urbanos e rurais), somando-se os
acessos em domicílios, propriedades, empresas e cooperativas
Levar acesso banda larga a 100% dos órgãos de Governo, incluindo:
Acesso Fixo
100% das unidades da Administração Federal, Estados e Municípios
100% das escolas públicas não atendidas (mais de 70.000 rurais)
Coletivo
(Urbano e Rural)
100% das unidades de saúde (mais de 177.000)
100% das bibliotecas públicas (mais de 10.000)
100% dos órgãos de segurança pública (mais de 14.000)
Acesso Móvel
60 milhões de acessos BL móvel, entre terminais de voz/dados
(serviço de dados ativo) e modems exclusivamente de dados
Os números propostos representam o alcance de um nível de teledensidade próximo
de 50 acessos por 100 domicílios (em acessos fixos banda larga), ou 45 acessos por 100
habitantes (acessos fixos e móveis em banda larga) no total.
Os recursos estimados para a execução do Plano são apresentados na Tabela 2.
Tabela 2. Recursos financeiros estimados para o Plano Nacional de Banda Larga
Cumprimento das Metas até 2014
Investimentos
Montante de Recursos
Empresas Privadas
49 bilhões de reais
Governo
26 bilhões de reais
Total
75 bilhões de reais
218
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
A proposta estabelecida no Plano Nacional de Banda Larga elaborado pelo Ministério
das Comunicações e apresentado a sociedade em novembro de 2009 tem como base o
documento Plano Geral de Atualização da Regulamentação no Brasil (PGR) da ANATEL de
novembro de 2008 que estabelece o seu planejamento estratégico organizado em ações de
curto, médio e longo prazo
Neste documento a ANATEL fez algumas projeções na área de telecomunicações
para o Brasil até o ano de 2020, onde podem ser destacados os seguintes pontos:
-
Quantidade de acessos banda larga para 2014 – 87 milhões;
-
Quantidade de acessos fixos banda larga para 2014 – 30 milhões;
-
Quantidade de acessos móveis banda larga para 2014 – 57 milhões.
Diante dos números apresentados no PGR fica fácil entender que os valores do
PNBL foram apenas uma ratificação do documento anterior, apenas com um ligeiro ajuste
na quantidade de acessos móveis banda larga.
4.
AVALIAÇÃO
As considerações sobre as possibilidades de atingimento das metas são feitas, a
seguir, no âmbito das redes envolvidas.
4.1.
ACESSOS MÓVEIS
No Plano Geral de Atualização da Regulamentação a ANATEL projeta que o número
de acessos móveis (banda larga e não banda larga) previstos para o ano de 2014 chegaria
a 215 milhões em funcionamento.
Em junho de 2011, três anos e meio antes, o Brasil já atingiu o quantitativo de 217,5
milhões de acessos em funcionamento sendo 26,6 milhões na tecnologia 3G e com a
perspectiva de chegar a mais de 35 milhões acessos móveis 3G até o final do ano, o que
representaria um ganho de quase 15 milhões de acessos no ano.
Considerando as ações governamentais na área, como o leilão da Banda H e de
licitações de novas faixas de frequência, o número proposto no PNBL, de 60 milhões de
acessos, será atingido e superado com certa facilidade.
Fora do contexto inicial do PNBL existe o estudo sobre o uso da tecnologia 4G até o
início da Copa do Mundo, mas que não deverá ter representatividade em termos numéricos.
4.2.
ACESSOS FIXOS
A quantidade de acessos fixos banda larga projetada para junho de 2011 é de 15,2
milhões, um pouco mais da metade estabelecida no PNBL.
A manutenção do ritmo atual de crescimento não seria por si só suficiente para o
atingimento da meta de 30 milhões definida até o final do ano de 2014.
A ANATEL, consciente deste fato, está adotando como principal estratégia para
potencializar o atingimento das metas, o trabalho na vertente de preços. Nesse sentido, a
prioridade é a oferta da velocidade de 1 Mbps com preços a partir de R$ 35. As
mensalidades dos planos de 1 Mbps oferecidos hoje pela maioria das operadoras custam a
partir de R$ 39,90, considerando os preços de São Paulo. A banda larga poderá chegar a
R$ 29,90 nos estados que aceitarem retirar o ICMS do serviço. Esta ação permitirá o
aumento da demanda em um nível suficiente para o alcance da meta.
Estão programadas para 2011, ações de natureza regulatória para o sucesso do
plano, como a aprovação da Lei para o serviço de TV Paga, o Regulamento do Serviço de
TV a Cabo, os editais de licitação das faixas de 2,5 e 3,5 GHz (tecnologia WiMAX e 4G) e o
219
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Plano Geral de Metas de Competição. Sob da ótica da qualidade, a consulta pública da
ANATEL criando exigências mínimas de garantia na oferta de velocidades.
5.
CONCLUSÃO
Considerando o exposto anteriormente, pode-se afirmar antecipadamente com uma
margem de segurança significativa que as metas apresentadas no Plano Nacional de Banda
Larga serão atingidas e superadas.
Um alerta, contudo, se faz necessário, pois normalmente os programas/projetos
propostos pelo governo federal necessitam de uma dinâmica diferenciada, ou seja, um
aprimoramento do processo de gestão, uma melhoria no tratamento das questões negociais
junto ao legislativo para a aprovação de leis e uma ênfase maior na promoção da
recuperação das atividades de pesquisa e desenvolvimento que são fundamentais para o
Brasil em termos de projeção no cenário mundial.
6.
REFERÊNCIAS
PRESIDÊNCIA DA REPÚBLICA (2010). Plano Nacional de Banda Larga. Decreto nº 7.175,
Brasília.
ITU (2011). The World in 2010. Geneva.
ANATEL (2008). Plano Geral de Atualização da Regulamentação. Resolução nº 516,
Brasília.
220
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Padrões de consumo de água: análise da influência de
características das edificações multifamiliares no
dimensionamento de seus reservatórios
Jeferson Luiz Schmidt, Dieter Wartchow, Carin Maria Schmitt.
Escola de Engenharia - Universidade Federal do Rio Grande do Sul (UFRGS)
Porto Alegre, RS, Brasil
[email protected]
[email protected]
[email protected]
RESUMO
O reservatório dos edifícios, um importante item do sistema hidráulico a ser dimensionado
pelos projetistas, deve ser avaliado amplamente para não incorrer em dimensionamentos
inadequados. Este dimensionamento é diretamente ligado a estimativa de consumo de água
que irá ocorrer na edificação, mas o padrão social da edificação, o uso de sistemas de
reaproveitamento e o crescente uso de medidores individuais modificam o padrão de
consumo de água em cada tipo de empreendimento e as normas vigentes não diferenciam
os parâmetros básicos para seu projeto. Este trabalho teve por objetivo verificar quais
características dos empreendimentos poderiam ser analisadas para otimizar este
dimensionamento do reservatório e qual potencial de otimização possível no seu projeto.
Para isso foi realizado levantamento do consumo real de água em quatro edificações da
cidade de Porto Alegre com diferentes características. Foram verificados as características
existentes, número real de moradores e qual consumo per capita que ocorreu em cada
edificação. Ao final foi realizada uma comparação entre os dados reais encontrados e os
parâmetros fixos estipulados pelas normas. O resultado mostrou que, em todas edificações,
o volume dos reservatórios está acima do necessário e há grande potencial para otimizar
seu dimensionamento de acordo com cada tipo de empreendimento.
Palavras-Chave: consumo de água. reservatórios. medição individualizada.
1. INTRODUÇÃO
O mercado competitivo de hoje em dia exige projetos cada vez mais otimizados e
sem desperdícios, não pode haver subdimensionamento e muito menos
superdimensionamento. Muitas pesquisas são realizadas na tentativa de aperfeiçoar cada
vez mais os empreendimentos, buscando novos métodos de planejamento e a elaboração
de cronogramas mais eficientes, materiais mais leves e confiáveis para reduzir cargas e
patologias nas edificações, ou até mesmo estudos para o reaproveitamento de materiais. O
importante é que cada item deve ser dimensionado da forma mais eficiente e econômica
possível, mas muitas vezes na fase inicial de projeto da edificação e de todos os seus
subsistemas, o projetista se vê diante de dados iniciais genéricos que não consideram
características individuais de cada empreendimento.
No que tange a concepção dos projetos e sistemas da instalação hidráulica dos
empreendimentos, os dados iniciais fornecidos por normas e leis aos projetistas visam
estimar a população e o consumo diário de água que futuramente irá ocorrer no uso de cada
edificação. Mas a crescente preocupação no desenvolvimento de edificações projetadas e
construídas dentro de um enfoque de sustentabilidade e uso racional dos recursos hídricos,
juntamente com o aumento da consciência das pessoas sobre o uso racional da água,
modificou o perfil de consumo de água das pessoas. Essas mudanças nas características
de cada edificação, quando não analisadas, podem levar o projetista a dimensionamentos
inadequados dos itens do sistema hidráulico e hidrossanitário. Este trabalho visa, portanto,
221
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
verificar em algumas edificações, com diferentes padrões de consumo de água, qual a
influência que cada uma destas características tem no dimensionamento de um item do
sistema hidráulico em particular, o volume útil do reservatório da edificação.
1.1. O PROJETO DOS RESERVATÓRIOS
O reservatório da edificação deve ser projetado dentro de parâmetros estabelecidos
em norma e o seu valor influencia diretamente itens de projeto como fundações, sistema de
recalque e projeto estrutural. Seu dimensionamento é realizado multiplicando-se a
estimativa de população especificada nas normas pelo valor de consumo médio de água por
pessoa em um dia. Um reservatório deve garantir sempre o abastecimento da edificação e
por isso, um subdimensionamento, ou seja, um reservatório muito pequeno para o consumo
real da edificação pode representar riscos de desabastecimento. Por outro lado, um volume
útil superdimensionado para o reservatório, devido a um consumo real de água na
edificação inferior ao projetado, leva a uma carga excessiva e desnecessária à estrutura do
edifício. O peso do reservatório soma à estrutura toneladas de carga que sempre
necessitam um maior reforço estrutural e atenção por parte dos projetistas.
Em Porto Alegre, a Legislação que estabelece valores para este dimensionamento é
o Decreto n. 9369, de 29 de dezembro de 1988, que indica o valor de consumo diário de 200
litros per capita como principal parâmetro para dimensionar o volume de água total
disponível para a edificação. O Decreto também estipula a contabilização do número de
pessoas de acordo com o tamanho e quantidade de dormitórios, duas pessoas para
dormitórios até 12m² e três pessoas para acima de 12m² Ou seja, são valores empíricos que
visam estimar o que futuramente irá ocorrer na edificação quando esta estiver em seu pleno
uso. Essa Legislação utiliza estes valores de consumo de água a mais de 20 anos e por isso
pode-se questionar se o dimensionamento do volume útil, realizado na fase de projeto do
empreendimento, está adequado aos reais níveis de consumo diário de água que terá a
edificação no seu pleno funcionamento hoje.
1.2. PADRÕES DE CONSUMO DE ÁGUA
Mudanças ocorridas nos últimos anos podem indicar que há características que
devem ser levadas em consideração para tornar mais exato e preciso o dimensionamento
do volume de reservatórios. Hoje em dia são cada vez mais intensas as políticas para o uso
racional da água. Essas políticas incentivam cada vez mais a população a observar os
melhores hábitos no que se refere ao uso deste recurso natural, tido como o mais
importante de todos. As novas tecnologias e materiais para projetos das instalações
hidrossanitárias das edificações também evoluíram e permitiram reduzir as perdas de água,
deixando os sistemas muito mais confiáveis. Aparelhos hidrossanitários que possuem um
menor consumo de água e sistemas de vedação mais duráveis contribuíram muito para esta
redução nas perdas.
É também crescente o uso de medidores individualizados, sendo uma realidade para
as novas edificações multifamiliares. Pesquisas mostram que esta atitude reduz o consumo
de água per capita e consequentemente o consumo da edificação como um todo. Sistemas
de aproveitamento de água da chuva projetados na edificação para uso em bacias sanitárias
e outras instalações prediais também contribuem para uma redução no volume do
reservatório superior de água potável, pois estes pontos serão alimentados por reservatório
específico com a água da chuva.
2. MÉTODO DE PESQUISA
Dentro deste panorama, este trabalho buscou verificar se parâmetros estipulados em
normas e decretos utilizados pelos projetistas para dimensionar o volume útil dos
reservatórios estão levando a resultados práticos adequados com a realidade de consumo
das edificações. O trabalho verificou qual o percentual de influência que algumas
222
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
particularidades e características das edificações têm sobre o consumo geral da edificação,
e consequentemente sobre o dimensionamento dos seus reservatórios.
Para essa verificação foram feitos em uma primeira etapa levantamentos
bibliográficos sobre algumas características importantes e influentes no padrão de consumo
de água das edificações. Este estudo bibliográfico buscou verificar de que maneira cada
uma destas características influência no consumo de água e qual o possível percentual
desta influência. Foram estudadas a medição individualizada, a classe social da edificação,
o uso de reaproveitamento de água da chuva e a utilização dos aparelhos economizadores
de água.
A segunda etapa do trabalho envolveu o levantamento de dados de campo em
quatro diferentes edificações na cidade de Porto Alegre. Em cada edificação foi verificado o
número de moradores de cada apartamento e acompanhado o consumo de água através da
leitura de todos os hidrômetros gerais ou individuais. Este levantamento visou verificar o
consumo real que ocorre em edificações com diferentes características e assim comparar o
dimensionamento teórico de um reservatório, realizado com base nas legislações municipais
vigentes, com um reservatório ideal real, realizado com dados verificados na prática de
consumo de água e número real de moradores. A comparação entre estes dois
dimensionamentos de reservatórios indicou quão distante, em termos percentuais, está o
valor de projeto frente ao que realmente ocorre na realidade de cada edificação pesquisada.
3. CARACTERIZAÇÃO DO CONSUMO DE ÁGUA
A NBR 5626 coloca claramente que é necessário considerar o padrão de consumo
da edificação para dimensionar a capacidade dos reservatórios (ASSOCIAÇÃO
BRASILEIRA DE NORMAS TÉCNICAS, 1998). Estudos de caracterização da demanda de
água dentro das edificações residenciais existem, mas ainda ocorre escassez de
informações. É necessário um número maior de dados para estabelecer parâmetros mais
consistentes e eficazes para os projetos dos sistemas prediais de água.
Nos últimos anos surgiram muitos programas de conservação de água e a cada dia
as edificações incorporam mais estes métodos de projeto que alteram a demanda de água.
É nítida na construção civil habitacional a tendência de projetos que busquem incorporar
mais o uso racional de água e o conceito de edificação sustentável, pois é intensa a
discussão e os debates sobre desenvolvimento sustentável do Planeta (GONÇALVES et al.,
2009).
Características como a medição individualizada são importantes, pois atuam
diretamente na percepção de consumo das pessoas, através dela é possível controlar o que
realmente cada apartamento está consumindo e verificar quando vazamentos ou grandes
perdas ocorrem (COELHO, 2009). Isso indica que edificações que possuem este tipo de
medição necessitam de um volume disponível de água potável menor e que por isso, podem
ser previamente analisadas ao dimensionar o volume do reservatório devido a sua influência
no consumo geral de água.
Outro ponto importante nos últimos anos são os aparelhos hidrossanitários,
instalados nas residências e edificações, que vêm sofrendo cada vez mais avanços com
novas tecnologias que demandem menos água. A redução no consumo de água se dá
nestes aparelhos de diferentes formas, bacias sanitárias com volumes reduzidos, chuveiros
com redutores de vazão e ainda torneiras temporizadas e com arejadores que consomem
menos água mas mantém a sensação de vazão elevada. É importante observar que todos
estes pontos de consumo com economizadores de água instalados atuam
independentemente da vontade do usuário.
O padrão da edificação em relação à classe social dos seus ocupantes também é
importante, pois diferentes culturas e aparelhos utilizados estarão presentes em edificações
populares ou de alto padrão. Edificações de classe mais elevada muitas vezes possuem
223
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
chuveiros com ducha de água aquecida a gás. Estas duchas possuem vazões mais
elevadas que chuveiros elétricos e necessitam purgas maiores de água fria, consumindo
assim mais água. A renda familiar é um item importante a ser destacado na estimativa de
consumo de água. O gráfico da figura 1, obtido do sistema nacional de informações sobre
saneamento (SNIS), ilustra bem a variação do consumo de acordo com a renda familiar e
mostra um aumento de consumo quando a renda é maior.
Figura 1: dados do SNIS da relação entre renda familiar e consumo de água (COHIN et. al. 2009).
3. LEVANTAMENTOS DE DADOS DE CAMPO
Após a pesquisa bibliográfica, que evidenciou o quanto algumas características das
edificações podem afetar o consumo de água e o quão importante é, para um projetista, a
análise de cada uma delas na busca de projetos mais otimizados, foi realizado o
levantamento de dados de campo. Este levantamento prático buscou verificar o real
consumo de água e número de moradores em diferentes edificações da cidade de Porto
Alegre e comparar com valores teóricos indicados para dimensionar um volume de
reservatório da edificação.
Considera-se no trabalho que volume útil ideal é o volume de reservatório mais
otimizado possível, considerando para a edificação os dados do período em que foi
realizado o acompanhamento de consumo e o levantamento do número de moradores.
Também foi realizado para cada edificação o cálculo do volume útil do reservatório teórico
utilizando os valores estabelecidos pelo Decreto 9369 da cidade de Porto Alegre, simulando
assim a estimativa de consumo que um projetista faria nas etapas iniciais de projeto. Com
estes volumes ideais e teóricos foi possível realizar uma comparação e verificar o percentual
de diferença entre a estimativa teórica e o que realmente está ocorrendo na prática.
A escolha do número de edificações e da localização de cada uma delas foi feita por
conveniência, sem preocupação com representatividade estatística. Essa forma foi
escolhida devido à dificuldade da determinação do universo de edificações de Porto Alegre
e a necessidade de uma grande amostra e quantidade de dados para obter resultados
estatisticamente válidos. Quatro edificações foram escolhidas para realizar o levantamento e
estas foram identificadas apenas pelos bairros onde se encontram. Em todas as edificações
os dormitórios possuíam menos de 12m². As características principais de cada edificação
são apresentadas na tabela 1.
Tabela 1: características das edificações pesquisadas
Padrão
Chuveiro
Número de
Bacia sanitária
dormitórios
HIGIENÓPOLIS geral
alto
ducha
3
caixa acoplada
CENTRO
popular/médio elétrico
3
caixa acoplada
2
caixa acoplada
Edificação
Tipo
medição
geral
de
RUBEM BERTA individualizada popular
elétrico
224
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
BOA VISTA
individualizada alto
ducha
4
caixa acoplada
Após os levantamentos do número de moradores de cada apartamento e leitura dos
hidrômetros, foram realizadas as médias de consumo de água que ocorreu em cada edifício
juntamente com a contabilização do seu número total de moradores. Foi então realizado o
cálculo do projeto de reservatórios teórico e real de acordo com os parâmetros estipulados
no decreto 9369/88 da cidade de Porto Alegre. Os resultados encontrados estão na tabela 2.
Tabela 2: resultado dos dados de campo em comparação com os parâmetros do decreto
Edificação
Número
moradores
Teórico
Real
HIGIENÓPOLIS 120
49
CENTRO
96
37
RUBEM BERTA 80
50
BOA VISTA
100
392
de Consumo de água Volume
(L/hab.dia)
(litros)
do
reservatório
Teórico
Ideal
Diferença
(%)
239,3
24.000
11.725
-51
137,9
19.200
5.102
-73
111,2
16.000
5.560
-65
166,3
78.400
16.630
-78
Teórico Real
200
útil
Esse quadro mostra claramente a diferença que ocorre nestas edificações entre o
valor projetado e o que realmente seria necessário de volume útil de água potável para um
dia de consumo da edificação. Pode-se observar que ocorre uma grande diferença na
estimativa populacional das edificações, mostrando que a densidade de moradores por
dormitório estipulada pelo Decreto n. 9369 é bem acima do nível de ocupação que ocorre na
prática. Sabe-se que em um projeto são necessárias margens de segurança para não
ocorrerem subdimensionamentos, mas é necessário avaliar com cuidado esses resultados e
questionar se um valor de 70% não é um percentual muito acima do necessário para essa
margem de segurança. Os resultados sobre a comparação entre consumo especificado no
Decreto de Porto Alegre e o real de cada edificação ficam mais claros no gráfico
apresentado na figura 2.
Figura 2: comparação de consumo de água teórico e real em cada edificação.
Pode-se perceber que as edificações de padrão alto consumiram mais água quando
comparadas as de padrão popular e o mesmo ocorre quando comparamos edificações de
mesmo padrão mas que possuem medição geral ou individualizada. A comparação entre os
reservatórios ideais e teóricos de cada edificação pesquisada também fica mais evidente ao
analisarmos os resultados dos dimensionamentos no gráfico da figura 3.
225
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Figura 3: comparação de consumo de água teórico e real em cada edificação.
4. CONSIDERAÇÕES FINAIS
Avaliando-se os resultados obtidos nesta pesquisa constatou-se que as
características estudadas são importantes para análise dos futuros projetos do volume útil
dos reservatórios. Cada uma delas pode ser analisada pelo projetista na busca de
parâmetros que, juntamente com seu bom senso na análise do empreendimento, levem a
projetos mais adequados e sem desperdícios.
A premissa do trabalho se mostrou válida na medida em que a Legislação vigente na
cidade de Porto Alegre, ao não diferenciar os parâmetros básicos de projeto para diferentes
edificações, levou a dimensionamentos de volume úteis teóricos bem acima dos valores
ideais verificados para as edificações acompanhadas por este trabalho. Os reservatórios
ideais dimensionados de acordo com os dados reais de consumo e número de moradores
ficaram entre 51% e 78% abaixo do reservatório teórico dimensionado de acordo com o
Decreto 9369/88. Isso mostra que há margem para otimização do volume útil dos
reservatórios e consequente redução de cargas estruturais nas edificações. Fica portanto, a
recomendação para que os projetistas realizem nos seus futuros projetos, uma análise mais
detalhada sobre as características particulares de cada edificação, e que aliem estes
estudos ao seu bom senso para gerar projetos cada vez mais otimizados e exatos.
5. REFERÊNCIAS
ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS. NBR 7229: projeto, construção e
operação de sistemas de tanques sépticos. Rio de Janeiro, 1993.
COELHO, A. C. Micromedição em sistemas de abastecimento de água. João Pessoa:
Editora da UFPB, 2009.
COHIN, E.; GARCIA, A.; KIPERSTOK, A.; DIAS, M. C. Consumo de água em residências de
baixa renda: estudo de caso. In: CONGRESSO BRASILEIRO EM ENGENHARIA
SANITÁRIA E AMBIENTAL, 25., 2009, Recife. Anais... Rio de Janeiro: ABES, 2009.
GONÇALVES, R. F.; JORDÃO, E. P.; JANUZZI, G. Introdução. In: _____. (Coord.).
Conservação de água e energia em sistemas prediais e públicos de abastecimento de
água. Rio de Janeiro: ABES, 2009. p. 21-35.
PORTO ALEGRE. Decreto n. 9369, de 29 de dezembro de 1988. Departamento Municipal
de
Água
e
Esgoto.
Disponível
em:
<http://lproweb.procempa.com.br/pmpa/prefpoa/dmae/usu_doc/cip9369-decreto.pdf>.
226
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Predição de cobertura de sistemas worldwide
interoperability microwave access (WiMAX)
1
2
Matheus Bernardes de Moura, Leni Joaquim de Matos
1,2
Escola de Engenharia - Universidade Federal Fluminense (UFF)
Niterói, RJ, Brasil
1
2
[email protected], [email protected]
RESUMO
O padrão celular conhecido como WiMAX (Worldwide Interoperability Microwave Access)
aparece no cenário das telecomunicações promissoramente, combinando uma fácil
implementação, custo baixo e altas taxas de transmissão de dados. É de grande
importância, portanto, a cobertura que o sinal do sistema WiMAX proporciona. Assim, de
posse das informações de relevo e densidade demográfica da cidade de Campinas, em São
Paulo, é realizada a predição de cobertura de sinal na mesma, na faixa de 3,5 GHz,
empregando-se um software de predição, que permite testar diversos modelos aplicáveis a
essa faixa. Com isto, é possível identificar os fatores relevantes na predição de cobertura e,
consequentemente, dentre os possíveis modelos aplicáveis, concluir qual melhor se ajusta
às características do ambiente simulado.
Palavras-Chave: Predição de cobertura. Sistema WiMAX. Software de predição.
1. INTRODUÇÃO
A tecnologia WiMAX (ANDREWS, 2007) tem como objetivo proporcionar acesso, em
banda larga, a lugares onde outras tecnologias não chegam devido à dificuldade de acesso.
Sua implantação ocorre por células, onde de uma estação principal é possível transmitir
para outros equipamentos da rede ou até mesmo para o usuário final e está presente em
sistemas celulares da geração 3G e 3,5G. É uma das tecnologias capazes de dar suporte à
4ª geração (4G), que está chegando, e que tem como metas: o baixo custo por bit, a
integração de redes de acesso IP e suporte a serviços multimídia.
Um primeiro passo no planejamento de um sistema celular é determinar a área a ser
coberta pelo mesmo. Para isto, modelos de predição de cobertura são empregados e os
principais modelos para a faixa de 3,5 GHz são descritos neste artigo. Posteriormente, serão
aplicados na região de Campinas, através do uso do software CELPLANNER
(CELPLANNER).
Um estudo detalhado de alguns dos modelos de predição disponibilizados pelo
software é realizado, de forma a se saber quais as características principais de cada um
deles, ou seja, o que é levado em consideração na hora da geração dos dados de cobertura.
Em seguida, determina-se qual é a melhor abordagem para a região, levando-se em conta
os aspectos topográficos e morfológicos do local. Por fim, são realizadas predições com
alguns modelos de predição, para que possa ser determinado qual dentre eles é o modelo
que mais se ajusta à cobertura da cidade.
2.
MODELOS DE PREDIÇÃO DE COBERTURA
Os modelos de predição de cobertura são fundamentais para o dimensionamento de
qualquer sistema de comunicação sem fio. Estes podem ser divididos em três tipos
diferentes: empíricos, que são resultado de medições em campo, com determinados tipos
de ambientes e parâmetros fixos; semi-empíricos, que seguem basicamente as mesmas
premissas do modelo anterior, entretanto, suas equações já carregam relação com a teoria
e os modelos canônicos de propagação; e teóricos, os quais se baseiam na teoria
eletromagnética de traçado de raios (Parsons, 2000). Isto faz com que os valores
227
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
encontrados por estes últimos modelos possuam grande confiabilidade, podendo ser
aplicados aos mais variados tipos de ambiente, porém são mais complexos e exigem maior
tempo de processamento, devido à grande quantidade de dados gerados. O software
CELPLANNER apresenta sete modelos distintos de predição e, dentre eles, são utilizados 3
modelos para a predição de cobertura na região de Campinas: o de linha de visada, o
modelo I (Lee e Pìcquenard) e o modelo V (Hata COST 231).
2.1 MODELO DE LINHA DE VISADA
O modelo de linha de visada (line of sight) considera, apenas, a perda por atenuação
no espaço livre (YACOUB, 1993), sendo mensurado para pontos livres de obstrução. Para
definir as obstruções, levam-se em conta os dados de morfologia do local. Utilizado somente
para frequências mais elevadas, na faixa de 3,5 GHz, pois para estes casos quase não se
verifica a presença do fenômeno da difração. Considera-se a fórmula básica de atenuação
no espaço livre (1) (Lee, 1980) para efetuar a predição, onde f e d são, respectivamente, a
frequência do sinal e a distância, respectivamente, é L0 é a perda em dB:
L0 = 32,4 + 20 log f[MHz] + 20 log d[m] (1)
2.2 MODELO I (LEE E PICQUENARD)
O modelo I foi criado a partir da abordagem dos modelos de Lee (LEE, 1989) e de
Picquenard (CELPLANNER). O modelo de Lee foi criado a partir de um modelo simplificado
de perda, o qual considera a terra plana e tem sua equação de atenuação em função da
área de propagação do sinal. Lee acrescenta a perda ou ganho devido à rugosidade
terrestre, sugerindo a eq.(2), onde não há obstruções, sendo levadas em consideração as
irregularidades do terreno. A abordagem segundo o modelo de Picquenard (CELPLANNER);
apresenta a predição da atenuação devido ao fenômeno de difração por múltiplos gumes de
faca, conforme a eq.(3). A implementação deste modelo possibilita um cálculo aproximado
da atenuação, mesmo para terrenos montanhosos. Dessa forma, as equações das
potências recebidas a uma distância d da antena transmissora, Prd, sendo Pro a potência de
referência a uma distância d0 são calculadas por:
Prd(dBm) = Pro (dBm) - γ . log (d/d0) + ∆G + ∑ Fi
(2)
Prd(dBm) = Pro (dBm) - γ . log (d/d0) + Ld + ∑ Fi
(3)
onde:
Ld → perda por difração, calculada de forma aproximada a partir do conjunto de eq.
(5).
d e d0
respectivamente.
→
distâncias
Tx-Rx
(transmissora-receptora)
e
Tx-Referência,
∆G = 20 log (htef/ht) → fator de correção da antena, leva em conta suas
irregularidades e o
considera plano.
htef e ht → alturas efetiva e real da antena transmissora, respectivamente.
ΣFi → fatores de correção usados quando os parâmetros de altura, ganho e potência
das antenas não são o padrão estipulado (LEE, 1989).
A perda por difração é modelada a partir do parâmetro ν, que representa a região do
espaço onde se dá a maior concentração de energia do sinal transmitido pela estação base,
danificada pela obstrução.
ν = - hp [2(1/d1 + 1/d2)/λ]1/2
(4)
onde são definidos:
228
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
hp → altura da obstrução principal em relação à linha direta de propagação entre a
base e o móvel.
d1 → distância da antena da base até a interseção entre a reta vertical tomada no
ponto de difração, e a linha direta de propagação.
d2 → distância do ponto obtido da intersecção entre a reta vertical, que passa no
ponto de difração, e a linha direta de propagação, até a antena da estação móvel.
A partir de ν, pode-se chegar ao valor da perda por difração Ld, calculada de uma
das equações do conjunto (5).
1 ≤ ν ⇒ Ld = 0 dB
0 ≤ ν < 1 ⇒ Ld = 20 log (0,5 + 6,2ν)
-1 ≤ ν< 0 ⇒ Ld = 20 log (0,5 e 0,95ν)
(5)
-2,4 ≤ ν< -1 ⇒ Ld = 20 log (0,4 - [0,1184 - ( 0,1ν + 0,38 ) ]
2 1/2
ν < - 2,4 ⇒ Ld = 20 log (-0,225/ν)
2.3
MODELO V (HATA COST-231)
HATA (HATA, 1980) expressou em equações os resultados de medições da perda
de sinal, realizadas por Okumura (OKUMURA, 1989), no Japão. Este modelo gera uma
expressão de perda no percurso em função da frequência do sinal modulado, das alturas
das antenas na BS (Base Station - Estação Base) e na MS (Mobile Station - Estação Móvel),
e da distância entre a estação base e a móvel. Visto que o mesmo só cobre até frequências
de 1500 MHz, surgiu o modelo Hata COST 231, que é a versão expandida do modelo Hata,
aplicável à faixa de frequência do PCS (Personnal Communication System –
1800MHz/1900MHz) e que tem aceitação mundial. Segundo Plitsis (PLITSIS, 2003), este
modelo se estende até frequências de 6 GHz, provendo uma boa aproximação para
quaisquer ambientes, e tem sido de grande aplicação em cálculos de cobertura devido a sua
simplicidade. Este modelo é aplicável, também, a áreas suburbanas e rurais. Nesse caso, a
perda é calculada por:
L = 46,3 + 33,9 log f (MHz) - 13,82 log hb(m) - a(hm) + X
X = [ 44,9 - 6,55 log hb(m) ] . log d (km) + CM (dB)
(6)
(7)
e os termos em negrito são diferentes dos termos da equação original de Hata,
sendo acrescentado o termo CM (= 3 dB em áreas metropolitanas e nulo em áreas
suburbanas). Para os parâmetros, tem-se: f, frequência do sinal; d, distância Tx-Rx; hb e hm,
alturas da antena Tx e RX, respectivamente; e a(hm) é um fator de correção da antena Tx,
dado nas eq.(8) a (10). Para as variáveis: 30 ≤ hb ≤ 200 m; 1 ≤ d ≤ 20 km e 1 ≤ hm ≤ 20 m.
Quanto ao fator a(hm), tem-se:
•
cidade grande:
a( hr ) =
8,29 [ log( 1,54.hm )]2 - 1,1, ∀ f ≤ 200 MHz
(8)
3,2 [ log( 11,75.hm )] - 4,97, ∀ f ≥ 400 MHz
(9)
2
•
cidade média ou pequena:
a(hm) = [ 1,1.log f( MHz ) - 0,7 ].hm- [ 1,56.log f( MHz ) - 0,8 ] (dB)
(10)
Outros modelos disponibilizados no software CELPLANNER são: Korowajczuk e
Korowajczuk K3d, de autoria própria da Celplan; Erceg, utilizado em diferentes frequências e
baseado em dados de topologia e morfologia do local e o modelo Celplan Microcell,
desenvolvido para células extremamente pequenas.
229
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
3.
MONTAGEM DA REDE WiMAX
A cidade de Campinas está a uma altitude média de 600 metros a partir do nível do
mar e deve-se observar que a altitude da antena também é mensurada a partir deste
mesmo nível. Sendo assim, a diferença entre a antena e o solo não passa de 170 metros.
Para o planejamento da rede WiMAX, foram levados em conta os dados
demográficos e a topologia do local para o melhor posicionamento das BS, assim como o
tipo de setorização, a inclinação e o azimute de cada antena, todos disponibilizados no
software. Na figura 2, observam-se os mapas de morfologia (a) e topologia (b) do local.
(a)
(b)
Figura 2. Distribuição morfológica (a) e topológica (b) da cidade de Campinas, SP.
Levando-se todas as características citadas em consideração, chegou-se à
disposição geográfica das três estações base, conforme mostrado na Figura 3, pelos pontos
pretos.
A Tabela 1 fornece as informações básicas das BS empregadas, escolhidas no
software. Como pode ser visto, todas estão divididas em 2 setores, sendo cada setor
composto por uma antena posicionada de acordo com o cálculo de seu tilt (inclinação) e de
seu azimute, de acordo com suas características básicas, mostradas na Figura 4 e de
maneira que cubra a área desejada.
Figura 3. Distribuição celular utilizada para cobertura de Campinas, SP.
Tabela 1. Características básicas das estações criadas.
SPCAM011
SPCAM012
SPCAM021
SPCAM022
SPCAM031
SPCAM032
230
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Altitude
(m)
772
772
700
700
691
691
Lat
22º56'27.01'' 22º56'27.01''
22º50'45.45'' S 22º50'45.45'' S 22º55'38.96'' S 22º55'38.96'' S
S
S
Long
47º02'04.74
W
47º02'04.74
W
Azimute
10
270
0
Tilt
-5
-8
-5
47º06'04.37''
W
47º06'04.37''
W
270
30
200
-5
-5
-5
47º03'06.76''W 47º03'06.76''W
Figura 4. Diagrama de radiação da antena utilizada nas estações base.
4.
COMPARAÇÃO DOS RESULTADOS OBTIDOS
Na Figura 5, pode-se observar que o modelo V (Hata COST 231), é o que apresenta
a melhor cobertura da região, relativamente ao demais. Praticamente, cobre a maioria das
áreas urbana e suburbana, caracterizando-se como o que melhor se ajusta à realidade da
cidade de Campinas, SP.
(a)
(b)
(c)
Figura 5. Resultados da predição: (a) Modelo I, (b) Linha de Visada e (c) Modelo V.
Já o modelo I (Lee e Picquenard) apresentou a pior cobertura, tendo o nível
atenuado até -100 dBm bruscamente. O modelo de Linha de Visada apresentou níveis
melhores, porém, ainda ruins, causados devido à grande quantidade de morros e dificuldade
de linha de visada.
5.
CONCLUSÃO
231
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Relacionando os conceitos teóricos de cada modelo e as predições efetuadas
através do software CELPLANNER, partindo de mesmas características, pode-se verificar
que o melhor resultado foi apresentado pelo modelo V, que faz uso do modelo Hata COST
231. Como visto nas equações, é usado para predições em frequências até 6 GHz,
englobando morfologia, topografia, frequência do sinal, alturas de antenas e considera
efeitos de difração e espalhamento no topo das construções. Em contrapartida, os outros
modelos apresentaram cobertura visivelmente inferior, o que já era esperado, visto que
envolvem uma menor quantidade de parâmetros, desconsiderando efeitos que realmente
ocorrem no sinal de 3,5 GHz. É importante, portanto, entender bem em que situação cada
tipo de modelo é empregado para que possa se obter o resultado mais fiel à realidade do
meio onde o sinal se propaga.
6.
REFERÊNCIAS
ANDREWS, J. G. (2007). Fundamentals of WiMAX – Understanding Broadband Wireless
Networking. Prentice Hall, United States. 478p.
CELPLANNER. Software para Projeto Integrado de Sistemas Wireless. CELPLAN,
Campinas/SP 137p.
HATA, M. (1980). Empirical Formula for Propagation Loss in Land Mobile Radio Service.
IEEE Transactions on Vehicular Technology, Vol. 29, No.3.
LEE, W. C. Y. (1989). Mobile Cellular Telecommunications Systems. McGRAW-HILL,
Singapore 450p.
OKUMURA, Y. (1968). Field Strength and its Variability in the VHF and UHF Land Mobile
Radio Services. Review Electronic Communications, Labs, 16.
PARSONS, J. D. (2000). The Mobile Radio Propagation Channel. JOHN WILEY & SONS,
England 483p.
PLITISIS, G. (2003). Coverage Prediction of New Elements of Systems Beyond 3G: The
IEEE 802.16 System as a Case Study. Communication Networks, Aachen University.
YACOUB, M. D. (1993). Foundations of Mobile Radio Engineering. CRC Press, NY, 481p.
232
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Projeto conceitual de rede para captura e sequestro de
carbono no Estado do Rio de Janeiro
Tiago Machado de Souza Jacques.
Escola de Engenharia - Universidade Federal Fluminense (UFF)
Niterói, RJ, Brasil
[email protected]
RESUMO
Este artigo estuda a viabilidade técnica e operacional de um projeto de Captura e Seqüestro
de Carbono (CCS) em reservatório geológico no Estado do Rio de Janeiro, através da
escolha de parâmetros operacionais reconhecidos internacionalmente como seguros, e
tecnologias disponíveis no mercado, tendo em vista que não há ainda no Brasil regulação
específica para este setor.
Palavras-Chave: Dióxido de Carbono, Tecnologias Limpas, Mudanças Climáticas;
Recuperação Avançada de Pretróleo; Transporte Dutoviário.
1. INTRODUÇÃO
A Captura e Seqüestro de Carbono é um meio usado para controle de emissões de
dióxido de carbono, onde este gás de efeito estufa é capturado em fontes estacionárias
industriais, tais como Usinas Termelétricas a gás natural e outras, e é transportado até o seu
local de armazenamento geológico.
Existem atualmente quatro projetos de armazenamento geológico de dióxido de
carbono em larga escala no mundo com expressivo sucesso, dentre os quais de destaca o
projeto de Salah, localizado na Argélia, que captura hoje cerca de 1Mt CO2/ano proveniente
do processamento de gás natural para injeção em aqüífero salino. A Agência Internacional
de Energia (IEA) aponta que há uma necessidade urgente de projetos de armazenamento
de CO2 de grande escala para reduzir custos e gerar tecnologia de monitoramento e
verificação de dados, a agência espera que eles possam representar 19% das emissões de
CO2 evitadas no ano de 2050 (IEA, 2010).
Em dezembro de 2010, a Captura e Sequestro de Carbono em formações geológicas
foi reconhecido como um Mecanismo de Desenvolvimento Limpo pelo Painel
Intergovernamental sobre Mudanças Climáticas (UNFCCC, 2010).
2. FORMULAÇÃO DA SITUAÇÃO PROBLEMA
O Estado do Rio de Janeiro possui um parque industrial com elevado consumo de
fontes primárias de energia, que configura uma potencial fonte para captura de CO2.
O presente artigo avalia a viabilidade técnica e operacional de um projeto de Captura
e Seqüestro de Carbono (CCS) em reservatório geológico no estado do Rio de Janeiro,
através da escolha das melhores alternativas de projeto disponíveis, em atendimento às
recomendações da IEA e publicações técnicas complementares. O projeto é constituído das
fontes propriamente ditas, onde ocorre captura do CO2 e seu bombeio à rede de dutos, da
rede de dutos, onde o CO2 é conduzido entre as fontes e da destinação final e o(s)
reservatório(s) geológico(s) de destino, onde o CO2 é definitivamente disposto.
O CO2 é um gás mais pesado que o ar, e sua dispersão em regiões densamente
povoadas com pouca circulação atmosférica, apresenta riscos, fato este que motivou a
escolha de traçados de faixas de dutos já existentes, buscando minimizar os possíveis
impactos ambientais. Por questão de segurança a melhor alternativa de traçado foi
escolhida observando-se duas importantes variáveis: densidade populacional e relevo local.
233
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
As potenciais fontes de CO2 foram escolhidas dentre fontes estacionárias de
emissão, e para o local de sequestro geológico do CO2 foi selecionada a região da Bacia de
Campos, pois o estágio atual de conhecimento da hidrogeologia do Estado não apresenta
alternativas (aqüíferos salinos confinados ou campos terrestres de petróleo). [MARTINS, et
al 2010]
3. CAPTURA, TRANSPORTE E ARMAZENAMENTO DE CO2
3.1 CAPTURA
A principal forma de obtenção de potência em motores a combustão de grande porte
é a oxidação exotérmica do carbono de combustíveis fósseis, onde inevitavelmente o CO2 é
produzido. A eliminação do carbono das emissões de CO2 pode ser feita somente por um
dos 3 processos abaixo [RACKLEY, 2010]:
•
combustão;
•
Descarbonação do combustível antes de sua combustão, ou captura de préSeparação do CO2 de produtos da combustão, ou captura de pós-combustão;
•
Reengenharia do processo de combustão para produzir CO2 como um
produto puro, nos processos denominados oxyfueling.
O processo de captura escolhido foi o de pós-combustão e o inventário de potenciais
emissões capturadas foi calculado estequiometricamente com base em definições da ABNT
(2008), pois todas as fontes analisadas utilizam gás natural como recurso energético. Este
inventário é mostrado na Tabela 1.
Tabela 1 – Invetário de potenciais emissões capturadas
Fonte
Emissão (tCO2/ano)
-2011-
Emissão (tCO2/ano)
-2014-
Emissão em 20 anos
(tCO2)
-2014-
UTE GLB
686.313,6168
686.313,6168
13.726.272,34
REDUC
892.207,7018
892.207,7018
17.844.154,04
ECOMP CE
27.452,5447
27.452,5447
549.050,89
COMPERJ *
-
Não definido
Não definido
Riopolímeros
-
Não definido
Não definido
UTE ML
768.671,2508
768.671,2508
15.373.425,02
UTE NF
2.217.479,2958
2.217.479,2958
44.349.585,92
Cabiúnas
171.578,4042
171.578,4042
3.431.568,08
UTE VA *
-
86.475,5157
1.729.510,31
Superporto Açu**
-
Não definido
Não definido
4.763.702,8141
4.850.178,3298
97.003.566,5955
Total
*2012 **2014
3.2 TRANSPORTE
Um dos grandes desafios do transporte do CO2 está relacionado com o controle de
seu estado físico. A Figura 1 mostra que em temperaturas acima de 25ºC (>298 K) e
pressão abaixo de 9 MPa, a sua densidade e sua compressibilidade variam
234
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
consideravelmente. A densidade do CO2 reduz 50% quando sua temperatura aumenta de
25ºC (300K) para 35ºC (310K) sob pressão de aproximadamente 8 MPa.
Figura 1 – Densidade e Compressibilidade do CO2
Fonte: RACKLEY [2010]
A faixa de pressão de operação do CO2 em dutos de transporte adotada foi de
11MPa e a temperatura foi de 25ºC, e neste caso esta substância apresenta massa
específica de 877 kg/m³ e viscosidade de 7,73x10-5 Pa.s. Estes valores foram utilizados para
o dimensionamento de dutos.
As áreas de interesse, de acordo com a localização das fontes potenciais, são o Pólo
Industrial de Duque de Caxias, o Complexo Petroquímico do Rio de Janeiro (COMPERJ), o
Parque Termelétrico do Norte Fluminense, o Terminal de Cabiúnas e o Superporto Açu.
O traçado do duto de CO2 foi escolhido dentre três alternativas, cada uma delas
relacionada a uma faixa de dutos pré-existente que se interliga com instalações da
Petrobrás no Pólo Industrial de Duque de Caxias. A limitação a estas três opções visou
minimizar ou até mesmo eliminar a necessidade de criação de novas faixas de dutos, e com
isto reduzir o custo de capital para a implantação de um novo duto. Todas as imagens de
traçado de dutos analisadas foram geradas através do software Google Earth, onde as
faixas de dutos e as áreas de interesse foram destacadas em cores diferentes, e as áreas
densamente povoadas, identificadas sempre em cor laranja.
•
Faixa de Dutos A:
Origina-se no Pólo Industrial de Duque de Caxias (PIDC), segue até a estação da
Transpetro em Japeri, e em seguida vai à estação da Transpetro em Arapeí, num trecho de
aproximadamente 140 km. Esta faixa tem continuidade fora dos limites do Estado de do Rio
de Janeiro a partir da estação de Arapeí.
235
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Figura 2 – Faixa de dutos A
•
Faixa de Dutos B
Origina-se no PIDC e segue para o terminal de Angra dos Reis, localizado no
Município de Angra dos Reis, totalizando120km de faixa de dutos, conforme ilustrado na
Figura 3.
Figura 3 – Faixa de dutos B
•
Faixa de Dutos C
Origina-se no PIDC, segue para o terminal de Cabiúnas, Município de Macaé, num
trecho de 176 km, onde poderá integrar-se com a faixa de dutos que chega à praia de
Quissamã ou com a faixa de dutos que vai a Barra do Furado (67km de extensão), como
mostrado na Figura 4.
236
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Figura 4 – Faixa de dutos C
A faixa de dutos da Bacia de Campos I, indicada na Figura 5 em cor verde, é uma
alternativa para que o projeto seja usado para recuperação avançada de óleo ou gás (EOR
ou EGR), em poços da Bacia de Campos. Esta faixa de dutos se aproxima de duas áreas
com densidade populacional relevante, que são os municípios de Carapebus e Quissamã,
os dutos offshore a partir de Barra do Furado, têm comprimentos entre 87 a 95km até
plataformas da Bacia de Campos.
Figura 5 – Faixas de dutos que se interligam a dutos submarinos da Bacia de Campos.
As fontes de Captura, distâncias envolvidas, ocorrência de Reservatórios Geológicos
e Potencial de EOR/EGR, são mostrados na Tabela 2, e esta tabela mostra os subsídios
para a escolha da Faixa de Dutos C para a implantação do duto de CO2. A única ocorrência
comprovada de reservatório geológico para seqüestro de CO2 no estado do Rio de Janeiro
está na bacia de campos, pois seus reservatórios carboníferos, por definição, proporcionam
a selagem necessária para o armazenamento definitivo do CO2.
A extensão aproximada das faixas de dutos são indicadas pelo software Google
Earth e a presença de reservatórios geológicos, baseada no trabalho de MARTINS, et al
2010, fundamental para a escolha da faixa C como única viável para a instalação de dutos
de CO2.
Tabela 2 – Comparativo entre faixas de dutos.
237
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Faixa
de Dutos
A
Fontes Potenciais
Próximas
Extensão
UTE Governador Leone 140 km
Brizola;
Reservatórios Potencial
Geológicos
EOR/EGR
A ser
estudado
NÃO
120 km
A ser
estudado
NÃO
176km (PIDC-TECAB)
SIM
SIM
Refinaria Duque de
Caxias;
Estação de
Compressão de
Campos Elíseos;
B
UTE Governador
Leonel Brizola;
Refinaria Duque de
Caxias;
Estação de
Compressão de
Campos Elíseos
UTE Eletrobolt
C
(Escolhida
)
UTE Governador
Leonel Brizola;
Refinaria Duque de
Caxias;
Estação de
Compressão de
Campos Elíseos
67km (TECAB-Barra do
Furado)
84-95km (Barra do FuradoBacia de Campos)
Pólo Petroquímico do
Estado do Rio de
Janeiro;
UTE Norte Fluminense;
UTE Mário Lago;
UTE´s Vale Azul;
Terminal de Cabiúnas;
Superporto Açu.
3.3 ARMAZENAMENTO
O
único
local
identificado na área de abrangência do estudo com potencial de injeção de CO2 em grande
escala em reservatório geológico foi a região da Bacia de Campos. O CO2, neste local,
poderá ser utilizado para recuperação avançada de óleo ou gás (EOR/EGR), mecanismo
utilizado para elevação de petróleo em formações que não possuem pressão suficiente para
elevação natural. A Figura 6 apresenta um exemplo de EOR.
238
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Figura 6– Recuperação Avançada de Petróleo
Fonte: RACKLEY, 2010.
A eficiência para o processo de captura do CO2 foi considerada como de 95% nas
fontes e a pressão de operação dos dutos foi considerada de 9 a 12 MPa. Estes parâmetros
foram utilizados para realização dos cálculos do total de CO2 capturado e de
dimensionamento dos dutos.
4. RESULTADOS ENCONTRADOS
Os dutos de transporte da rede somarão aproximadamente 400 km se interligados ao
pólo industrial de Duque de Caxias, o Comperj, o parque Termelétrico do Norte Fluminense,
o Terminal de Cabiúnas, o Porto Açu e uma plataforma da Bacia de Campos. A estação de
Barra do Furado seria responsável pela interligação da rede terrestre ao duto submarino,
este duto se destinaria a uma plataforma na Bacia de Campos onde o CO2 seria distribuído
para EOR/EGR em diversas plataformas.
4.1
Primeira Fase: Ponto-a-Ponto
Nesta fase entraria em operação somente uma fonte de captura, qual seja: a do
Terminal de Cabiúnas.
Para o cálculo do duto entre Barra do Furado e a plataforma (BFPL) foi considerada
a vazão recorrente no período seco do ano, quando a geração termelétrica da UTE
Govenador Leonel Brizola e UTE Mário Lago é máxima, além de considerar as vazões de
todas as demais fontes previstas no projeto. Esta vazão de CO2 máxima calculada foi de
31.306,42 t-CO2/dia ou 362,34 kg/s. Considerando processo de captura com eficiência de
95%, a vazão máxima de CO2 foi definida como sendo igual a 344,223 kg/s.
Foram consideradas temperatura de escoamento de 25ºC e faixa de pressão média
operacional de 11,0 MPa. A densidade do CO2 nesta condição é de 877kg/m³ e a
viscosidade de 7,73x10-5 Pa.s, portanto o CO2 encontra-se em sua fase densa e pode ser
simplificado como um fluido incompressível. Foram consideradas a viscosidade e a
densidade constantes e altura inicial igual à altura final do duto. As perdas de carga
localizadas foram desconsideradas.
São conhecidos a perda de carga máxima do sistema, 3 MPa (12MPa - 9 MPa) com
base nas condições operacionais de escoamento em fase densa, a rugosidade do duto de
aço, tipicamente 4,6x10-5m, a vazão do duto e o comprimento aproximado, 95km.
Tabela 3 - Duto submarino
Dados de Projeto – Duto BFPL
239
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Vazão Máxima : Qmax
344,22 kg/s
Vazão Média : Qmed
169,02 kg/s
Densidade: ρ
877 kg/m³
Pressão de operação
11 MPa
Máxima Perda de carga: ∆P
3 MPa
Rugosidade : e
4,6x10-5m
Comprimento: L
95.000m
Para o diâmetro de 20 polegadas e vazão máxima, o resultado obtido pela fórmula
do Número de Reynold indica um regime de escoamento turbulento (Re=11.200.000), e por
meio do Ábaco de Moody é obtido um valor para o fator de atrito, que através da equação
Darcy-Weisbach resulta no valor de 0,23789 para o fator de atrito (fd), e com isso a perda de
carga encontrada foi de 3 MPa no duto de 95km de extensão, ou seja, aceitável para o
critério adotado. Este duto interligaria a estação em Barra do Furado e uma Plataforma na
Bacia de Campos.
O duto a interligar o Terminal de Cabiúnas e a estação de Barra do Furado (CBBF)
teria 67km de comprimento e seria dimensionado para a vazão máxima do projeto, da
mesma forma que o duto submarino BFPL foi dimensionado.
Tabela 4 – Duto terrestre entre Cabiúnas e Barra do Furado
Dados de Projeto – Duto CBBF
Vazão Máxima : Qmax
344,22 kg/s
Vazão Média : Qmed
169,02 kg/s
Densidade: ρ
877 kg/m³
Pressão de operação
11 MPa
Máxima Perda de carga: ∆P
3 MPa
Rugosidade : e
4,6x10-5m
Comprimento: L
67.000m
Os resultados obtidos indicam um regime de escoamento turbulento sob vazão
máxima (Re=11.166.658), onde é possível o escoamento de todo o CO2 capturado na rede
por um duto de 20” entre o Teminal de Cabiúnas e a Estação de Barra do Furado, no qual a
perda de carga para a vazão máxima seria de 2,1 MPa. A estação de Barra do Furado
deveria contar com sistema de rebombeio, para garantir pressão de 12 MPa na entrada do
duto BFPL.
4.2
Segunda Fase: Duto compartilhado
Nesta fase entraria em operação a captura de 3 fontes adicionais: UTE Norte
Fluminense, UTE Mário Lago e UTE´s Vale Azul.
O ramal de CO2 que interligaria a UTE Norte Fluminense e uma estação
intermediária, denominada Estação Alfa, teria 8,6km de extensão. Os cálculos realizados
para seu dimensionamento baseiam-se no consumo de gás natural de 3.400 mil m³/dia,
máximo operacional da UTE, que gera emissões de 73,94 kg/s e através da eficiência de
95% na captura, o valor de vazão máxima para este ramal foi 70,24kg/s. O diâmetro
escolhido foi o de 4”, e para este diâmetro, a perda de carga máxima seria de 0,6 MPa.
Tabela 5 – Duto entre UTE Norte Fluminense e Estação Alfa
240
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Dados de Projeto – Ramal UTE NF
Vazão Máxima : Qmax
70,24 kg/s
Densidade: ρ
877 kg/m³
Pressão de operação
11 MPa
Rugosidade : e
4,6x10-5m
Comprimento: L
8.600m
Os demais ramais das usinas Termelétricas UTE Mário Lago e UTE Vale Azul I, II e
III não foram calculados, pois não foi possível obter o comprimento destes ramais.
3.3
Terceira Fase: Integração
Nesta fase entraria em operação a captura de 3 fontes adicionais de CO2: O Pólo
Industrial de Duque de Caxias, o Complexo Petroquímico do Rio de Janeiro e o Superporto
do Açu, como mostrado na figura 7. Para o duto entre o Pólo industrial de Duque de Caxias
e a Estação Alfa, foi escolhido o diâmetro de 8 polegadas, onde a perda de carga máxima
seria de 2,4 MPa, observando-se que neste cálculo foi desconsiderada a vazão de CO2
proveniente do Complexo petroquímico do Rio de Janeiro.
Os dutos entre o Superporto Açu e a estação de Barra do Furado, e entre o
Complexo Petroquímico do Rio de Janeiro e o duto do Pólo Industrial de Duque de Caxias
deverão ser tema de estudos de traçado, a partir dos quais seus comprimentos aproximados
serão determinados. Os diâmetros destes dutos não foram calculados.
Figura 7 - Terceira fase do projeto
4. CONCLUSÕES E RECOMEDAÇÕES
A captura de CO2 neste projeto seria realizado em fontes estacionárias de emissões,
o CO2 capturado seria então bombeado para dutos em fase supercrítica, na qual é
comparável a um fluido incompressível. O CO2 transportado à região de seqüestro seria
finalmente injetado em reservatórios geológicos.
A estação de Barra do Furado seria responsável pela interligação da rede terrestre
ao duto submarino, que se destinaria a uma plataforma na Bacia de Campos onde o CO2
seria distribuído para EOR/EGR em diversas plataformas. Esta região é responsável pela
produção de cerca de 80% do petróleo e 40% do gás natural produzidos no Brasil, e foi
241
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
identificada como a única região favorável para sequestro de CO2, esta região também
ofereceria possibilidade para recuperação avançada de óleo e gás (EOR e EGR).
Recomenda-se que os diâmetros dos dutos entre o Superporto Açu e Barra do
Furado e entre o Complexo Petroquímico do Rio de Janeiro e o duto proveniente de Duque
de Caxias sejam determinados após estudo de traçado de faixas, e ainda, após obtenção de
dados suficientemente consistentes para estimativa de emissões capturadas de suas fontes.
Os resultados obtidos indicam viabilidade técnica e operacional do projeto, de acordo
com as tecnologias disponíveis.
5. REFERÊNCIAS
IEA (2010). Key technologies for reducing global CO2 emissions under the BLUE Map
scenario. Energy Technology Perspectives 2010. International Energy Agency, IEA.
Disponível em < http://www.iea.org/techno/etp/etp10/English.pdf > Acessado em março
de 2011;
IPCC. (2007). A report of Working Group I of the Intergovernmental Panel on Climate
Change
Summary
for
Policymaker-AR4,
IPCC.
Disponível
em
<
http://www.ipcc.ch/publicatio ns_and_data/ar4/wg1/en /spm.html > Acessado em março
de 2011;
ABNT (2008), NBR 15213 - Gás natural e outros combustíveis gasosos - Cálculo do poder
calorífico, densidade absoluta, densidade relativa e índice de Wobbe a partir da
composição, ABNT;
RACKLEY, S.A. (2010) Setephen A., Carbon Capture and Storage, 1ªEdição, EUA, Elsevier,
2010;
UNFCCC (2010) – “Carbon dioxide capture and storage in geological formations as clean
development mechanism project activities” - United Nations Framework Convention on
Climate Change, UNFCCC, - Conference of the Parties - Disponível em: <
http://unfccc.int/files/meetings /cop_16/application/pdf/cop16_cmp_ccs.pdf > Acessado
em março de 2011.
MARTINS (2010) A. M.; Capucci, E.; Caetano, L. C.; Cardoso, G.; Barreto, A. B. C.,
Monsores, L. M., Leal, A. S; Viana, P. – “Hidrogeologia do Estado do Rio de Janeiro Síntese do Estado Atual do Conhecimento” - XIV Congresso Brasileiro de Águas
Subterrâneas;
Disponível
em
<
http://www.abasrj.org/atuacao_tecnica/HidrogeologiaRJ.pdf > Acessado em junho de 2011;
242
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Proposta de síntese de circuitos reversíveis
1
2
3
Roberto Sampaio, Luis Antonio Kowada, Andre da Cunha Ribeiro.
1,2,
Instituto de Matemática - Universidade Federal Fluminense (UFF)
Niterói, RJ, Brasil
3.
COPPE – Universidade Federal do Rio de Janeiro
1.
[email protected]
2.
[email protected]
3.
[email protected]
RESUMO
Atualmente, o processamento dos computadores é realizado por circuitos elétricos. Este tipo
de circuito dissipa muita energia. Isto é um ponto crítico para dispositivos portáteis, como
notebooks, tablets e celulares. Uma alternativa para este tipo de circuito é a computação
reversível. No lugar das portas lógicas convencionais como AND, OR e XOR, são definidas
portas associadas a funções bijetoras. Cada função bijetora finita pode ser associada a uma
permutação (das possíveis entradas). Neste modelo, não há perda de informação e
consequentemente cada etapa do processamento pode ser desfeita, permitindo inclusive
que com os valores de saída o procedimento possa ser executado na ordem reversa,
obtendo a entrada associada àquela saída. Além disso, a Computação Reversível é a base
para a Computação Quântica, que permite resolver alguns problemas matemáticos e
computacionais de forma mais eficiente do que a Computação Clássica. Este trabalho
propõe um novo procedimento que, dada a tabela-verdade (sequência de pares
entrada/saída) associada a uma função bijetora, indica um circuito reversível (sequência de
portas) associado a ela. Este procedimento foi implementado na linguagem C. Também
apresentamos uma análise do pior caso deste procedimento.
Palavras-Chave: Computação Reversível. Computação Quântica. Síntese de circuitos.
1. INTRODUÇÃO
Circuitos combinacionais são circuitos lógicos acíclicos formados por portas lógicas.
Os circuitos combinacionais clássicos são determinísticos, ou seja, para uma determinada
entrada (sequência de bits) o resultado é sempre o mesmo. As principais portas lógicas
conhecidas são: NOT, AND, OR e XOR, com as respectivas representações ¬, ^, v e o.
Como todas as portas, menos o NOT, possuem quantidade de bits diferentes na entrada e
na saída, esse tipo de circuito não pode ser associado a uma função bijetora.
Circuitos reversíveis são uma alternativa para os circuitos convencionais de hoje em
dia. Uma vantagem deles é o menor consumo de energia. Na teoria eles não gastam
energia, mas na prática o consumo é mínimo (KOWADA, 2006). Em um circuito é possível
guardar o resultado esperado em algum outro lugar e executar o circuito inversamente para
zerar os bits, o que é bem mais econômico do que apagar os bits para zerá-los. Outra
vantagem é que eles são base para a computação quântica, já que um computador quântico
é composto apenas de circuitos reversíveis (NIELSEN E SHUANG 2000).
Em vista destas e outras vantagens, têm surgido várias propostas de síntese de
circuitos reversíveis, como por exemplo, (SAEEDI et al. 2010, GUPTA et al., 2006).
2. CIRCUITOS REVERSÍVEIS
Para um circuito ser verdadeiramente reversível ele deve ser composto apenas de
portas reversíveis, ou seja, portas que possuem a mesma quantidade de bits na entrada e
na saída. Logo, portas convencionais como AND e OR não são usadas nesse tipo de
243
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
circuito, pois o número de bits na entrada é maior do que o da saída. Somente o NOT é
reversível e convencional ao mesmo tempo (KOWADA, 2006).
2.1. PORTAS REVERSÍVEIS
Como não podemos usar as portas convencionais – apenas o operador NOT, já que
também é reversível – precisamos usar portas reversíveis para substituir as convencionais.
A porta NOT age igualmente como nos circuitos convencionais, ele inverte os bits
nos quais é aplicada.
A porta CNOT - ou NOT controlado - tem dois bits de entrada e dois de saída. Os bits
de entrada são o bit alvo e o bit de controle. O bit de controle passa pelo circuito e sai com o
mesmo valor. O bit alvo é invertido caso o bit de controle seja igual a 1.
A porta Toffoli é parecida com a porta CNOT. A diferença é que a Toffoli usa 2 bits
de controle, mas o procedimento é o mesmo. Os bits de controle são copiados e o bit alvo é
invertido caso os bits de controle sejam iguais a 1.
Figura 1: Representação usual das portas CNOT e Toffoli. Os bits superiores são os de controle e o
inferior é o bit alvo. A ordem direta de computação é da esquerda para direita.
É possível definir portas formadas por um bit alvo e por dois ou mais bits de controle.
Podemos utilizar um conjunto de portas Toffoli e CNOT para representá-las. Estas portas
serão denominadas de CNOT-generalizadas.
Podemos, então, simular as portas de circuitos convencionais usando portas
reversíveis. A versão reversível da porta XOR é o próprio CNOT. A porta CNOT também
pode simular a porta FANOUT. Basta usar 0 como bit alvo, que ela copiará a entrada. Para
implementar a porta AND de forma reversível, usaremos um bit a mais na entrada, que será
o 0. Depois implementa-se a Toffoli com o terceiro bit como alvo. Logo, a saída copiará as
duas entradas e como terceira saída teremos um AND entre as duas primeiras entradas (o
XOR com o 0 retorna a própria saída).
Como exemplo de circuito convencional, vejamos o somador completo. Na figura
2(a), é apresentada sua tabela-verdade. Existe um procedimento usual, descrito em
(KOWADA, 2006) que define um circuito a partir da tabela-verdade. Neste caso em
particular, o circuito é dado na figura 2(b). Mas podemos observar na figura 2(c) que é
possível montar um circuito mais otimizado (com menos portas).
244
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Entradas
a b ce
0 0 0
0 0 1
Saídas
s cs
0 0
1 0
0
0
1
1
1
1
1
0
1
0
0
1
1
1
0
0
1
1
0
1
0
1
0
1
(a)
0
1
0
1
1
1
(b)
(c)
Figura 2: (a) Tabela-verdade do somador completo, (b) circuito definido a partir de uma regra geral,
(c) circuito otimizado do mesmo somador.
Mas se montarmos um circuito reversível a partir do circuito convencional
diretamente, ou seja, substituindo as portas AND, XOR, etc. pelas suas respectivas
reversíveis, teremos o circuito reversível descrito na figura 3.
Figura 3: Circuito reversível do somador completo pela substituição direta das portas do
circuito otimizado da figura 2.
Mas ao pensar um pouco mais, e com outros métodos de criação de circuitos
reversíveis, podemos chegar no circuito da figura 4.
Figura 4: Circuito reversível do somador completo com métodos de criação mais eficientes.
Podemos concluir, portanto, que a substituição direta das portas nem sempre levam
ao circuito reversível mais otimizado. Nesse artigo, desenvolvemos métodos e técnicas mais
eficientes de gerar um circuito reversível.
3. SÍNTESE DE CIRCUITOS REVERSÍVEIS – MÉTODO DO HIPERCUBO
Existe um circuito diferente para cada permutação que quisermos gerar a partir de
uma permutação identidade. Sem um método específico pode ser muito complicado chegar
ao circuito correspondente, principalmente se a quantidade de bits for muito grande.
Shende et al mostraram que é possível criar um circuito reversível para cada
permutação com 2n elementos, mas não apresentam um procedimento computacional
(VIVEK et al, 2006).
245
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Neste trabalho, desenvolvemos um método que cria um circuito para qualquer
permutação, que denominamos de método do hipercubo.
Um hipercubo de ordem n é um grafo com 2n vértices, no qual cada vértice está
associado a uma sequência distinta de n bits. Há aresta entre dois vértices se as respectivas
sequências diferem de apenas um bit (Wikipedia 2011).
O método do hipercubo organiza os bits por meio de portas CNOT-generalizadas
envolvendo todos os bits do circuito, colocando um a um, cada bit no seu lugar. E é
executado do início para o fim ou vice-versa, e de um jeito que o bit colocado no lugar não
precisa mais ser utilizado, então permanece no lugar. Estas portas são denotadas por
T(b1b2...bn-1*), onde o * indica o bit-alvo e b1 a bn-1 podem ser 0 ou 1, indicando se o controle
é positivo ou negativo.
Apresentamos um exemplo no quadro 1, para ilustrar a ideia da síntese proposta.
3.1. EXEMPLO DO MÉTODO DO HIPERCUBO
.
Permutação Original π0
11 10 01 00
Passo 1 – T(0*)
π1
11 10 00 01
Passo 2 – T(*1)
π2
01 10 00 11
Passo 3 – T(*0)
π3
01 00 10 11
Passo 4 – T(0*)
Permutação Identidade
00 01 10 11
Quadro 1: Método do hipercubo aplicado à permutação [3 2 1 0]. Os elementos das permutações
estão representados na notação binária
Temos a permutação original π0 e a identidade. Queremos partir da identidade para
chegar à π0, mas podemos resolver da forma contrária e aplicar o circuito da forma reversa
também. Observando do final para o início, temos 00 na permutação π0 e 11 na identidade.
Como estamos na ordem direita-esquerda, vamos organizar os bits da mesma maneira.
Então temos no bit mais a direita 0 na permutação e 1 na identidade. Utilizamos a porta
CNOT-generalizada no bit mais a direita, de acordo com o Passo 1.
Com essa porta obtemos π1 da segunda linha. Precisamos trocar de novo, já que
fomos para o bit da direita e em π1 é 0 e na identidade 1. Agora trocamos 01 com 11, de
acordo com o Passo 2.
Temos a seguir a permutação π2 da terceira linha. Já temos 11 no seu devido lugar,
vamos agora para o valor da esquerda, 00, que pela identidade vemos que deveria ser 10.
Usamos então mais uma porta CNOT-generalizada, de acordo com o Passo 3, e trocamos
00 com 10.
Temos agora a permutação π3 da quarta linha. E para finalizar fazemos o Passo 4
pra colocar os últimos valores em seus devidos lugares. Temos então a identidade e a
sequência de portas CNOT-generalizadas T(0*), T(*1), T(*0), T(0*) que deverão ser
aplicadas inversamente já que começamos no fim.
Logo, o circuito que gera a permutação 01 00 10 11 a partir da identidade é
composto pelas portas T(0*), T(*0), T(*1) e T(0*), nessa ordem.
3.2. ALGORITMO DO MÉTODO DO HIPERCUBO
Criamos também um algoritmo que recebe uma permutação, resolve e devolve as
portas usadas utilizando o método do Hipercubo.
Esse algoritmo calcula exatamente como descrito. Com a permutação armazenada
em um vetor, o algoritmo percorre o vetor do final para o começo comparando os valores
246
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
com uma permutação identidade de trás pra frente. Comparando os bits dos valores da
direita para a esquerda, ao encontrar diferenças, o algoritmo procura no vetor o valor
correspondente para fazer a troca. Então ele realiza a troca e mostra na tela a porta que
usou. O algoritmo é executado iterativamente até colocar todos os valores em seus
respectivos lugares.
Este algoritmo foi implementado em linguagem C.
3.3. PIOR CASO DO MÉTODO DO HIPERCUBO
Para cada quantidade de bits existe um pior caso, ou seja, um caso onde é realizado
o maior número de iterações possíveis no hipercubo. É possível encontrá-lo recursivamente.
Suponha uma permutação com n bits. O pior caso seria se fossem realizadas R
trocas para colocar cada bit em seu lugar.
Ex: n = 3
000 no lugar de 111, realiza T(00*), T(0*1) e T(*11).
Logo, teoricamente o pior caso seria de R ∗ 2Q , já que temos R bits e 2Q valores.
Mas examinando mais a fundo vemos que isso não é verdade. Dada uma
permutação de 2n elementos, supondo que fossem necessárias R ∗ 2Q trocas para
organizar a metade dos elementos, ainda assim a metade faltante já teria o bit mais
significativo correto e, portanto, não seria necessário arrumar os n bits de cada elemento
destes, mas apenas n-1. Veja por exemplo,
Ex: n = 3
010 011 001 000 100 101 110 111
000 001 010 011 100 101 110 111
Logo, resolveríamos agora como se fossem 2 bits, ou seja, n-1 bits, pois um dos bits
estará sempre no devido lugar. E portanto pode-se aplicar o mesmo raciocínio anterior.
Quando chegar a metade novamente, o segundo bit já estará no seu lugar, e assim
sucessivamente, até n=1. Somando todas estas operações, tem-se que seriam necessárias
no máximo ∑QTUXV
2TUV W operações.
Para cada valor de n, há uma permutação que atinge este limite superior. O
procedimento para gerá-las é dado na seção seguinte.
3.3.1. COMO GERAR O PIOR CASO DO MÉTODO DO HIPERCUBO
É possível também encontrar a permutação do pior caso dada a quantidade de bits R.
Para R = 1 , é o inverso, naturalmente, e o número de iterações é igual a 1.
Vamos chamar as permutações para R = 1 de P1, permutações para R = 2 de P2 e
assim por diante.
Para gerar as outras temos que olhar sempre para a anterior e fazer conforme o
procedimento que será explicado mais abaixo.
Esse novo método sempre olha a permutação anterior para calcular a nova.
A seguir apresentamos um exemplo para ilustrar este método.
Entrada: P3 = 5 2 7 4 1 6 3 0
Saída:
P4
Tabela 1: Método para gerar o pior caso dado à quantidade de bits R.
Passo 1
P4 = ? ? ? ? ? ? ? ? ? ? ? ? 1 6 3 0
247
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Passo 2
P4 = ? ? ? ? 9 14 11 8 ? ? ? ? 1 6 3 0
Passo 3
P4 = 5 2 7 4 9 14 11 8 ? ? ? ? 1 6 3 0
Passo 4
P4 = 5 2 7 4 9 14 11 8 13 10 15 12 1 6 3 0
Passo 5
P4 = 5 10 7 4 9 14 11 8 13 2 15 12 1 6 3 0 (final)
Para gerar a P4 vamos olhar a P3. A P3 é igual a 5 2 7 4 1 6 3 0. Para calcular a P4,
vamos copiar metade da P3 e colocar no final da P4 – Passo 1. Depois somamos 2Q a
cada membro inserido e colocamos na posição que ele está subtraída de 2Q, 8 posições,
nesse caso – Passo 2. Continuando, colocamos o inicio da P3 no inicio da P4 – Passo 3.
Depois somamos 2Q a cada membro inserido e colocamos na posição que ele está,
somada com 2Q – Passo 4. Depois verificamos se cada um desses membros inseridos é
maior ou igual a 2Q . Se ele for menor ele é trocado com o número que está 2Q posições
à frente dele – Passo 5.
Para gerarmos a P5, temos que saber a P4, ou seja, temos que sempre saber o
anterior para calcularmos o atual.
3.3.2. ALGORITMO QUE GERA O PIOR CASO
Também implementamos um algoritmo que gera o pior caso dado o número de bits
n. Esse algoritmo executa exatamente como foi explicado manualmente acima. Ele já possui
reservado P1. Já para n maiores que 1 ele calcula, utilizando P1 como ponto de partida, e
gera P2, P3, até Pn através de um vetor auxiliar.
Isto significa que a quantidade de operações feitas pelo procedimento para uma
permutação de 2n elementos qualquer é de no máximo ∑QUX
2U W=(n-1).2n+1. Este valor
pode ser encontrado por indução.
4. CONCLUSÃO
Neste trabalho apresentamos um método para encontrar uma sequência de portas
lógicas reversíveis a partir de uma tabela-verdade reversível. Implementamos este programa
na linguagem C. Omitimos os detalhes da implementação por falta de espaço.
Como trabalhos futuros, pode-se desenvolver uma interface gráfica para o programa
e também procurar outros métodos de síntese de circuitos, que utilizem menos portas
reversíveis.
5. REFERÊNCIAS
GUPTA, P. AGRAWAL, A e N. K. JHA (2006) An algorithm for synthesis of reversible logic
circuits, IEEE Trans. on CAD, vol. 25, no. 11, pp. 2317–2330.
KOWADA, LUIS ANTONIO BRASIL (2006) Construção de Algoritmos Reversíveis e
Quânticos. Tese de doutorado. COPPE, Engenharia de Sistemas e Computação. UFRJ
NIELSEN, MICHAEL e CHUANG, ISAAC (2000). Quantum Computation and Quantum
Information. Cambridge University Press.
SAEEDI, M., ZAMANI, M. S. SEDIGHI, M. e SASANIAN, Z. (2010). Synthesis of reversible
circuit using cycle-based approach, J. Emerg. Technol. Comput. Syst., vol. 6, no. 4.
VIVEK V. SHENDE, ADITYA K. PRASAD, IGOR L. MARKOV e JOHN P. HAYES. (2003)
Synthesis of Reversible Logic Circuits. IEEE Transactions On Computer-Aided Design
Integrated Circuits And Systems, Vol. 22, n. 6. pp 710-722.
Wikipedia (2011) Site http://en.wikipedia.org/wiki/Hypercube (consultado em 08/08/2011).
248
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Saneamento rural: uma visão segundo o panorama do
saneamento básico no Brasil
Anna Virgínia Muniz Machado, Ana Carolina Mendes Guedes, Andressa de Azevedo Souza, Lennon
Queiroz, Ricardo Franklin Pineda Britto.
Escola de Engenharia – Universidade Federal Fluminense (UFF) Niterói, RJ, Brasil
[email protected]; [email protected]; [email protected];
[email protected]; [email protected]
RESUMO
Como parte dos estudos desenvolvidos pelo Ministério das Cidades para elaboração do
Plano Nacional de Saneamento Básico – PLANSAB foi elaborado um conjunto de sete
volumes que refletem o Panorama do Saneamento Básico no Brasil. O presente trabalho
buscou estudar esta documentação, destacando o cenário atual e perspectivas futuras,
especificamente os aspectos referentes a saneamento rural no Brasil. Aproximadamente
32,9% da população brasileira têm abastecimento de água de maneira precária e 4,6% não
são abastecidas, sendo que 70% deste déficit estão localizados em áreas rurais. Verifica-se
também, na zona rural, a ausência de banheiros ou sanitários, aproximadamente três vezes
maior que na área urbana. Conclui-se que para a redução do déficit de atendimento serão
necessárias medidas estruturais e estruturantes, assim como a adoção de alternativas
inovadoras, tanto na gestão dos serviços quanto nos aspectos tecnológicos.
Palavras-Chave: Saneamento rural. Panorama de saneamento. PLANSAB.
1. INTRODUÇÃO
Conforme o Relatório Nacional de Acompanhamento (IPEA, 2010),
aproximadamente dois terços dos brasileiros que vivem fora das regiões urbanas, ainda não
são contemplados com serviços de saneamento básico, encontrando-se vulneráveis a
diversas doenças e, por conseguinte, em um quadro de risco social. Para diminuir esse
déficit, o Brasil como signatário dos compromissos estabelecidos com os “Objetivos do
Milênio”, tem como meta reduzir em 50% os casos de pessoas sem acesso aos serviços de
água e esgotamento sanitário até 2015.
Estudos realizados no Laboratório de Gestão Ambiental do Departamento de
Desenho Técnico - TDT / UFF nos anos de 2010 e 2011 indicaram a fragilidade do
atendimento com saneamento básico na área rural, especialmente no que se refere ao
abastecimento de água e esgotamento sanitário. A análise do estudo realizado para o Plano
Nacional de Saneamento Básico (PLANSAB) buscou identificar as estratégias para
solucionar essas carências.
A Lei nº 11.445, de 5/1/2007, regulamentada pelo Decreto nº 7.217 de 21/6/2010,
determina no seu artigo 52, a elaboração do PLANSAB, que tem como função principal
definir diretrizes nacionais, sendo estabelecidas metas macrorregionais e nacionais visando
a universalização e o aperfeiçoamento na gestão dos serviços em todo país. O Plano é o
instrumento para a retomada da capacidade orientadora e planejadora do Estado, para
condução da política pública de saneamento básico definindo metas e estratégias de
governo para o período de 2010 a 2030.
Uma das etapas do PLANSAB foi a elaboração do Panorama do Saneamento Básico
no Brasil, que contém principalmente: definição de elementos de orientação para elaboração
do PLANSAB, análise das condições do saneamento básico no Brasil e estudos de
concretização de metas.
249
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
2. METODOLOGIA
Foi desenvolvido um levantamento bibliográfico buscando documentos e artigos que
abordassem a temática do atendimento à população rural, com abastecimento de água e
esgotamento sanitário.
O estudo escolheu o Panorama do Saneamento Básico no Brasil, como o documento
mais representativo para evidenciar a situação do saneamento rural, em especial o cenário
atual do déficit de atendimento a ser reduzido de acordo com os compromissos da
Declaração do Milênio e da Lei 11445 de 2007.
Foi estabelecido um recorte definido pelo atendimento a comunidades de até 2500
habitantes para fim da identificação da realidade do atendimento à área rural. Foi realizada
uma avaliação do conjunto de documentos referidos anteriormente, de modo a ressaltar as
informações deste segmento.
3. DESENVOLVIMENTO
3.1. O PANORAMA DE SANEAMENTO BÁSICO NO BRASIL
O Panorama apresentou cenário atual e indica a necessidade de soluções para
saneamento nas áreas urbanas e rurais, conforme o estudo sobre as deficiências de acesso
ao saneamento básico do Ministério das Cidades em 2008. Nas áreas urbanas foram
propostas soluções considerando a menor dimensão dos domicílios, a alta densidade
demográfica e maior disponibilidade de serviços, diferenciando-se das áreas rurais que
reúnem características como grandes extensões de propriedades e baixa densidade
demográfica, o que dificulta o fornecimento de soluções coletivas.
A partir de 2003, coube ao Ministério da Saúde, por meio da Fundação Nacional da
Saúde (FUNASA), a responsabilidade de quatro grandes programas: Saneamento Rural,
Saneamento Ambiental Urbano, Drenagem Urbana Sustentável e Resíduos Sólidos, sendo
os programas urbanos para populações menores que 50.000 habitantes. O atual Panorama
propõe um plano de saneamento rural focado na melhoria da qualidade do saneamento
ambiental, priorizando as comunidades mais dispersas até 2.500 habitantes.
3.2. DÉFICIT
O déficit pode ser definido pela “deficiência ou falta de acesso aos serviços públicos
de saneamento básico” (BRASIL, 2011). Aproximadamente 32,9% da população brasileira
têm abastecimento de água de maneira precária e 4,6% não são abastecidas. Em relação
ao esgotamento sanitário, 49,1% da população brasileira é atendida precariamente e 9,1%
sequer têm atendimento.
Em relação ao abastecimento de água, 55% do déficit nacional (domicílios que não
dispõem de rede de abastecimento de água ou poço ou nascente com canalização interna)
são concentrados na região Nordeste. As regiões Norte, Sudeste, Sul e Centro-Oeste
apresentam 20%, 5% e 4% da concentração do déficit nacional, respectivamente. Quando
avaliamos a concentração do déficit por localização de domicílio, é visto que 70% se
concentram nas áreas rurais.
No que se refere ao esgotamento sanitário, observa-se que 43% dos domicílios que
não tem coleta de esgoto e nem fossa séptica, localizam-se na região Nordeste. As regiões
Sudeste, Centro Oeste, Norte e Sul, apresentam respectivamente 13%, 12% e 11% do
déficit de acesso. Ao contrário do que ocorre no abastecimento de água, o déficit é maior na
zona urbana, onde estão localizados 58% dos domicílios sem acesso à rede coletora ou
fossa séptica. Embora na área rural a ausência de banheiros ou sanitários é
aproximadamente de três vezes maior do que na área urbana (Moraes, 2005).
250
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Na observação do déficit em geral, tanto da componente abastecimento de água
quanto no esgotamento sanitário, há concentração nas faixas de menor rendimento mensal
e menor número de anos de estudo da população (BRASIL, 2011).
3.2.1 ATENDIMENTO ADEQUADO E DÉFICT
O déficit também pode ser considerado como a parte da população que não tem
solução sanitária ou serviço, e que é atendida de forma insatisfatória pelas soluções
empregadas. Existe ainda a parcela que dispõem da tecnologia e não a utiliza por diversos
fatores, dentre eles os socioeconômicos e culturais.
Nos Quadros abaixo, são mostradas as soluções usadas atualmente, fatores que
caracterizam condição precária do serviço ou da solução sanitária, e características da
inutilização do serviço ou da solução sanitária existente.
Componentes
sanitários
Zona Urbana
Abastecimento
de água
- Ligação ao sistema
abastecimento de água
Zona Rural
público
de
- Idem ao Ambiente Urbano
- Poço ou nascente, desde que o - Cisterna para a captação de
domicílio possua canalização interna
água de chuva
Esgotamento
Sanitário
- Ligação domiciliar ao sistema público
de esgotamento sanitário
- Idem ao Ambiente Urbano
- Fossas sépticas ligadas à rede coletora - Fossas secas ventiladas, de
ou a sistemas de infiltração/filtração
fermentação e absorventes
- Tratamento de esgotos sanitários
Quadro 1. Soluções atualmente utilizadas.
Fonte: Adaptado do Panorama de Saneamento Básico no Brasil. Ministério das Cidades, 2011.
Componentes
sanitários
Abastecimento
de água
Zona Urbana
- Água consumida sem tratamento
Zona Rural
- Idem ao Ambiente Urbano
- Água distribuída pela rede pública fora - Cisterna não mantida de
dos padrões de potabilidade
forma adequada
- Intermitência do abastecimento por
rede de distribuição de água
Esgotamento
Sanitário
- Ocorrência de vazamentos, rupturas,
entupimentos ou refluxo dos efluentes
- Idem ao Ambiente Urbano
- Ineficiência no tratamento dos esgotos - Fossas com
sanitários
inadequada
manutenção
Quadro 2. Fatores que caracterizam condição precária do serviço ou da solução sanitária.
Fonte: Adaptado do Panorama de Saneamento Básico no Brasil. Ministério das Cidades, 2011.
Componentes
sanitários
Abastecimento
de água
Zona Urbana
- Corte de água ou fonte contaminada
Zona Rural
- Idem ao Ambiente Urbano
- Falta de capacidade de pagamento
- Fatores socioculturais que impedem o
uso da solução em face de práticas préexistentes
251
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Esgotamento
sanitário
- Fatores socioculturais que impedem o
uso da solução em face de práticas préexistentes
- Idem ao Ambiente Urbano
Quadro 3. Características da inutilização do serviço ou da solução sanitária existente.
Fonte: Adaptado do Panorama de Saneamento Básico no Brasil. Ministério das Cidades, 2011.
Esses conceitos foram usados para definir indicadores para a avaliação do déficit
junto aos sistemas de informação disponíveis.
3.3 SOLUÇÕES ADEQUADAS EM ÁREAS RURAIS
Devido à maioria dos mananciais estar fora dos padrões de potabilidade da água
segundo a Portaria 518, há a necessidade de uma estação de tratamento de água e
consequentemente de operadores especializados, geralmente não encontrados nas áreas
rurais. Além disso, os custos com canalização muitas vezes inviabilizam o investimento em
virtude da grande distância dos mananciais até essas áreas mais afastadas, da baixa
densidade demográfica, e da baixa potencialidade econômica da população.
Portanto, uma solução adequada é o uso de poços tubulares profundos, que retiram
água de aqüíferos ou lençóis freáticos, que na maioria dos casos, se encontram dentro dos
padrões de potabilidade, ou necessitando de níveis de tratamento inferiores comparados
aos mananciais superficiais. Nestes casos é adotada na maioria das vezes a simples
cloração para o tratamento da água a ser distribuída.
Considerando o esgotamento sanitário, algumas das soluções existentes são:
ligação domiciliar ao sistema público de esgotamento sanitário, fossas sépticas ligadas à
rede coletora ou sistemas de filtração e infiltração, e possível tratamento de esgotos
sanitários. Entretanto, ainda são verificadas fossas secas ventiladas, de fermentação e
absorventes, sendo estas alternativas consideradas como inadequadas para suprir o déficit
de atendimento. O Panorama considera como adequado apenas os domicílios que tenham
ligação ao sistema de coleta pública de esgotamento sanitário com estação de tratamento e
uso de fossas sépticas com filtro e sumidouro.
Tendo em vista as características das comunidades dispersas, o atendimento com
redes coletoras geraria um grande gasto com canalizações e construção de maior número
de estações de tratamento. O uso de fossas sépticas individuais com filtro e sumidouro é
uma solução bastante utilizada atualmente e adequada. Em áreas menos dispersas, podemse usar redes de esgoto condominiais com diversos tanques sépticos “coletivos” para
tratamento ou o uso de reatores UASB.
Uma grande novidade proposta tanto no sistema de abastecimento de água quanto
no esgotamento sanitário, é a classificação não só de atendimento adequado e não
adequado, mas também a questão do atendimento precário. No abastecimento de água,
toda água distribuída por rede pública sem seguir os padrões de potabilidade, com
abastecimento bastante descontínuo, domicílios sem canalização interna, o uso de cisternas
de captação de água da chuva sem o devido tratamento e o uso de carros pipa, são
considerados atendimentos precários. Em termos de esgotamento sanitário, o uso de fossa
rudimentar ou coleta sem tratamento são também considerados como atendimento precário.
4. INVESTIMENTOS FUTUROS
Os investimentos futuros necessários para a universalização do atendimento na área
de saneamento urbano e rural são na maioria de natureza estrutural. Cerca de 140 bilhões
de reais para o esgotamento sanitário (53% do total) e 74 bilhões de reais para o
abastecimento de água (28%), a serem investidos entre 2011 e 2030, contra 31,4 bilhões e
17,4 bilhões de reais em abastecimento de água e esgotamento sanitário, respectivamente
(7% e 12%), em medidas estruturantes. Deste montante, está prevista uma pequena parcela
252
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
para as áreas rurais, apenas 3,7% do total dos investimentos futuros, dos quais 2,7% são
para expansão dos serviços de água e esgoto e 1% para reposição dos serviços já
existentes, tanto estruturais quanto estruturantes.
Descreve-se como medidas estruturais ações de implementação de obra física e
como medidas estruturantes, a implementação de sistemas de gestão, capacitação,
educação ambiental, entre outros.
5. CONCLUSÃO
O estudo conclui que significativos desafios ainda persistem na área rural, devido
aos baixos investimentos ao longo dos anos. Juntamente a isso, a escala e caráter disperso
das comunidades são desafios para a implementação de soluções coletivas, o que dificulta
no controle do acesso e encarece as medidas estruturais.
Além disso, há uma grande dificuldade no que se refere às medidas estruturantes, ou
seja, na gestão destes sistemas de forma adequada, o que pode vir a comprometer a
sustentabilidade dos investimentos. Por isso, ações de educação ambiental e participação
da comunidade são importantes para contribuir com melhores condições de saneamento
básico. Assim, não são suficientes ações de construção de elementos para captação e
distribuição de água, ou mesmo fossas e outros sistemas de tratamento de esgotos
unifamiliares ou coletivos. É necessário o estabelecimento de formas de gestão dos
sistemas construídos, de forma que haja sustentabilidade do funcionamento destes
investimentos.
6. REFERÊNCIAS
BORJA, P.C.; MORAES, L.R.S. Saneamento como um direito social. In: ASSEMBLÉIA DA
ASSEMAE, 35., 2005, Belo Horizonte. Anais... Brasília: ASSEMAE, 2005.
BRASIL. Ipea. Objetivos de Desenvolvimento do Milênio – Relatório Nacional de
Acompanhamento. 2010. ed. Brasilia- Df, 2010. 184 p. Disponível em:
<http://www.ipea.gov.br/portal/images/stories/PDFs/100408_relatorioodm.pdf>. Acesso
em: 14 Ago. 2010.
BRASIL. Lei n. 11.445, de 05 de janeiro de 2007. Estabelece diretrizes nacionais para o
saneamento básico; altera as Leis nos 6.766, de 19 de dezembro de 1979, 8.036, de 11
de maio de 1990, 8.666, de 21 de junho de 1993, 8.987, de 13 de fevereiro de 1995;
revoga a Lei no 6.528, de 11 de maio de 1978; e dá outras providências. Diário Oficial
da União, Brasília, 06 jan. 2007.
BRASIL. Ministério das Cidades. Panorama do Saneamento Básico no Brasil. 1. ed. Brasília,
2011. v. 1-7. Disponível em:
<http://www.saneamentoweb.com.br/informacoeseindicadores/panorama_plansab>.
Acesso em: 23. Mai. 2011.
253
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Síntese e análise faixa estreita do sinal rádio móvel:
aplicação a ambiente de vegetação
1
2
3
4
Fabio Mainart da Silva, Renan Luiz Pereira, Rener Camara Lima Nogueira, Leni Joaquim de Matos
Escola de Engenharia - Universidade Federal Fluminense (UFF)
Niterói, RJ, Brasil
1
2
[email protected], [email protected],
3
4
[email protected], [email protected]
RESUMO
Este artigo consiste em sintetizar um sinal rádio-móvel em ambiente sem visada (NLOS)
entre um transmissor e um receptor. Em seguida, este sinal é analisado através de duas
técnicas: filtro de média movente (FMM) e polinômios de ajuste, podendo se identificar a sua
variabilidade tanto lenta quanto rápida, além da perda de sinal no percurso entre o
transmissor e o receptor. Atestada a validade do processo de análise, que é um misto de
FMM com ajuste polinomial, o mesmo é aplicado a um sinal real, medido em uma rota de
um canal de vegetação sem visada, no Jardim Botânico do Rio de Janeiro.
Palavras-Chave: Sinal Rádio Móvel. Variabilidade de sinal. Perda no percurso.
1. INTRODUÇÃO
Ao se propagar em um canal, o sinal rádio móvel está sujeito a efeitos de
difração, espalhamento e reflexão. Como resultado, multipercursos do sinal transmitido
chegam a um receptor, provocando desvanecimento do sinal, que é percebido como uma
variabilidade rápida e aleatória no nível de sinal recebido (RAPPAPORT, 2009). Embutidas
nesse sinal, também estão a variabilidade lenta e a perda de sinal no percurso entre
transmissor (Tx) e receptor (Rx). Dessa forma, qualquer sinal recebido por uma estação
rádio móvel pode ser decomposto nessas tres componentes: a de variabilidade rápida e
lenta e a perda no percurso, conhecida por path loss. A variabilidade, tanto lenta quanto
rápida, pode ser descrita por uma distribuição estatística adequada, levando à determinação
de parâmetros de grande importância, que caracterizam a propagação no canal rádio em
questão (LEE, 1989). Já a perda no percurso contribui para o planejamento de cobertura do
sinal rádio móvel no canal em questão, levando à criação de modelos de cobertura
aplicados nos projetos de sistemas celulares.
Com o objetivo de atestar o emprego do filtro de média móvel (ROLIM, 2002) na
análise de um sinal rádio móvel, para separar as três componentes citadas, este artigo trata
da simulação e análise de um sinal aleatório recebido. Em seguida, a técnica é aplicada a
um sinal real, medido em ambiente de vegetação, com a finalidade de gerar as estatísticas
do sinal medido.
Na continuidade do artigo, a seção 2 descreve os mecanismos de propagação. Na
Seção 3, são tratadas algumas funções densidade de probabilidade (PDF), necessárias
para a compreensão do restante do artigo e a Seção 4 trata da síntese e análise faixa
estreita do sinal rádio móvel. A Seção 5 mostra os resultados da análise aplicada à região
de vegetação e a Seção 6 conclui o trabalho.
2.
MECANISMOS E EFEITOS DE PROPAGAÇÃO
Os mecanismos de propagação, predominantes na faixa de frequência usada nos
sistemas rádio móveis, são: visibilidade, reflexão e difração. É usual se denominar a
reflexão especular de reflexão apenas, e a reflexão difusa, de espalhamento.
254
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
O efeito de propagação que se pronuncia é o multipercurso, pois o sinal resultante
recebido é devido à composição de inúmeras versões do sinal original transmitido, que
percorreram diferentes percursos determinados, em grande parte, pelas reflexões e
difrações que sofreram. Outro efeito de propagação é o que se manifesta através da
flutuação do nível de sinal devido a obstruções geradas pelo relevo ou criadas pelo homem.
Esse efeito é conhecido por sombreamento. Os multipercursos são os responsáveis pela
geração do desvanecimento rápido do sinal, enquanto o sombreamento é associado ao
desvanecimento lento. Há, ainda, um terceiro efeito em um ambiente rádio móvel ou não,
que é a queda da intensidade, ou nível, do sinal recebido à medida que o receptor se afasta
do transmissor. Muitos modelos de predição da atenuação com a distância já foram
propostos (PARSONS, 2000), tanto analíticos quanto empíricos. Todos eles indicam que a
potência média do sinal recebido decai de forma logarítmica com a distância, seja em
ambientes internos ou externos (indoor ou outdoor).
A Figura 1 ilustra um sinal típico medido em um ambiente móvel, mostrando os três
efeitos mencionados.
Figura 1. Envoltória de um sinal recebido em um ambiente rádio móvel.
Observa-se que as componentes do sinal podem ser separadas, visto que a perda
pode ser tirada pela reta de ajuste, restando o sinal rápido. Para retirar o sinal lento do
rápido, o filtro de média móvel será empregado para a separação das componentes, como
será visto na Seção 4.
3. ESTATÍSTICAS DA VARIABILIDADE DE SINAL RÁDIO MÓVEL
Uma vez que a variabilidade aleatória de sinal é descrita por funções densidade de
probabilidade (PDF), esta Seção trata das principais PDFs associadas à mesma. Como o
sinal sintetizado será suposto ter uma variação lenta com estatística lognormal e rápida, do
tipo Rayleigh, estas serão as duas funções abordadas.
3.1. DISTRIBUIÇÃO LOGNORMAL
Uma onda eletromagnética, propagando-se em um ambiente rádio móvel, passará
por diversos tipos de obstruções, tais como prédios, árvores, etc... , até que atinja o seu
destino, no caso, a estação receptora móvel. Este sombreamento do sinal é o responsável
pela variação lenta do mesmo e cada obstáculo possui sua própria constante de atenuação
e espessura, ou seja, a atenuação e espessura do obstáculo variam aleatoriamente de
obstrução a obstrução, conduzindo a uma PDF lognormal (YACOUB, 2003), definida por:
Y
Z =
cd^ _`Y
b ] e f
a−
√\]^
^
(1)
onde Y, MY e σY são expressas na forma logarítmica e representam,
respectivamente: a amplitude relativa de sinal recebido, a média e o desvio da distribuição,
todas em dB.
255
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
3.2. DISTRIBUIÇÃO RAYLEIGH
A distribuição Rayleigh, em geral, é própria para descrever o desvanecimento rápido,
quando o receptor móvel só recebe multipercursos, ou quando não há um sinal forte de
visada direta, ou LOS (Line of Sight), ao transmissor. Neste caso, a componente do
desvanecimento do sinal pode ser modelada pela PDF Rayleigh, que se aplica, portanto, a
uma variável r, representando a envoltória do sinal aleatório recebido, sendo σ o desvio
padrão da distribuição. A PDF Rayleigh é conhecida como uma gaussiana complexa
(YACOUB, 2003), composta por duas gaussianas em quadratura, I e Q, sendo expressa por:
Yg =
g
g&
_`Y
b−
e
]&
] &
(2)
onde h = i
j + k .
4. SÍNTESE E ANÁLISE DE UM SINAL FAIXA ESTREITA
Na síntese do sinal, levam-se em consideração os três efeitos citados para compor
um sinal e, através da análise pelo filtro de média móvel proposto, pode-se verificar se esse
processo de análise empregado é válido, comparando o resultado da mesma com o sinal
sintetizado original.
4.1. SÍNTESE
No processo de síntese do sinal, a componente lognormal de variação lenta é
gerada de um sinal aleatório que, em seguida, passa por um filtro passa-baixas do tipo
Butterworth de 4ª ordem. O sinal resultante é normalizado e passado para escala
logarítmica, gerando um sinal, cujas variações de amplitude seguem uma FDP lognormal.
Para o sinal de variação rápida, cujas variações da amplitude seguem a FDP
Rayleigh, são gerados dois sinais aleatórios gaussianos, representando as componentes em
fase (I) e em quadratura (Q), que formam o processo gaussiano complexo. Em seguida,
ambos os sinais são filtrados pelo filtro Butterworth de 4ª ordem, que equivale a um filtro de
Doppler (RAPPAPORT, 2009), necessário para simular o efeito de espalhamento na
frequência, que ocorre devido à variação dos multipercursos que chegam ao receptor,
resultante do efeito da mobilidade. A raiz quadrada fornece a envoltória do sinal de
variabilidade rápida, suposta de estatística do tipo Rayleigh (RAPPAPORT, 2009).
4.2. ANÁLISE
Partindo do sinal sintetizado, foi aplicado o filtro de média móvel (OPPENHEIM,
1996) para separar cada uma das três componentes do sinal. Este filtro, conhecido como
FMM, consiste na escolha de uma janela J que percorrerá as N amostras do sinal,
realizando a média entre os J valores cobertos pela janela. O processo de filtragem por
média móvel, além de eliminar as altas frequências, apresenta, como amostras de saída,
uma média aritmética das amostras de entrada na sua janela J de atuação.
Pode-se obter a i-ésima amostra de saída do filtro, a partir da equação:
l[W] = opdp ∑d
rXo `[W + q]
(3)
onde i é o índice das amostras de saída do FMM, y[i] é o valor da i-ésima amostra de
saída, N é o número de amostras do sinal de entrada antes do ponto i e M é o número de
amostras consideradas no cálculo da média após o ponto i na janela móvel.
Após essa primeira média móvel, a componente Rayleigh é extraída do sinal,
ou seja, na saída do FMM1, como mostra a Figura 2, tem-se um sinal com sombreamento
mais perda no percurso (S + P). Subtraindo-se o sinal original (SO) deste obtido à saída de
FMM1, chega-se ao sinal de Rayleigh (R). Na saída de FMM2, obtém-se apenas a perda no
percurso (P). Desta forma, de posse da perda, esta é subtraída do sinal obtido à saída do
256
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
FMM1, obtendo-se o sinal (S) de variação lenta. Resumindo: o sinal sintetizado, passado
por dois filtros de média móvel, resulta nas três componentes de sinal desejadas. Feito isto,
uma comparação é realizada entre cada sinal obtido (R, S e P) e o original sintetizado, de
forma a atestar a validade dos dois filtros empregados na análise. Em seguida, em vez do
FMM2, um segundo procedimento foi seguido: a perda (P) foi obtida por ajuste polinomial da
saída do FMM1, obtendo-se P e, por subtração de P em (S + P), obteve-se o sombreamento
S e a parte pontilhada na Figura 2 não é realizada.
Figura 2. Diagrama mostrando a obtenção dos sinais R, S, e P.
Para a comparação entre os sinais sintetizados e os analisados, dois métodos são
utilizados: o cálculo do Erro Médio Quadrático – EMQ (ROLIM, 2002) e do coeficiente de
correlação - C (KATAYAMA et al., 2009), que são efetuados, respectivamente, pelas
equações:
(4)
stk
J, u = o ∑o
UX vU − qU w=
∑}
|
y~
xy x̅ {y {
& }
|&
$∑}
y~
xy x̅ ∑y~
{y {
(5)
onde:
vi/ki e xi/yi representam as N amostras do sinal sintetizado/analisado,
respectivamente, nas equações (4) e (5) e ` e l representam as médias das amostras de xi
e yi, respectivamente.
O segundo procedimento mostrou menor erro nos sinais de sombreamento e perda
no percurso (SILVA, 2010) e foi, portanto, o adotado para analisar o sinal medido em duas
rotas sem visada no Jardim Botânico do Rio de Janeiro.
257
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
5. RESULTADOS
Os sinais obtidos em duas rotas NLOS sondadas, uma radial e a outra transversal,
são mostrados nas Figuras 3 e 4, respectivamente, juntamente com as componentes lenta e
rápida retiradas dos mesmos.
Figura 3 - Rota radial sondada e as componentes obtidas.
Figura 4 - Rota transversal sondada e as componentes obtidas.
Aplicando os dois filtros de média móvel e comparando as funções obtidas com as
originais, observou-se que o sinal de variação lenta e o de perda no percurso analisados
mostraram erro maior em relação ao sintetizado, do que o de variação rápida. Dessa forma,
optou-se por aplicar um ajuste polinomial para determinar P, a partir da saída do FMM1,
conduzindo a um menor erro. Em seguida, S foi obtido pela diferença da saída do FMM1 e a
perda ajustada por polinômio. Feito isto, partiu-se para a aplicação desse procedimento ao
sinal medido em campo, supostamente com variabilidade rápida do tipo Rayleigh (SILVA,
2010), chegando-se aos resultados das Figuras 3 e 4.
6. CONCLUSÕES
O emprego do FMM1, para obtenção da componente Rayleigh no sinal sintetizado,
conduziu a ótimos resultados para a correlação, portanto, houve um bom ajuste do sinal R
ao sinal Rayleigh original, sendo que os resultados tendiam a melhorar à medida que o
258
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
número de amostras na janela era aumentado. Há, porém, um limite para tal, a partir do qual
a correlação volta a piorar. O mesmo, contudo, não ocorreu para obtenção das outras duas
componentes S e P (lognormal e perda no percurso), onde o ajuste polinomial
mostrou-se muito melhor através do segundo procedimento adotado. Assim, a componente
de perda no percurso apresentou melhores resultados que as demais, devido ao fato de que
ela não é retirada por filtragem, mas por ajuste de polinômio. O ajuste polinomial foi o
adequado para a perda no percurso, onde a correlação apresentou melhores resultados que
os obtidos por dois FMM’s, acarretando o mesmo para o sombreamento obtido a partir deste
ajuste. O cálculo do erro médio quadrático mostra claramente que, para as primeiras
amostras, as componentes analisadas divergem das sintetizadas, porém conforme o sinal é
amostrado, o erro diminui exponencialmente, levando a uma convergência maior entre os
sinais sintetizado e analisado.
Nas rotas sondadas, observa-se que o sinal Rayleigh (em vermelho) está sem o
efeito da queda no percurso, juntamente com o lognormal (em azul), ambos variando no
entorno de zero, e os polinômios de ajuste para a perda no percurso foram de 3º e 5º graus,
respectivamente, nas rotas radial e transversal sondadas.
7. REFERÊNCIAS
KATAYAMA, Norihiko; TAKIZAWA, Kenichi; AOYAGI, Takahiro; TAKADA, Jun-ichi; LI,HuanBang; KOHNO, Ryuji (2009). Channel Models on Various Frequency Bands for
Wearable Body Area Network. IEICE Transactions on Communications vol. E92-B. No.2.
LEE, W. C. Y. (1989). Mobile Cellular Telecommunications Systems. McGRAW-HILL,
Singapore 450p.
OPPENHEIM, A.V., WILLSKY, A. S., NAWAB, S.H. (1996). Signals and Systems. Prentice
Hall, NJ.
PARSONS, J. D. (2000). The Mobile Radio Propagation Channel. JOHN WILEY & SONS,
England 483p.
RAPPAPORT, T. S. (2009). Comunicações sem Fio – Princípios e Práticas. PEARSON,
Prentice Hall 426p.
ROLIM, T. H. P.; VONO, A. O.; NOVAES, C. D.; GUIMARÃES, D. A. (2002). Um Método
para Síntese e Análise dos Principais Efeitos de Propagação em Canais de Rádio
Móvel, Revista Telecomunicações – Inatel v.5.01.
SILVA, F. M.; PEREIRA; R.L.; NOGUEIRA, R.C.L. (2010). Síntese e Análise do Sinal
Recebido em Canal Rádio-Móvel – Aplicação em Medições Realizadas no Jardim
Botânico do Rio de Janeiro. Projeto de Final de Curso.
YACOUB, M. D. (1993). Foundations of Mobile Radio Engineering. CRC Press, New York
481p.
259
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Telemedicina no contexto brasileiro: avaliações e resultados
1
2
3
Leonardo Severo Alves de Melo, Alessandro Severo Alves de Melo, Julio Cesar Dal Bello,
3
Eduardo Rodrigues Vale .
1
Diagnext.com Processamento de Dados Ltda Niterói, RJ, Brasil
2
Departamento de Radiologia – Universidade Federal Fluminense (UFF) Niterói, RJ, Brasil
3
Escola de Engenharia – Universidade Federal Fluminense (UFF) Niterói, RJ, Brasil
[email protected] ; [email protected] ; [email protected] ;
[email protected]
RESUMO
A Telemedicina é a junção de duas áreas do conhecimento humano, e como tal precisar ser
avaliada com multiplas visões. Para a saúde, é uma poderosa aliada no atendimento médico
aos enfermos distantes, proporcionando resultados rápidos. De outro, um estudo
significativo de possibilidades tecnológicas para viabilizar a comunicação de dados de
grande volume de informações clínicas, inviáveis no contexto de telecomunicações atual.
Em suma, este trabalho analisa alguns estudos sobre o assunto e indica o uso de uma
estrutura tecnológica especializada, ágil, rápida e comprovadamente mais eficiente do que
o padrão internacional do segmento de transmissão de imagens médicas para uso em
telerradiologia.
Palavras-Chave: TELEMEDICINA. TELERRADIOLOGIA. SAÚDE. DICOM.
1. INTRODUÇÃO
A Telemedicina é a junção de duas expressões: telecomunicação, descrita como
sendo a transmissão, emissão ou recepção de informações; e medicina, uma das áreas do
conhecimento ligada à manutenção e restauração da saúde, prevenindo e curando doenças.
Em uma visão prática, telemedicina não é uma tecnologia específica capaz de
transportar práticas ligadas a saúde; mas uma metodologia, que proporciona a conexão
entre possíveis pontos distantes – o paciente e o profissional de saúde – proporcionando
qualidade de vida.
Há motivações para a prática no Brasil: os médicos são mal distribuídos, em termos
geográficos e de especialidade; e 80% dos estados têm mais de 1.000 habitantes/médico (5
acima de 4.000). Os dados superam os limites estabelecidos pela UNESCO.
A telerradiologia possui forte demanda: a razão entre o número de médicos no geral
e os radiologistas é de cerca de 1,1%; e segundo o Ministério da Saúde, menos de 10% das
cidades brasileiras têm tomografia computadorizada e/ou ressonância magnética,
potencialmente por falta de profissionais (CNES, 2011).
O trabalho apresentará uma análise dos estudos realizados para a construção de um
sistema capaz de atender a necessidade dos profissionais e pacientes; e seu resultado: uma
estrutura tecnológica especializada, ágil, rápida e comprovadamente mais eficiente do que
o padrão internacional.
2. METODOLOGIA
Quando a tecnologia da imagem médica foi transformada em produto pela industria,
na década de 70, cada fabricante de equipamentos desenvolveu formas próprias para tratar
a imagem. Estas, exclusivas, não tinham como objetivo a interoperabilidade dos
equipamentos, o que dificultou muito o estudo médico e científico (DICOM, 2011).
Na década de 80, duas grandes instituições norte-americanas – American College of
Radiology (ACR) e a National Electrical Manufacturers Association (NEMA) – constituíram
260
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
um comitê para criar um padrão de comunicação de dados, publicando em 1985 a base do
mesmo. Em 1993, foi criado por esse grupo um padrão estruturado de comunicação, o
Digital Imaging and Communication in Medicine – o padrão DICOM (DICOM, 2011).
Esse formato contextualizado pelo padrão, viabilizou a constituição de sistemas de
armazenamento de imagens, comumente chamado de PACS – Picture Archiving and
Communication Systems, e a interface com outros sistemas de troca de informação médica
(DICOM, 2011).
2.1. A TELERRADIOLOGIA
O transporte de dados médicos através de redes de comunicação, permite a
constituição da telerradiologia, viabilizando a troca de informação especializada entre grupos
de profissionais e equipamentos, distantes entre si.
O Conselho Federal de Medicina, do Brasil por exemplo, por meio de sua
Resolução 1890 de janeiro de 2009, define a telerradiologia como exercício da Medicina,
onde o fator crítico é a distância, utilizando a transmissão eletrônica de imagens radiológicas
com o propósito de consulta e relatório. O fator principal discutido nesta resolução é a
necessidade de atendimento médico em nosso país, de proporções continentais, versus a
desigualdade de distribuição de médicos especialistas na área (CFM/1890, 2009).
Entretanto, o principal objetivo do padrão é transportar dados médicos
fundamentais, independente de seu volume e encaminhar informação suficiente para a
tratativa clínica. Não há preocupação na racionalização dos meios de comunicação.
Segundo a Sociedade Brasileira de Computação – SBC – em seu relatório
intitulado “Grandes Desafios da Pesquisa em Computação no Brasil – 2006 até 2016”, a
imagem médica é definida como geradora exponencial de informação, criando dificuldades
na gestão de grandes volumes de dados multimídia distribuídos (SBC, 2006).
Como pode ser visualizado na Tabela 1, os exames radiológicos
convencionais demandam um grande volume de dados a serem armazenados,
consequentemente, transportáveis ao atendimento da Telerradiologia.
261
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Tabela 1: Tamanhos médios dos arquivos de imagens e dos exames, ambos dentro do
padrão DICOM.
Tamanho
Tipo de Exame
Da imagem
Do exame
29 50 – 60 Mbytes
Radiografia
7,7 –
Mbytes
Tomografia
Computadorizada
515 – 770 300 Mbytes – 4
kbytes
Gbytes
Ressonânica
Magnética
258 – 770 200 Mbytes – 2
kbytes
Gbytes
Dada a fraca existência ou elevado custo financeiro de redes de
telecomunicações no interior do País, bem como a ausência de velocidades de
comunicação de dados aceitáveis para análise clínica, os sistemas de Telerradiologia
convencionais vêm se implantando apenas e nas capitais e nas regiões metropolitanas,
exatamente onde a necessidade não se faz tão presente.
2.2. A TELERRADIOLOGIA CONVENCIONAL
Como o exame médico corresponde a um grande volume de dados a ser
transportado, os fabricantes de tecnologia desenvolveram soluções como subterfúgios para
dirimir principalmente o tempo necessário para a avaliação clínica do exame.
A solução mais testada, creditada, e, consequentemente, normatizada, é chamada
de Web Access to DICOM Persistent Objects (WADO). Esta, oriunda do padrão DICOM PS
3.18-2006 (NEMA, 2006), especifica um serviço baseado na web para acessar e apresentar
informações médicas através de objetos ditos persistentes (ex. imagens, relatórios de
diagnóstico por imagem). Trata-se de uma tecnologia onde o exame em si é subdivido em
diversas partes e localizações, tentando maximizar a velocidade de acesso e uso das rede
de comunicação. A citada tecnologia fornece um mecanismo simples para acessar um
objeto DICOM a partir de páginas HTML ou documentos XML, através de HTTP / HTTPS,
usando identificadores e sistemas de comunicação de dados específicos. Os dados podem
ser recuperados ou em uma apresentação customizada pelo usuário (por exemplo, JPEG ou
GIF) ou em um formato DICOM nativo.
Outros métodos também existem, similares aos apresentados por JUNIOR et al.
(2006), e SOUZA et al. (2011): o primeiro adicionando novas variáveis na transmissão dos
dados dentro do padrão (propondo uma extensão ao mesmo) e executando uma
compactação prévia; o segundo, transformando as imagens em vídeos com resoluções
diferentes e em tomogramas variados. São bons exemplos de caminhos pelos quais a
industria do segmento tenta seguir.
Ambos os casos buscam redução de tempo da visualização do exame – o primeiro
consegue reduzir o tempo de transmissão em até 70%, e no segundo, a visualização da
imagem é instantânea, entretanto a sua resolução (em pontos por polegada quadrada)
visando a análise médica é muito degradada. O tempo para completa visualização acaba
sendo proporcional ao tempo convencional de envio.
Um sistema desenvolvido por MELO et al. (2010) transmite dados DICOM
similarmente ao apresentado por JUNIOR et al. (2006), quanto ao uso de ferramentas de
compactação dos dados em tempo real. Entretanto, obtêm uma redução do tempo de
transmissão de 93%, por utilizar um algoritmo mais performático e por operar através de um
equipamentos especializado (ativo de rede).
262
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Propõe-se uma lista de requisitos de atendimento mínimo, para dirimir algumas
deficiências gerais identificadas em transmissões desse tipo de imagem. Esta foi idealizada
visando a atender uma diversidade de problemas, incluindo estruturas de comunicação,
falhas de sistemas operacionais utilizados, custos financeiros de infraestrutura, etc.
Comparando os sistemas existentes, modelados por MELO et al. (2010), JUNIOR et
al. (2006), NEMA (2006) e SOUZA et al. (2011), fez-se uma avaliação das características
mais relevantes, na Tabela 2.
Tabela 2: Comparativo entre os sistemas de transmissão de imagens médicas.
Característia
identificada
Disponibilização
dos dados
Equipamentos
envolvidos
Transmissões
entre redes de
dados instáveis,
com interrupções
frequentes e
falhas.
Invasão
eletrônica.
Arquivos DICOM
repetidos ou
gerados com erro
(falhas de
digitalização).
Modelo 1: Proposto pelo autor
(MELO et al., 2010)
Modelo 2: Compactação
Prévia (JUNIOR et al., 2006)
Transmissão das imagens diretamente ao destino, em formato de
arquivos. Software de visualização local padrão de mercado.
Desenvolvimento de ativos de rede
especializados de pequeno porte,
com
nenhuma
alteração
nos
equipamentos e softwares préexistentes.
Conexão sincrona, intermediada por
central eletrônica na rede;
Separação entre o envio do dado do
aparelho radiológico e o meio de
comunicação (buffer);
Retransmissão a partir do local
interrompido;
Algoritmo preditivo para evitar
retransmissões.
Sistema central controla a entrada e
saída de quaisquer informações,
identificando e utilizando chaves
criptográficas de 2048 bits;
Assinatura digital para troca de
informações textuais via web.
Compactação
inviabilizando
interpretação
radiológica
Redução do
tempo de envio
dos dados,
comparando ao
padrão.
Tamanho dos
dados
armazenados
Modelo 4: Streamming de
Vídeo
(SOUZA et al., 2011)
Visualização através de um software baseado em
Web. Processamento de visualização remoto, no
servidor de origem.
Reprogramação
dos
equipamentos e softwares
anteriores, afim de adaptar Desenvolvimento de softwares de servidores Web
ao
protocolo
proposto. com fim definido.
Proposta de agregação ao
padrão.
Conexão direta entre o emissor e o receptor.
Retransmissão
total
ou
Separação entre o envio do dado do aparelho
parcial em caso de falha;
radiológico e o meio de comunicação (buffer);
Algoritmo
preditivo
para
Retransmissão total em caso de falha.
evitar retransmissões.
Conexão ponto a ponto
exclusiva só permite envio de
dados identificados;
Utilização
de
chaves
criptográficas de 128 bits.
Avaliação sistêmica da imagem
gerada (consistência do header com
a imagem);
Filtro de imagens transmitidas
repetidas ou geradas com erro
(CRC).
Possibilidade de invasão eletrônica aos servidores,
roubo ou destruições de informações confidenciais
através de virus modernos (Trojans, Cavalos de
Tróia, etc);
Assinatura digital para troca de informações textuais
via web.
Apresentação da imagem repetida ou com erro ao usuário final.
Padrões de
resolução e envio
Ajustável para obedecer resoluções de vídeo e operação de
de dados dos
arquivos;
orgãos
Uso de imagens DICOM em toda espectro das soluções utilizadas.
governamentais.
Falhas gerais
imprevistas.
Modelo 3: WADO
(NEMA, 2006)
Conversão digital para outros modos de visualização
e arquivos;
Reduz drasticamente a resolução da imagem, para
ampliara a velocidade de transmissão.
Gestão da comunicação entre os
entes envolvidos;
Os dados são enviados assim que Interrupções podem não encaminhar determinadas imagens ou segmentos de um
conexão é estabelecida;
exame.
Geração de relatórios, para controle
automático de falhas.
Fidedigna a original;
Resolução seguindo o padrão estabelecido;
Qualidade preservada.
Modificações na resolução;
Dificuldades em alguns casos para interpretação
médica.
Até 93%
Até 70%
Até 90%
Até 50%
Demora
para
resolução
viável
a
interpretação
médica.
85% de redução
80% de redução
85% de redução
10% de aumento
263
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Legenda:
Plataformas de
Petróleo
Mineradoras
Navios Hospitais
1. Todos os envios – pelos equipamentos radiológicos - e requisições de exames –
pelos profissionais de saúde dentro da instituição – são encaminhados a
equipamento;
2. Os exames enviados também podem ser impressos em papel;
1
6
1
3. A imagem é encaminhada diretamente a Central Eletrônica, via protocolo próprio;
1
6
6
Hospitais
e Clínicas
3
3
Consultórios
3
6
4
3
1
5
3
2
5
5
4
6
Cidades distantes
4. As imagens propriamente ditas são enviadas aos profissionais de saúde em seus
escritórios, consultórios ou para onde considerarem melhor. A visualização é através
de processamento local,, o que mantem uma imagem de alta qualidade e rápida
manipulação.
5. Os profissionais de saúde analisam e concluem seus relatórios. Através da
Intranet, os dados são enviados diretamente a Central Eletrônica de Diagnósticos.
7
1
Consultórios
6. A Central processa o resultado do exame, e o encaminha ao Hospital ou Clínica.
Este pode se dar por e-mail ou cópia direta do arquivo, através de documentos em
PDF.
7. A Central também permite conexões remotas através do uso de notebooks e 3G,
pelos profissionais de saúde.
Figura 1: Descritivo de operação do sistema utilizado por MELO et al. (2010), comercialmente.
3. CONCLUSÕES
Tendo em vista as caracteristícas identificadas, o Modelo 1, definido por MELO et al.
(2010), obteve resultados mais satisfatórios, destacada pela maior redução de tempo de
envio de dados, quando comparado ao padrão, e por ser um daqueles que mais os
compactam. Reúne melhores condições para o trafego de dados radiológicos.
4. REFERÊNCIAS
CFM (2009). Resolução 1890/2009, define e normatiza a Telerradiologia. Diário Oficial da
União, 19 janeiro de 2009. Conselho Federal de Medicina.
CNES
(2011),
Cadastro
Nacional
de
Estabelecimentos
de
Saúde
(http://cnes.datasus.gov.br/). Consulta realizada em janeiro de 2011, por
Estabelecimentos em Posição geográfica definida. Ministério da Saúde.
DICOM (2011). Strategy Document (http://medical.nema.org/dicom/geninfo/Strategy.pdf).
DICOM Standards Committee. National Electrical Manufacturers Association, 1-4.
JUNIOR, A.L.; COPETTI, R. ; WANGENHEIM, A.V. (2011) Um Modelo para Comunicação
de Dados DICOM em Redes de Telemedicina de Baixa Velocidade. Laboratório de
Telemedicina – Projeto Cyclops. Departamento de Informática e Estatística (INE).
Universidade Federal de Santa Catarina (UFSC).
MELO L.S.A.; MELO A.S.A.; MOREIRA, L.B.M.; DALBELLO, J.C.R.; VALE, E.R. (2010).
Uma Solução Nacional Rápida e de Baixo Custo para Problemas com Transmissão de
Imagens Médicas em DICOM. 41a Jornada Paulista de Radiologia. Painel Digital.
NEMA (2006). Digital Imaging and Communications in Medicine (DICOM). Part 18: Web
Access to DICOM Persistent Objects (WADO). DICOM Standards Committee. National
Electrical Manufacturers Association, 6.
SBC (2006). Grandes desafios - Computacao no Brasil 2006-2016. Relatório sobre o
Seminário realizado em 8 e 9 de maio de 2006. Sociedade Brasileira de Computação
(SBC), 7-9.
SOUZA, D.F.M.; BERÇOTT, F.M.; LIMA, L.R.S.; COSTA, A.R.; MIRANDA, G.M. (2011).
Integração de Bases de Dados Multimídia Distribuídas através de Prontuário Eletrônico
utilizando Serviços de Streaming. Congresso Brasileiro de Informática em Saúde 2006,
Sociedade Brasileira de Informática em Saúde.
264
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Visão crítica da remoção ultrassônica aplicada aos
efluentes industriais
1
2
3
Antonio Carlos Moreira da Rocha, Fernando B. Mainier, Carlos Henrique Figueiredo Alves
1
2
Universidade do Estado do Rio de Janeiro (UERJ), Rio de Janeiro, Brasil; Escola de Engenharia,
3
Universidade Federal Fluminense (UFF), Niterói, RJ, Brasil; Centro Federal de Educação
Tecnológica Celso Suckow da Fonseca (CEFET/RJ), Rio de Janeiro, Brasil
1
2
3
[email protected]; [email protected]; [email protected]
RESUMO
O objetivo deste trabalho é apresentar a técnica do ultrassom geradora de bolhas de
cavitação no desenvolvimento de novas tecnologias para eliminação de contaminantes
industriais de difícil remoção pelos métodos convencionais. A preocupação principal deste
trabalho é mostrar que o rendimento da aplicação das ondas sônicas depende do tipo de
equipamento empregado, bem como das condições programadas. As técnicas atuais ainda
estão em níveis de laboratório ou de unidades pilotos, entretanto, essas sondas são de
baixo custo e de tecnologia de certa forma conhecida o que leva ao sucesso do
empreendimento, desde que seja localizado, no projeto global de tratamento de efluentes. O
emprego do ultrassom proporciona a remoção ou a redução de contaminantes de efluentes
líquidos, tais como: derivados fenólicos, percloroetileno e tetracloreto de carbono, entre
outros, mostrando que esta técnica pode ser desenvolvida para ser utilizada em larga escala
nos tratamentos de efluentes industriais
Palavras-Chave: ultrassom, meio ambiente, efluentes industriais, cavitação, contaminações.
1. INTRODUÇÃO
A proteção ambiental aliada a saúde das populações, principalmente, as que habitam
as cercanias das unidades industriais, tem sido uma preocupação constante dos atuais
projetistas de grandes complexos industriais. Consequentemente aumentou-se o rigor no
controle das condições de qualidade do meio ambiente, como fator essencial para a
manutenção da vida da espécie, mantendo-se assim o equilíbrio ecológico. No passado
muitas vozes que clamavam por melhores condições devida no ambiente fabril foram
silenciadas ou sepultadas pela ordem de produzir a qualquer custo.
Em relação aos tratamentos de efluentes, as empresas adotam dois tipos de rotas
tecnológicas, quais sejam: o tratamento dos resíduos no final do processo (end-of-pipe) e o
desenvolvimento de tecnologias limpas aplicadas (clean tecnology) ao tratamento que se
desenvolvem ao longo do processo.
A primeira tecnologia, geralmente convencional e/ou tradicional, engloba a
concentração e a disposição controlada de resíduos em áreas específicas, com dispersão
de efluentes em menor escala e/ou com transformações de resíduos aceitáveis pelas
Agências Ambientais.
As tecnologias limpas se destacam das tecnologias tradicionais podendo ser definida
como o conjunto de métodos e técnicas que objetivam a minimização dos resíduos e tem
como eixo central a preservação do meio ambiente, conseqüentemente, adotando normas
de gestão ambiental. As matérias-primas e as energias necessárias ao processo devem ser
otimizadas e integradas ao ciclo produção e consumo, de tal forma, a minimizar o impacto
ambiental. Além disso, a filosofia da segregação dos processos químicos propicia um
tratamento mais direto e em menor proporção.
Observa-se que os tratamentos de efluentes devem ser realizados na própria fonte
geradora da poluição, pois o que se tem observado normalmente é um grande esforço
acompanhado de um elevado custo de tratamento, para recuperar o sistema final
265
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
contaminado quando na verdade, a maioria das análises mostra que se deve cuidar do
efluente contaminante na sua origem e não final do processo (MAINIER, 1999).
Não restam dúvidas que o desenvolvimento de produtos químicos no mundo
moderno visando o desenvolvimento de fármacos, produtos de higiene pessoal, aditivos
alimentícios, plásticos e defensivos agrícolas, entre outros, trouxeram, direta e
indiretamente, uma inumerável quantidade de benefícios a sociedade, entretanto, por outro
lado, as emissões desses produtos no meio ambiente vêm criando uma série de
preocupações tanto nos mananciais, quanto nos solos e na água servida às populações
(MIERZWA & FRANCISCO DE AQUINO, 2009).
Cada vez mais pesquisadores têm dedicado esforços na proteção ambiental, sendo
que eles têm procurado novos métodos e inovações tecnológicas aplicados aos tratamentos
de resíduos industriais. Observa-se que as pesquisas sobre o uso de ondas sonoras na
proteção ambiental por diversos motivos têm recebido destacada atenção. Um elevado
número de investigadores tem estudado o efeito de ondas ultrassônicas, baseado no
fenômeno da cavitação para a destruição de poluentes químicos e biológicos na água
(ADEWUYI, 2001).
Os estudos de eliminação de poluentes químicos por meios de ultrassom envolvem
conhecimentos multidisciplinares, principalmente nas áreas de engenharia tais como:
fenômenos de transporte, eletricidade, eletrônica, física, química, materiais, etc.
Na área da química em que o ultrassom é a base dos processos de transformação é
denominado de Sonoquímica e a sua aplicação na área ambiental se alicerça na alteração
nas estruturas químicas envolvidas, denominada de sonólise. Pode-se destacar o uso de
ondas ultrassônicas em diversos processos da proteção ambiental. Outra aplicação muito
importante do efeito da cavitação resultante pela atuação das ondas ultrassonoras é
remoção de contaminações químicas, por exemplo, a oxidação direta de resíduos químicos
e pesticidas e em combinação com outras técnicas como ozonólise, a eletrólise e a luz
ultravioleta (UV).
Para o desenvolvimento nessa área, observa-se a importância do desenvolvimento
na construção de equipamentos cada vez mais eficientes que podem aperfeiçoar a técnica
da Sonoquímica nos processos de despoluição de sistemas líquidos (THOMPSON &
DORAISWAMY, 1999).
2 TÉCNICA DE ULTRASSOM APLICADA À REMOÇÃO E/OU REDUÇÃO DOS
TEORES DE CONTAMINANTES EM EFLUENTES INDUSTRIAIS
Segundo trabalhos de pesquisa de Mason & Lorimer (2002) e Lickiss (2004) o
ultrassom pode ser definido como a emissão de som superior a 16 kHz que não é
compreendida pelo ouvido humano. A Figura 1, a seguir, mostra o espectro de ondas
sonoras em ciclos por segundo (hertz – Hz), onde alguns exemplos de som são emitidos por
mosquitos, gafanhotos e morcegos.
A alta freqüência é utilizada para diagnósticos de aplicações médicas, avaliação de
falhas em materiais (metálicos e não metálicos) e até utilizado em sonares submarinos. Nos
diagnósticos médicos é utilizada a alta freqüência sônica na faixa de 1 a 10-MHz e baixa
potência, pois nessa frequência existe pouca possibilidade de alterações físico-química que
não afetem a saúde dos pacientes.
266
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Figura 1– Espectros de ondas sonoras
Fonte: Lickiss (2004), modificado.
No ponto do colapso, ou seja, na fase vapor no interior da microbolha, a temperatura
pode atingir até cerca de 5000 °C enquanto a pressã o nestas condições é da ordem de
1000 atmosferas. Na visão de Gong, & Hart (1998), a intensidade e a reatividade das
reações químicas associada às ondas sônicas de alta potência são regidas pelos seguintes
parâmetros: amplitude e frequência de ultrassom, temperatura, tensão superficial, pressão
de vapor, teor de gases em solução e geometria dos transdutores ultrassônicos.
Segundo Garbellini et al. (2008), a literatura relata vários trabalhos de pesquisa
direcionados a eliminação de contaminantes em efluentes industriais e indica que existem
três regiões que devem ser avaliadas nos processos de tratamento utilizando o sistema de
ultrassom. Na primeira fase é o interior das microbolhas de cavitação devido as altas
temperaturas e pressões instantâneas que se formam. Nesse caso é possível ocorrer a
pirólise dos constituintes e onde é possível também haver a formação hidrogênio atômico
(H) e os radicais (OH• , HOO•) que auxiliam a destruição dos contaminantes orgânicos. Na
segunda região ocorre o limite onde a temperatura se apresenta mais baixa. Nessa região
pode resultar na decomposição térmica do contaminante e a terceira região onde,
provavelmente, vão acontecer as reações entre os contaminantes e os radicais formados
pelas ondas sônicas de alta potência. Mesmo presentes em pequenas quantidades, poucos
ppm, o fenol e seus derivados causam toxidez e desagradável odor à água.
O fenol tem sido listado como o principal poluente na lista da EPA (USA), e a
concentração permitida de fenol nos efluentes é inferior a um ppm. A degradação do fenol
para baixos níveis não é possível nos tratamentos nos processos biológicos convencionais,
denominados de lodo ativado. Derivados também recebem atenção especial como o pnitrofenol (MISHRA & GOGATE, 2011).
Trabalhos publicados por Mason & Lorimer (2002) mostram a redução do fenol em
água utilizando ultrassom de baixa frequência e alta potência conforme apresenta o gráfico,
a seguir, na Figura 2.
O gráfico mostra destruição total do fenol ocorre após 100 minutos de exposição e
também mostra que, inicialmente, uma pequena quantidade do próprio fenol se transforma
em dois produtos intermediários: a hidroquinona e o catecol. Posteriormente, após 190
minutos de processo esses dois intermediários são completamente destruídos. As reações
de destruição total do fenol são apresentadas, a seguir, mostrando a formação final de CO2,
CO e HCOOH. O ideal desse processo é transformar o fenol (C6H5OH) em CO2 e H2O,
entretanto, essa prática só ocorrerá com a associação da adição de ozônio (O3) à redução
ultrassônica.
267
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Figura 2 – Gráfico da destruição do fenol por ultrassom
Fonte: Mason & Lorimer (2002), modificado.
Ultimamente tem aumentado o interesse na aplicação de processos avançados de
oxidação para a remoção de fenol dos efluentes. Sonicação para degradação de fenol tem
se mostrado um processo atrativo, por operar em condições normais de operação e baixo
custo. A atuação direta de ondas ultrassônicas tem mostrado em alguns casos baixo
rendimento, mais o uso de aditivos como cloreto de sódio, bicarbonato de sódio, tetracloreto
de carbono e ozônio aumentam sobremaneira o rendimento do processo. (CHIBA et al,
2010; MAHAMUNI & PANDIT, 2010).
A maior parte dos estudos sobre a degradação de fenol e substituintes fenólicos por
sonoquímica indicam que a degradação de fenol é maior quando a frequência é mais alta (>
500 kHz). No entanto, o fenol podia ser degradado em menor frequências (22 kHz) sob
radiação mais prolongada a alta intensidade (75 W/cm²). A degradação é geralmente maior,
quando realizados sob as ondas ultrassônicas. Diversos produtos, tais como ácido maleico,
polihidroxibenzenos, quinonas, cloro-dihidroxibenzenos, e 4-nitrocatecol são identificados
como um resultado da substituição e degradação do fenol. (MAHAMUNI & PANDIT, 2010).
3. EQUIPAMENTOS DE LABORATÓRIO UTILIZADOS PARA TRATAMENTO DE
EFLUENTES POR ULTRASSOM
Ainda, com base em Mason & Lorimer (2002), os equipamentos laboratoriais
disponíveis no mercado para aplicação no tratamento de efluentes industriais podem ser de
dois tipos. O primeiro tipo apresentado na Figura 3 é constituído de um recipiente de aço
inoxidável, de tal forma, que os transdutores sônicos são colocados na parte inferior do
recipiente. Quando a potência sônica é aplicada nota-se a propagação das ondas sônicas
através da água envolvendo a amostra que está no interior do erlenmeyer de vidro. As
determinações das transformações da amostra serão obtidas em função do tempo, das
características físico-químicas e a possibilidade de associação de outra técnica de
destruição de contaminantes químicos como a ozonólise e/ou eletrólise.
268
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
Figura 3 – Banho ultrassônico de laboratório.
Fonte: Lickiss (2004), modificado.
O segundo tipo de ultrassom refere-se uma célula de titânio de alta potência que
pode ser introduzida diretamente na amostra conforme mostra o esquema apresentado, a
seguir, na Figuras 4.
Figura 4 – Célula ultrassônica de laboratório para colocação direta na amostra.
Fonte: Lickiss (2004), modificado.
A sonda ultrassônica possui uma espécie de megafone para amplificar as vibrações
do transdutor, considerando que as pastilhas usadas de cerâmicas piezelétricas emitem
pequenas variações de ondas sônicas. Para que possam ser usadas diretamente nas
amostras, o sistema de ultrassom é encapsulado em um tubo de titânio ou em outras ligas
de maior resistência à corrosão. A alta temperatura gerada nessas sondas acarreta a
necessidade de uma refrigeração constante.
4. RESULTADOS DOS ENSAIOS
Os resultados dos ensaios laboratoriais realizados com ultrassom utilizando fenóis e
organoclorados ainda são incipientes embora, qualitativamente, tenham apresentados
resultados promissores de redução de contaminante como os fenóis e alguns produtos
organoclorados. Os experimentos estão sendo realizados com equipamentos mostrados na
Figura 3. Os diversos tipos de montagem de sondas e banhos estáticos de ultrassom
mostram a possibilidade do uso em escala industrial de pequeno porte. Com base na visão
crítica este processo pode ser usado para destruir compostos orgânicos indesejáveis
proporcionando uma técnica de grande impacto nos tratamentos de efluentes industriais.
269
VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011
5. CONCLUSÕES
Com base na pesquisa bibliográfica e nos resultados ainda incipientes de laboratório
pode-se concluir que:
•
É fundamental desenvolver técnicas e tecnologias direcionadas a destruir
e/ou reduzir os contaminantes tóxicos em efluentes industriais;
•
A utilização de ondas ultrassônicas para o tratamento de efluentes líquidos
industriais, anteriormente difíceis de tratamento, mostra a possibilidade de encontrar novas
técnicas para solucionar este problema;
•
Uma vez desenvolvida uma sonda de ultrassom pode-se construir
equipamentos, tipo reatores contínuos, podendo ter diferentes valores de frequência
dispostos nestes reatores;
•
Analisando-se a informações encontradas na literatura especializada,
observa-se que a forma de transmissão de alta energia apresenta uma característica muito
definida visando a destruição da substância presente no efluente.
6. REFERÊNCIAS
ADEWUYI, Y.C (2001), Sonochemistry: Environmental
Applications, Ind. Eng. Chem. Res. 40, p.4681-4715
Science
and
Engineering
CHIBA, M., MERONIANI, S., HAUMDAOUI, O., BAUP, S., GONDREXON, N., PÉTRIER, C.,
(2010), Modeling of ultrasonic degradation of nonvolatile compounds by Langmuir-type
kinetics, Ultrasonics Sonochemistry, Elsevier, v. 17, nº 5, p 773-782.
GARBELLINI, G. S., SALAZAR-BANDA, G, S., AVACA, L. A., (2008), Aplicação do ultra-som
em sistemas eletroquímicos: considerações teóricas e experimentais, Química. Nova,
Vol. 31, No. 1, p. 123-133.
GONG, F. & HART, D. F. (1998), Ultrasound induced cavitation and sonochemical yields,
Journal of the Acoustical Society of America, Vol. 104, p.1-16.
LICKISS, P. D. (2004), Ultra-som em síntese química, In: Neoquímica: a química moderna e
suas aplicações, Organizado por Nina Hall, Porto Alegre, Bookman, 392p.
MAHAMUNI, N. N., & PANDIT, A. B. (2010), Effect of additives on ultrasonic degradation of
phenol, Ultrasonics Sonochemistry, v 13, p.165-174.
MAINIER, F. B. (1999), Uma visão crítica das rotas industriais de fabricação de produtos
químicos utilizados nos tratamentos de água. Anais: 4° Congresso de Equipamento e
Automação da Indústria Química - ABQUIM, 4/7 de maio, São Paulo, 9p.
MASON, T. J. & LORIMER, J. P. (2002), Applied Sonochemistry, The uses of power
ultrasound in chemistry and processing, Wiley-VCH.
MIERZWA, J. C. & FRANCISCO DE AQUINO, S (2009), Contaminantes orgânicos
presentes em microquantidades em mananciais de água para abastecimento público, in:
Remoção de microrganismos emergentes e microcontaminantes orgânicos no
tratamento de água para consumo humano, PÁDUA, V. L., Rio de Janeiro, ABES, 392p.
MISHRA, K. P. & GOGATE P. R. (2011), Intensification of sonophotocatalytic degradation of
p-nitrophenol at pilot scale capacity, Ultrasonics Sonochemistry, 18, p.739-744.
THOMPSON, L. H. & DORAISWAM, L.K. (1999), Sonochemistry: Science and Engineering,
Ind. Eng. Chem. Res. 38, p.1215-1249.
270