Comemorando os 40 anos de Fundação da Associação
Transcrição
Comemorando os 40 anos de Fundação da Associação
Editorial Revista Brasileira de Física Médica. 2009;3(1):3. Comemorando os 40 anos de Fundação da Associação Brasileira de Física Médica N este número especial, a Revista Brasileira de Física Médica (RBFM) publica uma série de artigos de revisão. Pesquisadores e profissionais de reconhecida competência na área de Física Médica foram convidados a compartilharem seus conhecimentos sobre temas de interesse geral com toda a comunidade. Os artigos trazem uma abordagem didática sobre diversos temas em questão, possibilitando seu uso como material de consulta permanente e, dessa forma, contribuindo para a formação e atualização de profissionais da Física Médica. Os temas abordados neste número especial procuram retratar a diversidade e abrangência dessa área do conhecimento. Partindo do estudo da física das radiações, ou mesmo do método Monte Carlo, passando pelo desenvolvimento dos princípios de proteção radiológica e segurança nuclear até, finalmente, chegar aos aspectos fundamentais e técnicos das principais modalidades de atuação profissional do especialista em Física Médica, todo esse conhecimento acaba por traduzir o grande desenvolvimento dessa área no país. O ensino de graduação e a formação profissional, temas também tratados neste número, reforçam a importância da área para a melhoria da qualidade da assistência à saúde no país e firmam definitivamente a Física Médica como área do conhecimento interdisciplinar. Essa evolução foi alcançada ao longo de muitos anos de esforço e dedicação de vários profissionais e pesquisadores que têm trabalhado arduamente na representação da área junto a organizações oficiais do governo e da sociedade, na estruturação do ensino dessa carreira em universidades e centros de formação, na criação e manutenção de grupos organizados de atuação profissional reconhecida, na realização de pesquisa básica e aplicada, enfim, profissionais que vêm atuando coletivamente para o reconhecimento da Física Médica como área do conhecimento. Nesse sentido, a Associação Brasileira de Física Médica (ABFM) merece destaque pelo seu pioneirismo na congregação de profissionais e seu histórico de atuação incessante pelo reconhecimento e organização das atividades da área. Esse pioneirismo é traduzido, este ano, pela comemoração do aniversário de 40 anos de sua fundação. E como não poderia deixar de ser, o artigo de abertura deste número especial da RBFM traz um relato detalhado dos acontecimentos que marcaram a fundação e a evolução da ABFM. Com tiragem de mil exemplares, esse número será distribuído a todos os participantes do XIV Congresso Brasileiro de Física Médica, aos sócios da ABFM e a bibliotecas de Universidades, Institutos e Centros responsáveis pela formação e capacitação de profissionais em Física Médica. A RBFM brinda a comunidade com este número especial, em comemoração aos 40 anos de fundação da ABFM, uma data histórica para a Física Médica no país. Marcelo Baptista de Freitas Editor Científico da Revista Brasileira de Física Médica Associação Brasileira de Física Médica® 3 Artigo de Revisão Revista Brasileira de Física Médica. 2009;3(1):5-18. Histórico da Associação Brasileira de Física Médica e sua contribuição para a evolução da Física Médica no Brasil History of the Brazilian Association of Medical Physics and its contribution to the evolution of Medical Physics in Brazil Thomaz Ghilardi Netto1 1 Professor titular aposentado do Departamento de Física e Matemática da Faculdade de Filosofia, Ciências e Letras de Ribeirão Preto da Universidade de São Paulo (USP); físico médico coordenador da Área de Física Médica, Radioproteção e de Radioterapia do Hospital das Clínicas da Faculdade de Medicina de Ribeirão Preto da USP – Ribeirão Preto (SP), Brasil. Resumo A introdução contém um breve comentário sobre a origem da ciência da Física das Radiações com suas específicas referências. Descreve-se, ainda, o desenvolvimento prévio de organizações de físicos em instituições médicas, como a Hospital Physicists’ Association no Reino Unido e a American Association of Physicists in Medicine nos Estados Unidos; ambas serviram de modelo para alguns dos fundadores da nossa associação, que contaram também, com a ajuda e as sugestões do professor John Cameron, da Universidade de Wisconsin. No preâmbulo são descritos alguns detalhes acerca da criação de várias instituições envolvidas com proteção radiológica e a forma como foram iniciadas as interações dos físicos com os médicos, nos hospitais de São Paulo e Rio de Janeiro. Além disso, descreve-se com detalhes a formação da Associação Brasileira de Física Médica, o seu contínuo desenvolvimento e ainda são historiados os eventos realizados. A evolução, as criações e as atividades da Associação são descritas com base em períodos de dois em dois anos. Palavras-chave: história; associação; Física das Radiações; hospital. Abstract The introduction contains a brief commentary on the origins of Radiation Physics with specific references. It also describes the prior development elsewhere of physicists organizations in medical institutions, such as the Hospital Physicists’ Association, in the United Kingdom and the American Association of Physicists in Medicine, in the United States; both served as a model for some of our founders, who also received the help and the suggestions of professor John Cameron, from the University of Wisconsin. The preamble details the creation of several institutions working with radiation protection and the manner in which the interaction between physics and physicians started, both in São Paulo and Rio de Janeiro hospitals. It also details the creation of the Brazilian Association of Medical Physics and events in its continuous development. The Association’s evolution, creations and activities are described in two-year intervals. Keywords: history; association; Radiation Physics; hospital. Introdução O convite para escrever um histórico da Associação Brasileira de Física Médica (ABFM) nos faz relembrar as comemorações de associações pioneiras, como a celebração de quarenta anos do Hospital Physicists Association (HPA), realizada em Newcastle upon Tyne em 19831, e a da American Association of Physicists in Medicine em 19982 e que em julho de 2009 encerrou as festividades de comemoração do seu cinquentenário. Historicamente, pode-se dizer que a Física Médica teve origem há cinco séculos, quando Leonardo da Vinci passou a se interessar pela mecânica da locomoção humana. O termo ‘Física Médica’ já havia sido empregado por Neil Arnott em seu livro publicado em 18282,3 e por A. Fick no livro publicado em 1856 com o título de Física Médica2. Posteriormente, o subsequente desenvolvimento de dispositivos físicos contribuiu fundamentalmente para a evolução das ciências biológicas, culminando com o Correspondência: Hospital das Clínicas da Faculdade de Medicina de Ribeirão Preto-USP – Avenida Bandeirantes, 3900 Campus Universitário – Monte Alegre, CEP 14048-900 - Ribeirao Preto (SP), Brasil – e-mail: [email protected] Associação Brasileira de Física Médica® 5 Ghilardi Netto, T desenvolvimento do microscópio por Van Leeuwnhoek no século 17. Por outro lado, com o crescimento do conhecimento dos fenômenos ligados ao eletromagnetismo, especialistas em Física, em meados do século 19, prestaram significante contribuição à terapia e ao diagnóstico médico. Outras contribuições importantes que podem ser citadas são as do físico francês D’Arsonval, que permitiu o desenvolvimento de sensíveis voltímetros registradores e viabilizou o sucesso da eletrocardiografia e da eletroencefalografia; e as do médico e cientista Helmholtz, que desenvolveu sistematicamente o conceito de conservação de energia, inventou o oftalmoscópio – para perscrutar o olho internamente – e o oftalmometro – para medir a curvatura do olho –, e que também foi o primeiro a medir a velocidade de um impulso nervoso. A partir de 1895, a descoberta dos raios x por Wilhelm Conrad Roentgen, juntamente às descrições de suas propriedades de atenuação em determinados materiais, foram suficientes para estimular não só a sua utilização em imagens médicas, como também os estudos imediatos realizados por Thomas Edison, que contribuíram para o desenvolvimento de telas intensificadoras e o consequente estímulo a vários fabricantes para oferecerem diferentes tipos de tubos de raios x4. Seguido à descoberta dos raios x, nos últimos anos do século 19, vários pesquisadores da época se envolveram com a seleção de minerais que se tornavam luminescentes durante e após a exposição a raios x. Entre eles pode-se citar o físico francês Henri Becquerel, que descobriu o minério Urânio em 1896, e o casal Pierre e Marie Curie, que em 1898 anunciava a descoberta do polônio e o rádio5. Com o desenvolvimento dos tubos fotomultiplicadores e com o advento da Física Computacional, pode-se dizer que estes conceitos e aplicações desenvolvidos no século passado foram tão importantes quanto o microscópio, no século 17, para a evolução das ciências médicas e biológicas. Assim sendo, com o desenvolvimento da Física Aplicada, novas especialidades evoluíram com a Física Médica para atender às necessidades do mundo moderno. Entre outras, pode-se citar a Biofísica, havendo grande interesse – na América, durante as décadas de 1940 e 50 – em sua ligação a aplicações radioativas. Houve um crescimento substancial influenciado pela radioterapia e pelo efeito de crescimento desorientado induzido pela radiação nas células. Por outro lado, na Europa, especialmente no Reino Unido, esse crescimento se deu devido ao sucesso alcançado na determinação de estruturas de macromoléculas biológicas utilizando difração de raios x, e tendo como marco a determinação da estrutura da molécula do DNA4. Maiores detalhes sobre as principais contribuições sobre pesquisas antigas com radiação podem ser encontrados em artigos publicados nas paginas da revista Medical Physics6-10. Em meados do século passado, na década de 40, físicos interagiam com instituições médicas na cidade de Nova Iorque, mantendo reuniões para comparar 6 Revista Brasileira de Física Médica. 2009;3(1):5-18. instrumentação e suas avaliações quantitativas de radioatividade em soluções de uso medicinal. Essa interação propiciou a criação da Radiological and Medical Physics Society em 1957. Do ponto de vista internacional, antes de 1960, os físicos médicos não tinham uma organização própria, mas ao redor de 1958 o Presidente da HPA sugeriu a necessidade da criação de uma organização internacional e após vários encontros e reuniões, com a participação de 80 membros de 20 países, foi criado o International Committee on Medical Physics. Este comitê internacional se reuniu pela primeira vez em Estocolmo, em 1961, e elegeu um comitê especial para estabelecer condições para a criação da organização. Assim, em 1962 o comitê se reuniu novamente em Montreal, no Canadá, e decidiu criar a Internacional Organization for Medical Physics (IOMP), “com o objetivo de organizar a cooperação internacional em Física Médica em todos os seus aspectos, especialmente em países em desenvolvimento, e encorajar e supervisionar a formação de organizações de Física Médica naqueles continentes afiliados à organização”11. Preâmbulo A evolução da tecnologia em Medicina vem sendo intensamente pautada por aplicações de conceitos e métodos da Física, tornando imprescindível a atuação constante de profissionais especializados da área de Exatas em atividades ligadas às ciências da saúde. Um trabalho fundamental desenvolvido por esses profissionais, em todos os setores em que atuam, relaciona-se com as aplicações de energia, conceitos e métodos para o diagnóstico e terapia de doenças humanas. Seguindo estes princípios, os profissionais ligados à Física Médica vêm desempenhando ao longo dos anos uma importante função na assistência médica e na pesquisa biomédica, procurando alcançar a otimização da proteção radiológica. Assim, foi se estabelecendo uma relação importante entre a qualidade da técnica, da proteção das pessoas e dos ambientes envolvidos. Estas necessidades propiciaram uma interação natural desses profissionais com várias especialidades da Medicina, que vêm contribuindo substancialmente para o progresso não só de tratamentos, mas também em Medicina Nuclear, Radiodiagnóstico, Cardiologia e outras ramificações técnicas de produção de imagem utilizando equipamentos de ultrassom e ressonância magnética. No Brasil, essa interação teve início em meados da década de 50, envolvendo alguns pioneiros que foram os responsáveis pela implantação da Física Médica no Brasil. Entre outros, podem ser citados a física Esther Nunes Pereira, que 1954 foi convidada, pelo médico Osolando Judite Machado, para trabalhar no Serviço de Radioterapia do Instituto Nacional do Câncer no Rio de Janeiro. Em 1957, o físico Dirceu Martins Vizeu foi convidado pelo médico Mathias Octávio Roxo Nobre para trabalhar na Associação Paulista de Combate ao Câncer, na cidade de Histórico da Associação Brasileira de Física Médica e sua contribuição para a evolução da Física Médica no Brasil São Paulo. Em 1961, Adelino José Pereira iniciou suas atividades em radioterapia nesta mesma associação. A partir de 1959, os físicos Alípio Luiz Dias Neto e Thomaz Bitelli iniciaram suas atividades no Centro de Medicina Nuclear (CMN) da Faculdade de Medicina da Universidade de São Paulo (USP), convidados pelo médico Tede Eston de Eston, diretor e fundador do centro. Nessa mesma década, além do CMN, foram também criadas algumas instituições que formaram a base para o desenvolvimento da Física Médica: o Instituto Nacional do Câncer, criado em 1957 e reconhecido oficialmente como INCA em 1961; a Associação do Estado de São Paulo para o Combate ao Câncer; e a Comissão Nacional de Energia Nuclear (CNEN). Nessa época, a CNEN, também implantou o Laboratório de Dosimetria das Radiações na Pontifícia Universidade Católica (PUC) do Rio de Janeiro, contando com a colaboração do professor Bernard Gross, que se transformou no atual Instituto de Radioproteção e Dosimetria (IRD), criado em 1972. O Instituto de Energia Atômica (IEA), hoje Instituto de Pesquisas Energéticas e Nucleares (IPEN), foi criado em 1956 e hoje é uma autarquia do Governo do Estado de São Paulo, vinculada à Secretaria de Desenvolvimento e gerenciado pela CNEN; também é associado, para fins de ensino de pós-graduação, à Universidade de São Paulo. Já a Divisão de Proteção Radiológica teve seu início em 1957, com a contratação de Thomaz Bitelli e Dirceu Vizeu; Bitelli se transferiu para o CMN em 1959, ao passo que Vizeu continuou trabalhando até 1967. Gian Maria Sordi, em 1961, e Sudernaique F. de Deus, em 1965, também se juntaram à Divisão. Atualmente, Linda Viola Elhin Caldas é a Diretora de Segurança Nuclear, tendo iniciado seu trajeto no IPEN em 197512. Outra instituição que deve ser citada é o Hospital A. C. Camargo, hoje reconhecido como um dos principais centros de tratamento, ensino e pesquisa sobre câncer da América Latina. Na área acadêmica, a evolução da Física Médica contou com as importantes participações da USP, liderada pelo professor Shigueo Watanabe em São Paulo e pelo professor Sergio Mascarenhas de Oliveira em São Carlos. Na Universidade Federal do Rio de Janeiro (UFRJ) houve grande participação do professor Eduardo Penna Franca – falecido recentemente. Em 1968, o professor Watanabe criou e instalou o laboratório de dosimetria termoluminescente no IEA, contando com a colaboração de John Cameron, que na época era responsável pela Divisão de Física Médica da Universidade de Wisconsin. A evolução da Física no interior de São Paulo se iniciou com a criação do curso de licenciatura em Física, em 1962, na cidade de Rio Claro. Em 1967 foi criado o curso de Física na Universidade Estadual de Campinas (UNICAMP). Posteriormente, com o crescimento da massa crítica iniciada e criada pelos professores Sergio e Ivone Mascarenhas na Escola de Engenharia de São Carlos da USP em 1957, possibilitou-se a criação do Instituto de Física e Química de São Carlos da USP, em 1970, o que tornou possível a criação imediata dos cursos de pós-graduação e de bacharelado em Física. Nesta mesma época foi criado o Curso de Física na Universidade Federal de São Carlos (UFSCAM). Em julho de 1967, após a minha participação em um curso ministrado para docentes pelo professor Thomaz Bitelli no Instituto de Matemática e Física da Universidade Federal de Goiás em Goiânia, fui incentivado a realizar um estágio de quatro meses no CMN da USP, na cidade de São Paulo, e a participar do curso de Física e Higiene das Radiações, onde tive a oportunidade de colaborar juntamente com o físico José Maria Fernandes Neto na preparação das aulas práticas. Descrevo esta passagem com detalhes, pois a minha participação como aluno do curso ministrado sob coordenação do professor Bitelli e contando com a participação dos professores Dirceu Martins Vizeu, Adelino José Pereira e Dra. Verona Rapp Eston, além de colegas de curso, os médicos radia-oncologistas João Luiz Fernandes da Silva, hoje chefe do Serviço de Radioterapia do Hospital Sírio Libanês e o falecido Marcos Lederman, foi fundamental para me motivar a continuar estudando e trabalhando em áreas ligadas a biomedicina e a me transferir para Ribeirão Preto em 1969, e assim poder realizar a Pós-Graduação em Física no Instituto de Física e Química de São Carlos da USP, com ênfase em biofísica, contando com a colaboração do professor Sergio Mascarenhas de Oliveira e sob a orientação do professor Robert Lee Zimmerman. Em Janeiro de 1980, a convite de Carlos Eduardo Veloso de Almeida passei um período no IRD onde tive a oportunidade de trabalhar com Ana Maria Campos de Araujo e João Emilio Peixoto, fato este que permitiu posteriormente estabelecer um convênio entre o Centro de Instrumentação e Dosimetria da USP em Ribeirão Preto e a CNEN, o qual foi muito profícuo. Posteriormente essa interação teve continuidade através de trabalhos realizados com Helvécio Correa Mota e Simoni Kodlulovich. Criação, formação e atividades da ABFM Pode-se dizer que os centros mencionados anteriormente foram os embriões da Física Médica no Brasil. Assim, sugeriu-se a criação de uma Associação para congregar os físicos da área médica no CMN da USP, tendo em vista três fatores: a profícua interação entre os profissionais pertencentes às instituições citadas, o crescimento do número de físicos trabalhando em Física Médica, e após visita feita pelo professor Cameron, da Universidade de Wisconsin em meados do ano de 1969, acompanhado pelo professor Shigueo, ao CMN, tal sugestão motivou o professor Bitelli a encaminhá-la ao doutor. Tede Eston de Eston, Diretor do Centro, que prontamente a aceitou13. Desta forma, após uma reunião preliminar no CMN da USP em 23 de julho de 1969, contando com a participação dos físicos Adelino José Pereira, Gian Maria Sordi e José Maria Fernandes Neto, foi realizada a reunião de criação da ABFM, presidida por Adelino José Pereira e Revista Brasileira de Física Médica. 2009;3(1):5-18. 7 Ghilardi Netto, T secretariada por José Solda, em 25 de agosto do mesmo ano (Anexo 1). Assim, o sonho iniciado em uma pequena sala, com alguns poucos sócios fundadores, foi se tornando realidade, com a adesão de mais profissionais da área, agregando e adicionando idéias. Aos poucos, sua estrutura foi se fortalecendo, motivada pela primeira diretoria, formada pelo Presidente Thomaz Bitelli, que na época era responsável pela Divisão de Física e Higiene das Radiações do CMN, mas que havia iniciado carreira no IEA, tendo sido levado pelo professor Rômulo Pieroni. Em 1959, por indicação do professor Abrahão de Moraes, iniciou suas atividades no CMN, onde permaneceu até 1970, tendo sido ainda, por muitos anos, docente da Universidade Mackenzie, onde devido ao conhecimento profundo do assunto e a qualidade didática de suas apresentações estimularam muitos jovens a se dedicarem à Física Médica. Além do Presidente, faziam parte da diretoria o Presidente Eleito Shigueo Watanabe, o Secretário Geral Adelino José Pereira e o Tesoureiro José Solda. No período da gestão desta diretoria foram realizadas as seguintes reuniões científicas: ciclos de conferências na Faculdade de Ciências Médicas da Santa Casa de Misericórdia, na cidade de São Paulo, em 1969; e o Segundo Encontro de físicos e Radioterapêutas, no Rio de Janeiro, e o Simpósio Utilização de Aceleradores Lineares em Radioterapia, no Hospital Oswaldo Cruz, na cidade de São Paulo, ambos em 1971. Com a demissão do professor Bitteli em 12 de fevereiro de 1971, o professor Shigueo assumiu a presidência, complementando o mandato da diretoria. Em 24 de agosto do mesmo ano, durante a 4ª Assembleia Geral, realizada no Hospital A. C. Camargo, foi eleita a segunda diretoria, sob a presidência de Shigueo Watanabe. O professor Watanabe, àquela época pertencente ao Departamento de Física Nuclear da USP, contribuiu enormemente para a Física Médica ao introduzir no Brasil, em 1968, o estudo do fenômeno de termoluminescência, o que tornou possível, a partir do ano seguinte, o início da monitoração Figura 1. Cerimônia de entrega do título de Sócio Honorário ao professor John Cameron pela Dra. Esther Nunes Pereira em São Paulo. 8 Revista Brasileira de Física Médica. 2009;3(1):5-18. pessoal e ambiental. O professor Watanabe, além de ser um dos fundadores da ABFM, foi juntamente com professor Sergio Mascarenhas, um dos responsáveis pela criação da Academia de Ciência de São Paulo em 1974. Pela sua dedicação à ciência, o professor Shigueo recebeu, além do título de Sócio Honorário da ABFM, vários outros títulos honoríficos internacionais e a Ordem Nacional de Mérito Educacional das mãos do Ministro da Educação Paulo Renato. Além de Watanabe, faziam parte da diretoria o Presidente Eleito Dirceu Martins Vizeu, o Secretário Adelino José Pereira e o Tesoureiro Luiz Alberto Malaguti Scaff. Cabe destacar que a primeira reunião científica organizada pela ABFM foi a 1st Latin American Conference on Physics in Medicine and Radiation Protection, realizada no IEA, hoje IPEN, no início de março de 1972, na cidade de São Paulo, sob a Presidência do professor Shigueo Watanabe, tendo como Patrono o professor Rômulo Ribeiro Pieroni, Superintende do Instituto, que na oportunidade tornou-se o primeiro sócio honorário da ABFM e como Secretário o professor Adelino José Pereira, cuja publicação dos Anais, entregue no dia aos participantes foi devido principalmente aos esforços do professor Vizeu14. Cabe ressaltar que coube a esta diretoria a primeira publicação do Boletim Informativo nº 1 em junho de 1971, onde entre outros assuntos foi divulgada uma palestra do professor Alípio Dias Neto, e a divulgação dos nomes dos sócios fundadores totalizando 22 sócios efetivos e 11 sócios aspirantes, alunos da Universidade Mackenzie15. Em 1972, o professor Cameron foi eleito membro Honorário pela sua contribuição a Física Médica Brasileira. A Figura 1 mostra a cerimônia de entrega realizada pela doutora Esther Nunes Pereira. Em 24 de setembro de 1973 tomou posse a terceira diretoria da ABFM sob a presidência do professor Vizeu. O professor Vizeu iniciou a sua carreira no IEA e posteriormente foi contratado como docente da Faculdade de Farmácia da USP, sendo o primeiro a trabalhar como físico e responder por um Serviço de Física Médica no Instituto de Radioterapia Oswaldo Cruz; juntamente com o médico Marcos Lederman, foi responsável pela instalação do primeiro acelerador linear no Brasil16. A nova diretoria era composta ainda pelo Presidente Eleito Alípio Luiz Dias Neto, o Secretário Adelino José Pereira e o Tesoureiro Gian Maria A. Sordi. Durante a gestão dessa diretoria, no período de 1973 a 1975, foi realizado o Simpósio de Atualização de Física em Medicina, durante a 26ª Reunião Anual da SBPC, em Recife. No biênio de agosto de 1974 a agosto 1976 a ABFM foi presidida pelo saudoso professor Alípio José Luiz Dias Netto, que dedicou quase cinquenta anos de sua vida ao CMN da USP, onde exerceu o cargo de Diretor durante muitos anos. No início de suas atividades, foi pesquisador visitante junto à Agência Internacional de Energia Atômica (AIEA) em meados da década de 60 e posteriormente obteve o seu doutoramento na USP. Além do Presidente, a diretoria era composta pelo Vice-Presidente Adelino José Pereira, o Secretário Geral Eugênio Del Vigna Filho e a Histórico da Associação Brasileira de Física Médica e sua contribuição para a evolução da Física Médica no Brasil Tesoureira Marilia Teixeira da Cruz. Na gestão dessa diretoria foram realizadas a 2nd Latin American Conference on Physics in Medicine and Radiation Protection e a 2nd Symposium on Utilization of Linear Acclerators in Medicine na cidade de Belo Horizonte em 1975, tendo como Presidente Eugênio Del Vigna Filho17. Durante as comemorações desta reunião, foi entregue pelo professor Watanabe o título de sócio honorário ao Dr. Mathias Otávio Roxo Nobre, o terceiro a receber da ABFM tal homenagem, como gratidão pelos serviços prestados à Medicina, mas principalmente pelo apoio e incentivo para o progresso da Física Médica, conforme mostra a Figura 2. Em agosto de 1975, tomou posse a nova diretoria da ABFM, que seria Presidida pelo professor Adelino José Pereira até agosto de 1977; na época, o professor Adelino era responsável pelo Serviço de Física Médica do Hospital A.C. Camargo na cidade de São Paulo, pesquisando e prestando serviços em aplicações radioterápicas até 2006. A Figura 3 mostra os ex-presidentes Adelino José Pereira, Dirceu Martins Vizeu e Eugenio Del Vigna Filho reunidos com Dr. Mathias Otavio Roxo Nobre. A diretoria era constituída ainda pelo Presidente Eleito Eugênio Del Vinha Filho, pelo Secretário Geral Paulo Mota Craveiro e pela Tesoureira Marilia Teixeira da Cruz. Durante a sua gestão foi realizado o International Seminar on Medical Physics, em Teresópolis, e o XV International Congress on Radiology no Rio de Janeiro, em 1977, tendo como Presidente Watanabe e Secretário Geral Eugênio Del Vigna Filho18. Cabe destacar algumas realizações importantes neste período que foram: o lançamento da publicação do primeiro Boletim Informativo, com trabalhos publicados e informações mais completas; a realização de cursos intensivos, de Física Médica e Oncologia, ministrados em várias cidades brasileiras; e a outorgação, em 17 de setembro de 1976, do título de especialista na 17a Assembleia Geral Ordinária da ABFM. Em 1977, após uma avaliação realizada por uma comissão designada pelo conselho deliberativo da ABFM, foi realizada uma seleção dos interessados a concorrerem ao título de Especialistas em Física Radiológica; foram aprovados e classificados os primeiros 30 especialistas em Física Radiológica, sendo homologados pelo Conselho Deliberativo da ABFM sob a presidência de Adelino José Pereira. Em 23 de abril 1979 foram aprovadas, pelo Conselho, as deliberações da Comissão de Credenciamento referente ao título a ser concedido nas especialidades ligadas a Física Aplicada: em Radioterapia, em Medicina Nuclear e em Radiodiagnóstico ou Física Radiológica, englobando as três áreas19. Em agosto de 1977, a diretoria da ABFM deu posse ao Presidente Eugênio Del Vigna Filho, físico formado pela USP que iniciou suas atividades de formação na área de Física Médica nos Laboratórios do Instituto de Física da USP e no IEA, sob a orientação do professor Watanabe, especializando-se em Física Radiológica sob a supervisão do professor Adelino José Pereira no Hospital A. C. Camargo na cidade de São Paulo. No período de 1971 a 1973, trabalhou no Hospital Sírio Libanês. Em 1974 se transferiu para a Santa Casa de Belo Horizonte, para assumir a responsabilidade do Serviço de Física, onde permanece até o presente. A diretoria era composta, ainda, pela Presidenta Eleita Esther Nunes Pereira, o Secretário Geral Paulo Mota Craveiro e a Tesoureira Marilia Teixeira da Cruz. Em 20 de agosto de 1977, durante reunião, foi entregue o título de Sócio Honorário ao professor Watanabe, sendo o quarto a receber da ABFM tal homenagem, como gratidão pelos serviços prestados à Medicina, mas principalmente pelo apoio e incentivo para o progresso da Física médica17. Em 1979, foi realizada a Conferência do 10o Aniversário da ABFM no IPEN12. Na gestão dessa diretoria houve um aumento sensível do número de sócios, além de ter sido aprovado o convênio entre a ABFM e o Colégio Brasileiro de Radiologia, fundamental para o crescimento das áreas. Em 1979, durante reunião realizada no Rio de Janeiro, foi outorgado o título de Sócio Honorário da ABFM ao Presidente da CNEN pelo apoio irrestrito às causas da Figura 2. Cerimônia de entrega do título de Sócio Honorário ao Dr. Mathias Otávio Roxo Nobre pelo professor Watanabe durante reunião em Belo Horizonte. Figura 3. Ex-presidentes Adelino José Pereira, Dirceu Martins Vizeu e Eugenio Del Vigna Filho reunidos com Dr. Mathias Otavio Roxo Nobre. Revista Brasileira de Física Médica. 2009;3(1):5-18. 9 Ghilardi Netto, T ABFM, com aprovação de convênios altamente importantes para as Sociedades envolvidas com radiação. No período de 1979 a 1981 a ABFM foi presidida pela pioneira Esther Nunes Pereira, formada em Física e Matemática pela Faculdade de Filosofia da Universidade do Brasil em 1944. Em 1954, ao ser convidada pelo Dr. Osolando Machado, foi contratada para as “funções atinentes à Física Aplicada à Medicina nos Setores de Roentgenterapia, Curieterapia e Radioisótopos do INCA”; participou de cursos no Instituto Nacional de Tecnologia no Rio de Janeiro entre 1952 e 1954; de Metodologia de Radioisópos e Dosimetria Radiológica na USP, na cidade de São Paulo, entre 1953 e 1958; e de Dosimetria e Instrumentação Nuclear na CNEN, em 1959. De abril de 1960 a maio de 1961, com bolsa da AIEA, foi estagiária no Christie Hospital and Hold Radium Institute em Manchester no Reúno Unido. Após a vida inteira dedicada à Física das radiações ionizantes do INCA, aposentou-se em outubro de 1986. A nova diretoria era composta ainda, pelo Vice-Presidente Paulo Mota Craveiro, a Secretária Geral Ana Maria Campos de Araújo e a Tesoureira Marilia Teixeira da Cruz. Nesse período, além da Conferência do 10o Aniversário da ABFM, citado anteriormente, houve uma participação efetiva dos sócios da ABFM na 34ª Reunião Anual da SBPC, em Campinas, e no 2o Simpósio sobre Instrumentação, realizado em 1980 na cidade de São Paulo e coordenado pelo professor Watanabe. No início da década de 80, por sugestão do professor Abdus Salam – Diretor, na época, do International Centre for Theoretical Physics, Presidente da 3rd World Academy of Sciences, fez-se uma proposta que, sob os auspícios das duas organizações presididas pelo professor Salam, foi aceita: a criação da 3rd World Association of Medical Physics20. Nesta oportunidade, durante a Assembleia foi outorgado o título de sócio honorário ao sócio professor Vizeu, pelos relevantes serviços prestados à Radioterapia e à ABFM. No biênio de 1981 a 1983, a Associação foi presidida por Paulo Mota Craveiro formado em física pela USP em 1972, que cursou vários cursos de especialização no período 1972 a 1974, e o Mestrado em Física Aplicada à Medicina e Biologia em 1997. No período de 1972 a 1992, foi Diretor da Equipe Técnica de Radiação do Centro de Vigilância Sanitária da SSESP e Chefe do Departamento de Física do Hospital Sírio Libanês. Desde 1992 é docente da Faculdade de Medicina de Marilia. A diretoria era composta, ainda, pelo Presidente Eleito Carlos Eduardo Veloso de Almeida, Secretário Geral José Maria Fernandes Neto e Tesoureira Cecília Maria Kalil Haddad. Neste período, foram realizadas as Jornadas de Física Médica de Ribeirão Preto, que eu coordenei em março de 1983; a Jornada de Física Médica do Rio de Janeiro, em agosto do mesmo ano, coordenada por Ana Maria Campos Araújo; e o Congresso Brasileiro de Engenharia Biomédica, em Campinas, em setembro de 1985. Nesta reunião foi dada 10 Revista Brasileira de Física Médica. 2009;3(1):5-18. posse à nova diretoria da ABFM, presidida por Carlos Eduardo Veloso de Almeida, graduado em Física pela Universidade Federal da Bahia em 1967, mestrado em 1973 e doutorado em 1979 na M. D. Anderson Hospital and Tumor Institute da Universidade do Texas, Pós doutorado Bureau International des Poids et Measures (1986) e ex-Diretor do Instituto de Radioproteção e Dosimetria. Atualmente é professor e Coordenador do Laboratório de Ciências Radiológicas da UERJ. A composição da nova diretoria era formada ainda pelo Vice-Presidente José de Julio Rozental, o Secretário Geral Eugênio Roberto Cecatti e a Tesoureira Maria dos Prazeres Ventura Pfeffer. No período desta diretoria, devido ao aumento substancial de sócios, principalmente de regiões geograficamente mais afastadas, o Conselho da ABFM, em novembro 1983, aprovou o aumento do número de secretarias regionais e a criação do Conselho Editorial para responder pelas edições das publicações dos boletins. Nesta gestão teve inicio a discussão da minuta do convênio CNEN/ ABFM21. Em 1984, durante a 36a reunião da Sociedade Brasileira para o Progresso da Ciência (SBPC), foi realizada sob minha coordenação a Reunião do 15o aniversário da ABFM. Em 1985 foram realizados dois eventos: a Jornada de Física Médica de Juiz de Fora, no Estado de Minas Gerais, coordenada por José Galdino Ulysses, e o 1o Congresso Brasileiro de físicos em Medicina, juntamente com o 20o Congresso Brasileiro de Radiologia, o 4o Congresso Brasileiro de Ultrassonografia e o 2o Congresso Latino-americano de Ultrassonografia, em Belo Horizonte. Durante a Assembleia Geral, foi concedido o título de Sócio Honorário ao professor Adelino José Pereira, pela sua dedicação e prestação de serviços à comunidade e à ABFM. Em julho de 1984, com a participação de vários sócios, foi fundada a Associação Latino-americana de Física Médica (ALFIM), durante a 26a reunião anual da American Association of Medical Physics e a 1a Reunião Interamericana de Física, em Chicago, nos Estados Unidos. Para o período de 1985 a 1987, assumiu como Presidente José de Julio Rozental, formado em física em 1957, pós-graduação na Escola de Engenharia da Universidade do Brasil. Em 1967, foi bolsista no Oak Ridge Institute of Nuclear Studies, no Tennessee, Estados Unidos, para se especializar em proteção radiológica. De 1973 a 1989 dedicou sua vida, trabalhando na CNEN, nas funções de regulamentação, proteção radiológica, inspeção de instalações radioativas e segurança física e radiológica. Hoje é consultor científico para assuntos de segurança na AIEA. Em 2004 recebeu das mãos do Ministro da Ciência e Tecnologia, Eduardo Campos, a medalha Carneiro Felipe, que é a mais alta condecoração da CNEN. Segundo Rozental, seu programa de trabalho contou com forte apoio e dedicação efetiva de seus colegas de diretoria: Presidente Eleito Homero Cavalcante Melo, Secretário Geral Pedro Paulo Pereira Junior e a Tesoureira Sônia Garcia Pereira Cecatti. Neste período, foram realizados dois convênios importantes entre a CNEN e o Colégio Histórico da Associação Brasileira de Física Médica e sua contribuição para a evolução da Física Médica no Brasil Brasileiro de Radiologia (CBR), e entre a CNEN e a ABFM. Com base no convênio CNEN-ABFM, tendo em vista que os programas para especialistas em Física Médica incluíam uma parte especifica de Proteção Radiológica, a CNEN reconhecia os títulos de especialistas em Física Médica, aprovados pela ABFM como Supervisores de Proteção Radiológica nas três áreas afins. Neste período foram realizados os seguintes eventos: o Simpósio de Física Médica Esther Nunes Pereira, por ocasião da 38a Reunião Anual da SBPC, realizada em 1986 em Curitiba, e o 2o Congresso Brasileiro de físicos em Medicina, em conjunto com o 21o Congresso Brasileiro de Radiologia, realizado em São Paulo. Em 1986, foi criado no Departamento de Física e Matemática da Faculdade de Filosofia, Ciências e Letras de Ribeirão Preto (FFCLRP), da USP na cidade de Ribeirão Preto, o Curso de Mestrado em Física Aplicada à Medicina e Biologia, que impulsionou a evolução da Física Médica no interior do Estado de São Paulo. Em outubro de 1987, assumiu a Presidência Homero Cavalcante Melo, formado em Geologia, se especializando em Geofísica em 1972. Em 1973, inicia sua carreira trabalhando no Centro de Energia Nuclear da UFPE e paralelamente desenvolve atividades em Radioterapia, trabalhando com o Dr. Ivo Roesler, no hospital do Câncer. Nesta época, é contratado pelo Centro Brasileiro de Tecnologia Nuclear/CBTN/CNEN, passando a ser o único funcionário fora da sede no Rio de Janeiro. Nesta época, Roberto Salvi e Carlos Austerlitz A. Lima Campos realizavam estágio no Hospital do Câncer. Em 1978, é convidado para trabalhar no Instituto de Radium e Supervoltagem Ivo Roesler, no Real Hospital Português, época em que foi instalado o primeiro acelerador linear no Recife. Homero foi um referencial para a Física Médica no Nordeste. Como Presidente da ABFM, atuou como supervisor durante o acidente com fonte de radio em Goiânia. Teve como companheiros de diretoria, além de mim como Presidente Eleito, a Secretária Geral Helen Jamil Khoury e a Tesoureira Lea Contier de Freitas. A posse da nova diretoria se deu durante o 2º Congresso Brasileiro de físicos em Medicina, coordenado por Marília Teixeira da Cruz e realizado, na cidade de São Paulo, poucas semanas após o trágico e mais grave acidente envolvendo equipamentos de tratamento médico com Césio-137, no dia 13 de setembro, em Goiânia. Em 1988, a ABFM se congregou durante a 40a Reunião Anual da SBPC, na cidade de São Paulo; com a colaboração de Laura Natal Rodrigues, foi acrescentada aos Anais a seção de Física Médica. Na Assembleia Geral da ABFM, realizada em julho de 1988 em São Paulo, foi discutida novamente a regulamentação da profissão de físico, sendo apresentada uma proposta para o projeto de regulamentação21, preocupação esta que já era compartilhada com a Sociedade Brasileira de Física (SBF). Nesta época, a ABFM já contava com 400 sócios. Nessa oportunidade, foi outorgado o título de Sócio Honorário da ABFM ao professor Thomaz Bitelli, como um dos fundadores, primeiro Presidente da Associação e pelos serviços prestados, principalmente pela sua contribuição para a motivação e formação de inúmeros especialistas em Física Médica. Em agosto de 1988, durante a reunião da IOMP em San Antonio, Estados Unidos, a ABFM e a Sociedade Brasileira de Engenharia, representadas por um número expressivo de sócios, apresentaram formalmente a candidatura do Brasil para realizar o World Congress on Medical Physics and Biomedical Engineering, cabendo ao então Presidente do Comitê de Educação e Treinamento da IOMP, Carlos Eduardo Veloso de Almeida, apresentar formalmente a candidatura do Brasil. Concorrendo com a França e a Hungria, o país foi escolhido como sede do Congresso a se realizar no Rio de Janeiro em 199422. Em novembro de 1988, foi realizado em Bariloche na Argentina o 1º Workshop de Física Médica, coordenado pelo Dr. Omar A. Bernaola e contando com a colaboração, entre outros, de Mariana Levi de Cabreja, Marcelo Rubio, Mônica Graciela Bruneto e a participação efetiva de sócios da ABFM. Nesta ocasião, foi criada a Sociedade Argentina de Física Médica e decidiu-se que o 2o Workshop em Física Médica seria realizado em outubro de 1990 na cidade de Ribeirão Preto, sob a minha coordenação. No meu retorno, tendo sido convidado pelo sócio Aristides Marques de Oliveira Neto, o Diretor professor Antonio Dias Nunes solicitou minha ajuda para assessorálo, juntamente com outros professores do Departamento na implantação de um curso de Física com ênfase em Física Médica, que funciona desde 1992. Na minha volta, recebi um convite do professor Shigueo Watanabe para presidir o 3o Congresso Brasileiro de físicos em Medicina, realizado em Águas de Lindoia, em agosto de 1989. Além da grande quantidade de trabalhos apresentados, houve participação expressiva de sócios: aproximadamente duas centenas, conforme pode ser visto, na Figura 423. Nesta reunião, tive o prazer e orgulho de tomar posse como Presidente da ABFM juntamente com os demais membros da diretoria: Vice-Presidente Marília Teixeira da Cruz, Secretário Geral Homero Lavieri Martins e o Tesoureiro Carlos Alberto Pelá. Em outubro de 1990 foi realizado também, na cidade de Ribeirão Preto, a Figura 4. 3º Congresso Brasileiro de físicos em Medicina realizado em Águas de Lindoia; a imagem mostra parte dos 200 participantes da reunião, em agosto de 1989. Revista Brasileira de Física Médica. 2009;3(1):5-18. 11 Ghilardi Netto, T 5ª Reunião Latino-americana de Física Médica, o 2o Workshop de Física Médica, o 1o Workshop de Física Médica e Engenharia Biomédica, sob minha coordenação, em conjunto com 12o Congresso Brasileiro de Engenharia Biomédica, coordenado por José B. Portugal Paulin. As reuniões foram realizadas em conjunto para atender uma das exigências da IOMP no sentido de aprovar a realização do World Congress on Medical Physics and Biomedical Engineering, que seria realizado no Brasil em 1994. Esta reunião contou com a participação de 280 inscritos, entre sócios e estudantes. Neste período, durante a Assembleia Geral, foi concedido o título de Sócia Honorária à professora Marília Teixeira da Cruz pela sua dedicação ao ensino, principalmente ligado à Física Médica, e sua contribuição para o crescimento da ABFM. Em agosto de 1991, transmiti o cargo à nova diretoria, tendo como Presidenta Marilia Teixeira da Cruz, Presidente Eleito Shigueo Watanabe, Secretário Geral Homero Lavieri Martins e Tesoureira Regina Maria Godoy Lopes. A professora Marilia realizou o seu doutoramento no Instituto de Física da USP. Além de exercer a Presidência, foi também tesoureira durante oito anos, iniciando em agosto de 1974. Como professora do Instituto de Física da USP, juntamente com os professores Shigueo Watanabe e Emico Okuno foi uma das primeiras incentivadoras de estudantes à prática de Física das Radiações aplicada à Biomédica. Neste período foi realizado o 1o Fórum Nacional de Ciência e Tecnologia em Saúde, conjuntamente com o 13o Congresso Brasileiro de Engenharia Biomédica, o 4o Congresso Brasileiro de físicos em Medicina, o Encontro de Brasileiro de Biologia e Medicina Nuclear e o Encontro de Proteção Radiológica, realizada em Caxambu sob a coordenação de Homero Lavieri Martins, dando continuidade aos compromissos assumidos entre ABFM e a Sociedade Brasileira de Engenharia Biomédica (SBEB), na reunião realizada na cidade de Ribeirão Preto. Neste período, o Boletim da ABFM entrou na era da informática, editorado por Renato Dimenstein, com seções em homenagem aos desbravadores das radiações ionizantes, evidenciando assuntos em evolução e em desenvolvimento no Brasil. Durante a assembleia realizada em 23 Figura 5. Imagem dos professores e alunos da 1ª turma de Física Médica da FFCLRP. 12 Revista Brasileira de Física Médica. 2009;3(1):5-18. de novembro de 1992 foi aprovado a mudança, de titulação do cargo de Presidente Eleito para Vice-Presidente22, a partir desta data, foi modificada a representação, pois, anteriormente, havia a figura do Presidente e Presidente Eleito que, algumas vezes, apresentou dificuldades burocráticas para a diretoria. Os associados passaram a eleger o Presidente e o Vice-Presidente. Em maio 1993, com a renuncia do professor Watanabe por carta23, assumi novamente a Presidência, contando com a colaboração da Vice-Presidenta Cecil Chow Robilota, Secretário Geral Homero Lavieri Martins, e o Tesoureiro Francisco Carlos Diniz Carrieri, que teve participação fundamental para implementar a listagem de sócios. Ressalte-se que neste período foram introduzidos coordenadores ligados a cada uma das especialidades, além da representação internacional. Na época, foi indicado o sócio Cláudio Hissao Shibata. Seria importante ressaltar que a escolha do meu nome para presidir por duas vezes a ABFM se deve pelo apoio que recebi inicialmente de John Cameron, no período de agosto a dezembro de 1979, e posteriormente dos meus colegas e sócios da ABFM, representados aqui por Robert Lee Zimmerman e Oswaldo Baffa Filho, que colaboraram para o crescimento da Física Médica na USP na cidade de Ribeirão Preto, iniciado com a criação do curso de aprimoramento em Física Radiológica no Hospital das Clínicas em 1982, do curso de mestrado e a criação do Centro de Instrumentação, Dosimetria e Radioproteção, em 1986, e do doutoramento em 1995 na FFCLRP, na USP, culminando com a criação do curso de Física Médica em 1999 e, ainda, com a proposta da criação, em 1991, do Serviço de Física Médica e Radioproteção no Hospital das Clínicas. A imagem da Figura 5 mostra professores e alunos da 1ª turma de Física Médica da Faculdade de Filosofia, Ciências e Letras de Ribeirão Preto da Universidade de São Paulo. Eu ainda colaborei como assessor na implantação dos cursos com ênfase na Física Médica, da PUC do Rio Grande do Sul, em Porto Alegre, em 1990, e do Centro Universitário Franciscano de Santa Maria (UNIFRA), convidado por Evanberto Garcia Góes e do Curso de Física Médica da UNESP de Botucatu, convidado por José Ricardo de Arruda Mirando. Além dos cursos citados anteriormente e dos tradicionais cursos da USP e da PUC de São Paulo e da UFRJ, foram criados nesta década os cursos de Física Médica na Universidade Federal de Sergipe em 2001, o curso da Unicamp em 2003 e da Fundação Técnico Educacional Souza Marques no Rio de Janeiro. Em âmbito internacional, colaborei como assessor da Organização Pan-americana da Saúde na implantação do curso de mestrado em Física Médica na Universidade de Buenos Aires e de graduação na Universidade de San Martín, no início da década de 1990. Em outubro de 1992, durante o 3o Workshop de Física Médica realizado em Entre Rios, na Argentina, fui eleito Presidente da ALFIM e, tendo como componentes da diretoria a Vice-Presidenta Helen Jamil Khoury e Secretário Histórico da Associação Brasileira de Física Médica e sua contribuição para a evolução da Física Médica no Brasil Oswaldo Baffa Filho, com o compromisso de revitalizar e reestruturar a Associação que até então tinha como Presidente Victor Tovar Munoz do México e Vice-Presidente German Ramires da Colômbia. Posteriormente, durante o 4o Workshop Argentino de Física Médica, realizado no Rio de Janeiro em 1994, o estatuto da Associação foi apresentado, discutido e aprovado pelos sócios presentes, que na época totalizavam 101 sócios22. A partir de 1996 passaram a ser realizados os Congressos Ibero-latinoamericano e do Caribe de Física Médica. Em maio de 2010 será realizado o 6o Congresso em Cuzco, no Peru. No Brasil, a formação de pós-graduação em áreas de Física Aplicada à Biociência era realizada nos cursos tradicionais com ênfase nas áreas de interesse de cada instituição; a partir dos anos 80, porém, iniciou-se a criação de cursos de aprimoramento, aperfeiçoamento e de pós-graduação nas áreas específicas. Assim sendo, foram criados cursos de aprimoramento nos seguintes hospitais: Radioterapia, nos hospitais A. C. Camargo, Sírio Libanês, no hospital da Unicamp, nos Hospitais das Clinicas da USP, no Hospital do Câncer de Barretos, no Hospital da Liga Paranaense de Combate ao Câncer, em Curitiba, no Hospital do Câncer em Goiânia, e em Medicina Nuclear no CMN da USP; radiodiagnóstico no hospital da Escola Paulista de Medicina; e radioterapia e radiodiagnóstico no INCA e radiodiagnóstico e medicina nuclear no Hospital das Clínicas de Ribeirão Preto. Alem desses cursos, podem ser destacadas as seguintes instituições que oferecem cursos de pós-graduação em Física Médica: Instituto de Física e FFCL de Ribeirão Preto da USP, Instituto de Física Gleb Wataghin da Universidade de Campinas, IPEN/ CNEN/SP, COPPE/UFRJ, UERJ, IRD/CNEN/RJ, CDTN/ CNEN/BH, PUC/RGS. Neste período foram realizados o World Congress on Medical Physics and Biomedical Engineering, o 10th International Conference on Medical Physics, o 17th International Conference on Medical and Biological Engineeering, o 2nd National Forum of Science and Technology in Health, o 5th Brazilian Congress of Physicists in Medicine, o 14th Brazilian Congress on Biomedical Engineering, o 2nd Argentinean Congress on Bioengineering and Medical Physics organized and Sponsored by ABFM, SBEB, IOMP, IUPESM, IFMBE, 1994 no Rio de Janeiro, tendo como co-coordenadores Carlos Eduardo Veloso de Almeida pela ABFM e Antonio Giannella Neto pelo CBEB e tendo como editores Laura Natal Rodrigues e Jurandir Nadal. Neste período, durante a Assembleia Geral, foi concedido o título de Sócia Honorária à professora Marilia Teixeira da Cruz, pela sua dedicação ao ensino, principalmente ligado à Física Médica e sua contribuição para o crescimento da ABFM. Após o acidente de Goiânia em agosto de 1987, a CNEN – na época Presidida pelo Dr. Rex Nazaré – aprovou a implantação de um programa visando a promoção do uso de radiações ionizantes em benefício da saúde do homem, para garantir a segurança dos pacientes, dos profissionais envolvidos, da população em geral e do meio ambiente – e para isso institucionalizou o Programa Saúde CNEN que era coordenado por Luís Hiroshi Sakamoto e secretariado por Roberto Sávio, que reuniu, em 1991, no Ministério da Saúde, um grupo para assessorá-lo, que na época era formado por Helen Jamil Khoury, Ricardo Tadeu Lopes, da COPPE/UFRJ e eu, que após vários trabalhos de organização, em setembro de 1992, sugeriu ao Secretário de Vigilância Sanitária a formação de um Grupo que representasse todas sociedades envolvidas com radiação ionizante. Em 1994 a Secretaria de Vigilância Sanitária do Ministério da Saúde criou o Grupo Assessor Técnico-Científico em Radiações Ionizantes; no período de 1994 a 2000, fizeram parte desse grupo os sócios: Clóvis Abrahão Hazim, Carlos Alberto Pelá, Carlos Eduardo Veloso de Almeida, Helvécio Correa Mota, Giam Maria A.A. Sordi e José Barreira Filho, que durante esses anos gerenciou os assuntos ligados à área de radiação ionizante, culminando com a publicação da Portaria 45324, graças à eficiência da Secretária de Vigilância Sanitária, Dra. Marta Nóbrega Martinez e a dedicação da doutora Mônica Mulser Parada Toscana Chefe dos Serviços da Secretaria de Vigilância Sanitária do Ministério de Saúde. Em 2005 foi publicado o Guia “Radiodiagnóstico médico: desempenho de equipamentos e segurança do Ministério da Saúde”25. Ressaltando que em dezembro de 1994, para disciplinar as ações em radiodiagnóstico no Estado de São Paulo, já havia sido publicada a Resolução 625 pela Vigilância Sanitária da Secretaria da Saúde do Estado de São Paulo26. Dando seqüência aos trabalhos, a Agência Nacional de Vigilância Sanitária (ANVISA), contando com a colaboração de sócios da ABFM, publicou em fevereiro de 2006 a Resolução RDC 20, que estabelece o regulamento técnico para funcionamento de serviços de radioterapia; e em 4 de junho de 2008, a RDC 38, que regulamenta serviços de Medicina. Ressalte-se ainda que a CNEN, durante estes últimos anos, atualizou várias das suas normas. Em agosto de 1995, a diretoria da ABFM passou a ter como Presidenta Cecil Show Robilotta, PhD em Medical Physics pela University of London (1980), com experiência na área de Física, com ênfase na Física Médica, atuando principalmente nos seguintes temas: SPECT, PET, reconstrução tomográfica, instrumentação, controle e gerenciamento de qualidade na Medicina Nuclear. Atualmente, participa de projetos de cooperação técnica em PET e SPECT junto ao Hospital das Clínicas da USP, nos Serviços de Medicina Nuclear do Instituto de Radiologia e do Instituto do Coração. Sendo atualmente orientadora de pós-graduação, atua em atividades de divulgação de ciência e tecnologia no Instituto de Física da USP. Em junho de 1996, com a renuncia da Presidenta devido a compromissos de pós-doutorado no exterior, a diretoria da ABFM deu posse à Vice-Presidenta Laura Funari, física com bacharelado e licenciatura em 1965, e mestrado em 1969 pelo Instituto de Física da USP e sendo formada também no Curso de Tecnólogo em Análise de Sistemas Computacionais da Faculdade de Tecnologia de São Paulo. Profissionalmente, Revista Brasileira de Física Médica. 2009;3(1):5-18. 13 Ghilardi Netto, T desenvolve atividades na Física Médica desde 1976, no Hospital da Beneficência Portuguesa e Instituto de Radiologia do Hospital das Clínicas da Faculdade de Medicina da USP. A diretoria esteve formada ainda pelo Secretário Geral Homero Lavieri Martins, e o Tesoureiro Francisco Carlos Diniz Carrieri. Em 1996, foi realizado em Campos do Jordão o 3o Fórum Nacional de Ciência e Tecnologia em Saúde, o 15º Congresso Brasileiro de Engenharia Biomédica, o 6o Congresso Brasileiro de físicos em Medicina, o 5o Congresso Brasileiro de Informática em Saúde, e o Encontro Brasileiro de Proteção Radiológica, mantendo assim a tradição de realizar os congressos da SBEB e ABFM conjuntamente. No período de dezembro 1997 a novembro de 1999, a diretoria era formada pelo Presidente Sérgio Quirino Brunetto. Desde 1991 é responsável pelo Grupo de Medicina Nuclear da Área de Física Médica do Centro Engenharia Biomédica da Unicamp. A diretoria era composta ainda pelo Vice-Presidente Carlos José Cardoso de Oliveira Junior, Secretário Geral Roberto Contreras Pitorri e a Tesoureira Adelaide de Almeida. Neste período foi realizado o 4o Fórum Nacional de Ciência e Tecnologia em Saúde, o 16o Congresso Brasileiro de Engenharia Biomédica, o 7o Congresso Brasileiro de físicos em Medicina e o Encontro Brasileiro de Proteção Radiológica, na cidade de Curitiba, em 1997. Neste ano faleceu o físico Eugênio Cecatti, que iniciou as suas atividades no Centro de Oncologia de Campinas e organizou a Área de Metrologia do IRD-CNEN. Para o período de 1999 a 2001 assumiu a presidência Helvécio Correa Mota, graduado em Física na Universidade Federal da Paraíba em 1970, iniciando suas atividades na Universidade Federal da Paraíba como professor Assistente em 1976, em 1980 se transferiu para o IRD/ CNEN. Em 1991 doutorou-se em Biofísica, sob a orientação do professor Eduardo Penna Franca. Posteriormente assumiu a chefia do Departamento de Física Médica. Em 2003 transferiu-se para os Estados Unidos para realizar pós-doutorado na, East Carolina University. A diretoria era composta, ainda, pelo vice-presidente José Carlos da Cruz, a Secretária Geral Maria Helena da Hora Marechal e o Tesoureiro Renato Di Prinzio. Neste período foi realizado o Congresso Brasileiro de Física Médica no Rio de Janeiro, conjuntamente com o 3o Encontro da Sociedade Brasileira de Radioterapia e a 31a Jornada Paulista de Radiologia, com a participação efetiva de sócios da ABFM, tendo como presidente Helvécio Correa Mota. Na Assembleia Geral realizada durante o congresso, foi outorgado o título de Sócio Honorário ao professor Alípio Luiz Dias Neto – pelos relevantes serviços prestados à ABFM, em especial ligado as atividades de Medicina Nuclear – e à professora Cari Borrás – pela sua sempre dedicada colaboração à ABFM e pelos serviços prestados como membro da Organização Pan-americana da Saúde e Organização Mundial da Saúde27. Em 5 de setembro de 1998, na cidade de Belo Horizonte, Minas Gerais, foi criada a Sociedade Brasileira de Radioterapia, durante a realização do XXVII Congresso 14 Revista Brasileira de Física Médica. 2009;3(1):5-18. Brasileiro do CBR. No ano seguinte, em 1999, foi realizado o 1o Congresso Brasileiro de Radioterapia, na cidade de Barretos, com a participação de um número significante de físicos Médicos; e em 2001, na cidade de Blumenau, Santa Catarina, foi realizada a 1a Jornada de Física Médica, em conjunto com o 3o Congresso da Sociedade Brasileira de Radioterapia. A partir daquele ano, as jornadas vêm sendo realizadas em conjunto com o congresso, sendo que neste ano foram realizadas as reuniões da 9a Jornada de Física Médica e o 11o Congresso Brasileiro de Radioterapia. Durante esta década, vem sendo desenvolvido no Instituto Nacional do Câncer, coordenado pela física Ana Maria Campos Araujo, o Programa de Qualidade em Radioterapia, que entre outros objetivos visa estimular e promover a capacitação dos profissionais vinculados à radioterapia e estabelecer e recomendar condutas técnicas que garantam o cumprimento da dose prescrita no volume tumoral. Em 13 de setembro de 2003 tomou posse a nova diretoria, sob a presidência de José Carlos da Cruz, bacharel em Física pelo Instituto de Física da USP em 1979 e doutor em Ciências, com ênfase em Radioterapia, pela Faculdade de Medicina da Universidade Federal de São Paulo em 2002. Atualmente é coordenador do Serviço de Física Médica do Hospital Israelita Albert Einstein, atuando em Radioterapia, mais especificamente em Tele-terapia, Braquiterapia intracavitária; Radiocirurgia, Radioterapia intra-operatória, IMRT, IGRT, Dosimetria in vivo, planejamento virtual e gerenciamento de serviço de radioterapia. A composição da nova diretoria incluía o Vice-Presidente Homero Lavieri Martins, Secretária Geral Silmara Luci Vernucio e Tesoureiro Renato Di Prinzio. Nesta gestão foi criada a ABFM News, com a colaboração de Laura Natal Rodrigues. Neste período foram realizados o 8o Congresso Brasileiro de Física Médica, coordenado por Ana Maria Marques da Silva, na PUC do Rio Grande do Sul, e o 1o Simpósio de Instrumentação e Imagens Médicas, em parceria com a SBEB, sendo coordenado por Homero Schiabel e Paulo Roberto Costa, realizado em São Paulo. Também foi realizado, no Rio de Janeiro, o 1o Workshop Internacional em IMRT/IGRT e o 2o Workshop Internacional em PD/PDT, coordenado por Helvécio Corrêa Mota e Cláudio Hissao Shibata. Em 2004 foi realizado o 9o Congresso Brasileiro de Física Médica em conjunto com o 3o Congresso Iberolatino-americano e do Caribe de Física Médica, na cidade do Rio de Janeiro, sendo coordenado por Helvécio Correa Mota. Durante a Assembleia da ABFM, coordenada pelo Vice-Presidente Homero Lavieri Martins, fui surpreendido com a premiação do título de Sócio Honorário, que honrosamente recebi das mãos do Vice-Presidente. Em dezembro de 2003, em reunião do Conselho Deliberativo, a nova direção da ABFM tomou posse para o biênio de 2003 a 2005, sendo o cargo transmitido ao Presidente Homero Lavieri, graduado em Física e com mestrado no Instituto de Física da USP em 1984, responsável pelo Serviço de Física Médica da Santa Casa Histórico da Associação Brasileira de Física Médica e sua contribuição para a evolução da Física Médica no Brasil de São Paulo e ultimamente responsável pelo ensino no Serviço de Física Médica do Hospital A. C. Camargo. Foi Supervisor do Serviço de Física Médica do Hospital Amaral Carvalho, em Jaú. Durante oito anos, foi Secretário Geral da ABFM. Convém destacar, também, a sua luta pela retomada da discussão da regulamentação da profissão de físico. Além do Presidente, tomaram posse o vice-presidente Paulo Roberto Costa, a Secretária Geral Márcia de Carvalho Silva e o Tesoureiro Renato de Prinzio, pela terceira vez consecutiva. Cabe aqui ressaltar a sua dedicação tanto do ponto de vista de aumento do número de sócios como pelos serviços prestados na informatização da ABFM. Neste período foi realizado o 10o Congresso de Brasileiro de Física Médica, em Salvador, sendo presidido por Edmário Guimarães Costa. Em janeiro de 2005 foi lançado o Jornal da ABFM, intitulado Física Médica em Foco, cujo responsável era o jornalista Fabio Siqueira, inclusive com entrevistas homenageando Ex-presidentes; também foi criada a Revista Brasileira de Física Médica, totalmente eletrônica e desenvolvida inteiramente na ABFM, com submissão, analise e emissão de parecer pelos referees online, aprovado pelo professor Silvio Salinas, editor da Brazilian Journal of Physics, que se interessou em implantá-la nas revistas da SBF. A imagem da Figura 6 mostra membros da equipe de Física Médica do Hospital das Clínicas da Faculdade de Medicina da USP. Em 15 de dezembro de 2005 em reunião do Conselho Deliberativo tomou posse a nova direção da ABFM, para o biênio 2006-2007, quando o Presidente Homero Laviéri Martins, na cidade de São Paulo, deu posse a Presidente Laura Natal Rodrigues, bacharel em Física pelo IFUSP, em 1980, mestre em Física Aplicada pelo IFSCUSP, em 1984 e doutoramento em Biofísica pela UFRJ em parceria com o Instituto Karolinska na Universidade de Estocolmo em 1993. Pesquisadora da CNEN desde 1984 no IRD até 2001 e posteriormente no IPEN até o momento. Editora da Revista de Física Médica de 2004 a 2008 e Supervisora pelo programa de aprimoramento do HCFMUSP desde 2004. Além da Presidente tomaram posse o VicePresidente Paulo Roberto Costa, a Secretária Geral Márcia de Carvalho Silva e o Tesoureiro Renato Di Prinzio. Neste período foram realizados o 11o Congresso Brasileiro de Física Médica, contando com a participação de 850 inscritos com um número expressivo de alunos de todos os níveis, sob a minha Presidência e de Oswaldo Baffa Filho em 2006 na cidade de Ribeirão Preto; e o 2o Workshop Internacional em IMRT/IGRT e o 3o Workshop Internacional em PD/PDT no Rio de Janeiro, tendo como Coordenadores Claudio Shibata e Wanderley Bagnato. Nesta gestão contando com a colaboração de Homero Lavieri Martins criou-se a “Física Médica em Foco” revista de divulgação da ABFM para os sócios. Remodelação da revista acima, com nova equipe de jornalistas e novo layout e enfoque “Núcleo da Matéria“ e finalmente promoveu uma reunião com o Vice-Presidente do CNPq para apresentação e entrega do documento, com o levantamento da massa crítica dos pesquisadores da área de Física Médica, por ocasião da revisão da tabela de áreas de conhecimento do Conselho Nacional de Pesquisa (CNPq). Aprovação do Código de Ética que já vinha sendo discutido pelos Ex-Presidentes e cujo documento inicial foi elaborado pelo Ex-Presidente José de Julio Rozental que na gestão do Presidente Helvécio Corrêa Mota foi finalmente finalizado, na reunião do Conselho deliberativo realizada durante o Congresso e aprovado pela Assembleia Geral na cidade de Porto Alegre, em 2003. A Figura 7 mostra a imagem dos participantes do 1o Workshop sobre calibração de Instrumentos para controle de qualidade de equipamentos de diagnóstico, realizado na cidade de São Paulo e promovido pelo IPEN e pelo Instituto de Eletrotécnica e Energia. Em dezembro de 2007, assumiu a presidência Paulo Roberto Costa, bacharel em Física em 1989, mestrado em Física em 1993 e doutorado em Tecnologia Nuclear em 1999, todos obtidos na USP. A partir de 2000 foi Diretor do Serviço Técnico de Aplicações Medico Hospitalares do Figura 6. Equipe de Física Médica do Hospital das Clínicas da FM-USP. Entre os presentes, estão: a professora Laura Natal Rodrigues e, da esquerda para direita, os estudantes Guilherme, Rodrigo, Marco Antonio, Dalila, Bruno, Gisela e Fábio. Figura 7. 1o Workshop sobre Calibração de Instrumentos Para Controle de Qualidade de Equipamentos de Diagnóstico, realizado na cidade de São Paulo e promovido pelo IPEN e pelo Instituto de Eletrotécnica e Energia. Revista Brasileira de Física Médica. 2009;3(1):5-18. 15 Ghilardi Netto, T Instituto de Eletrotécnica e Energia da USP. Atualmente é professor doutor no Departamento de Física Nuclear do Instituto de Física da USP. A diretoria é ainda composta pelos seguintes membros: Vice-Presidente Edmário Guimarães Costa, Secretária Geral Maria Esmeralda Poli e a Tesoureira Vilma Aparecida Ferrari. Durante a gestão dessa diretoria foi realizado o 13o Congresso de Física Médica na cidade de Belo Horizonte, em julho de 2008, coordenado por Carlos Malamut e Eugênio Del Vigna Filho; a coordenação cientifica ficou a cargo de Teógenes Augusto da Silva. No de período de 19 a 21 de agosto de 2009 foi realizado o 1o Congresso de Física Médica da Unicamp. Esta gestão empenhou-se intensamente para que o Congresso Brasileiro de Física Médica reflita a importância da data comemorativa dos seus 40 anos de atividades sob a coordenação de Homero Lavieri Martins, além de dar continuidade à publicação do ABFM News, da Revista Brasileira de Física Médica, da campanha de reintegração de sócios inadimplentes com ampla adesão e revisão das regras para a obtenção do título de Especialista. Entre as muitas frentes de atuação, vale destacar a aprovação da parceria com a SBF, tornando a ABFM sua co-irmã. Dentre os muitos benefícios que esta parceria deverá trazer, um destes que já esta disponível é o da possibilidade de adesão a um seguro-saúde específico para os seus membros. Colaboram nesta gestão, como Diretores de Área, Tânia Correia Furquim (Radiodiagnóstico), Valter Siqueira Paes (Medicina Nuclear), Homero Lavieri Martins (Radioterapia). O Secretário da Região Centro–Sudeste é Fernando Meca Augusto; Região Sul, Vinicius Bortolloto; e Região Norte, Daniel Couro da Silva. Finalmente, a elaboração de propostas para sediar a Conferência Internacional de Física Médica em 2011, na cidade de Porto Alegre, e o Congresso Mundial de Física Médica e Engenharia Biomédica em 2015, em Recife. O próximo Congresso será realizado na cidade de Aracajú, em Sergipe, e está sendo coordenado por Ana Figueiredo Maia e sua equipe de trabalho. Antes de finalizar gostaria de dizer que foi um prazer poder escrever este histórico, cujo relato, em sua maioria, não foi retirada de documentos oficiais da ABFM, portanto está sujeito a algumas falhas; os interessados poderão enviar sugestões, que serão bem-vindas para que se possa, futuramente, complementar o histórico. Agradeço à Ana Maria Campos de Araújo, Aristides Marques de Oliveira, Gustavo Lazzaro Barbi, Homero Lavieri Martins, José de Julio Rozental, Laura Furnari, Laura Natal Rodrigues, Marcelo Baptista de Freitas e Shigueo Watanabe pelas informações e fotos fornecidas e a Alexandre Parizzote, Renato Atir Bachiéga Ghilardi, Ana Luiza Ghilardi Valin e Vilma Maria de Faria Locci pela colaboração durante a execução do trabalho. Um agradecimento especial ao corpo editorial pelas sugestões e revisão do trabalho. Para finalizar gostaria de deixar uma mensagem do professor Emérito do Instituto de Física de São Carlos da USP, Sérgio Mascarenhas, que foi incluída em um texto de sua autoria: “Ciência e Tecnologia sem complementação dos ricos traços humanísticos de nossa cultura multi-racial 16 Revista Brasileira de Física Médica. 2009;3(1):5-18. e tradições artísticas, literárias, musicais e esportivas não bastam para atingir os objetivos de formar uma nova plataforma de valores e cidadãos para o lançamento deste ‘novo amanhecer’”. Referências 1. Haggith JW. History of the Hospital Physicists’ Association 1943-1983. (Northumbert Press, Ltd., Gatesthead, U.K, 1983). Medical Physics. 1988;25(7):1235-6. 2. Laughlin SJ, Goodwin PN. History of the American Association of Physicists in Medicine 1958-1998, Med Phys 1998; 25(7 Pt 2):1235-383. 3. Arnott N. Elements of Physics or Natural Philosophy, General and Medical, 3rd ed. (Longman, Rebs, Orme, Brow and Green; and T. and G. Underwood, London, England, 1928); reviewed by Lanzl L.H. Med Phys. 1983;20: 1571-2. 4. Ghilardi Netto T. O papel da Física Médica na evolução da ciência e da tecnologia moderna, Boletim Informativo da ABFM. São Paulo: ABFM. 1982;24:20-32. 5. Bitelli T. Dosimetria e higiene das radiações, 1. ed. São Paulo: Grêmio Politécnico; 2. ed. Rio de Janeiro: Atheneu; 2006. 6. del Regato JA. Comments on “My dear Eve…”: letters of Ernest Rutherford to Arthur Stewart Eve. Med Phys. 1992;19(2):261-2. 7. Webster EW. The origins of Medical Physics in the USA: William Duane, Ph.D., 1913-1920. Med. Phys. 1993;20(6):1607-10. 8. Gagliardi RA. “Radiology: a century of achievement”. AJR, Am. J. Roentgenol. 1995;(165):505-8. 9. Mould RF. “The early history of x-ray diagnosis with emphasis on the contributions of Physics 1895-1915,” Phys Med Biol. 1995;40(11): 1741-87. 10. Knight N. Seventy-five years of the RSNA (Radiological Society of North America), approaching a century of Radiology: museum and information resources. Radiographics. 1989;9(6):1101-11. 11. Boag JW, Ellis RE. Report of a discussion on international organization in Medical Physics: Phys Med Biol. 1960;4:223-37. 12. Watanabe S. Conferência do 10º Aniversário da ABFM. Anais da Conferência do 10º Aniversário da ABFM; Cidade de São Paulo, São Paulo: ABFM; 1979. p. iii-iv. 13. Bitelli T. Retrospectiva dos vinte anos da ABFM. In: Anais do 3º Congresso Brasileiro de Físicos em Medicina; 1989; Águas de Lindóia. São Paulo: ABFM; 1989. p. 1-3. 14. VIzeu DM, editor. Proceedings of the 1st Latin Conference on Physics in Medicine and Radiation Protection; 1972; São Paulo: ABFM edited; 1973. 15. Watanabe S, editor. Boletim Informativo da ABFM. São Paulo: ABFM; 1971. p. 1. 16. Lederman M, Vizeu DM. Installation, Operation and Maintenance of the L.A. Clinac 4 at Instituto de Radioterapia Oswaldo Cruz. In: Proceedings of the 1st Latin Conference on Physics in Medicine and Radiation Protection; 1972; São Paulo. São Paulo: ABFM; 1973. p. 79-83. 17. Proceedings of the 2nd Latin American Conference on Physics in Medicine and Radiation Protection and 2nd Symposium on Utilization of Linear Accelerators in Medicine; 1975; Belo Horizonte. São Paulo: ABFM; 1975. 18. Watanabe S, Del Vigna E, editors. Proceedings of the International Seminar on Medical Physics; 1977. 19. Leme PR, Furnaro L, editores. Suplemento 4 da Associação Brasileira de Físicos em Medicina. Maio de 1979. 20. Newsletter of the 3rd World Association of Medical Physics; Edited by TWAMP, 1987;2. 21. Dimenstein; R, editor. Boletim Informativo da ABFM, São Paulo: ABFM; 1994;37:2. Histórico da Associação Brasileira de Física Médica e sua contribuição para a evolução da Física Médica no Brasil 22. Dimenstein; R, editor. Boletim Informativo da ABFM. São Paulo: ABFM; 1993;34:10. 23. Watanabe; S. Anais do 3o Congresso Brasileiro de Físicos em Medicina; 1989; Águas de Lindóia. São Paulo: ABFM/ACIESP; 1989. 24. Agência Nacional de Vigilância Sanitária. Resolução nº 453. In: Ministério da Saúde. Diretrizes de Proteção Radiológica em Radiodiagnóstico Médico e Odontológico. Brasília: Ministério da Saúde; 1998. 25. Agência Nacional de Vigilância Sanitária. Radiodiagnóstico médico: desempenho de equipamentos e segurança. Brasília: ANVISA; 2005. 26. Vigilância Sanitária. Secretaria do Estado de São Paulo-SESP. Resolução SS 625; Normas de Proteção Radiológica em Radiodiagnóstico Médico e Odontológico; 1994. 27. Organización Panamericana de la Salud, Organización Mundial de la Salud. Garantia de Calidad en Radiodiagnóstico. Washington, DC: OPAS/OMS; 1984. Anexo 1. Ata de fundação da Associação Brasileira de Física Médica (ABFM). Revista Brasileira de Física Médica. 2009;3(1):5-18. 17 Ghilardi Netto, T 18 Revista Brasileira de Física Médica. 2009;3(1):5-18. Artigo de Revisão Revista Brasileira de Física Médica. 2009;3(1):19-23. Educación y entrenamiento clínico de físicos médicos en América Latina Educação e treinamento clínico de físicos médicos na América Latina María Ester Brandan1 Instituto de Física de la Universidad Nacional Autónoma de México, Distrito Federal/DF, México 1 Resumen Este trabajo analiza la cantidad de físicos médicos que se dedican al trabajo clínico en la región de América Latina y su formación profesional, con base en estadísticas de organizaciones internacionales. Se reportan recomendaciones recientes para la educación y el entrenamiento de estos especialistas. El análisis muestra carencias cuantitativas, el número de físicos médicos clínicos es aproximadamente igual a 500 y debería aumentar un factor de 2,4 para cubrir las necesidades mínimas de los servicios de radioterapia existentes; y cualitativas, sólo el 10% de estos profesionales tiene el grado de Maestría, o equivalente a nivel de postgrado. El sistema formativo regional no cuenta con suficientes programas de entrenamiento clínico supervisado y sólo un país tiene un proceso de certificación profesional. Se discuten iniciativas internacionales actuales de apoyo. Palabras clave: física sanitaria; educación; entrenamiento; formación de recursos humanos. Resumo Este trabalho analisa a quantidade de físicos médicos que tem se dedicado ao trabalho clínico na região da América Latina e sua formação profissional, a partir de dados estatísticos de organismos internacionais. São apresentadas as recomendações recentes para a educação e treinamento destes especialistas. A análise demonstra deficiências quantitativas, uma vez que o número de físicos médicos clínicos é aproximadamente igual a 500 e deveria aumentar por um fator de 2,4 para suprir a necessidade mínima dos serviços de radioterapia existentes, e qualitativas, visto que somente 10% desses profissionais tem título de mestrado, ou formação equivalente de pós-graduação. O sistema de educação regional não conta com programas de treinamento clínico supervisionado em número suficiente e somente um país tem um processo de certificação profissional. Iniciativas internacionais atuais de apoio são discutidas. Palavras-chaves: física sanitária; educação; treinamento; formação de recursos humanos. Introducción Física Médica es la aplicación de conceptos y técnicas de Física en la prevención, diagnóstico y tratamiento de las enfermedades del ser humano. Es un área de especialización dentro de la Física, como la Física Nuclear, la Física Estadística o la Física del Estado Sólido, y en el ámbito de la investigación comparte con estas los principios y herramientas. Sin embargo, la Física Médica también incluye, bajo el mismo nombre, un campo de desempeño profesional en el medio hospitalario que la distingue de las otras. El Físico Médico que trabaja en un centro de salud (llamado “físico médico clínico” en este trabajo) ayuda a garantizar la calidad del servicio clínico. Su responsabilidad primaria es optimizar el uso de la radiación para asegurar la calidad de un procedimiento de diagnóstico o de terapia. En el presente momento, organismos internacionales y asociaciones profesionales y académicas trabajan para precisar el perfil, responsabilidades, y requisitos de formación de un Físico en el medio clínico. Estos esfuerzos tienen como fin lograr que este profesional especializado pueda cumplir óptimamente su papel dentro del equipo multidisciplinario de un centro de salud moderno. Como en otros lugares, la llegada de los físicos a los hospitales de América Latina (AL) estuvo directamente asociada con la adquisición de los primeros equipos de radioterapia (RT) a mediados del siglo 20. En 1955, menos de cuatro años después del primer tratamiento de RT en Canadá, llegó el primer irradiador de cobalto a AL, un Eldorado, instalado en Río de Janeiro. Al año siguiente se contrató a los primeros físicos brasileños en hospitales de São Paulo y Río de Janeiro. En 1956 se instaló el primer irradiador en México, un Theratron Jr., en el Instituto Nacional de Cardiología del Distrito Federal y se creó el primer departamento de Física Correspondência: María Ester Brandan – Instituto de Física UNAM, A.P. 20-364, 01000 DF-MEXICO – e-mail: [email protected] Associação Brasileira de Física Médica® 19 Brandan ME Médica del país. Como ejemplos pioneros de organización profesional, en Mayo de 1962 se constituyó la Asociación Mexicana de Físicos de Hospital (precursora de la actual Asociación Mexicana de Física Médica), y en 1969 se fundó la Asociación Brasilera de Física Médica (ABFM)1,2. Este número especial de la Revista Brasilera de Física Médica precisamente recuerda este 40avo aniversario. En esos primeros tiempos, y debido a la falta de programas de especialización formales, la mayoría de los físicos e ingenieros locales adquirieron su entrenamiento con la experiencia diaria. Pero, el rápido avance en la complejidad del equipamiento hizo patente la necesidad de una formación profesional específica y rigurosa. La realidad es que hoy, medio siglo después del inicio de la RT en la región, todavía hay físicos médicos que ejercen en servicios médicos sin haber recibido la educación universitaria y/o el entrenamiento clínico deseables. Este trabajo describe en términos generales la situación de formación profesional de los (y las) físicos médicos de AL, las necesidades de desarrollo inmediato, y acciones relacionadas con la profesión que ocurren actualmente en organizaciones internacionales. He incluido parte de mi experiencia originada en la coordinación de un programa universitario de Física Médica. Los servicios de salud en AL La región de AL, con 560 millones de habitantes en el año 20053, está constituida por 41 países que hablan español, portugués o francés en América del Norte, Central y Sur, y el Caribe. Una característica de la región son las diferencias contrastantes de paisaje, clima y nivel de desarrollo entre países, e internamente dentro de cada uno. De acuerdo con estadísticas de las Naciones Unidas, en el año 20004, seis países (el 17% de la población total) pertenecían al nivel más alto (I) de servicios de salud (definido como ≥ 1 médico por 1.000 habitantes), 31 países (78,5% de la población) pertenecían al nivel II (1 médico por 1.000 a 3.000 habitantes), y 4 países (4,5% de la población) pertenecían al nivel III (1 médico por 3.000 a 10.000 habitantes). El 67% de la población reside en los cuatro países más poblados: Brasil, México, Colombia y Argentina. Cada año se detectan más de 940.000 nuevos casos de cáncer en AL y probablemente la mitad de estos necesitará un tratamiento de RT. Un análisis reciente de la situación regional en RT5 concluyó que hay 470 centros de RT en 18 países (desde 151 en Brasil a 1 en Nicaragua) que ofrecen tratamientos de megavoltaje con 60Co (396 unidades) y/o aceleradores lineales (314 linacs). El 75% de estos centros está ubicado en los cuatro países más poblados y, entre estos, sólo Argentina cuenta con un centro por millón de habitantes (parámetro de equipamiento considerado como adecuado). Otros países con una infraestructura similar en RT (basado en el mismo parámetro) son Chile, Panamá, Uruguay y Venezuela. El número de médicos radioterapeutas (también llamados radio-oncólogos) cualificados en la región se estimó en 933. El reporte5 concluye que la principal debilidad en la 20 Revista Brasileira de Física Médica. 2009;3(1):19-23. región no es la falta de equipos, sino de recursos humanos especializados y, en este caso particular, el número de médicos radioterapeutas debería aumentar 70% (hasta unos 1.600) para responder a las necesidades nacionales. Esta conclusión refleja una situación generalizada en la región: se invierte en equipos médicos de alto desarrollo tecnológico, en parte debido al prestigio institucional que la compra trae consigo, sin comprender que la tecnología avanzada requiere de una inversión simultánea en recursos humanos especializados. Como consecuencia, el equipo adquirido (muchas veces a precios muy altos relativos a las necesidades básicas de la población) termina usándose de manera rutinaria, sin explotar al máximo la inversión. La necesidad de físicos médicos El Organismo Internacional de Energía Atómica (OIEA) con la asesoría técnica de la Organización Panamerican de La Salud (OPS) realizó recientemente un estudio de la situación actual de los físicos médicos en AL. Uno de los resultados del proyecto ARCAL LXXXIII fue el documento “El físico médico: criterios y recomendaciones para su formación académica, entrenamiento clínico y certificación”6, que incluye recomendaciones específicas relativas a la educación, entrenamiento y certificación profesional del físico médico clínico. Fueron responsables por los contenidos del documento: Mónica Brunetto (Argentina), José Carlos da Cruz (Brasil), María Esperanza Castellanos (Colombia), Rodolfo AlfonsoLaguardia (Cuba), María Ester Brandan (México), Federico Gutt (Venezuela) y Pablo Jiménez (OPS, Washington DC), todos bajo la coordinación de Pedro Andreo (OIEA). Se espera que la orientación y las recomendaciones planteadas en el documento sean de utilidad para las autoridades de salud, protección radiológica y universitarias en todos los países con una problemática similar. La principal conclusión del análisis6 es que hay una carencia notable de físicos médicos en AL, y que aquellos actualmente en la clínica no han sido necesariamente formados de manera apropiada. Las estimaciones del documento del OIEA-OPS, basadas en estadísticas de 2007, indican que existen unos 500 físicos médicos clínicos en la región, mayoritariamente en servicios de RT. Siguiendo la regla simple de asociar un físico médico a cada 400 nuevos casos de cáncer, puede estimarse que se necesitan 1.200 especialistas en AL, sólo considerando la necesidad de físicos médicos clínicos especializados en RT. La estimación anterior debe considerarse sólo como primera aproximación, ya que ignora la necesidad de personal adicional asociado a las tecnologías más avanzadas, como son radiocirugía o RT de intensidad modulada, realidad para la cual se hacen recomendaciones concretas en el documento del OIEA-OPS. Esto significa que la cantidad actual de físicos médicos debería multiplicarse al menos por 2.4. Pero, la insuficiente cantidad es apenas parte del problema. La mayoría de los físicos médicos clínicos de la Educación y entrenamiento clínico de físicos médicos en América Latina región no han seguido un patrón estándar de educación universitaria y de entrenamiento clínico indispensable para ejercer independientemente. Este nivel de especialización profesional requiere educación específica en Física Médica a nivel de postgrado, complementada por un entrenamiento clínico supervisado. Los datos de 20035 indicaban que sólo el 10% de los físicos médicos clínicos latinoamericanos tenían el grado de Maestría (también llamado Magister, Máster o M.Sc.), el 68% tenía un grado universitario “específico en Física Médica” (a nivel de Licenciatura, Bacharelado o B.Sc.) y 22% tenían otros grados a nivel Licenciatura. Requisitos de formación para físicos médicos clínicos El documento del OIEA-OPS define al físico médico cualificado clínicamente, en algunos países podría llamarse especialista en Física Médica, como “un individuo competente para ejercer profesionalmente y de manera independiente, en una o más de las especialidades de la Física Médica. Trabajar de manera independiente significa trabajar sin la supervisión directa de un físico médico de más experiencia”6. Pueden existir físicos médicos cualificados clínicamente en RT (especialista en Física de la RT) o físicos médicos cualificados clínicamente en Diagnóstico por Imágenes (especialistas en Física del Diagnóstico por Imágenes). Las recomendaciones del documento del OIEAOPS relativas a la formación de estos especialistas Licenciatura en Física (o campo relacionado) recogen la opinión expresada por organismos profesionales de países industrializados, como la Federación Europea de Organizaciones de Física Médica (EFOMP) y la Asociación Estadounidense de Físicos en Medicina (AAPM). La formación de un físico médico cualificado clínicamente debe contemplar tres etapas: educación universitaria con énfasis en física, matemáticas y otros temas afines, especialización en las aplicaciones de la física en la medicina, y entrenamiento para el desarrollo de habilidades y competencias en la práctica clínica. Esto requiere tres elementos académicos/profesionales: formación académica de grado universitario; formación académica de postgrado y entrenamiento clínico formal supervisado. La Figura 1 indica los posibles caminos para lograr el objetivo, dependiendo de la formación de origen del interesado. En esta aparece una última especialización, denominada experto en Física Médica, que correspondería al más alto nivel de competencias en el área. El documento6 incluye los temas a cubrir en los cursos de postgrado y en las residencias clínicas del segundo y tercer elemento ya mencionados. Motivada, en parte, por el proceso de armonización del sistema educativo europeo (conocido como “proceso de Bolonia”), la EFOMP ha emitido recientemente el “Policy Statement 12”7 en que se establecen criterios de educación y de entrenamiento clínico para físicos médicos clínicos en Europa. Las recomendaciones son similares a las del documento del OIEA-OPS para nuestra región. 4-5 años Maestría o Doctorado en Física (o campo relacionado) 2-4 años Postgrado en Física Médica o en una rama de la Física Médica 1-2 años Completar, si es necesario, formación académica en Física Médica 1 año Entrenamiento clínico supervisado 2-3 años Físico médico cualificado clínicamente +6 años de práctica clínica Experto en Física Médica Figura 1. Elementos que conforman la formación profesional de un físico médico clínico, según las recomendaciones del OIEA-OPS6. Revista Brasileira de Física Médica. 2009;3(1):19-23. 21 Brandan ME Oferta regional de educación y entrenamiento clínico La oferta educativa universitaria en Física Médica ha evolucionado positivamente en los últimos años. El primer programa formal de Física Médica en la región se abrió en 1979 (curso “Física de la RT”, Instituto de Tecnología Nuclear Dan Beninson, Buenos Aires, Argentina, más de 120 titulados hasta la fecha) y el de postgrado se inició en 1986 (Maestría en Física Aplicada a Medicina y Biología, Universidade de São Paulo, Riberão Preto, SP, Brasil, más de 80 titulados a la fecha). En la actualidad, existen en la región unas 30 opciones universitarias de estudios en Física Médica, 13 a nivel de grado universitario (la mayoría son bacharelados en Brasil) y 17 a nivel de postgrado en Brasil, Cuba, Argentina, Colombia, México, Perú y Venezuela6. Las estadísticas del reporte del OIEA-OPS indican que a partir de 2002 hasta 2007, 240 individuos completaron en AL un postgrado en Física Médica (190 Maestrías y 48 Doctorados). Los programas con números mayores de titulados corresponden a Brasil (49%), México (24%), Venezuela (12%) y Argentina (11%). Cada año, en promedio, unas 40 personas con un grado de Maestría entran al mercado laboral regional. Por otro lado, la situación para las residencias clínicas es mucho menos auspiciosa. Hay 15 programas en sólo dos países, 12 en Brasil (llamados aprimoramentos) y tres en Argentina. En 2007, estas residencias ofrecieron un total de 26 plazas para entrenamiento clínico en RT y 9 en imágenes para diagnóstico6. Estos números son insuficientes para la cantidad de titulados que requieren el entrenamiento clínico posterior a la educación universitaria de postgrado. La situación es aún más crítica si se considera que sólo dos países ofrecen residencias. Un proceso de certificación profesional que garantice niveles apropiados de conocimientos y habilidades individuales en quienes completaron un programa completo de formación sólo existe en Brasil, ofrecido por la ABFM2,6. La Maestría en Física Médica de la Universidad Nacional Autónoma de México La Universidad Nacional Autónoma de México (UNAM) es la universidad más grande de AL8. Es una institución pública y gratuita, probablemente el proyecto educativo/social más exitoso del país. En 1997, aprovechando una reforma del Reglamento de Estudios de Posgrado, me correspondió organizar la creación de un programa de Maestría en Ciencias (Física Médica) como parte del Posgrado en Ciencias Físicas, que también incluye a los tradicionales Maestría y Doctorado en Física. El objetivo del programa de Maestría en Física Médica (MFM)9 es formar al estudiante para que pueda ejercer “de manera creativa” las labores de un físico médico clínico, y/o para que inicie una carrera de investigación en Física Médica. Lo primero significa que, ante la limitación de tiempo inherente a un programa de Maestría (cuatro semestres 22 Revista Brasileira de Física Médica. 2009;3(1):19-23. lectivos para cursos, prácticas, entrenamiento y tesis), la enseñanza de los conceptos y principios de física en que se basan las aplicaciones médicas tiene prioridad frente a la enseñanza de tópicos puntuales y técnicos. De esta manera, esperamos que la sólida formación básica permita la comprensión e implantación de las nuevas tecnologías que llegan continuamente al servicio clínico. El cuerpo docente incluye a unos 30 tutores de física/matemáticas/biología y 15 médicos clínicos que asesoran a nivel de comités tutorales. Las prácticas y una residencia hospitalaria de seis meses ocurren en una decena de centros de salud. El programa incluye estudios de física de la radiación ionizante (física de la RT y del diagnóstico por imágenes), física de la resonancia magnética, procesamiento de imágenes, radiobiología y biofísica, modelos matemáticos en biología y medicina, óptica, láseres, y litotripsia, entre otras. El programa MFM ha resultado muy atractivo para los egresados de Física e Ingeniería Física (las carreras de donde proviene la mayoría de los estudiantes) de México y la región. En los primeros 12 años han ingresado 95 alumnos, se han titulado 58, y en este momento hay 20 alumnos regulares. Las bajas, por abandono voluntario o académico, son cercanas al 10%. La mayoría de los egresados (casi 60%) trabaja en la clínica, mayoritariamente en RT. También ejercen en servicios de rayos X, medicina nuclear y resonancia magnética. Estos físicos médicos han adquirido su entrenamiento clínico con la experiencia diaria, debido a la ausencia de programas formales de residencia clínica en el país, al menos en los términos definidos por el documento del OIEAOPS6. La MFM también ha resultado atractiva para quienes desean iniciar una carrera de investigación y el 21% de los titulados realiza o ha concluido estudios de Doctorado. Los primeros tres titulados de la MFM que luego obtuvieron un Doctorado en Física (o Física Médica) han regresado a México e iniciaron carreras académicas en Física Médica. Un 15% de los titulados trabaja en actividades relacionadas (protección radiológica en instituciones, asesoría técnica en empresas, docencia etc). La experiencia de coordinación durante estos años permite destacar dos elementos que han resultado claves para el buen avance del programa. Primero, un riguroso examen de admisión permite escoger los mejores postulantes cada año, garantizando no sólo que contarán con una beca gubernamental, sino que mostrarán un excelente desempeño académico. Segundo, el plan de estudios es intensivo y de tiempo completo durante cuatro semestres (512 horas de docencia directa en cursos teórico/prácticos, 320 horas de residencia hospitalaria y un semestre y medio de dedicación a la tesis). Los investigadores y profesores que se han asociado a la MFM, los antecedentes académicos de los alumnos que ingresan, y la colocación profesional de los titulados han llevado al Consejo Nacional de Ciencia y Tecnología (CONACYT) a calificar la Maestría en Física Médica de la UNAM, como Posgrado Nacional de Alto Nivel, el único programa de Física Médica reconocido, recompensando este desempeño con becas de dos años para los estudiantes. Educación y entrenamiento clínico de físicos médicos en América Latina Acciones actuales de apoyo a la Física Médica Recientemente, el OIEA ha iniciado el proyecto internacional de Cooperación Técnica “Strengthening Medical Physics in Radiation Medicine”10, cuyas metas son definir responsabilidades y requisitos de formación profesional, armonizar el material educativo y promover el reconocimiento de la Física Médica como profesión desarrollada en el medio clínico. Lo que hace particularmente especial a esta iniciativa es la presencia de una amplia gama de organismos internacionales que serán partícipes de los acuerdos alcanzados. Participan la Organización Internacional de Física Médica (IOMP), la Organización Mundial de la Salud (OMS), la EFOMP y AAPM, la Comunidad Europea, la Asociación Latinoamericana de Física Médica (ALFIM), y otras organizaciones profesionales mundiales y regionales. La primera reunión tuvo lugar en Mayo de 2009 y se espera elaborar documentos de alcance internacional en el periodo hasta 2013. La IOMP ha creado dentro del Comité de Relaciones Profesionales11 un grupo de trabajo internacional (llamado International Board of Medical Physics) dedicado a colaborar en la solución del problema de certificación profesional. Su objetivo inmediato es organizar la creación de un sistema de certificación independiente, que permita este proceso en países donde aún no existe debido al precario avance de la especialidad. exclusivas y podríamos identificar situaciones de igual o mayor necesidad en África o Asia. Los apoyos y recomendaciones esperados de los proyectos en curso deberían servir a autoridades educativas, sanitarias y reguladoras a definir mejor sus objetivos y estrategias. Esta breve revisión de la situación de la Física Médica ejercida en el medio clínico en AL muestra contrastes tan agudos como los de nuestro paisaje: hay países con programas de formación y certificación profesional adecuados junto a países con centros de RT que no cuentan con un físico médico de tiempo completo. Creemos que son tiempos de avance y esperamos que la situación en la región mejore a la velocidad requerida. El papel del físico médico clínico es asegurar que los diagnósticos y tratamientos con radiación sean seguros y eficaces. Agradecimientos Este trabajo fue realizado durante una estancia científica de año sabático en el grupo de Física Médica, en el Departamento de Radiología de la Universidad Complutense de Madrid, a quienes agradezco su hospitalidad. La visita fue parcialmente apoyada por la Dirección General de Asuntos del Personal Académico (DGAPA) de la UNAM y CONACYT de México. Referencias Conclusiones Una mirada retrospectiva a los últimos diez años en la región de América Latina permitiría una lectura optimista, ya que el número de físicos médicos va aumentando, la oferta educativa se ha diversificado y se han organizado programas que hace 15 años no existían. Sin embargo, las estadísticas globales positivas no deberían engañarnos pues los promedios no incluyen las desigualdades de los casos particulares. Con relación a la educación, existe una gran variabilidad en los contenidos teóricos y prácticos de los programas universitarios, incluso dentro de un mismo país. Es sabido que, a pesar de contar con la mejor educación que su país puede ofrecer, los egresados de los programas de postgrado no necesariamente terminarán trabajando en las instituciones con equipamiento más avanzado. Son estos centros que introducen las nuevas tecnologías en el país, los cuales se beneficiarían directamente de la educación de postgrado recibida, ya que este físico médico puede asimilar rápidamente la esencia de los nuevos procedimientos y colaborar eficientemente en la oferta de un servicio de máxima calidad. Los asuntos pendientes, la falta de residencias clínicas para los titulados de los programas universitarios (o integradas a ellos) y la urgente necesidad de implementar la certificación profesional son de importancia central. Por cierto, las fallas y carencias del continente latino no son 1. Gaona E. Cáncer, radiación y seguridad radiológica. México: Edilibros; 1999. p. 1-2. 2. Associação Brasileira de Física Médica. Disponível em: http://www.abfm. org.br/ 3. United Nations Demographics. Disponível em: http://unstats.un.org/unsd/ demographic 4. United Nations Scientific Committee on the Effects of Atomic Radiation [Internet]. UNSCEAR Report 2000: sources and effects of ionizing radiation. United Nations: UNSCEAR; 2000. [cited 2009 Sep 11]. v. 1, Disponível em: http://www.unscear.org/unscear/en/publications/2000_1.html 5. Zubizarreta EH, Poitevin A, Levin CV. Overview of radiotherapy resources in Latin America: a survey by the International Atomic Energy Agency (IAEA). Radiother Oncol. 2004;73(1):97-100. 6. International Atomic Energy Agency. El Físico Médico: criterios y recomendaciones para su formación académica, entrenamiento clínico y certificación en América Latina. Human Health Report. Viena, 2009. n. 1. En prensa. 7. Eudaldo T, Olsen K. The European Federation of Organisations for Medical Physics. Policy Statement No. 12: The present status of Medical Physics Education and Training in Europe. New perspectives and EFOMP recommendations. Physica Medica. 2009;1-5. In press. 8. Universidad Nacional Autónoma de México [Internet]. Disponível em: http:// www.unam.mx 9. Maestría en Ciencias (Física Médica), UNAM [Internet]. Disponível em: http://www.fisica.unam.mx/fismed 10. Internacional Atomic Energy Agency [Internet]. Disponível em: http://tc.iaea. org/tcweb/regionalsites/europe/news/newsstory/default.asp?newsid=409 11. International Organization for Medical Physics [Internet]. Disponível em: http://www.iomp.org Revista Brasileira de Física Médica. 2009;3(1):19-23. 23 Artigo de Revisão Revista Brasileira de Física Médica. 2009;3(1):25-34. Ensino de graduação em Física Médica: experiência da PUCRS Undergraduate education in Medical Physics: experience at PUCRS Maria Emília Baltar Bernasiuk1, Alexandre Bacelar2 Professora da Faculdade de Física da Pontifícia Universidade Católica do Rio Grande do Sul (PUCRS) – Porto Alegre (RS), Brasil. 2 Professor da Faculdade de Física da PUCRS; físico do Hospital de Clínicas de Porto Alegre – Porto Alegre (RS), Brasil. 1 Resumo Este artigo apresenta um relato da experiência do primeiro curso de Física Médica em nível de graduação do Brasil. Menciona-se a origem do curso, as dificuldades encontradas, as alterações curriculares realizadas em função da melhoria da qualidade do ensino, o início das atividades complementares, bem como um panorama da atuação dos egressos até o presente momento. Palavras-chave: Física Médica; Graduação; Ensino; Aprendizagem significativa. Abstract This paper presents a report of the experience from the first graduation course of Medical Physics in Brazil. The article brings an outline of the foundation of the course, the difficulties found, curriculum changes accomplished in order to improve education quality, the beginning of complementary activities as well as the panorama of the performance of beginners until the present moment. Keywords: Medical Physics; Graduation; Education; Significant learning. Introdução Este artigo apresenta um relato da experiência do primeiro curso de Física Médica em nível de graduação do Brasil. É apresentada, aqui, a origem do curso, as dificuldades encontradas, as alterações curriculares realizadas em função da melhoria da qualidade do ensino, o início das atividades complementares, bem como um panorama da atuação dos egressos até o presente momento. O Curso de Física (Licenciatura e Bacharelado) da Pontifícia Universidade Católica do Rio Grande do Sul foi oficialmente autorizado a funcionar em 15 de junho de 1942 por meio do decreto n.º 9696 e reconhecido pelo decreto n.º 17398 de 19 de dezembro de 1944. Ao longo desses anos, foram implantados vários currículos, tanto de Licenciatura como de Bacharelado, com o objetivo de adequá-los à realidade existente e, dessa forma, atender melhor à formação dos alunos. O Bacharelado deixou de ser oferecido de 1978 até o primeiro semestre de 1990. Assim, desde o segundo semestre de 1990, um dos grandes desafios da Faculdade de Física da Pontifícia Universidade Católica do Rio Grande do Sul (PUCRS) passou a ser a preparação de bacharéis em Física Médica para o mercado de trabalho, ou seja, profissionais aptos a conviverem em uma sociedade altamente dinâmica, evolutiva, na qual o vertiginoso campo científico e tecnológico progride assustadoramente, exigindo mais do que conhecimento técnico. Origem do bacharelado em Física Médica e primeira proposta curricular A ênfase em Física Médica designada ao Bacharelado surgiu após a realização de um curso de aperfeiçoamento ministrado pelo físico médico Dílson Moreira a um grupo constituído por duas professoras e quatro alunos da Licenciatura em Física, em 1981. Nessa época, ocupava o cargo de Diretor do Instituto de Física o Professor António Correspondência: Maria Emilia Baltar Bernasiuk – Avenida Ipiranga, 6.681, Prédio 10, CEP 90619-900 – Porto Alegre (RS), Brasil E-mail: [email protected], [email protected] Associação Brasileira de Física Médica® 25 Bernasiuk MEB, Bacelar A Dias Nunes. Concluídos o curso de aperfeiçoamento e a graduação em Física, os licenciados foram contratados por setores de Física Médica de hospitais e clínicas de Porto Alegre, enquanto as professoras continuaram no Instituto de Física. Consequentemente, outros alunos da licenciatura solicitaram uma segunda edição do curso, tendo em vista uma nova oportunidade de trabalho. No entanto, tendo o físico médico Dílson Moreira retornado para São Paulo, o curso não foi oferecido novamente. Com o objetivo de atender à solicitação dos alunos, pensou-se inicialmente em oferecer uma especialização em Física Médica, em nível de pós-graduação, mas não se dispúnha, na época, do número necessário de professores habilitados na área para a abertura do curso. A alternativa foi oferecer, a partir de 1982, cursos de extensão sobre “Física das Radiações Ionizantes Aplicadas à Medicina”, “Proteção Radiológica em Raios X Odontológico”, “Qualidade em Radiologia”, “Medicina Nuclear”, “Proteção Radiológica e Controle de Qualidade” entre outros. Concomitantemente, foram oportunizadas algumas mesas redondas, sobre “Física em Radioterapia” e “Física Médica”, visando a sondar a possibilidade de se implantar, na Faculdade de Física da PUCRS, um Bacharelado em Física Médica. Paralelamente, alunos e egressos do curso da Licenciatura Física que participaram dos cursos de extensão, incentivados pela possibilidade de um novo ramo no mercado de trabalho, fizeram outros cursos no Instituto de Radioproteção e Dosimetria da Comissão de Energia Nuclear (IRD/CNEN) e no exterior. Consequentemente, esses egressos começaram a trabalhar na área de Física Médica em hospitais de Porto Alegre. Cabe destacar que as referidas atividades de extensão contaram com a valiosa colaboração do físico médico Aristides Marques de Oliveira Neto, que atuava em Hospitais de Porto Alegre, de profissionais convidados do IRD/CNEN, como os físicos médicos Doutor João Emilio Peixoto e Doutor Helvecio Correa Mota, e de professores convidados de outras instituições, como os professores Doutor Thomaz Ghilardi Netto de Ribeirão Preto de São Paulo, Doutora Emico Okuno e Doutor Cecil Chow Robilotta da USP, Doutor Sergio Brunetto da UNICAMP, o físico Francisco Carriere da Kodak, entre outros renomados colaboradores. A maioria dos cursos tinha como público-alvo odontólogos, físicos e alunos de graduação das duas áreas. No entanto, esta alternativa não foi satisfatória, a ponto de os alunos continuarem insistindo em uma habilitação em Física Médica. Assim, para atender aos anseios dos alunos do curso de Física e de egressos da Licenciatura, passou-se a oferecer um Bacharelado com ênfase em Física Médica a partir do segundo semestre de 1990. O curso foi elaborado para atender às necessidades do mundo do trabalho, a partir das sugestões coletadas em entrevistas com pesquisadores e profissionais em Física Médica e na área médica. Na ocasião, também se contou com a orientação e valiosa colaboração de professores da Universidade de São Paulo (USP), Doutora Marilia Texeira da Cruz e Doutora Emico Okuno, e de profissionais da 26 Revista Brasileira de Física Médica. 2009;3(1):25-34. CNEN, Doutora Ana Maria Campos de Araujo e Doutor João Emilio Peixoto, entre outros. Após as consultas, o curso foi criado com o objetivo de capacitar profissionais de nível superior a exercerem atividades nas instituições de saúde. A formação deste profissional tinha como referência as atividades básicas que ele poderia exercer, tais como: auxiliar em assistência e consultoria, em controle de qualidade e fiscalização de equipamentos, desenvolver pesquisa na área, aplicando os princípios e os métodos da Física adquiridos ao longo do curso, bem como ensino e formação em recursos humanos. O egresso teve sua formação apoiada numa sólida base de conhecimentos em Física, Matemática, Informática e Física Médica. O primeiro currículo, implementado no segundo semestre de 1990, tinha duração de nove semestres com 3.285 horas, que corresponde a 219 créditos; destas, 2.100 horas foram destinadas às disciplinas do núcleo comum e 1.185 horas às disciplinas do Bacharelado em Física Médica. O núcleo comum à Licenciatura e ao Bacharelado foi constituído por um conjunto de disciplinas relativas à Física Geral, Física Clássica, Física Moderna, Matemática, Química, Educação Física, Filosofia, Sociologia e Cultura Religiosa. O núcleo do Bacharelado foi composto pelas disciplinas que abrangiam os conteúdos relativos à Informática, Física do Corpo Humano, Física das Radiações, Técnicas de Ressonância, Proteção Radiológica e Seminários de Informática aplicados à Física. Também faziam parte do currículo o trabalho de conclusão e estágios realizados em hospitais e clínicas. Implantação do programa de atividades complementares Paralelamente, tendo em vista a qualificação dos alunos do Bacharelado, os professores Mestre Alexandre Bacelar, Doutor Volnei Borges e Mestre Maria Emilia Baltar Bernasiuk criaram o grupo de Física Médica Hospitalar (GFMH). Cabe ressaltar que a professora Maria Emilia, na época, ocupava o cargo de vice-diretora e foi uma das professoras que concluíram o curso de aperfeiçoamento em Física Médica, que deu origem ao referido Bacharelado. O grupo montou um programa de atividades complementares com o objetivo de auxiliar a qualificação do aluno, bem como colocá-lo em contato com o mundo do trabalho desde o início da graduação. O primeiro grupo de alunos a fazer parte do programa foi constituído, no segundo semestre de 1992, por: Aline Barlem Guerra, Alessandro Souza Dytz e Telpo Martins Dias, inscritos como voluntários no programa. A primeira tarefa desse grupo-piloto foi preparar um seminário sobre raios X e suas aplicações na Radiologia Médica. O grupo trabalhou de forma integrada, utilizando bibliografia indicada pelos professores orientadores. O seminário, apresentado no período de férias escolares, foi assistido pelos orientadores, professores e alunos do curso, bem como por profissionais que atuavam nos setores de Física Ensino de graduação em Física Médica: experiência da PUCRS Médica e Engenharia Biomédica de hospitais da cidade. Vale lembrar a valiosa colaboração da física Ana Lúcia Acosta Pinto, do Hospital de Clínicas de Porto Alegre, do físico Gérson Staevie e do Engenheiro Denis Xavier Barbiere, ambos do Hospital São Lucas da PUCRS, que sempre colaboraram com o GFMH e com o Instituto de Física, orientando os alunos do bacharelado e recebendoos como estagiários. O grupo contou com a infraestrutura da PUCRS, de hospitais de grande porte, clínicas e órgãos públicos para usufruir de condições favoráveis para o desenvolvimento das atividades complementares previstas iniciadas no Setor de Radiologia. Durante esse período, foram oferecidos diversos cursos de extensão voltados para a área de Física Médica e firmados convênios com hospitais, clínicas, com o IRD/ CNEN e Instituto de Cardiologia e vigilância sanitária estadual. Alguns desses cursos foram ministrados pelos professores Alexandre Bacelar, Volnei Borges e Ana Luiza Bretanha Lopes, do Instituto de Física da PUCRS, e outros por professores, físicos médicos e médicos convidados de outras instituições. As atividades complementares propostas pelo GFMH tiveram como ponto de partida o pressuposto de que, para ocorrer uma aprendizagem significativa, são necessários pré-requisitos, material significativo relevante, além de pré-disposição, interesse, mobilização e esforço do aluno para aprender1. Com o objetivo de planejar as atividades subsequentes, foi importante que cada professor orientador percebesse como os alunos relacionaram, definiram, estruturaram e trabalharam os diversos conceitos físicos durante a apresentação dos seminários. Desta forma, buscou-se verificar o que os alunos já conheciam e assimilaram corretamente, uma vez que tais informações serviriam de ancoradouro para a aprendizagem e retenção de novos conceitos. Além disso, também foram consideradas algumas variáveis interpessoais e situacionais que influenciam na aprendizagem. Dentre as interpessoais, consideraram-se o conhecimento, as habilidades, o interesse, a personalidade e as atitudes do aluno. Dentre as situacionais, destacaram-se as atividades sugeridas e o material instrucional oferecido ao grupo, bem como as características do grupo de alunos e dos orientadores2. Vale lembrar que, após a apresentação do seminário, os conceitos sobre os quais os alunos não demonstraram segurança foram reforçados pelos orientadores. Numa segunda etapa, o grupo de alunos foi encaminhado ao setor de Física Médica do hospital São Lucas da PUCRS, onde realizaram estágio não remunerado no Setor de Radiologia Médica durante quatro meses. Sempre que se constatava um hiato entre o conhecimento que os alunos já possuíam e o que necessitariam conhecer antes de aprenderem significativamente a tarefa proposta, foram fornecidas novas referências bibliográficas, providenciadas palestras e cursos de curta duração ministrados por especialistas na área. O acompanhamento do grupo piloto foi realizado por meio de correção e discussão dos relatórios elaborados pelos alunos, avaliação dos orientadores em reuniões e, também, de entrevistas realizadas após o término do cronograma estabelecido para cada etapa3. O primeiro grupo foi acompanhado até 1996. Graça aos excelentes resultados obtidos com o grupo piloto, novos grupos passaram a ingressar no programa de atividades complementares a cada semestre, seguindo uma metodologia similar. No entanto, em função do crescente número de alunos interessados em participar do programa, o seminário inicial passou a ser precedido por um curso preparatório obrigatório. Em razão do crescente número de alunos, em 1996, o programa de atividades complementares proposto inicialmente sofreu algumas modificações, sendo estruturado, então, em seis etapas. Na primeira, os alunos aprovados no curso preparatório eram entrevistados pelo físico do Setor de Física Médica do local. Na segunda, que durou seis meses, os alunos se familiarizaram com o local de estágio e com as rotinas do setor, acompanharam os técnicos para aprender a manusear os equipamentos e, também, apresentaram seminários e relatos das atividades. Na terceira etapa, os alunos participaram de cursos, com a finalidade de adquirir conhecimentos básicos de Física que ainda não tinham adquirido no curso de graduação e passaram a auxiliar na execução das rotinas. Esta fase durou cerca de seis meses. Na quarta etapa, os alunos começaram a participar de pesquisas em nível de Iniciação Científica sob orientação do físico médico do local do estágio e de um professor do Instituto de Física. Esta fase durou de seis meses a um ano. Na quinta etapa, os alunos apresentaram trabalhos em eventos científicos e continuaram contribuindo com o gerenciamento do Setor de Física Médica. Os alunos integrantes do programa e seus orientadores participaram de vários eventos científicos nacionais e internacionais com a apresentação de trabalhos. Concluídas as etapas anteriores, na sexta etapa, os alunos foram transferidos para outras Instituições e também auxiliaram, como monitores, a orientação dos novos alunos. Alguns iniciaram atividades em outras áreas sob a orientação de médicos ou de professores da Faculdade de Física, especialistas nessas áreas. Para avaliar a importância deste programa, diversas vezes foram aplicados questionários4 e realizadas entrevistas com alunos, orientadores, egressos e físicos dos Setores de Física Médica das Instituições onde os alunos atuaram. Os resultados das avaliações foram analisados pelos professores integrantes do GFMH e grupo de Ensino do Instituto de Física, além de, por diversas ocasiões, terem sido apresentados em reuniões, eventos científicos nacionais e internacionais. Segundo os alunos entrevistados, participar do grupo de atividades extracurriculares auxiliou na melhoria da sua formação acadêmica, permitindo vivências de crescimento humano que consideraram muito importante para o seu crescimento pessoal e profissional. Também foi mencionada a aquisição de maturidade profissional, nova visão do mercado de trabalho, necessidade de trabalhar com seriedade e honestidade. Quanto à aprendizagem, os Revista Brasileira de Física Médica. 2009;3(1):25-34. 27 Bernasiuk MEB, Bacelar A alunos relataram que houve um maior interesse na Física e suas aplicações devido à possibilidade de relacioná-la aos novos conhecimentos adquiridos por meio do desenvolvimento das atividades complementares. Salientou-se, também, a importância dos cursos assistidos e da participação em Palestras, Congressos, Feiras de Ciências no Brasil e no exterior. Um fator importante que deve ser salientado é o fato de que as novas informações foram adquiridas através do esforço deliberado, por parte dos alunos, de relacioná-las a conceitos relevantes preexistentes na sua estrutura cognitiva. Os orientadores relataram que houve um maior interesse dos alunos pelo curso de graduação e de continuar seus estudos em nível de pós-graduação, bem como uma modificação positiva na expectativa de mundo do trabalho do físico médico. As atividades realizadas pelos alunos também foram consideradas de grande importância pelos físicos responsáveis pelo Setor de Física Médica das Instituições, uma vez que contribuíram com o programa de qualidade implantado nelas. Na avaliação, esses profissionais concordaram que as atividades junto aos Setores de Física Médica poderiam ser implantadas no início do curso, após a apresentação de um seminário ou da aprovação do curso preparatório. Foi relatado que, quanto mais cedo os alunos realizarem trabalhos práticos em complementação aos teóricos, tais como rotinas hospitalares, mais aptos eles estarão para realizar trabalhos de iniciação científica e trabalhar na área de atuação profissional5. Assim, o programa de atividades complementares implantado pelo GFMH procurou oferecer aos alunos uma formação teórica e prática mais abrangente para facilitar o seu acesso ao mundo do trabalho, sem, contudo, dirigi-los para uma especialização precoce em determinada área e muitas vezes totalizando uma atuação de mais de 4 mil horas no futuro ambiente de trabalho. Os egressos nesse bacharelado começaram a desempenhar atividades em hospitais, clínicas, vigilância sanitária, empresas de consultorias e consultorias técnicas e vendas. Dentre as áreas de atuação, salientaram-se a radiologia, radioterapia, medicina nuclear, ecografia, ressonância magnética nuclear e simulações computacionais aplicadas à Medicina. Em novembro de 1993,��������������������������� os alunos do GFMH participaram da Feira Sul-brasileira de Ciências e Tecnologia da PUCRS com apresentação de trabalhos da área de Física Médica. Em 1994, os��������������������������������� alunos do Bacharelado participaram pela primeira vez de um evento na área da Física Médica, apresentando trabalhos no World Congress on Medical Physics and Biomedical Engineering, na cidade do Rio de Janeiro, sendo que alguns foram agraciados com prêmios. A partir de 1994, os alunos e os orientadores participaram de muitos eventos científicos nacionais e internacionais sempre com apresentação de trabalhos. Dentre os eventos internacionais, citam-se alguns trabalhos apresentados na Argentina6, Peru7, França8, Estados Unidos9, entre outros. A partir de 1996, com a implantação de novos grupos de pesquisa, aumentou o número 28 Revista Brasileira de Física Médica. 2009;3(1):25-34. de alunos participantes das atividades complementares e, com isto, de participantes de eventos em Física Médica. A evolução curricular A ênfase em Física Médica deu um novo impulso ao Instituto de Física, aumentando não só o número de alunos, mas também o de projetos de pesquisa, principalmente de iniciação científica. Os professores orientadores começaram a participar de diversos cursos de atualização na área, muitos na CNEN. Graças a um convênio com a CNEN, a cada semestre um grupo de alunos participava de cursos no IRD/CNEN na cidade do Rio de Janeiro. Com o programa de atividades complementares, aumentaram a produção científica e a participação de professores e alunos em eventos científicos, principalmente relacionados à área de Física Médica. Os estágios curriculares e não curriculares dos alunos do bacharelado ficaram sob a supervisão do professor Alexandre Bacelar. Com o aumento do número de alunos, novos professores foram contratados, sendo que alguns passaram a contribuir com o GFMH. Os trabalhos de conclusão de curso eram orientados por um professor do Instituto de Física em parceria com físicos médicos e profissionais da área da saúde dos locais onde os alunos realizavam os estágios curriculares. Os trabalhos de conclusão, no currículo vigente denominado monografia, sempre foram apresentados a uma banca constituída por um professor do Instituto de Física e por mais um ou dois convidado de outras Instituições. Dependendo da área, os convidados eram físico médico, médico ou professor. Durante o tempo de implantação do primeiro currículo, foram realizadas várias reuniões envolvendo professores da Faculdade de Física, dos quais alguns trabalhavam em diferentes áreas da Física Médica em hospitais e também como Supervisores de Proteção Radiológica na indústria, professores da Faculdade de Informática, alunos do bacharelado e especialistas da área. Foram discutidas e analisadas possíveis alterações de disciplinas e de programas para uma melhor adequação do currículo às exigências do mercado de trabalho e dos órgãos governamentais, o que resultou em algumas adaptações no primeiro currículo do bacharelado, após a formatura do primeiro aluno, Alexandre da Silva Corrêa, em 1994. Este bacharelado foi o primeiro com ênfase em Física Médica no Brasil e, com a implantação das Novas Diretrizes Curriculares para os cursos de graduação, foram enfrentadas algumas dificuldades no momento de realizar as reformulações. Assim, a reformulação implantada em 1995 vigorou até 2003. Como dito anteriormente, a proposta de mudança curricular do bacharelado em 1995, foi devido às várias sugestões de professores, alunos e profissionais que atuavam na área, mais especificamente físicos médicos consultados. Muitos alunos basearam suas sugestões em experiências vividas nas atividades complementares e estágios não Ensino de graduação em Física Médica: experiência da PUCRS curriculares realizados no Hospital São Lucas da PUCRS e no Hospital de Clínicas de Porto Alegre. As sugestões dos profissionais foram colhidas por professores e alunos do Bacharelado em congressos nacionais e internacionais e em seminários de Física Médica promovidos pelo no Instituto de Física. Em linhas gerais, as sugestões propunham duas alterações: redução acentuada de disciplinas de Informática, mantendo-se apenas algumas básicas, e introdução de novas disciplinas que propiciassem melhores condições aos alunos para cursarem pós-graduação em Física e, de preferência, em Física Médica. Alguns fatores foram considerados essenciais para as sugestões mencionadas, aceitas pelo Conselho Departamental e propostas no documento enviado à Câmara de Graduação desta Universidade. Dentre as justificativas, salientam-se: a) os avanços em Física Médica e a abertura de cursos de mestrado nesta área e em Engenharia Biomédica, indicando o grande incremento de ambas as áreas no mercado de trabalho nos últimos anos e, também, de novas exigências para os candidatos; b) maiores exigências de órgãos governamentais na concessão de certificações para supervisores ou responsáveis nas áreas de radioterapia, medicina nuclear, radiologia e proteção radiológica, exigindo dos egressos uma especialização imediata após o curso; c) avanços em softwares de Física Médica, mormente em radioterapia e medicina nuclear, não havendo mais necessidade de grandes conhecimentos de programação dos alunos ao necessitarem da parte computacional em suas tarefas. Essas justificativas mostram que o perfil do egresso deste novo currículo mudou em parte em relação ao perfil do currículo que estava em vigor desde 1990. A obrigatoriedade de sólidos conhecimentos em Informática passou a ter caráter secundário, e a pós-graduação, que era aconselhável, passou a ter caráter de obrigatoriedade para todos aqueles que desejassem ser supervisores de qualquer área relacionada à Física Médica e, deste modo, progredir na profissão. Como a grande maioria dos alunos do bacharelado também cursava Licenciatura Plena, este currículo teve alguns ajustes, principalmente troca de nível de várias disciplinas, possibilitando aos alunos interessados, cursar as duas habilitações simultaneamente. Não ocorreram mudanças significativas, pois se entendeu que o atual currículo atende de maneira eficaz seus principais objetivos. As novas disciplinas introduzidas foram: Introdução à Microinformática, Algoritmos e Programação I, Algoritmos e Programação II; Introdução à Pesquisa em Física; Laboratório de Técnicas e Medidas Nucleares; Física do Estado Sólido; Análise de Resultados em Física; Origens e Desenvolvimento da Física, e Cálculo Numérico, Noções de Anatomia e Fisiologia e Biofísica. Paralelamente, foram eliminadas as seguintes disciplinas: Introdução à Informática I; Laboratório de Programação I; Laboratório de programação II, Introdução à Informática II; Algoritmos e Estrutura de Dados I; Algoritmos e Estrutura de Dados II; Organização de Computadores I; Sistemas Operacionais I; Seminários de Informática Aplicados à Física, Educação Física. O Trabalho de Conclusão passou de três para dois créditos. Assim, esta reestruturação curricular aumentou a carga para 3.180 horas, o que corresponde a 212 créditos. Para atender às novas necessidades do bacharelado, em 1995, os professores do GFMH objetivavam montar o Laboratório de Técnicas e Medidas Nucleares com equipamentos importados. O projeto foi encaminhado à direção do Instituto de Física e posteriormente aprovado pela Reitoria da Universidade. Foram muitas horas de trabalho. Após a aprovação, a sala destinada ao laboratório foi construída de acordo com as normas estabelecidas pela CNEN, com local apropriado para a guarda e manuseio de fontes radioativas. O Laboratório de Estrutura da Matéria foi transferido para a parte térrea do prédio ao lado do novo laboratório. Em 1996, foi criado o Grupo de Estudos de Propriedades de Superfícies e Interfaces (GEPSI)�������� coordenado pelo professor Doutor Roberto Hübler com o objetivo de realizar projetos com impactos diretos na sociedade, pesquisando materiais para aumentar a vida útil de implantes ortopédicos, desenvolvendo nanoestruturas periódicas para proteção contra desgaste mecânico e corrosivo, estudando e caracterizando materiais biocompatíveis para aplicação em seres humanos, enfim, abrindo mais um campo de atuação para o bacharel. Posteriormente, em 1997, foi criado o Grupo de Física das Radiações (GFR) coordenado pela professora Doutora Mara Rizzatti, que passou a investigar as implicações da radiação ultravioleta na sociedade e os efeitos dessa radiação em materiais poliméricos, desenvolvendo novos materiais para aplicação em dosimetria. Sempre em busca da melhoria da qualidade de ensino, o Instituto de Física participou de periódicas avaliações internas. Algumas dessas avaliações foram propostas pelo Setor Didático-Pedagógico da Universidade (SEDIPE), outras foram realizadas por iniciativa dos professores. Sob a orientação do SEDIPE, em 1998, foi modificado o Projeto Pedagógico do Curso de Física, coordenado pela professora Maria Emilia com a colaboração da professora Doutora Elaine Evaní Streck, tendo como referência sugestões colhidas a partir de várias reuniões realizadas com professores, alunos, funcionários, egressos e profissionais que atuavam nas duas habilitações oferecidas pelo curso de Física, licenciatura em Física e bacharelado com ênfase em Física Médica. Na ocasião, foi enviada uma cópia do referido projeto ao Ministério de Educação e Cultura como sugestão para elaboração das novas Diretrizes Curriculares para os Cursos de Física. Entretanto, a nova reformulação curricular não entrou em vigor, tendo em vista uma orientação da Universidade de aguardar as novas Diretrizes Curriculares para os cursos de Física. Em 1999, em função de uma reforma na Universidade, o Instituto de Física passou a ser denominado Faculdade de Física (FAFIS). No final desse mesmo ano, a professora Maria Emilia assumiu a direção e o professor Doutor Cláudio Galli, a vice-direção. Junto com a equipe de professores, a direção deu continuidade ao trabalho das Revista Brasileira de Física Médica. 2009;3(1):25-34. 29 Bernasiuk MEB, Bacelar A direções anteriores, adaptando seu planejamento à realidade vivenciada naquele momento pela Universidade e aos novos desafios do século 21. Cabe ressaltar que, até 2000, o curso tinha formado 31 bacharéis, dentre os quais 16 fizeram parte do GFMH. Nove dentre os egressos deste grupo, após a formatura, foram contratados como físicos em radiologia diagnóstica, fiscalização, medicina nuclear, radioproteção, ressonância nuclear, entre outros. Destes, cinco também ingressaram em cursos de pós-graduação. Os demais alunos, ao concluírem o curso de graduação, ingressaram direto na pósgraduação e, mais tarde, no mundo do trabalho. Neste mesmo ano, a FAFIS recebeu a visita da Comissão de Avaliação das Condições de Oferta dos Cursos de Física MEC/SESu. Apesar do curso de Física ter recebido um conceito muito bom, os avaliadores tiveram dificuldade em compreender a estrutura do Bacharelado, tendo em vista que nenhum deles era da área de Física Médica. Outra dificuldade foi enfrentada pelos alunos durante a realização do Exame Nacional de Cursos (ENC), mais conhecido como “Provão” em 2001, 2002 e 2003. Tendo em vista o pioneirismo na ênfase do bacharelado, as provas elaboradas para os alunos deste curso contemplaram somente questões referentes aos conteúdos abordados em bacharelado clássico, não apresentando questões atinentes à Física Médica, o que prejudicou os alunos, deixando-os desmotivados. Em 2001, a universidade iniciou os trabalhos relativos ao Planejamento Estratégico. Paralelamente, após várias reuniões com professores, alunos e funcionários, foi elaborado o Plano de Ações da FAFIS. Em conjunto, foram escolhidos os objetivos, traçadas metas e estratégias para a Faculdade de Física; entre elas, iniciou-se o estudo de uma revisão curricular amparado pelas Diretrizes Curriculares para os Cursos de Graduação em Física (Parecer CNE/ CES 1.304/2001)10. Cabe lembrar que, durante este período, houve muitos encontros para se debaterem as alterações curriculares. Alguns dos encontros foram promovidos pela SBF, pela SeSu/MEC, pela BFM e pela CNEN. Em 2002, durante o estudo da nova reformulação curricular e tendo em vista a evolução dos equipamentos de obtenção digital de imagens médicas que exigia do físico médico um conhecimento cada vez maior acerca do processamento e análise dessas imagens, introduzimos este conhecimento na nova proposta de currículo para o bacharelado. Assim, ao incluir essa nova área de atuação para os bacharéis em Física Médica, foi contratada a professora Doutora Ana Maria Marques da Silva, que criou o Núcleo de Pesquisa em Imagens Médicas. Este Núcleo multidisciplinar passou a reunir profissionais da Física, Informática, Engenharia e Medicina para a realização de pesquisa e desenvolvimento na área de aquisição, processamento, visualização e análise de imagens médicas, tendo por objetivo a melhoria da qualidade do diagnóstico e a otimização de sistemas de telerradiologia. Também em função das novas alterações curriculares, especificamente no caso da Física Médica, foram contratados dois egressos do bacharelado, 30 Revista Brasileira de Física Médica. 2009;3(1):25-34. o físico médico Mestre Alessandro Mazzolla e a professora Doutora Gabriela Hoff que acabara de concluir o doutorado na área. Na ocasião, também retornou de um doutorado na área a professora Doutora Maria Eulália Tarragó. A essa altura, estava completo o grupo de professores responsáveis pela formação dos bacharéis atendendo aos novos desafios e à nova proposta curricular. Levando-se em consideração a necessidade de manter um ensino de qualidade que forme profissionais preparados para um complexo mercado de trabalho, buscou-se majorar o número de parcerias e o número de convênios, desta vez com a vigilância sanitária, com a secretaria municipal da saúde, clínicas, entre outros, e renovar os convênios anteriormente firmados. Com o crescimento da pesquisa nas áreas da Física Médica, do Ensino e da Energia solicitou-se mais um espaço físico para a FAFIS, o qual foi cedido, pelo Magnífico Reitor Professor Norberto Francisco Rauch, no antigo Quartel, contíguo ao Campus Central, propriedade recém-adquirida pela PUCRS. Após várias adaptações, nessa mesma propriedade, foi criado o Centro de Pesquisa e Desenvolvimento em Física (Centro de P&D em Física), que passou a fazer parte do Parque Tecnológico da PUCRS. A inauguração do Centro ocorreu no dia 28 de abril de 2003. A instalação deste Centro junto ao Parque Tecnológico da PUCRS (TECNOPUC) foi muito importante, uma vez que passou a vincular a imagem da Faculdade de Física a atividades tecnológicas e de Física Aplicada, aumentando a pesquisa, a prestação de serviço e as parcerias, atraindo novos alunos para a pós-graduação e para a graduação, além de tornar a Universidade referência nacional e internacional nestas áreas de pesquisa. Após a sua inauguração, o Centro passou a congregar quatro Núcleos Tecnológicos de Pesquisa e Desenvolvimento: o de Energia Solar, o de Pesquisa em Interação da Radiação com a Matéria que assumiu o GFR, o de Desenvolvimento em Superfícies, Interfaces e Nanoestruturas que incluiu o GPSI e o de Pesquisa em Imagens Médicas. Destes, os três últimos beneficiaram os alunos da Física Médica. Mais tarde, também beneficiando a Física Médica, foi criado o Grupo de Nanoestruturas (NANOPUC), coordenado pelo professor Doutor Ricardo Papaleo. Na ocasião da inauguração do Centro P&D em Física, permaneceram no prédio 10 da FAFIS: o grupo de Física Médica Hospitalar, o Grupo de Experimentação e Simulação Computacional em Física Médica (GESiC), o Grupo de Física Biológica (GFB) e os grupos voltados para a licenciatura. O grupo de Física Médica Hospitalar, coordenado pelo professor Mestre Alexandre Bacelar, continuou desenvolvendo suas atividades com poucas alterações, contando com a colaboração da equipe de professores responsáveis pelos alunos do bacharelado. O GESiC, coordenado pela professora Doutora Gabriela Hoff, passou a desenvolver ferramentas computacionais para a construção de simuladores virtuais, realizando simulações computacionais em dosimetria externa das radiações ionizantes, através Ensino de graduação em Física Médica: experiência da PUCRS de softwares que utilizam o método de Monte Carlo e programas determinísticos de Teoria de Transporte. O GFB, coordenado pela professora Doutora Maria Eulália Pinto Tarragó, introduziu uma linha de pesquisa voltada para a simulação computacional do sistema imunológico e folding de proteínas. Em 2003, a nova revisão curricular das duas habilitações que compõem o curso de Física foi aprovada pela Câmara de graduação da Universidade. Assim, após a reestruturação curricular,������������������������������ as duas habilitações que compõem o curso de Física da PUCRS passaram a ser: a Licenciatura em Física (Físico-Educador) e Bacharelado em Física, com ênfase em Física Médica, que passou a ser chamado Bacharelado em Física Médica. Cabe salientar que Física Médica refere-se ao Físico-Interdisciplinar (Bacharel em Física Médica) que deverá utilizar “prioritariamente o instrumental (teórico e/ou experimental) da Física em conexão com a Física Médica”, passando a atuar de forma conjunta e harmônica com especialistas de outras áreas, tais como médicos, odontólogos, biólogos, engenheiros, químicos e administradores. O novo currículo, mais flexível que o anterior, que com algumas adaptações permanece até hoje, passou a incluir duas disciplinas eletivas e atividades complementares, substituindo o trabalho de conclusão por monografia. O bacharelado em Física Médica, por sua vez, passou a ter como objetivo capacitar profissionais de nível superior a exercerem atividades nas Instituições de Saúde, visando à qualidade dos serviços prestados e produtos usados, bem como a segurança e a economia no âmbito de Física Médica. Mais especificamente, passou a formar bacharéis com sólida formação em Física e condições de aplicar os conhecimentos e a metodologia da Física na área da Saúde, trabalhando com desenvoltura e de forma conjunta e harmônica com especialistas da área médica, biomédica e administrativa, mantendo uma postura profissional baseada na ética e na responsabilidade social. Com a implantação do novo currículo, o referencial do professor sofreu algumas modificações com o intuito de atender às novas demandas, buscando alcançar aos objetivos do curso por meio de novas tecnologias, sem perder a visão humanística. Consciente dos desafios e das necessidades educacionais para o século 21, as ações pedagógicas escritas no Projeto Pedagógico foram alicerçadas nos quatro pilares da educação referidos no Relatório para a Organização das Nações Unidas para a Educação, a Ciência e a Cultura (UNESCO), da Comissão Internacional sobre Educação para o século 2111. Os referidos pilares são: aprender a aprender, aprender a fazer, aprender a viver em conjunto e aprender a ser. Relativamente ao “aprender a aprender”, a ação pedagógica buscou disponibilizar aos alunos do curso de Física o desenvolvimento da iniciativa, do espírito de busca de conhecimento, da autonomia intelectual, do espírito crítico e analítico. Isso se justifica pela necessidade primordial, em um mundo com mudanças cada vez mais rápidas, de se adquirirem os novos conhecimentos que surgem diariamente em função das novas descobertas realizadas em grande número e em intervalos de tempo cada vez menores. O “aprender a fazer” foi sugerido uma vez que, cada vez mais, são exigidas capacidades intelectuais, no sentido de concepção, organização e aptidão para realizar trabalhos em equipe com iniciativa, tendo em vista as modificações introduzidas pelo progresso tecnológico. O “aprender a viver com os outros” foi escolhido por ser uma exigência imposta em um mundo globalizado, onde as diferenças devem ser reconhecidas e respeitadas, considerando-se as repercussões, tanto positivas quanto negativas, das atitudes do relacionamento do professor com os alunos, bem como dos alunos com seus colegas. O “aprender a ser” foi incluído no sentido de proporcionar a possibilidade de conviver bem, influenciando o “aprender a fazer” e o “aprender a aprender”. Os quatro pilares foram escolhidos como referência por serem interdependentes e os sustentáculos de uma educação integral do ser humano. No que se refere especificamente ao ensino da Física, enfatizou-se a compreensão dos fenômenos, solicitandose aos alunos que se expressem de forma clara e precisa, seja oralmente ou através do uso consciente do formalismo matemático. A experimentação continuou a ser cultivada conscientemente de forma demonstrativa ou realizada pelos alunos, incentivando-se a motivação, a criatividade, a autonomia e o trabalho em equipe. Atendendo às Diretrizes Nacionais Curriculares para os cursos de Física, o currículo do curso foi estruturado de forma que apresentasse um núcleo comum às duas habilitações do curso de Física e um conjunto de disciplinas específicas para cada uma das duas habilitações. O bacharelado permaneceu com a duração de nove semestres, mas a carga passou para 2.910 horas. Destas, 1.710 horas foram atribuídas ao núcleo comum, seguindo a mesma orientação dos cursos de Física de outras Universidades, 990 horas foram destinadas a disciplinas específicas da área de Física Médica, 210 horas de estágio curricular e no mínimo 120 horas de atividades complementares. O núcleo comum foi constituído por um conjunto de disciplinas relativas à Física Geral, Matemática, Física Clássica, Física Moderna e Ciência como atividade humana. Desta forma, pretendia-se que as dificuldades enfrentadas pelos alunos nas avaliações do MEC fossem superadas. Os alunos do bacharelado em Física Médica passaram a cursar disciplinas que abrangiam os conteúdos relativos à Física das Radiações, Física da Radiologia, Física da Medicina Nuclear, Física da Radioterapia, Proteção Radiológica, Detectores de Radiação, Ressonância Magnética, Processamento e Análise de Imagens Médicas, Ultrassom, Instrumentação para Laboratório, Anatomia, Fisiologia e Biofísica, oferecendo uma formação relacionada à sua futura área de atuação e interesse. Os estágios obrigatórios e não obrigatórios continuaram a ser realizados em hospitais, clínicas médicas, secretarias de saúde e meio ambiente. Revista Brasileira de Física Médica. 2009;3(1):25-34. 31 Bernasiuk MEB, Bacelar A As atividades complementares foram ajustadas com a Faculdade de Física, sendo constituídas por estágios não obrigatórios, monitoria, pesquisa de iniciação científica, cursos de extensão, seminários, simpósios, congressos, conferências e auxílio na organização de eventos científicos. O estágio continuou a ser desenvolvido em Instituições de Saúde, em empresas prestadoras de serviços na área da Física Médica e órgãos governamentais de fiscalização e normatização na área da Física Médica. Um professor da FAFIS acompanhou e realizou a supervisão do estagiário. Tendo em vista que a formação em Física, na sociedade contemporânea, deve se caracterizar pela flexibilidade do currículo, de modo a oferecer alternativas aos egressos, os alunos passaram a escolher duas disciplinas eletivas, continuaram a realizar, durante a sua formação, estágios obrigatórios e não obrigatórios, atividades complementares e a apresentar uma monografia, em nível de iniciação científica, no final do curso. Sendo assim, o perfil egresso do curso de Física Médica continuou a ter como referência as atividades que o aluno foi habilitado a desempenhar, tais como: auxiliar em assistência e consultoria e em controle de qualidade e fiscalização de serviços e equipamentos, desenvolver pesquisas na área, aplicando os princípios e métodos da Física adquiridos ao longo do curso e atuando de forma conjunta e harmônica com outros profissionais da área da saúde. Na definição do perfil do profissional egresso desta habilitação, até o presente momento, são consideradas as dimensões cognitiva, metodológica, afetiva e ético-profissional. A metodologia adotada pelos professores está relacionada à natureza das disciplinas, sendo descrita especificamente nos programas de cada uma. Em geral, as aulas das disciplinas de Física ocorrem mediante explanações dialogadas acompanhadas de demonstrações utilizando equipamentos específicos para tal fim e, quando pertinente, resoluções de problemas-modelo conduzidas pelo professor, bem como resoluções de problemas em pequenos grupos pelos alunos. Também são realizadas atividades junto ao Museu de Ciências e Tecnologia da PUCRS e visitas técnicas. As aulas de laboratório são realizadas em pequenos grupos, adotando-se uma metodologia interativa na qual os alunos assessorados pelo professor e monitores são considerados os principais responsáveis pelo êxito da aprendizagem no contexto da experiência. As experiências, na maioria das vezes, são precedidas por um conjunto apropriado de informações. As disciplinas teórico-práticas são desenvolvidas por meio de aulas expositivas, demonstrativas, práticas de laboratórios em pequenos grupos, realização de pesquisas bibliográficas e apresentação de seminários de tópicos escolhidos pelos alunos. As disciplinas de formação geral são ministradas através de aulas expositivas e de resolução de problemas pelo professor e pelos alunos em pequenos grupos. Algumas destas disciplinas também são desenvolvidas em laboratórios específicos de acordo com a sua natureza. As 32 Revista Brasileira de Física Médica. 2009;3(1):25-34. disciplinas de formação humanística, por sua vez, são desenvolvidas através de aulas expositivas, de seminários, de debates e de trabalhos em grupos. Nas revisões curriculares, têm sido consideradas as novas demandas que vêm emergindo no Brasil nas últimas décadas, mas que já existem em outros países há muitos anos. Logo, enfatiza-se que a formação deste profissional deve ser sólida em conhecimentos básicos de física, mas flexível de modo que o futuro profissional disponha das habilidades e competências necessárias às expectativas do seu campo de atuação e uma capacidade de adequação às diferentes perspectivas de atuação futura. Nesse sentido, como já foi mencionado anteriormente, o currículo do curso implantado em 2003 até o presente momento está alicerçado nas quatro dimensões citadas anteriormente, de forma que o bacharel precisa desenvolver competências, dentre as quais destacam-se: dominar princípios gerais e fundamentos da Física relacionados às suas áreas clássicas e modernas; diagnosticar, formular e encaminhar a solução de problemas físicos, experimentais e teóricos, utilizando instrumentos matemáticos ou de laboratório apropriados; descrever e explicar fenômenos naturais, processos e equipamentos na área da Física Médica, em termos de conceitos, teorias e princípios físicos fundamentais; auxiliar em consultorias, em controle de qualidade e também na aquisição de materiais e equipamentos utilizados em Física Médica; realizar testes de garantia da qualidade de equipamentos de diagnóstico e terapia (equipamentos da área da saúde), selecionando, executando e avaliando as rotinas da área médica realizadas de modo a identificar prioridades no planejamento de suas atividades; assessorar na identificação e avaliação de parâmetros físicos relevantes para a análise de imagens; assessorar a elaboração de projetos de locais para instalação de equipamentos de terapia e diagnóstico por imagem (radiodiagnóstico, medicina nuclear, radioterapia) e laboratórios destinados ao uso de fontes e aparelhos emissores de radiação; manusear fontes emissoras de radiações ionizantes, seladas e não seladas, controlando as atividades manipuladas; reconhecer a administração e organização do local de trabalho; proferir palestras, seminários e cursos; realizar pesquisas; manter atualizado o seu conhecimento sobre a legislação que rege a sua área de trabalho; colaborar com o sistema de vigilância sanitária; agir com autonomia, iniciativa, responsabilidade e consciência ético-profissional; dar prosseguimento a uma educação continuada em Física Médica. As competências acima mencionadas estão diretamente relacionadas à formação básica em Física e específica em Física Médica e à preparação do aluno para uma educação continuada. Essas competências estão relacionadas à aquisição de determinadas habilidades, dentre as quais são destacadas: utilizar adequadamente as ferramentas matemáticas para a expressão de fenômenos físicos; abordar e resolver adequadamente problemas experimentais; utilizar adequadamente a linguagem científica, tanto na forma oral quanto escrita, comunicando com Ensino de graduação em Física Médica: experiência da PUCRS clareza resultados científicos em relatórios técnicos, artigos, seminários e palestras, entre outros; reconhecer os princípios físicos e o funcionamento dos principais equipamentos utilizados na área da Física Médica; aprender novas técnicas, métodos ou usos de instrumentos pertinentes à área de atuação do físico médico; reconhecer as relações entre o desenvolvimento da Física e a evolução tecnológica utilizada em diagnósticos e terapias na medicina; usar e desenvolver softwares na área de Física Médica; empregar corretamente a metodologia de pesquisa científica, sendo capaz de analisar dados e interpretar resultados; compreender e aplicar as diretrizes de proteção radiológica; colaborar na elaboração e na implantação de normas e protocolos na área de Física Médica; manter um bom relacionamento com profissionais da sua área, de outras áreas, com pacientes e com o público em geral; manter uma visão realista do mercado de trabalho, atuando como agente de mudança, através da iniciativa e competência. Essas habilidades envolvem conceitos, procedimentos e atividades e o seu desenvolvimento está diretamente ligado aos objetivos, às ações pedagógicas e aos instrumentos de avaliação do curso. Além das habilidades e competências adquiridas ao longo do curso, o Bacharel em Física Médica deve ter a oportunidade de vivenciar situações que auxiliem na qualificação de sua formação, tais como: a leitura, a análise e a redação de textos técnicos e científicos; a sistematização de conhecimentos e resultados obtidos em pesquisas por meio da elaboração de relatórios, trabalhos para publicação científica e do trabalho de conclusão de curso; a realização de pesquisas bibliográficas e experimentais; a realização de experimentos em laboratórios; o uso de equipamentos de informática; a realização de estágios obrigatórios e não obrigatórios; a apresentação de trabalhos em eventos científicos; a participação em cursos de atualização e em eventos científicos; o exercício de relações interpessoais através do trabalho em equipe em grupos de pesquisa ou de trabalho; a monitoria nos Laboratórios de Física; a Física Interativa no Museu de Ciências e Tecnologia da PUCRS. Buscando a flexibilização da formação do Bacharel em Física Médica, as disciplinas eletivas foram escolhidas pelo próprio aluno. No entanto, tendo em vista a qualidade desta formação dentro da sua área de atuação profissional, os alunos foram orientados a buscarem disciplinas que efetivamente complementassem a sua formação, incrementando as suas possibilidades no mercado do trabalho. Ainda em 2003, com o intuito de melhorar a infraestrutura de apoio do bacharelado, foi criado o Laboratório de Física Médica, com equipamentos doados pelo Hospital São Lucas da PUCRS, pela Sul Imagem e pela Kodak. Em maio deste mesmo ano, a PUCRS foi sede do VIII Congresso Brasileiro de Física Médica. Vale destacar que um grupo de professores da FAFIS, em conjunto com a Associação Brasileira de Físicos em Medicina (ABFM), participou ativamente da organização do Congresso. O evento foi uma oportunidade de reencontrar e conhecer diversos profissionais da área, permutando experiências e permitindo diálogos acerca da importância e dos novos rumos da Física Médica no Brasil e no Exterior. Nesta ocasião, houva participação com outras Instituições de uma mesa redonda com o objetivo de discutir os currículos dos cursos de Física Médica na graduação. Posteriormente, no mesmo ano, a PUCRS foi sede da Jornada Ítalo-Brasileira de Biofísica e Biologia Molecular, evento realizado em conjunto com as Faculdades de Física, Biociências e Medicina. Novamente um grupo de professores da FAFIS participou da organização do evento. Até 2003, o curso tinha formado 71 alunos no bacharelado em Física Médica. Destes, 43 atuavam em hospitais ou clínicas, 5 na vigilância sanitária, 6 em empresas de consultoria, 1 em Universidade, 12 na pós-graduação e 6 em escolas. A partir dezembro de 2005, o cargo de Diretora da Faculdade de Física passou a ser exercido pela professora Doutora Ana Maria Marques da Silva, que deu ������������� continuidade ao trabalho das direções anteriores, adaptando seu plano de ações ao planejamento da nossa Universidade. Em 2006, em função de medidas administrativas da Universidade, o curso passou a oferecer vestibular somente no verão. Em 2007, para atender às solicitações dos professores e alunos, foram realizadas algumas adaptações no projeto pedagógico. Assim, aumentaram o número de horas dos estágios curriculares, das atividades complementares e algumas disciplinas mudaram sua carga horária e nomenclatura. Para tanto, foram eliminadas as tutorias em Física Médica. Desta forma, o curso passou para 3.250 horas-aula, permanecendo com esta carga horária até a presente data. Isso se justifica pelo fato de que, em um mundo com intensas e contínuas mudanças, é importante que os alunos adquiram conhecimentos amplos, competência cognitiva mais desenvolvida, habilidades que os auxiliem a enfrentar os avanços tecnológicos e os coloque à altura para acompanhar o crescimento e os efeitos das inovações tecnológicas na área da Física Médica, ou seja, preparados para um futuro que não se pode prever. É desejável que os futuros bacharéis aprendam a buscar e valorizar o conhecimento. Também é importante saber o que é relevante investigar, questionar, comparar, generalizar, como buscar soluções, estabelecer relações, conviver com as divergências, trocar ideias com os colegas, exercitar o pensamento crítico e a reflexão. Para tanto, é preciso que os professores criem as condições necessárias para um trabalho educativo eficaz, incentivando-os a interagir com diferentes recursos tecnológicos e permitindo que aprendam em seu ritmo e de forma autônoma. Ainda é importante prepará-los para pensar sobre questões éticas implícitas nas relações entre Ciências, Tecnologia e Sociedade e para exercer o trabalho de acordo com os princípios éticos, de forma que isso dignifique a sua profissão. Além das competências e habilidades adquiridas ao longo do curso, é necessário que os futuros bacharéis tenham tido a oportunidade de vivenciar situações que contribuam Revista Brasileira de Física Médica. 2009;3(1):25-34. 33 Bernasiuk MEB, Bacelar A com a qualificação de sua formação, e sejam alertados quanto ao fato de que a educação deve ser continuada, ou seja, é necessário atualizar-se ao longo de toda a vida. Nesse passo, é indispensável uma infraestrutura física adequada e professores aptos a pensar, sempre que for oportuno, sobre a necessidade de mudanças educacionais e como devem ocorrer as suas adequações para enfrentar os novos desafios. Para que esta ação seja eficaz, cabe lembrar que o ato de ensinar exige um grande trabalho intelectual dos professores, pois envolve refletir sobre suas ações, entender o processo de desenvolvimento dos alunos, compreender como ocorre a aprendizagem para que seja possível ensinar de acordo, tomando como referência o objetivo do curso e um futuro desconhecido. Entretanto, sabemos que para que a aprendizagem ocorra, não depende só do professor e de uma ótima infraestrutura; é também importante que os alunos apresentem disposição para aprender e que a nova informação se relacione com o aspecto importante da sua estrutura de conhecimento. É desejável que o ensino propicie aos alunos estabelecer tantos vínculos essenciais e não arbitrários entre os novos conteúdos e os conhecimentos prévios quanto permita a situação, permitindo que eles compartilhem experiências e identifiquem interesses, adquiram habilidades, competências e vivências fundamentais para um bom desempenho profissional. Também é importante que os egressos tenham um perfil empreendedor. Neste sentido, é necessário que sejam capazes de reaprender a planejar, de enxergar as limitações do seu empreendimento ou do setor sob sua responsabilidade, de ser um líder em ação, de agir de acordo com os princípios éticos e de estimular sua equipe. É importante manter os pés no chão e trazer o futuro para o presente, aprendendo com o passado e não apenas extrapolando-o; por este motivo, mais uma vez, em 2009, o currículo do Bacharelado em Física médica vem passando por uma reavaliação. Considerações finais Até 2009, o curso de bacharelado formou 139 alunos. Em 2008, foi realizada uma pesquisa, que tinha como objetivo verificar a posição dos egressos no mercado de trabalho. Foram entrevistados 73 egressos. Desses, 28 atuam, atualmente, em hospitais ou clínicas, 26 em empresas na área de Física Médica, 3 em Universidades, 8 ingressaram na pós-graduação, 1 trabalha na vigilância sanitária, 4 trabalham em escolas e 3 migraram para outra área. Os dirigentes da FAFIS têm procurado o melhor caminho para expandir sua pesquisa e aprimorar as 34 Revista Brasileira de Física Médica. 2009;3(1):25-34. habilitações do curso de Física. Desta forma, pretendese ajudar os alunos a encontrarem um justo e merecido lugar na sociedade e contribuir com a projeção da nossa Universidade no cenário nacional e internacional. As contribuições e o engajamento efetivo de cada professor, funcionário, aluno e egresso tem auxiliado no crescimento e fortalecimento das habilitações oferecidas pelo curso de Física. Para finalizar, é importante salientar o quanto é fundamental conhecer cada partícipe da equipe e suas potencialidades, de forma que todos possam dar a sua valiosa contribuição e compartilhar um mesmo objetivo, traçando metas e estratégias. O trabalho em equipe, aliado à vontade férrea de se alcançar um determinado fim, pode atingir resultados inimagináveis. Muito já foi feito, mas há ainda muito a se fazer sempre com bastante dedicação, entusiasmo e, principalmente, satisfação pela busca dos melhores resultados. O grande desafio não é saber no que formar, mas como formar com qualidade. Referências 1. Ausubel DP, Novak JD, Hanesian H. Psicologia Educacional. Rio de Janeiro: Interamericana; 1980. 2. Triandis HC. Actitudes y cambios de actitudes. Barcelona: Toray; 1974. 3. Bleger J. Temas de Psicologia: entrevistas e grupos. São Paulo: Martins Fontes; 1980. 4. Bardin L. Análise de conteúdos. Lisboa: Edições 70; 1977. 5. Bernasiuk MEB, Bacelar A, Streck EE. Uma alternativa para qualificar a formulação de Bacharéis em Física Médica. [Apresentado no XIII Simpósio Nacional de Ensino de Física, Brasília, 1999]. 6. Mazzola AA, Wagner Filho RVL. Controle de qualidade em processadoras de filmes de raios X. [Apresentado no IV Congresso Latinoamericano para Docentes y Alumnos en Actividades Científicas Extraescolares, San Juan, Argentina, 1994]. 7. Hoff G, Bacelar A, Costa CD, Fernandes CD, Pessi A, Oliveira SS, et al. Análisis Comparativo de Placas Rechazadas en Cuatro Hospitales de Porto Alegre. [Apresentado no III Congresso Regional sobre Segurança Radiológica e Nuclear, Congresso Regional IRPA, 1995, Cuzco, 1995]. 8. Bacelar A, Borges V, Ferreira MB, Jaques L, Mazzola AA. Periodical determination of tests trought technical parameters in X-rays equipaments of Porto Alegre’s Clinicas Hospital. [Apresentado no World Congress on Medical Physics and Biomedical Engineering, Nice, France, 1997]. 9. Bernasiuk MEB, Bacelar A, Streck EE. Qualyfing bachelor degree course student formation in medical physics. [Apresentado no World Congress on Medical Physics and Biomedical Engineering, 2000, Chicago]. 10. Ministério da Educação Conselho Nacional de Educação. Diretrizes Nacionais Curriculares para os Cursos de Física. Despacho do Ministro em 4/12/2001, publicado no Diário Oficial da União de 7/12/2001. Seção 1, p. 25. [Página da internet]. [Acesso em 17 set. 2009]. Disponível em: http:// portal.mec.gov.br/cne/arquivos/pdf/CES1304.pdf. 11. Delors J. Educação: um tesouro a descobrir. São Paulo/Brasília: Cortez/ MEC: UNESCO, 1998. Artigo de Revisão Revista Brasileira de Física Médica. 2009;3(1):35-41. Evolução dos paradigmas de proteção radiológica Evolution of the radiological protection paradigms Gian Maria A A Sordi1 Doutor em Física e Professor do Programa de Pós-Graduação em Tecnologia Nuclear do Instituto de Pesquisas Energéticas e Nucleares – IPEN/USP, São Paulo (SP), Brasil. 1 Resumo Consideramos como paradigmas iniciais de Proteção Radiológica aqueles que se tornaram vigentes após a liberação da energia atômica para usos pacíficos em 1955. Naquela época, só foi introduzido um único paradigma, atualmente conhecido como sistema de limitação de dose. Após discutirem-se as bases que originaram o paradigma, foram introduzidas as diretrizes, isto é, as medidas a serem realizadas para satisfazer o paradigma. Na época, eram duas: o monitoramento das doses de radiação e a classificação das áreas de trabalho. Em seguida, discutiram-se as premissas que reformularam os paradigmas de proteção radiológica que permaneceram em uso internacional até 1995. Ao paradigma anterior modificado foram introduzidos os princípios da justificação e da otimização da proteção radiológica, bem como o conceito de que a proteção radiológica deve ser econômica e eficaz. As diretrizes também aumentaram para quatro: monitoramento pessoal, classificação das áreas de trabalho, níveis de referência e classificação dos trabalhadores. Depois, forneceram-se as principais justificativas para os atuais paradigmas, acrescentando-se as restrições de dose, a exposição potencial e os limites anuais de risco. Em virtude destas modificações, das diretrizes foi eliminada a classificação dos trabalhadores, mas foram acrescentadas as exposições potenciais e a perseguição às restrições das doses. Por fim, discutiram-se as tendências próximas futuras e as principais alterações introduzidas pela CIPR em 2007, publicação nº 103. Palavras-chave: proteção radiológica; paradigma; justificação; otimização; limites. Abstract We consider as initial radiological protection paradigms those in vigour after the release of the atomic energy for pacific usages in 1955. In that occasion, only one paradigm was introduced, presently named dose limitation system. After arguing about the basis that raised the paradigm, we introduced the guidance, that is, the measurements to be implemented to comply with the paradigm. In that occasion, they were two, i.e., the radiation dose monitoring and the workplace classification. Afterwards, the reasons that caused the radiological protection paradigms changes in force until 1995 are discussed. The initial paradigm was modified introducing the justification and the optimization principles, adding that the radiological protection should be economical and effective. The guidance also increased to four: personal monitoring, workplace classification, reference level and workers classification. Afterwards, we give the main justifications for the present paradigms that besides the formers were added the dose constraints, the potential exposure and the annual risk limits. Due to these modifications, the workers classifications were eliminated from the guidance, but the potential exposure and the search for the dose constraints were added. Eventually, we discuss the tendencies for the next future and the main changes introduced by the ICRP in the Publication 103, 2007. Keywords: radiological protection; paradigm; justification; optimization; limits. Paradigmas iniciais de proteção radiológica Bibliografia e premissas Consideramos como paradigmas iniciais de proteção radiológica aqueles que se tornaram vigentes após a liberação da energia atômica para usos pacíficos em 1955. Estes paradigmas foram enunciados pela Comissão Internacional de Proteção Radiológica (CIPR, ou International Commission on Radiological Protection em inglês) através da Publicação 11, em 1958; da Publicação 22, em 1959; e da Publicação 93, em 1966. O Organismo Internacional de Energia Atômica (OIEA) enunciou os paradigmas em 1967, na Publicação 94 da coleção Safety Series. Já a Comissão Nacional de Energia Nuclear (CNEN) os enunciou em 1973, na Resolução CNEN 06/735. O paradigma Naquela época, o paradigma era um só – atualmente conhecido como paradigma do sistema de limitação de dose. Em síntese, é expresso pelos limites de doses máximos permissíveis (LAMP), que foram definidos para a Correspondência: Instituto de Pesquisas Energéticas e Nucleares da Comissão Nacional de Energia Nuclear (IPEN/CNEN) – Avenida Professor Lineu Prestes, 2.242 – Cidade Universitária – CEP 05508-000 – São Paulo (SP), Brasil – E-mail: [email protected] Associação Brasileira de Física Médica® 35 Sordi, GMAA população como um todo, para o trabalhador e para os indivíduos do público (grupo crítico). Para a população como um todo Perguntou-se aos geneticistas da época qual a porcentagem de mutações genéticas – que um indivíduo normalmente possui – poderia ser provocada pela radiação natural, no nosso globo. A resposta foi que de 2 a 20% das mutações maléficas seriam atribuídas à radiação ionizante. Partindo destes dados e do conhecimento da dose anual média do globo, deduziram que o número de mutações maléficas nos descendentes de um indivíduo duplicaria num intervalo de dose entre 0,15 e 1,5 Sv. Na época, a dose anual média natural do globo terrestre era considerada 1 mSva-1, pois não era levada em conta o radônio e a vida média de uma geração de 30 anos, isto é, os primeiros 30 anos de vida. Atualmente, considera-se que a vida média por geração é de 35 anos. A CIPR, com o objetivo de garantir a segurança, admitiu que a duplicação das mutações se daria com uma dose de 0,10 Sv, e a partir deste valor estabeleceu um valor de 50 mSv por geração, para a população como um todo. Este valor de 50 mSv era considerado um valor seguro para evitar um grande acréscimo de mutações nas gerações futuras, lembrando que se considerava que a vida média de uma geração era de 30 anos. Este valor limita a dose anual na população a 1,67 mSv/ano. Para o trabalhador O trabalhador é uma fração muito pequena de indivíduos quando comparada à população como um todo e, portanto, não devem se considerar os efeitos hereditários como no caso anterior, mas unicamente os efeitos somáticos. Para os efeitos que têm uma dose limiar para a sua manifestação, é fácil estabelecer um limite; entretanto, a preocupação deve ser dirigida a alguns efeitos biológicos considerados completamente aleatórios na época, como o câncer e o encurtamento do período de vida. Sabe-se, atualmente, que este último não se manifesta nos seres humanos. Neste caso, o limite anual máximo permissível deveria ser estabelecido num valor tal que a incidência de cânceres no trabalhador continue idêntica àquela que ocorre na população como um todo, isto é, que não seja detectado aumento de incidência de cânceres no trabalhador com relação à população como um todo. Para o encurtamento da vida, não deve ser detectado no trabalhador nenhuma diminuição de sua vida média com relação à vida média da população como um todo, isto é, 70 anos. Atualmente, considera-se a que a vida média da população é de 76 anos. Partindo destes pressupostos, estabeleceu-se que o limite anual máximo permissível para o corpo inteiro é de 50 mSv/ano. Para os indivíduos do público É evidente que se deve considerar um terceiro grupo de indivíduos além dos dois já citados, pois quando se 36 Revista Brasileira de Física Médica. 2009;3(1):35-41. trabalha com as radiações ionizantes sempre existe uma fuga ou uma liberação de material radioativo no ambiente, irradiando, consequentemente, as pessoas que lá se encontram. Estas pessoas foram chamadas de indivíduos do público. Dentre estas pessoas existe um grupo conhecido como grupo crítico, e é este grupo, homogêneo em seus usos e costumes, que recebe a maior dose – e portanto os maiores malefícios. É evidente que este grupo que vive nas imediações de instalações nucleares é bem maior do que o grupo de trabalhadores, mas bem inferior à população como um todo; dessa forma, o limite de dose anual máximo permissível deveria ser estabelecido entre os 50 mSv/ ano para o trabalhador e 1,67 mSv/ano para a população como um todo. Foi escolhida a dose de 5 mSv/ano para o grupo crítico. Diretrizes Uma vez que temos em nossas mentes o paradigma do sistema de limitação de dose, necessitamos conhecer o que devemos fazer para assegurar as ações de acordo com este paradigma. As ações que devemos empreender em obediência ao paradigma assumido são conhecidas como diretrizes ou medidas. O paradigma estabelecido no item anterior estará satisfeito se forem executadas as duas diretrizes que discutiremos a seguir: monitoramento e classificação das áreas de trabalho. Monitoramento Existem dois tipos de monitoramento, conhecidos como monitoramento do local de trabalho e individual. O monitoramento do local de trabalho tem caráter preventivo, uma vez que pode ser empreendido antes que o trabalhador venha a receber a dose; portanto, podem ser tomadas medidas corretivas de proteção antes da execução das tarefas pelo trabalhador. Já o monitoramento individual, ou seja, aquela medida no próprio indivíduo, tem um caráter confirmatório, pois confirma as doses previstas pelo monitoramento do local de trabalho. Em outras palavras, podemos dizer que o monitoramento individual mede a dose de radiação do trabalhador após o seu recebimento. Classificação das áreas de trabalho As áreas de trabalho foram classificadas em duas: área livre e área controlada. A área de trabalho livre é aquela em que são obedecidos os limites para indivíduos do público. Nesta área não é obrigatória a presença de um Serviço de Proteção Radiológica (SPR). Por sua vez, a área de trabalho controlada é aquela em que os valores da radiação são superiores aos limites para indivíduos do público. Nesta área, a presença do SPR é obrigatória. Portanto, o SPR empreende estas duas diretrizes com a finalidade de demonstrar a obediência ao paradigma da limitação da dose. Evolução dos paradigmas de proteção radiológica Paradigmas internacionalmente em uso até 1995 Bibliografia e premissas Os paradigmas internacionalmente em uso até 1995 foram enunciados nas publicações da CIPR, nº 22 de 19736, nº 26 de 19777, e nº 30 de 19788, sendo adotados em 19829 pela OIEA e em 198810 pela CNEN. Antes de discutirmos os novos paradigmas, devemos estabelecer como premissa o porquê da necessidade da sua mudança. Uma série de fatos propiciaram tal mudança, mas dentre eles destacaremos alguns que consideramos vitais. Os efeitos biológicos considerados completamente aleatórios, como o câncer e o encurtamento da vida, na realidade não eram tão aleatórios e imprevisíveis assim, e obedeciam às leis da probabilidade e da estatística. O encurtamento da vida não pode ser provado para os seres humanos e deixou de ser considerado. Para explicar o aparecimento dos cânceres induzidos pela radiação ionizante, surgiu a teoria alvo. Em síntese, essa teoria está alicerçada na ideia do tiro ao alvo, na qual o tiro seria a radiação ionizante e o alvo, a célula. Se a radiação ionizante acertasse a célula em seus pontos vitais, a célula morreria; caso contrário, poderia ser lesada e sobreviver ao ferimento, ou vir a morrer tempos depois. No caso de sobreviver, poderia se tratar, em virtude da lesão, de uma célula diferenciada das demais; e se o patrimônio de divisão celular não for prejudicado, poderia dar origem a descendentes diferenciados que, após várias gerações de divisão, apareceriam clinicamente diagnosticáveis como câncer. Como qualquer radiação ionizante, sua energia – por menor que seja – é suficiente para lesar as células. Devemos admitir que o processo de oncogênese não possui limiar, ou, em outras palavras, que qualquer dose, por menor que seja, é prejudicial e portanto deve ser reduzida. Para conseguir a redução de dose devemos modificar o paradigma do sistema de limitação de dose, isto é, devemos melhorar as condições de proteção até chegarmos a um valor de dose cujo risco, por ser considerado muito pequeno, é aceitável. Este valor de risco é conhecido como nível de registro (vide Figura 1). Em segundo lugar, quando surgiu a primeira publicação de nº 226 da CIPR, estávamos em plena crise do petróleo, o que trouxe uma série de consequências econômicas mundiais muito graves. Tal fato também deveria ser levado em consideração e, portanto, propiciou a introdução de um segundo paradigma. Os paradigmas O novo sistema de limitação estabelece os limites anuais máximos admissíveis (LAMA) para o trabalhador e para o público. O limite da população como um todo foi eliminado, uma vez que foi analisada a dose dos grupos críticos recebidas nos países mais desenvolvidos e todas elas apresentavam doses iguais ou inferiores a 1 mSva-1 e uma dose média de 0,5 a-1 e, portanto, o valor estipulado para a população como um todo nunca seria alcançado. Estes limites anuais só são admitidos se forem justificados e enquanto se mantiverem otimizados. Nada mais é permitido, tudo deve ser justificado e otimizado. Doses superiores aos LAMAs para trabalhadores e indivíduos do público são inaceitáveis. O princípio da justificação e principalmente o princípio da otimização, de acordo com o qual as doses devem ser mantidas otimizadas, são responsáveis por fazer com que a proteção seja cada vez melhorada até alcançarmos os valores de dose considerados aceitáveis. O princípio da justificação proíbe a introdução de atividades para as quais o prejuízo sanitário é superior ao benefício recebido pela sociedade com a introdução daquela atividade, e o princípio da otimização, também conhecido como princípio ALARA (‘as low as reasonably achievable’ em inglês), impõe o abaixamento contínuo das doses com procedimentos racionalmente exeqüíveis ou praticáveis, levando-se em conta fatores sociais e econômicos. Este último princípio procura responder à pergunta: ‘Será que já fiz tudo o que poderia ser feito em matéria de proteção para abaixar ainda mais as doses?’ A resposta positiva a esta pergunta é muito difícil de ser obtida. Não é o caso para os LAMP, cuja pergunta seria: ‘Já fiz tudo o que precisava para manter os valores das doses abaixo de seus respectivos limites?’. Se, por um monitoramento, for comprovado que os valores medidos das doses são inferiores aos limites de dose, em princípio poderia ser garantida a resposta positiva. A crise do petróleo provocou uma recessão econômica tão grave que repercutiu também no campo nuclear, obrigando a introdução do segundo paradigma, de acordo com o qual a proteção radiológica deve ser econômica e eficaz. Diretrizes Com a duplicação dos paradigmas, há a duplicação também das diretrizes. As quatro diretrizes são: monitoramento pessoal, classificação das áreas de trabalho, níveis de referência, e classificação dos trabalhadores. Figura 1. Premissas para mudança do paradigma do sistema de limitação de dose. Revista Brasileira de Física Médica. 2009;3(1):35-41. 37 Sordi, GMAA Monitoramento pessoal Os dois tipos de monitoramento discutidos no item anterior, relativo aos paradigmas iniciais, são mantidos na íntegra, recebendo o nome de monitoramento pessoal. Tanto o monitoramento do local de trabalho como o monitoramento individual foram divididos em três, quanto à sua função: • controladora • operacional • interventora Dizemos que o monitoramento tem função controladora quando, no caso do monitoramento do local de trabalho, avalia a dose que será recebida pelos trabalhadores que permanecem na área, ou quando se quer mostrar que as condições de proteção não foram alteradas com o transcorrer do tempo. No caso do monitoramento individual, a função controladora estima a dose dos trabalhadores. Os verbos ‘avaliar’ e ‘estimar’ serão aqui usados de acordo com as definições da OIEA9: ‘avaliar’ quando se trata de uma dose previsível de ser recebida, usada para o monitoramento de área, que tem um caráter preventivo; e ‘estimar’ quando a dose já foi recebida pelo trabalhador, usada para o monitoramento individual, e que tem um caráter confirmatório. Dizemos que o monitoramento é operacional quando procura evitar, detectar e possibilitar as primeiras medidas em desvios das situações normais de trabalho. Portanto, não visa avaliar ou estimar a dose dos trabalhadores, que é função do monitoramento controlador; antes, visa evitar que o pessoal venha a tomar dose em caso de desvio da normalidade. Para o monitoramento individual, são úteis os dosímetros de aviso. Como as situações anormais no trabalho são causadas por falha de equipamento ou instrumentos, ou por falhas humanas, o lógico é que esta função do monitoramento seja exercida pelo próprio pessoal de operação da instalação – daí o seu nome. O monitoramento com função interventora pode se dar tanto em situação normal de trabalho como em situações anormais reais, portanto, situações já ocorridas. Esse monitoramento tem objetivos e prazos bem definidos e uma vez esclarecido o problema ou sanada a situação anormal, a função interventora desaparece. Classificação das áreas de trabalho A definição de área livre é mantida igual ao do item a respeito dos paradigmas iniciais. Entretanto, para doses superiores aos limites do público, e para carga máxima de trabalho de 2.000 horas por ano, a área é denominada ‘restrita’ e subdividida em duas categorias: supervisionada e controlada. Na área supervisionada, os valores da radiação são inferiores a 3/10 do LAMA do trabalhador, para 2.000 horas/ano, sendo necessário um controle rígido por parte do Serviço de Proteção Radiológica; na área controlada, os valores de radiação são superiores a 3/10 do LAMA do 38 Revista Brasileira de Física Médica. 2009;3(1):35-41. trabalhador para a mesma carga horária, sendo necessário apenas um controle brando. Níveis de referência Podemos considerar os níveis de referência como uma das duas vigas mestras para o abaixamento dos valores de radiação. O nível de referência é um valor da radiação a partir do qual se torna mandatória uma ação por parte do Serviço de Proteção Radiológica. Tanto a CIPR como o OIEA sugerem pelo menos três níveis: nível de registro, nível de investigação e nível de interferência. O nível de registro é um nível de radiação a partir do qual se torna obrigatório o seu registro por parte do Serviço de Proteção Radiológica. Tanto a CIPR como o OIEA recomendam, para o monitoramento individual com função controladora, o valor de 1/10 do LAMA para trabalhador, na fração de tempo de medida do instrumento. O nível de investigação é um valor da radiação a partir do qual se torna obrigatória uma investigação por parte do SPR e exige melhorias no sistema de proteção para que a situação não se repita. Tanto a CIPR como o OIEA recomendam, para o monitoramento individual com função controladora, o valor de 3/10 do LAMA para trabalhador, na fração de tempo de medida do instrumento. Uma vez que o SPR investiga os motivos das doses elevadas acima dos 3/10 dos LAMAs do trabalhador, verifica e monta as opções de proteção que poderiam diminuir as doses e avalia os seus custos. Fazendo uso das técnicas de ajuda para a tomada de decisão, verifica qual é a opção ótima e a submete à autoridade competente para aprovação. Após a implantação da opção ótima, o SPR efetua um monitoramento para confirmação dos resultados previstos pela opção implementada. Por fim, o nível de interferência é um valor da radiação a partir do qual se torna obrigatória a interrupção da atividade a fim de sanar falhas graves no sistema de proteção. Tanto a CIPR como o OIEA recomendam que, para o monitoramento individual seja tomado o valor do LAMA para trabalhadores, recebido num único evento. É evidente que este nível define a situação de incidente ou acidente e, portanto, exige a ação de verificar as causas da emergência e evoca o plano de emergência radiológica para retorno à situação normal. Classificação dos trabalhadores Esta classificação pode ser considerada a segunda viga mestra para o abaixamento dos valores da radiação. Com relação ao monitoramento individual com função controladora, os trabalhadores são classificados em duas categorias: os que se situam em condições de trabalho A e os que se situam em condições de trabalho B. É considerada condição de trabalho A aquela em que o trabalhador tem possibilidade de receber doses maiores do que os 3/10 dos LAMAs, em condições normais de trabalho. Neste caso devem ser consideradas as horas realmente trabalhadas em presença de radiação, e não as 2.000 horas/ano usadas na classificação das áreas de Evolução dos paradigmas de proteção radiológica trabalho. tais trabalhadores necessitam de monitoramento individual com função controladora. É considerada condição de trabalho B aquela em que a possibilidade do trabalhador, em condições normais de trabalho, ultrapassar uma dose igual aos 3/10 dos LAMAs, é remota. Neste caso, não se justifica o monitoramento individual com função controladora. Paradigmas internacionais atuais Bibliografia e premissas Os novos paradigmas internacionais foram introduzidos pela CIPR em 199111, na publicação nº 60, em 199512 pelo OIEA, e em 200513 pela CNEN. Suponhamos que todos os trabalhadores em situação normal de trabalho recebam doses inferiores aos 3/10 dos LAMAs. Nesta situação, muita coisa deve ser alterada com relação ao módulo relativo aos paradigmas vigentes até 1995, tendo em vista as seguintes questões: • se todos os trabalhadores recebem doses inferiores aos 3/10 dos LAMAs, todos eles são classificados nas condições de trabalho B e, portanto, não existe classificação? • se abstrairmos das 2.000 horas/ano, base para a classificação das áreas, e considerarmos as horas realmente trabalhadas no local, podemos dizer que não existem mais áreas controladas, mas unicamente supervisionadas? • deve-se manter o limite anual de dose para o corpo inteiro em 50 mSv se ninguém, em condições normais de trabalho, ultrapassa 15 mSv? Em virtude destas novas situações, é evidente que os paradigmas anteriores deveriam sofrer modificações, com a provável introdução de outros; porém, antes de discutirmos os paradigmas, introduziremos as principais premissas que levaram ao novo conjunto de paradigmas: • continua válida a ideia de que qualquer dose, por menor que seja é prejudicial e, portanto, deve ser reduzida, uma vez que se quer reduzir a dose ao valor aceitável que coincide com o nível de registro, isto é, 1/10 do LAMA – equivalente a 5 mSv/ano para o corpo todo; • enquanto antes, quando as doses eram superiores aos 3/10 do LAMA, havia um universo de trabalhadores muito pequeno nas condições de trabalho A, agora esse universo passa a ser muito grande, podendo alcançar 30 ou 40% dos trabalhadores. • os limites anteriores para trabalhadores não são justificados. Esta premissa é evidente uma vez que todos os trabalhadores recebem doses inferiores a 3/10 dos LAMAs. • para os trabalhadores, não se justifica um limite anual único para as múltiplas atividades humanas envolvendo fontes de radiação ionizante. Isto é evidenciado pelo fato de que diferentes atividades humanas possibilitam diferentes blindagens das fontes, bem como diferentes espectros de dose dos trabalhadores. Doses admitidas para trabalhadores em gamagrafia, por exemplo, não são as mesmas que aquelas admitidas pelos trabalhadores que usam pequenas fontes para avaliar a espessura de películas de papel, nem mesmo aquelas recebidas pelos trabalhadores administrativos envolvidos nessas atividades. • deve-se controlar as possibilidades de ocorrência e os valores previstos nas exposições potenciais. Em função destas premissas, houve a necessidade de modificar em parte os paradigmas vigentes e introduzir outros. Os paradigmas O paradigma do sistema de limitação com os limites anuais e os princípios da justificação e da otimização foram mantidos, mas para o trabalhador foi acrescentado mais um limite. Como todos os trabalhadores apresentam doses anuais de corpo inteiro inferiores a 15 mSv, e como neste valor de dose o erro estimado é de cerca de 25%, teremos 15 mSv ± 4 mSv. Portanto, foi estabelecido um limite anual médio de 20 mSv, mediado sobre cinco anos, que identificaremos como sendo o limite anual máximo admissível médio, LAMAM. O paradigma de manter a proteção radiológica econômica e eficaz continua vigente. Foi introduzido um terceiro paradigma para permitir limites diferenciados para as diferentes atividades humanas, limites estes conhecidos como restrições de dose. E, por fim, foi introduzido um quarto limite para a exposição potencial14, isto é, a exposição que pode ocorrer em eventos anormais mas cuja ocorrência não pode ser garantida. Por meios de cenários, pode-se prever uma certa probabilidade de ocorrência e uma probabilidade de ocorrer um determinado valor da dose. Para esta exposição potencial, foi sugerido um limite anual de risco14; e para abaixar a sua probabilidade de ocorrência e a dose prevista caso ela ocorra, foram introduzidos os princípios da justificação e da otimização. Para estabelecer o limite anual de risco14, foi sugerido que o risco anual à saúde provocado pela exposição potencial fosse, no máximo, igual ao risco provocado pelo limite anual máximo admissível. Diretrizes Com o acréscimo dos novos paradigmas houve a necessidade de ampliar o número de diretrizes para cinco: • monitoramento pessoal; • classificação das áreas de trabalho; • níveis de referência; • restrições de dose; • exposição potencial. Estas diretrizes serão sucintamente discutidas a seguir. Revista Brasileira de Física Médica. 2009;3(1):35-41. 39 Sordi, GMAA Monitoramento pessoal A única novidade no monitoramento pessoal, com relação àquela descrita no item acerca dos paradigmas internacionalmente usados, é a eliminação do monitoramento individual com função controladora, uma vez que todos os trabalhadores, em condições normais de trabalho, recebem doses inferiores aos 3/10 do LAMA. Neste caso, essa função do monitoramento individual não é justificado. O próximo passo será chegar a doses inferiores a 1/10 do LAMA para trabalhadores, quando será eliminado, também, o monitoramento do local de trabalho com função controladora. Ocorre, porém, que em 1997 a CIPR15 informa que o monitoramento individual deve ser mantido para valores de dose individuais entre 5 mSv a-1 e 10 mSv a -1 ou superiores, quando não há possibilidade de se efetuar a estimativa da dose individual de outra maneira. Esta publicação também altera o nome das funções dos monitoramentos. A função rotineira, denominada ‘controladora’, passa a ser denominada ‘de rotina’; a função operacional passa a ser denominada ‘relacionada com a tarefa’; e a função especial não tem o seu nome alterado. Classificação das áreas de trabalho Quanto à classificação das áreas de trabalho – se omitirmos que deve ser feita com base nas 2.000 horas de trabalho por ano, e se considerarmos as horas de permanência real pelo trabalhador –, não teremos nenhuma área controlada, mas unicamente áreas livres ou supervisionadas. Em virtude disto, a classificação foi mantida, mas a definição das áreas foi modificada, com exceção feita à área livre. Desta maneira, a área livre continua sendo aquela que obedece aos limites anuais para os indivíduos do público; a área supervisionada, por sua vez, passa a ser aquela em que, no caso de exposições potenciais, há unicamente possibilidade de efeitos estocásticos; e a área controlada passa a ser aquela em que, no caso de exposições potenciais, há possibilidade de efeitos determinísticos. A classificação da OIEA12 prefere continuar descrever as áreas de trabalho em função das exposições normais. Neste caso, a área supervisionada é aquela em que as condições de exposições laboral são mantidas sob inspeção, ainda que medidas de proteção e fornecimento de segurança específicos normalmente não sejam necessárias. Já a área controlada é aquela em que são ou podem ser exigidas medidas de proteção e fornecimento de segurança específicos para o controle das exposições normais ou a prevenção do espalhamento da contaminação durante as condições normais de trabalho, bem como para prevenir ou limitar as exposições potenciais. Níveis de referência Os níveis de referência discutidos no item acerca dos paradigmas itnernacionalmente usados são mantidos e uma única alteração foi introduzida, no nível de investigação, 40 Revista Brasileira de Física Médica. 2009;3(1):35-41. que passa a ser para doses superiores ao nível de registro; tais doses vão desencadear o processo de otimização. Restrições de dose À medida que as doses dos trabalhadores para uma determinada atividade vão diminuindo, é importante que se fixe uma restrição de dose para acelerar a diminuição das doses das empresas que apresentam doses superiores. Em virtude do exposto, as restrições de dose são estabelecidas em um valor médio entre as maiores e menores doses das diferentes empresas para uma mesma atividade. Exposição potencial Esta diretriz pretende diminuir e, se possível, eliminar o detrimento provocado pelas exposições potenciais, caso elas se tornem reais. Para alcançar esta meta temos, no momento, três linhas de pesquisa: • tentar diminuir a probabilidade de ocorrência da exposição potencial; • tentar diminuir as doses previstas, caso a exposição potencial se torne real; • tentar interpor barreiras que se constituam em linhas de atraso na evolução de uma situação de exposição potencial. Tendências futuras próximas No relatório anual da CIPR, referente ao ano de 1997, informava-se que já tinha sido empreendido o trabalho inicial para consolidar e recapitular as recomendações da publicação 60 da CIPR11, com o propósito de publicar um conjunto de medidas atualizadas por volta de 2005 – data em que os países do Mercado Comum Europeu estariam em condições técnicas de adotar essas novas normas, partindo do pressuposto que todos os trabalhadores recebam, em condições normais de trabalho, doses anuais inferiores a 5 mSv. Pelo que se pode avaliar, atualmente existem três correntes se degladiando: • a tradicionalista, isto é, aquela que predominou até a publicação 60 da CIPR11 e as recomendações do OIEA12, e que preconiza, para os trabalhadores, doses inferiores à 1 mSv/ano e 0,3 mSv/ano para o público, considerando-os valores aceitáveis; • a baseada na otimização, que preconiza as restrições de doses e sua diminuição, até que seja justificado pelo processo das otimizações sucessivas; • aquele que deseja voltar aos LAMP. Em virtude do fato que abaixo dos 200 mSv/ano não podemos detectar os malefícios provocados pela radiação, defende o estabelecimento de um LAMP de 30 mSv/ano tanto para trabalhadores como para público, isto é, tal limite seria válido para toda a população tomando o sujeito individualmente. É a corrente atualmente mais fraca, e seu principal defensor já foi dissuadido desta ideia, porém existe a possibilidade de voltar à tona no futuro. Evolução dos paradigmas de proteção radiológica A tendência mostrada pela CIPR16 no Congresso da IRPA, realizado no Japão de 14 a 19 de maio de 2000, é de que o processo de otimização continuará até que as doses dos trabalhadores alcancem os limites para o público; já no Congresso realizado na Espanha em 200417, esta tendência continuou a prevalecer. Finalmente, em 2007 a CIPR publicou as suas novas recomendações18. Porém, na prática não houve mudanças nos paradigmas e nas diretrizes, apesar de se encontram no detalhamento. Algumas mudanças no detalhamento são: • uma condenação nas restrições de dose que em 12 publicações posteriores à de número 60 eram mais de 30; • ampliação do intervalo dos valores das doses limite, que variavam de 1mSva-1 a 50mSva-1 para a dose efetiva, para a atual variação de 0,1 mSva-1 até 100mSva-1; • a restrição de dose deixa de ser um valor médio, entre as diferentes instalações, das doses individuais de uma prática, passando a ser o valor de dose da opção de proteção básica, isto é, a opção de proteção com o maior valor de dose individual. Conforme ocorreu com recomendações anteriores, o OIEA já possui uma minuta para suas novas recomendações baseadas na publicação 103 da CIPR. Agradecimentos Agradecemos o bacharel Jefferson de Jesus Sousa pela inestimável ajuda na confecção deste artigo. Referências 1. International Commission on Radiological Protection. Recommendations of the International Commission on Radiological Protection (Adopted September 9, 1958). Publication 1. Oxford, Reino Unido: ICRP; 1958. 2. International Commission on Radiological Protection. Addendum to the ICRP Publication. Publication 2. Oxford, Reino-Unido: ICRP; 1959. 3. International Commission on Radiological Protection. Recommendations of the International Commission on Radiological Protection (Adopted September 17, 1965). Publication 9. Oxford, Reino-Unido: ICRP; 1966. 4. Organismo Internacional de Energia Atômica. Basic Safety Standards for Radiation Protection. Safety series, n. 9. Vienna, Austria: OIEA; 1967. 5. Comissão Nacional de Energia Nuclear. Normas Básicas de Proteção Radiológica. Resolução 06/73. In: Diário Oficial da União, 19 de setembro de 1973. 6. International Commission on Radiological Protection. Implications of commission recommendations that doses be kept as low as readily achievable. Publication 22. Oxford, Reino-Unido: ICRP; 1973. 7. International Commission on Radiological Protection. Recommendations the International Radiological of Commission Protection. Publication 26. Oxford, Reino-Unido: ICRP; 1977. 8. International Commission on Radiological Protection. Limits for intakes of radionuclides by workers. Publications 30. Oxford, Reino-Unido: ICRP; 1978-1982. 9. Organismo Internacional de Energia Atômica. Basic Safety Standards for Radiation Protection, Safety series, n. 9. Viena, Austria: OIEA; 1982. 10. Comissão Nacional de Energia Nuclear. Diretrizes básicas de radioproteção. Resolução 12/88. In: Diário Oficial da União, 01 de agosto de 1988. 11. International Commission on Radiological Protection. 1990 Recommendations the International Radiological of Commission Protection. Publication 60. Oxford, Reino-Unido: ICRP; 1991. 12. Organismo Internacional de Energia Atômica. International basic safety standards for protection against ionizing radiation and for the safety of radiation sources. Safety series, n. 115. Viena, Austria: OIEA; 1996 13. Comissão Nacional de Energia Nuclear. Diretrizes básicas de radioproteção. In: Diário Oficial da União, 06 de janeiro de 2006. 14. International Commission on Radiological Protection. Commission on Radiological Protection. Protection from potential exposure: a conceptual framework. Publication 64. Oxford, Reino-Unido: ICRP; 1993. 15. International Commission on Radiological Protection. General principles for the radiation protection of workers. Publication 75. Oxford, Reino-Unido: ICRP; 1997. 16. Clarke RH. The current activities of the International Commission on Radiological Protection. In: Proceedings of the 10th International Radiation Protection Association Congress; 2000; Hiroshima, Japão. 17. Proceedings of the 11th International Protection Association Congress; 2004; Madrid, Espanha. 18. International Commission on Radiological Protection. Oxford, Reino-Unido: Publication 103: ICRP; 2007. Revista Brasileira de Física Médica. 2009;3(1):35-41. 41 Artigo de Revisão Revista Brasileira de Física Médica. 2009;3(1):43-55. Epidemiologia do câncer devido a radiações e a elaboração de recomendações Epidemiology of cancer due to radiations and development of guidelines Emico Okuno1 1 Professora Doutora do Departamento de Física Nuclear do Instituto de Física da Universidade de São Paulo (USP) – São Paulo (SP), Brasil. Resumo Este artigo de revisão discorre sobre as comissões de proteção às radiações ionizantes e não ionizantes e sobre os processos para o estabelecimento de recomendações de limites de exposição. Descrevemos um pouco sobre a história da criação de comissões e sobre os tipos de estudos epidemiológicos, a partir dos quais são estimados os fatores de risco. Serão apresentados alguns resultados recentes de estudos epidemiológicos com sobreviventes das explosões de bombas no Japão e as dificuldades inerentes. Por fim, são relatadas as recomendações internacionais em vigor. Palavras-chave: radiações ionizantes e não ionizantes; epidemiologia; fator de risco; limites de exposição. Abstract This review article describes the ionizing and non-ionizing radiation protection commissions and the development processes of the guidelines for limiting exposure to these radiations. We briefly describe the history of these commissions and the types of epidemiological studies from which the risk factors are evaluated. Some recent results obtained from epidemiological studies of atomic bomb survivors in Japan and the inherent difficulties will be presented. At last the current international recommendations will be presented. Keywords: ionizing and non-ionizing radiations; epidemiology; risk factor; exposure limits. Introdução A elaboração de recomendações internacionais de proteção às radiações ionizantes e não ionizantes é feita por grupos de trabalho nomeados por comitês internacionais, que de tempos em tempos as atualizam à medida que novos conhecimentos são obtidos. O processo para se chegar às recomendações segue um caminho bastante longo. Partem principalmente dos resultados de estudos epidemiológicos e de pesquisas em laboratórios que fornecem as bases para a estimativa de riscos associados a determinados agentes que, por sua vez, são usados para o estabelecimento de limites de exposição. Comissões internacionais e nacionais Existem várias comissões internacionais, principalmente relativas às radiações ionizantes. Citarei aqui somente as mais importantes. Essas comissões se reúnem regularmente em intervalos de poucos anos, elaborando recomendações ou atualizando as já existentes. As comissões trabalham em parceria e têm relações oficiais com: Organização Mundial da Saúde (WHO), Agência Internacional de Energia Atômica (IAEA), Organização Internacional do Trabalho (ILO), Comitê Científico das Nações Unidas sobre o Efeito das Radiações Atômicas (UNSCEAR), Programa Ambiental das Nações Unidas (UNEP), entre outros. Radiações ionizantes: comissões internacionais Em 1925 foi organizado o 1º Congresso Internacional de Radiologia em Londres. Nesse evento foi criada, a pedido de radiologistas, uma comissão que foi chamada International X-Ray Unit Committee, posteriormente mudado para International Commission on Radiological Units and Measurements (ICRU) para elaborar grandezas e unidades com a finalidade de ‘dosar’ a quantidade de radiação usada em aplicações médicas, bem como de uniformizar procedimentos de medidas1. Os raios X haviam sido descobertos por Roentgen em dezembro de 1895 e desde então estavam sendo amplamente utilizados no mundo todo. Cada país media o nível de raios X com unidade Correspondência: Instituto de Física da Universidade de S. Paulo – Rua do Matão, travessa R, 187 – CEP 05508-090 – São Paulo (SP), Brasil – E-mail: [email protected] Associação Brasileira de Física Médica® 43 Okuno E própria, que diferia da que era usada em outro país, porque não havia nem grandezas físicas nem unidades de medida com aceitação internacional. A ICRU introduziu a primeira grandeza relativa à área, que se chamou exposição e para sua unidade o roentgen (r) em 1928, mais tarde modificado para (R) e depois para (C/kg) no sistema internacional (SI); introduziu ainda a dose absorvida (rad) em 1953, o equivalente de dose (rem) em 1962, e suas novas unidades no SI, o gray (Gy) em 1975 e o sievert (Sv), em 1979, respectivamente. Hoje há uma quantidade imensa de grandezas, e para complicar, muitas delas têm a mesma unidade sievert (Sv). No 2º Congresso Internacional de Radiologia, que se realizou em 1928 em Estocolmo, foi criado o International X Ray and Radium Protection Committee, cujo nome foi mudado em 1950 para International Commission on Radiological Protection (ICRP)2. Essa é uma comissão da Sociedade Internacional de Radiologia. Teve por missão elaborar guias de proteção radiológica e estabelecer limites de exposição às radiações ionizantes para indivíduos ocupacionalmente expostos, que foram chamados trabalhadores, e para público em geral. Em 1934, os sete membros da comissão propuseram pela primeira vez o valor de nível permissível de taxa de exposição de 0,2 r/dia. Com o advento do Projeto Manhattan, a questão da proteção radiológica se tornou importante e em 1952, na reunião da comissão compareceram geneticistas de sete países, quando alteraram o limite para 0,3 r/semana para trabalhadores. A recomendação mais recente relativa à proteção radiológica está na ICRP Publicação 103: The 2007 Recommendations of the International Commission on Radiological Protection3, que substituiu a ICRP Publicação 60 de 19904, que por sua vez substituiu a ICRP Publicação 26 de 19775 e assim por diante. Radiações ionizantes: comissão nacional Cada país tem um órgão que faz adequações nas recomendações internacionais e as adota para regulamentar o uso das radiações. No Brasil, tal órgão é a Comissão Nacional de Energia Nuclear (CNEN), que foi criada através do Decreto 40.110 em 10 de outubro de 1956. Em setembro de 1973, a CNEN elaborou as “Normas básicas de proteção radiológica”, cuja atualização mais recente é o documento NN-3.01, “Diretrizes básicas de proteção radiológica”, de janeiro de 2005 e publicada no Diário Oficial da União em 18 de janeiro de 2006. Esta norma é uma tradução com adaptação da ICRP Publicação 60 de 19904. Radiações não ionizantes: comissão internacional A International Radiation Protection Association (IRPA) foi fundada em 1964 sob o patrocínio da Health Physics Society dos Estados Unidos, à qual a Associação Brasileira de Física Médica se filiou em 1989. Uma de suas funções é organizar congressos regionais e internacionais. Em junho de 1974, a IRPA formou um grupo de trabalho para realizar pesquisas em radiações não ionizantes a fim de elaborar guias. Em 1977, no 4º Congresso da IRPA, 44 Revista Brasileira de Física Médica. 2009;3(1):43-55. em Paris, esse grupo recebeu o nome de International Non-Ionizing Radiation Committee (INIRC). E em 1992, no 8º Congresso da IRPA, em Montreal, o nome do grupo foi mudado para International Commission on Non-Ionizing Radiation Protection (ICNIRP). Ela trabalha em colaboração com a WHO, o UNEP, a Agência Internacional de Pesquisa em Câncer (IARC), a Organização Meteorológica Internacional (WMO), entre outros. Para cada faixa da onda eletromagnética não ionizante, englobando a radiação ultravioleta, visível, infravermelha, micro-ondas e radiofrequência e frequência baixa, é constituído um subcomitê especializado para a elaboração das recomendações de proteção. A elaboração das recomendações e o estabelecimento de limites de exposição das radiações não ionizantes seguem um organograma complexo. A ICNIRP forma um grupo de experts de diferentes áreas, que analisa e faz revisão de todos os artigos científicos publicados até então em Epidemiologia, Biologia, Física e Dosimetria, separando aqueles que são confiáveis dos não confiáveis, por falta de dados, por exemplo. Concomitantemente, a IARC elabora monografia na qual identifica e classifica agentes, substâncias, fatores ambientais ou estilo de vida que podem aumentar o risco de seres humanos a terem câncer. A IARC classifica os agentes em grupos: 1 – carcinogênico, 2A – provavelmente carcinogênico, 2B – possivelmente carcinogênico, 3 – não carcinogênico e 4 – provavelmente não carcinogênico. No grupo 2A estão os agentes que apresentam forte evidência de correlação com câncer, porém ainda não conclusivos e no grupo 2B, os agentes com alguma evidência de correlação com câncer, mas ainda longe de se chegar à conclusão. Após a realização dessas duas comissões, a Divisão de Saúde Ambiental da WHO elabora um documento completo chamado Environmental Health Criteria (EHC). Esse inclui uma visão geral das características físicas, técnicas de medida e instrumentação, fontes e aplicações das radiações, uma análise completa da literatura sobre efeitos biológicos e uma avaliação dos riscos à saúde devido à exposição às radiações não ionizantes de cada faixa. Só depois é que a ICNIRP elabora as recomendações internacionais com os limites de exposição. O EHC 1606 relativo à Radiação Ultravioleta (RUV), por exemplo, foi publicado em 1994 sob o patrocínio da UNEP, ILO, ICNIRP e WHO. A IARC, por sua vez, elaborou a monografia Solar and Ultraviolet Radiation em 19927, na qual classificou a radiação solar no grupo 1 e as radiações UVA, UVB e UVC no grupo 2A; também publicou outra monografia sobre protetores solares em 20018. As últimas recomendações para a RUV da ICNIRP foram publicadas em 20049, que substituíram as de 1996. Com relação às ondas eletromagnéticas de frequência alta e campos eletromagnéticos de 50 a 60 Hz, a IRPA/ INIRC havia emitido as recomendações respectivamente em 1988 e 1990, que foram atualizadas em 1998 pela recomendação ICNIRP, atualmente em vigor: Guidelines for limiting exposure to time-varying electric, magnetic, and electromagnetic fields (up to 300 GHz)10. A ICNIRP continua desde então trabalhando no sentido de que essa Epidemiologia do câncer devido a radiações e a elaboração de recomendações Radiações não ionizantes: comissão nacional Não há nenhum órgão responsável para a elaboração das recomendações de proteção e de estabelecimento de limites de exposição a radiações não ionizantes no Brasil. Em 2 de julho de 2002, a Agência Nacional de Telecomunicações (ANATEL) apresentou a resolução 303, que aprova o Regulamento sobre limitação da exposição a campos elétricos, magnéticos e eletromagnéticos na faixa entre 9 kHz e 300 GHz, além de um anexo a essa resolução baseado nas recomendações da ICNIRP10. Em 5 de maio de 2009 foi decretada a lei 11.934 pela Presidência da República, que estabelece limites de exposição humana a campos elétricos, magnéticos e eletromagnéticos, associados ao funcionamento de estações transmissoras de radiocomunicação, de terminais de usuário e de sistemas de energia elétrica na faixa de frequência até 300 GHz, visando garantir a proteção da saúde e do meio ambiente. Os limites são os mesmos da ICNIRP10. Quanto à radiação ultravioleta, há portarias relativas somente ao bronzeamento artificial: CVS-02 do Estado de São Paulo de janeiro de 2000 e CVS-12 de dezembro de 2000, e a Resolução 308 da ANVISA; esta, publicada no Diário Oficial da União em 5 de dezembro de 2002, obriga os fornecedores de câmaras de bronzeamento e os estabelecimentos que as usam a atenderem as prescrições da NBR IEC 60335-2-27, sendo uma delas a de apresentar laudo de espectro radiométrico. Epidemiologia A epidemiologia – palavra que vem do grego epi (sobre) + demos (população) + logos (estudo) – trata de epidemias*, 30 Excesso de mortes por ano recomendação seja harmonizada, isto é, usada por todos os países do mundo. Entretanto, isso não aconteceu pois alguns países rejeitaram essas recomendações e abaixaram os limites de exposição, principalmente no que se refere às micro-ondas emitidas por antenas de telefonia celular. Outra grande preocupação se refere ao campo magnético de 60 Hz, desde que foi classificado em 1992 pela IARC – na monografia Non-ionizing radiation, part 1: static and extremely low frequency (ELF) electric and magnetic fields11 – como pertencente ao grupo 2B, ou seja, como agente possivelmente carcinogênico. A WHO iniciou o International Electromagnetic Field Project em 1996 para coletar evidências científicas dos possíveis efeitos biológicos dos campos elétricos e magnéticos e eletromagnéticos de 0 a 300 GHz. Muito já foi realizado e a programação é a seguinte: o documento EHC para campos de frequência extremamente baixa, cuja publicação estava prevista para 2003, foi efetivada em 2007, e a ICNIRP espera apresentar as recomendações ainda em 2009; quanto ao documento EHC para campos eletromagnéticos de radiofrequência cuja publicação, originalmente prevista para 2006, foi prorrogada para 2011 e as recomendações da ICNIRP ficaram para 2012. Câncer sólido 20 10 Doenças (não-câncer) leucemia 0 1945 1965 1985 2005 2025 Ano Fonte: RERF (Radiation Effects Research Foundation), 200515 Figura 1. Mortalidade relacionada à radiação ionizante no Estudo do tempo de vida (life span study) com os sobreviventes das bombas atômicas acompanhados de 1950 a 1997. de padrões de doença tais como quem é portador de uma dada doença e porque tem essa doença, e é o estudo do que ocorre em uma dada população12-14. O grande temor das pessoas com relação a algum tipo de radiação é a indução de câncer, que surge muitos anos após a exposição e que é denominado efeito estocástico. O tempo de latência médio entre a exposição à radiação ionizante e a detecção do excesso de mortes com leucemia em Hiroshima foi de 2 anos e o pico foi alcançado (7 ± 1) anos após a explosão da bomba. Entretanto, no caso de cânceres sólidos, o tempo de latência médio pode ser de mais de 50 anos, como se pode ver na Figura 1. Assim, a correlação entre a exposição à radiação e câncer só pode ser feita através de estudo epidemiológico. Isso porque a epidemiologia se propõe a medir a influência de vários agentes, do estilo de vida, dos hábitos alimentares, da genética e mesmo de medicamentos que devem ser tomados durante toda a vida, na saúde humana e investiga a existência ou não de uma associação entre uma dada doença e um determinado agente. Desde meados do século 19, a Medicina tenta descobrir a existência de correlação entre o ambiente, o modo de vida, a genética e o surgimento de determinadas doenças. Com o avanço da estatística e dos métodos de diagnóstico e com milhares de participantes honestos é que surgiram os primeiros estudos importantes em epidemiologia. Um estudo epidemiológico prospectivo importantíssimo, ainda em andamento, é o Framingham Heart Study16 que se iniciou em 1948 e foi coordenado pela Universidade de Harvard e pelo Instituto Nacional de Saúde dos Estados Unidos. Isso porque, no fim da década de 40, a maior causa de morte nos Estados Unidos já eram os distúrbios cardiovasculares e o número de mortes aumentava a cada ano, transformando-se em epidemia. Além disso, pouco se sabia sobre as causas de infarto, por exemplo, e o estudo teve por um * De acordo com o Novo Dicionário Aurélio, epidemia é uma doença que surge rapidamente em um lugar e acomete simultaneamente grande número de pessoas; a endemia, por sua vez, é uma doença que existe constantemente em determinado lugar e ataca número maior ou menor de indivíduos; a pandemia é uma epidemia generalizada. Revista Brasileira de Física Médica. 2009;3(1):43-55. 45 Okuno E dos objetivos a identificação de fatores que contribuem nas doenças cardiovasculares. A maior parte dos cardiologistas acreditava que a aterosclerose, assim como o aumento da pressão arterial, era uma consequência inevitável do envelhecimento. Esse estudo teve por participante quase toda a população de Framingham, cidade-dormitório a 50 km de Boston, Estados Unidos. Eles assumiram o compromisso de se submeterem a repetidos testes e responderem a questionários de tempos em tempos por toda a vida, para determinar os fatores de risco para derrames e infartos. Em 1971, a segunda geração entrou como participante e em 2002, a terceira geração foi recrutada. Os conhecimentos adquiridos durante todos esses anos apontam que os principais fatores de risco cardiovasculares são: pressão arterial alta, nível alto de colesterol, tabagismo, obesidade, diabetes mellitus e sedentarismo. Além disso, apontam também que hábitos de vida saudável podem reverter ou retardar doenças cardíacas, e que há relação entre vírus e bactérias e incidência de doenças cardiovasculares. Outras informações importantes sobre a demência, osteoporose, artrite, diabetes e câncer também foram obtidas. Atualmente os pesquisadores estão com a atenção voltada aos genes responsáveis pelo metabolismo do colesterol e o papel dos fatores genéticos nas doenças cardiovasculares. Objetivo da epidemiologia O principal objetivo da epidemiologia é a determinação de causa e efeito relativos aos agravos à saúde. Tem como meta verificar se os resultados estatísticos indicam a presença de uma verdadeira associação causal e estimar o risco de um dado agente à saúde. Entretanto, um resultado estatisticamente significativo ainda não prova que a associação seja necessariamente de causa e efeito. Para determinar se um dado agente, também denominado fator de risco (fumo, radiação ionizante, radiação UV, amianto etc.) causa doença, há alguns critérios principais que os epidemiologistas usam: temporalidade, consistência, resposta à dose, plausibilidade etc. • Temporalidade: significa que a exposição deve preceder a ocorrência de doença. Uma pessoa, ao descobrir que está com câncer de pulmão, fica nervosa e começa a fumar. Nesse caso, o fumo não é a causa do câncer. Entretanto, em muitos estudos, os epidemiologistas coletam informações após ambas as ocorrências: exposição e doença, esquecendo-se da temporalidade. • Consistência: significa que o mesmo tipo de efeito é verificado por pesquisadores de diferentes localidades. A relação entre fumo e câncer de pulmão foi estudada de 1950 a 1990 por diferentes autores na população feminina e masculina separadamente, e em raças diferentes, e todos chegaram à conclusão de que o fumo é agente carcinogênico, causador de câncer pulmonar. • Resposta à dose: significa que quanto maior a dose, maior é o efeito. No caso do fumo foi também demonstrado que quem fuma mais tem maior risco de ter câncer do pulmão. 46 Revista Brasileira de Física Médica. 2009;3(1):43-55. • Plausibilidade: se houver uma explicação científica plausível sobre o processo de interação que causa câncer, como a ionização, maior é a credibilidade na associação causal entre a doença e aquele agente. No que se refere às micro-ondas de telefonia celular, até hoje não há conhecimento científico plausível quanto ao processo de indução de câncer. Essas ondas não possuem energia suficiente para ionizar, que é o primeiro estágio do dano na molécula de DNA que pode resultar em câncer. Principais tipos de estudos epidemiológicos A seguir descreveremos resumidamente dois dos principais tipos de estudos epidemiológicos. Estudo caso-controle Esse estudo responde à pergunta: por que eu? Por que aconteceu comigo? Por que certas pessoas ficam doentes (casos) e por que outras não (controle)? O estudo caso-controle é em geral retrospectivo, desde que a história de exposição a um agente no passado seja avaliada. Uma vez que os objetivos do estudo são definidos, começase a identificação dos casos (doentes) e dos respectivos controles (não doentes). Tradicionalmente a comparação é expressa em termos de proporção de casos versus proporção de controles, ambos mostrando uma característica particular. Ou seja, trata-se de verificar a possibilidade de diferenças nas proporções de indivíduos expostos entre os doentes e entre os não doentes. Se encontrar uma frequência maior de indivíduos expostos entre os casos do que entre os de controle, pode-se deduzir que há uma associação entre a doença e o agente ao qual as pessoas estudadas estiveram expostas. Nesse tipo de estudo determina-se o odds (chance, probabilidade), que é uma razão de probabilidades. O Odds Ratio (OR), também chamado razão de produto cruzado, é uma razão entre odds, ou uma razão entre as razões de probabilidades e é associado à probabilidade de exposição. A partir dos dados da Tabela 1, podemos escrever a Equação 1, através da qual se determina a Odds Ratio. (1) O Odds Ratio é uma grandeza adimensional; se OR=1, significa que não há associação entre o agente em questão e o evento; se OR>1, significa que a associação é positiva e que quem é doente provavelmente esteve exposto ou mais exposto a um dado agente do que quem não é doente; e se OR<1, a associação é negativa e o agente tem um papel protetor. Estudo coorte O estudo coorte seleciona indivíduos baseados em nível de exposição, sendo que nenhum deles está doente quando se inicia o estudo. É um estudo longo, diferente Epidemiologia do câncer devido a radiações e a elaboração de recomendações do caso-controle, que é bem mais curto. Em geral é um estudo prospectivo que acompanha a partir de uma data, durante muitos anos, um grupo de pessoas que sabidamente estiveram expostas ao fator suspeito em diferentes níveis, ou um grupo exposto e outro não exposto ou menos exposto. À medida que se prossegue o estudo, o pesquisador vai contabilizando o aparecimento da doença. Um exemplo é a verificação do surgimento de casos de leucemia em crianças que estiveram expostas à radiação ionizante ainda no útero. Os dados coletados consistem de informação sobre o grau de exposição dos indivíduos e o aparecimento e desenvolvimento de uma dada doença. Esses dados são tabulados conforme a Tabela 2. A taxa de incidência entre os expostos é a/(a+b)=Ie e a taxa entre os não expostos é c/(c+d)=I0. O epidemiologista está interessado em determinar se a taxa de incidência entre os expostos é maior que a taxa entre os não expostos, ou seja, se a/(a+b)>c/(c+d). Se isso ocorrer é porque há uma associação entre o agente ao qual essas pessoas estiveram expostas e o subsequente aparecimento da doença. A pergunta seguinte é quão forte é essa associação. Para responder a essa pergunta, calcula-se o Risco Relativo ou o Risco Proporcional (RR), que é uma medida da intensidade de associação em um caso observacional. Portanto, o Risco Relativo pode ser calculado, dividindo a taxa de incidência de uma dada doença entre indivíduos expostos, Ie pela taxa de incidência dessa mesma doença entre indivíduos não expostos, I0,, através da Equação 2. (2) O RR é uma grandeza adimensional; se o RR=1, não há associação entre a presença de um agente e o evento; se RR>1, a associação é positiva e a presença desse agente se associa a uma maior ocorrência de evento; e se RR<1, a associação é negativa. O RR é útil porque nos diz quantos casos extras de incidência da doença são esperados em uma população específica nos próximos anos, sabendo-se a exposição e o fator de risco correspondente. Calculam-se também a variância, os limites de confiabilidade e realizam-se os testes estatísticos. A interpretação dos valores de RR está na Tabela 3. Mesmo que o RR esteja entre 1 e 3, na categoria de associação muito fraca ou fraca, se a quantidade de indivíduos envolvidos for grande, a pesquisa epidemiológica torna-se importante. O OR e o RR são equivalentes no caso de doenças relativamente raras, o que é verdade para muitas doenças crônicas que acometem menos do que 1 a 5% da população em observação durante vários anos, que é o caso de câncer. Podemos definir ainda o Risco Absoluto (AR), que é a probabilidade, comumente medida em porcentagem, de uma pessoa desenvolver uma doença ou morrer, em certo Tabela 1. Caracterização do banco de dados para estudo epidemiológico do tipo caso-controle. Exposição Expostos Não expostos Total Número de doentes (casos) a c a+c Número de pessoas sem a doença (controle) b d b+d Tabela 2. Caracterização do banco de dados para estudo epidemiológico do tipo coorte. Característica etiológica ou exposição Presente (expostos) Ausente (não expostos) Ficaram doentes a c Não ficaram doentes b d Total a+b c+d Tabela 3. Interpretação do Risco Relativo Risco Relativo (RR) >3 Entre 2 e 3 Entre 1 e 2 1 <1 Interpretação Associação forte Associação fraca Associação muito fraca Não há associação Associação negativa (efeito protetor) intervalo de tempo. O AR é importante para estimar a porcentagem de uma população que é a de risco com relação a um dado agente. A publicação da ICRP3 emprega ainda as grandezas Excesso de Risco Relativo (ERR), sendo ERR=1-RR, e Excesso de Risco Absoluto (EAR), sendo EAR=1-AR, e o Coeficiente de Risco Nominal medido em Sv-1, que é a estimativa de risco para efeitos estocásticos, isto é, câncer e efeitos hereditários. Qualquer estudo epidemiológico devido a doses baixas deve ser feito com um número muito grande de indivíduos. Comumente, o estudo é feito com centenas de indivíduos, ou, na melhor das hipóteses, com alguns milhares, de modo que a estatística pode não ser confiável. Na história da epidemiologia, somente cerca de uma dúzia de agentes ambientais têm sido repetida e fortemente ligados ao câncer humano. Entre eles podemos citar o fumo, o álcool, a radiação ionizante, a ocupação ligada a asbestos, o vírus da hepatite B, o vírus HTLV-1 da leucemia de célula T humana e o papilomavírus humano (HPV). A determinação da relação entre exposição à radiação ionizante e incidência de câncer nos sobreviventes das bombas atômicas é feita através de estudo epidemiológico do tipo coorte. Esse estudo vem fornecendo as informações mais confiáveis e acumulando dados desde 1947. Atomic Bomb Casualty Commission e Radiation Effects Research Foundation Dois anos após a explosão das bombas atômicas no Japão, em 1947, a Atomic Bomb Casualty Commission Revista Brasileira de Física Médica. 2009;3(1):43-55. 47 Okuno E (ABCC) se estabeleceu em Hiroshima e no ano seguinte em Nagasaki, sob os auspícios da United States National Academy of Sciences para começar os estudos epidemiológicos de longa duração de efeitos das radiações ionizantes nos sobreviventes das duas cidades17. Era um trabalho de colaboração entre Estados Unidos e Japão. Em 1975, a ABCC foi substituída pela Radiation Effects Research Foundation (RERF)15, que é uma fundação japonesa sem fins lucrativos, administrada com fundos iguais dos governos do Japão e dos Estados Unidos. A RERF vem desenvolvendo uma série de pesquisas desde então, sendo seus principais temas: estudo do tempo de duração da Tipo de câncer bexiga câncer sólido mama fem pulmão cérebro tireoide colo esôfago ovário estômago fígado pâncreas reto câncer de pele não melanoma útero próstata 1,0 2,0 1,5 2,5 3,0 Risco Relativo Fonte: adaptado de Preston et al.18 Figura 2. Risco Relativo para a incidência de câncer obtido com o estudo epidemiológico sobre tempo de duração de vida entre os sobreviventes das bombas no Japão. As linhas horizontais indicam intervalo de confiança de 90%. Doenças mioma uterino doença na tireoide cálculo no rim demência doença no fígado infarto do miocárdio catarata derrame aneurisma aórtico hipertensão doença cardíaca úlcera gástrica doença de Parkinson glaucoma 0,75 1,00 1,25 1,50 1 ,75 2,00 Risco Relativo Fonte: adaptado de Yamada et al.19 Figura 3. Risco Relativo para a incidência de outras doenças que não câncer entre os 10.000 sobreviventes das bombas em Hiroshima e Nagasaki que receberam dose de 1 Gy obtido através do estudo da saúde de adultos de 1958 a 1998. As linhas horizontais indicam intervalo de confiança de 95%. 48 Revista Brasileira de Física Médica. 2009;3(1):43-55. vida (Life Span Study - LSS), Estudo da saúde de adultos, estudo de patologias e Estudo de mortalidade, entre outros. Um documento publicado em 2008 pela RERF diz que, embora já se passaram mais de 60 anos, ainda serão necessários mais 40 anos para completar o estudo epidemiológico dos efeitos das radiações nos sobreviventes. A pesquisa sobre LSS acompanhou e continua acompanhando mais de 200.000 sobreviventes das explosões das bombas de Hiroshima e Nagasaki e seus descendentes. O principal objetivo da pesquisa é correlacionar a mortalidade e a incidência de câncer induzido pela radiação ionizante com o grau de exposição. Esse estudo epidemiológico é o mais importante do mundo pelo tamanho da população considerada, duração da pesquisa e dados minuciosamente registrados ano após ano. Vários resultados importantes continuam sendo obtidos e eles são usados para estimar o grau de risco da radiação ionizante na saúde humana. A Figura 2 mostra o RR normalizado para a incidência de câncer em diferentes órgãos, induzido por uma dose de 1 Gy recebida aos 30 anos e detectado aos 70 anos18. Um outro resultado novíssimo de epidemiologia foi obtido com o Estudo da saúde de adultos de 1958 a 1998. Ele se refere a um aumento na incidência de outras doenças que não câncer entre os sobreviventes da explosão das bombas no Japão que receberam dose absorvida de 1 Gy. A Figura 3 mostra o RR para a incidência de várias doenças que não câncer devido à radiação ionizante. A Figura 4, por sua vez, mostra o RR para a mortalidade que resulta de outras doenças que não câncer entre os sobreviventes das bombas no Japão, obtido através do Estudo LSS e do Estudo da saúde do adulto, principalmente quando a exposição ocorreu em tenra idade. O aumento de mortalidade é estatisticamente significativo para todas as doenças que não cânceres, especialmente doenças cardiorrespiratórias, derrames e doenças digestivas em pessoas que receberam dose absorvida de 1 Gy. Atualmente, são estudados os possíveis mecanismos biológicos relacionados com a aterosclerose, causada pela radiação ionizante. Os efeitos tardios em pessoas que se submeteram a radioterapia na região do tórax também estão sendo coletados e acumulados para fins de comparação. Esses dados serão muito importantes porque em radioterapia as doses são bem conhecidas. Dificuldades inerentes aos estudos epidemiológicos Há várias dificuldades em estudos epidemiológicos: os vieses, o tamanho da população a considerar, a determinação da ‘dose’ a que a população é exposta, a influência do sexo, da idade das pessoas, entre outros. Os vieses são outros fatores ou agentes que podem influenciar na determinação de risco e que não foram considerados21. No que se refere ao tamanho da população, ele deve ser tanto maior quanto menor for a dose (ou o efeito), e muitas vezes não é fácil encontrar a população de controle que não é exposta ou pouco exposta a um dado agente, como é o caso de exposição a micro-ondas Epidemiologia do câncer devido a radiações e a elaboração de recomendações de telefonia celular. No caso da radiação ionizante, o tamanho da população necessário para detectar excesso de risco associado com probabilidade de 80% com nível de significância de 5% é estimado como sendo de 61,8 milhões de indivíduos para dose de 1 mGy, de 620 mil para dose de 10 mGy e de 6.390 para dose de 100 mGy etc., segundo a ICRP Publicação 9922. Uma das maiores dificuldades é a estimativa de dose recebida pelas pessoas do público que não usavam dosímetros e que foram expostas à radiação. No caso dos campos magnéticos de 60 Hz, o estudo epidemiológico correlacionando câncer infantil começou com Nancy Wertheimer e Ed Leeper em 197923, que consideraram a configuração dos fios elétricos nas casas em Denver para especificar a dose. O acidente de Chernobyl expôs à radiação ionizante tanto externa quanto internamente a maior população na história de acidentes até hoje, mas não há como determinar a dose recebida individualmente. As cidades europeias foram contaminadas de forma muito diferente, dependendo da meteorologia na ocasião, como a direção do vento que levou a poeira radioativa e as chuvas localizadas. A primeira tentativa para estimar as doses recebidas pelos sobreviventes das bombas atômicas explodidas no Japão foi iniciada em 1957 pelos pesquisadores da Oak Ridge National Laboratory, cujo sistema de dosimetria recebeu o nome de T57D15,24,25. As cidades foram divididas em regiões por meio de círculos concêntricos com raios de 500 m, 1.000 m, 1.500 m etc., tendo como centro o hipocentro, que é o ponto em que uma linha perpendicular traçada do local da explosão da bomba atinge o solo. A dose individual seria estimada coletivamente por faixas, através de informação do próprio sobrevivente sobre sua posição na hora da explosão, se estava entre 500 e 1.000 m, por exemplo, do hipocentro. Para isso, explodiram bombas no deserto de Nevada, principalmente para avaliar o grau de blindagem da radiação pelas residências e prédios, e também para avaliar os campos de radiação que resultaram da explosão. Para tal, construíram residências similares àquelas japonesas, com paredes de madeira, com fantomas portando dosímetros no interior delas, e as colocaram nas proximidades dos locais das explosões. Foram feitas as dosimetrias de radiação gama e de nêutrons. Sendo esse sistema bastante rudimentar, ele foi substituído posteriormente pelo sistema dosimétrico T65D15,24,25 realizado pelos pesquisadores da Oak Ridge National Laboratory em colaboração com os do Los Alamos National Laboratory. Ambos eram ainda métodos tentativos e empíricos baseados em medidas nucleares e continham muitas dúvidas quanto à altura e ao hipocentro da explosão das bombas, além de incoerências encontradas entre os resultados previstos e medidos e de efeitos entre os sobreviventes de Hiroshima e Nagasaki. Com o avanço na tecnologia de computação, decidiram levar avante um novo sistema dosimétrico, agora em colaboração entre Estados Unidos e Japão, que foi denominado DS8624,25. As doses absorvidas (Gy) estimadas em Hiroshima pelo T65D e DS86 a 1.485 m do hipocentro podem ser vistas na Tabela 4. Nota-se que a dose devida a nêutrons no DS86 em relação a T65D abaixou de um fator ao redor de 10, mas a devida à radiação gama aumentou entre 1,5 e 2,0. Em ambos os sistemas, a blindagem diminuiu de 2,5 a 3,0 vezes a dose devida a nêutrons, e a devida à radiação gama, de 1,1 a 1,7 em um indivíduo por ter estado em ambiente interno em vez de a céu aberto. O excesso de cânceres sólidos, por outro lado, havia dobrado em estatística de 1985 em relação a de 1975. O excesso de morte com câncer entre os sobreviventes acompanhados de 1950 a 1985 foi estimado como sendo de: 13,1×10-4/ (pessoa∙ano∙Gy). Esses dados foram muito importantes quando a ICRP decidiu atualizar em 1990 as recomendações de ICRP Publicação 26 de 19775. O limite anual recomendado para trabalhadores, para limitar a probabilidade de ocorrência de efeito estocástico que era de 50 mSv/ano, passou a ser de 20 mSv/ano na ICRP Publicação 60 de 19904 – um abaixamento drástico. Entretanto, os pesquisadores perceberam que o DS86 ainda tinha algumas falhas à medida que começou a ser usado. Para distâncias maiores que 1,5 km do hipocentro todas as doenças não câncer doenças cardíacas derrame doenças respiratórias doenças digestivas doenças infecciosas outras doenças 0,8 1,0 1,2 Risco Relativo Fonte: adaptado de Preston et al.20. Figura 4. Risco Relativo de mortalidade devido a outras doenças que não câncer. As linhas horizontais indicam intervalo de confiança de 90%. Tabela 4. Estimativa de dose (mGy) em Hiroshima feita pelo T65D e DS86 a 1.485 m do hipocentro a céu aberto, em ambiente interno e na medula óssea Local Céu aberto Ambiente interno Medula óssea Nêutron Nêutron T65D DS86 120 9,3 34 3,7 9,5 1,1 Gama T65D 240 210 Gama DS86 517 308 Total T65D 360 244 Total DS86 526 312 130 244 140 245 Fonte: adaptado de Kaul DC24 Revista Brasileira de Física Médica. 2009;3(1):43-55. 49 Okuno E em Hiroshima, a quantidade de nêutrons calculada não estava de acordo com valores medidos. Surge assim, em 2002, um novo sistema de dosimetria denominado DS0215,25. Foram efetuadas simulações computacionais para melhor determinar o local de explosão da bomba, o tipo e a quantidade de radiação liberada, seu transporte no ar e sua atenuação através de diversos meios. Os dados assim obtidos foram validados com medidas experimentais de termoluminescência, e de ativação de elementos por nêutrons térmicos e rápidos em diversos laboratórios especializados do mundo. Com DS0215,25 muitas dúvidas foram sanadas, e as doses individuais estimadas não ficaram muito diferentes daquelas obtidas com DS86. Entretanto, as doses nas pessoas continuam tendo uma incerteza inerente de cerca de 35% por várias razões: possível imprecisão na informação reportada pelos sobreviventes de onde e como estavam no exato momento da explosão além do valor do rendimento da bomba e das características da radiação emitida que só são conhecidos através de estimativas. Há ainda um outro fator que dificulta a obtenção do coeficiente de risco: as doses e as taxas de dose nos sobreviventes das bombas são muito mais altas que aquelas as quais estamos expostos no nosso dia-a-dia. Assim, foram desenvolvidos modelos para poder extrapolar os riscos de doses baixas e taxas de dose baixa (RDTDB) a partir dos riscos de doses altas e taxas de dose alta (RDTDA). Introduziram o que se chamou DDREF (dose and dose rate effectiveness factor) que é um número que deve ser usado para dividir o RDTDA para se estimar o RDTDB. Ele é obtido dividindo o coeficiente angular da reta que ajusta os dados de efeitos versus dose alta, usando o modelo linear sem limiar, pelo coeficiente angular da reta que ajusta a região de dose baixa. Os valores de DDREF obtidos variam muito de 2 a 10, dependendo do tipo de tumor e do modelo usado para correlacionar o efeito (morte ou incidência de câncer) versus dose. A ICRP Publicação 1033 recomenda o uso do valor 2,0 para DDREF e reconhece que há muitas incertezas. O estado da arte A seguir transcrevemos as recomendações em vigor elaboradas pelas comissões internacionais para as radiações ionizantes, radiação ultravioleta, campos elétricos e magnéticos estáticos e de 60 Hz e campos eletromagnéticos de radiofrequência, com comentários. A forma para o estabelecimento de limites de exposição tanto para radiações ionizantes quanto para as não ionizantes tem certa similaridade. As grandezas usadas para limitação primária não são mensuráveis e se relacionam com os efeitos biológicos no corpo humano. Para saber se a recomendação está sendo cumprida, outras grandezas mensuráveis necessitam ser introduzidas. Os limites de dose, que já chegaram a ser chamados limites máximos permissíveis, de uma forma geral, são inicialmente estabelecidos para indivíduos ocupacionalmente expostos. O valor da limitação para público é obtido, geralmente, dividindo-se o valor ocupacional por um fator 20 ou 10 ou 5, dependendo do caso. As recomendações levam em conta somente os efeitos comprovados e os efeitos tardios e agudos ou somente os agudos. Radiações ionizantes: recomendações da ICRP Publicação 103 A ICRP introduziu o conceito de detrimento, em vez de morte ou incidência de câncer, como medida de dano total à saúde experimentado por um grupo de pessoas e seus descendentes devido à exposição à radiação, à medida que vários tipos de câncer começaram a apresentar curas. Esse conceito leva em conta o fato de um indivíduo ser acometido por um câncer fatal, ponderado pela probabilidade de ter um câncer não fatal e pela probabilidade de ter graves efeitos hereditários além de anos de vida perdidos. O risco de detrimento ou risco fatal (de morte) R de indivíduos expostos à radiação com dose efetiva E (Sv) pode ser calculado através da Equação 3: R = f×E (3) onde: f (Sv-1) é o fator de risco ou coeficiente de probabilidade de risco nominal expresso em número de casos ocorridos por unidade de dose. Os coeficientes f de probabilidade de risco nominal para efeitos estocásticos ajustados ao detrimento e usados pela ICRP de 19904 e de 20073 estão na Tabela 5. É importante observar que quase não houve alteração nos coeficientes para câncer, mas para efeitos hereditários os novos coeficientes abaixaram muito. Isso porque, por ora, não encontraram evidência de aumento de danos genéticos nos descendentes dos sobreviventes das bombas atômicas no Japão. Uma vez conhecidos os coeficientes de risco nominal, e decidindo um valor de risco R que seria considerado aceitável, pode-se calcular o valor de dose efetiva para limitar os efeitos estocásticos. Tabela 5. Coeficientes de risco nominal para efeitos estocásticos ajustados ao detrimento (10-2 Sv-1) População exposta População toda Trabalhador adulto Câncer fatal + não fatal ICRP 2007 ICRP 1990 5,5 5,0 + 1,0 4,1 4,0 + 0,8 Fonte: publicação ICRP 604 e ICRP 1033. 50 Revista Brasileira de Física Médica. 2009;3(1):43-55. Efeitos hereditários ICRP 2007 ICRP 1990 0,2 1,3 0,1 0,8 Total ICRP 2007 5,7 4,2 Total ICRP 1990 7,3 5,6 Epidemiologia do câncer devido a radiações e a elaboração de recomendações Tipo de limite Dose efetiva E Ocupacional Público 20 mSv/ano, 1 mSv/ano 100 mSv/5 anos, nunca ultrapassar 50 mSv/ano Dose equivalente H anual no: Cristalino 150 mSv Pele 500 mSv Mãos e pés 500 mSv 15 mSv 50 mSv - Fonte: ICRP Publicação1033 UVC UVB UVA 106 106 105 105 104 104 103 103 102 102 101 101 100 100 10-1 10-1 10-2 10-2 10-3 10-3 10-4 10-4 150 200 250 300 350 Efetividade espectral relativa Sλ Radiação ultravioleta (radiação não ionizante): recomendações da ICNIRP A exposição à radiação ultravioleta (RUV) que causa eritema (queimadura) da pele começou sendo avaliada em termos da grandeza física MED (minimal erythema dose), que não é mensurável. O valor de 1 MED foi avaliado como correspondendo à exposição radiante de 200 J/ m2 de RUV com comprimento de onda de 300 nm que causa avermelhamento apenas perceptível em uma pele sensível, 24 horas após a exposição. Essa grandeza física não é adequada porque depende fortemente do tipo de pele e do local da pele. Dessa forma introduziram uma nova grandeza que levou em conta o espectro de ação da RUV que causa eritema, que foi denominada SED (standard erythema dose), sendo o valor de 1 SED equivalente a 100 J/m2. Os limites de exposição à RUV são estabelecidos em termos da grandeza física irradiância E (W/m2) para exposição contínua e, em termos de exposição radiante, H (J/ m2) para exposição limitada no tempo ou a feixe pulsado26. Essas grandezas correspondem às grandezas operacionais das radiações ionizantes. A recomendação é para limitar a exposição da pele e dos olhos, já que a profundidade de penetração da radiação ultravioleta é pequena. A recomendação é a mesma para indivíduos ocupacionalmente expostos e para o público, e leva em conta só o efeito agudo, que é o eritema e o dano nos olhos, apesar de haver comprovação científica de que a radiação ultravioleta tem ação carcinogênica tardia. Alguns cientistas avaliam que protegendo a pele contra o eritema, está se protegendo contra o câncer de pele. A Figura 5 mostra as recomendações da ICNIRP9 com os limites de exposição no eixo da direita e com a efetividade espectral relativa no eixo da esquerda em função do comprimento de onda da RUV. A efetividade espectral relativa é um fator de peso e é fortemente dependente do comprimento de onda, estando relacionado com a sensibilidade da pele. Como se pode ver pela Figura 5, os limites de exposição à RUV de 180 nm a 400 nm cobrem cerca de 5 décadas, variando fortemente com o Tabela 6. Limites de dose recomendados pela ICRP Publicação103 Limite de exposição [exposição radiante(J/m2)] Fazendo o caminho inverso, isto é, usando o limite recomendado de dose efetiva anual de 20 mSv para trabalhador, podemos então calcular o risco adotado: R = (4,1x10-2/Sv)(20 mSv/ano) = 82/100.000 (mortes/ano). As recomendações sobre os limites de dose da ICRP Publicação 1033 em vigor estão na Tabela 6. Tanto a dose efetiva quanto a dose equivalente no tecido não são grandezas mensuráveis, e outras grandezas, denominadas grandezas operacionais que são correlacionadas com as doses medidas pelos monitores individuais e com a dose efetiva foram introduzidas. As recomendações são específicas para trabalhadores, denominados pela norma da CNEN, NN-3.01 - indivíduos ocupacionalmente expostos (IOE), e para público em geral. Para o estabelecimento das recomendações, foram considerados tanto os efeitos agudos quanto os tardios. 400 Comprimento de onda (nm) Fonte: ICNIRP de 20049 Figura 5. Limites de exposição à radiação ultravioleta e efetividade espectral relativa em função do comprimento de onda recomendados pela ICNIRP de 20049 comprimento de onda. Para verificar o cumprimento da recomendação, há que se medir a exposição radiante com um equipamento muito sofisticado, o espectro-radiômetro com grande resolução, um aparelho de alto custo que deve ser calibrado de tempos em tempos no exterior. Este é um problema muito complicado, porque em quase todos os países a quantidade de equipamento desse tipo é extremamente limitada. Por causa disso, e porque a RUV é carcinogênica, a WHO, em colaboração com vários órgãos, introduziu o que se chamou de Índice UV26, uma grandeza adimensional que reflete os níveis de RUV relevantes aos efeitos biológicos estabelecidos no ser humano. Esse índice, que é associado a cores, pode ser usado e compreendido facilmente pela população. Os boletins meteorológicos divulgam diariamente o valor máximo do Índice UV do dia, que é atingido ao redor do meio dia. De acordo com o valor do Índice UV, recomenda-se o uso de protetores solares, óculos e chapéus e até a permanência em ambientes fechados em alguns horários. Em junho de 2009, 20 cientistas de 9 países se reuniram na IARC para re-estimar a carcinogenicidade de vários tipos de radiação, e informaram que as conclusões serão publicadas como parte D do volume 100 de suas monografias. Nesse ínterim, publicaram um artigo na Revista Brasileira de Física Médica. 2009;3(1):43-55. 51 Okuno E Lancet Oncology27. Nele, reafirmam que mantiveram no grupo 1 – comprovadamente carcinogênico – as partículas alfa, beta, nêutrons, raios X, raios gama e a radiação solar. Agora, incluíram também no grupo 1 a radiação ultravioleta com comprimentos de onda de 100 nm a 400 nm. Essa faixa compreende as radiações UVC, UVB e UVA, que na monografia anterior da IARC, de 19927, constava no grupo 2A, de agente provavelmente carcinogênico. Informam ainda, nesse artigo, que uma meta-análise, que combina resultados de vários estudos epidemiológicos, mostrou que o risco de melanoma maligno na pele aumenta 75% quando uma pessoa se submete ao bronzeamento artificial antes dos 30 anos. Lembramos que entre os cânceres de pele do tipo não-melanoma, a saber, carcinomas espinocelular e basocelular, e melanoma maligno a incidência deste é de somente 4% entre todos os tipos de câncer de pele, porém com mortalidade altíssima, de 25%26. Os autores relatam ainda vários estudos epidemiológicos do tipo caso-controle que forneceram evidências de uma associação positiva entre o bronzeamento artificial e melanoma ocular. Estudos com animais confirmaram esses resultados. Assim, o grupo de trabalho classificou o aparelho de bronzeamento artificial como sendo comprovadamente carcinogênico, incluindo-o no grupo 1. Os aparelhos de bronzeamento artificial estão hoje espalhados pelo país por existir uma cultura de pele bronzeada como sinal de beleza e de saúde. Apesar de todos os anos, no início do verão, os dermatologistas fazerem propaganda extensiva sobre os perigos do bronzeamento artificial, trata-se de uma cultura difícil de ser mudada. Esperamos que, com essa conclusão da IARC, os órgãos responsáveis tomem atitudes mais drásticas. Além disso, há o passo seguinte da ICNIRP, que deve elaborar recomendações a respeito. Campos elétricos, magnéticos e eletromagnéticos (radiação não ionizante): recomendações da ICNIRP Antes de 1998 havia uma grande quantidade de guias, com cada país e/ou cada entidade emitindo a sua recomendação para faixas diferentes de campos eletromagnéticos, 5 5 10 10 ocupacional 4 4 10 10 público 2 J (mA/m ) 2 10 3 10 densidade de corrente J no corpo, cabeça e tronco 2 10 ocupacional 1 10 SAR localizado 0 10 1 10 público 0 10 ocupacional SAR no corpo todo -1 10 -1 10 público -2 10 SAR (W/kg) 3 10 -2 -2 -1 0 1 2 3 4 5 6 7 8 9 10 10 11 10 10 10 10 10 10 10 10 10 10 10 10 10 10 frequência (Hz) Fonte: ICNIRP de 199810. Figura 6. Restrições básicas em função da frequência para trabalhador e para público em geral. 52 Revista Brasileira de Física Médica. 2009;3(1):43-55. com valores diferentes, para pessoas ocupacionalmente expostas e para o público, ou para ambientes diferentes. Lembramos ainda que os limites de exposição a microondas no leste europeu eram ao redor de 1.000 vezes inferior aos do ocidente. Em 1998, a ICNIRP, numa tentativa de harmonizar e uniformizar os guias, publicou uma recomendação10 que ainda está em vigor. Nela, o intervalo de frequência da onda eletromagnética considerado foi de 0 a 300 GHz, que devido ao tipo de interação que ocorre com o corpo humano, foi dividido em duas grandes faixas: a que vai de 0 Hz a 10 MHz e de 10 MHz a 300 GHz. Introduziram grandezas físicas relacionadas aos efeitos biológicos, e que também não são mensuráveis e usadas para o estabelecimento de restrições básicas. Na primeira faixa, a grandeza física recomendada foi a densidade de corrente induzida no corpo J (A/m2) com a finalidade de evitar a ocorrência de estímulo elétrico nos músculos e nervos e assim proteger o cérebro e o coração. Na segunda faixa, a nova grandeza física introduzida foi SAR – taxa específica de absorção ou dissipação de energia, com unidade em W/kg, também não mensurável, para evitar aquecimento do corpo. Para o estabelecimento de limite, partiu-se do conhecimento de que uma exposição a campos eletromagnéticos na faixa de 10 MHz a alguns GHz do corpo todo à SAR de 4 W/kg durante 30 minutos pode elevar a temperatura do corpo de 1oC. Usando um fator 10, limitou a SAR ocupacional entre 100 kHz e 10 GHz a 0,4 W/kg, e do público a 0,08 W/kg. Como se pode ver, os efeitos biológicos considerados foram somente os comprovados cientificamente, que são os agudos de curto prazo, mas não os estocásticos (câncer e efeitos hereditários), que são os mais temidos pela população. Para verificar o cumprimento das recomendações, introduziram-se as grandezas físicas mensuráveis, a saber: campo elétrico E (V/m), campo magnético H (A/m), densidade de fluxo magnético B (T) e densidade de potência S (W/m2). Os valores de limitação com essas grandezas foram chamados níveis de referência. As Figuras 6 e 7 mostram respectivamente as restrições básicas e os níveis de referência da ICNIRP de 199810 para trabalhador e para público em função da frequência da onda eletromagnética. Os valores mínimos dos níveis de referência são devidos ao fato de que, nessa faixa de frequência da onda eletromagnética, o corpo ou regiões do corpo entram em ressonância. Como se pode perceber os limites abrangem muitas décadas. Campos elétricos e magnéticos estáticos e com frequência de 60 Hz Em 2002, a IARC11 publicou uma monografia sobre a avaliação de riscos carcinogênicos em seres humanos expostos a campos elétricos e magnéticos estáticos e com frequência extremamente baixa. Nela, classificou os campos elétricos e magnéticos estáticos e os campos elétricos de frequência extremamente baixa no grupo 3, de agentes não carcinogênicos, e o campo magnético 10 4 10 3 10 2 10 1 10 0 0cupacional E H S -1 10 -2 10 5 10 2 5 densidade de potência (W/m ) 10 6 10 campo elétrico E (V/m) campo magnético H (A/m) 6 2 10 densidade de potência (W/m ) campo elétrico E (V/m) campo magnético H (A/m) Epidemiologia do câncer devido a radiações e a elaboração de recomendações Público em geral 4 10 3 10 E 2 10 H 1 10 S 0 10 -1 10 -2 -1 0 1 2 3 4 5 6 7 8 9 10 11 12 10 10 10 10 10 10 10 10 10 10 10 10 10 10 10 Fonte: ICNIRP de 199810. 13 10 -1 0 1 2 3 4 5 6 7 8 9 10 11 12 13 10 10 10 10 10 10 10 10 10 10 10 10 10 10 10 frequência (Hz) frequência (Hz) Figura 7. Níveis de referência em função da frequência para trabalhador e para público em geral. com frequência extremamente baixa, na qual inclui o de 60 Hz, no grupo 2B de agente possivelmente carcinogênico para seres humanos. Na monografia, justificam que desde a primeira publicação, associando leucemia infantil a campos elétricos e magnéticos nas proximidades das linhas de transmissão de energia elétrica em 1979 por N. Wertheimer e E. Leeper23, muitos trabalhos têm sido publicados sobre o tema, alguns confirmando a associação com campos magnéticos. Em 2006, a WHO publicou o Environmental Health Criteria28 sobre campos elétricos e magnéticos estáticos, e em 2009 a ICNIRP29 publicou as recomendações para limitar a exposição a campos magnéticos estáticos. Explicitam que as recomendações se basearam em efeitos biológicos diretos e que valores acima dos limites podem causar vertigem, náusea e magnetofosfenos (pontos brilhantes nos olhos). Além disso, consideraram a necessidade de proteger os indivíduos do público com dispositivos médicos implantados que podem apresentar mau funcionamento por sofrerem interferência, e com implantes contendo material ferromagnético. Os limites de exposição a campos magnéticos estáticos recomendados pela ICNIRP29 estão na Tabela 7. Nas recomendações da ICNIRP de 199810, quanto a campos elétricos e magnéticos de 60 Hz, foram considerados somente os efeitos agudos que podem acometer o sistema nervoso. Em 2007, a WHO, juntamente com a ILO e a ICNIRP, publicou o Environmental Health Criteria 23830 sobre campos com frequência extremamente baixa. Algumas publicações recentes indicavam haver evidências científicas epidemiológicas de que a exposição crônica a campos magnéticos com frequência de 60 Hz, com intensidade muito baixa, poderia causar leucemia infantil. Entretanto, essa evidência ainda está sujeita a muitas incertezas e por isso esses campos foram colocados na categoria 2B. Várias outras doenças também têm sido analisadas: outros tipos de câncer infantil, câncer em adultos, depressão, suicídio, alteração imunológica, doenças neurológicas e cardiovasculares, entre outros, podendo-se afirmar Tabela 7. Limites de exposição a campos magnéticos estáticos Características de exposição Ocupacional Exposição da cabeça e do tronco Exposição dos membros Público em geral Exposição de qualquer parte do corpo Densidade de fluxo magnético B 2 T 8 T 400 mT Fonte: Publicação ICNIRP29 com segurança que não há associação entre essas doenças e campos magnéticos de 60 Hz. Uma meta-análise que combinou resultados de vários estudos epidemiológicos31 para exposições com densidade de fluxo magnético B entre 0,1 e 0,2 μT, 0,2 e 0,4 μT e B ≥ 0,4 μT, tendo por referência o valor de B < 0,1 μT, mostra haver uma associação entre o campo magnético de 60 Hz e leucemia infantil, principalmente porque o Risco Relativo aumenta com a dose. A Figura 8, retirada do artigo31, mostra esse efeito. As novas recomendações da ICNIRP relativas aos campos magnéticos de 60 Hz devem estar sendo providenciadas, tendo em vista os resultados recentes de diversas pesquisas. Até mesmo porque o nível de referência para densidade de fluxo magnético com frequência de 60 Hz recomendado pela ICNIRP de 199810 para o público é de 83 μT. Campos eletromagnéticos com frequência alta (radiofrequência e micro-ondas) As recomendações atualmente em vigor para radiofrequência de 10 kHz a 300 GHz e micro-ondas de 300 MHz a 300 GHz são as da ICNIRP de 199810. Desde então muitos artigos foram publicados, e com isso surgiu a necessidade de uma análise e discussão do conjunto para atualização da recomendação, se for o caso. Por isso, um comitê da ICNIRP realizou esse trabalho e acabou de publicar em 2009 um extenso documento de 358 páginas: Exposure to high frequency electromagnetic fields, Revista Brasileira de Física Médica. 2009;3(1):43-55. 53 Okuno E 10 10 a relação causal entre exposição à radiofrequência e qualquer efeito danoso à saúde. b 1 1 Referências 10 10 c 1 1 o.1 d <o.1 µT o.1 <0.2 µT o.2 -<0.4 µT ≥=0.4 µ o.1 <o.1 µT o.1 <0.2 µT o.2 -<0.4 µT ≥=0.4 µT Fonte: Schüz J and Ahlbom A 31. Figura 8. Risco Relativo (no eixo vertical) em função de intervalos de densidade de fluxo magnético obtido com meta-análise. (A) todos os estudos; (B) estudos baseados em campos calculados; (C) estudos baseados em medidas de 24/48 horas; (D) estudos baseados em medidas de exposição noturna. biological effects and health consequences (100 kHz300 GHz)32. O documento é composto por três partes, sendo que a primeira discorre sobre dosimetria, a segunda trata de uma revisão dos estudos experimentais sobre efeitos biológicos e a terceira discorre sobre epidemiologia. Dentro da faixa considerada estão os campos eletromagnéticos com aplicações importantes, como aqueles usados em fornos de micro-ondas e em comunicação em geral, incluindo telefones celulares. Esse trabalho é um preâmbulo para a preparação das novas recomendações. A principal conclusão desse documento é que somente os efeitos térmicos, em que o mecanismo de interação é cientificamente bem conhecido, continuam sendo confirmados. Outros efeitos tardios, principalmente o câncer, continuam sem comprovação, mesmo no caso de crianças que fazem uso constante de celulares durante tempos longos. Escrevem também que há várias dificuldades com relação aos estudos epidemiológicos que possam associar o uso de celulares a tumores cerebrais. Há o fato de que o uso regular de telefones celulares começou a partir de 1990 e o câncer é um efeito a longo prazo; além disso, a tecnologia vem mudando a passos largos, cada ano sendo lançados modelos novos, o que dificulta sobremaneira a avaliação do nível de exposição. Várias outras dificuldades são dignas de serem citadas: a população inicialmente exposta é pequena e os 15 anos de exposição são insuficientes para detectar excesso de incidência de câncer e morte; encontrar uma população de controle que nunca foi exposta ou pouco exposta para comparação; além da incidência de tumores cerebrais na população ser pequena, sendo de 10 a 15 casos a cada 100.000 pessoas por ano. A principal conclusão desse documento é de que resultados de estudos epidemiológicos até a data da sua publicação não fornecem evidências consistentes e convincentes de uma associação e muito menos de uma 54 Revista Brasileira de Física Médica. 2009;3(1):43-55. 1. Taylor LS. History of the International Commission on Radiological Units and Measurements (ICRU). Health Phys. 1958;1(3):306-16. 2. Taylor LS. History of the International Commission on Radiological Protection (ICRP). Health Phys. 2002;82(6):789-94. 3. ICRP Publication 103. The 2007 Recommendations of the International Commission on Radiological Protection. UK: Elsevier; 2007;37(2-4). 4. ICRP Publication 60. 1990 Recommendations of the International Commission on Radiological Protection. Oxford: Pergamon Press; 1991;21(1-3). 5. ICRP Publication 26. Recommendations of the International Commission on Radiological Protection. Oxford: Pergamon Press; 1977;1(3). 6. Environmental Health Criteria (EHC) 160: Ultraviolet radiation. Geneva: World Health Organization; 1994. 7. International Agency for Research on Cancer (IARC). Solar and ultraviolet radiation. Monographs on the evaluation of carcinogenic risk to humans. Lyon: IARC; 1992. v. 55. 8. International Agency for Research on Cancer, World Health Organization. Sunscreens. IARC handbooks of cancer prevention. Lyon: IARC, WHO; 2001. v. 5. 9. International Commission on Non Ionizing Radiation Protection (ICNIRP). Guidelines on limits of exposure to ultraviolet radiation of wavelengths between 180 nm and 400 nm (incoherent optical radiation). Health Phys. 2004;87(2):171-86. 10. International Commission on Non Ionizing Radiation Protection (ICNIRP). Guidelines for limiting exposure to time-varying electric, magnetic, and electromagnetic fields (up to 300 GHz). Health Phys. 1998;74(4): 494-522. 11. International Agency for Research on Cancer. IARC monographs on the evaluation of carcinogenic risks to humans. Non-ionizing radiation, Part 1: Static and extremely low-frequency (ELF) electric and magnetic fields. Lyon:IARC; 2002. v. 80. 12. Lilienfeld DE, Stolley PD. Foundations of Epidemiology. 3rd ed. N. York. Oxford University Press; 1994. 13. Franco EL. Epidemiology in the study of cancer. In: Bertino JR, editor. Encyclopedia of cancer, v. 1. San Diego:Academic Press; 1997. p. 621-41. 14. Foratini OP. Epidemiologia geral. São Paulo: Edgard Blücher Ltda & Editora da USP; 1976. 15. Radiation Effects Research Foundation [Internet]. A brief description. [cited 2009 Jul 20]. Available from: http://www.rerf.or.jp/shared/briefdescript/ briefdescript.pdf. 16. Framingham Heart Study [Internet]. A Project of National Heart, Lung and Blood Institute and Boston University. [cited 2009 Jul 20]. Available from: http://www.framinghamheartstudy.org/. 17. Putnam FW [Internet]. The Atomic Bomb Casualty Commission in retrospect. [cited 2009 Jul 20]. Available from: http://www.pnas.org/ content/95/10/5426.full. 18. Preston DL, Ron E, Tokuoka S, Funamoto S, Nishi N, Soda M, et al. Solid cancer incidence in atomic bomb survivors: 1958-1998. Radiat Res. 2007;168(1):1-64. 19. Yamada M, Lennie WF, Fujiwara S, Akahoshi M, Suzuki G. Noncancer disease incidence in atomic bomb survivors, 1958-1998. Radiat Res. 2004;161(6):622-32. 20. Preston DL, Shimizu Y, Pierce DA, Suyama A, Mabuchi K. Studies of mortality of atomic bomb survivors. Report 13: Solid cancer and noncancer disease mortality: 1950-1997. Radiat Res. 2003;160(4):381-404. Epidemiologia do câncer devido a radiações e a elaboração de recomendações 21. Taubes G. Epidemiology faces its limits. Science. 14 July 1995;269:164-9. 22. ICRP Publication 99. Low dose extrapolation of radiation-related cancer risk. UK: Elsevier; 2006. v. 35. n. 4. 23. Wertheimer N, Leeper E. Electrical wiring configurations and childhood cancer. Am J Epidemiol. 1979;109(3):273-84. 24. Kaul DC. The origin of DS86. In: Peterson LE, Abrahamson S, eds. Effects of ionizing radiation: atomic bomb survivors and their children (1945-1995). Washington, DC: Joseph Henry Press; 1998. 25. Reassessment of the Atomic Bomb Radiation Dosimetry for Hiroshima and Nagasaki [Internet]. Dosimetry System 2002: DS02, v. 1, 2005. [cited 2009 Jul 20]. Available from: http://www.rerf.or.jp/shared/ds02/ index.html. 26. Okuno E. Radiação ultravioleta: características e efeitos. São Paulo: SBF, Editora Livraria da Física; 2005. 27. El Ghissassi F, Baan R, Straif K, Grosse Y, Secretan B, Bouvard V, et al. A review of human carcinogens - Part D: radiation. Lancet Oncol. 2009;10(8):751-2. 28. World Health Organization. Environmental Health Criteria 232. Static fields. Geneva, China: WHO; 2006. 29. International Commission on Non Ionizing Radiation Protection. Guidelines on Limits of exposure to static magnetic fields. Health Phys. 2009;96(4):504-14. 30. Environmental Health Criteria 238: Extremely low frequency fields. The International Labour Organization, The International Commission on NonIonizing Radiation Protection, The World Health Organization. Spain: WHO Press; 2007. 31. Schüz J, Ahlbom A. Exposure to electromagnetic fields and the risk of childhood leukemia: a review. Radiat Prot Dosim. 2008;132(2): 202-11. 32. Vecchia P, Matthes R, Ziegelberger G, Lin J, Saunders R, Swerdlow A, editors [Internet]. Exposure to high frequency electromagnetic fields, biological effects and health consequences (100 kHz-300 GHz). In: International Commission on Non Ionizing Radiation Protection 16/2009. [cited 2009 Jul 31]. Available from: http://www.icnirp.de/PubEMF.htm. Revista Brasileira de Física Médica. 2009;3(1):43-55. 55 Artigo de Revisão Revista Brasileira de Física Médica. 2009;3(1):57-67. Física das Radiações: interação da radiação com a matéria Radiation Physics: interaction of radiation with matter Elisabeth Mateus Yoshimura1 Professora-associada do Departamento de Física Nuclear do Instituto de Física da Universidade de São Paulo (USP), São Paulo (SP), Brasil 1 Resumo Neste artigo é feita uma revisão sistemática da interação das radiações ionizantes com a matéria, ressaltando sua dependência com o tipo de radiação, composição do meio e energia da radiação. Palavras-chave: radiação; fótons; íons; elétrons; nêutrons. Abstract A systematic review of interaction of ionizing radiation with matter is presented in this paper. Special attention is given to the dependence of the processes on the type and energy of radiation and on the medium composition. Keywords: radiation; photons; ions; electrons; neutrons. Introdução Física das Radiações é o nome tradicional da área da Física que estuda a interação das radiações ionizantes com a matéria, com interesse especial nos resultados dessas interações, e em particular na transferência de energia da radiação para o meio. Em primeiro lugar, é importante ressaltar que há dois conceitos importantes relacionados ao tema, que nem sempre são bem esclarecidos: interação e radiação ionizante. Interação é o termo que representa, na Física, a ação de uma força e o efeito causado por essa ação1. Por exemplo, duas partículas carregadas em repouso interagem pela ação da força coulombiana. Radiação ionizante, por sua vez, é qualquer radiação, com ou sem massa de repouso, que pode remover elétrons de átomos e moléculas. O conjunto das radiações ionizantes usualmente estudadas compreende: i. radiação eletromagnética com energia de fóton acima de 12 eV, que recebe várias denominações de acordo com a origem: raios X – originados de desexcitações atômicas (raios X característicos) e da desaceleração de partículas carregadas (Bremsstrahlung); raios gama – originados de desexcitações nucleares; fótons de aniquilação – originados da aniquilação de pares partícula-antipartícula; ii. partículas eletricamente carregadas e que possuem energia cinética bem maior que a energia térmica, e superior a energias de ligação de elétrons atômicos, chamadas Partículas Carregadas Rápidas. Suas origens podem ser a emissão por núcleos atômicos (partículas alfa e beta e os produtos de fissão nuclear, por exemplo), a emissão por átomos (elétrons Auger), feixes produzidos em aceleradores de partículas (elétrons, pósitrons, prótons, dêuterons, íons em geral, de qualquer número atômico ou número de massa), a radiação cósmica primária ou produtos de sua interação com a atmosfera (múons, píons etc.), produtos de reações nucleares, etc; iii. nêutrons livres com qualquer energia cinética e de qualquer origem. Essa classificação das radiações ionizantes tem fundamentação nas forças responsáveis pelas interações e na modelagem utilizada para descrevê-las. Fótons interagem pela ação de campos eletromagnéticos, atuando sobre partículas carregadas do meio; partículas carregadas têm sua ação em elétrons do meio aproximada por interações coulombianas consecutivas; já os nêutrons atuam sobre prótons e nêutrons de núcleos atômicos pela força nuclear forte. As áreas da Física que tratam dessas interações são a Eletrodinâmica Quântica para interações entre campos eletromagnéticos e cargas em movimento, e a Física Nuclear para as interações entre nucleons. Em geral não há soluções analíticas para o problema completo, e a Correspondência: Elisabeth Mateus Yoshimura – Universidade de São Paulo, Instituto de Física, Departamento de Física Nuclear. Travessa R da Rua do Matão, 187 – Cidade Universitária – 05508-900 – Sao Paulo (SP), Brasil – e-mail: [email protected] Associação Brasileira de Física Médica® 57 Yoshimura EM Física da Radiação se fundamenta em soluções analíticas parciais e aproximações numéricas combinadas com resultados experimentais2-6. Neste artigo pretendemos revisar os principais marcos dessas interações, assim como as suas consequências. • Interações da radiação eletromagnética Na faixa de energias que inclui os raios X e gama, há várias interações possíveis com o átomo ou com elétrons atômicos ou ainda com o núcleo, mas há também a possibilidade de não-interação, ou seja, a interação da radiação eletromagnética (REM) pode atravessar distâncias consideráveis em um meio material sem modificá-lo e sem se modificar. As probabilidades de interação (e de não-interação) dependem de características do meio e da radiação. A REM ionizante é tratada, em boa parte dos casos, como um conjunto de partículas – os fótons. A cada energia de fóton hv corresponde um momento associado hv / c, e, dessa forma, podem ocorrer ‘colisões’ em que o fóton transfere energia e momento para outras partículas. As principais interações que ocorrem na matéria com fótons de energias na faixa de poucos keV até dezenas de MeV são: • espalhamento coerente (ou efeito Rayleigh): corresponde à absorção e re-emissão da radiação pelo átomo, em uma direção diferente da de incidência. Somente neste efeito a radiação é tratada como onda; em todos os outros se considera a REM como constituída de fótons; • efeito fotoelétrico: o fóton é absorvido pelo átomo e um elétron atômico é liberado para se mover no material. A energia cinética adquirida por esse elétron é a diferença entre a energia do fóton e a energia de ligação do elétron ao átomo; • efeito Compton (ou espalhamento inelástico): trata-se do espalhamento de um fóton por um elétron livre do • material. Há transferência de parte da energia e do momento do fóton para o elétron, e um fóton com a energia restante é espalhado em outra direção; produção de pares elétron-pósitron: Neste processo, o fóton é absorvido e toda sua energia é convertida em massa de repouso e energia cinética de um par partícula/antipartícula – elétron/pósitron. É interpretada como a transição de um elétron de um estado de energia total negativa para um estado de energia total positiva; a diferença de energia entre os dois estados é a energia do fóton incidente, que é absorvido; a lacuna de um elétron no conjunto de estados de energia negativa é observada como um pósitron7. É possível a criação de outros pares de partícula/antipartícula, mas a energia necessária do fóton é muito mais elevada. O efeito é resultado da interação entre o fóton e o campo eletromagnético, e ocorre normalmente nas vizinhanças do núcleo, podendo também acontecer devido à interação do fóton com o campo de qualquer partícula carregada, incluindo os elétrons atômicos. Neste caso particular, um elétron atômico também é ejetado e o efeito é chamado de produção de tripleto. É mais provável quanto mais intenso for o campo; reações fotonucleares: a principal reação nuclear provocada por fótons é a fotodesintegração, que equivale a um ‘efeito fotonuclear’ num paralelo com o efeito fotoelétrico. O fóton com energia maior que a energia de ligação de nucleons é absorvido pelo núcleo que libera um próton ou um nêutron com energia cinética suficiente para abandonar o núcleo, que se transforma em outra espécie nuclear. O fóton é absorvido nos processos de efeito fotoelétrico, produção de par e reações fotonucleares. A Tabela 1 mostra, para cada efeito, quais são as consequências para o meio e para a radiação, e quais radiações ionizantes são produzidas ou liberadas em decorrência da interação. Tabela 1. Interações possíveis de ocorrer para radiação eletromagnética ionizante – raios X, raios gama e fótons de aniquilação – e consequências das interações Interação – símbolo da seção de choque Espalhamento Coerente - scoer (espalhamento da radiação pelo átomo) Fotoelétrico - t (ejeção de elétron ligado) Compton - sinc (espalhamento do fóton por um elétron) Produção de Par - k (energia do fóton é consumida na criação do par (e- e+)) Reação Fotonuclear (ejeção de nucleon ligado) 58 O que muda no meio O que muda na radiação incidente Radiação ionizante produzida Direção de propagação, (mantém energia) REM espalhada de mesma energia Ionização e excitação do átomo, recuo do núcleo Ionização do átomo Fóton é absorvido Elétron rápido, raios X característicos, elétrons Auger Elétron rápido, fóton com menor energia, espalhado Recuo do núcleo; aniquilação do pósitron Fóton é absorvido Fóton perde energia e muda de direção Núcleo modificado (Z ou A) e excitado Fóton é absorvido Revista Brasileira de Física Médica. 2009;3(1):57-67. Elétron e pósitron rápidos, raios X de aniquilação Partículas subnucleares, em geral nêutrons Física das Radiações: interação da radiação com a matéria Sob o ponto de vista de probabilidades de ocorrência, a ordem em que estão apresentadas as interações na Tabela 1 corresponde, grosso modo, à prevalência de cada efeito em função da energia de fóton: os efeitos coerente e fotoelétrico ocorrem com maior probabilidade para baixas energias, enquanto o efeito Compton ocorre para intermediárias. Produção de par e reações fotonucleares só acontecem acima de um limiar de energia: no primeiro caso, é necessário que o fóton tenha no mínimo 1,022 MeV de energia (equivalente a duas massas de repouso de elétron) para que toda sua energia se converta em massa de repouso e energia cinética do par (e- e+); já para as reações fotonucleares, a energia do fóton deve ser superior à energia de ligação de nucleons (ao menos alguns MeV, em geral mais de 10 MeV) para que um nêutron ou próton seja retirado do núcleo. A Figura 1 mostra com mais clareza que o efeito Compton predomina para todos os elementos da tabela periódica se as energias de fótons estão entre algumas centenas de keV e alguns MeV, e predomina para todas as energias se os números atômicos são baixos (região sombreada na Figura 1). Para números atômicos elevados o efeito fotoelétrico é o mais provável para energias baixas e a produção de par para energias elevadas. As reações fotonucleares ocorrem com probabilidades muito menores que os outros efeitos e não são em geral computadas nas probabilidades de interação. No entanto, sua ocorrência é importante pois os nêutrons produzidos podem ser um problema de proteção radiológica. É conhecida a lei de atenuação de um feixe de fótons, que relaciona o número de fótons incidentes perpendicularmente em um material homogêneo (N0) e o número de fótons que emerge desse meio sem interagir com ele (N): N=N0e-mx, que também pode ser apresentada na sua forma diferencial: dN=-μdx. O coeficiente µ, chamado de coeficiente de atenuação, representa a seção de Figura 1. Gráfico que apresenta os valores de número atômico e de energia que tornam iguais as probabilidades de ocorrência dos efeitos fotoelétrico e Compton (curva à esquerda) e dos efeitos Compton e produção de par (curva à direita). Valores obtidos a partir da base de dados XCOM8. choque de interação entre cada fóton e o meio que atravessa, por unidade de volume. O coeficiente de atenuação é a soma de coeficientes parciais (símbolos na Tabela 1) para cada um dos efeitos, considerados independentes: m=scoer+sinc+t+k, ou, como é mais comum, os coeficientes mássicos: , que são o resultado da divisão dos coeficientes lineares pela densidade do material (ρ) e representam seções de choque por unidade de massa do material. O termo e-μx representa a probabilidade de não interação por qualquer dos efeitos, ao atravessar uma espessura x de material. A Figura 2 mostra, para três dos átomos que compõem o corpo humano – oxigênio, carbono e cálcio –, a variação desses coeficientes mássicos parciais com a energia. Nota-se com clareza a forte dependência da probabilidade de ocorrência do efeito fotoelétrico com a energia do fóton: ( aproximadamente). Quanto maior a energia do fóton comparada à energia de ligação dos elétrons ao átomo, menor a probabilidade de desencadear o efeito fotoelétrico. Ainda na Figura 2, para o átomo de Ca, é possível notar uma descontinuidade na curva de τ contra energia chamada de borda K: esse aumento na seção de choque do efeito fotoelétrico ocorre quando a energia do fóton coincide com a energia de ligação dos elétrons mais ligados desse átomo, o que Figura 2. Seções de choque, por unidade de massa, total (linhas cheias grossas) e parciais, para os efeitos fotoelétrico (símbolos cheios) e produção de par (símbolos vazios) para três dos principais átomos que constituem o corpo humano – C, O, Ca. No destaque, o mesmo para Efeito Compton. As linhas unindo pontos são para guiar os olhos. Valores obtidos a partir da base de dados XCOM8. Revista Brasileira de Física Médica. 2009;3(1):57-67. 59 Yoshimura EM permite que também os dois elétrons desse nível de energia passem a poder ser arrancados do átomo, reforçando a noção de que a interação é praticamente um efeito ressonante. A produção de par é o único dos efeitos cuja seção de choque cresce monotonicamente com a energia, o que produz a inversão da tendência decrescente de µ com o aumento da energia do fóton. Por esse fato, fótons de mais alta energia podem ser menos penetrantes que fótons de mais baixa energia e, para a maioria dos materiais, um mesmo valor de coeficiente de atenuação pode corresponder a dois valores bem distintos de energia de fóton. A produção de par se torna o efeito predominante para todos os materiais em altas energias de fóton, mas o crescimento de κ com a energia do fóton é muito mais lento para energias altas que para as energias logo acima do limiar de 1,022 MeV. O espalhamento coerente, cuja seção de choque como função da energia é mostrada na Figura 3, tem dependência forte de número atômico do meio e energia do fóton. Recentemente têm sido desenvolvidas aplicações desse efeito para obtenção de imagens médicas com o uso do contraste de fase para obtenção da imagem ou para redução de ruído; as defasagens da onda eletromagnética são resultado da interferência entre ondas espalhadas coerentemente ou refratadas por meios distintos9. Para esse tipo de imagem é necessário um feixe monocromático e coerente – de um síncrotron, em geral10-12. Outra forma de observar a predominância de cada efeito é pela variação das probabilidades de interação com o material. Como já se nota na Figura 2, para o efeito Compton quase não há variação da seção de choque para os diversos elementos químicos. Mas para efeitos fotoelétrico e de produção de par a variação é expressiva com o número atômico do meio. Examinando os gráficos da Figura 4, conclui-se que a variação de τ/ρ com Z está próxima de uma potência entre 3 e 4. Já a produção de par tem o coeficiente κ/ρ que cresce de maneira praticamente linear com Z. Como há uma tendência linear de aumento da densidade dos elementos com o número atômico (veja Apêndice A), a divisão dos coeficientes lineares por ρ tende a tornar as seções de choque menos dependentes de Z: o coeficiente linear τ tem a dependência próxima de uma potência 4 e 5 com Z, κ varia com o quadrado de Z, e σinc uma dependência linear com Z. Interações das partículas carregadas rápidas p Figura 3. Pontos unidos por linhas - seções de choque parciais, por unidade de massa, para o espalhamento coerente em carbono, oxigênio e cálcio. Curvas cheias: seção de choque para efeito fotoelétrico dos mesmos elementos. Valores obtidos a partir da base de dados XCOM8. Ao contrário da REM, partículas carregadas têm probabilidade 100% de interagir no meio material, pois há cargas distribuídas no meio e a força coulombiana é de longo alcance. O modelo mais frequentemente utilizado para descrever a passagem de uma partícula carregada pela matéria supõe que há uma sequência contínua de interações nas quais a partícula perde pequenas frações de sua energia, até ser completamente freada e não ser mais a a Figura 4. Seções de choque parciais, por unidade de massa, para os efeitos fotoelétrico (esquerda) e produção de par (direita) para alguns valores de energia de fóton. As linhas claras unindo pontos são para guiar os olhos. As retas pretas indicam comportamentos com potências inteiras de Z. Valores obtidos a partir da base de dados XCOM8. 60 Revista Brasileira de Física Médica. 2009;3(1):57-67. Física das Radiações: interação da radiação com a matéria considerada uma radiação ionizante. Essa aproximação recebe o nome, em inglês, de continuous slowing-down approximation (CSDA). A esse continuum de interações suaves somam-se algumas interações mais intensas, nas quais uma grande perda de energia acontece. Entre as radiações ionizantes o elétron é a partícula carregada de menor massa de repouso (mec2 = 0,511 MeV), de maneira que sua energia cinética (T), em geral, não é desprezível se comparada com a energia de repouso. Esse é o principal motivo para que o tratamento físico da interação das partículas carregadas rápidas (PCRs) com a matéria seja subdividido em dois grandes grupos: elétrons (que inclui elétrons e pósitrons) e partículas carregadas pesadas (todas as outras PCRs). Do ponto de vista fenomenológico, as diferenças estão explicitadas na tabela 2. São necessárias algumas observações sobre a Tabela 2. Algumas das interações listadas como restritas a elétrons e pósitrons podem ocorrer também para íons pesados se suas energias cinéticas forem suficientemente altas. Por exemplo, a emissão de radiação de freamento proveniente da interação da partícula carregada com o campo eletromagnético do núcleo tem uma seção de choque, obtida com cálculos de Eletrodinâmica Quântica7, que é inversamente proporcional ao quadrado da massa da partícula2,5. Assim, um elétron com 0,25 MeV de energia cinética tem uma probabilidade três milhões de vezes maior de emitir fótons de Bremsstrahlung que um próton com mesma velocidade (a energia cinética do próton seria de 500 MeV), interagindo com o mesmo material. As reações nucleares são também pouco prováveis para todos os casos, a menos que a energia cinética seja muito elevada. A ocorrência de cada tipo de interação e a correspondente perda de energia pela PCR dependem basicamente do parâmetro de impacto da interação, ou seja, da distância entre a trajetória da partícula e o centro do átomo mais próximo. As interações com o núcleo são mais raras, pois este ocupa uma área muito pequena do átomo. O choque mais frequente é com a eletrosfera, predominando as colisões suaves sobre as colisões duras. Para cada interação a energia cinética da partícula diminui de uma quantidade ∆Ti, que depende do tipo de partícula, da sua energia cinética e do meio de interação. A composição dos possíveis valores de ∆Ti, ponderados pela probabilidade de ocorrência de cada tipo de interação, dá como resultado uma grandeza conhecida como stopping-power, traduzido para o português como poder de freamento, que representa a perda média de energia por unidade de caminho em um determinado meio, considerando-se a média sobre um conjunto grande de partículas idênticas e com mesma energia. Para representar o poder de freamento, usam-se os símbolos: s . As expressões e variações do poder de freamento com energia e meio são tratadas separadamente para elétrons e partículas carregadas, devido às diferenças entre interações já enfatizadas, e também porque as PCRs leves têm tratamento relativístico que não é necessário para as pesadas. Outra característica importante das interações das PCRs é a existência de uma distância máxima percorrida: para qualquer meio sempre é possível encontrar, para qualquer material, uma espessura específica de que é suficiente para parar (reduzir a energia cinética a valores equivalentes à energia térmica) as partículas carregadas que nele incidiram. À espessura mínima que freia todas as partículas de um determinado tipo e energia, dá-se o nome de alcance. Se a partícula tem uma trajetória sem mudanças de direção, o alcance coincide com o comprimento da trajetória da partícula. Isso em geral não ocorre, principalmente para as partículas leves, que percorrem caminhos em geral mais longos que a espessura necessária para o seu freamento total devido a espalhamentos múltiplos. A definição de alcance requer então cálculos médios e medidas experimentais. Conhecida a variação de S com a energia cinética da partícula, pode-se calcular um comprimento médio de trajetória, para um número grande de partículas idênticas de energia cinética inicial T0 dado por Tabela 2. Interações possíveis de ocorrer para partículas carregadas rápidas e consequências das interações Partícula carregada Elétrons, pósitrons e íons pesados Interações possíveis Colisão inelástica com o átomo (colisão suave) Colisão com elétron fortemente ligado (colisão dura) Choque elástico com o núcleo Elétrons e pósitrons Choque inelástico com o núcleo Pósitrons Aniquilação com um elétron do meio Reação nuclear Todos O que muda no meio de interação Radiação ionizante produzida Excitação e eventual ionização de Partícula primária com pequena átomos em camada de valência mudança de direção, eventualmente um elétron rápido (secundário) Ionização (camada interna) e Partícula primária, elétron rápido excitação do átomo (secundário), raios X característicos, elétrons Auger Recuo do núcleo Partícula primária com mesma energia e outra trajetória Recuo do núcleo Partícula primária e radiação de freamento (Bremsstrahlung) Ionização e excitação Dois fótons de aniquilação, cada um do átomo com hn≥0,511 MeV Núcleo modificado (Z ou A) Partículas subnucleares, raios gama e excitado de desexcitação nuclear Revista Brasileira de Física Médica. 2009;3(1):57-67. 61 Yoshimura EM . Cálculos desse tipo, com a aproximação CSDA, levam a valores disponíveis em tabelas na literatura13. Experimentalmente, a determinação do alcance é feita pela interposição de espessuras crescentes de material homogêneo em frente a um feixe de partículas e a contagem do número de partículas que o atravessam. A Figura 5 mostra exemplos da variação do número de partículas com espessura: na situação ideal (representada pela linha tracejada) é simples identificar o alcance com a espessura Lmáx; nas situações reais, como as vistas na linha cheia e na linha mista, é possível definir o alcance médio (L50) como a espessura que reduz o número de partículas à metade, ou ainda definir, além de outros, o alcance extrapolado (Lext) pela intersecção entre a tangente à curva de penetração e o eixo x. As curvas de penetração de PCRs leves se assemelham à curva mista da Figura 5, enquanto para as PCRs pesadas, as curvas de penetração são mais bem definidas, como a curva em linha cheia. Isso porque desvios apreciáveis de trajetória dessas partículas em choques com elétrons do meio são muito improváveis, pela grande diferença de massas. Poder de freamento de partículas carregadas pesadas No cálculo do poder de freamento de partículas carregadas pesadas (PCPs), levam-se em conta as colisões suave e dura, não sendo computadas perdas de energia por radiação de Bremsstrahlung ou por reação nuclear, consideradas pouco prováveis para partículas com até centenas de MeV de energia cinética. O poder de freamento é chamado de eletrônico. No final da trajetória das PCPs ( ) também é importante o espalhamento elástico com o núcleo, cuja perda de energia é computada separadamente, no poder de freamento nuclear. Figura 5. Exemplos de curvas de penetração de partículas carregadas e algumas possíveis definições de alcance. 62 Revista Brasileira de Física Médica. 2009;3(1):57-67. As dificuldades dos cálculos de perda de energia de íons na matéria são de variadas origens: a distribuição de elétrons no meio deve ser conhecida, sendo a estratégia o uso de cálculos aproximados, como os de Hartree-Fock; a carga do íon muda durante sua trajetória na matéria, sendo definida uma carga efetiva que diminui com a velocidade do íon14,15 de uma forma que depende do meio; há polarização da eletrosfera dos átomos à medida que o íon penetra no meio; os potenciais interatômicos devem ser bem conhecidos, considerada também a blindagem pela nuvem eletrônica. Há vários conjuntos de tabelas de dados e programas disponíveis para o cálculo dessa grandeza12,14,16,17, baseadas em compilações de dados experimentais e uso de códigos de simulação pelo método de Monte Carlo. Há também expressões analíticas para o cálculo das perdas de energia2,18, mas o desconhecimento de parâmetros dos meios de interação (potencial médio de ionização e efeito de densidade) e a introdução de várias correções tornam seu uso muito limitado – muitas vezes a medição experimental de em uma determinada faixa de energia é efetuada para determinar experimentalmente algumas características do meio em estudo19. Dos valores conhecidos para o poder de freamento, algumas regularidades podem ser observadas. A Figura 6 mostra que, para energias cinéticas relativamente altas, o decréscimo de sm é quase linear com a energia cinética. De fato, observando-se o gráfico à direita na Figura 6, em que T é dividido pelo número de nucleons (para íons não relativísticos com número de massa A, ), nota-se que, para energias cinéticas acima de poucas centenas de keV por nucleon, há uma variação decrescente e quase linear de sm com v2, independente da massa do íon. O comportamento da perda de energia com o inverso do quadrado da velocidade do íon foi previsto inicialmente por Bohr20, e depois ratificada por cálculos de Bethe4,21. Já o crescimento de sm com a velocidade para energias baixas é, em boa parte, resultado da diminuição da carga efetiva do íon à medida que se torna mais lento. Apenas como exemplo, no gráfico à direita na Figura 6 é também colocado o poder de freamento nuclear de prótons em água, que só se torna importante para energias muito baixas do íon. No mesmo gráfico se observa a coincidência das curvas de (sm/Z2) para quase toda a faixa de energias, inferindo-se uma dependência de sm com o quadrado da carga do íon: íons de mesma velocidade, percorrendo determinado meio, perdem energia por unidade de caminho mais rapidamente quanto maior for a sua carga e independente de sua massa. A consequência imediata do comportamento de sm com T é que há uma grande perda de energia pelo íon pouco antes do final de sua trajetória – o que normalmente é chamado de pico de Bragg, pois foi W. H. Bragg, em 1905, quem primeiro observou o comportamento sistemático da absorção de energia de partículas Física das Radiações: interação da radiação com a matéria Figura 6. Esquerda: poder de freamento eletrônico, por unidade de massa, para três íons – próton (1H+), partícula alfa (4He2+) e carbono (12C6+) - incidentes nos seguintes meios: água (pontos), carbono amorfo (linhas cheias), osso compacto (linhas tracejadas). À direita o gráfico para água é repetido com grandezas reduzidas: sm/Z2 nas ordenadas e T/A nas abscissas. Valores obtidos com os programas PStar e AStar12 e MStar16. alfa na matéria5. A Figura 7 mostra o comportamento esperado para a deposição de energia por um próton na água, para três energias distintas, e por um conjunto de prótons de 200 MeV (no destaque). Como nem todas as partículas do feixe seguem exatamente a mesma trajetória, há um alargamento da região de maior deposição de energia em relação a uma partícula isolada. Esta característica da deposição de energia localizada tem sido empregada para radioterapia nos últimos anos, principalmente na protonterapia22. Poder de freamento de partículas carregadas leves (elétrons e pósitrons) O poder de freamento para elétrons (para simplificar a linguagem, a menos que se faça ressalva, a palavra elétron se refere a elétrons negativos e positivos) é composto de duas parcelas: uma se refere a perdas de energia cinética da partícula em processos de colisão (suave ou dura) e outra às perdas por emissão de radiação S=Scol+Srad. O termo de colisão tem o mesmo comportamento com energia que o poder de freamento eletrônico para as PCRs mais velozes, como se vê no lado esquerdo da Figura 8. Embora os valores de (sm)col para elétrons sejam bem mais baixos que os vistos na Figura 6 para PCPs, eles são bastante próximos aos de um íon de carga 1e com mesma velocidade que o elétron. Já as perdas de energia por processos de emissão de radiação (Bremsstrahlung) têm um crescimento praticamente linear com a energia do elétron, sendo o processo dominante para o freamento dessas partículas para qualquer material em altas energias de elétron. A dependência do poder de freamento com o meio pode ser mais bem observada no gráfico à direita na Figura 8: (sm) cresce de forma aproximadamente linear com Z, e, conserad quentemente (veja Apêndice A), Srad varia aproximadamente com Z2. Ao mesmo tempo se observa que as perdas por colisão diminuem à medida que aumenta o número atômico do meio, efeito devido em parte à blindagem que a nuvem Figura 7. Simulação da perda de energia por um único próton em água, em função da distância percorrida, para energias inicias de 50, 100 e 200 MeV. No destaque, a perda relativa para um feixe de muitos prótons de 200 MeV, que, devido a variações individuais de trajetória, mostra um alargamento da região onde ocorre a máxima deposição de energia (pico de Bragg). eletrônica produz no campo elétrico percebido pelo elétron rápido no meio, diminuindo a intensidade das interações. Com essas características, pode-se inferir que a energia na qual 50% da perda de energia ocorrem por processos de colisão e 50% ocorrem por radiação é tão mais baixa quanto mais elevado é o número atômico do meio, como se vê na Figura 9. Já se levarmos em consideração a trajetória completa da partícula até parar, define-se o rendimento de Revista Brasileira de Física Médica. 2009;3(1):57-67. 63 f f Yoshimura EM Fonte: programa EStar12. Figura 8. Gráfico à esquerda: poder de freamento (sm) de elétrons em água: de colisão (linha cheia fina), de radiação (linha tracejada) e total (linha cheia e grossa) em função da energia cinética dos elétrons; os símbolos representam (sm)col: cheios para osso compacto e vazios para carbono. Gráfico à direita: (sm)col (quadrados) e (sm)rad (triângulos) para vários elementos químicos, em função de Z, para duas energias, sendo símbolos cheios para T=10MeV e símbolos vazios para T=15MeV. radiação (Y) como a razão entre a quantidade de energia perdida em média pelo elétron em processos radiativos e a energia inicial com que o elétron incidiu no meio: . O gráfico à direita na Figura 9 mostra que a fração da energia total do elétron irradiada na forma de Bremsstrahlung é em geral pequena, exceto se o meio tem número atômico alto e o elétron é de alta energia. A produção de raios X para uso médico se utiliza do processo de Bremsstrahlung, com um feixe de elétrons de energia cinética inicial T0 incidindo em um alvo de número atômico alto (em geral W ou Mo) e espessura maior que o alcance dos elétrons. Nos equipamentos radiológicos T0, está na faixa de 20 a 150 keV; e nos aceleradores lineares empregados em radioterapia, no intervalo de 1 a 30 MeV. Como se vê no gráfico à direita na Figura 9, a energia irradiada nessas duas faixas, em um alvo de W, corresponde a aproximadamente de 2 a 50% da energia incidente. O restante da energia dos elétrons, que é perdida em processos de colisão, é quase todo convertido em calor. O espectro de energias dos fótons de Bremsstrahlung é largo, como o exemplo mostrado na Figura 10 (feixe de radiodiagnóstico, elétrons de 100 keV). Nessa mesma figura, os picos observados nas energias próximas de 10, 60, 67 e 69 keV correspondem a transições de elétrons de 64 Revista Brasileira de Física Médica. 2009;3(1):57-67. níveis excitados para níveis de menor energia, e formam o espectro característico de emissão do tungstênio. O espectro largo, entre 0 e 100 keV, corresponde a emissões de radiação de freamento do elétron incidente, e seu formato pode mudar de acordo com os materiais que atravessa dentro do próprio equipamento de raios X22. Interações de nêutrons Nêutrons que incidem na matéria podem sofrer espalhamento elástico ou inelástico com núcleos do meio, podem ser absorvidos e podem provocar reações nucleares diversas. Além disso, da mesma maneira que os fótons, nêutrons podem atravessar diversas camadas atômicas sem sofrer qualquer interação, pois a força nuclear forte tem alcance muito curto e só atua entre o nêutron e o núcleo. Em geral, quanto maior a energia dos nêutrons, maior a sua penetração nos materiais, pois a seção de choque de boa parte das interações diminui com o aumento da energia cinética. No entanto, há processos específicos e ressonâncias que fogem à regra. Assim, não é possível fazer muitas generalizações sobre as interações, e trataremos aqui apenas das consequências em termos de produção de outras radiações ionizantes. Na tabela 3 estão listadas as principais interações que serão brevemente discutidas a Física das Radiações: interação da radiação com a matéria Radiação Colisão a Fonte: programa EStar12. Figura 9. Gráfico à esquerda: faixas de energia e número atômico com predominância de perda de energia do elétron por processos de colisão (região sombreada) e por radiação. A curva divisória representa (sm)col = (sm)rad. Gráfico à direita: rendimento de radiação em função da energia do elétron para três materiais. Processos inelásticos de interação de nêutrons As reações nucleares em geral e o espalhamento inelástico do nêutron estão nesta categoria na qual se incluem os processos em que o núcleo com o qual o nêutron interagiu é modificado em termos de energia interna (fica excitado), ou até em termos de sua composição de prótons e nêutrons. Em todos os casos há o chamado recuo do núcleo, o qual pode adquirir energia cinética suficiente para perder elétrons periféricos e se tornar uma partícula carregada rápida. As reações nucleares podem produzir núcleos radioativos, sendo chamadas então de reações de transmutação ou de ativação – são dos principais mecanismos de r f seguir. Os produtos dessas interações são fótons (raios gama) ou íons (núcleos de recuo e produtos de reações nucleares), que passam a interagir com a matéria nas formas vistas nas seções anteriores. Figura 10. Espectro de raios X emitidos quando um alvo espesso de tungstênio é irradiado por elétrons com 100 keV de energia cinética. (Espectro gerado com o programa XCOMP5R23). Tabela 3. Interações possíveis de ocorrer para nêutrons e consequências das interações Interação Espalhamento inelástico O que muda no meio Núcleo recua e fica excitado Reação nuclear Núcleo se torna outra espécie nuclear Espalhamento elástico Recuo do núcleo O que muda na radiação incidente Direção de propagação e energia do nêutron Nêutron é absorvido Direção de propagação e energia do nêutron Radiação ionizante produzida Radiação gama (desexcitação do núcleo); núcleo de recuo Emissões radioativas do núcleo final; radiação gama do núcleo final; produtos da reação nuclear Núcleo de recuo, nêutron com menor energia, espalhado Revista Brasileira de Física Médica. 2009;3(1):57-67. 65 Yoshimura EM produção de isótopos radioativos. Como exemplos, temos: • reação de captura de um nêutron por um núcleo, acompanhada de emissão gama: ; • reações de troca entre um nêutron e um próton: ; • reações com emissão de partículas: ; • produção de radioisótopos: . Espalhamento elástico de nêutrons Neste tipo de choque não há mudança da energia interna do núcleo, ocorrendo somente troca de energia e momento entre o nêutron e o núcleo. O problema é tratado como o espalhamento de corpos quaisquer na Mecânica Clássica, com conservação de energia e momento totais, e definição do plano de espalhamento onde as trajetórias estão contidas e o processo pode ser descrito. Como para núcleos leves a massa do nêutron é comparável à massa do núcleo, pode haver grande perda de energia cinética do nêutron, e o núcleo de recuo pode ter velocidades suficientemente altas para caminhar no meio e ionizá-lo. Trata-se do principal processo de freamento do nêutron na matéria, principalmente para meios com muito hidrogênio, pois, por possuir massa praticamente igual à do nêutron, o hidrogênio de recuo (próton) pode receber até toda a energia cinética do nêutron em um único choque. Notas finais Fótons e nêutrons são considerados radiação indiretamente ionizante pois liberam um número muito discreto de íons na matéria que atravessam: um ou dois elétrons, um ou dois íons em cada interação. A ionização da matéria de fato ocorre quando esses elétrons e íons liberados (radiações diretamente ionizantes) são freados no meio. Ao lembrarmos que para ionizar o átomo de um gás são necessários em média algumas dezenas de eV e para ionizar um semi condutor bastam poucos eV24, vemos que a quantidade de cargas liberada em um meio quando uma única PCR é freada é muito grande – da ordem de 104 pares de íons são produzidos em um gás e 106 íons em um semicondutor, se a PCR tem 1 MeV de energia cinética. A consequência da passagem da radiação ionizante pelo meio é a produção de ionizações e excitações no meio e mais radiação ionizante além da incidente. Do ponto de vista do material, as ionizações e excitações são causa de mudanças de propriedades físicas e químicas que podem ser estudadas e relacionadas com a quantidade de radiação que produziu as mudanças. Todas as aplicações das radiações ionizantes, bem como a metrologia das radiações ionizantes, são feitas a partir desse estudo, seja ele em materiais inertes ou biológicos. 66 Revista Brasileira de Física Médica. 2009;3(1):57-67. A modelagem física da interação da radiação com a matéria faz, como é usual, uma série de simplificações. Para as interações de fótons, a matéria é considerada um mar de átomos cujas características de agregação e de ligações químicas não fazem diferença. Para o estudo das interações de nêutrons, só os núcleos importam. Já na interação de partículas carregadas rápidas, em que a frequência de interações é grande, a constituição da matéria é levada em conta, seja no cálculo dos potenciais de ionização atômicos ou moleculares, seja nos efeitos de polarização da matéria, dependentes da densidade do meio e que são utilizados nos cálculos do poder de freamento. A grande dificuldade teórica e experimental para obter valores corretos do poder de freamento tem sido enfrentada por vários autores, principalmente no que se refere a íons pesados18,25,26. As dificuldades se relacionam às características dos meios (densidade de cargas e regularidade na sua distribuição, efeitos de polarização) e das partículas (mudanças de estado de carga ao longo da trajetória, possibilidade de estados excitados do íon). Como todas as radiações acabam liberando PCR’s ao interagir com o meio, melhorias nessa modelagem e superação das dificuldades atuais são assuntos importantes no futuro da Física das Radiações. Referências 1. Feynman RP, Leighton RB, Sands M. The Feynman Lectures in Physics, v. 1. Massachusetts: Pearson Addison Wesley; 2006. 2. Attix FE. Introduction to Radiological Physics and Radiation Dosimetry. New York: John Wiley and Sons; 1986. 3. Hubbell JH. Review and history of photon cross section calculations. Phys Med Biol. 2006;51(13): R245-62. 4. Turner JE. Interaction of ionizing radiation with matter. Health Phys. 2004;86(3):228-52. 5. Evans RD. The Atomic Nucleus, New York: McGraw-Hill; 1955. 6. Davisson CM, Evans RD. Gamma-ray Absorption Coefficients. Rev Mod Phys. 1952;24(2):79-107. 7. Heitler W. The Quantum Theory of Radiation. 3rd ed. New York: Dover Publication; 1953. 8. NIST (Berger MJ et al). XCOM: Photon Cross Sections Database. [Página na internet] [acesso em jul. 2009]. Disponível em: http://physics.nist.gov/ PhysRefData/Xcom/Text/XCOM.html. 9. Gureyev TE, Mayo SC, Myers DE, Nesterets Y, Paganin DM, Pogany A, et al. Refracting Röntgen’s rays: propagation-based x-ray phase contrast for biomedical imaging. J Appl Phys. 2009;105:102005. 10. Davis TJ, Gao D, Gureyev TE, Stevenson AW, Wilkins SW. Phase-contrast imaging of weakly absorbing materials using hard x-rays. Nature 1995;373(6515):595-8. 11. Fitzgerald R. Phase-sensitive x-ray imaging. Phys Today 2000;53(7):23-6. 12. Dreossi D et al. The mammography project at the SYRMEP beamline. Eur J of Radiol 2008; 68S: S58-S62. 13. NIST (Berger MJ et al). Stopping-power and range tables for electrons, protons and helium ions. [Página na internet] [acesso em ago. 2009]. Disponível em: http://physics.nist.gov/PhysRefData/Star/Text/contents. html. 14. Bohr N. Velocity-range relation for fission fragments. Phys Rev. 1941;59:270-5. Física das Radiações: interação da radiação com a matéria 15. Ziegler JF, Biersack JP, Ziegler MD. SRIM, the stopping and range of ions in matter. Morrisville: Lulu Press Co; 2008. 16. Paul H, Schinner A. Empirical stopping power tables for ions from 3Li to 18Ar and from 0.001 to 1000 MeV/nucleon in solids and gases. Atomic Data and Nuclear Data Tables. 2003;85:377-452. 17. Paul H. Stopping power for light ions. [Página na internet] [acesso em ago. 2009]. Disponível em: http://www.exphys.uni-linz.ac.at/stopping/. 18. Johns HE, Cunningham JR. The physics of radiology, 4th ed. Springfield, Illinois: Charles C. Thomas; 1983. 19. Sabin JR, Oddershede J. Stopping power - What next? Adv Quantum Chem. 2005;49:299-319. 20. Bohr N. On the decrease of velocity of swiftly moving electrified particles in passing through matter. Phil Mag. 1915;30:581-612. 21. Inokuti M. Inelastic collisions of fast charged particles with atoms and molecules – the Bethe Theory revisited. Rev Mod Phys. 1971;43(3):297-347. 22. Smith AR. Proton therapy, Phys Med Biol. 2006;51:R491-504. 23. Nowotny R, Hofer A. A computer code for the calculation of diagnostic-xray spectra. Fortschritte Auf Dem Gebiete Der Rontgenstrahlen Und Der Nuklearmedizin 1985;142:6685-9. 24. Kantele J. Handbook of Nuclear Spectroscopy. London: Academic Press; 1995. 25. Inokuti M. Remarks on stopping power: Its connections with particle transport and with the electronic structure of matter. Int J Quantum Chem. 1996;57(2):173-82. 26. Nobel JA, Trickey SB, Sabin JR, Oddershede J. Basis set limitations on the ab initio calculation of stopping cross-sections via generalized oscillator strengths. Chem Phys. 2005;309(1):89-94. 27. NIST (Dragoset RA). Periodic Table: Atomic Properties of the Elements. [Página na internet] [acesso em ago. 2009]. Disponível em: http://physics. nist.gov/PhysRefData/PerTable/index.html. Apêndice A: densidade e número atômico O gráfico da Figura A1 mostra a densidade dos elementos químicos sólidos (ρ), em função do número atômico (Z). Embora a variação de ρ com Z dentro de cada um dos 7 períodos da tabela periódica apresente uma forma de pico, a tendência de aumento da densidade com Z é notável, como se observa pelas linhas de tendência ajustadas aos pontos experimentais. Para os 11 elementos gasosos (os 6 gases nobres e H, N, O, F e Cl), também incluídos no gráfico, a tendência é especialmente forte. Essa tendência de aumento de densidade com número atômico justifica a utilização de seções de choque para fótons e poder de freamento nas formas , que têm então dependências com o número atômico mais fracas que . a Fonte: NIST27. Figura A1. Comportamento da densidade dos elementos químicos com o número atômico. Os pontos cheios correspondem a elementos sólidos e os vazados aos gases (escala à direita). As retas verticais representam as fronteiras entre os períodos (linhas horizontais da Tabela Periódica), indicados pelos números em fundo preto. As retas de tendência do conjunto têm fatores de correlação R2 de 0,46105 (elementos sólidos) e 0,96793 (elementos gasosos). Revista Brasileira de Física Médica. 2009;3(1):57-67. 67 Artigo de Revisão Revista Brasileira de Física Médica. 2009;3(1):57-67. Física das Radiações: interação da radiação com a matéria Radiation Physics: interaction of radiation with matter Elisabeth Mateus Yoshimura1 Professora-associada do Departamento de Física Nuclear do Instituto de Física da Universidade de São Paulo (USP), São Paulo (SP), Brasil 1 Resumo Neste artigo é feita uma revisão sistemática da interação das radiações ionizantes com a matéria, ressaltando sua dependência com o tipo de radiação, composição do meio e energia da radiação. Palavras-chave: radiação; fótons; íons; elétrons; nêutrons. Abstract A systematic review of interaction of ionizing radiation with matter is presented in this paper. Special attention is given to the dependence of the processes on the type and energy of radiation and on the medium composition. Keywords: radiation; photons; ions; electrons; neutrons. Introdução Física das Radiações é o nome tradicional da área da Física que estuda a interação das radiações ionizantes com a matéria, com interesse especial nos resultados dessas interações, e em particular na transferência de energia da radiação para o meio. Em primeiro lugar, é importante ressaltar que há dois conceitos importantes relacionados ao tema, que nem sempre são bem esclarecidos: interação e radiação ionizante. Interação é o termo que representa, na Física, a ação de uma força e o efeito causado por essa ação1. Por exemplo, duas partículas carregadas em repouso interagem pela ação da força coulombiana. Radiação ionizante, por sua vez, é qualquer radiação, com ou sem massa de repouso, que pode remover elétrons de átomos e moléculas. O conjunto das radiações ionizantes usualmente estudadas compreende: i. radiação eletromagnética com energia de fóton acima de 12 eV, que recebe várias denominações de acordo com a origem: raios X – originados de desexcitações atômicas (raios X característicos) e da desaceleração de partículas carregadas (Bremsstrahlung); raios gama – originados de desexcitações nucleares; fótons de aniquilação – originados da aniquilação de pares partícula-antipartícula; ii. partículas eletricamente carregadas e que possuem energia cinética bem maior que a energia térmica, e superior a energias de ligação de elétrons atômicos, chamadas Partículas Carregadas Rápidas. Suas origens podem ser a emissão por núcleos atômicos (partículas alfa e beta e os produtos de fissão nuclear, por exemplo), a emissão por átomos (elétrons Auger), feixes produzidos em aceleradores de partículas (elétrons, pósitrons, prótons, dêuterons, íons em geral, de qualquer número atômico ou número de massa), a radiação cósmica primária ou produtos de sua interação com a atmosfera (múons, píons etc.), produtos de reações nucleares, etc; iii. nêutrons livres com qualquer energia cinética e de qualquer origem. Essa classificação das radiações ionizantes tem fundamentação nas forças responsáveis pelas interações e na modelagem utilizada para descrevê-las. Fótons interagem pela ação de campos eletromagnéticos, atuando sobre partículas carregadas do meio; partículas carregadas têm sua ação em elétrons do meio aproximada por interações coulombianas consecutivas; já os nêutrons atuam sobre prótons e nêutrons de núcleos atômicos pela força nuclear forte. As áreas da Física que tratam dessas interações são a Eletrodinâmica Quântica para interações entre campos eletromagnéticos e cargas em movimento, e a Física Nuclear para as interações entre nucleons. Em geral não há soluções analíticas para o problema completo, e a Correspondência: Elisabeth Mateus Yoshimura – Universidade de São Paulo, Instituto de Física, Departamento de Física Nuclear. Travessa R da Rua do Matão, 187 – Cidade Universitária – 05508-900 – Sao Paulo (SP), Brasil – e-mail: [email protected] Associação Brasileira de Física Médica® 57 Yoshimura EM Física da Radiação se fundamenta em soluções analíticas parciais e aproximações numéricas combinadas com resultados experimentais2-6. Neste artigo pretendemos revisar os principais marcos dessas interações, assim como as suas consequências. • Interações da radiação eletromagnética Na faixa de energias que inclui os raios X e gama, há várias interações possíveis com o átomo ou com elétrons atômicos ou ainda com o núcleo, mas há também a possibilidade de não-interação, ou seja, a interação da radiação eletromagnética (REM) pode atravessar distâncias consideráveis em um meio material sem modificá-lo e sem se modificar. As probabilidades de interação (e de não-interação) dependem de características do meio e da radiação. A REM ionizante é tratada, em boa parte dos casos, como um conjunto de partículas – os fótons. A cada energia de fóton hv corresponde um momento associado hv / c, e, dessa forma, podem ocorrer ‘colisões’ em que o fóton transfere energia e momento para outras partículas. As principais interações que ocorrem na matéria com fótons de energias na faixa de poucos keV até dezenas de MeV são: • espalhamento coerente (ou efeito Rayleigh): corresponde à absorção e re-emissão da radiação pelo átomo, em uma direção diferente da de incidência. Somente neste efeito a radiação é tratada como onda; em todos os outros se considera a REM como constituída de fótons; • efeito fotoelétrico: o fóton é absorvido pelo átomo e um elétron atômico é liberado para se mover no material. A energia cinética adquirida por esse elétron é a diferença entre a energia do fóton e a energia de ligação do elétron ao átomo; • efeito Compton (ou espalhamento inelástico): trata-se do espalhamento de um fóton por um elétron livre do • material. Há transferência de parte da energia e do momento do fóton para o elétron, e um fóton com a energia restante é espalhado em outra direção; produção de pares elétron-pósitron: Neste processo, o fóton é absorvido e toda sua energia é convertida em massa de repouso e energia cinética de um par partícula/antipartícula – elétron/pósitron. É interpretada como a transição de um elétron de um estado de energia total negativa para um estado de energia total positiva; a diferença de energia entre os dois estados é a energia do fóton incidente, que é absorvido; a lacuna de um elétron no conjunto de estados de energia negativa é observada como um pósitron7. É possível a criação de outros pares de partícula/antipartícula, mas a energia necessária do fóton é muito mais elevada. O efeito é resultado da interação entre o fóton e o campo eletromagnético, e ocorre normalmente nas vizinhanças do núcleo, podendo também acontecer devido à interação do fóton com o campo de qualquer partícula carregada, incluindo os elétrons atômicos. Neste caso particular, um elétron atômico também é ejetado e o efeito é chamado de produção de tripleto. É mais provável quanto mais intenso for o campo; reações fotonucleares: a principal reação nuclear provocada por fótons é a fotodesintegração, que equivale a um ‘efeito fotonuclear’ num paralelo com o efeito fotoelétrico. O fóton com energia maior que a energia de ligação de nucleons é absorvido pelo núcleo que libera um próton ou um nêutron com energia cinética suficiente para abandonar o núcleo, que se transforma em outra espécie nuclear. O fóton é absorvido nos processos de efeito fotoelétrico, produção de par e reações fotonucleares. A Tabela 1 mostra, para cada efeito, quais são as consequências para o meio e para a radiação, e quais radiações ionizantes são produzidas ou liberadas em decorrência da interação. Tabela 1. Interações possíveis de ocorrer para radiação eletromagnética ionizante – raios X, raios gama e fótons de aniquilação – e consequências das interações Interação – símbolo da seção de choque Espalhamento Coerente - scoer (espalhamento da radiação pelo átomo) Fotoelétrico - t (ejeção de elétron ligado) Compton - sinc (espalhamento do fóton por um elétron) Produção de Par - k (energia do fóton é consumida na criação do par (e- e+)) Reação Fotonuclear (ejeção de nucleon ligado) 58 O que muda no meio O que muda na radiação incidente Radiação ionizante produzida Direção de propagação, (mantém energia) REM espalhada de mesma energia Ionização e excitação do átomo, recuo do núcleo Ionização do átomo Fóton é absorvido Elétron rápido, raios X característicos, elétrons Auger Elétron rápido, fóton com menor energia, espalhado Recuo do núcleo; aniquilação do pósitron Fóton é absorvido Fóton perde energia e muda de direção Núcleo modificado (Z ou A) e excitado Fóton é absorvido Revista Brasileira de Física Médica. 2009;3(1):57-67. Elétron e pósitron rápidos, raios X de aniquilação Partículas subnucleares, em geral nêutrons Física das Radiações: interação da radiação com a matéria Sob o ponto de vista de probabilidades de ocorrência, a ordem em que estão apresentadas as interações na Tabela 1 corresponde, grosso modo, à prevalência de cada efeito em função da energia de fóton: os efeitos coerente e fotoelétrico ocorrem com maior probabilidade para baixas energias, enquanto o efeito Compton ocorre para intermediárias. Produção de par e reações fotonucleares só acontecem acima de um limiar de energia: no primeiro caso, é necessário que o fóton tenha no mínimo 1,022 MeV de energia (equivalente a duas massas de repouso de elétron) para que toda sua energia se converta em massa de repouso e energia cinética do par (e- e+); já para as reações fotonucleares, a energia do fóton deve ser superior à energia de ligação de nucleons (ao menos alguns MeV, em geral mais de 10 MeV) para que um nêutron ou próton seja retirado do núcleo. A Figura 1 mostra com mais clareza que o efeito Compton predomina para todos os elementos da tabela periódica se as energias de fótons estão entre algumas centenas de keV e alguns MeV, e predomina para todas as energias se os números atômicos são baixos (região sombreada na Figura 1). Para números atômicos elevados o efeito fotoelétrico é o mais provável para energias baixas e a produção de par para energias elevadas. As reações fotonucleares ocorrem com probabilidades muito menores que os outros efeitos e não são em geral computadas nas probabilidades de interação. No entanto, sua ocorrência é importante pois os nêutrons produzidos podem ser um problema de proteção radiológica. É conhecida a lei de atenuação de um feixe de fótons, que relaciona o número de fótons incidentes perpendicularmente em um material homogêneo (N0) e o número de fótons que emerge desse meio sem interagir com ele (N): N=N0e-mx, que também pode ser apresentada na sua forma diferencial: dN=-μdx. O coeficiente µ, chamado de coeficiente de atenuação, representa a seção de Figura 1. Gráfico que apresenta os valores de número atômico e de energia que tornam iguais as probabilidades de ocorrência dos efeitos fotoelétrico e Compton (curva à esquerda) e dos efeitos Compton e produção de par (curva à direita). Valores obtidos a partir da base de dados XCOM8. choque de interação entre cada fóton e o meio que atravessa, por unidade de volume. O coeficiente de atenuação é a soma de coeficientes parciais (símbolos na Tabela 1) para cada um dos efeitos, considerados independentes: m=scoer+sinc+t+k, ou, como é mais comum, os coeficientes mássicos: , que são o resultado da divisão dos coeficientes lineares pela densidade do material (ρ) e representam seções de choque por unidade de massa do material. O termo e-μx representa a probabilidade de não interação por qualquer dos efeitos, ao atravessar uma espessura x de material. A Figura 2 mostra, para três dos átomos que compõem o corpo humano – oxigênio, carbono e cálcio –, a variação desses coeficientes mássicos parciais com a energia. Nota-se com clareza a forte dependência da probabilidade de ocorrência do efeito fotoelétrico com a energia do fóton: ( aproximadamente). Quanto maior a energia do fóton comparada à energia de ligação dos elétrons ao átomo, menor a probabilidade de desencadear o efeito fotoelétrico. Ainda na Figura 2, para o átomo de Ca, é possível notar uma descontinuidade na curva de τ contra energia chamada de borda K: esse aumento na seção de choque do efeito fotoelétrico ocorre quando a energia do fóton coincide com a energia de ligação dos elétrons mais ligados desse átomo, o que Figura 2. Seções de choque, por unidade de massa, total (linhas cheias grossas) e parciais, para os efeitos fotoelétrico (símbolos cheios) e produção de par (símbolos vazios) para três dos principais átomos que constituem o corpo humano – C, O, Ca. No destaque, o mesmo para Efeito Compton. As linhas unindo pontos são para guiar os olhos. Valores obtidos a partir da base de dados XCOM8. Revista Brasileira de Física Médica. 2009;3(1):57-67. 59 Yoshimura EM permite que também os dois elétrons desse nível de energia passem a poder ser arrancados do átomo, reforçando a noção de que a interação é praticamente um efeito ressonante. A produção de par é o único dos efeitos cuja seção de choque cresce monotonicamente com a energia, o que produz a inversão da tendência decrescente de µ com o aumento da energia do fóton. Por esse fato, fótons de mais alta energia podem ser menos penetrantes que fótons de mais baixa energia e, para a maioria dos materiais, um mesmo valor de coeficiente de atenuação pode corresponder a dois valores bem distintos de energia de fóton. A produção de par se torna o efeito predominante para todos os materiais em altas energias de fóton, mas o crescimento de κ com a energia do fóton é muito mais lento para energias altas que para as energias logo acima do limiar de 1,022 MeV. O espalhamento coerente, cuja seção de choque como função da energia é mostrada na Figura 3, tem dependência forte de número atômico do meio e energia do fóton. Recentemente têm sido desenvolvidas aplicações desse efeito para obtenção de imagens médicas com o uso do contraste de fase para obtenção da imagem ou para redução de ruído; as defasagens da onda eletromagnética são resultado da interferência entre ondas espalhadas coerentemente ou refratadas por meios distintos9. Para esse tipo de imagem é necessário um feixe monocromático e coerente – de um síncrotron, em geral10-12. Outra forma de observar a predominância de cada efeito é pela variação das probabilidades de interação com o material. Como já se nota na Figura 2, para o efeito Compton quase não há variação da seção de choque para os diversos elementos químicos. Mas para efeitos fotoelétrico e de produção de par a variação é expressiva com o número atômico do meio. Examinando os gráficos da Figura 4, conclui-se que a variação de τ/ρ com Z está próxima de uma potência entre 3 e 4. Já a produção de par tem o coeficiente κ/ρ que cresce de maneira praticamente linear com Z. Como há uma tendência linear de aumento da densidade dos elementos com o número atômico (veja Apêndice A), a divisão dos coeficientes lineares por ρ tende a tornar as seções de choque menos dependentes de Z: o coeficiente linear τ tem a dependência próxima de uma potência 4 e 5 com Z, κ varia com o quadrado de Z, e σinc uma dependência linear com Z. Interações das partículas carregadas rápidas p Figura 3. Pontos unidos por linhas - seções de choque parciais, por unidade de massa, para o espalhamento coerente em carbono, oxigênio e cálcio. Curvas cheias: seção de choque para efeito fotoelétrico dos mesmos elementos. Valores obtidos a partir da base de dados XCOM8. Ao contrário da REM, partículas carregadas têm probabilidade 100% de interagir no meio material, pois há cargas distribuídas no meio e a força coulombiana é de longo alcance. O modelo mais frequentemente utilizado para descrever a passagem de uma partícula carregada pela matéria supõe que há uma sequência contínua de interações nas quais a partícula perde pequenas frações de sua energia, até ser completamente freada e não ser mais a a Figura 4. Seções de choque parciais, por unidade de massa, para os efeitos fotoelétrico (esquerda) e produção de par (direita) para alguns valores de energia de fóton. As linhas claras unindo pontos são para guiar os olhos. As retas pretas indicam comportamentos com potências inteiras de Z. Valores obtidos a partir da base de dados XCOM8. 60 Revista Brasileira de Física Médica. 2009;3(1):57-67. Física das Radiações: interação da radiação com a matéria considerada uma radiação ionizante. Essa aproximação recebe o nome, em inglês, de continuous slowing-down approximation (CSDA). A esse continuum de interações suaves somam-se algumas interações mais intensas, nas quais uma grande perda de energia acontece. Entre as radiações ionizantes o elétron é a partícula carregada de menor massa de repouso (mec2 = 0,511 MeV), de maneira que sua energia cinética (T), em geral, não é desprezível se comparada com a energia de repouso. Esse é o principal motivo para que o tratamento físico da interação das partículas carregadas rápidas (PCRs) com a matéria seja subdividido em dois grandes grupos: elétrons (que inclui elétrons e pósitrons) e partículas carregadas pesadas (todas as outras PCRs). Do ponto de vista fenomenológico, as diferenças estão explicitadas na tabela 2. São necessárias algumas observações sobre a Tabela 2. Algumas das interações listadas como restritas a elétrons e pósitrons podem ocorrer também para íons pesados se suas energias cinéticas forem suficientemente altas. Por exemplo, a emissão de radiação de freamento proveniente da interação da partícula carregada com o campo eletromagnético do núcleo tem uma seção de choque, obtida com cálculos de Eletrodinâmica Quântica7, que é inversamente proporcional ao quadrado da massa da partícula2,5. Assim, um elétron com 0,25 MeV de energia cinética tem uma probabilidade três milhões de vezes maior de emitir fótons de Bremsstrahlung que um próton com mesma velocidade (a energia cinética do próton seria de 500 MeV), interagindo com o mesmo material. As reações nucleares são também pouco prováveis para todos os casos, a menos que a energia cinética seja muito elevada. A ocorrência de cada tipo de interação e a correspondente perda de energia pela PCR dependem basicamente do parâmetro de impacto da interação, ou seja, da distância entre a trajetória da partícula e o centro do átomo mais próximo. As interações com o núcleo são mais raras, pois este ocupa uma área muito pequena do átomo. O choque mais frequente é com a eletrosfera, predominando as colisões suaves sobre as colisões duras. Para cada interação a energia cinética da partícula diminui de uma quantidade ∆Ti, que depende do tipo de partícula, da sua energia cinética e do meio de interação. A composição dos possíveis valores de ∆Ti, ponderados pela probabilidade de ocorrência de cada tipo de interação, dá como resultado uma grandeza conhecida como stopping-power, traduzido para o português como poder de freamento, que representa a perda média de energia por unidade de caminho em um determinado meio, considerando-se a média sobre um conjunto grande de partículas idênticas e com mesma energia. Para representar o poder de freamento, usam-se os símbolos: s . As expressões e variações do poder de freamento com energia e meio são tratadas separadamente para elétrons e partículas carregadas, devido às diferenças entre interações já enfatizadas, e também porque as PCRs leves têm tratamento relativístico que não é necessário para as pesadas. Outra característica importante das interações das PCRs é a existência de uma distância máxima percorrida: para qualquer meio sempre é possível encontrar, para qualquer material, uma espessura específica de que é suficiente para parar (reduzir a energia cinética a valores equivalentes à energia térmica) as partículas carregadas que nele incidiram. À espessura mínima que freia todas as partículas de um determinado tipo e energia, dá-se o nome de alcance. Se a partícula tem uma trajetória sem mudanças de direção, o alcance coincide com o comprimento da trajetória da partícula. Isso em geral não ocorre, principalmente para as partículas leves, que percorrem caminhos em geral mais longos que a espessura necessária para o seu freamento total devido a espalhamentos múltiplos. A definição de alcance requer então cálculos médios e medidas experimentais. Conhecida a variação de S com a energia cinética da partícula, pode-se calcular um comprimento médio de trajetória, para um número grande de partículas idênticas de energia cinética inicial T0 dado por Tabela 2. Interações possíveis de ocorrer para partículas carregadas rápidas e consequências das interações Partícula carregada Elétrons, pósitrons e íons pesados Interações possíveis Colisão inelástica com o átomo (colisão suave) Colisão com elétron fortemente ligado (colisão dura) Choque elástico com o núcleo Elétrons e pósitrons Choque inelástico com o núcleo Pósitrons Aniquilação com um elétron do meio Reação nuclear Todos O que muda no meio de interação Radiação ionizante produzida Excitação e eventual ionização de Partícula primária com pequena átomos em camada de valência mudança de direção, eventualmente um elétron rápido (secundário) Ionização (camada interna) e Partícula primária, elétron rápido excitação do átomo (secundário), raios X característicos, elétrons Auger Recuo do núcleo Partícula primária com mesma energia e outra trajetória Recuo do núcleo Partícula primária e radiação de freamento (Bremsstrahlung) Ionização e excitação Dois fótons de aniquilação, cada um do átomo com hn≥0,511 MeV Núcleo modificado (Z ou A) Partículas subnucleares, raios gama e excitado de desexcitação nuclear Revista Brasileira de Física Médica. 2009;3(1):57-67. 61 Yoshimura EM . Cálculos desse tipo, com a aproximação CSDA, levam a valores disponíveis em tabelas na literatura13. Experimentalmente, a determinação do alcance é feita pela interposição de espessuras crescentes de material homogêneo em frente a um feixe de partículas e a contagem do número de partículas que o atravessam. A Figura 5 mostra exemplos da variação do número de partículas com espessura: na situação ideal (representada pela linha tracejada) é simples identificar o alcance com a espessura Lmáx; nas situações reais, como as vistas na linha cheia e na linha mista, é possível definir o alcance médio (L50) como a espessura que reduz o número de partículas à metade, ou ainda definir, além de outros, o alcance extrapolado (Lext) pela intersecção entre a tangente à curva de penetração e o eixo x. As curvas de penetração de PCRs leves se assemelham à curva mista da Figura 5, enquanto para as PCRs pesadas, as curvas de penetração são mais bem definidas, como a curva em linha cheia. Isso porque desvios apreciáveis de trajetória dessas partículas em choques com elétrons do meio são muito improváveis, pela grande diferença de massas. Poder de freamento de partículas carregadas pesadas No cálculo do poder de freamento de partículas carregadas pesadas (PCPs), levam-se em conta as colisões suave e dura, não sendo computadas perdas de energia por radiação de Bremsstrahlung ou por reação nuclear, consideradas pouco prováveis para partículas com até centenas de MeV de energia cinética. O poder de freamento é chamado de eletrônico. No final da trajetória das PCPs ( ) também é importante o espalhamento elástico com o núcleo, cuja perda de energia é computada separadamente, no poder de freamento nuclear. Figura 5. Exemplos de curvas de penetração de partículas carregadas e algumas possíveis definições de alcance. 62 Revista Brasileira de Física Médica. 2009;3(1):57-67. As dificuldades dos cálculos de perda de energia de íons na matéria são de variadas origens: a distribuição de elétrons no meio deve ser conhecida, sendo a estratégia o uso de cálculos aproximados, como os de Hartree-Fock; a carga do íon muda durante sua trajetória na matéria, sendo definida uma carga efetiva que diminui com a velocidade do íon14,15 de uma forma que depende do meio; há polarização da eletrosfera dos átomos à medida que o íon penetra no meio; os potenciais interatômicos devem ser bem conhecidos, considerada também a blindagem pela nuvem eletrônica. Há vários conjuntos de tabelas de dados e programas disponíveis para o cálculo dessa grandeza12,14,16,17, baseadas em compilações de dados experimentais e uso de códigos de simulação pelo método de Monte Carlo. Há também expressões analíticas para o cálculo das perdas de energia2,18, mas o desconhecimento de parâmetros dos meios de interação (potencial médio de ionização e efeito de densidade) e a introdução de várias correções tornam seu uso muito limitado – muitas vezes a medição experimental de em uma determinada faixa de energia é efetuada para determinar experimentalmente algumas características do meio em estudo19. Dos valores conhecidos para o poder de freamento, algumas regularidades podem ser observadas. A Figura 6 mostra que, para energias cinéticas relativamente altas, o decréscimo de sm é quase linear com a energia cinética. De fato, observando-se o gráfico à direita na Figura 6, em que T é dividido pelo número de nucleons (para íons não relativísticos com número de massa A, ), nota-se que, para energias cinéticas acima de poucas centenas de keV por nucleon, há uma variação decrescente e quase linear de sm com v2, independente da massa do íon. O comportamento da perda de energia com o inverso do quadrado da velocidade do íon foi previsto inicialmente por Bohr20, e depois ratificada por cálculos de Bethe4,21. Já o crescimento de sm com a velocidade para energias baixas é, em boa parte, resultado da diminuição da carga efetiva do íon à medida que se torna mais lento. Apenas como exemplo, no gráfico à direita na Figura 6 é também colocado o poder de freamento nuclear de prótons em água, que só se torna importante para energias muito baixas do íon. No mesmo gráfico se observa a coincidência das curvas de (sm/Z2) para quase toda a faixa de energias, inferindo-se uma dependência de sm com o quadrado da carga do íon: íons de mesma velocidade, percorrendo determinado meio, perdem energia por unidade de caminho mais rapidamente quanto maior for a sua carga e independente de sua massa. A consequência imediata do comportamento de sm com T é que há uma grande perda de energia pelo íon pouco antes do final de sua trajetória – o que normalmente é chamado de pico de Bragg, pois foi W. H. Bragg, em 1905, quem primeiro observou o comportamento sistemático da absorção de energia de partículas Física das Radiações: interação da radiação com a matéria Figura 6. Esquerda: poder de freamento eletrônico, por unidade de massa, para três íons – próton (1H+), partícula alfa (4He2+) e carbono (12C6+) - incidentes nos seguintes meios: água (pontos), carbono amorfo (linhas cheias), osso compacto (linhas tracejadas). À direita o gráfico para água é repetido com grandezas reduzidas: sm/Z2 nas ordenadas e T/A nas abscissas. Valores obtidos com os programas PStar e AStar12 e MStar16. alfa na matéria5. A Figura 7 mostra o comportamento esperado para a deposição de energia por um próton na água, para três energias distintas, e por um conjunto de prótons de 200 MeV (no destaque). Como nem todas as partículas do feixe seguem exatamente a mesma trajetória, há um alargamento da região de maior deposição de energia em relação a uma partícula isolada. Esta característica da deposição de energia localizada tem sido empregada para radioterapia nos últimos anos, principalmente na protonterapia22. Poder de freamento de partículas carregadas leves (elétrons e pósitrons) O poder de freamento para elétrons (para simplificar a linguagem, a menos que se faça ressalva, a palavra elétron se refere a elétrons negativos e positivos) é composto de duas parcelas: uma se refere a perdas de energia cinética da partícula em processos de colisão (suave ou dura) e outra às perdas por emissão de radiação S=Scol+Srad. O termo de colisão tem o mesmo comportamento com energia que o poder de freamento eletrônico para as PCRs mais velozes, como se vê no lado esquerdo da Figura 8. Embora os valores de (sm)col para elétrons sejam bem mais baixos que os vistos na Figura 6 para PCPs, eles são bastante próximos aos de um íon de carga 1e com mesma velocidade que o elétron. Já as perdas de energia por processos de emissão de radiação (Bremsstrahlung) têm um crescimento praticamente linear com a energia do elétron, sendo o processo dominante para o freamento dessas partículas para qualquer material em altas energias de elétron. A dependência do poder de freamento com o meio pode ser mais bem observada no gráfico à direita na Figura 8: (sm) cresce de forma aproximadamente linear com Z, e, conserad quentemente (veja Apêndice A), Srad varia aproximadamente com Z2. Ao mesmo tempo se observa que as perdas por colisão diminuem à medida que aumenta o número atômico do meio, efeito devido em parte à blindagem que a nuvem Figura 7. Simulação da perda de energia por um único próton em água, em função da distância percorrida, para energias inicias de 50, 100 e 200 MeV. No destaque, a perda relativa para um feixe de muitos prótons de 200 MeV, que, devido a variações individuais de trajetória, mostra um alargamento da região onde ocorre a máxima deposição de energia (pico de Bragg). eletrônica produz no campo elétrico percebido pelo elétron rápido no meio, diminuindo a intensidade das interações. Com essas características, pode-se inferir que a energia na qual 50% da perda de energia ocorrem por processos de colisão e 50% ocorrem por radiação é tão mais baixa quanto mais elevado é o número atômico do meio, como se vê na Figura 9. Já se levarmos em consideração a trajetória completa da partícula até parar, define-se o rendimento de Revista Brasileira de Física Médica. 2009;3(1):57-67. 63 f f Yoshimura EM Fonte: programa EStar12. Figura 8. Gráfico à esquerda: poder de freamento (sm) de elétrons em água: de colisão (linha cheia fina), de radiação (linha tracejada) e total (linha cheia e grossa) em função da energia cinética dos elétrons; os símbolos representam (sm)col: cheios para osso compacto e vazios para carbono. Gráfico à direita: (sm)col (quadrados) e (sm)rad (triângulos) para vários elementos químicos, em função de Z, para duas energias, sendo símbolos cheios para T=10MeV e símbolos vazios para T=15MeV. radiação (Y) como a razão entre a quantidade de energia perdida em média pelo elétron em processos radiativos e a energia inicial com que o elétron incidiu no meio: . O gráfico à direita na Figura 9 mostra que a fração da energia total do elétron irradiada na forma de Bremsstrahlung é em geral pequena, exceto se o meio tem número atômico alto e o elétron é de alta energia. A produção de raios X para uso médico se utiliza do processo de Bremsstrahlung, com um feixe de elétrons de energia cinética inicial T0 incidindo em um alvo de número atômico alto (em geral W ou Mo) e espessura maior que o alcance dos elétrons. Nos equipamentos radiológicos T0, está na faixa de 20 a 150 keV; e nos aceleradores lineares empregados em radioterapia, no intervalo de 1 a 30 MeV. Como se vê no gráfico à direita na Figura 9, a energia irradiada nessas duas faixas, em um alvo de W, corresponde a aproximadamente de 2 a 50% da energia incidente. O restante da energia dos elétrons, que é perdida em processos de colisão, é quase todo convertido em calor. O espectro de energias dos fótons de Bremsstrahlung é largo, como o exemplo mostrado na Figura 10 (feixe de radiodiagnóstico, elétrons de 100 keV). Nessa mesma figura, os picos observados nas energias próximas de 10, 60, 67 e 69 keV correspondem a transições de elétrons de 64 Revista Brasileira de Física Médica. 2009;3(1):57-67. níveis excitados para níveis de menor energia, e formam o espectro característico de emissão do tungstênio. O espectro largo, entre 0 e 100 keV, corresponde a emissões de radiação de freamento do elétron incidente, e seu formato pode mudar de acordo com os materiais que atravessa dentro do próprio equipamento de raios X22. Interações de nêutrons Nêutrons que incidem na matéria podem sofrer espalhamento elástico ou inelástico com núcleos do meio, podem ser absorvidos e podem provocar reações nucleares diversas. Além disso, da mesma maneira que os fótons, nêutrons podem atravessar diversas camadas atômicas sem sofrer qualquer interação, pois a força nuclear forte tem alcance muito curto e só atua entre o nêutron e o núcleo. Em geral, quanto maior a energia dos nêutrons, maior a sua penetração nos materiais, pois a seção de choque de boa parte das interações diminui com o aumento da energia cinética. No entanto, há processos específicos e ressonâncias que fogem à regra. Assim, não é possível fazer muitas generalizações sobre as interações, e trataremos aqui apenas das consequências em termos de produção de outras radiações ionizantes. Na tabela 3 estão listadas as principais interações que serão brevemente discutidas a Física das Radiações: interação da radiação com a matéria Radiação Colisão a Fonte: programa EStar12. Figura 9. Gráfico à esquerda: faixas de energia e número atômico com predominância de perda de energia do elétron por processos de colisão (região sombreada) e por radiação. A curva divisória representa (sm)col = (sm)rad. Gráfico à direita: rendimento de radiação em função da energia do elétron para três materiais. Processos inelásticos de interação de nêutrons As reações nucleares em geral e o espalhamento inelástico do nêutron estão nesta categoria na qual se incluem os processos em que o núcleo com o qual o nêutron interagiu é modificado em termos de energia interna (fica excitado), ou até em termos de sua composição de prótons e nêutrons. Em todos os casos há o chamado recuo do núcleo, o qual pode adquirir energia cinética suficiente para perder elétrons periféricos e se tornar uma partícula carregada rápida. As reações nucleares podem produzir núcleos radioativos, sendo chamadas então de reações de transmutação ou de ativação – são dos principais mecanismos de r f seguir. Os produtos dessas interações são fótons (raios gama) ou íons (núcleos de recuo e produtos de reações nucleares), que passam a interagir com a matéria nas formas vistas nas seções anteriores. Figura 10. Espectro de raios X emitidos quando um alvo espesso de tungstênio é irradiado por elétrons com 100 keV de energia cinética. (Espectro gerado com o programa XCOMP5R23). Tabela 3. Interações possíveis de ocorrer para nêutrons e consequências das interações Interação Espalhamento inelástico O que muda no meio Núcleo recua e fica excitado Reação nuclear Núcleo se torna outra espécie nuclear Espalhamento elástico Recuo do núcleo O que muda na radiação incidente Direção de propagação e energia do nêutron Nêutron é absorvido Direção de propagação e energia do nêutron Radiação ionizante produzida Radiação gama (desexcitação do núcleo); núcleo de recuo Emissões radioativas do núcleo final; radiação gama do núcleo final; produtos da reação nuclear Núcleo de recuo, nêutron com menor energia, espalhado Revista Brasileira de Física Médica. 2009;3(1):57-67. 65 Yoshimura EM produção de isótopos radioativos. Como exemplos, temos: • reação de captura de um nêutron por um núcleo, acompanhada de emissão gama: ; • reações de troca entre um nêutron e um próton: ; • reações com emissão de partículas: ; • produção de radioisótopos: . Espalhamento elástico de nêutrons Neste tipo de choque não há mudança da energia interna do núcleo, ocorrendo somente troca de energia e momento entre o nêutron e o núcleo. O problema é tratado como o espalhamento de corpos quaisquer na Mecânica Clássica, com conservação de energia e momento totais, e definição do plano de espalhamento onde as trajetórias estão contidas e o processo pode ser descrito. Como para núcleos leves a massa do nêutron é comparável à massa do núcleo, pode haver grande perda de energia cinética do nêutron, e o núcleo de recuo pode ter velocidades suficientemente altas para caminhar no meio e ionizá-lo. Trata-se do principal processo de freamento do nêutron na matéria, principalmente para meios com muito hidrogênio, pois, por possuir massa praticamente igual à do nêutron, o hidrogênio de recuo (próton) pode receber até toda a energia cinética do nêutron em um único choque. Notas finais Fótons e nêutrons são considerados radiação indiretamente ionizante pois liberam um número muito discreto de íons na matéria que atravessam: um ou dois elétrons, um ou dois íons em cada interação. A ionização da matéria de fato ocorre quando esses elétrons e íons liberados (radiações diretamente ionizantes) são freados no meio. Ao lembrarmos que para ionizar o átomo de um gás são necessários em média algumas dezenas de eV e para ionizar um semi condutor bastam poucos eV24, vemos que a quantidade de cargas liberada em um meio quando uma única PCR é freada é muito grande – da ordem de 104 pares de íons são produzidos em um gás e 106 íons em um semicondutor, se a PCR tem 1 MeV de energia cinética. A consequência da passagem da radiação ionizante pelo meio é a produção de ionizações e excitações no meio e mais radiação ionizante além da incidente. Do ponto de vista do material, as ionizações e excitações são causa de mudanças de propriedades físicas e químicas que podem ser estudadas e relacionadas com a quantidade de radiação que produziu as mudanças. Todas as aplicações das radiações ionizantes, bem como a metrologia das radiações ionizantes, são feitas a partir desse estudo, seja ele em materiais inertes ou biológicos. 66 Revista Brasileira de Física Médica. 2009;3(1):57-67. A modelagem física da interação da radiação com a matéria faz, como é usual, uma série de simplificações. Para as interações de fótons, a matéria é considerada um mar de átomos cujas características de agregação e de ligações químicas não fazem diferença. Para o estudo das interações de nêutrons, só os núcleos importam. Já na interação de partículas carregadas rápidas, em que a frequência de interações é grande, a constituição da matéria é levada em conta, seja no cálculo dos potenciais de ionização atômicos ou moleculares, seja nos efeitos de polarização da matéria, dependentes da densidade do meio e que são utilizados nos cálculos do poder de freamento. A grande dificuldade teórica e experimental para obter valores corretos do poder de freamento tem sido enfrentada por vários autores, principalmente no que se refere a íons pesados18,25,26. As dificuldades se relacionam às características dos meios (densidade de cargas e regularidade na sua distribuição, efeitos de polarização) e das partículas (mudanças de estado de carga ao longo da trajetória, possibilidade de estados excitados do íon). Como todas as radiações acabam liberando PCR’s ao interagir com o meio, melhorias nessa modelagem e superação das dificuldades atuais são assuntos importantes no futuro da Física das Radiações. Referências 1. Feynman RP, Leighton RB, Sands M. The Feynman Lectures in Physics, v. 1. Massachusetts: Pearson Addison Wesley; 2006. 2. Attix FE. Introduction to Radiological Physics and Radiation Dosimetry. New York: John Wiley and Sons; 1986. 3. Hubbell JH. Review and history of photon cross section calculations. Phys Med Biol. 2006;51(13): R245-62. 4. Turner JE. Interaction of ionizing radiation with matter. Health Phys. 2004;86(3):228-52. 5. Evans RD. The Atomic Nucleus, New York: McGraw-Hill; 1955. 6. Davisson CM, Evans RD. Gamma-ray Absorption Coefficients. Rev Mod Phys. 1952;24(2):79-107. 7. Heitler W. The Quantum Theory of Radiation. 3rd ed. New York: Dover Publication; 1953. 8. NIST (Berger MJ et al). XCOM: Photon Cross Sections Database. [Página na internet] [acesso em jul. 2009]. Disponível em: http://physics.nist.gov/ PhysRefData/Xcom/Text/XCOM.html. 9. Gureyev TE, Mayo SC, Myers DE, Nesterets Y, Paganin DM, Pogany A, et al. Refracting Röntgen’s rays: propagation-based x-ray phase contrast for biomedical imaging. J Appl Phys. 2009;105:102005. 10. Davis TJ, Gao D, Gureyev TE, Stevenson AW, Wilkins SW. Phase-contrast imaging of weakly absorbing materials using hard x-rays. Nature 1995;373(6515):595-8. 11. Fitzgerald R. Phase-sensitive x-ray imaging. Phys Today 2000;53(7):23-6. 12. Dreossi D et al. The mammography project at the SYRMEP beamline. Eur J of Radiol 2008; 68S: S58-S62. 13. NIST (Berger MJ et al). Stopping-power and range tables for electrons, protons and helium ions. [Página na internet] [acesso em ago. 2009]. Disponível em: http://physics.nist.gov/PhysRefData/Star/Text/contents. html. 14. Bohr N. Velocity-range relation for fission fragments. Phys Rev. 1941;59:270-5. Física das Radiações: interação da radiação com a matéria 15. Ziegler JF, Biersack JP, Ziegler MD. SRIM, the stopping and range of ions in matter. Morrisville: Lulu Press Co; 2008. 16. Paul H, Schinner A. Empirical stopping power tables for ions from 3Li to 18Ar and from 0.001 to 1000 MeV/nucleon in solids and gases. Atomic Data and Nuclear Data Tables. 2003;85:377-452. 17. Paul H. Stopping power for light ions. [Página na internet] [acesso em ago. 2009]. Disponível em: http://www.exphys.uni-linz.ac.at/stopping/. 18. Johns HE, Cunningham JR. The physics of radiology, 4th ed. Springfield, Illinois: Charles C. Thomas; 1983. 19. Sabin JR, Oddershede J. Stopping power - What next? Adv Quantum Chem. 2005;49:299-319. 20. Bohr N. On the decrease of velocity of swiftly moving electrified particles in passing through matter. Phil Mag. 1915;30:581-612. 21. Inokuti M. Inelastic collisions of fast charged particles with atoms and molecules – the Bethe Theory revisited. Rev Mod Phys. 1971;43(3):297-347. 22. Smith AR. Proton therapy, Phys Med Biol. 2006;51:R491-504. 23. Nowotny R, Hofer A. A computer code for the calculation of diagnostic-xray spectra. Fortschritte Auf Dem Gebiete Der Rontgenstrahlen Und Der Nuklearmedizin 1985;142:6685-9. 24. Kantele J. Handbook of Nuclear Spectroscopy. London: Academic Press; 1995. 25. Inokuti M. Remarks on stopping power: Its connections with particle transport and with the electronic structure of matter. Int J Quantum Chem. 1996;57(2):173-82. 26. Nobel JA, Trickey SB, Sabin JR, Oddershede J. Basis set limitations on the ab initio calculation of stopping cross-sections via generalized oscillator strengths. Chem Phys. 2005;309(1):89-94. 27. NIST (Dragoset RA). Periodic Table: Atomic Properties of the Elements. [Página na internet] [acesso em ago. 2009]. Disponível em: http://physics. nist.gov/PhysRefData/PerTable/index.html. Apêndice A: densidade e número atômico O gráfico da Figura A1 mostra a densidade dos elementos químicos sólidos (ρ), em função do número atômico (Z). Embora a variação de ρ com Z dentro de cada um dos 7 períodos da tabela periódica apresente uma forma de pico, a tendência de aumento da densidade com Z é notável, como se observa pelas linhas de tendência ajustadas aos pontos experimentais. Para os 11 elementos gasosos (os 6 gases nobres e H, N, O, F e Cl), também incluídos no gráfico, a tendência é especialmente forte. Essa tendência de aumento de densidade com número atômico justifica a utilização de seções de choque para fótons e poder de freamento nas formas , que têm então dependências com o número atômico mais fracas que . a Fonte: NIST27. Figura A1. Comportamento da densidade dos elementos químicos com o número atômico. Os pontos cheios correspondem a elementos sólidos e os vazados aos gases (escala à direita). As retas verticais representam as fronteiras entre os períodos (linhas horizontais da Tabela Periódica), indicados pelos números em fundo preto. As retas de tendência do conjunto têm fatores de correlação R2 de 0,46105 (elementos sólidos) e 0,96793 (elementos gasosos). Revista Brasileira de Física Médica. 2009;3(1):57-67. 67 Artigo de Revisão Revista Brasileira de Física Médica. 2009;3(1):69-75. Metrologia das radiações ionizantes Metrology of Ionizing Radiation Laura Natal Rodrigues1 Doutora em Biofísica pela Universidade Federal do Rio de Janeiro; Pesquisadora Titular da Comissão Nacional de Energia Nuclear; Docente do Programa de Pós-Graduação em Tecnologia Nuclear do Instituto de Pesquisas Energéticas e Nucleares 1 Resumo Neste trabalho, foi apresentada a estrutura metrológica em nível nacional e internacional com o intuito de apresentar os organismos internacionais pertinentes, bem como as definições conceituais relevantes para a área da dosimetria das radiações ionizantes. Uma breve descrição dos padrões existentes também foi apresentada. Palavras-chave: metrologia, radiação ionizante, rastreabilidade Abstract In this paper, the national and international metrology structure was presented aiming an overview of the international organizations as well as the conceptual definitions regarding the ionizing radiation dosimetry. A brief description of the existing standards was also presented. Keywords: metrology, ionizing radiation, traceability Introdução A metrologia é definida como a ciência da medição. Ela abrange todos os aspectos teóricos e práticos relativos às medições qualquer que seja a incerteza, em quaisquer campos da ciência ou tecnologia. Uma frase que ilustra bem o significado da metrologia no contexto atual é a seguinte: “o grau de desenvolvimento de empresas e nações pode ser avaliado pelo nível de sofisticação do seu sistema metrológico”1. Pode-se entender que o objetivo geral da metrologia consiste em sustentar a incerteza da unidade em um nível que se torne uma contribuição desprezível para a incerteza global atribuída ao valor de uma grandeza física. Metrologia e a sociedade O rápido crescimento mundial das relações comerciais, a pressão para que se removam as barreiras técnicas do comércio, a necessidade de se desenvolver um sistema que estabeleça confiança entre os parceiros comerciais e, consequentemente, o desenvolvimento de sistemas de credenciamento de laboratórios são os principais fatores que induzem à necessidade de um sistema muito mais transparente de rastreabilidade internacional dos resultados de medições, assegurando a comparabilidade deles. A confiabilidade das medições com radiações ionizantes pode ser alcançada por meio da rastreabilidade de sua cadeia metrológica. A rastreabilidade é definida como a propriedade do resultado de uma medição ou do valor de um padrão relacionado a referências estabelecidas, geralmente padrões nacionais ou internacionais, por meio de uma cadeia contínua de comparações (cadeia de rastreabilidade), todas com incertezas estabelecidas2. Desta forma, o objetivo da rastreabilidade é obter a garantia das medições dentro dos sistemas de hierarquia. O arranjo de reconhecimento mútuo (MRA) Em fevereiro de 1988, no Bureau International des Poids et Mesures (BIPM), 38 dirigentes dos Institutos Nacionais de Metrologia (NMI) assinaram um acordo e se comprometeram a participar do “Reconhecimento mútuo dos padrões nacionais de medição e certificados de calibração emitidos por Institutos Nacionais de Metrologia (RMA)”3. Este acordo baseia-se no estabelecimento de equivalência de padrões nacionais da equivalência dos certificados de calibração emitidos pelos laboratórios que detêm esses padrões nacionais. Segundo esse acordo, a equivalência deve ser estabelecida para cada um dos padrões das unidades de medida que referendam o sistema metrológico desses países. A base da validação desse acordo se dá pela participação dos padrões nacionais ou de medição nas chamadas comparações-chave (key-comparisons), cujo entendimento pressupõe a compreensão dos conceitos de hierarquia e rastreabilidade metrológica. Correspondência: Instituto de Pesquisas Energéticas e Nucleares, Comissão Nacional de Energia Nuclear (IPEN/CNEN), Avenida Professor Lineu Prestes, 2.242 – Cidade Universitária, CEP 05508-900 – São Paulo (SP), Brasil, e-mail: [email protected] Associação Brasileira de Física Médica® 69 Rodrigues LN A equivalência é definida como “a condição de ser equivalente, isto é, igual para finalidades práticas, no significado ou no valor”3. Um termo que tem aplicação mais prática é o “grau de equivalência de um padrão de medição”3, definido como o “grau com que o valor de um padrão de medição é consistente com o valor de referência da comparação-chave3. Quantitativamente, ele é expresso pelo desvio relativo em relação ao valor de referência da comparação-chave e pela incerteza deste desvio, com nível de confiança de 95% ou fator de abrangência k=2. As comparações-chave, nas quais deve ser demonstrada e quantificada a equivalência, são definidas como “um dos conjuntos de comparações selecionados por um Comitê Consultivo do Bureau International des Poids et Mesures (BIPM) para verificar os principais métodos e técnicas de um ramo específico da ciência”3. A metrologia exige uma estrutura essencialmente hierárquica (Figura 1). No topo desta estrutura, encontram-se as definições das unidades básicas de medida do Sistema Internacional de Unidades (SI). Logo abaixo da estrutura do SI, situa-se o BIPM, que é o laboratório internacional de metrologia teoricamente responsável pela prática da metrologia de maior exatidão. Compete ao BIPM a guarda dos padrões internacionais de medida e a disseminação das unidades do SI aos NMI dos países signatários da Convenção do Metro que criou o BIPM e estabeleceu esta lógica hierárquica. Aos NMI cabe a guarda dos padrões nacionais e a disseminação das unidades SI para os padrões de referência dos laboratórios credenciados de calibração de seus respectivos países. Em seguida, encontram-se os laboratórios credenciados de ensaios que são responsáveis pela qualificação e avaliação de conformidade de produtos que buscam a certificação. Os padrões de referência dos laboratórios de ensaio são calibrados em relação aos padrões de referência dos laboratórios de calibração credenciados. Na base da estrutura, situam-se os padrões de trabalho dos usuários cuja calibração também provém dos Figura 1. Hierarquia dos padrões de medição, destacando o papel dos Laboratórios Nacionais de Metrologia (LNM) os quais detém os padrões nacionais no Brasil. 70 Revista Brasileira de Física Médica. 2009;3(1):69-75. padrões de referência dos laboratórios de calibração credenciados. Nesta estrutura hierárquica, as Organizações Regionais de Metrologia (RMO) têm um papel muito importante no RMA, já que elas têm a responsabilidade de realizar as comparações-chave no âmbito de suas regiões de abrangência para estabelecer a confiabilidade mútua na validade dos certificados de calibração e medição dos seus NMI membros. A fim de assegurar a rastreabilidade dos padrões e medições dos laboratórios credenciados, os NMI devem participar, independentemente dos programas regionais, das comparações-chaves. Além disso, para garantir um sistema metrológico coerente e robusto, torna-se necessário que esses programas regionais sejam interligados com o programa de comparações-chave do BIPM. Os programas regionais das comparações-chave estão organizados em seis grandes blocos denominados Organizações Regionais de Metrologia (RMO) e são os seguintes: 1. Asia Pacific Metrology Programme (APMP): bloco regional constituído pelos países da região do Pacífico e da Ásia; 2. Euro-Asian Cooperation of National Metrology Programme (COOMET): bloco regional dos países da Europa-Ásia; 3. European Association of National Metrology Institutes (EUROMET): bloco regional dos países da Europa; 4. Middle East and Northern África Regional Metrology Cooperation (MENAMET): bloco regional dos países da Ásia; 5. Southern African Development Community Cooperation in Measurement Traceability (SADCMET): bloco regional dos países da África Meridional; 6. Inter-American Metrology System (SIM): bloco regional dos países das Américas. O Comitê Internacional de Pesos e Medidas (CIPM) criou uma série de Comitês Consultivos (CC), reunindo os melhores especialistas em suas respectivas áreas, que atuam como consultores sobre questões técnicas e científicas3. Entre as tarefas dos CC estão as avaliações detalhadas dos avanços na Física que influenciam diretamente a Metrologia, a preparação das recomendações para discussão no CIPM, a organização das comparações-chave internacionais de padrões, assim como orientam o CIPM sobre os trabalhos científicos nos laboratórios do BIPM. Atualmente, existem dez CC: 1. Comitê Consultivo para Eletricidade e Magnetismo (CCEM), criado em 1927; 2. Comitê Consultivo para Fotometria e Radiometria (CCPR), criado em 1933; 3. Comitê Consultivo para Termometria (CCT), criado em 1937; 4. Comitê Consultivo para Comprimento (CCL), criado em 1952; Metrologia das radiações ionizantes 5. Comitê Consultivo para Tempo e Frequência (CCTF), criado em 1956; 6. Comitê Consultivo para Radiações Ionizantes (CCRI), criado em 1958; 7. Comitê Consultivo para Unidades (CCU), criado em 1964; 8. Comitê Consultivo para Massa e Grandezas Relacionadas (CCM), criado em 1980; 9. Comitê Consultivo para Quantidade de Matéria (CCQM), criado em 1993; 10.Comitê Consultivo para Acústica, Ultrassom e Vibração (CCAUV), criado em 1998. Atualmente, admite-se a existência de um grau de equivalência entre os padrões nacionais de medição dos países cujos NMI participam das comparações internacionais organizadas sob o patrocínio do BIPM ou de RMO. Mas essa equivalência ainda não está suficientemente sistematizada e os resultados não são publicados de maneira acessível ao grande público. Apesar de ser adequado para muitas finalidades, isto não é consistente com o procedimento transparente e acessível exigido pela filosofia de reconhecimento mútuo. Devido a isso, os NMI assinaram o MRA, sob o patrocínio do CIPM, com relação aos padrões nacionais e certificados de calibração e medição emitidos pelos NMI. Um grande foi feito pelo BIPM e RMO para disponibilizar, em um banco de dados, os graus de equivalência para as principais grandezas do Sistema Internacional de Unidades (SI)*. Um panorama abrangente e atualizado sobre a rede metrológica internacional foi publicado recentemente4. A metrologia no Brasil O desenvolvimento do campo da metrologia, padronização e avaliação de conformidade é realizado no Brasil sob a estrutura do chamado Sistema Nacional Brasileiro de Metrologia, Padronização e Qualidade Industrial (SINMETRO), operado pelo INMETRO (Instituto Nacional de Metrologia, Padronização e Qualidade Industrial) – o único órgão oficial brasileiro de credenciamento de laboratórios de calibração e de ensaio e de certificação de órgãos reguladores, que atua como o Secretariado Executivo para o SINMETRO como um todo. O corpo normativo do SINMETRO é o Conselho Nacional de Metrologia, Padronização e Qualidade Industrial (CONMETRO), que tem como objetivo estabelecer políticas nacionais referentes à metrologia, padronização e qualidade. Como Secretariado Executivo do CONMETRO, o INMETRO é responsável pela implementação de políticas nacionais no que concerne à metrologia, à padronização e à qualidade. As responsabilidades principais do INMETRO referentes a essas políticas incluem as seguintes atividades: • realização, manutenção e disseminação das unidades do Sistema Internacional de Unidades (SI) no Brasil; * Banco de dados disponível em http://kcdb.bipm.org • gerenciamento do Sistema de Metrologia Legal no Brasil; • credenciamento de laboratórios de ensaio, órgãos de inspeção, treinamento de pessoal e órgãos de certificação, qualidade e órgãos de certificação de sistemas de gerenciamento ambiental e órgãos de certificação de produtos; • credenciamento de laboratórios de calibração. Metrologia científica no Brasil O Laboratório Nacional de Metrologia (LNM) é responsável pela realização, manutenção e disseminação das unidades do SI no Brasil, desempenhando atividades de metrologia de mais alto nível no país e fornecendo as bases para a rastreabilidade para esses laboratórios de calibração credenciados pelo INMETRO. As seguintes organizações constituem a estrutura dos LNM no Brasil: 1. os laboratórios da Diretoria de Metrologia Científica (DIMCI), que abrangem as padronizações na área de Mecânica, Elétrica, Acústica e de Vibrações, Óptica, Térmica e Metrologia Química e Ambiental; 2. os laboratórios do Departamento do Serviço da Hora do Observatório Nacional (DSH-ON/CNPq); 3. o Laboratório Nacional de Metrologia das Radiações Ionizantes do Instituto de Radioproteção e Dosimetria (LNMRI-IRD/CNEN). Sistema internacional de unidades No SI distinguem-se duas classes de unidades: unidades de base e unidades derivadas. Sob o aspecto científico, a divisão das unidades SI nessas duas classes é arbitrária, porque não é uma imposição da Física. Entretanto, a Conferência Geral, levando em consideração as vantagens de se adotar um sistema prático único para ser utilizado mundialmente nas relações internacionais, no ensino e no trabalho científico, decidiu basear o Sistema Internacional em sete unidades perfeitamente definidas, consideradas independentes do ponto de vista dimensional: o metro, o kg, o segundo, o ampère, o kelvin, o mol e a candela. Essas unidades SI são chamadas unidades de base5. Unidade de base Segundo esta mesma terminologia, a unidade de base é entendida como a unidade de medida de uma grandeza de base em um sistema de grandezas. É importante ressaltar que, em um sistema de unidades coerentes, há uma única unidade de base para cada grandeza fundamental. Por sua vez, a grandeza de base é a grandeza que, em um sistema de grandezas, é aceita por convenção como funcionalmente independente de outra grandeza. Como exemplo, as grandezas comprimento, massa e tempo são geralmente tidas como grandezas de base no campo da mecânica. Revista Brasileira de Física Médica. 2009;3(1):69-75. 71 Rodrigues LN Unidade derivada A segunda classe de unidades SI abrange as unidades derivadas, isto é, as unidades que podem ser formadas combinando-se unidades de base segundo relações algébricas que interligam as grandezas correspondentes. Diversas destas expressões algébricas, em razão de unidades de base, podem ser substituídas por nomes e símbolos especiais, o que permite sua utilização na formação de outras unidades derivadas. A unidade derivada é a unidade de medida de uma grandeza derivada em um sistema de grandezas. Por sua vez, a grandeza derivada é a grandeza definida como função de grandezas de base deste sistema. Como exemplo, em um sistema que tem como grandezas de base o comprimento, a massa e o tempo, a velocidade é uma grandeza derivada, definida como o comprimento dividido por tempo. É importante acentuar que cada grandeza física tem uma só unidade SI, mesmo que esta unidade possa ser expressa sob diferentes formas. Porém, o inverso não é verdadeiro: a mesma unidade SI pode corresponder a várias grandezas diferentes. Algumas unidades derivadas possuem nomes e símbolos especiais, por exemplo, no SI: força (N); energia (J); pressão (Pa). As unidades derivadas compreendem as unidades derivadas adimensionais: radiano e esterradiano. Sistema coerente de unidades Cada grandeza pode ter apenas uma única unidade obtida por multiplicação ou divisão das unidades de base e das unidades derivadas adimensionais, sem outro fator que não seja o número 1. As unidades derivadas são interligadas por meio de sua definição (por exemplo: metro por segundo e volt). Definição de grandeza Uma grandeza pode ser expressa por meio da seguinte relação: Grandeza = (valor numérico)x . (unidade)x Na qual x é o sistema de unidades da grandeza em questão. Unidade de base: o metro A definição do metro baseada no protótipo internacional em platina iridiada, em vigor desde 1889, foi substituída na 11a CGPM (1960) por uma definição baseada no comprimento de onda da radiação do Kn-86, com a finalidade de aumentar a exatidão da realização do metro. A 17a CGPM substituiu, em 1983, essa última definição pela seguinte: “O metro (m) é o comprimento do trajeto percorrido pela luz no vácuo durante um intervalo de tempo de 1/299 792 458 de segundo” 6. Esta definição tem o efeito de fixar a velocidade da luz em 299.792.548 m.s-1, exatamente. É necessário medir 72 Revista Brasileira de Física Médica. 2009;3(1):69-75. o intervalo de tempo (Dt) necessário para que um pulso luminoso percorra, no vácuo, distâncias bem superiores a dezenas de km, de modo que Dt a ser medido não seja muito curto. O antigo protótipo internacional do metro é conservado no BIPM nas mesmas condições em que foi fixado em 1889. Unidade de base: o quilograma O protótipo internacional do kg foi sancionado pela 1a CGPM quando se declarou que “este protótipo será considerado doravante como unidade de massa” (CGPM 1890). A 3a CGPM, para acabar com a ambiguidade que ainda existia no uso corrente sobre o significado da palavra “peso”, confirmou que o quilograma (kg) é a unidade de massa: é a massa protótipo internacional do kg. Calibrar uma massa é compará-la à massa do protótipo internacional do kg. Isto implica que massas de transferência são utilizadas entre a referência nacional e as massas destinadas para uso corrente. Unidade de base: o segundo Primitivamente, o segundo, unidade de tempo, era definido como a fração 1/86.400 do dia solar médio. A definição exata do “dia solar médio” fora deixada aos cuidados dos astrônomos, porém os seus trabalhos demonstraram que o dia solar médio não apresentava as garantias de exatidão requeridas devido às irregularidades da rotação da Terra. Para conferir maior exatidão à definição da unidade de tempo, a 11a CGPM sancionou outra definição fornecida pela União Astronômica Internacional, e baseada no ano trópico. Na mesma época, as pesquisas experimentais tinham já demonstrado que um padrão atômico de intervalo de tempo, baseado em uma transição entre dois níveis de energia de um átomo ou de uma molécula, poderia ser realizado e reproduzido com precisão muito superior. Desta forma, a 13a CGPM7 decidiu substituir a definição do segundo pela seguinte: “O segundo (s) é a duração de 9.192.631.770 períodos da radiação correspondente à transição entre dois níveis hiperfinos do estado fundamental do átomo de césio 133”. A radiação do Césio-133 é utilizada como referência para estabilizar a frequência de um oscilador de quartzo. Em 1997, o CGPM confirmou que: “essa definição se refere a um átomo de césio em repouso, a uma temperatura de 0 K”8. Unidade de base: o ampère Diversas unidades elétricas ditas internacionais para a intensidade de corrente elétrica e para a resistência haviam sido introduzidas no Congresso Internacional de Eletricidade, em 1893. Embora por ocasião da 8a CGPM9 já fosse evidente a opinião unânime no sentido de substituir as unidades “internacionais” por unidades ditas “absolutas”, a decisão formal de suprimir estas unidades “internacionais” foi tomada somente pela 9ª CGPM10, que adotou para o ampère, unidade de corrente elétrica, a seguinte definição: “o ampère é a intensidade de uma Metrologia das radiações ionizantes corrente elétrica constante que, mantida em dois condutores paralelos, retilíneos, de comprimento infinito, de seção circular desprezível, e situados à distância de 1 m entre si, no vácuo, produz entre estes condutores uma força igual a 2 x 10-7 newton por metro de comprimento.” Unidade de base: o kelvin A definição da unidade de temperatura termodinâmica foi dada pela 10a CGPM (CGPM 1956), que escolheu o ponto tríplice da água como ponto fixo fundamental, atribuindo-lhe a temperatura de 273,16 oK por definição. A 13a CGPM11 formulou a definição da unidade de temperatura termodinâmica: “o kelvin, unidade de temperatura termodinâmica, é a fração 1/273,16 da temperatura termodinâmica no ponto tríplice as água”. Esta mesma CGPM decidiu também que a unidade kelvin e seu símbolo K fossem utilizados para expressar um intervalo ou uma diferença de temperatura. Unidade de base: o mol Desde a descoberta das leis fundamentais da química, utilizaram-se diversas unidades denominadas, por exemplo, “átomo grama” ou “molécula grama”, para especificar quantidades de diversos elementos ou compostos químicos. Estas unidades eram estritamente ligadas aos “pesos atômicos” ou aos “pesos moleculares”. Originalmente, os “pesos atômicos” eram referidos ao elemento químico oxigênio. Porém, enquanto os físicos separavam os isótopos no espectrógrafo de massa e atribuíam o valor 16 a um dos isótopos do oxigênio, os químicos atribuíam o mesmo valor à mistura (levemente variável) dos isótopos 16, 17 e 18, que, para eles, constituía o elemento oxigênio natural. Um acordo entre a União Internacional de Física Pura e Aplicada e a União Internacional de Química Pura e Aplicada resolveu esta dualidade em 1959-1960. Desde então, físicos e químicos concordam em atribuir o valor 12 para o isótopo 12 do carbono. A escala unificada assim obtida estabelece os valores das “massas atômicas relativas”. Faltava determinar a massa que corresponde à unidade de quantidade de carbono 12. Por acordo internacional, essa massa foi fixada em 0,012 kg, e foi dado o nome de mol à unidade da grandeza “quantidade de matéria”. Dessa forma, a definição adotada para o mol é a seguinte12: “o mol é a quantidade de matéria de um sistema contendo tantas entidades elementares quantos átomos existem em 0,012 kg de carbono 12. Quando se utiliza o mol, as entidades elementares devem ser especificadas, podendo ser átomos, moléculas, íons, elétrons, assim como outras partículas, ou agrupamentos especificados em tais partículas”. Nesta definição, entende-se que se faz referência aos átomos de carbono 12 livres, em repouso e no seu estado fundamental. Unidade de base: a candela As unidades de intensidade luminosa baseadas em padrões de chama ou filamento incandescente foram substituídas em 1948 pela “vela nova”, que correspondia à luminância do emissor de radiação Planck (corpo negro) à temperatura de solidificação da platina. Em 1948, foi adotado o novo nome internacional, candela, para designar a unidade de intensidade luminosa. No entanto, em virtude das dificuldades experimentais da realização do irradiador de Planck a temperaturas elevadas e das novas possibilidades oferecidas pela radiometria, foi adotada, em 1979, a nova definição13: “a candela é a intensidade luminosa, em uma dada direção de uma fonte que emite uma radiação monocromática de frequência 540 x 1012 hertz e cuja intensidade energética nessa direção é 1/683 watt por esterradianos”. Unidades possuidoras de nomes especiais e símbolos particulares Por questões de comodidade, certas unidades derivadas receberam nome especial e símbolo particular. Estes nomes e símbolos podem ser utilizados, por sua vez, para expressar outras unidades derivadas, sobretudo as unidades das grandezas relativas à radiação ionizante, tais como: atividade (becquerel – Bq); dose absorvida, energia específica, kerma (gray – Gy); equivalente de dose, equivalente de dose ambiente, equivalente de dose direcional, equivalente de dose individual, dose equivalente em um órgão (sievert – Sv). Na prática, a fim de reduzir o risco de confusão entre grandezas de mesma dimensão, emprega-se, para exprimir sua unidade, de preferência um nome especial ou uma combinação particular de unidades. No âmbito das radiações ionizantes, utiliza-se a unidade SI de atividade, becquerel, mais vezes que o segundo elevado à potência menos um; e emprega-se a unidade SI de dose absorvida e a unidade SI de equivalente de dose, gray e sievert respectivamente, mais frequentemente que joule por kg. Os nomes especiais becquerel, gray e sievert foram introduzidos especificamente por motivos de risco para a saúde humana que poderiam resultar de erros no uso das unidades: segundo elevado à potência menos um e joule por kg. Recentemente, foi publicado um artigo de revisão14 no qual é apresentada uma evolução histórica neste último século das grandezas e unidades empregadas na dosimetria das radiações ionizantes. Especificamente na área de Proteção Radiológica, também foi publicada uma revisão bem interessante a respeito dos padrões internacionais para dosímetros empregados neste campo de interesse15. Vocabulário internacional de termos fundamentais e gerais de metrologia O Vocabulário Internacional de Metrologia12 foi traduzido por um Grupo de Trabalho de Terminologia da Rede Brasileira de Calibração, com o objetivo de padronizar e apresentar o atual estado da arte da linguagem metrológica brasileira. Graus de equivalência de metrologia em dosimetria das radiações ionizantes O arranjo de reconhecimento mútuo assinado por 38 Institutos Nacionais de Metrologia no BIPM, em fevereiro Revista Brasileira de Física Médica. 2009;3(1):69-75. 73 Rodrigues LN de 1988, objetivou o estabelecimento dos graus de equivalência metrológica entre os padrões primários das principais grandezas físicas do SI. Na dosimetria das radiações ionizantes e na radioatividade, as grandezas em questão são o kerma no ar, a dose absorvida na água e na atividade. Para estabelecer os graus de equivalência entre os NMI para uma dada grandeza física, o principal elemento a ser avaliado é o valor de referência de uma comparação-chave. A seguir, serão descritos os principais padrões primários que servem como base para se estabelecer a rastreabilidade das medições na dosimetria das radiações ionizantes, assim como na radioatividade. Câmara de ar-livre: requisitos • Campo elétrico na região coletora precisa ser uniforme. • Campo elétrico precisa ser suficiente para reduzir a recombinação iônica. • Dimensões precisam ser suficientemente grandes para que a maioria da energia dos elétrons liberados seja dissipada dentro do ar no interior da câmara. • Ionização produzida pela radiação espalhada fora do feixe precisa ser pequena. • Radiação proveniente de outras partes fora da abertura de entrada precisa ser reduzida por meio de uma blindagem adequada em torno da câmara. Vantagens da câmara de ar-livre • Possibilita um conhecimento preciso da massa de ar na qual os elétrons estão sendo liberados pela radiação. • Assegura a coleta do número de íons igual ao número total de íons produzidos por esses elétrons. • Mede precisamente a corrente de ionização resultante. Padrões de radioatividade A grande variedade de partículas emitidas pelos radionuclídeos implica alterações das fontes radioativas e, consequentemente, a realização de um padrão primário único em metrologia de radionuclídeos não é mais planejada. Desta forma, as referências primárias consistem na combinação de instrumentos e métodos de medição específicos a cada tipo de radionuclídeos ou, alternativamente, na medida direta da atividade das fontes radioativas. Sendo assim, as fontes são preparadas de forma que os padrões de radioatividade sejam os mais puros e mais homogêneos possíveis. International Reference System O Sistema Internacional de Referência (SIR), coordenado pelo BIPM, é um sistema criado com a finalidade de possibilitar aos Laboratórios Nacionais de Metrologia (LNM) verificarem seu grau de confiança de suas medições de atividade pela comparação com outros laboratórios. Dessa forma, emissores γ (líquidos ou gasosos) são enviados para o BIPM pelos LNM, onde eles são comparados com fontes padrão de meia-vida alta (como, por exemplo, o 226Ra) usando câmaras de 74 Revista Brasileira de Física Médica. 2009;3(1):69-75. ionização pressurizadas. Esse sistema de referência é um sistema simples, com alta estabilidade e que possibilita o estabelecimento dos graus de conformidade entre os laboratórios participantes dessas comparações interlaboratoriais. Banho de sulfato de manganês Neste sistema de padronização primária para fluência de nêutrons, uma fonte de Am-Be (padrão nacional de fluência) é introduzida no centro da parte interior do banho. Após um período de 24 horas, retira-se a fonte e é introduzido, no interior do banho de sulfato de manganês, um detector de cintilação para medir sucessivamente o decaimento gama dos átomos de manganês. Desta forma, o valor da taxa de fluência de nêutrons emitido pelo padrão nacional é comparado ao resultado obtido na padronização feita no BIPM. Ionometria A ionometria é o método de medição para a determinação da energia média por unidade de massa, transferida a uma massa conhecida de gás, da qual pode ser deduzida a energia transferida ao material circundante. Essas energias estão relacionadas à carga elétrica que a radiação ionizante libera por ionização. As câmaras de ionização são instrumentos que apresentam uma grande sensibilidade, e são utilizáveis para todas as radiações. Geralmente, as câmaras de ionização são empregadas para as medidas primárias de exposição e de kerma no ar (feixes de fótons). Além disso, elas são empregadas em medidas relativas de taxa de dose absorvida nos tecidos (radiação γ) ou de taxa de dose absorvida na água (feixes de fótons e elétrons). Câmara cavitária: vantagens • É compacta: alcance dos elétrons na parede sólida é mil vezes maior do que no ar. • Pode medir campos multidirecionais. • Determinação da dose absorvida em qualquer material da parede por meio da teoria da cavidade. • Pode ter várias configurações, possibilitando a medida da dose de partículas carregadas, nêutrons e fótons. • As cavidades de gás podem ser pequenas e planas para medir a dose na superfície de um objeto simulador, a dose em profundidade e a dose em vários pontos. • Carga coletada pode ser medida em um tempo real por meio de um eletrômetro. Calorimetria Este método de medição permite determinar, em uma massa conhecida de um determinado material (da ordem do grama), a energia média depositada pela radiação e que é transformada em calor. Por suas características básicas, o calorímetro é considerado como um padrão primário para a grandeza dose absorvida. Existem dois tipos Metrologia das radiações ionizantes de calorímetros: o calorímetro de grafite e o calorímetro de água. Ambos apresentam uma baixa sensibilidade, da ordem de 1 mK/Gy, podendo ser utilizados apenas para energias acima de 1 MeV. Calorímetro de grafite: vantagens • Defeito térmico de calor conhecido. • Toda a energia absorvida é transformada em calor. • Tem alta difusibilidade térmica de forma que o calor é espalhado em torno de qualquer componente. • É similar à água. • É facilmente usinável. Calorímetro de grafite: problemas • Isolamento térmico do disco. • Perda de calor pelo disco. • Medidas de variações de temperatura da ordem de mK com precisão suficiente em laboratório, nas quais pode ocorrer uma variação de um grau durante uma série de medidas. Dosimetria Fricke O princípio de funcionamento do dosímetro Fricke é baseado na oxidação de uma solução aquosa ácida de sulfato ferroso. A quantidade de conversão de Fe+2 para Fe+3 está diretamente relacionada à dose absorvida no meio em questão e, pela medida da variação da densidade ótica com um espectrômetro, é determinada a dose absorvida. No entanto, a incerteza inerente ao rendimento radioquímico faz com que este sistema seja utilizado apenas para medidas relativas. Agradecimentos Este trabalho foi realizado com o apoio do INCT em Metrologia das Radiações na Medicina (FAPESP e CNPq). Agradeço também aos comentários e sugestões da Doutora Linda V.E. Caldas. Referências 1. Frota MN. Metrology in Chemistry: a new challenge for the Americas: proceedings of the First Interamerican Workshop on Metrology in Chemistry. Rio de Janeiro: Qualimark; 1998. p. 1-25. 2. Vocabulário Internacional de Termos Fundamentais e Gerais de Metrologia (VIM). Portaria INMETRO no 029 de 1995. Instituto Nacional de Metrologia e Normalização e Qualidade Industrial (INMETRO). 5ª Ed. Rio de Janeiro: SENAI; 2007. 3. BIPM. Mutual Recognition of national Measurement Standards and of Calibration and Measurement Certificates Issued by National Metrology Institutes (CIPM MRA). Sèvres, France: Comité International des Poids et Mesures; 1999. 4. Allisy PJ, Burns DT, Andreo P. International framework of traceability for radiation dosimetry quantities. Metrologia. 2009;46:S1-S8. 5. Quinn TJ. Base units of the Système International d’Unités, their accuracy, dissemination and international traceability. Metrologia. 1994;31: 515-27. 6. Giacomo P. News from the BIPM, New Definition of the Metre. Metrologia 1984;20(1):25-30. 7. Terrien J. News from the International Bureau of Weight and Measures. Metrologia. 1969;4(1):43. 8. Quinn TJ. News from the BIPM – International Report. Metrologia. 2000;37(10):94. 9. CGPM. Résolution de la 8e réunion de la CGPM. Substitution des unités électriques absolues aux unités dites «interantionelles». Comptes Rendus de la 8e CGPM, p. 53, 1934. 10. CGPM. Résolution de la 9e réunion de la CGPM. Concernant la question des retouches à apporter á la Convention du Métre. Comptes Rendus de la 9e CGPM, p. 72, 1949. 11. CGPM. Résolution 4 de la 13e réunion de la CGPM, Définition de l’unité SI de températurethermodynamique (kelvin). Comptes Rendus de la 13e CGPM, p. 104, 1969. 12. INMETRO. Vocabulário internacional de termos fundamentais e gerais de metrologia Instituto Nacional de Metrologia, Normalização e Qualidade Industrial. 2a edição, 2000. 13. CGPM. Résolution 3 de la 16e réunion de la CGPM. Unité SI d´intensité lumineuse (candela). Comptes Rendus de la 16e CGPM, p. 100, 1980. 14. Jennings WA. Evolution over the past century of quantities and units in radiation dosimetry. J Radiol Prot. 2007;27(1):5-16. 15. Behrens R, Ambrosi P. Review of international standards for dosemeters. Rad Prot Dosim. 2008;128:159-68. Revista Brasileira de Física Médica. 2009;3(1):69-75. 75 Artigo de Revisão Revista Brasileira de Física Médica. 2009;3(1):77-90. Controle de qualidade em radioterapia Quality assurance in radiotherapy Laura Furnari1 1 Instituto de Radiologia (INRAD) do Hospital das Clínicas da Faculdade de Medicina da Universidade de São Paulo (USP) – São Paulo (SP), Brasil. Resumo O objetivo deste artigo é fazer uma revisão sobre controle de qualidade em radioterapia. A metodologia empregada é, após uma pequena descrição dos aspectos mais importantes de cada modalidade de tratamento, apresentar uma tabela com testes sugeridos por organismos internacionais. Na maioria das tabelas está indicada a frequência e a tolerância para cada teste. Relata-se também como a radioterapia evoluiu no século passado, e apresentam-se diversos conceitos teóricos relacionados ao controle de qualidade. A descrição dos procedimentos para a realização dos principais testes será tema de outro artigo. Palavras-chave: controle de qualidade; radioterapia; aceleradores lineares; cobaltoterapia; simuladores. Abstract The objective of this article is to do a review about the quality assurance in radiotherapy. The methodology used is to do a short description showing the most important aspects about each treatment modality and after to present a table with the tests suggested by international organisms for each modality. The frequency and the tolerance for each test are presented in the tables. How the radiotherapy changed in the last century is reported Also a discussion about several theoretical concepts related to quality control is presented. The description of the procedures for the realization of the tests will be subject in other manuscript. Keywords: quality assurance; radiotherapy; linear accelerator; cobalt machine; simulators. Histórico O uso das radiações com fins terapêuticos começou muito antes do que se imagina. Já antes de 1900, tinha-se percebido que a radiação destruía tecidos e que podia ser usada para tratamento de qualquer tipo de lesão, pelo menos era assim que se pensava na época. Isso quer dizer que mesmo conhecendo muito pouco sobre os efeitos da radiação, esta era empregada empiricamente de forma inconsequente. É possível imaginar a quanta radiação os pacientes eram expostos, já que, em alguns locais, as sessões de terapia eram feitas conjuntamente, isto é, diversos pacientes sentados numa sala, um ao lado do outro, cada um segurando uma fonte de rádio sobre sua lesão por um tempo definido de forma totalmente empírica e grosseira. Essas experiências de tentativa e erro devem ter tido alguns resultados desastrosos que alertaram os médicos usuários sobre o risco da nova técnica. Na radioterapia, grande parte dos conhecimentos sobre a dose eficaz para cada tipo de tumor e sobre a eficácia dos tratamentos é resultado experimental obtido por meio de tentativa e erro, porém com metodologia mais científica. As mudanças introduzidas são progressivas, baseadas em resultados de pesquisas em radiobiologia, e com a comparação dos resultados obtidos na utilização de diferentes protocolos (trials) de tratamento. Inicialmente, os equipamentos de radioterapia utilizavam fontes de rádio, as quais foram substituídas por fontes de césio-137 e de cobalto-60, depois que foi possível construí-las com alta atividade e de tamanho reduzido. Esse foi um grande avanço, pois, com uma atividade específica da fonte maior, foi possível aumentar a distância entre o equipamento e o paciente, além de ser mais prático não ter que trabalhar com fontes de rádio. Do ponto de vista tecnológico, o avanço seguinte veio com a construção dos aceleradores lineares, que permitiram utilizar terapeuticamente feixes de fótons e de elétrons com energias da ordem de megavolts. Por outro lado, os conceitos básicos de física envolvidos nos cálculos não sofreram grandes alterações, mas, paulatinamente, foram sendo introduzidas novas grandezas mais precisas e convenientes, assim como surgiram os protocolos de determinação da dose, aprimorados ao longo dos anos, desde 1970 até os dias de hoje. No início os cálculos de dose eram feitos usando-se a prescrição de dose na pele, em seguida começaram a Correspondência: Hospital das Clínicas da Faculdade de Medicina da Universidade de São Paulo – Avenida Doutor Eneas de Carvalho Aguiar, 255 – Portaria 3 – Radioterapia, CEP 05403-001 – São Paulo (SP), Brasil – E-mail: [email protected] Associação Brasileira de Física Médica® 77 Furnari L ser feitas avaliações da dose absorvida na profundidade, valores esses que permitiam a avaliação da dose quando o paciente era tratado com um par de campos opostos. O passo seguinte surgiu quando, ao invés de se determinar a dose somente no raio central, começou-se a avaliar a distribuição da dose num plano, utilizando um cálculo manual de composição de diversos campos, a partir do desenho da distribuição de dose na profundidade. Nessa época, a avaliação ou verificação da porcentagem de dose na profundidade (PDP) era feita por medidas pontuais no eixo central do campo de radiação e em diversos pontos deslocados longitudinalmente e transversalmente do eixo central em diferentes profundidades, para diversos tamanhos de campo. A coleta de dados para o comissionamento de um acelerador com duas ou três energias de elétrons era um trabalho longo, podendo se estender por semanas. Logo, houve a criação de sistemas de planejamento computadorizado. No começo, os sistemas faziam exatamente a mesma coisa que o cálculo manual, só que mais rapidamente, ou seja, a determinação das curvas de isodose era no plano central da região de tratamento. Com a ampliação da memória dos computadores o aumento da velocidade de processamento de dados e a evolução dos algoritmos de cálculo, tornou-se possível determinar a distribuição tridimensional da dose. A evolução tecnológica em computação permitiu também a aquisição, diretamente, dos aparelhos de diagnóstico e de imagens tridimensionais com visualização das estruturas a serem tratadas. Outra evolução foi a possibilidade de realizar a fusão de imagens oriundas de diferentes métodos complementares de diagnóstico: ressonância magnética, tomografia computadorizada, cintilografia, ultrassom, PET (Pósitron Emission Tomography), SPECT (Single Photon Emission) ou PET-SCAN (PET acoplado a um CT). Também houve o uso da técnica estereotática para a localização precisa de lesões pequenas e da técnica de intensidade modulada, na qual é possível fazer modulação da intensidade do feixe de radiação graças aos sistemas de controle do formato dos feixes de forma automática e computadorizada por meio de colimadores multifolhas. Foram criados sistemas de verificação prévia do posicionamento do paciente a cada seção de tratamento, Image-Guided Radiation Therapy (IGRT), usando raios X tanto com energia de diagnóstico como com alta energia do próprio acelerador. Estes sistemas permitiram a localização controlada e precisa do paciente, fundamental para os planejamentos que empregam menores margens para a região irradiada. Tudo isso levou à possibilidade de liberar altas doses de forma precisa e controlada numa região muito bem definida, o que veio de encontro com um novo problema, o movimento involuntário das estruturas do paciente. Foram desenvolvidos métodos que permitissem acompanhar o movimento dos órgãos e liberar a radiação no alvo com margens bem exíguas. 78 Revista Brasileira de Física Médica. 2009;3(1):77-90. Pode-se observar, ainda, a evolução tecnológica e conceitual introduzida pela tomoterapia, na qual a radiação é liberada em feixes estreitos que circundam o paciente enquanto ele é deslocado longitudinalmente. A radiação é liberada helicoidalmente. O sistema de planejamento nessa técnica é através de iterações sucessivas permitindo poupar, de uma forma melhor, os órgãos vizinhos à região que se quer irradiar. Com esta técnica, utiliza-se uma mesa robótica que torna mais rápida e precisa a localização do paciente, inclusive realizando uma tomografia de localização antes de cada seção do tratamento. O último avanço tecnológico são as máquinas que irradiam o paciente com partículas pesadas, prótons e nêutrons. Um feixe de prótons tem como caraterística básica que seu pico de Bragg (região de maior depósito da energia) é estreito, ou seja, é possível depositar energia numa região profunda do paciente sem depositar ao longo do percurso da radiação. Aparentemente tudo se tornou mais fácil, já que existem tantos sistemas automáticos para fazer o trabalho dos físicos. Mas esse é um ledo engano, pois o controle necessário para garantir que os cálculos sejam feitos corretamente, os pacientes sejam posicionados com precisão e o desempenho das máquinas de terapia e dos sistemas automatizados de controle seja exato exige grande dedicação e um trabalho sistemático, a fim de que pequenos descuidos não coloquem a perder a precisão que se imagina estar utilizando. Comissionamento e controle de qualidade A International Comission on Radiation Units and Measurements (ICRU) recomenda que a incerteza total de um tratamento de radioterapia não deve ultrapassar ± 5%, ou seja, cada parte do processo de administração de dose no paciente deve ter uma incerteza bem menor que esse valor1. Ao se iniciar o uso de uma nova máquina ou procedimento, após realizar os testes de aceitação, é preciso estabelecer, por testes de comissionamento, os dados que se tornarão referência para os posteriores controles de qualidade. Esses dados serão a baliza para a análise do desempenho dos aparelhos e dispositivos. O objetivo do Programa de Controle de Qualidade (PCQ) é que o desempenho de todas as máquinas, dispositivos e processos não se afastem de seus valores de referência mais que as respectivas tolerâncias. O controle de qualidade (CQ) de uma instituição de radioterapia é o esforço de uma equipe; entretanto, a responsabilidade global deve ser atribuída a uma só pessoa: um físico médico, com título de especialista. Frequência dos testes O desempenho das máquinas pode ser afetado por funcionamento defeituoso; quebra mecânica; acidentes físicos; falha de componentes; troca de componentes Controle de qualidade em radioterapia importantes; e alterações graduais causadas pelo envelhecimento. O objetivo do CQ é conseguir observar alterações no sistema radioterápico e reduzir o impacto de qualquer um desses fatores. Os documentos sobre o CQ não têm a força da lei, servem somente como orientações. Para reduzir a frequência sugerida de um determinado teste, deve-se examinar e validar seus resultados após uma longa história e documentar a análise feita do impacto potencial de resultados catastróficos no caso deles ocorrerem. Existe um documento, American Association of Physicists on Medicine, Task Group-100 (AAPM TG-100)2, que discute questões sobre a frequência com que os testes devem ser realizados. A frequência dos testes de controle de um certo parâmetro deve refletir a probabilidade de alteração desse parâmetro e o impacto gerado no caso dessa ocorrência. As necessidades institucionais definem os valores de limites associados aos níveis 2 e 3, enquanto os limites para o nível 1 se originam dos dados do CQ. Guia para as tolerâncias • Padrões dos procedimentos de aceitação (Acceptance Testing Procedure, ATP): conjunto de dados de referência (baselines) para futuras dosimetrias e para testes que garantem um desempenho constante do feixe e que permitem a verificação de que a máquina opera dentro de certas tolerâncias em relação aos valores absolutos. • Valores de referência do comissionamento: durante o processo de comissionamento determinam-se todos os dados caraterísticos dos feixes necessários para o uso clínico. Esses valores de referência são usados para verificar a relativa constância para todas as medidas de validação dosimétrica futuras. • Tolerâncias e níveis de ação: se um parâmetro tem uma variação superior ao valor tabelado é necessário realizar uma ação, o equipamento deve ser ajustado para que o valor do parâmetro volte à conformidade. Se certos parâmetros estão repetidamente no limite da tolerância alguma ação deve ser realizada. Recomenda-se que o sistema de medida e o procedimento de repetibilidade sejam escolhidos de forma que, para três ou mais medidas repetidas consecutivamente, o valor de dois desvios padrões seja menor do que o valor de tolerância, o que representa uma confiança de 95%. O TG – 142 define três níveis de ação3: • Nível 1 – ação de inspeção: pode ocorrer um desvio repentino e significativo em relação ao valor esperado sem exceder o valor da tabela de tolerância; nesse caso a programação de tratamento deve continuar, mas deve-se investigar sua causa; • Nível 2 – ação planejada: sucessivos resultados do CQ estão próximos ou chegam ao valor limite de tolerância ou um único valor que o ultrapassa, mas não excessivamente; então, o tratamento pode continuar e medidas de solução devem ser programadas para os próximos um ou dois dias de trabalho; • Nível 3 – ação corretiva com imediata parada de tratamento: resultados inesperados que requerem a imediata suspensão dos tratamentos relacionados com o parâmetro; os tratamentos relacionados com ele não devem ser realizados até o problema ser corrigido. Incerteza, repetibilidade e precisão A incerteza associada a uma medida depende da técnica usada, do dispositivo de medida e da pessoa que usa o dispositivo e registra a medida. • Incerteza (exatidão) da medida: está relacionada com o erro esperado de uma medida em relação a um padrão estabelecido. • Repetibilidade: está relacionada com a estatística das medidas feitas com certo dispositivo, ou seja, para a medida de uma grandeza sem mudança no arranjo experimental, os valores originários de repetidas medidas apresentam um desvio padrão em relação ao valor médio. • Precisão de uma medida: está relacionada com a resolução da escala do dispositivo de medida. Recomendações gerais Para realizar todas as atividades necessárias no CQ é importante se ter um grupo executor. Cada instituição deve estabelecer seus dados de referência. A equipe de CQ deve ser liderada por especialista em física médica. As tarefas diárias podem ser realizadas por técnicos, mas os testes mensais devem ser realizados ou supervisionados diretamente por um físico especialista. As medidas anuais devem ser feitas por um físico especialista com o envolvimento de toda a equipe do CQ. Recomenda-se uma verificação de ponta a ponta de todo o sistema para garantir a fidelidade da liberação da dose. Devem ser gerados relatórios anuais do CQ. Um programa de CQ bem estruturado deve ter como palavras-chaves: educação, verificação, documentação (registro) e comunicação. A documentação de registro deve conter todas as informações relativas aos pacientes, ao tratamento, ao CQ das máquinas e do sistema de planejamento. As falhas e os erros ocorridos devem ser registrados. O TPS 430 sugere uma mudança na filosofia a respeito dos erros que acontecem, ou seja, que todos os membros, com espírito de equipe, discutam os fatos ocorridos e procurem definir atitudes que minimizem a probabilidade de sua ocorrência4. A realização sistemática dos testes rotineiros dá uma relativa tranquilidade, pois minimiza a probabilidade da ocorrência de erros ou de sua gravidade. Unidades de cobalto Uma unidade de cobalto é a máquina mais simples e de maior confiança dentro de um serviço de radioterapia. Muitos Revista Brasileira de Física Médica. 2009;3(1):77-90. 79 Furnari L terapeutas acham que é o aparelho mais indicado para tratar cabeça e, pescoço, linfomas, mamas e certos tipos de tratamentos paliativos. Suas desvantagens são a grande penumbra, a pequena penetração comparada com fótons de alta energia e a necessidade de troca da fonte periodicamente. Van Dyk e Battista5 sugerem que “uma moderna unidade do cobalto redesenhada poderia incorporar um multileaf collimator (MLC) e filtros dinâmicos, minimizando o uso de bandejas para acessórios e permitindo o uso de distâncias maiores entre a fonte e os aparatos para definir o campo. É possível também redesenhar as cápsulas das fontes de modo a conseguir a mesma atividade específica com um diâmetro menor”. Para o CQ, considera-se que os elementos que devem ser verificados são: gantry, cabeçote, colimadores, mesa, sala e console. A Quadro 1 indica os testes, a frequência e os níveis de tolerância6. Aceleradores Os aceleradores lineares representam a mais importante, prática e versátil fonte de radiação ionizante em radioterapia. Os principais componentes de um acelerador linear geralmente são agrupados em cinco classes: sistema de injeção; sistema de radiofrequência; sistema auxiliar; sis- Quadro 1. Testes em unidades de cobalto Frequência Diários Semanais Mensais Anuais 80 Procedimento Segurança Interlock da porta Monitor da sala de tratamento Comunicação auditiva Mecânicos Localização com lasers Indicador de distância SSD Verificação da posição da fonte Dosimetria Constância do fator output Mecânicos Coincidência do campo radioativo com luminoso Indicador do tamanho de campo (colimador) Indicador do ângulo do colimador/gantry Centro do cross-hair Trava dos filtros e bandejas Interlock de segurança Botões de emergência Interlock de filtro Dosimetria Constância do fator output Dependência da constância do output com o tamanho de campo Constância dos parâmetros de dosimetria no eixo central (PDD e TMR) Constância dos fatores de transmissão de todos os acessórios padrão Constância do fator de transmissão do filtro Linearidade e erro do relógio Constância do output versus ângulo do gantry Uniformidade do feixe versus ângulo do gantry Interlock de segurança Seguir os teste indicados pelo fabricante Mecânicos Isocentro de rotação colimador Isocentro de rotação do gantry Isocentro de rotação da mesa Coincidência do eixo do colimador, do gantry e da mesa com o isocentro mecânico e radioativo Coincidência de isocentro mecânico e radioativo Deflexão do topo da mesa Jogo ao longo do curso vertical da mesa Intensidade da luz de campo Revista Brasileira de Física Médica. 2009;3(1):77-90. Tolerância Funcional Funcional Funcional 2 mm 2 mm 3 mm 2% 3 mm 2 mm 1 grau 1 mm Funcional Funcional Funcional 2% 2% 2% 2% 2% 1% 2% 3% Funcional diâmetro de 2 mm diâmetro de 2 mm diâmetro de 2 mm diâmetro de 2 mm diâmetro de 2 mm 2 mm 2 mm Funcional Controle de qualidade em radioterapia tema de transporte do feixe e sistema de colimação e de monitoração do feixe. Os aceleradores, sendo máquinas que produzem os feixes de radiação eletronicamente, podem ter seu desempenho alterado inesperadamente, então é necessário atender a dois requisitos essenciais: as medidas do CQ devem ser repetidas de forma rotineira e deve haver uma monitoração regular do desempenho por meio de uma manutenção preventiva. Os testes do CQ de aceleradores estão classificados em diários (Quadro 2), mensais (Quadro 3) e anuais (Quadro 4)1,3. Nas tabelas há indicação da tolerância para cada teste separadamente, para máquinas em que se realizam tratamentos de IMRT, máquinas em se realizam tratamentos estereotáticos e máquinas em que nenhuma dessas técnicas é usada. Micromultileaf O sistema de colimação por meio de multilâminas, em substituição às técnicas convencionais de conformação do campo de radiação, tem como função melhorar a eficiência da realização dos tratamentos. O MLC tem lâminas móveis (blindagens), que podem bloquear uma fração do campo de radiação. Os MLC típicos têm de 40 a 120 lâminas arranjadas em pares. É possível gerar campos que conformem o tumor automaticamente por comandos computacionais que posicionam precisamente um grande número dessas lâminas estreitas e encostadas entre si. Esse sistema, desde que disponha de hardware e software apropriados, economiza tempo e tem um menor custo operacional do que o uso de blocos de cerrobend. O MLC pode ter três funções: • substituir os blocos convencionais; • se ajustar continuamente para formar a projeção do beam’s-eye view (BEV) do volume alvo planejado (PTV), durante uma rotação em arco do feixe de fótons. A mudança da posição das lâminas pode ocorrer com o gantry parado ou em movimento, tendo-se, nesse caso, a modalidade de arco dinâmico; • possibilitar a obtenção de feixes com intensidade modulada. Existem diversas técnicas para se conseguir esse resultados, algumas mantendo o gantry fixo em certos ângulos e outras movimentando-o durante a irradiação. Um programa de controle de qualidade (PCQ) para MLC deve garantir o funcionamento seguro e confiável de seus componentes mecânicos, pela avaliação da precisão posicional, do movimento confiável das lâminas, da fuga através das lâminas, dos interlocks, do trabalho na rede e da transferência de dados7. A Quadro 5 apresenta os testes sugeridos1. Intensity-Modulated Radiation Therapy (IMRT) O IMRT é uma extensão da terapia conformacional 3D, a qual usa feixes de radiação de intensidade não uniforme determinados por técnicas de otimização obtidas de programas de computadores. É proposta melhoria na radioterapia pelo aumento de controle tumoral e redução da morbidade do tratamento. O processo de planejamento de IMRT tem uma grande complexidade, pois há muitas instruções para as máquinas necessitando-se altos padrões de capacidade de computação. A dose num campo de IMRT é construída pela soma de muitos segmentos, às vezes, bem pequenos. Mostrou-se que, para feixes com 1 cm de largura, uma incerteza de 1 décimo de milímetro na abertura dos pares opostos de lâminas pode produzir incertezas de até 10% na projeção de dose local. Além disso, os subcampos podem estar em muitos locais dentro da área tratada, implicando que sua posição deve ser Quadro 2. Testes diários em acelerador Procedimento Dosimetria Constância do fator output de fótons (todas as energias) Constância do fator output de elétrons (semanalmente, com exceção de máquina com uma só energia ou necessidade de monitoração diária) Mecânicos Localização com lasers Indicador de distância SSD Indicador do tamanho do colimador Segurança Interlock de porta Segurança do fechamento da porta Monitor audiovisual Trancamento por fora sala estereotática Monitor de área de radiação (se usado) Indicador de emissão de feixe Tolerância (máquinas sem IMRT) Tolerância (máquinas com IMRT) Tolerância estereotática 3% 2 mm 2 mm 2 mm NA 1,5 mm 2 mm 2 mm Funcional Funcional Funcional NA Funcional Funcional 1 mm 2 mm 1 mm Funcional NA = não avaliado Revista Brasileira de Física Médica. 2009;3(1):77-90. 81 Furnari L Quadro 3. Testes mensais em acelerador Procedimento Tolerância (máquinas sem IMRT) Dosimetria Constância do fator output de fótons Constância do fator output de elétrons Constância do monitor de backup Constância da taxa de dose de output típica Constância do perfil do feixe de fótons Constância do perfil do feixe de elétrons Constância da energia do feixe de elétrons Mecânicos Coincidência campo radioativo e luminoso Coincidência campo radioativo e luminoso (campo assimétrico) Dispositivo para checar distância usado para laser/ODI Indicador digital de ângulo gantry/colimador (ângulos cardinais) Bandeja para acessórios (por exemplo régua para filmes portais) Indicador da abertura do colimador simétrico Indicador da abertura do colimador assimétrico Posição do centro do cross-hair Indicador da posição da maca de tratamento Precisão de colocação do filtro Trava dos filtros e da bandeja dos blocos Lasers de localização Segurança Interlock de porta Gating respiratório Constância do output do feixe Controle da amplitude e da fase do feixe Sistema de monitoração de respiração que fica na sala Interlock do gating Tolerância (máquinas com IMRT) Tolerância estereotática 2% NA 2% (taxa de dose IMRT) 2% (taxa de dose estéreo, UM) 1% 2% / 2 mm 2 mm / 1 grau ±2 mm 2 mm ou 1% de um lado 1 mm ou 1% de um lado 1mm 1 grau 2 mm 2 mm 1 mm 1 mm 2 mm / 1 grau 2mm Funcional ±1 mm 2 mm / 0,5 grau < ± 1mm Funcional 2% Funcional Funcional Funcional NA = não avaliado conhecida com grande precisão, ou seja, a posição relativa das lâminas deve ser mantida menor que 1 mm. O posicionamento das lâminas e o comprimento do seu percurso dependem do modelo do MLC. O sistema Varian, por exemplo, tem uma limitação de deslocamento das lâminas de 14,5 cm, e para deslocamentos maiores é necessário que os carros que levam as lâminas também sejam deslocados. Por um lado essa é uma configuração mais limitada para a colocação de blocos únicos, porém tem mais aplicações na modulação do feixe. Os planos de tratamento com IMRT devem ser verificados de forma independente, pela transferência de cada plano para um objeto simulador representativo com os campos planejados para o paciente, a dose medida deve ser comparada com aquela calculada pelo sistema8. Filtros dinâmicos/virtual/universal Os filtros dinâmicos produzem o efeito de filtro nas curvas de isodose pelo movimento de fechamento gradual de uma das bordas dos colimadores comandado computacionalmente, enquanto a borda oposta permanece estacionária durante a irradiação. Os diferentes ângulos 82 Revista Brasileira de Física Médica. 2009;3(1):77-90. de filtro são obtidos a partir do controle do movimento das lâminas. O fator filtro pode ser afetado por pequenas variações no posicionamento dos colimadores. Sugere-se que, para sistemas que produzem um ângulo de filtro “efetivo” usando uma combinação de 60° e campo aberto, o teste sejam realizados para 45º. Se, porém, a instituição optou por empregar o filtro de 60º com um único campo, então este deve ser conferido. A Quadro 6 apresenta os testes necessários1. Imagem radiográfica A eficácia dos tratamentos aumentou com a recente introdução de técnicas, como IMRT e tomoterapia, porém a precisão da liberação da dose nessas técnicas se depara com a incerteza na localização do alvo. Ainda existem dificuldades por causa do movimento do alvo em relação aos marcadores entre as frações. Atualmente, é possível criar imagens da anatomia dos pacientes imediatamente antes da liberação da dose, ganhando desse modo um conhecimento preciso da localização do volume do alvo diariamente. Essa técnica, conhecida como IGRT, assegura que as posições do volume alvo em relação a algum Controle de qualidade em radioterapia Quadro 4. Testes anuais em acelerador Procedimento Tolerância (máquinas Tolerância (máquinas sem IMRT) com IMRT) Dosimetria Variação da planura dos fótons em relação aos dados de referência Variação da simetria dos fótons em relação aos dados de referência Variação da planura dos elétrons em relação aos dados de referência Variação da simetria dos elétrons em relação aos dados de referência SRS no modo rotação do arco (intervalo de 0,5 a 10 UM/grau) Fator de calibração para fótons/elétrons Verificação de escolha casual da dependência do fator de calibração com o tamanho do campo (2 ou mais FS) Fator de output para aplicadores de elétrons ( escolha aleatória de 1 aplicador/energia) Qualidade do feixe de fótons (PDD10, TMR1020) Qualidade do feixe de elétrons (R50) Constância do fator de transmissão para todos os acessórios de tratamento Constância do fator de transmissão do filtro físico Linearidade da unidade monitor de fótons (constância do output) Linearidade da unidade monitor de elétrons (constância do output) Constância do output de raios X versus taxa de dose Constância do output de raios X versus ângulo do gantry Constância do output de elétrons versus ângulo do gantry Constância do fator off-axis para fótons e elétrons versus ângulo do gantry Modo arco (UM esperado por grau) Interlock de segurança Seguir os teste indicados pelo fabricante Testes mecânicos Isocentro de rotação colimador Isocentro de rotação do gantry Isocentro de rotação da mesa Interlocks dos aplicadores de elétrons Coincidência de isocentro mecânico e radioativo Deflexão do topo da mesa Ângulo da mesa Percurso máximo da mesa em todas as direções Acessórios Estereotáticos, lockout Modo TBI/TSET Acessórios TBI/TSET Constância de PDD ou TMR Fator de calibração (output) Dependência com a taxa de dose Gating respiratório Constância da energia do feixe Constância do output do feixe Precisão temporal do gate-on (vínculo) da fase/amplitude Calibração da fase/amplitude respiratória substituta Teste do interlock Tolerância estereotática 1% ±1% 1% ±1% NA NA Unidades monitor usadas versus liberadas: 1,0 UM ou 2% (o que for maior) ±1% (absoluto) 2% para campos < 4x4 cm2, 1% ≥ 4x4 cm2 ±2% em relação aos valores de referência ±1% em relação aos valores de referência ±1 mm ±1% em relação aos valores de referência ±2% ±5% ≥(2-4 UM), ±5% ≥(2-4 UM), ±2% ≥ 5UM ±2% ≥5 UM ±2% ≥5 UM ±2% ≥5 UM ±2% em relação aos valores de referência ±1% em relação aos valores de referência ±1% em relação aos valores de referência ±1% em relação aos valores de referência ±1% em relação aos valores de referência Funcional ±1 mm em relação aos valores de referência ±1 mm em relação aos valores de referência ±1 mm em relação aos valores de referência Funcional ±2 mm em relação ±2 mm em relação ±1 mm em relação aos valores de aos valores de aos valores de referência referência referência 2 mm em relação aos valores de referência 1 grau ±2 mm NA Funcional Funcional Funcional 1% (TBI) ou 1mm deslocamento da PDD (TSET) em relação aos valores de referência ±2% em relação aos valores de referência ±2% em relação aos valores de referência 2% 2% 100 ms do esperado 100 ms do esperado Funcional NA = não avaliado Revista Brasileira de Física Médica. 2009;3(1):77-90. 83 Furnari L Quadro 5. Testes em multileaf collimator Frequência Semanal Procedimento Testes qualitativos (matched segments, aka, “picket fence”) Mensal Planejamentos versus campo de radiação medidos para dois formatos Backup diagrams settings (só Elekta) Velocidade da lâmina (IMRT) Precisão da posição das lâminas Anual Transmissão do MLC (média da lâmina e da transmissão interlâminas) todas as energias Repetibilidade da posição das lâminas MLC spoke shot Coincidência do campo radioativo com o luminoso Teste da velocidade da folha no arco dinâmico Teste interblock trip no arco dinâmico Teste de plano típico com arco dinâmico Teste de IMRT segmentado (Step and Shoot) Sliding window IMRT (4 ângulos cardinais do gantry) Tolerância Inspeção visual de desvios perceptíveis como o aumento na transmissão interlâminas 2 mm 2 mm Perda de velocidade das lâminas <0,5 cm/s 1 mm para a posição das lâminas de um campo de IMRT para 4 ângulos cardinais* (Teste “picket fence” pode ser usado como teste que depende do planejamento clínico - tamanho dos segmentos) ±0,5% a partir dos valores de referência 1,0 mm ≤1,0 mm de raio 2,0 mm <0,35 cm Max erro RMS, 95% das contagens erradas <0,35 cm (Varian) Interlock para posição da folha ocorre (Varian) <0,35 cm Max erro RMS, 95% das contagens erradas <0,35 cm (Varian) <0,35 cm Max erro RMS, 95% das contagens erradas <0,35 cm (Varian) <0,35 cm Max erro RMS, 95% das contagens erradas <0,35 cm (Varian) * cardinais = 0o, 90o, 180o e 270o Quadro 6. Testes em filtros dinâmicos/universais e virtuais Frequência Procedimento Diário Morning check-out - percurso para um ângulo Mensal Fator filtro para todas as energias Anual Verificar o ângulo do filtro para 60º em todo o campo e spot check para ângulos e tamanhos de campo intermediários Dinâmico (EDW - Varian) Tolerância Universal (Elekta) Virtual (Siemens) Funcional Verificação no eixo central, para Verificação no eixo central, para 45º ou 60º (dentro de 2%)* 45º ou 60º (dentro de 2%)* 5% a partir da unidade, senão 2% Verificar a razão de off-center até 80% da largura do campo 10 cm * Recomenda-se verificar o ângulo de 45º se forem usados ângulos diferentes de 60º ponto de referência, para cada fração, sejam as mesmas que as planejadas. Pode ser utilizada usando diferentes técnicas: fótons com energia MV, ou com energia kV. Apesar de que o CQ deve ter na precisão espacial da reconstrução da imagem o fator preponderante, é preciso também avaliar os parâmetros de qualidade de imagem, como o contraste, o ruído, a uniformidade espacial e a resolução. Como esse sistema costuma ser usado diariamente e é capaz de liberar uma dose significativa, é essencial realizar anualmente medidas diretas da dose liberada pelo processo de imagem e da qualidade/energia do feixe. Os valores de referência estabelecidos durante os testes de aceitação são usados como critério do CQ. A Quadro 7 apresenta os testes que devem ser realizados nos sistemas de IGRT1. Gating respiratório O documento da AAPM, o TG-76 descreve todos os aspectos que envolvem o controle do movimento respiratório 84 Revista Brasileira de Física Médica. 2009;3(1):77-90. em Radiologia Oncológica, incluindo a produção da imagem, o planejamento do tratamento e a liberação da dose9. Para usar essa técnica é preciso: sincronização, necessária em todas as técnicas respiratórias, entre o feixe de radiação e o movimento do paciente; a caracterização do feixe do acelerador em condições de gating respiratório; e o uso de fantomas dinâmicos que simulem os movimentos dos órgãos humanos associados à respiração para avaliar a localização do alvo. Os testes referentes a esse aspectos estão incluídos nas Quadros 3 e 4. TBI e TSI A irradiação de corpo inteiro (do inglês – total body irradiation, TBI) é uma importante técnica radioterapêutica que libera uma dose de fótons de megavoltagem, com uma uniformidade de dose dentro de 10% em todo o corpo do paciente. O comissionamento de uma máquina para esse tratamento é basicamente o mesmo que para uma máquina da radioterapia padrão, incluindo Controle de qualidade em radioterapia Quadro 7. Testes em sistemas de imagens Procedimento Tolerâncias para máquinas sem SRS/SBRT Tolerâncias para máquinas com SRS/SBRT Diário Imagem MV (EPID) Interlock para colisão Funcional Funcional Linearidade espacial 1 (x e y) (ângulo do gantry único) <2 mm ≤1 mm Coincidência da coordenadas da imagem e do tratamento (um só ângulo) <2 mm ≤1 mm Posicionamento/reposicionamento <2 mm ≤1 mm Funcional Funcional Coincidência da coordenadas da imagem e do tratamento (um só ângulo) <2 mm ≤1 mm Posicionamento/reposicionamento <2 mm ≤1 mm Funcional Funcional <2 mm ≤1 mm <2 mm ≤1 mm Imagem kV Interlock para colisão Cone-beam CT (kV e MV) Interlock para colisão Posicionamento/reposicionamento Mensal Imagem MV (EPID) Coincidência da coordenadas da imagem e do tratamento (nos quatro ângulos cardinais) Scaling <2 mm ≤2 mm Resolução espacial Valores de referência Valores de referência Contraste Valores de referência Valores de referência Uniformidade e ruído Valores de referência Valores de referência <2 mm ≤1 mm Imagem kV Coincidência da coordenadas da imagem e do tratamento (nos quatro ângulos cardinais) Scaling <2 mm ≤1 mm Resolução espacial Valores de referência Valores de referência Contraste Valores de referência Valores de referência Uniformidade e ruído Valores de referência Valores de referência <1,5 cmm ≤1 mm <2 mm ≤1 mm Resolução espacial Valores de referência Valores de referência Contraste Valores de referência Valores de referência Constância do número de CT Valores de referência Valores de referência Uniformidade e ruído Valores de referência Valores de referência <1 mm ≤1 mm ±5 mm ±5 mm Dose do processo de imagem Valores de referência Valores de referência Energia e qualidade do feixe Valores de referência Valores de referência Energia e qualidade do feixe Valores de referência Valores de referência Dose do processo de imagem Valores de referência Valores de referência Valores de referência Valores de referência Cone-beam CT (kV e MV) Coincidência das coordenadas da imagem e do tratamento Distorção geométrica Linearidade espacial (x e y) (para um só ângulo) Anual Imagem MV (EPID) Intervalo completo de percurso SDD Imagem kV Cone-beam CT (kV e MV) Dose do processo de imagem Revista Brasileira de Física Médica. 2009;3(1):77-90. 85 Furnari L calibração absoluta do feixe, porcentagem de dose profunda e perfis (fatores off-axis) só que deve ser feito nas condições específicas de geometria do TBI, a fim de fornecer dados confiáveis10. A irradiação de toda a pele (do inglês – total skin irradiation, TSI) é uma técnica radioterapêutica administrada no tratamento de certas doenças malignas generalizadas da pele. Esse tratamento pretende irradiar toda a pele do paciente de modo uniforme com grandes campos de elétrons. O comissionamento compreende um conjunto de dados dosimétricos relevantes, primeiro dos grandes campos estacionários de elétrons a serem usados nos tratamentos e em seguida da dose verdadeiramente liberada com múltiplos campos rotacionais. Recomenda-se repetir um subconjunto dos dados do comissionamento para TBI ou TSI anualmente para garantir a operação adequada. Quadro 8. Testes em simuladores Frequência Diária Semanal Mensal Semestral Anual 86 Procedimento Ópticos Laser de localização Indicador de distância (verificação rápida) Mecânicos Centro do cross-hair (verificação rápida) Indicadores de tamanho de campo Segurança Interlock da porta Botões de habilitação dos movimentos Luzes de advertência Verificações radiográficas/fluoroscópicas Sensitometria do processador de filme Ópticos Indicador de distância Coincidência de campo luminoso com radioativo Segurança Emergency off Prevenção de colisão Mecânicos Ponteiro (front pointer) Centro do cross-hair Indicadores dos ângulos (gantry, colimador, mesa) Indicadores de tamanho de campo Paralelismo mesa/campo sobre 20 cm de deslocamento vertical Verificações radiográficas/fluoroscópicas Calibração de kVp, mAs e tempo Linearidade e reprodutibilidade do output Taxa máxima de exposição fluoroscópica Mecânicos Isocentricidade mecânica (coincidência dos tres eixos) Constância do isocentro sobre todo o percurso da SAD Indicadores de distância: SAD, distância foco-imagem Máxima deflexão da mesa com uma carga de 80 kg Verificações radiográficas/fluoroscópicas Deslocamento da imagem com mudança do focal spot Resolução espacial no centro do intensificador de imagem (alto contraste) Linearidade da escala de cinza Relógio da fluoroscopia Segurança Protetores: luvas e aventais plumbíferos, biombos Revista Brasileira de Física Médica. 2009;3(1):77-90. Tolerância 2 mm 2 mm 2 mm 1 mm por borda Funcional Funcional Funcional Valores de referência 2 mm 1 mm por borda Funcional Funcional 1 mm 2 mm de diâmetro 1 grau 1 mm por borda 2 mm Valores de referência Valores de referência Valores de referência 2 mm de diâmetro 2 mm 2 mm 5 mm Valores de referência Valores de referência Valores de referência Funcional Funcional Controle de qualidade em radioterapia Os testes anuais para TBI e TSI, cuja tolerância está indicada na Quadro 4, devem conseguir avaliar, nas condições de tratamento: a funcionalidade; a constância de transmissão dos modificadores; a constância dos valores de Tissue-Maximum Ratio ou PDP; a constância dos valores de fatores de off-axis e a constância dos fatores de output. Simuladores convencionais Um dos passos mais importantes do processo de tratamento é a simulação que pode ser feita por meio de simuladores convencionais, de tomografia computadorizada (CT) ou de simuladores CT. Um simulador convencional é uma máquina de raios X convencional montada num gantry rotacional, equipado com aspectos geométricos idênticos àqueles das máquinas de alta voltagem, e que funciona no modo radiográfico e fluoroscópico. A Quadro 85 indica os testes a serem feitos, suas frequências e tolerâncias. Simulação virtual Um simulador CT aumenta a capacidade de se usar terapias 3D, pois é uma ótima ferramenta para ajudar no processo de localização do tumor e no desenho de estruturas, fornecendo um meio de verificação computadorizada das imagens. Essas imagens podem ser comparadas com as imagens portais obtidas na máquina de tratamento. O processo de simulação virtual inclui a determinação de um isocentro ou de um ponto de referência marcado no paciente, cuja precisão de localização deve estar dentro de 1 mm. O CQ de um simulador CT pode ser dividido em avaliação do equipamento de CT e da simulação virtual11. A Quadro 9 indica os testes a serem feitos no equipamento e a frequência sugerida para cada teste5. Braquiterapia Braquiterapia é o termo usado para descrever os tratamentos de câncer com radiação proveniente de fontes de material radioativo encapsulado, colocadas diretamente dentro ou próximas do volume a ser tratado. O sistema de HDR (alta taxa dose – High Dose Rate) mais utilizado atualmente emprega fontes de Ir-192, na Quadro 10 estão indicados os testes de CQ desse tipo de conjunto12. Sistemas de planejamento Diferentemente do imaginado, o sistema de planejamento computadorizado (SPC) também deve ser submetido a um CQ13, pois, como todos os outros equipamentos, está sujeito a erros e falhas de desempenho do software, do hardware do sistema de planejamento e do hardware Quadro 9. Testes no TC simulador Frequência Procedimento Diária Qualidade da imagem Exatidão do número CT - fantoma de água Uniformidade do campo - fantoma de água Semanal Mecânico Laser interno - coincidência com plano de varredura Trimestral Qualidade da imagem Detecção de baixo contraste/ruído na imagem Resolução espacial de alto contraste / MTF Mecânico Exatidão do posicionamento da mesa Localização do slice a partir da varredura de transmissão Calibração da leitura vertical e longitudinal da mesa Calibração da inclinação do gantry Anual Qualidade da imagem Perfil de sensibilidade da fatia Escala de contraste do número de CT Fidelidade geométrica da imagem Testes radioativos Exatidão de kVp HVL (anualmente e quando há troca do tubo de raios X) Dose no paciente (medida CDTI) do sistema de rede durante a transferência de dados. Se as falhas não produzirem um erro crasso podem passar despercebidas. Para cada teste, deve-se ter definido: o objetivo, a descrição, a frequência e os critérios de aceitação dos resultados encontrados. Há documentos guia como o TRS 430 da International Atomic Energy Agency (IAEA)5, que apresentam um estudo detalhado de todos os aspectos do CQ de um SPC. A Quadro 11 é um resumo do que sugere esse documento para o CQ. Equipamentos de medida O CQ dos instrumentos de medida tem tanta importância como o dos equipamentos de tratamento em si. Os sistemas baseados em câmaras de ionização continuam sendo os preferidos para a realização das calibrações dosimétricas dos feixes de fótons e elétrons. Eles podem ser classificados em referência local, calibrados diretamente em um Laboratório Padrão de Dosimetria, ou instrumento de campo, igual ao anterior que pode ser calibrado por intercomparação com o de referência local. Este só deve ser empregado nas medidas que não sejam de rendimento absoluto. Recomenda-se, em todos os casos, estabelecer um sistema redundante de comprovação dos instrumentos dosimétricos, a fim de assegurar que estes mantenham seus fatores de calibração. No caso de teleterapia, o sistema redundante só pode ser estabelecido mediante a avaliação da resposta do instrumento de medida a uma fonte de referência de meia-vida longa como o Sr-90, ao longo do Revista Brasileira de Física Médica. 2009;3(1):77-90. 87 Furnari L Quadro 10. Testes para braquiterapia Frequência Procedimento Fontes seladas Forma física e química Encapsulamento da fonte Trimestral Calibração Distribuição do radionuclídeo e uniformidade da fonte (autorradiografia) Aplicadores Inicial Dimensões e integridade Equipamentos de controle remoto Diária Interruptores de segurança da porta, luzes e alarme Funções do painel de comando, baterias, impressoras, video, monitor de radiação Inspeção visual das guias condutoras de fontes (cateteres) Teste de obstrução Semanais Medida da indexação do cabo da fonte Botão de emergência da sala Botão de emergência do robô Botão de emergência do console Botão de interrupção do console Bloqueio da porta Detector de área Luz de segurança da porta Bobina de papel do console Monitor de visualização Intercomunicador Verificação do timer/cronômetro do console Mensais Autorradiografia Verificação dos canais do robô Simulação de cateter obstruído Trimestrais ou a cada troca da fonte Autorradiografia das paradas da fonte Verificação dos canais do robô Verificação de todos os tubos de transferência de fonte (tubos para gineco, agulha intersticial, cateter intersticial, cateter de nylon, esôfago) Simulação de cateter obstruído feita para cada canal do robô (18 canais) Verificação da integridade de todos os acessórios e aplicadores Verificação da atividade da fonte velha (antes da troca) Verificação da fonte nova (depois da troca) Anuais Algoritmo do cálculo de dose Simular situações de emergência Verificar inventário das fontes Sistemas computadorizados Em cada aplicação Consistência da informação impressa sobre o plano de tratamento Exatidão da impressão dos parâmetros do tratamento pelo console de controle remoto Anual Exatidão geométrica dos sistemas de entrada/saída (digitalizador e plotter) Inicial e anual Verificação dos parâmetros de entrada para configurações pré-calculadas Inicial e quando se modifica o SW Verificação de doses e cálculo de tempos para todas as fontes em pontos representativos Exatidão das isodoses de uma fonte Exatidão das isodoses de fontes múltiplas Exatidão na rotação dos planos Exatidão da reconstrução de coordenadas Exatidão da impressão dos parâmetros do tratamento pelo console de controle remoto Figuras de mérito do histograma de volume-dose Software de otimização Avaliação integral do sistema Procedimentos em cada implante Exatidão de descrição do tratamento Cálculo do plano de tratamento Verificação do recolhimento da fonte Retirada dos aplicadores ou implantes Revisão do tratamento Registro, auditoria da garantia da qualidade Inicial 88 Revista Brasileira de Física Médica. 2009;3(1):77-90. Controle de qualidade em radioterapia Quadro 11. Testes no sistema computadorizado de planejamento Semanal Software Revalidação do feixe externo Hardware CPU Mesa digitalizadora Software Detalhes do plano Transferência eletrônica de planejamento Verificar a constância nos cálculos de dose Mensal Verificar o funcionamento Verificar que não houve alteração na sensibilidade da mesa Conferir se não houve alteração na impressão dos resultados do plano numa cópia impressa Verificar se não houve modificação na transferência de protocolos e dados para a máquina de tratamento Trimestral Hardware Impressora Verificar que a escala não variou Dispositivos de back-up Confirmar que os pacientes foram arquivados e recuperados Geometria da CT e verificação das densidades Verificar que a relação entre os números de CT e as densidades não foram alterados Para cada paciente Hardware Informação anatômica do paciente Transferência da CT Verificar que os protocolos não foram alterados Exportação e a manipulação Verificar que a representação anatômica do paciente não foi mudada dos dados do paciente Software Verificação da UM/tempo Verificar que não houve alteração no cálculo de UM Verificação independente da dose monitor Usar outro método para calcular a UM Tratamento Verificação de não ocorrência de Criar sistema que permita identificar comportamentos não usuais no tratamento comportamentos não usuais de andamento do tratamento (semanal) Dosimetria in vivo e in vitro Realizar dosimetria de planejamentos para casos não padronizados tempo. Não havendo uma fonte de referência, é fundamental dispor-se de pelo menos dois sistemas dosimétricos independentes, e nesse caso, uma máquina de Co-60 pode ser usada para suprir a ausência de uma fonte de referência de Sr-90. Os testes sugeridos estão na Quadro 1214. Uma vez que esse tema é extenso, um artigo específico com a descrição dos procedimentos para a realização dos principais testes será publicado numa outra oportunidade. Referências Conclusão Pode-se observar que o CQ de um serviço de radioterapia é um universo de medidas, verificações, treinamentos, manutenções e registros. Para tornar todo esse processo factível com os recursos disponíveis, é necessário que o físico responsável faça uma análise detalhada de quais máquinas devem ser submetidas ao controle, da frequência com que os testes devem ser feitos e quem irá realizá-los. Ele também deve estabelecer uma agenda com definição das datas dos testes, deve criar planilhas para registro dos resultados encontrados e das comparações com os valores de referência gerados no comissionamento e, finalmente, deve manter documentos com a descrição detalhada de como todos os testes devem ser realizados. 1. Hanley J. TG142 AAPM Quality Assurance of Medical Accelerators. [Proceedings of 26th Annual Meeting of American College of Medical Physics, Virginia Beach; 2009]. 2. American Association of Physicists in Medicine (AAPM). Methods for Evaluating QA Needs In Radiation Therapy. AAPM Task Group 100. 3. American Association of Physicists in Medicine (AAPM). Quality Assurance of Medical Accelerators. AAPM Task Group 142. 4. International Atomic Energy Agency (IAEA). Commissioning and quality assurance of computerized planning systems for radiation treatment of cancer. Technical Report Series. IAEA TRS-430. 2004; Vienna, Austria 5. Van Dyk J. The modern technology of radiation oncology. Wisconsin, USA: Medical Physics Publishing; 1999. 6. American Association of Physicists in Medicine (AAPM). Comprehensive QA for Radiation Oncology, AAPM Task Group 40, Report 40. Med Phys. 1994;21(4):581-618. 7. American Association of Physicists in Medicine (AAPM). Basic Applications of Multileaf Collimators. AAPM Task Group 50 Report 72. EUA; 2001. Revista Brasileira de Física Médica. 2009;3(1):77-90. 89 Furnari L Quadro 12. Testes de garantia da qualidade dos equipamentos de medida Tipo de instrumento Referência Teste Calibração em Laboratório Padrão Secundário de Dosimetria Local Linearidade Comunicação atmosférica Sinal extracâmara Fuga Verificação de constância Recombinação Efeito de polaridade Instrumento de campo Comparação com referência local Linearidade Comunicação atmosférica Sinal extracâmara Fuga Verificação de constância Recombinação Efeito de polaridade Dosimetria relativa Com filme Característica sensitométrica Linearidade do densitômetro TLD Calibração Linearidade Câmara de ionização Linearidade Sinal extracâmara Diodo Dependência energética Linearidade Fuga Analisadores de feixe Ajuste mecânico Exatidão posicional Tensão de coleção do detetor Linearidade do detetor Sinal extracâmara Fuga do detetor Exatidão da análise de dados Exatidão da impressão Acessórios Colocação Exatidão Histerese Termômetro Calibração Barômetro Calibração Réguas Calibração Monitor de área Calibração 8. American Association of Physicists in Medicine (AAPM). Guidance document on delivery, treatment planning, and clinical implementation of IMRT. Report 82. Med Phys. 2003;30(8):2089-115. 9. American Association of Physicists in Medicine (AAPM). The Management of Respiratory Motion in Radiation Oncology. AAPM Task Group 76, Report 91. EUA; 2006. 10. American Association of Physicists in Medicine (AAPM). The Physical Aspects of Total and Half Body Photon Irradiation. AAPM Task Group 29, Report 17. EUA; 1986. 11. American Association of Physicists in Medicine (AAPM). Quality Assurance for computed-tomography simulators and the computed-tomography- 90 Revista Brasileira de Física Médica. 2009;3(1):77-90. Especificações e Tolerâncias Certificado de calibração Frequência Bianual 0,50% Registrada e/ou corrigida 0,50% 0,10% 2% Registrada e/ou corrigida 1% 1% Registrada e/ou corrigida Registrada e/ou corrigida Registrada e/ou corrigida 0,10% 2% Registrada e/ou corrigida 1% Bianual Bianual Inicial Em cada uso Em cada uso Inicial Em cada uso Anual Registrada Registrada e/ou corrigida Registrada Registrada Registrada e/ou corrigida 1% Registrada e/ou corrigida Registrada e/ou corrigida 2% 2mm 2mm Registrada e/ou corrigida 0,50% 0,50% 0,50% 1% 1 mm Para cada lote de filmes Anual Para cada lote de TLD Para cada lote de TLD Para cada lote de TLD Inicial Inicial Inicial Anual Inicial Em cada uso Em cada uso Inicial Inicial Em cada uso Inicial Inicial 2mm 2mm 0,2 oC 1 mmHg 1 mm Certificado de calibração Em cada uso Em cada uso Inicial Trimestral Inicial Anual Bianual Bianual Em cada uso Em cada uso Inicial Em cada uso simulation process. AAPM Task Group 66 Report 83. Med Phys. 2003;30(10):2762-92 12. Rodrigo Rubo. INRAD, Hospital das Clínicas da Faculdade de Medicina da USP. Comunicação particular a respeito de controle de qualidade em Braquiterapia; 2009. 13. American Association of Physicists in Medicine (AAPM). Quality Assurance for Clinical Radiotherapy Treatment Planning. AAPM Task Group 53 Report 62. Med. Phys. 1998;25:1773-829. 14. International Atomic Energy Agency (IAEA). TECDOC-1151 Aspectos físicos da garantia da qualidade em radioterapia. Protocolo de controle de qualidade. Vienna. Ministério Saúde: INCA, RJ; 2000. Artigo de Revisão Revista Brasileira de Física Médica. 2009;3(1):91-9. Garantia de qualidade em radiologia diagnóstica Quality assurance in diagnostic radiology Tânia A. C. Furquim1, Paulo R. Costa2 1 Instituto de Eletrotécnica e Energia da Universidade de São Paulo (USP) – São Paulo (SP), Brasil. 2 Instituto de Física da USP – São Paulo (SP), Brasil. Resumo As imagens radiológicas proporcionam informações importantes para a decisão dos futuros passos de um diagnóstico, um tratamento ou acompanhamento de um procedimento. Então, o nível necessário de qualidade de imagem para o correto diagnóstico tem que ser obtido na mais baixa dose de radiação possível ao paciente. Esses benefícios podem ser alcançados a partir da implementação de um rigoroso programa de garantia de qualidade. Como os avanços em tecnologia digital permitiram o rápido desenvolvimento de aplicações radiológicas, a transição de um sistema écran-filme a ambientes digitais tornou-se uma tarefa difícil, pois deve ser acompanhada de um processo de otimização de exposições e qualidade de imagem. Esse trabalho revisou alguns destes novos detetores e descreveu algumas questões associadas a um programa de garantia de qualidade dedicada a tecnologias como: radiologia digital e computadorizada, mamografia digital e computadorizada e tomografia computadorizada multidetetores. Assim, pretendeu-se enfatizar que a crescente complexidade destes novos equipamentos demanda uma nova competência técnica, o que implica educação continuada sistemática para os físicos médicos. Palavras-chave: radiologia diagnóstica; garantia de qualidade; radiologia digital; mamografia digital. Abstract X-ray images provide important information for the establishment of a diagnosis, treatment and follow-up procedure. Then, the necessary level of image quality for correct diagnosis has to be obtained at the lowest possible radiation dose to the patient. These benefits could be achieved by the implementation of rigorous quality assurance program. As advances in digital technology allowed the fast development of different detectors for radiological applications, the transition from a screen-film system to a digital environment became a difficult matter, and this should be accomplished with an optimization of exposures and image quality. This paper aimed to review some of the new digital detectors and describe some issues associated with a quality assurance program dedicated to technologies like digital and computed radiography, digital mammography or computed tomography multislice. Thus, it is intended to emphasize that the increasing complexity of radiological equipment demands a new technical competence and that systematic continuing education of medical physicists is necessary. Keywords: diagnostic radiology; quality assurance; digital radiology; digital mammography; CT multislice. Introdução A radiologia diagnóstica tem como função principal diagnosticar patologias. Quando se utilizam imagens obtidas a partir da interação da radiação ionizante com o paciente, espera-se que esta apresente qualidade de modo a minimizar os erros de interpretação e identificação de estruturas, possibilitando diagnóstico mais preciso e com a menor dose. Uma imagem sem a qualidade adequada deve ser repetida e há alguns custos envolvidos neste processo que devem ser evitados, e o principal é a duplicação de dose em um mesmo paciente. Assim, a adoção de conceitos de qualidade em radiologia torna-se muito útil, uma vez que auxilia no controle do processo de obtenção de imagem com a redução de erros previsíveis. A norma IEC 61223-11 define os conceitos associados à qualidade que orientam a sua implementação em radiologia diagnóstica: • garantia de qualidade: ações sistemáticas e planejadas, necessárias para prover confiança adequada, assegurando que o produto ou serviço satisfaça exigências de qualidade; • programa de garantia de qualidade: instruções detalhadas para realizar ações de garantia de qualidade para cada componente do equipamento, sistemas de equipamentos ou instalações, incluindo elementos de gestão da qualidade e técnicas de controle de qualidade; Correspondência: Tânia A. C. Furquim – Universidade de São Paulo, Instituto de Eletrotécnica e Energia – Av. Prof. Luciano Gualberto, 1289 – Cidade Universitária – 05508-010 – Sao Paulo (SP), Brasil – E-mail: [email protected] Associação Brasileira de Física Médica® 91 Furquim TAC, Costa PR • controle de qualidade: técnicas operacionais e atividades que são utilizadas para atender exigência de qualidade; • testes de aceitação: testes iniciais que se realizam quando se compra um equipamento. Devem verificar todas as possibilidades de utilização do equipamento de acordo com o contrato de compra e venda; • testes de qualidade (constância): avaliação rotineira dos parâmetros técnicos de desempenho; • testes de estado: ‘fotografia’ do desempenho de um equipamento em um dado momento. Ao se associar estes conceitos à radiologia diagnóstica, programas de garantia da qualidade (PGQ) devem ser compostos, ao menos, pelas seguintes atividades: • elaboração de memorial descritivo de proteção radiológica; • cálculo de barreiras; • realização de levantamentos radiométricos; • testes de aceitação e de constância (qualidade); • sensitometria; • valores representativos de doses; • implementação de padrões de qualidade de imagem; • assentamento de testes, tabelas de exposição; • cuidados com avisos conforme a legislação vigente; • identificação de falhas humanas e de equipamentos; • verificação dos procedimentos de rotina; • treinamento de técnicos, tecnólogos, engenheiros, físicos e médicos envolvidos no processo de obtenção de imagem; • auditorias pelos titulares; • otimização constante de doses e qualidade de imagem. Porém, para vários dos passos acima, necessários para a implementação do PGQ, devem-se conhecer as tecnologias e fenômenos físicos envolvidos no processo de geração da radiação e formação da imagem médica. Um pouco de história São bastante imprecisas as origens históricas dos programas que, atualmente, chamamos de controle de qualidade em nosso país. No Brasil, tem-se notícia das iniciativas no desenvolvimento de técnicas e dispositivos para o controle de qualidade em Radiologia realizadas no Departamento de Física do Campus de Ribeirão Preto da Universidade de São Paulo (USP), desde meados da década de 1970, sob liderança do professor Thomaz Ghilardi Netto. O Professor Ghilardi, apoiado e estimulado pelo Professor John Cameron, desenvolveu uma série de dispositivos para a realização de testes de controle de qualidade em equipamentos radiológicos e, o que foi mais importante, iniciou a formação de pessoal especializado para o desenvolvimento de novas técnicas de avaliação. Esses novos profissionais rapidamente se espalharam em diferentes cidades do 92 Revista Brasileira de Física Médica. 2009;3(1):91-9. Estado de São Paulo e também em outros Estados no país, dando início a programas de controle de qualidade locais, precursores dos programas atuais. Na cidade de São Paulo, até o final da década de 1980 havia somente algumas poucas iniciativas para se estabelecer rotinas de controle de qualidade, ainda sem maiores preocupações com periodicidades e com o estabelecimento de critérios de avaliação de desempenho dos equipamentos de diagnóstico por imagens. Entre 1989 e 1990, profissionais do Instituto de Eletrotécnica e Energia da USP (IEE/USP) iniciaram um programa-piloto no Hospital Universitário do campus do Butantã que incluíam alguns testes de desempenho dos equipamentos de radiologia e de fluoroscopia, bem como a análise de rejeição de filmes. Algumas entidades de fomento – tais como a Financiadora de Estudos e Projetos, a Fundação de Amparo à Pesquisa do Estado de São Paulo e o Conselho Nacional de Desenvolvimento Científico e Tecnológico – passaram a apoiar projetos nesta área que permitissem o desenvolvimento de técnicas de controle de qualidade, não apenas de equipamentos radiológicos mais simples como também de outros tipos de tecnologias de imagens, tais como a tomografia computadorizada, a ultrassonografia, a ressonância magnética e as técnicas de radiologia intervencionista. Os progressos vivenciados pelo programa de controle de qualidade desenvolvido no IEE/USP respondiam a uma demanda crescente de implementações de programas desta natureza em hospitais e clínicas das redes pública e privada. Este processo foi intensificado com a publicação da Resolução Estadual 625/942 que, entre outras coisas, estabelecia a obrigatoriedade de implementação desses programas em todo o Estado de São Paulo. Apesar da evidente geração de conflitos e resistências por parte de alguns profissionais da classe médica, pelo estabelecimento da obrigatoriedade de implementação, algumas das iniciativas tornaram-se casos de sucesso, demonstrando que, em médio prazo, o controle de qualidade traz benefícios a todos os elementos envolvidos. Dado o sucesso da implementação da Resolução 625/94 no Estado de São Paulo, quatro anos mais tarde a Portaria MS 453/983 ampliaria essa iniciativa a todo o país. Todo esse esforço de profissionais da área na época, tentando estabelecer critérios para implementar diversos PGQs cumpriu uma grande tarefa pioneira. Os PGQs previstos por estas publicações visavam a alcançar os serviços de radiologia convencional, odontológico, mamografia convencional, processadoras que deveriam ser controladas diariamente, equipamentos de fluoroscopia com intensificador de imagem e alguma iniciativa em tomografia computadorizada. A Portaria tentou organizar um serviço em termos de se ter um memorial descritivo de proteção radiológica que deixasse os recursos de imagem do serviço o mais expostos possível. Foram estabelecidos alguns critérios de conformidade para parâmetros elétricos e geométricos dos equipamentos e periodicidade mínima de acompanhamento. Porém, apesar de ter oferecido pouco Garantia de qualidade em radiologia diagnóstica direcionamento em termos de controle de doses a pacientes e qualidade de imagem, foi de grande importância para se estabelecer o domínio sobre a irradiação de pacientes, uma vez que os equipamentos passaram a ser calibrados e a funcionar em ambientes melhor controlados, uma vez que houve um grande número de serviços que passou a ter cálculo de blindagens e a realizar levantamentos radiométricos. Com base na implementação da Portaria MS 453/98 e com testes dos exatos parâmetros dos equipamentos nela exigidos, a Figura 1 ilustra alguns resultados alcançados pelo IEE/USP, no período de 2000 a 2006. Os parâmetros mais problemáticos para estes equipamentos de modelos com filme, e com cerca de dez anos de instalação, mostram que a frequência de problemas nos convencionais é maior que em outra modalidade. Por serem mais antigos, a calibração do tempo de exposição ainda era um problema, pois este ainda era selecionado no painel de controle. As doses sempre mostram que há espaço para otimização, principalmente em equipamentos fluoroscópicos comuns. Novos parâmetros de avaliação Com o passar dos anos, os avanços rápidos em tecnologia digital permitiram o desenvolvimento de detectores que capturam a imagem radiológica com propriedades que levam à avaliação de grandezas diferentes daquelas utilizadas em sistemas de écran-filme. As imagens digitais são formadas por elementos de imagem chamados de pixels (picture element), que compõem uma matriz que possui um comprimento e uma largura, que dimensionam a imagem bi-dimensional. Assim, alguns parâmetros fundamentais da imagem vão depender do tamanho desta matriz, considerando-se o tamanho dos pixels e o espaçamento entre eles (pitch)4. A menor unidade da informação digital seria o bit, com dois possíveis estados: 0 ou 1. Assim, a profundidade do bit passa a ter importância na formação da imagem, pois a quantidade de bits é utilizada para codificar a intensidade do sinal (escala de cinza) de cada pixel de uma imagem. Uma vez formada a imagem, alguns parâmetros devem ser considerados para que se possa avaliar a qualidade da informação que traz, e alguns deles são discutidos a seguir. A resolução de contraste é a habilidade de um sistema em distinguir dois objetos com diferentes intensidades de sinal. É afetada pela quantização e limitada pela profundidade de bit5. A resolução espacial é definida como a habilidade em se distinguir pequenos objetos em alto contraste e é limitada pelo tamanho mínimo do pixel. Esta não é melhorada com o aumento da radiação aplicada ao detector; por outro lado, a radiação espalhada ou mesmo fótons de luz podem afetá-la, de maneira a reduzir a resolução4,5. De acordo com o Teorema de Nyquist, dado um tamanho de pixel x, a máxima resolução espacial alcançável seria x/2. A função de transferência de modulação (modulation transfer function, ou MTF) proporciona a descrição mais completa da resolução espacial de um detector. A MTF descreve a eficiência com que variações senoidais no contraste do sinal, em diferentes frequências espaciais, são reproduzidos pelo sistema de obtenção de imagem6. É representada por um gráfico da porcentagem de contraste disponível versus a frequência espacial. Mais especificamente, a MTF tem a função de converter valores de contraste de objetos de diferentes tamanhos em níveis de intensidade de contraste na imagem. A faixa dinâmica é a diferença em intensidade de sinal ou frequência, entre o maior e menor sinal que um sistema pode processar ou mostrar. A densidade ótica é a diferença entre as regiões úteis mais claras e mais escuras da imagem. Aumentando o número de bits por pixel, em uma imagem digital aumenta a faixa dinâmica da imagem5. Em radiologia de écran-filme, a resposta do filme à exposição é representada pela curva sensitométrica, cuja faixa dinâmica é definida como o intervalo linear da curva. Os detectores digitais apresentam uma resposta mais ampla e linear à exposição (Figura 2), ou seja, a função do detector digital melhora com o aumento da exposição. Figura 1. Resultados de testes de qualidade em equipamentos previstos na Portaria MS 453/98, realizados pelo IEE/USP no período de 2000 a 2006. Os parâmetros foram analisados conforme os critérios da Portaria MS 453/983 Figura 2. Gráfico ilustrando a faixa dinâmica de sistemas écranfilme e equipamentos que produzem imagem digital. Nova etapa da história Revista Brasileira de Física Médica. 2009;3(1):91-9. 93 Furquim TAC, Costa PR Porém, deve-se tomar cuidado com este comportamento uma vez que pode haver super exposição do paciente para obtenção de uma imagem que poderia ter qualidade diagnóstica com doses menores. Em radiologia convencional, a análise da qualidade da imagem é voltada praticamente ao contraste e resolução espacial. Esses fatores são frequentemente tratados como se tivessem características absolutas7, desconsiderandose o ruído na imagem como um dos fatores principais. No caso de detectores digitais, tanto o ruído como a razão sinal-ruído (signal-noise ratio, ou SNR) passam a ter importância central na avaliação da qualidade da imagem. A imagem passa a ter tanto contraste quanto nitidez dinâmicos, devido a recursos de pós-processamento; porém, qualquer variação de apresentação da imagem é limitada pelo ruído nela contido. Assim, o parâmetro que passa a determinar a qualidade da imagem é a razão entre o sinal e o ruído, pois este está relacionado ao conteúdo de informação da imagem. Uma grandeza útil para caracterizar o desempenho do detector quanto ao sinal e o ruído é a eficiência de detecção quântica (detective quantum efficiency, ou DQE). A DQE é uma função da frequência espacial e descreve a eficiência de transferência da SNR (ao quadrado) contido no padrão de raios X incidente à saída do detector8. Como, em geral, a obtenção da imagem radiográfica efetiva depende da maximização da SNR e minimização da dose ao detector, pode-se dizer que7-10: Equação 1 onde: SNRentrada: razão sinal-ruído antes de entrar no detector; SNRsaída: razão sinal-ruído quando sai do detector. Assim, por não existir um detector perfeito, DQE<1, o que significa que parte da informação é perdida devido a fontes de ruído no próprio detector. A DQE é um poderoso instrumento para comparar a eficiência e desempenho de diferentes detectores. Aumentando-se os valores de DQE e mantendo-se os níveis de exposição à radiação, podese melhorar a qualidade de imagem. Essas novas grandezas, ou métrica da qualidade de imagem11, que passam a ser importantes para a avaliação da qualidade da imagem, devem ser observadas em equipamentos para radiologia computadorizada ou digital, mamografia computadorizada ou digital, tomografia computadorizada, fluoroscopia digital e outros que utilizam a imagem digital para diagnóstico. Novas tecnologias em equipamentos de radiologia diagnóstica Radiologia computadorizada Um sistema de radiologia computadorizada (computed radiology, ou CR) consiste basicamente em três componentes: as placas de imagem (imaging plates, ou IP), os 94 Revista Brasileira de Física Médica. 2009;3(1):91-9. chassis e o leitor. Uma placa não exposta é colocada em um chassi, que é similar ao de filmes, tanto em tamanho como em forma. A diferença fundamental em relação ao sistema de écran-filme está na aquisição da imagem. O material que compõe a IP tem a propriedade de colocar os elétrons em armadilhas quando absorvem energia no processo de irradiação, formando a imagem latente. Os elétrons são liberados ao serem estimulados com energia suficiente de um feixe laser (l ~ 630 nm) no leitor das IPs. O processo de retirar os elétrons das armadilhas libera fótons com comprimentos de onda próximos ao da luz azul (l ~ 460 nm), os quais são direcionados a um tubo fotomultiplicador, convertidos em sinal elétrico e armazenados como imagem digital9,11. Esse processo é chamado de luminescência fotoestimulável. As IPs são expostas a uma intensa luz branca que tem a propriedade de retirar todos os elétrons,das armadilhas tornando a IP pronta para uso novamente. Radiologia digital Os sistemas de radiologia digital (digital radiology ou DR) são unidades seladas, e podem ser empregadas em radiologia convencional, odontologia, mamografia ou fluoroscopia. Diferente do que acontece em sistemas écranfilme e computadorizados, eles capturam raios X de forma mais direta e produzem uma imagem digital. Eles podem ser classificados em indiretos ou diretos: • indiretos: possuem uma camada de material cintilador que converte os fótons de raios X em fótons do espectro visível, que então são coletados por transistores de filmes finos (TFT) ou por dispositivos de carga acoplado (charge-coupled device ou CCD), convertendoos em sinal elétrico que formarão as imagens digitais. O material cintilador pode ser iodeto de césio dopado com tálio CsI[Tl], que é formado por cristais tipo agulha, e se comporta como fibra ótica, o que evita o espalhamento de luz e a consequente perda de resolução na imagem devido ao espalhamento de luz. • diretos: não precisam de uma etapa intermediária de conversão; os fótons de raios X liberam elétrons diretamente no material e estes são coletados pela matriz de TFT9,10,11,12. Estes detectores são compostos por um cristal de selênio amorfo (a-Se). Comparativamente, os sistemas DR direto e indireto possuem aproximadamente ganho de conversão de raios X e ruído eletrônico aproximados. Uma vantagem do sistema digital direto em relação ao indireto é que pode ser fabricado com tamanhos de pixel menores. No caso da mamografia, esta diferença pode chegar a 30%. Estes sistemas podem apresentar alguns tipos de artefatos de imagem, como fantasmas (ghost). Este é um tipo de artefato que pode aparecer devido à alteração na sensibilidade ou ganho do detetor como um resultado de exposições anteriores a raios X. Fantasmas em detetores de a-Se aparecem como redução de sensibilidade devido Garantia de qualidade em radiologia diagnóstica à captura de elétrons em armadilhas mais profundas do cristal de a-Se e sua subsequente recombinação com buracos livres gerados por raios X. Outros fatores que podem causar artefatos na imagem são defeitos de fabricação e não-uniformidades do detetor. Muitos destes problemas são inevitáveis e são compensados pelos softwares dos equipamentos. Estes detetores necessitam de testes de qualidade frequentes para garantir imagens uniformes. Comparação entre sistemas écran-filme, CR e DR Os sistemas que produzem imagem em formato digital, como CR e DR, apresentam a vantagem da manipulação, visualização, transmissão e armazenamento da imagem. Apesar do filme apresentar melhor resolução espacial em relação aos demais, os sistemas digitais apresentam melhor resolução de contraste, o que em muitos casos pode compensar a espacial. A resolução espacial do CR e do DR são similares, com matriz típica de aproximadamente 2.500 x 2.500 pixels10. Tanto o DR quanto o CR apresentam uma faixa dinâmica muito maior do que qualquer combinação écran-filme. Como os detetores DR possuem DQE maior que CR, têm a possibilidade de produzir alta qualidade de imagem com menores doses de radiação. Porém, isso só ocorre quando se realiza estudos de otimização nos equipamentos instalados. Vários estudos têm sido publicados comparando esses sistemas, principalmente em mamografia, na qual a resolução espacial tem uma importância fundamental13-15. O mais importante é pensar que todos devem ser utilizados com processos de otimização entre dose e qualidade de imagem; caso contrário, nada se pode afirmar acerca do melhor desempenho. Imagem de raios X com sistemas de dupla energia Os sistemas DR e CR permitem que uma nova técnica de obtenção de imagem possa ser utilizada devido ao resultado ser uma imagem digital. Os sistemas de dupla energia podem usar dois detetores separados por uma placa de cobre e usar uma exposição aos raios X ou um detetor com duas exposições. Nos dois casos produzemse imagens de alta e baixa energia de raios X. Desta maneira, imagens de tecido mole ou osso podem ser obtidas. Devido ao fato de dependências energéticas dos coeficientes de atenuação dos efeitos fotoelétrico e Compton para os dois materiais serem diferentes, a subtração de duas imagens obtidas em diferentes tensões (kVp) possibilita produzir imagens separadas do corpo, apenas do osso ou apenas tecido mole, facilitando a visualização de achados10,16. Assim, para a obtenção de duas imagens em alta e baixa energias, há um rápido chaveamento de tensão (kVp) e filtração do feixe, e então aplica-se um algoritmo de imagem para a subtração. Este tipo de tecnologia mostra-se bastante útil em radiografias de pulmão. Mamografia Os equipamentos de mamografia apresentam avanços tecnológicos similares aos de radiologia convencional. Os equipamentos podem utilizar sistemas CR ou DR. O grande desafio dos sistemas que produzem imagens digitais é alcançar uma boa resolução em contraste em doses aceitáveis; manter um pixel máximo em 100 mm em pitches cada vez menores; e manter o maior tamanho possível do detector, habilitando-o a obter imagens de mamas grandes. Mesmo com a busca por parte de todos os fabricantes de um desenvolvimento destes equipamentos, novas técnicas vêm sendo desenvolvidas para aprimorar a detecção prematura de câncer de mama, na tentativa de redução de diagnósticos errados. Tomossíntese Tomossíntese digital é uma técnica de imagem que adquire múltiplas imagens da mama, obtidas de diferentes angulações do tubo de raios X, enquanto a mama permanece em posição constante. De acordo com publicações recentes17, a irradiação da mama é feita de tal forma que a dose de radiação resultante é igual às duas projeções obtidas para rastreamento em uma mesma mama. Com a utilização de diferentes algoritmos de reconstrução, a mama pode ser visualizada em múltiplos planos em várias profundidades paralelas à superfície do detetor, o que pode reduzir o impacto de superposição do tecido. Além disso, pode haver reconstrução de imagens tridimensionais. A tomossíntese baseada em imagens planas brevemente estará disponível por todos os fabricantes de unidades de mamografia digital. As unidades tridimensionais ainda precisam de avanço tecnológico e refinamento matemático para ser colocado no mercado. Mamografia digital com reforço de contraste Aproveitando a tecnologia de aquisição digital da imagem, foram desenvolvidas duas técnicas que utilizam a injeção intravenosa de um agente de contraste iodado em conjunção com um exame de mamografia: • subtração temporal: uma imagem é adquirida em alta energia antes da injeção de contraste e outra depois da injeção, e as imagens são subtraídas. O sistema de mamografia digital tem que ser adaptado de modo que a sensibilidade da técnica de imagem para baixas concentrações de iodo seja maximizada. Dessa forma, uma nova faixa de tensões passa a ter interesse (45 a 49 kVp) e a compressão da mama já não tem a mesma importância, uma vez que pode comprometer o fluxo sanguíneo e deve-se evitar movimento durante a aquisição da sequência de imagens. O tempo longo de aquisição de imagens pode causar movimento da mama e artefatos na imagem resultante. • dupla energia: explora a dependência energética da atenuação de materiais de diferentes composições na mama. Um par de imagens de alta e baixa energia é obtido após a injeção de meio de contraste e combinadas para que melhorem o contraste. O sistema de mamografia deve ser alterado de forma que o espectro produzido tenha energias acima da borda K do iodo (33,2 keV). O protótipo produzido pela GE Healthcare Revista Brasileira de Física Médica. 2009;3(1):91-9. 95 Furquim TAC, Costa PR utiliza um filtro adicional de cobre para a obtenção do espectro desejado. As doses para estas avaliações são estimadas entre 20 a 50% maiores do que para mamografia convencional. Tomografia computadorizada Na tomografia computadorizada, há uma busca para que, ao se adquirir uma imagem, cada elemento de volume (voxel) tenha alta resolução e uma natureza isotrópica, isto é, dimensão igual nos três eixos espaciais, que pode ser definido como elemento ideal. Na década de 1990 foi introduzido o equipamento de tomografia computadorizada (TC) helicoidal, o que constituiu um passo fundamental para o desenvolvimento das técnicas de obtenção de imagem de TC. Em um primeiro momento, o volume de dados poderia ser adquirido sem erro de registro de detalhes anatômicos. Isso orientou o desenvolvimento de técnicas de processamento de imagem tridimensional, tais como reformatação multiplanar, projeção de intensidade máxima, visualização de superfícies sombreadas e técnicas de representação de volume, que têm se tornado um componente vital de imagem médica atualmente. Para muitos cenários clínicos, portanto, a TC helicoidal com um único corte, com rotação do grantry de 1 s, é incapaz de preencher todos os requisitos da busca do elemento ideal. Enquanto a resolução no plano da imagem de TC depende da geometria do sistema e do software de reconstrução selecionado pelo usuário, a resolução longitudinal (eixo z) ao longo do eixo do paciente é determinada pela largura do corte colimado e do algoritmo de interpolação helicoidal. O uso de uma espessura de 5 a 8 mm resulta em um erro entre resolução longitudinal e resolução no plano, que chega de 0,5 a 0,7 mm, dependendo do software de reconstrução. Então, com TC helicoidal com único corte, o ideal de resolução isotrópica pode ser alcançado para faixas de varredura muito limitadas. Em 1998, muitos fabricantes introduziram o sistema de TC com fileiras de multidetetores, que proporcionou considerável melhoria na velocidade de varredura e na resolução longitudinal, e melhor utilização da radiação X empregada18. Aquisições simultâneas de m cortes resulta em um aumento de m-vezes na velocidade, se todos os parâmetros se mantiverem constantes (por exemplo, espessura de corte). Esse aumento de desempenho no TC com filas de multidetetores permitiu a otimização de uma variedade de protocolos clínicos. O tempo de exame para protocolos padrão pode ser reduzido substancialmente, o que provou ser de imediato benefício clínico para um rápido e compreensivo estudo de pacientes com trauma e não-cooperativos. Alternativamente, a faixa de varredura que pode ser coberta dentro de um certo tempo foi estendida em um fator de m, o que é relevante para estadiamento oncológico ou para angiografia com TC com cobertura estendida (por exemplo, extremidades inferiores). O benefício clínico mais importante, portanto, provou ser a habilidade de varrer um dado volume anatômico dentro de um dado tempo de varredura com substancial redução na 96 Revista Brasileira de Física Médica. 2009;3(1):91-9. espessura do corte em resolução longitudinal aumentada m vezes. Por causa disso, o objetivo de resolução isotrópica foi alcançado para muitas aplicações clínicas. Como um próximo passo, a introdução de um sistema de oito fileiras de detetores, em 2000, permitiu menores tempos de varredura, mas ainda não permitiu resolver o problema da resolução longitudinal. A introdução do TC com 16 filas de detetores tornou possível a aquisição rotineira de grandes volumes anatômicos com resolução longitudinal isotrópica em submilímetros e tempos menores que 10 s para 300 mm de cobertura. Enquanto a resolução espacial não for melhorada substancialmente, as duas principais vantagens do TC multi-detetores são: uma resolução realmente isotrópica no plano e um tempo de aquisição curto, que possibilita exames de alta qualidade em pacientes muito debilitados. Atualmente, novas edições de TC com 32, 40 (em combinação com refinadas técnicas de amostragem no eixo Z) e 64 fileiras de detetores estão em uso. Alguns serviços utilizam os equipamentos de 128, 256 e até 320 fileiras. Portanto, em contraste com o TC helicoidal, o desempenho clínico melhora apenas incrementalmente, com o aumento no número de detetores. Os benefícios clínicos reais para a utilização de equipamentos cada vez mais rápidos terão que ser cuidadosamente considerados na luz do esforço técnico necessário e custo, principalmente em dose ao paciente. Com esta rápida evolução tecnológica, a exposição do paciente em TC e os danos potenciais resultantes ganham considerável atenção. Tipicamente, a dose efetiva ao paciente para protocolos de TC pode chegar a valores entre 1 a 2 mSv para cabeça, 5 a 7 mSv para tórax, e 8 a 11 mSv para abdômen. De acordo com Verdun19, o risco de morte por câncer de um paciente adulto que passa por um exame de CT é de 0,12 % para cada passo de varredura em um exame de abdômen. Com este dado, deve-se pensar que todos os protocolos devem passar por constante otimização. Controle de qualidade Com a crescente evolução tecnológica, os programas de controle de qualidade precisam passar por revisões constantes para sempre avaliar e implementar seu principal objetivo: melhor qualidade de imagem com a menor dose possível a todos os envolvidos no processo diagnóstico. Com isso, para os equipamentos que utilizam fósforos fotoestimuláveis (sistemas CR) existe a publicação da American Association of Physicists in Medicine (AAPM Report 9320), que orienta a implementar os testes da Tabela 1 em sistemas CR. Também o Protocolo Español de Control de Calidad21 solicita alguns testes que devem ser realizados nestes sistemas. Com estes novos sistemas há uma dificuldade de avaliação em serviços sem filmes do tamanho do ponto focal. Uma vez que tanto as placas CR quanto o detector DR Garantia de qualidade em radiologia diagnóstica Tabela 1. Testes recomendados para sistemas CR Testes Ruído no IP não irradiado Verificação O sistema de apagamento deve ser capaz de eliminar qualquer sinal no IP. Assim, ao verificar o ruído no IP não irradiado, pode-se perceber o ruído inerente. Uniformidade Verifica a resposta apropriada dos IPs a uma exposição incidente alta. A alta exposição não deve saturar a resposta ADC (por exemplo, todos os pixels com valor de 4.095). Calibração do indicador de exposição É um método equivalente à verificação da velocidade radiográfica para uma dada exposição. A exposição de 1 mR é utilizada para estabelecer a precisão do “índice de exposição”. É como se fosse calibrar o indicador. Linearidade de resposta Este teste determina a resposta do detector e sistemas de leitura para pelo menos três décadas de variação de exposição. Função do feixe laser Verificação da estimulação do feixe laser para transformar a imagem latente em sinal elétrico. Uniformidade e limite de resolução Testes de resolução espacial incluem medições de limite de resolução periférico e central em cada tamanho de IP. Alguns apresentam resolução diferente para cada tamanho: 35 x 35 cm2: 2,5 pl/mm (200 µm) 24 x 30 cm2: 3,3 pl/mm (150 µm) 18 x 24 cm2: 5,0 pl/mm (100 µm) Sensibilidade de baixo contraste Habilidade de responder a pequenas quantidades de radiação. A sensibilidade de contraste deve ser melhorada com o aumento da exposição. Precisão do ciclo de apagamento A habilidade de reutilizar os IPs sem sinais residuais de exposições anteriores é importante. Função do feixe laser Verificar a integridade da varredura, quebras de sinal e jitter. Armazenamento Avaliação da unidade: verificação de velamento na placa CR. Tabela 2. Testes recomendados para sistemas DR21 Testes Razão sinal ruído Razão contraste ruído Resolução espacial Resolução de contraste Contraste detalhe MTF Uniformidade Artefatos Distorção geométrica Verificação Deve-se obter imagem de um objeto uniforme e estabelecer a relação entre valor médio do pixel dentro da imagem do objeto e seu fundo, considerando o ruído (desvio padrão do valor médio do pixel do objeto). Deve-se obter imagem de um objeto uniforme e estabelecer a relação entre valor médio do pixel dentro da imagem do objeto e seu fundo, considerando o ruído tanto da imagem do objeto quando do fundo. Utilizam-se dispositivos com padrões de barras para determinar quantos pares de linha/mm é possível identificar. Uma vez que o contraste é afetado por vários parâmetros, essa verificação é um método para detectar uma faixa em que o sistema pode falhar. Verifica-se o limite de visibilidade para um dado contraste. Utiliza-se um dispositivo de teste com distribuição de frequências conhecidas, no qual se relaciona o sinal em regiões com pares de linhas conhecidos. Verifica-se se existem pixels que não possuem sinal, ou mesmo agrupamentos de pixels. Um dos principais artefatos é o aparecimento de ghost na imagem. A verificação é muito simples. Pode-se verificar distorção por medições de distâncias horizontais e verticais. não possuem resolução espacial comparada aos filmes, e como alguns dispositivos de teste são baseados em resolução espacial por pares de linhas, devem-se aplicar outros critérios de análise para estimar o tamanho do ponto focal. O mais indicado seria a utilização de padrão fenda, porém deve-se atentar às dificuldades de alinhamento para obter a informação mais precisa. Da mesma maneira, deve-se verificar se os métodos mais difundidos para verificação do alinhamento das grades antiespalhamento são possíveis de se aplicar aos novos sistemas. Em mamografia, várias publicações22,23 têm auxiliado na evolução dos PGQs para que realmente se possa atuar na qualidade de imagem e controle de doses aos pacientes em equipamentos CR e DR. Os sistemas DR comercialmente disponíveis ainda possuem os procedimentos de CQ muito dependentes do fabricante do equipamento, uma vez que cada um adota um sistema de aquisição de imagem diferente. Porém, recomendam-se, no mínino, testes que verifiquem os parâmetros mostrados na Tabela 2. Os demais tipos de equipamentos, como tomossíntese ou dupla energia, ainda não possuem publicações acerca de como desenvolver procedimentos padronizados de avaliação de qualidade de imagem e dose, e de forma rápida e eficiente. Outra grande dificuldade em implementar processos de otimização de qualidade de imagem e dose diz respeito à tomografia computadorizada, pois com os equipamentos multidetetores, o CTDI tem sido muito questionado em termos de índice de dose. Quão representativo é em termos da dose real ao paciente nos exames tomográficos? Além disso, como verificar as grandezas de imagem em um equipamento com 128, 256 ou mesmo 320 cortes? O Revista Brasileira de Física Médica. 2009;3(1):91-9. 97 Furquim TAC, Costa PR Quadro 1. Testes de qualidade típicos em tomografia computadorizada Padrão de dose ao paciente: abdômen, crânio, coluna Verificação da posição do objeto de teste e alinhamento Precisão do sistema de alinhamento luminoso Espessura de corte Incrementos entre cortes Exatidão e incremento de posicionamento da mesa Contraste de alvos esféricos Linearidade de número CT Resolução espacial de alto contraste Resolução de baixo contraste Razão Sinal Ruído e ruído na imagem Uniformidade do número CT Calibração e uniformidade do número CT no ar Não uniformidade integral Avaliação da inclinação do gantry volume de imagens a ser avaliada no CQ passa ser muito grande e o tempo de análise, proporcional. Um teste de qualidade típico em TC deveria conter no mínimo as avaliações mostradas no Quadro 1. O físico habituado a avaliar TC percebe que, para se extrair as informações necessárias quando se altera a tecnologia adotada, muito estudo deve ser realizado, mesmo porque, como para sistemas CR em radiologia convencional cada fabricante adota um projeto, aumenta a quantidade de procedimentos a serem avaliados e imagens a serem interpretadas. Todas estas modalidades de equipamentos visualizam as imagens digitais em monitores, que passam a ter importância fundamental na obtenção do diagnóstico. Assim, estes precisam ser avaliados com muito critério24. Os principais testes a serem implementados para verificação de performance destes monitores utilizam padrões de imagem que são disponibilizados pela AAPM na rede de computadores e estão apresentados no Quadro 2. Discussão e conclusão O principal problema com o qual o físico médico pode se deparar atualmente é a velocidade com que as tecnologias se desenvolvem. O controle de qualidade com a missão de verificar as doses aos pacientes e aos trabalhadores ocupacionalmente expostos se depara com este desafio, porque para processos de otimização há necessidade de se conhecer os mecanismos de obtenção da imagem para que se interfira positivamente no resultado do diagnóstico. Após a implementação da Portaria MS 453/98, muito esforço foi feito para se oferecer qualidade aos serviços que tentavam se adequar às normas. Porém, a grande preocupação inicial foi no sentido de corrigir defeitos elétricos, mecânicos e geométricos dos equipamentos emissores de radiação. O que se tornou um grande problema foi 98 Revista Brasileira de Física Médica. 2009;3(1):91-9. Quadro 2. Principais testes para avaliação de desempenho de monitores Distorção geométrica da imagem no monitor. Reflexão na tela do monitor. Uniformidade da luminância. Resposta de luminância e de contraste. Resolução do monitor. Ruído na imagem. Velamento por reflexão interna da tela do monitor a crença, de uma parcela da comunidade, de que se tratava de um controle de qualidade. Na verdade todo o estudo de doses, que é a função dos físicos nos processos, foi esquecido. Modalidades como mamografia, intervencionismo, tomografia computadorizada e toda a gama de exames pediátricos ficaram grandemente prejudicadas. O futuro do controle de qualidade em radiologia diagnóstica, com equipamentos cada vez mais sofisticados, leva-nos a concluir que é fundamental o controle de doses em processos rotineiramente otimizados. A função da educação continuada dos físicos médicos que atuam na área deve prever exatamente a discussão deste aspecto pouco abordado em serviços de diagnóstico. Há uma profunda necessidade de que o PGQ seja menos documental e mais eficaz quanto a doses e melhores qualidades de imagem. Agradecimentos Os autores agradecem aos editores pelo honroso convite. Referências 1. International Electrotechnical Commission. Evaluation and routine testing in medical imaging departments. Part 1: general aspects. IEC 61223-1. 1st ed.; 1993. 2. Secretaria de Estado da Saúde. Resolução SS 625/94, de 14 de dezembro de 1994. In: Diário Oficial do Estado. Norma técnica que dispõe sobre o uso, posse e armazenamento de fontes de radiação ionizante no âmbito do Estado de São Paulo. São Paulo: Secretaria de Estado da Saúde; 1994. 3. Brasil. Ministério da Saúde. Portaria MS 453/98, de 02 de junho de 1998. In: Diário Oficial da União. Diretrizes de proteção radiológica em radiodiagnóstico médico e odontológico do Ministério da Saúde. Brasília, DF: Ministério da Saúde; 1998. 4. Körner M, Weber CH, Wirth S, Pfeifer KF, Reiser MF, Treitl M. Advances in digital radiography: physical principles and system overview. Radiographics. 2007;27(3):675-86. 5. Krupinski EA, Williams MB, Andriole K, Strauss KJ, Applegate K, Wyatt M, et al. Digital radiography image quality: image processing and display. J Am Coll Radiol. 2007;4(6):389-400. 6. Cowen AR, Kengyelics SM, Davies AG. Solid-state, flat-panel, digital radiography detectors and their physical imaging characteristics. Clin Radiol. 2008;63(5):487-98. 7. Cowen AR, Davies AG, Kengyelics SM. Advances in computed radiography systems and their physical imaging characteristics. Clin Radiol. 2007;62(12):1132-41. Garantia de qualidade em radiologia diagnóstica 8. Yaffe MJ, Rowlands JA. X-ray detectors for digital radiography. Phys Med Biol. 1997;42(1):1-39. 9. Persliden J. Digital radiology and the radiological protection of the patient. Eur Radiol Syllabus. 2004;14(1):50-8. 10. Wolbarst AB, Zamenhof RG, Hendee WR. Advances in Medical Physics 2006, Madison, Wisconsin: Medical Physics Publishing; 2006. 11. Maidment ADA. Quality control issues for computed and direct radiography. In: Reiner BI, Siegel EL, Carrino JA. Quality assurance: meeting the challenge in the digital medical enterprise. Great Falls, Virginia: Society for Computer Applications in Radiology; 2002. p. 9-27. 12. Lança L, Silva A. Digital radiography detectors: a technical overview: part 1. Radiography. 2009;15(1):58-62. 13. Monnin P, Gutierrez D, Bulling S, Lepori D, Valley JF, Verdun FR. Performance comparison of an active matrix flat panel imager, computed radiography system, and a screen-film system at four standard radiation qualities. Med Phys. 2005;32(2):343-50. 14. Fernandez JM, Ordiales JM, Guibelalde E, Prieto C, Vañó E. Physical image quality comparison of four types of digital detector for chest radiology. Radiat Prot Dosimetry. 2008;129(1-3):140-3. 15. Rong JX, Shaw CC, Johnston DA, Lemacks MR, Liu X, Whitman GJ, et al. Microcalcification detectability for four mammographic detectors: flatpanel, CCD, CR, and screen/film. Med Phys. 2001:29(9):2052-61. 16. Fass L. Imaging and cancer: a review. Mol Oncol. 2008;2(2):115-52. 17. Schulz-Wendtland R, Fuchsjäger M, Wacker T, Hermann KP. Digital mammography: an update. Eur J Radiol. In press 2009. 18. Flohr TG, Schaller S, Stierstorfer K, Bruder H, Ohnesorge BM, Schoepf UJ. Multi-detector row CT systems and image-reconstruction techniques. Radiology. 2005;253(3):756-73. 19. Verdun FR, Gutierrez D, Schnyder P, Aroua A, Bochud F, Gudinchet F. CT dose optimization when changing to CT multi-detector row technology. Curr Probl Diagn Radiol. 2007;36(4):176-84. 20. American Association of Physicists in Medicine. Acceptance Testing and Quality Control of Photostimulable Storage Phosphor Imaging Systems. American Association of Physicists in Medicine One Physics Ellipse, College Park, AAPM Report 93, 2006. 21. Sociedad Española de Física Médica – Sociedad Española de Protección Radiológica. Protocolo Español de Control de Calidad en radiodiagnóstico, 2002. 22. Perry N, Broeders M, De Wolf C, Törnberg S, Holland R, Von Karsa L. European guidelines for quality assurance in breast cancer screening and diagnosis. 4th ed. Bélgica: European Communities; 2006. 23. NHS Breast Screening Programme (NHSBSP) Routine quality control testes for full field digital mammography systems. Prepress Projects Ltd, Perth, UK, 2007 24. American Association of Physicists in Medicine. Assessment of display performance for medical imaging systems. American Association of Physicists in Medicine One Physics Ellipse, College Park, AAPM Report 03, 2005. Revista Brasileira de Física Médica. 2009;3(1):91-9. 99 Artigo de Revisão Revista Brasileira de Física Médica. 2009;3(1):101-15. Aspectos físicos e técnicos da Radiologia Intervencionista Physical and technical aspects in Interventional Radiology Lucía Canevaro1 Doutora em Biociências Nucleares (Física Médica). Pesquisadora do Serviço de Física Médica de Radiodiagnóstico do Instituto de Radioproteção e Dosimetria/Comissão Nacional de Energia Nuclear (IRD/CNEN), Rio de Janeiro (RJ), Brasil. 1 Resumo O presente trabalho faz uma revisão sobre alguns conceitos utilizados em Radiologia Intervencionista. São descritas as grandezas e unidades utilizadas para dosimetria de pacientes e profissionais, procedimentos de caracterização do equipamento de raios X e procedimentos dosimétricos em pacientes e profissionais. Descrevem-se algumas particularidades dos equipamentos de raios X dedicados à Radiologia Intervencionista e alguns aspectos relacionados à proteção radiológica. Palavras-chave: Radiologia Intervencionista; Dosimetria; Controle de qualidade; Proteção radiológica. Abstract This paper is a review of some concepts used in Interventional Radiology. It specifies dosimetric quantities and units applied for both patient and staff. Characterization of the X-ray equipment and dosimetric procedures in patients and professionals are discussed. We also describe certain characteristics of the X-ray equipment dedicated to Interventional Radiology and some aspects of radiological protection. Keywords: Interventional Radiology; Dosimetry; Quality control; Radiological protection. Radiologia Intervencionista Desde a década de 19601, os procedimentos intervencionistas com raios X na medicina têm aumentado significativamente e continuam a crescer à medida que técnicas minimamente invasivas, assim como equipamentos com tecnologia cada dia mais sofisticada, vêm sendo desenvolvidos. Define-se Radiologia Intervencionista (RI) como aqueles “procedimentos que compreendem intervenções diagnósticas e terapêuticas guiadas por acesso percutâneo ou outros, normalmente realizadas sob anestesia local e/ou sedação, usando a imagem fluoroscópica para localizar a lesão ou local de tratamento, monitorar o procedimento, e controlar e documentar a terapia”2. Meios de contraste são utilizados para a visibilização de órgãos ou tecidos radiotransparentes na tela de um monitor. Algumas das vantagens da RI são a possibilidade de realização de procedimentos complexos com cortes cirúrgicos de pequena extensão, a diminuição da probabilidade de infecções, o rápido restabelecimento do paciente, a redução do tempo de internação e a diminuição dos custos hospitalares3, tratando-se de uma técnica minimamente invasiva, segura e altamente eficaz. Entretanto, a RI é uma das especialidades que proporciona as maiores doses a pacientes e profissionais4,5. Em algumas situações, é possível produzir, nos indivíduos, lesões radioinduzidas às vezes severas. Isto porque os tempos de exposição são longos, as taxas de dose são altas, há grandes quantidades de imagens adquiridas6-8, além de inadequada colimação e uso de filtros, entre outras razões. Devido às suas vantagens, a frequência dos procedimentos de RI tem aumentado rapidamente nos últimos anos2,9,10. Nos países em que o sistema de saúde é desenvolvido, a média anual de procedimentos em RI, entre os anos de 1991 e 1996, foi de 12,73 procedimentos para cada 1.000 habitantes. Nos países como o Brasil, que não estão inseridos no grupo anterior, a média anual foi de 1,7311. Segundo dados do DATA SUS12, entre 1995 e 2001 houve um aumento de 77,6% na frequência de procedimentos em RI no Brasil, sendo que em 2007 foram realizados 49.729 procedimentos. Essas técnicas foram originalmente desenvolvidas por radiologistas, no início da evolução das técnicas guiadas fluoroscopicamente; logo em seguida os cardiologistas entraram nesse campo e mundialmente ainda representam a especialidade com maior número de procedimentos. Correspondência: Instituto de Radioproteção e Dosimetria. Serviço de Física Médica de Radiodiagnóstico. Av. Salvador Allende s/n. CEP: 22780-160. Jacarepaguá. Rio de Janeiro. Brasil. [email protected] Associação Brasileira de Física Médica® 101 Canevaro L No entanto, a RI foi ‘descoberta’ por muitas outras especialidades de não-radiologistas (urologistas, gastroenterologistas, cirurgiões ortopédicos, cirurgiões vasculares, traumatologistas, anestesistas, pediatras), que, cada vez mais utilizando estas técnicas, vão se tornando ‘intervencionistas’. Com o aumento das técnicas e da complexidade dos procedimentos em radiodiagnóstico e com o aparecimento de lesões radioinduzidas, e devido ao fato que a maioria destes profissionais teve pouca ou nenhuma formação em proteção radiológica, existe uma necessidade urgente de informá-los sobre os riscos da radiação e como minimizálos na sua prática quotidiana2. Para poder realizar essa tarefa com eficiência, os físicos médicos devem ter conhecimentos sólidos sobre aspectos físicos, técnicos, de proteção radiológica e, principalmente, ter suficiente familiaridade com a prática médica (experiência em hospital). Nessas condições é possível desenvolver programas de garantia e controle de qualidade, assessorar pessoal médico sobre todos os aspectos relacionados à aquisição, reparo, substituição e controle de equipamentos, assim como implementar medidas de proteção radiológica de pacientes e profissionais, e tornar a prática o mais otimizada possível. Efeitos estocásticos e determinísticos em radiologia intervencionista As altas doses ministradas nos procedimentos intervencionistas, se não conhecidas e otimizadas, podem aumentar os riscos de efeitos estocásticos e ocasionar efeitos determinísticos em pacientes e profissionais. Em 1994, o Food and Drug Administration (FDA) publicou um documento sobre lesões induzidas na pele decorrentes de procedimentos intervencionistas. Estas lesões não aparecem imediatamente, pelo que o médico não pode perceber danos ao observar o paciente imediatamente após o exame13-18. Relatos sobre efeitos determinísticos em pacientes e profissionais foram publicados pela International Commission on Radiation Protection (ICRP) e outros autores2,16. Além das lesões em pacientes, têm sido observados casos de catarata e sérios danos nas mãos dos médicos que realizam os exames2,16 (Figura 1). Na Tabela 1 são apresentados os limiares de dose para a ocorrência de alguns efeitos determinísticos na pele de pacientes submetidos a procedimentos guiados fluoroscopicamente. A dose necessária para causar lesão cutânea é tipicamente 3 Gy para eritema (entre 1 e 2 dias após a exposição) e depilação temporária (entre 2 e 3 semanas após a exposição). Tempo adicional de fluoroscopia acima do limiar de dose aumenta a gravidade das lesões: Dano vascular é esperado para doses na pele acima de 20 Gy. Na atualidade, equipamentos fluoroscópicos produzem taxas típicas de kerma no ar da ordem de 0,02 Gy/ min para modo normal de fluoroscopia; porém, podem atingir 0,2 Gy/min no modo de alta taxa de dose2. A taxa de exposição máxima permitida nos Estados Unidos pela 102 Revista Brasileira de Física Médica. 2009;3(1):101-15. FDA é de 10 R/min (100 mGy/min) e, para modo de alta taxa, 20 R/min (200 mGy/min). O risco de aparecimento de lesões na pele está associado a tempos prolongados de fluoroscopia. O tempo necessário para atingir o limiar de dose para depilação temporária é tipicamente maior do que 90 minutos em modo fluoroscopia (0,03 Gy/min). No modo de máxima taxa de exposição, o tempo para ministrar esta dose em um único local da pele é de 30 minutos no modo normal de fluoro e 15 minutos no modo alta taxa. Grandes pacientes são mais suscetíveis a lesões na pele, devido ao fato de o controle automático de brilho mudar automaticamente os fatores da técnica para aumentar a produção de raios X19. A maioria das lesões severas pode ser evitada conhecendo e quantificando não apenas a radiação que sai do tubo de raios X e chega ao paciente, mas também a qualidade da imagem suficiente para a intervenção. Além disso, é indispensável fazer uso racional dos raios X. Grandezas e unidades de interesse para radiologia intervencionista Grandezas para pacientes Os principais objetivos da dosimetria de pacientes são determinar grandezas dosimétricas para estabelecer níveis de referência de diagnóstico (DRL)20 e realizar avaliações comparativas de risco. No ultimo caso, é necessário conhecer a dose média nos órgãos e tecidos em risco. Um objetivo adicional, não menos importante, é o de avaliar o desempenho do equipamento de raios X, como parte do processo de garantia da qualidade. Figura 1. Exemplos de efeitos determinísticos em pacientes16 (ulceração nas costas) e em profissionais (opacidade do cristalino)2. Aspectos físicos e técnicos da Radiologia Intervencionista Em certas situações, interessa medir diretamente no paciente. Já para o controle de parâmetros técnicos, para a comparação de diferentes sistemas e para otimização, é preferível realizar medidas usando um fantoma padrão para simular o paciente. Em radiologia intervencionista, são requeridos instrumentos especiais cujo design e desempenho se ajustem às necessidades clínicas. É o caso, por exemplo, dos medidores do produto kerma-área. O uso destes dosímetros e/ou a interpretação dos resultados obtidos requer técnica e conhecimento especializados. É essencial, também, padronizar os procedimentos para a medida das grandezas de interesse (Figura 2)21,22. A grandeza kerma no ar é utilizada como base para todas as grandezas de aplicação específica medidas diretamente21,22. Kerma e taxa de kerma O kerma, K, é o quociente entre dEtr e dm, conforme a Equação 1. Unidade: J/kg. Nome especial gray (Gy). (1) Onde: K: kerma; dEtr: soma das energias cinéticas iniciais de todas as partículas carregadas liberadas pelas partículas não carregadas em dm; dm:a massa de um material. Já a taxa de kerma é o quociente entre dK e dt, conforme a Equação 2. (2) Onde: K: kerma; dK: incremento de kerma; dt: intervalo de tempo. Unidade: J/kg.s. Nome especial gray por segundo (Gy/s). Kerma no ar incidente (Ki ) É o kerma no ar de um feixe de raios X incidente medido no eixo central do feixe à dFSD (Figura 2), isto é, no Tabela 1. Limiares para ocorrência de efeitos determinísticos2 Efeito Limiar aproximado de dose [Gy] Tempo de aparição do efeito 2 3 7 14 18 24 18 > 12 2-24 horas Aproximadamente 3 semanas Aproximadamente 3 semanas Aproximadamente 4 semanas Aproximadamente 4 semanas > 6 semanas > 10 semanas > 52 semanas Eritema imediato transiente Depilação temporária Depilação permanente Escamação seca Escamação úmida Ulceração secundária Necrose dérmica isquêmica Necrose dérmica Minutos de fluoroscopia para uma taxa de alta dose de 200 mGy/min 10 15 35 70 90 120 90 75 Tubo de raios X Foco Distância ao foco, d Distância focosuperfície do paciente dFSD Distância focoreceptor de imagem dFID Colimador Medidor de produto kerma-área Rendimento Y(d) Kerma no ar incidente, Ki Paciente Radiação espalhada Kerma de entrada na superfície, Ke Dose em órgão, DT Dose absorvida no tecido, D Mesa do paciente Receptor de imagem Feixe primário Figura 2. Grandezas de interesse para estimativa das doses em pacientes e para caracterização do equipamento de raios X2. Revista Brasileira de Física Médica. 2009;3(1):101-15. 103 Canevaro L plano de entrada na pele, ou na superfície do simulador. Somente inclui a radiação incidente e não a radiação retroespalhada. Unidade: J/kg, ou gray (Gy). Kerma de entrada na superfície (Ke ) É o kerma no ar de um feixe de raios X incidente medido no eixo central do feixe à dFSD (Figura 2), isto é, no plano de entrada na pele, ou na superfície do simulador, sendo que a radiação incidente no paciente ou fantoma e a radiação retroespalhada são incluídas na definição. Unidade: J/kg, ou gray (Gy). Rendimento (Y(d)) Define-se como o quociente entre K(d) e PIt, conforme a Equação 3: Y(d)=K(d)/PIt (3) Onde: Y(d): rendimento; K(d): kerma no ar a uma distância especificada, d (geralmente 1 m), do foco do tubo de raios X; PIt: produto corrente por tempo. Unidade: J/kg.C ou Gy/mAs. Produto kerma-área (PKA ) Define-se PKA como a integral do produto do kerma no ar em uma área, dxdy, do feixe de raios X em um plano perpendicular ao eixo central do feixe de raios X, pela área do feixe no mesmo plano (Equação 4). Unidade: (J/kg).m2 ou Gy.m2. PKA=òAK(x, y)dxdy (4) A radiação espalhada pelo paciente é excluída nesta definição. O plano de medida deve estar suficientemente afastado do paciente para não receber uma quantidade significativa de radiação espalhada. O valor do PKA independe da distância ao foco do tubo, de modo que a atenuação do ar e a radiação extra-focal podem ser desconsideradas, e pode ser medido em qualquer plano entre o colimador e o paciente. É uma grandeza mais relacionada com o risco, porque na sua medida está implícita a medida da área que dá uma indicação da quantidade de energia ministrada ao paciente23. Dose em órgãos (DT ) A dose média absorvida em um dado órgão ou tecido (ou ‘dose em órgão’, DT), se define como o quociente entre eT e mT (Equação 5): Onde: DT: dose em órgão; de: energia cedida ao tecido dm; dm: massa do tecido ou órgão. 104 Revista Brasileira de Física Médica. 2009;3(1):101-15. (5) DT é usado como um indicador da probabilidade de efeitos estocásticos da radiação. A distribuição de DT nos órgãos e tecidos relevantes do corpo não pode ser obtida através de medidas diretas em pacientes. Dose equivalente (HT) A grandeza que leva em consideração a qualidade da radiação é a dose equivalente (HT), definida como o valor médio da dose absorvida DT,R num tecido ou órgão T, obtido sobre todo o tecido ou órgão T, devido à radiação R (Equação 6). Unidade: J/Kg, que recebe o nome especial de sievert (Sv). (6) sendo wR o fator de peso da radiação, tabelado na ICRP 10324. Para as energias empregadas em radiodiagnóstico, wR é igual a 1. Dose efetiva (E) É definida como a soma ponderada das doses equivalentes em todos os tecidos ou órgãos do corpo (Equação 7). Também expressa em Sv. A dose efetiva é uma grandeza que não é diretamente mensurável. (7) Onde: HT: dose equivalente no tecido ou órgão; wT e T: fator de peso para o tecido ou órgão T correspondente, tabelado na ICRP 10324. A aplicação em exposições médicas da dose efetiva como grandeza para estimar o risco do paciente tem sido uma questão polêmica25 e ainda não há um consenso sobre a efetividade do seu uso26. Dose máxima na pele Para a estimativa e prevenção de efeitos determinísticos, a grandeza mais adequada é a dose máxima na pele, geralmente obtida mediante o uso de filmes lentos ou radiocrômicos. Grandezas para profissionais As elevadas exposições recebidas em diferentes regiões do corpo dos profissionais que realizam procedimentos intervencionistas são devidas principalmente às seguintes razões: proximidade ao tubo de raios X; não utilização de acessórios individuais de proteção; aquisição de muitas imagens; longos tempos de exposição; uso de equipamento e tecnologia impróprios; manutenção não otimizada; taxas de dose elevadas; falta de treinamento de técnicos, médicos, etc.; técnicas intervencionistas utilizadas por médicos de diferentes especialidades, não radiologistas; entre outras. Portanto, previamente à aplicação de procedimentos de otimização, faz-se necessário Aspectos físicos e técnicos da Radiologia Intervencionista quantificar os níveis de radiação recebidos por estes profissionais. Basicamente, são utilizadas duas grandezas: Equivalente de dose pessoal (HP(d)) e dose efetiva (E) O HP(d) é uma grandeza operacional definida como o equivalente de dose em tecido mole, em uma profundidade d (expressa em milímetros), abaixo de um ponto especificado sobre o corpo. Unidade: J/Kg ou sievert (Sv). Para radiações fortemente penetrantes recomenda-se o uso do HP(10), que é o equivalente de dose pessoal em uma profundidade de 10 mm. Para radiações fracamente penetrantes, é recomendado o uso de Hp em uma profundidade de 3 mm, HP(3), para estimar a dose no cristalino; e em uma profundidade de 0,07 mm, HP(0,07), para estimar a dose na pele e/ou extremidades27. A grandeza HP(10) também é utilizada para estimar a dose efetiva ocupacional através da avaliação do dosímetro individual usado na posição mais exposta do tórax28. Fluoroscopia e sistemas de raios X para radiologia intervencionista A fluoroscopia proporciona uma imagem em movimento, em tempo real, permitindo sua aplicação em exames nos quais se deseja obter imagens dinâmicas de estruturas e funções do organismo com o auxílio de meios de contraste à base de iodo ou bário. A imagem gerada pela fonte de raios X é formada em uma tela fluorescente de entrada de um intensificador de imagem, que converte a imagem dos raios X do paciente em uma imagem luminosa. A intensidade da luz é diretamente proporcional à intensidade de raios X, e portanto a imagem é fiel29. Na Figura 3 se mostra um equipamento fluoroscópico típico para intervencionismo. Componentes de um Equipamento Fluoroscópico Gerador de raios X O gerador de raios X modifica a tensão e a corrente de entrada proveniente da rede elétrica, proporcionando as condições necessárias para a produção do feixe de raios X. O gerador controla o início e término da exposição e possibilita a seleção das energias, taxa de dose e tempos de exposição. O gerador é ligado ao sistema de controle automático de exposição (CAE), que controla os parâmetros operacionais, tensão máxima (kVp) e corrente (mA). Fototemporizadores e subsistemas de controle de brilho automático medem a exposição da radiação incidente no receptor de imagem para gerar instantaneamente um sinal de retorno que permite adequar as densidades das imagens adquiridas ou o brilho da imagem fluoroscópica. O CAE age para manter um nível constante de brilho da imagem observada em um monitor, mesmo quando o intensificador de imagem se movimenta por partes do corpo de diferentes densidades e coeficientes de atenuação. O brilho constante é alcançado ajustando a kVp e a corrente, automaticamente, tanto quanto for necessário para manter o nível de radiação na entrada do intensificador de imagem. Os geradores usados para fluoroscopia podem ser dos tipos monofásico e trifásico, de potencial constante e de alta frequência. Os geradores de alta frequência, usados nos equipamentos modernos, proveem uma reprodutibilidade de exposição superior, são mais compactos, de menor custo de aquisição e de menor tempo para reparos e manutenção30. Nos estudos cardíacos, requer-se que o gerador seja capaz de produzir uma faixa de quilovoltagem entre 80 e 100 kVp, de forma uniforme e de pulsos com tempos muito curtos31. Fluoroscopia contínua e pulsada Em fluoroscopia, são usados dois modos para fornecer energia ao tubo de raios X: exposição contínua e pulsada. Na fluoroscopia contínua, o gerador provê uma corrente do tubo contínua enquanto a fluoroscopia é acionada. As imagens são adquiridas para uma taxa de 30 fotogramas por segundo, sendo um tempo de aquisição de 33 milisegundos por imagem. No modo pulsado, são produzidos pulsos de radiação curtos e intensos, sendo possível controlar sua altura, largura e frequência (Figura 4). Mudando a taxa de pulsos de 30 para 7,5 pulsos/s, uma redução de dose de 75% pode ser alcançada facilmente. Uma vantagem da fluoroscopia pulsada é a melhoria na resolução temporal. É possível reduzir o ‘borrão’ (‘blur’ em inglês) causada pelo movimento na imagem, quando são usados tempos de aquisição mais curtos, tornando a técnica útil e possível de ser usada para examinar estruturas em movimento rápido, como as obtidas nas aplicações cardiovasculares. A frequência de pulsos pode ser modificada de maneira a obter uma redução da dose cumulativa. No entanto, a fluoroscopia pulsada nem sempre significa que a dose será menor que a da contínua. A taxa de dose depende da dose por pulso (altura e largura do pulso) e do número de pulsos por segundo. Os geradores de potencial constante são capazes de gerar pulsos mais curtos de exposições, enquanto os de alta Figura 3. Equipamento arco em C, utilizado para procedimentos intervencionistas. Revista Brasileira de Física Médica. 2009;3(1):101-15. 105 Canevaro L frequência e trifásicos produzem alguns pulsos ligeiramente mais longos. Na imagem vascular periférica, é utilizada uma taxa moderada de aquisição de imagens (baixa taxa de imagens por segundo). Na angiografia cardíaca, as exposições com altas taxas de aquisição (60 a 90 imagens por segundo) podem ser necessárias e o gerador deve ser capaz de produzir tensões uniformes e pulsos com tempos de exposição muito curtos31. Figura 4. Esquema representativo da emissão de radiação no modo pulsado. Figura 5. Esquema dos elementos de um tubo de raios X31. 106 Revista Brasileira de Física Médica. 2009;3(1):101-15. Tubo de raios X O tubo consiste em dois eletrodos metálicos, o catodo e o anodo, contidos dentro de um encapsulamento de vidro a vácuo (Figura 5). O catodo emite elétrons por emissão termoiônica. Estes elétrons são acelerados até o anodo e atingem um ponto denominado ponto focal do alvo, produzindo raios X e calor. A tensão e a corrente aplicadas ao tubo definem as características da radiação X produzida. A corrente aplicada ao tubo (mA) é relacionada ao número de elétrons, e portanto ao número de fótons produzidos; já a tensão aplicada (kV) afeta a energia dos raios X, e portanto seu poder de penetração. O ponto focal é a região do alvo do tubo onde ocorrem as colisões dos elétrons emitidos pelo filamento, e é o local de origem dos raios X produzidos. O tamanho do ponto focal é muito importante para a formação da imagem. Um ponto focal menor resulta em imagens mais nítidas31. Para aplicações clínicas de angiografias e de procedimentos intervencionistas, é importante que o tubo de raios X tenha algumas características adicionais: • rotação de anodo de alta velocidade: devido ao requerimento de registro de imagens de alta velocidade, a quantidade de calor dissipado pode ser considerável, sendo necessário um tubo de raios X com uma grande capacidade de dissipação do calor. Para melhorar a dissipação de calor, pode ser usada uma rotação anódica de alta velocidade (acima de 10.000 rpm); Aspectos físicos e técnicos da Radiologia Intervencionista • circulação de água ou dissipador de calor de óleo: pelo exposto acima, é necessária a instalação de um sistema de circulação por água ou um trocador de calor de óleo com ventiladores de resfriamento. A maioria dos equipamentos intervencionistas dispõe de filtros adicionais, geralmente de cobre (Figura 6), além dos filtros de alumínio encontrados em equipamentos convencionais. Este filtra os componentes de baixa energia do espectro de raios X que não são necessários para criar a imagem, causando o ‘endurecimento’ do feixe e reduzindo não somente a dose na pele do paciente, mas também a radiação espalhada para o operador. Durante a fluoroscopia, o espectro de raios X é permanentemente endurecido pela presença deste filtro. Na aquisição digital, mediante o controle automático da exposição, é calculada a equivalência em água do paciente a partir da relação kV/mA e da largura do pulso. Dependendo deste valor, o filtro de cobre é automaticamente retirado da trajetória do feixe, caso a qualidade da imagem se torne inaceitável como consequência da alta densidade do paciente. Os equipamentos também vêm providos do chamado ‘colimador cardíaco’, que consiste em lâminas de alumínio que podem ser deslocadas para dentro da região irradiada, de modo a compensar efeitos de brilho intenso na imagem, quando em alguma região da imagem não há objeto atenuador e o feixe incide diretamente sobre o intensificador de imagem (Figura 6). A posição do filtro é mostrada graficamente na última imagem fluoroscópica (‘last image hold’, em inglês, LIH), de maneira que é possível mudar a posição do filtro sem necessidade da emissão de radiação. Grade A grade é utilizada para reduzir a radiação espalhada e aumentar o contraste e, consequentemente, a qualidade da imagem. A grade pode (e deve) ser retirada nos casos em que o paciente irradiado não produz espalhamento significativo. Desta maneira, é possível obter uma redução importante da dose. Tubo intensificador de imagem Sistemas de fluoroscopia usam intensificadores de imagem para converter uma imagem de baixa intensidade em uma imagem minimizada de alta intensidade de brilho. O tubo intensificador de imagem (II) é um dos componentes principais do equipamento fluoroscópico. Este dispositivo é responsável pela transformação dos fótons de raios X em um sinal luminoso. Os principais componentes de um tubo II são (Figura 7)32: • tubo de vidro a vácuo: permite o fluxo de elétrons do fotocatodo para o anodo; • tela fluorescente de entrada: composta de cristais de CsI ativado com sódio (de 15a 40 cm de diâmetro); • fotocatodo: fina camada de compostos de Cs e Sb, de onde são liberados elétrons por foto-emissão; • lentes eletrostáticas: placas de metal positivamente carregadas que focam e aceleram os elétrons até a tela de saída; • • anodo: placa carregada positivamente que atrai os elétrons até a tela de saída. Diferença de potencial ente anodo e catodo: de 25a 35 kV; tela fluorescente de saída: peça de vidro ou alumínio de 2,54 cm de diâmetro coberta com fina camada de sulfeto de Cd e Zn. Emite luz (amarelo/verde) de 500 a 650 nm. Quando um fóton chega à tela fluorescente na entrada do intensificador de imagem, é produzida uma cintilação. Os fótons de luz desta cintilação ejetam elétrons do fotocatodo adjacente. Estes elétrons são acelerados até o anodo por meio de eletrodos focalizadores que, quando Figura 6. Lâmina de cobre na saída do sistema de colimação, geralmente presente nos equipamentos intervencionistas; filtro ‘cardíaco’; imagem congelada (LIH), mostrando a presença do filtro. (Foto: L. Canevaro). Figura 7. Esquema de um tubo intensificador de imagem e princípio de funcionamento31. Revista Brasileira de Física Médica. 2009;3(1):101-15. 107 Canevaro L atingem a tela de saída, criam um pulso de luz muito maior e mais brilhante do que aquele produzido na tela de entrada. O sinal de saída, que é cerca de 5.000 a 10.000 vezes maior que o sinal da tela de entrada, é devido ao ganho de brilho que ocorre no intensificador de imagem. Os intensificadores de imagem possuem telas de entrada entre 13 e 40 cm de diâmetro. A tela de saída tem, geralmente, de 2,5 a 3,5 cm de diâmetro. Intensificadores de 13 cm de diâmetro produzem maior magnificação e melhor definição de detalhes, e geralmente são utilizados em angioplastia coronária. Intensificadores de 23 cm são utilizados na ventriculografia esquerda, pois geram imagens de áreas grandes. Diafragma de luz Localizado entre a saída do II e a câmara de vídeo, é responsável por garantir que a câmara receba a mesma intensidade de sinal de luz independente da exposição ser alta ou baixa. Uma pequena abertura deste dispositivo restringe a imagem a ser adquirida com exposição alta de radiação, para garantir um nível de luz adequado à câmara de vídeo, diminuindo o efeito do ruído quântico e produzindo uma maior relação sinal-ruído na imagem. Contrariamente, uma grande abertura deste dispositivo é usada para minimizar a exposição no paciente em casos onde o ruído quântico não é um fator limitante para a qualidade da imagem33. Câmara de vídeo ou dispositivo de acoplamento de cargas A função básica da câmara de vídeo é a de produzir um sinal eletrônico proporcional à quantidade de luz enviada pelo intensificador de imagem. O sinal gerado pela câmara de vídeo é um sinal de tensão que varia em tempo e que é enviado até o monitor por meio de um processo de varredura que pode ser de 525 ou de 1.023 linhas. Fluoroscopia digital Um sistema fluoroscópico digital é mais comumente configurado como um sistema convencional (tubo, mesa, intensificador, sistema de vídeo) no qual o sinal de vídeo analógico é convertido e armazenado na forma de dados digitalizados. A aquisição digital de dados permite a aplicação de diversas técnicas de processamento de imagem, como congelamento da última imagem, processamento da escala de cinzas, média temporal de imagens, intensificação de bordas, subtração de imagens em tempo real (angiografia por subtração digital, DSA), assim como a realização de diversas medições de tamanhos de vasos sanguíneos, volumes, etc. Alternativamente, a digitalização pode ser realizada com dispositivos denominados dispositivos de acoplamento de carga (CCD), ou por captura direta dos raios X com um detector do tipo flat panel34. Os CCD foram inicialmente introduzidos em meados de 1970, como microcircuitos de silício capazes de gravar imagens de luz visível33. 108 Revista Brasileira de Física Médica. 2009;3(1):101-15. O detector flat panel está baseado em arranjos de fotodiodos de silício amorfo e finos transistores (TFT), em combinação com cintiladores de CsI(Tl). Em salas de intervencionismo, a transição de intensificadores de imagem para flat panel é facilitada pelas vantagens que oferecem, tais como imagens sem distorção, excelente contraste, grande faixa dinâmica e alta sensibilidade aos raios X34,35. De maneira geral, um equipamento intervencionista é capaz de trabalhar com faixas de tensões entre 50 e 125 kVp, controle automático de exposição e possibilidade de congelamento da última imagem. Normalmente dispõe de pelo menos três modos de magnificação e dois modos de imagem: fluoro e aquisição digital, com diferentes frequências de pulsos. Alguns equipamentos têm incorporado um sistema dosimétrico do produto kerma-área (cGy. cm2). Geralmente oferecem a possibilidade de diferentes modos de taxa, denominados low, normal e high, ou baixa taxa e alta taxa, ou fluoro e fluoro+. No modo de alta taxa, deve se acionar um alarme sonoro durante a emissão da radiação. A mesa está montada sobre o piso no centro longitudinal da sala, e a sua rotação é possível mediante um único ponto situado no piso, para possibilitar diversos movimentos do arco em C. Controle da qualidade em radiologia intervencionista Caracterização do equipamento de raios X O controle de qualidade é fundamental para o bom funcionamento de qualquer setor de hemodinâmica, tanto para a proteção de pacientes e profissionais quanto para a conservação do equipamento de raios X. Através do controle de qualidade, falhas do funcionamento são detectáveis antes que seja necessária uma intervenção. A caracterização de um equipamento intervencionista compreende uma grande variedade de testes que devem ser realizados com diferentes periodicidades36,37. Devem ser realizadas medidas do equipamento radiológico, dos receptores de imagem, do sistema de registro de dados, dos sistemas de visualização da imagem (monitores) e dos instrumentos de medida. Isto para todos os modos de dose, para todos os modos de aquisição de imagem (fluoro, digital), para todas as possíveis magnificações, registrando todos os parâmetros relevantes (técnicas, distâncias, instrumentação, etc.) que possibilitem repetir o teste exatamente nas mesmas condições, e com instrumentos de medição calibrados e funcionando corretamente. Avaliações mínimas do sistema tubo de raios X-gerador são: exatidão e reprodutibilidade da tensão do tubo, reprodutibilidade e linearidade do rendimento do tubo, camada semi-redutora, compensação do CAB para diferentes espessuras e tensões. Na Figura 8 se mostra o processo de medição do rendimento do tubo de raios X. Deve-se medir a taxa de kerma no ar a 1 m do ponto focal variando a tensão, para todos os modos de magnificação e de taxa de dose do equipamento de raios X. Aspectos físicos e técnicos da Radiologia Intervencionista Os parâmetros dosimétricos, relacionados ao paciente, mais importantes de serem medidos são: taxa de kerma de entrada na superfície, máxima taxa de kerma de entrada na superfície e dose/imagem na entrada da superfície. Em relação ao intensificador de imagem: taxa de kerma no ar na entrada do II, dose/imagem na entrada do II e fator de conversão. Na Figura 9 apresenta-se um arranjo experimental que permite medir simultaneamente parâmetros relacionados à entrada do paciente, ao intensificador de imagem e aos aspectos de qualidade da imagem. São utilizadas placas de PMMA para simular a presença de um paciente, a câmara de ionização é colocada sobre a mesa de exames, para medir a taxa de kerma de entrada e entre as placas é colocado um objeto de teste para avaliar a qualidade da imagem. As medições são repetidas para espessuras maiores de PMMA, podendo assim caracterizar o desempenho do equipamento em diferentes condições de funcionamento. Medidas geométricas importantes são: mínima distância foco-pele, sistema de colimação, coincidência do campo de raios X e o receptor de imagem, tamanho do campo de entrada do II, distorção geométrica e distorção tipo S. Figura 8. Posicionamento da câmara de ionização de referência para medir a taxa de kerma no ar, para diferentes kVp, a fim de determinar o rendimento do tubo de raios X. Avaliação da qualidade da imagem Os aspectos mais relevantes que devem ser avaliados são o limite de resolução espacial de alto contraste e o limiar de sensibilidade a baixo contraste (avaliação do ruído). Para estas avaliações são utilizados objetos de teste específicos para tais fins (Figura 10). Dosimetria de pacientes As câmaras de ionização usadas em intervencionismo devem ter volumes entre 3 cm3 e 60 cm3 e paredes de material equivalente ao ar, de maneira que sua resposta energética seja substancialmente uniforme para todos os espectros de raios X diagnósticos. A corrente de fuga deve ser muito pequena em comparação à corrente de ionização produzida pela mínima taxa de dose a ser medida, e a resposta da câmara não deve ser afetada apreciavelmente pela recombinação de íons para altas taxas de dose. Sua calibração deve ser rastreada ao padrão primário nacional em kerma no ar, e sua incerteza não deve ultrapassar 10%, com um nível de confiança de 95% para as qualidades de raios X e taxas de doses encontradas em radiodiagnóstico. As câmaras de ionização, em particular as abertas, devem ser protegidas da umidade. Medida do produto kerma-área, PKA O produto kerma-área é a grandeza mais adequada para medir o grau de exposição do paciente e para expressar os níveis de referência em intervencionismo. Em primeiro lugar porque a medida do PKA é mais fácil e prática, visto que o exame é inteiramente registrado (em termos de exposição do paciente), há pouca interferência na realização do exame e não há necessidade de incomodar o paciente nem o médico com as medições. Em segundo lugar, o PKA é uma grandeza mais relacionada com o risco de indução de Figura 9. Posicionamento da câmara de ionização de referência para medir a taxa de kerma de entrada (sobre a mesa, embaixo da lâmina de PMMA) e avaliar aspectos relacionados à qualidade da imagem com objeto de teste colocado entre as duas placas de PMMA. efeitos estocásticos, porque considera, além da dose, a área irradiada (relacionada com o volume de tecido e os órgãos irradiados). Uma câmara de ionização de transmissão, de placas paralelas com área suficiente para abranger o feixe de raios X, é colocada à saída do feixe após o colimador para monitorar a exposição total do paciente (Figura 11). A câmara é transparente à luz visível e sua resposta é proporcional à quantidade total de energia dirigida ao paciente durante a realização do procedimento23. A intensidade do feixe em um certo ponto da câmara de ionização é a quantidade de energia por segundo, que flui através da unidade de área de um plano perpendicular ao eixo do feixe. Se a intensidade é integrada sobre a área do feixe de raios Revista Brasileira de Física Médica. 2009;3(1):101-15. 109 Canevaro L Figura 10. Imagens dos objetos de Leeds TOR(TVR) e TO.10 para avaliar resolução espacial e limiar de sensibilidade a baixo contraste. Figura 11. Medidor de PKA e câmara colocada na saída do tubo de raios X. X e durante o tempo de irradiação, obtém-se o produto kerma-área. Já que a medida da quantidade de radiação pode ser feita às expensas da energia absorvida no detector, a medida do PKA está diretamente relacionada com a energia absorvida pelo paciente, desprezando a atenuação do ar e considerando os correspondentes fatores de retroespalhamento. A câmara, ao integrar a dose sobre toda a área, compensa o efeito anôdico (heel) no tubo de raios X e possíveis flutuações na linha de alimentação. A câmara do medidor de PKA é fixada ao colimador do tubo de raios X, e passa a ser parte do arranjo mecânico definido do equipamento de raios X. Dessa forma, o sistema câmara-eletrômetro não pode ser recalibrado em um laboratório de calibração, devendo ser recalibrado in loco. A cadeia de rastreabilidade é estabelecida pela calibração em kerma no ar do dosímetro de referência. A recalibração do conjunto (câmara de ionização de transmissão+eletrômetro) consiste na estimativa do 110 Revista Brasileira de Física Médica. 2009;3(1):101-15. verdadeiro valor do PKA a partir da medida do kerma no ar, usando uma câmara de ionização de referência, e da medida da área irradiada em um filme exposto à mesma distância que a câmara. O produto desses valores medidos separadamente (kerma em cGy e área em cm2) é comparado à leitura fornecida pelo medidor de PKA (cGy.cm2). A partir desta comparação, um fator de recalibração pode ser calculado. Posteriormente, todas as mediçoes de PKA realizadas durante procedimentos com pacientes deverão ser multiplicadas pelo fator de recalibração encontrado. Máxima dose na entrada da pele (PSD) As medidas da máxima dose (kerma) na entrada da pele são necessárias nos procedimentos intervencionistas naqueles em que exista a possibilidade de acontecerem efeitos determinísticos. A PSD pode ser medida utilizando filmes radiocrômicos (Figura 12). Os filmes radiocrômicos têm algumas vantagens: é possível identificar tamanho e distribuição dos campos irradiados e medir as intensidades das doses (uma vez que o filme tenha sido calibrado); o filme proporciona um registro quantitativo para o prontuário do paciente, além de orientações para planejar futuros procedimentos; permite implementar mecanismos de otimização, melhorando a técnica fluoroscópica e a segurança do paciente, etc. Dosimetria de profissionais Na RI, a avaliação das exposições dos profissionais é complicada, devido à complexidade inerente ao próprio procedimento38. Para cumprir com exigências legais, o profissional deve utilizar um monitor individual na altura do tórax, por fora do avental plumbífero. Em algumas situações, é utilizado o sistema de dupla monitoração (no pescoço, por fora do avental, e na cintura, embaixo do avental; ou no tórax, por fora do avental e no pulso esquerdo)2,39-41. No entanto, sabe-se que a irradiação do profissional em intervencionismo é fortemente não-homogênea. Atualmente, existe uma ampla discussão, no âmbito científico internacional, no sentido de encontrar um método de monitoração adequado para refletir de maneira mais realista o grau e distribuição da exposição dos profissionais que participam de procedimentos intervencionistas. Em um único procedimento, o profissional pode receber até 2 mSv no cristalino; com três procedimentos por dia, é possível atingir 1.500 mSv/ano42. Se elementos de proteção não são utilizados, em quatro anos será possível que apareçam opacidades no cristalino43. Para quantificar a exposição de pontos determinados do corpo do profissional, podem ser usados os seguintes métodos: • dosimetria termoluminescente (TLD): cristais termoluminescentes do tipo LiF: Mg,Ti (TLD 100) são separados em grupos de dois ou três, e embrulhados e identificados em pequenos badges. Em seguida, estes badges são colocados nos pontos do corpo dos profissionais que se deseja monitorar (Figura 13). Obviamente, os TLD são previamente selecionados, recebem os tratamento térmicos pré- e pós-irradiação Aspectos físicos e técnicos da Radiologia Intervencionista • • • de acordo aos protocolos estabelecidos, e são calibrados na grandeza Hp(d), com d podendo ser 0,07 mm (pele), 3 mm (cristalino) e 10 mm (dose profunda). Podem ser avaliadas doses por procedimentos individuais ou por determinados períodos, e por tipo de procedimento (angiografia, angioplastia, etc). O uso de TLD apresenta algumas desvantagens, tais como sensibilidade ao calor, limiar inferior de leitura da ordem de 0,1 mSv, fading quando de demoras na leitura, incapacidade de releitura; utilização de dosímetros eletrônicos: a tendência atual é a de utilizar dosímetros eletrônicos44 (Figura 14). Algumas características são: insensibilidade ao calor, limiar inferior de leitura > 0,1 mSv, dificuldade em calibrar, delicadeza, custo relativamente alto, necessidade de leitura semanal ou mensal para registrar os resultados. A preferência por estes dosímetros se deve ao fato de que a medição é fornecida em tempo real. Isto é de grande aplicação prática nos mecanismos de otimização; mapeamento da sala construindo curvas de isodoses: Sabe-se que em um sistema hemodinâmico, a distribuição da radiação espalhada é bastante complexa. Apesar de a lei do inverso do quadrado da distância ser válida, outros fatores interferem na atenuação da radiação, dificultando a estimativa dos valores das taxas de doses nos diferentes pontos dentro da sala. Uma maneira de quantificar os níveis de radiação consiste em medir as taxas de kerma no ar, em diferentes pontos e alturas dentro da sala (Figura 15). A partir das medições podem ser gerados mapas de isodoses, de modo que os profissionais podem conhecer com maior segurança os locais de melhor posicionamento; dosímetros oticamente estimuláveis (OSD): também são utilizados para dosimetria pessoal, sendo algumas de suas vantagens a insensibilidade ao calor, o fornecimento de registros permanentes, o limite inferior de leitura da ordem de 0,01 mSv, a ausência de fading, etc. Figura 12. Colocação do filme radiocrômico antes da realização do procedimento e imagem obtida dos campos irradiados no paciente. Proteção radiológica de pacientes e profissionais Em muitos países, a preocupação com os efeitos estocásticos e com as lesões observadas na pele tem resultado na procura pelo estabelecimento de níveis de referência de diagnóstico20 para pacientes submetidos a procedimentos de radiologia intervencionista, e também na elaboração de algumas recomendações para que estes procedimentos possam ser otimizados3,23. Diversas medidas adotadas para proteção do paciente, consequentemente, protegem o profissional. Podemos mencionar: a redução dos tempos de fluoroscopia e de aquisição digital; a utilização de baixas taxas de dose; a menor frequência de pulsos; o uso de colimadores, filtros adicionais e congelamento da última imagem; o uso de (Fotos: cortesia B. Dias Rodrigues). Figura 13. Monitoração dos profissionais com TLD42 Revista Brasileira de Física Médica. 2009;3(1):101-15. 111 Canevaro L Fotos: cortesia L. Silva Pereira Figura 15. Procedimento de medição da radiação espalhada, com câmara de ionização de grande volume, em diferentes pontos da sala para a elaboração de curvas de isodoses. Figura 14. Monitoração dos profissionais com dosímetros eletrônicos nos pulsos e nas proximidades do cristalino43. menores distâncias paciente-receptor de imagem, etc. Outras medidas, como a variação na angulação do tubo para não produzir lesões na pele, não necessariamente implicam uma maior proteção do profissional. No caso dos profissionais, o uso de ferramentas de radioproteção e a aplicação de boas práticas podem diminuir os valores de dose efetiva assim como o risco de lesões no cristalino e na pele39,45. Alguns fatores operacionais e técnicos podem contribuir para o aumento da dose dos profissionais que executam procedimentos hemodinâmicos intervencionistas (tensão aplicada ao tubo, corrente elétrica no tubo, tempo de fluoroscopia, área irradiada, número de imagens, etc)46, se não são ajustados 112 Revista Brasileira de Física Médica. 2009;3(1):101-15. corretamente ou se são usados adequadamente. A seguir discutem-se alguns desses fatores. • Colimação: quanto maior é o volume irradiado do paciente, maior é a quantidade de radiação espalhada gerada. Havendo um aumento das dimensões do campo em um fator de 2, tanto o volume do tecido exposto como a intensidade da radiação espalhada estarão multiplicados aproximadamente por um fator 4; • Corrente do tubo (mA): este fator é diretamente proporcional à quantidade de radiação emitida e, portanto, proporcional à radiação espalhada. Duplicar o mA implica dobrar a taxa de dose e a dose ao pessoal; • Posicionamento do profissional em relação ao paciente e ao tubo de raios X: no caso particular de um sistema hemodinâmico, a distribuição de dose é bastante complexa. Apesar de a lei do inverso do quadrado da distância ser válida, outros fatores interferem na atenuação da radiação, dificultando a estimativa dos valores das taxas de doses nos diferentes pontos dentro da sala. Na Figura 16, apresenta-se um exemplo do comportamento das curvas de isodoses ao redor de um sistema hemodinâmico de arco em C31. Em relação ao paciente, quanto maior o seu volume, maior será a radiação espalhada que atingirá o profissional; Aspectos físicos e técnicos da Radiologia Intervencionista Figura 16. Perfil da radiação espalhada em um sistema hemodinâmico2. Figura 17. Diferentes incidências de um arco em C31. • Angulação do arco em C: a modificação da posição do tubo de raios X durante o procedimento (Figura 17) influencia nos valores das doses equivalentes nas diferentes regiões do corpo do profissional. Diferentes angulações do arco em C podem modificar a taxa de dose espalhada em diferentes pontos dentro da sala. Isto se deve às grandes variações na taxa de dose nas proximidades do tubo de raios X (entre 4 e 8 mSv/h), e nas proximidades do intensificador de imagem (entre 0,4 e 0,8 mSv)47,48. Aspectos importantes para a proteção radiológica em cardiologia intervencionista: necessidade de treinamento O documento mais recente da ICRP que trata sobre os riscos envolvidos na Radiologia Intervencionista, devido à sua crescente importância em termos da dose coletiva mundial, é a Publicação 852. As doses ocupacionais em procedimentos intervencionistas guiados por fluoroscopia são as mais altas da Radiologia. O documento apresenta diversas patologias da pele e do olho (catarata) diagnosticadas em médicos intervencionistas, assim como recomendações para evitá-las e otimizar os procedimentos. O uso de equipamentos de proteção é indispensável. O uso de aventais de chumbo pode reduzir a 5% a dose dos profissionais na sala do exame, e devem ser usados por toda a equipe. Blindagens especiais devem ser colocadas entre o paciente e o médico. Para evitar o surgimento de catarata, os médicos devem usar óculos plumbíferos. Além dos sistemas de proteção, é recomendável o uso de um sistema robusto e adequado de monitoração individual do pessoal de Cardiologia Intervencionista. Apenas um dosímetro, colocado por dentro ou fora do avental, nem sempre é suficiente para estimar adequadamente a dose efetiva ocupacional, devido à grande heterogeneidade do campo de radiação. Pode ser usado um dosímetro adicional na altura do pescoço, por fora do avental, para estimar a dose na cabeça (olhos). O NCRP31 recomenda uma combinação linear da leitura destes dois dosímetros para uma melhor estimativa da dose efetiva. No Brasil, a Portaria 45328 determina que o monitor individual deve ser usado por fora do avental, na parte mais exposta do tórax, estimando a dose nas partes não blindadas do corpo. Para fins de comparação com os limites de dose efetiva, seu valor nominal deve ser dividido por 10. Além disto, é recomendado que, caso as mãos recebam doses mais do que 10 vezes superiores ao valor medido por este dosímetro, sejam usados dosímetros adicionais de extremidades (anel ou pulseira). Para garantir as menores doses ocupacionais possíveis em Cardiologia Intervencionista, é preciso otimizar a dose no paciente: menores doses nos pacientes geram menor quantidade de radiação espalhada. Para isto, é fundamental que todo o pessoal envolvido nos procedimentos tenha grande conhecimento e treinamento, não só na parte médica e técnica dos procedimentos e equipamentos, mas também sobre os conceitos de radioproteção. O estabelecimento de sistemas de controle de qualidade e níveis de referência também ajuda muito na manutenção de níveis adequados de proteção aos pacientes e profissionais, favorecendo a comparação entre diferentes serviços de saúde que executam os mesmos procedimentos. Analisando as causas de valores de doses muito diferentes entre si, ou muito maiores do que o nível de referência estabelecido, pode-se determinar qual a melhor maneira de otimizar o processo, tanto em sua fase de planejamento quanto de execução. Os profissionais de Cardiologia Intervencionista precisam de sistemas de controle da qualidade que garantam a credibilidade do sistema de segurança e um sistema regulador adequado. A legislação de proteção radiológica deve contemplar os profissionais expostos, os pacientes, os equipamentos, as instalações e a capacitação. No Brasil, a Portaria 453/98/MS não diferencia aspectos relacionados à prática intervencionista. Internacionalmente, existem diversas recomendações para a proteção radiológica de pacientes e trabalhadores de RI. Revista Brasileira de Física Médica. 2009;3(1):101-15. 113 Canevaro L Referências 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 114 Margulis AR. Interventional diagnostic radiology — a new subspecialty. Am J Radiol. 1967;99:671-762. International Commission on Radiation Protection. Avoidance of radiation injuries from medical interventional procedures. Publication 85, Annals of the ICRP. v. 30 n. 2. ICRP; Vienna 2000. Luz ES. Proteção radiológica em radiologia intervencionista: estudo de caso [dissertação]. Rio de Janeiro: Instituto Militar de Engenharia; 2004. Da Silva LP. Avaliação da exposição à radiação dos profissionais que executam procedimentos intervencionistas em um serviço de hemodinâmica [dissertação]. Rio de Janeiro: Instituto de Radioproteção e Dosimetria, Comissão Nacional de Energia Nuclear; 2004. Peres da Silva L, Maurício CLP, Canevaro LV, Oliveira PS. Avaliação da exposição à radiação dos médicos que executam procedimentos hemodinâmicos intervencionistas. Radiol Bras. 2008;41(5):319-23. Bernardi G, Bar O, Jezewski T, Vañó E, Maccia C, Trianni A, et al. Quality criteria for cardiac images: an update. Radiat Prot Dosimetry. 2008;71(1-3):954-60. Vañó E, González L, Guibelalde E, Fernández JM, Ten JI. Radiation exposure to medical staff in interventional and cardiac radiology. Br J Radiol. 1998;71(849):954-96. Trianni A, Bernardi G, Padovani R. Are new technologies always reducing patient doses in cardiac procedures? Radiat Prot Dosimetry. 2006;117 (1-3):97-101. O’Brien B, Van der Putten W. Quantification of risk-benefit in interventional radiology. Radiat Prot Dosimetry. 2008;129(1-3):59-62. Bahreyni Toossi MT, Zare H, Bayani S, Esmaili S. Organ and effective doses of patients arising from coronary angiography and percutaneous transluminal coronary angioplasty at two hospitals in Mashhad-Iran. Radiat Prot Dosimetry. 2008;128(3):363-6. United Nations Scientific Committe on the Effects of Atomic Radiation Sources and Effects of Ionising Radiation. v.2. UNSCEAR. Vienna; 2000. DATASUS. [On-line]. [citado 16 jan 2008]. Disponível em: http://tabnet. datasus.gov.br/tabdata/cadernos/BR/Brasil_GeralBR.xls. Food and Drug Administration. Avoidance of serious X ray induced skin injuries to patients during fluoroscopically guided procedures. Med Bull. 1994:24(2):1-17. Koenig TR, Wolff D, Mettler FA, Wagner LK. Skin injuries from fluoroscopically guided procedures: part 1, characteristics of radiation injury. AJR Am J Roentgenol. 2001;177(1):3-11. Koenig TR, Mettler FA, Wagner LK. Skin injuries from fluoroscopically guided procedures: part 2, review of 73 cases and recommendations for minimizing dose delivered to patient. AJR Am J Roentgenol. 2001;177(1):13-20. Koenig TR, Wagner LK, Mettler FA, Wolff D. Radiation Injury to the Skin Caused by Fluoroscopic Procedures: Lessons on Radiation Management [Internet]. The University of Texas Health Science Center at Houston. [cited 2009 Jul 20]. Available from: <www.uth.tmc.edu/radiology/ exhibits/koenig_wagner/index.htm> Shope TB. Radiation induced skin injuries from fluoroscopy. Radiographics. 1996;16(5):1195-9. Archer BR, Wagner LK. Protecting patients by training physicians in fluoroscopic radiation management. J Appl Clin Med Phys. 2000;1(1):32-7. Radiological Society of North America. 2007 Syllabus: radiation biology for diagnostic and interventional radiologists. In: Hedrick WR, editor. 5th ed. Oak Brook, IL: RSNA; 2007. International Atomic Energy Agency. Establishing guidance levels in X ray guided medical interventional procedures: a pilot study. Safety Report Series, n. 59. Vienna: IAEA; 2009. International Atomic Energy Agency. Dosimetry in diagnostic radiology: an international code of practice. Technical Report Series, n. 457. Vienna: IAEA; 2007. Revista Brasileira de Física Médica. 2009;3(1):101-15. 22. International Commission on Radiation Units and Measurements. Patient dosimetry for x rays used in medical imaging. ICRU Report, n. 74. Bethesda, MD: ICRU; 2006. 23. Canevaro, LV. Otimização da proteção radiológica em fluoroscopia: níveis de referencia de diagnóstico. [tese]. Rio de Janeiro: Universidade do Estado do Rio de Janeiro; 2000. 24. International Comission on Radiological Protection. The 2007 Recommendations of the International Commission on Radiological Protection. Publication 103. : Pergamon Press; Vienna, 2007. 25. Drexler G, Panzer W, Petoussi N, Zankl M. Effective dose — how effective for patients? Radiat Env Biophys. 1993;32(3):209-19. 26. Tapiovaara M, Lakkisto M, Servomaa A. A PC-based Monte Carlo program for calculating patient doses in medical x-ray examinations. Helsinki: Finnish Centre for Radiation and Nuclear Safety; 1997. 27. International Commission on Radiation Units and Measurements. Quantities and units used in radiation protection dosimetry. Report 51. Beteshda, MD: ICRU; 1993. 28. Ministério da Saúde. Diretrizes de proteção radiológica em radiodiagnóstico médico e odontológico. Portaria 453. Brasília, DF; 1998. 29. Faulkner K, Marshall NW. The relationship of effective dose to personnel and monitor reading for simulated fluoroscopic irradiation conditions. Health Phys. 1993;64(5):502-8. 30. Rauch PL, Strauss KJ. X-ray generators, tube, collimator, positioner, and table. In: Nickoloff EL, Strauss KJ, editors. Syllabus: a categorical course in diagnostic radiology physics — cardiac catheterization imaging. Oak Brook, IL: Radiological Society of North America; 1998. p. 61-82. 31. Sanchez MEG. Distribuição da taxa de kerma no ar em uma sala de hemodinâmica para projeções típicas de procedimentos de cardiologia intervencionista. [dissertação]. Rio de Janeiro: Instituto de Radioproteção e Dosimetria, Comissão Nacional de Energia Nuclear; 2007. 32. Schueler BA. The AAPM/RSNA physics tutorial for residents general overview of fluoroscopic imaging. Radiographics. 2000;20(4):1115-26. 33. Krohmer JS. Radiography and fluoroscopy, 1920 to the present. Radiographics. 1989;9(6):1129-53. 34. Pooley RA, McKinney JM, Miller DA. The AAPM/RSNA physics tutorial for residents: digital fluoroscopy. Radiographics. 2001;21(2):521-34. 35. Bokou C, Schreiner-Karoussou A, Breisch R, Beissel J. Changing from image intensifier to flat detector technology for interventional cardiology procedures: a practical poit of view. Radiat Prot Dosimetry. 2008;129(13):83-6. 36. Sociedad Española de Física Médica, Sociedad Española de Protección Radiológica. Protocolo español de control de calidad. Madrid; 2002. 37. American Association of Physicist in Medicine. Cardiac catheterization equipment performance. AAPM Report n.70. Maryland, USA, 2001. 38. Durán Reyes A. Intervenciones extracardíacas: como debemos protegernos de los rayos X. Boletín Educativo ProEducar. SOLACI. Febrero 2007; Volumen 3, Número 4. Disponível em: http://www.solaci.org/ arquivos/boletines_educativos/2007/16feb2007_esp.pdf . 39. Limacher MC, Douglas PS, Germano G, Laskey WK, Lindsay BD, McKetty MH, et al. ACC expert consensus document. Radiation safety in the practice of cardiology. American College of Cardiology. J Am Coll Cardiol. 1998;31(4):892-913. 40. Järvinen H, Buls N, Clerinx P, Jansen J, Miljanić S, Nikodemová D, et al. Overview of double dosimetry procedures for the determination of the effective dose to the interventional radiology staff. Radiat Prot Dosimetry. 2008;129(1-3):333-9. 41. Jarvinen H, Buls N, Clerinx P, Miljanić S, Nikodemová D, Ranogajec-Komor M, et al. Comparison of double dosimetry algorithms for estimating the effective dose in occupational dosimetry of interventional radiology staff. Radiat Prot Dosimetry. 2008;131(1):80-6. 42. Lima ALS. Estudo dosimétrico de profissionais em cardiologia intervencionista [monografia]. Rio de Janeiro: Universidade Federal do Rio de Janeiro; 2009. Aspectos físicos e técnicos da Radiologia Intervencionista 43. Padovani R. Occupational exposures and protective devices. In: Course on radiation protection for interventional radiology and cardiology. Sófia, Bulgária; 2006. 44. Prlic I, Suric Mihic M, Vucic Z. Acive electronic personal dosemeter in interventional radiology. Radiat Prot Dosimetry. 2008;132(3): 308-12. 45. Vañó E. Radiation exposure to cardiologists: how it could be reduced, Heart. 2003;89(10):1123-4. 46. Zakova M. Occupational exposure in angiography (Prague workplaces). Radiat Prot Dosimetry. 2001;94(1-2):129-32. 47. Vañó E, Gonzalez L, Guibelalde E, Fernandez JM, Ten JI. Radiation exposure to medical staff in interventional and cardiac radiology. Br J Radiol. 1998;71(849):954-60. 48. Vañó E, Gonzalez L, Beneytez F, Moreno F. Lens injuries induced by occupational exposure in non-optimized interventional radiology laboratories. Br J Radiol. 1998;71(847):728-33. Revista Brasileira de Física Médica. 2009;3(1):101-15. 115 Artigo de Revisão Revista Brasileira de Física Médica. 2009;3(1):117-29. Ressonância magnética: princípios de formação da imagem e aplicações em imagem funcional Magnetic resonance: principles of image formation and applications in funcional imaging Alessandro A Mazzola1 Bacharel e Licenciado em Física pela Pontifícia Universidade do Rio Grande do Sul (PUCRS) – Rio Grande do Sul (RS), Brasil; Mestre em Ciências Radiológicas pela Universidade Federal do Rio de Janeiro (UFRJ) – Rio de Janeiro (RJ), Brasil; Físico-médico do Hospital Moinhos de Vento; Professor da Faculdade de Física da Pontifícia Universidade Católica do Rio Grande do Sul (PUCRS) e da Faculdade de Tecnologia Ipuc (FATIPUC) e sócio da PhyMED Consultores em Física Médica e Radioproteção Ltda. – Porto Alegre (RS), Brasil. 1 Resumo A imagem por ressonância magnética é hoje um método de diagnóstico estabelecido na prática clínica e em crescente desenvolvimento. A RM funcional se destaca como uma das técnicas que vem permitindo explorar funções cerebrais como a memória, linguagem e controle da motricidade. Esta revisão tem por objetivo explorar de forma introdutória e simplificada a física da imagem por ressonância magnética e demonstrar os mecanismos e aplicações da RM funcional. Palavras-chave: física; imagem por ressonância magnética; neurologia. Abstract Magnetic resonance imaging is a well established diagnostic procedure and in continuous development. Functional MR is one of the techniques that permits to explore the brain functions like memory, language and motor tasks. This revision aims to explore the physics of magnetic resonance imaging in an introductory and simplified way and to demonstrate the functional MR mechanisms and applications. Keywords: physics; magnetic resonance imaging; neurology. Introdução A imagem por ressonância magnética (IRM) é hoje um método de diagnóstico por imagem estabelecido na prática clínica e em crescente desenvolvimento. Dada a alta capacidade de diferenciar tecidos, o espectro de aplicações se estende a todas as partes do corpo humano e explora aspectos anatômicos e funcionais. A ressonância magnética funcional (RMf) se destaca como uma das técnicas de IRM que vem permitindo explorar funções cerebrais como a memória, linguagem e controle da motricidade. A física da ressonância magnética nuclear (RMN), aplicada à formação de imagens, é complexa e abrangente, uma vez que tópicos como eletromagnetismo, supercondutividade e processamento de sinais devem ser abordados em conjunto para o entendimento desse método. Esta revisão tem por objetivo explorar de forma introdutória e simplificada a física da imagem por ressonância magnética e demonstrar os mecanismos e aplicações da RMf, servindo como texto de apoio para o aprofundamento do assunto através das referências citadas. Física da RMN A IRM é, resumidamente, o resultado da interação do forte campo magnético produzido pelo equipamento com os prótons de hidrogênio do tecido humano, criando uma condição para que possamos enviar um pulso de radiofrequência e, após, coletar a radiofrequência modificada, através de uma bobina ou antena receptora. Este sinal coletado é processado e convertido numa imagem ou informação. Apesar do fenômeno físico da RMN ter sido descrito em 1946 por Block e Purcell em artigos independentes da Physics Review1,2, as primeiras imagens do corpo humano só foram possíveis cerca de trinta anos após. Este intervalo de tempo demonstra a complexidade deste método e a necessidade, para a formação da imagem, do uso de Correspondência: Hospital Moinhos de Vento – Rua Ramiro Barcelos, 910 – CEP 90035-001 – Porto Alegre (RS), Brasil [email protected] Associação Brasileira de Física Médica® 117 Mazzola AA tecnologias aparentemente tão distintas como os supercondutores e o processamento de sinais. RMN As propriedades de ressonância magnética têm origem na interação entre um átomo em um campo magnético externo; de forma mais precisa, é um fenômeno em que partículas contendo momento angular e momento magnético exibem um movimento de precessão quando estão sob ação de um campo magnético. Os principais átomos que compõem o tecido humano são: hidrogênio, oxigênio, carbono, fósforo, cálcio, flúor, sódio, potássio e nitrogênio. Estes átomos, exceto o hidrogênio, possuem no núcleo atômico prótons e nêutrons. Apesar de outros núcleos possuírem propriedades que permitam a utilização em IMR, o hidrogênio é o escolhido por três motivos básicos: • é o mais abundante no corpo humano: cerca de 10% do peso corporal se deve ao hidrogênio3; • as características de RMN se diferem bastante entre o hidrogênio presente no tecido normal e no tecido patológico; • o próton do hidrogênio possui o maior momento magnético e, portanto, a maior sensibilidade a RMN. Spin e o momento magnético O átomo de hidrogênio, o mais simples da tabela periódica, possui como núcleo o próton. Os prótons são partículas carregadas positivamente, que possuem uma propriedade chamada de spin ou momento angular. Figura 1. O próton de hidrogênio pode ser visto como uma pequena esfera (1), que possui um movimento de giro, ou spin, em torno do seu próprio eixo (2); por ser uma partícula carregada positivamente (3), irá gerar um campo magnético próprio ao seu redor (4), comportando-se como um pequeno dipolo magnético (4) ou como um imã (5), com um momento magnético (µ) associado. Como o objetivo é ter uma visão simplificada e introdutória da física relacionada à IRM, vamos admitir que o spin represente o movimento de giro do próton em torno de seu próprio eixo, da mesma forma que um pequeno pião. Para o próton de hidrogênio, o spin (I) pode ser +1/2 ou -1/2, o que na nossa analogia clássica pode representar o prótons girando para um lado ou para o outro. Juntamente com o spin, o próton de hidrogênio possui outra propriedade chamada de momento magnético, que faz com que o mesmo se comporte como um pequeno imã. Esta analogia é valida se visualizarmos o próton como uma pequena esfera carregada (carga positiva) e girando em torno de seu próprio eixo (spin). Como para toda partícula carregada em movimento acelerado surge um campo magnético associado, o próton de hidrogênio se comporta como um pequeno magneto, ou um dipolo magnético. Podemos utilizar um vetor para descrever cada dipolo magnético, ou cada próton, como mostra a Figura 1. E o que acontece quando um próton de hidrogênio ou um conjunto de prótons de hidrogênio é colocado sob ação de um campo magnético externo? Ou seja, o que ocorre com os prótons do corpo do paciente quando o mesmo é posicionado dentro do magneto? Para responder esta pergunta, é importante entendermos que na temperatura média de 36,5 ºC do corpo humano, e sob ação do fraco campo magnético terrestre de 0,3 gauss (ou 3x10-5 tesla, uma vez que o fator de conversão é de 1 T=10.000 G), os momentos magnéticos não possuem uma orientação espacial definida, se distribuindo de forma randômica. Esta distribuição aleatória faz com que a magnetização resultante de um volume de tecido seja igual a zero. Quando o paciente é posicionado no interior do magneto e fica sob ação de um campo magnético de, por exemplo, 1,5 T, os prótons de hidrogênio irão se orientar de acordo com a direção do campo aplicado, como se fossem pequenas bússolas; porém, ao contrário das bússolas, que apontariam seu norte marcado na agulha para o sul magnético, os prótons de hidrogênio apontam tanto paralelamente quanto antiparalelamente ao campo. As duas orientações representam dois níveis de energia que o próton pode ocupar: o nível de baixa energia (alinhamento paralelo) e o nível de maior energia (alinhamento antiparalelo), como mostra a Figura 2. No modelo quântico, um dipolo nuclear somente pode ter 2I+1 orientações com o campo, correspondendo a 2I+1 níveis de energia. O próton de hidrogênio (I=1/2) possui duas possíveis orientações, que correspondem aos níveis de baixa e alta energia. A distribuição dos spins nos dois níveis é regida pela distribuição de Boltzmann (Equação 1): (1) Figura 2. Prótons de hidrogênio sob ação do campo magnético externo aplicado. Os prótons se distribuem em dois níveis de energia, sendo que um pequeno número maior de prótons se alinha paralelamente. 118 Revista Brasileira de Física Médica. 2009;3(1):117-29. onde: NP: número de spins alinhados paralelamente; NAP: número de spins alinhados anti-paralelamente; k: constante de Boltzmann (k=1,3805x10-23 joules/kelvin); T: temperatura absoluta, em kelvin. Ressonância magnética: princípios de formação da imagem e aplicações em imagem funcional Para um campo magnético de 1,5 T e na temperatura média do tecido humano, a diferença entre os spins que ocupam o estado de menor energia e o de maior energia é de aproximadamente 5 para 1 milhão. Do ponto de vista prático é somente com estes cinco spins resultantes que poderemos trabalhar para produzir sinal detectável na bobina. Movimento de precessão e equação de Larmor Na tentativa de alinhamento com o campo, e por possuir o spin, surge um segundo movimento chamado de precessão. A analogia com um pião sob a ação do campo gravitacional é valida para entendermos este movimento. Sob ação de um campo magnético, os prótons de hidrogênio irão precessar a uma frequência w determinada pela equação de Larmor (Equação 2): Figura 3. Eixos de coordenadas usados em IRM e o vetor momento magnético (m) associado ao próton de hidrogênio. (2) onde: g: razão giromagnética; B0: valor do campo magnético externo aplicado. Para o hidrogênio, a razão giromagnética é de 42,58 MHz/T. Portanto, se considerarmos uma campo de 1,5 T, a frequência de precessão será de 63,87 MHz. Uma regra importante a ser sempre lembrada é que qualquer alteração no valor do campo magnético irá alterar a frequência de precessão. Magnetização do tecido Como nas imagens a menor unidade será o voxel – sendo este da ordem de 1,0 mm3 ou mais –, é o efeito combinado dos prótons de hidrogênio que irá nos interessar. A magnetização resultante em cada voxel é o resultado da soma vetorial de todos os spins que resultaram do cancelamento mútuo. No equilíbrio, a magnetização resultante possui somente a componente horizontal, ao longo de B0. É fundamental que neste momento façamos a localização espacial do vetor magnetização. Coordenadas no espaço (x, y e z): eixo longitudinal e plano transversal A Figura 3 mostra os eixos de coordenadas (x, y e z) e o vetor que representa o momento magnético de um próton de hidrogênio realizando o movimento de precessão em torno do eixo z, assim como as mesmas coordenadas num típico magneto supercondutor. O eixo z, ou longitudinal, representa a direção de aplicação do campo magnético principal (B0). O plano xy é chamado de plano transversal. Utilizando o mesmo sistema de coordenadas, podemos imaginar um elemento de volume de tecido (voxel) contendo 11 spins, como mostra a Figura 4. Os spins irão se alinhar paralelamente (7 spins) e antiparalelamente (4 spins). Realizando o cancelamento mútuo do vetor momento Figura 4. Direita: spins alinhados paralelamente e antiparalelamente ao campo magnético externo aplicado (eixo z), realizando movimento de precessão. Esquerda: Vetor magnetização resultante (M0) de um elemento de volume do tecido. magnético dos que estão para cima com os que estão para baixo (7-4=3 spins), uma componente de magnetização resultante M0 irá surgir alinhada ao eixo longitudinal. Apesar de todos os momentos magnéticos individuais precessarem em torno de B0 a uma frequência angular igual a w, não existe coerência de fase entre eles e, portanto, não existirá componente de magnetização no plano transversal. Uma bobina posicionada de forma perpendicular ao plano transversal não detectará nenhum sinal, pois não ocorrerá alteração no fluxo magnético. Aplicação do campo de radiofrequência (B1) Para que uma corrente elétrica seja induzida em uma bobina posicionada de forma perpendicular ao plano transversal, é necessário que o vetor magnetização como um todo, ou parte dele, esteja no plano transversal e possua coerência de fase. Se todos os momentos magnéticos individuais forem desviados em 90º para o plano transversal e todos estiverem precessando na mesma posição (mesma fase), teremos o máximo de sinal induzido nesta bobina. Para reorientar o vetor magnetização, um segundo campo magnético de curta duração (pulso) tem que ser aplicado. Este campo B1 (pulso de radiofrequência, ou RF) deve ser perpendicular a B0 e deve estar em fase com a frequência de precessão. Revista Brasileira de Física Médica. 2009;3(1):117-29. 119 Mazzola AA O efeito no vetor magnetização (vetor M) é o de afastá-lo, por um dado ângulo de desvio (α), do alinhamento com B0. Um dos pulsos de RF mais utilizados é o que irá resultar em um ângulo de desvio de 90º, transferindo assim todo o vetor M para o plano transversal. Pulsos de 180º também são utilizados e são chamados de pulsos de inversão (Figura 5). A emissão deste pulso de RF é normalmente feita pela chamada bobina de corpo, e a detecção do sinal é feita por uma bobina local, como a bobina de crânio. Em resumo, a aplicação do pulso de RF causa dois efeitos: • transfere energia para o vetor magnetização, desviando-o do alinhamento, ou jogando-o para o plano transversal, quando for de 90º; Figura 5. Pulsos de RF e sua nomenclatura. O pulso de 90º é chamado de pulso de excitação, o de 180º de pulso de inversão e o pulso a pode assumir qualquer valor. • faz com que os núcleos precessem, momentaneamente, em fase no plano transversal. Sinal de indução livre Com aplicação de um pulso de RF de 90º, por exemplo, a magnetização é jogada no plano transversal e passa a induzir uma tensão elétrica na bobina de frequência w (sinal de RMN). Quando encerra a aplicação do pulso de RF, o sinal gradualmente decai como resultado do processo de relaxação ou de retorno do vetor magnetização para o equilíbrio, ou seja, para o alinhamento com B0. O formato do sinal induzido (ou sinal de indução livre, SIL) é o de uma onda seno amortecida, como mostra a Figura 6. Processos de relaxação: longitudinal e transversal A relaxação dos spins que gera o SIL é causada pelas trocas de energia entre spins e entre spins e sua vizinhança (rede). Estas interações são chamadas de relaxação spinspin e spin-rede e juntas fazem com que o vetor M retorne ao seu estado de equilíbrio (paralelo a B0). Duas constantes de tempo foram criadas para caracterizar cada um destes processos: T1 e T2. A constante T1 está relacionada ao tempo de retorno da magnetização para o eixo longitudinal e é influenciada pela interação dos spins com a rede. Já a constante T2 faz referência à redução da magnetização no plano transversal e é influenciada pela interação spin-spin (dipolo-dipolo). A Figura 7 mostra passo a passo o retorno do vetor magnetização ao equilíbrio após a aplicação de um pulso de RF de 90º. Em amarelo são mostrados os momentos magnéticos individuais. É possível perceber que estes vão se defasando e com isso ocorre uma redução rápida na componente de magnetização ainda presente no plano transversal. Retorno da magnetização longitudinal – T1 A equação que descreve o retorno da magnetização para o eixo longitudinal, mostrada no gráfico da Figura 8, é a seguinte (Equação 3): Figura 6. Sinal de Indução Livre (SIL) gerado pelo retorno da magnetização para o alinhamento após a aplicação de um pulso de RF de 90º. (3) onde: MZ: magnetização no eixo z; ML: magnetização longitudinal; M0: magnetização inicial; t: tempo; T1: constante de relaxação longitudinal. O tempo necessário para a magnetização longitudinal recuperar 63% do seu valor inicial é chamado de T1. Decaimento da magnetização transversal: tempo T2 A equação que descreve o decaimento da magnetização no plano transversal, como mostra no gráfico da Figura 9 é a Equação 4: Figura 7. Retorno do vetor magnetização ao equilíbrio. 120 Revista Brasileira de Física Médica. 2009;3(1):117-29. (4) Ressonância magnética: princípios de formação da imagem e aplicações em imagem funcional Tabela 1. Tempos de relaxação T1 e T2 aproximados para diversos tecidos do corpo humano a 1,5 T Tecido Substância branca Substância cinzenta Líquido céfalo-raquidiano (líquor) Sangue (arterial) Parênquima hepático Miocárdio Músculo Lipídios (gordura) T1 (ms) 790 920 4000 1200 490 870 870 260 T2 (ms) 90 100 2000 50 40 60 50 80 Figura 8. Retorno da magnetização longitudinal. bastante diferentes. É possível perceber que estas diferenças nos tempos de relaxação poderão ser usadas para gerar contraste entre os tecidos nas imagens (Figura 10), e que esta é uma vantagem da RM sobre os demais métodos de diagnóstico. (5) Ecos de spins Até aqui tratamos do fenômeno da RMN e da observação do SIL, assim como entendemos que existem constantes de relaxação (T1 e T2) que possibilitam diferenciar tecidos. Um aspecto fundamental para a coleta do sinal que irá gerar a imagem de ressonância magnética é o fenômeno de formação de ecos. Este fenômeno foi observado e descrito por Hahn5 em 1950 e é a base para estudarmos sequências de pulso. Hahn descreveu que, se excitarmos os prótons com um pulso de RF inicial e, após um determinado tempo t, enviarmos um segundo pulso, observaremos que, além do surgimento de sinal na bobina após o primeiro pulso (SIL), também haverá o surgimento de um segundo sinal. Este segundo sinal é um eco do primeiro e aparece na bobina num tempo igual a 2 t. É importante ressaltarmos que o surgimento do eco é um processo natural e ocorre devido a refasagem dos momentos magnéticos induzida pelo segundo pulso de RF. Podemos controlar o momento em que o eco irá surgir através dos tempos e de aplicação dos pulsos, porém a defasagem e refasagem será dependente dos tipos de tecido em questão. Mais tarde abordaremos a sequência de pulso gradiente eco, na qual poderemos manipular também a defasagem e a refasagem. onde: T2inomog.: descreve o decaimento adicional no sinal devido a inomogeneidades do campo. Estas inomogeneidades podem ter origem nas próprias diferenças de composição dos tecidos do corpo, como também em imperfeições na fabricação e ajustes do magneto. A ressonância magnética funcional irá explorar as alterações no tempo T2*, como veremos mais adiante. A Tabela 1 apresenta tempos de relaxação T1 e T2 para diversos tecidos a 1,5 T4. Os valores devem servir apenas como referência, pois uma medida quantitativa dos tempos de relaxação pode resultar em valores Sequências de pulso spin eco ou eco de spins A sequência de pulso spin eco se caracteriza pela aplicação de um pulso inicial de RF de 90º, seguido de um pulso de RF de 180º. Como já descrito anteriormente, o intervalo de tempo t entre a aplicação destes dois pulsos irá determinar o surgimento do eco em 2 t. Chamaremos de tempo de eco (TE) o intervalo de tempo entre a aplicação do pulso inicial de RF de 90º e o pico do eco (Figura 11). O tempo entre sucessivos pulsos de RF de 90º é chamado de TR, ou tempo de repetição. Enquanto o TE determina o quanto de relaxação no plano longitudinal estará presente no eco, o TR estabelece o quanto de magnetização longitudinal se recuperou entre sucessivos pulsos de 90º. Figura 9. Decaimento da magnetização transversal. onde: Mxy: magnetização no plano xy; MT: magnetização transversal; M0: magnetização inicial; t: tempo; T2: tempo de relação transversal. O tempo necessário que a magnetização no plano transversal atinja 37% do seu valor inicial é chamado de T2. Constante de tempo T2 versus T2* Variações locais do B0 causam defasagem dos momentos magnéticos, aumentando ainda mais a relaxação no plano transversal e acelerando o decaimento do sinal de indução livre. É conveniente definir outra constante de tempo, chamada T2*, ou T2 estrela (Equação 5): Revista Brasileira de Física Médica. 2009;3(1):117-29. 121 Mazzola AA Figura 10. Imagem turbo spin eco ponderada em T2, mostrando na imagem ampliada a resolução de contraste obtida devido as diferenças nos tempos T2 entre os tecidos envolvidos. Figura 11. Sequência de pulso spin eco. Pulso de 90º e aplicação no tempo (TE/2) do pulso de RF de 180º Formação da imagem Codificação do sinal A RMN só pôde se tornar útil como método de obtenção de imagens do corpo humano com o desenvolvimento da codificação espacial do sinal através do uso de gradientes de campo magnético. Em 1973, Paul Lauterbur6 propôs o uso de gradientes de campo magnético, permitindo assim a codificação espacial do sinal. Lauterbur mostrou que, adicionando gradientes de campo magnético lineares e obtendo uma série de projeções da distribuição de sinal, seria possível reconstruir uma imagem através da mesma retroprojeção filtrada usada por Hounsfield para obtenção de imagens de tomografia computadorizada por raios-x7. O método foi aprimorado por muito outros pesquisadores, incluindo Peter Mansfield, o qual propôs também a sequência de pulso eco planar (EPI), que será tratada mais adiante8. Gradientes de campo magnético Até aqui, consideramos que o campo magnético produzido pelo magneto possui um valor único e uniforme. Desta forma, se todo um volume de tecido, como o cérebro, for posicionado neste campo, e se um pulso de RF for enviado com valor de frequência exatamente igual à frequência de precessão dos prótons de hidrogênio, todo o volume será excitado. Os prótons de hidrogênio do volume como um todo receberão energia do pulso de RF e retornarão sinal para a bobina. Este 122 Revista Brasileira de Física Médica. 2009;3(1):117-29. Figura 12. Efeito de aplicação de um gradiente de campo magnético na direção do eixo z com amplitude de 45 mT/m. As alterações na frequência de precessão dentro do volume de interesse se modificam de acordo com a posição ao longo do eixo z sinal contém informação de todo o tecido cerebral, mas não possibilita que saibamos de que parte do cérebro ele provém. Como o objetivo é mapear uma imagem bidimensional (2D), é preciso estabelecer um método que possibilite a seleção de um corte do corpo para que, dentro deste corte, possa haver uma matriz de pontos organizada em linhas e colunas. Para cada elemento desta matriz (pixel) deve ser obtido o valor de intensidade de sinal, para que através de uma escala de tons de cinza ou cores possamos visualizar a imagem final. Com a introdução dos chamados gradientes de campo magnético, poderemos variar linearmente em uma dada direção a intensidade do campo magnético, como mostra a Equação 6: (6) onde: Gz: intensidade do gradiente aplicado (mT/m) na direção z; Bz(z): novo valor de campo magnético numa dada posição z. O novo campo criado localmente com o acionamento do gradiente fará com que a frequência de precessão mude, ou seja, cada posição do tecido na direção de aplicação do gradiente atinja precessão em uma frequência diferente. A Figura 12 exemplifica o acionamento do gradiente. A frequência poderá ser usada, agora, para localizar espacialmente o sinal. O acionamento de um gradiente de campo também altera a fase dos spins. Esta alteração é proporcional ao tempo que o gradiente fica ligado e amplitude do gradiente. Juntas, fase e frequência poderão fornecer informações espaciais do sinal. Seleção de corte, codificação de fase e codificação de frequência São necessárias três etapas para a codificação do sinal de forma a obter uma imagem de RM: seleção de corte, Ressonância magnética: princípios de formação da imagem e aplicações em imagem funcional metodologia é usada atualmente para determinar as amplitudes e frequências (e, portanto, as posições) encontradas no sinal de RM (eco) coletado pelas bobinas. Somente depois de coletar 64, 128, 256 ou mais ecos e armazená-los no chamado espaço K é que aplicaremos a TF para passar do domínio do tempo para o domínio de frequências, obtendo a imagem de RM. Uma descrição completa deste processo é apresentada por autores como Bracewell9 e Gallagher10. Espaço K Figura 13. Diagrama simplificado da sequência de pulso spin eco mostrando o acionamento dos gradientes de seleção de corte (GSC), codificação de fase (GCF) e codificação de frequência ou de leitura (GL). Sempre que um pulso de RF é transmitido (RFt) ocorre o acionamento de um gradiente de seleção de corte. codificação de fase e codificação de frequência. Cada etapa representa o acionamento de gradientes em uma dada direção. Se o gradiente de seleção de corte for acionado na direção z, cada posição ao longo do eixo da mesa irá precessar com um valor diferente de frequência. Se este gradiente permanecer ligado, podemos enviar um pulso de RF com frequência central de precessão igual a da região que queremos excitar. Assim, dividimos o paciente em cortes axiais. Os outros dois gradientes (codificação de fase e frequência) serão acionados nos eixos que restaram (x e y ou y e x). Quando o gradiente de codificação de fase é acionado, alteramos a fase dos spins de forma proporcional à sua localização. Assim, um dos eixos do corte fica mapeado com a fase. É necessário acionar n vezes o gradiente de codificação de fase. Cada vez que é acionado, alterase a amplitude do gradiente. No momento da leitura do sinal, o gradiente de codificação de frequência é acionado na direção restante. Desta forma, o segundo eixo do corte ficará mapeado em frequência. O gradiente de codificação de frequência também é chamado de gradiente de leitura. Podemos agora adicionar ao nosso esquema da sequência de pulso as etapas de codificação do sinal, como mostra a Figura 13. O espaço K não é um local físico no equipamento de RM, e sim um conceito abstrato que auxilia no entendimento de sequências de pulso modernas e metodologias de aquisição. É útil visualizarmos o espaço K como uma matriz. Cada linha desta matriz será preenchida com um eco. Podemos visualizar o espaço K na forma de uma matriz em tons de cinza. Cada ponto nesta matriz corresponde a uma intensidade de sinal (tom de cinza) e a uma posição no tempo, e representa a amplitude do sinal recebido pela bobina naquele dado instante. Os eixos de coordenadas (x e y ou ky e kx) deste espaço são, respectivamente, o gradiente de codificação de frequência e o gradiente de codificação de fase, como mostra a Figura 14. O preenchimento linha a linha do espaço K irá ocorrer à medida que o gradiente de codificação de fase na sequência de pulso variar sua amplitude. O número de codificações de fase pode, por exemplo, ser de 256, o que resulta no acionamento de 256 amplitudes diferentes para o gradiente de codificação de fase. Esta amplitude pode iniciar com o uso de um gradiente negativo com máxima amplitude, reduzindo gradativamente sua amplitude até zero e, a partir daí, acionando um gradiente positivo até atingir novamente a amplitude máxima, mas na direção contrária. Cada linha do espaço K será preenchida com um eco que foi codificado por uma amplitude diferente do gradiente de fase. Uma característica importante do preenchimento do espaço K, descrito acima, é que os extremos do espaço K serão preenchidos com sinal de baixa amplitude, pois o próprio acionamento do gradiente causa maior defasagem e redução do sinal. Já as linhas centrais do espaço K conterão sinal de maior amplitude, o que na imagem de RM resultará em contraste (preto e branco). Domínio do tempo versus domínio de frequências: Fourier O sinal coletado de cada corte está mapeado em fase e frequência. Ou seja, um sinal que varia no tempo, contendo diversas fases e diversas frequências, carrega informação sobre todo o tecido contido no corte. Por volta de 1807, o matemático francês Jean Baptiste Joseph Fourier, desenvolveu ferramentas analíticas para decompor uma função contínua em suas componentes oscilatórias e amplitudes. Este processo é hoje conhecido como transformada de Fourier (TF). Uma versão desta Características do espaço K Algumas características do espaço K são importantes para entendermos melhor a imagem resultante: • Não existe correspondência entre um ponto do espaço K e um ponto da imagem de RM. Em cada ponto do espaço K existe informação de todo o corte. Se, por exemplo, um pequeno artefato de entrada de RF na sala de exames ocorrer em um dado instante durante a sequência de pulso, a presença deste artefato bem localizado no tempo poderá gerar um artefato que se propagará para toda a imagem de RM; Revista Brasileira de Física Médica. 2009;3(1):117-29. 123 Mazzola AA • Quanto maior o número de linhas do espaço K, maior é a quantidade de sinal coletado, porém maior é o tempo necessário. Se, em uma sequência de pulso spin eco, cada linha do espaço K é preenchida a cada tempo de repetição (TR), o tempo total para adquirir uma ou mais imagens será diretamente proporcional ao número de linhas do espaço K; • As linhas centrais do espaço K estão diretamente relacionadas ao contraste na imagem de RM e a periferia, à resolução espacial; • Uma imagem de RM pode ser formada por mais que um espaço K. A escolha do número de espaços K que serão utilizados para gerar uma imagem é um parâmetro controlado pelo operador e costuma ser chamado de número de aquisições ou número de excitações (NEX). Passar de um para dois espaços K faz com que o tempo total de aquisição dobre, com o benefício de melhorar em cerca de 40% a relação sinal-ruído na imagem. Formas de preenchimento Cada sequência de pulso pode se utilizar de uma estratégia para o preenchimento do espaço K4,9. A Figura 15 mostra um esquema representativo de algumas destas formas. Sequências de pulso Duas grandes famílias de sequências de pulso são usadas para formar imagens de RM: spin eco (SE) e gradiente eco (GRE). Spin eco (SE) A sequência de pulso spin eco (SE) se caracteriza pela aplicação de um pulso inicial de RF de 90º, seguido de um pulso de RF de 180º e a coleta de um eco (Figura 13). Uma linha do espaço K é preenchida a cada tempo de repetição (TR). A ponderação na imagem é controlada pelo TR e pelo TE. Os tempos típicos de TR e TE, assim como sua respectiva ponderação na imagem, são apresentados no Quadro 1. Spin eco multieco Uma variação da SE convencional é a multieco, onde, dentro de um mesmo TR, são selecionados dois tempos de eco diferentes. O primeiro TE é curto e o segundo TE é longo. Após a aplicação de cada um dos pulsos de RF de 180º, surgirá um eco. Cada eco, em cada TE, é armazenado em um espaço K diferente. As imagens de RM resultantes de cada um destes espaços K terão uma ponderação diferente. Esta técnica é usada para obtermos, dentro do mesmo TR, uma imagem ponderada em T2 e uma imagem ponderada na densidade de prótons (DP). Tempo de aquisição O tempo de aquisição de uma imagem de RM pode ser calculado da seguinte forma (Equação 7): Figura 14. Espaço K e a imagem de RM correspondente após a aplicação da transformada de Fourier bidimensional (TF 2D). (7) onde: TR: tempo de repetição (em segundos); NCF: número de codificações de fase; NEX: número de excitações ou número de espaços K coletados. Considerando os parâmetros de uma típica aquisição ponderada em T1 (TR=500ms, 256 codificações de fase e NEX=1), o tempo de aquisição será de 128 segundos ou cerca de 2 minutos. Já para uma aquisição ponderada em T2 com TR igual a 2500ms, 256 codificações de fase e NEX=1, o tempo total de aquisição passa a ser de 640 segundos ou quase 11 minutos. Desta forma, para se obter ponderação T2 em tempo adequados, ou mesmo para aquisições mais rápidas com ponderação T1, foi desenvolvida no meio da década de 80 a sequência de pulso RARE11 (rapid acquisition with Quadro 1. da ponderação na imagem em sequências SE. Figura 15. Esquema representativo das formas de preenchimento do espaço K. A diferença entre a forma cartesiana (a) e a cêntrica (c) é que, ao invés de iniciar o preenchimento por um dos extremos do espaço K, o método cêntrico inicia pela parte central. 124 Revista Brasileira de Física Médica. 2009;3(1):117-29. Tempo de repetição (TR) TR Curto (< 500 ms) TR Longo (> 1500 ms) TR Longo (> 1500 ms) Tempo de eco (TE) TE Curto (5 a 25 ms) TE Longo (> 90 ms) TE Curto (5 a 25 ms) Ponderação T1 T2 DP Ressonância magnética: princípios de formação da imagem e aplicações em imagem funcional relaxation enhancement em inglês), que se popularizou como turbo spin eco (TSE). Turbo spin eco A sequência de pulso turbo spin eco (TSE) utiliza múltiplos pulsos de RF de 180º, combinando múltiplas codificações de fase, dentro de um mesmo TR. Desta forma, um trem de ecos pode ser gerado. Cada eco irá preencher uma linha diferente do espaço K, reduzindo assim o tempo total de aquisição. O número de pulso de RF de 180º a ser empregado é chamado de fator turbo ou tamanho do trem de ecos. A redução no tempo total de aquisição é proporcional ao fator turbo, como mostra a Equação 8: (8) Seria excelente poder usar um fator turbo tão alto a ponto de reduzir qualquer aquisição a não mais que alguns segundos. O eco coletado a cada pulso de 180º diminui em amplitude de acordo com o tempo T2 do tecido, ou seja, cada sinal coletado vai ficando menor à medida que se aplicam mais pulsos de refocalização, até o ponto em que se coleta um sinal comparável ao ruído. Outra observação sobre as sequências de pulso TSE é o chamado TE efetivo (TEef). Como uma série de ecos serão gerados dentro de um mesmo TR, o conceito de TE remete à conclusão de que esta técnica possuirá múltiplos tempos de eco. Entretanto, o TE que afetará de forma mais significativa a ponderação na imagem é o TE responsável pelo eco, que fará o preenchimento da linha central do espaço K. A este TE é dado o nome de TE efetivo (TEef). A aquisição de uma imagem TSE ponderada em T2 com os mesmos parâmetros do exemplo usado em spin eco, exceto pelo uso de um fator turbo igual a 4, resultaria agora em um tempo de aquisição em cerca de 3 minutos, o qual é razoável para a rotina de exames de um hospital ou de uma clínica. Gradiente eco As sequências de pulso gradiente eco (GRE) são similares à SE, mas ao invés de se usar um pulso de RF de 180º para refasar os spins, utiliza-se um gradiente de campo magnético, como mostra a Figura 16. Se os valores de TR, TE e ângulo de desvio do pulso de excitação forem semelhantes aos utilizados em sequências SE, a ponderação na imagem e o tempo de aquisição também serão semelhantes. Entretanto, a GRE é mais sensível a inomogenidades de campo magnético e apresenta mais artefatos na imagem devido a diferenças de susceptibilidade magnética. Uma vez que a defasagem e refasagem dos spins para a produção do eco é agora controlada por um gradiente de campo magnético, é possível reduzir brutalmente o TR e o TE; entretanto, faz-se necessária uma redução no ângulo de desvio de forma a obter, entre sucessivos pulsos de excitação, uma quantidade adequada de magnetização longitudinal. A combinação de baixo ângulo de desvio e curto TR e TE é a base para a maioria das chamadas sequências de pulso rápidas de RM. Outra forma de adquirir imagens rápidas em IRM é fazer uso da sequência de pulso EPI (echo planar imaging, em inglês). Imagem ecoplanar A conexão com imagem funcional por RM se torna mais evidente a partir de agora com a descrição da sequência de pulso ecoplanar (EPI). Originalmente descrita por Peter Mansfield em 19778 como uma forma teórica de aquisição extremamente rápida, teve que aguardar melhorias nos sistemas de gradientes e radiofrequência para se tornar clinicamente útil. Atualmente, a aquisição de EPI é capaz de adquirir uma imagem 2D em tempos tão curtos quanto 20 milissegundos. Desta forma, desempenhou e continua a desempenhar papel fundamental para o desenvolvimento de aplicações como difusão, perfusão e RMf. A sequência de pulso EPI se difere das sequências SE e GRE principalmente na forma como os gradientes de codificação de fase e frequência são aplicados4. Um esquema inicial de aplicação de pulsos e acionamento de gradientes pode estar baseado em SE ou em GRE. A Figura 17 mostra o diagrama de um sequência de pulso EPI-SE. Um pulso de excitação de 90º é enviado, seguido de um pulso de refocalização de 180º e, a partir deste ponto, uma série de gradientes bipolares de leitura são empregados para gerar um trem de ecos. Com a aplicação de gradientes codificadores de fase, cada eco é coletado e armazenado em uma linha do espaço K. Se todo o espaço K necessário para formar uma imagem for adquirido dentro de um TR, chamamos a aquisição EPI de ‘tiro único’. Figura 16. Sequência de Pulso GRE. O pulso de excitação de 90º é substituído por um pulso a e, ao invés de um pulso de RF de 180º, é utilizado um gradiente codificador de frequência ou de leitura (GL) para defasar (lobo invertido ou negativo) e após refasar os spins (lobo positivo). Revista Brasileira de Física Médica. 2009;3(1):117-29. 125 Mazzola AA o SIL ocorre, uma série de ecos de gradiente é produzida usando os gradientes de codificação EPI de leitura e fase. O pulso de excitação usado é de 90º, pois o TR é suficientemente longo. As imagens serão fortemente ponderadas em T2*, o que aumenta o aparecimento de artefatos de susceptibilidade entre tecidos como osso e ar, mas também auxiliará no contraste das imagens de RMf. Ressonância magnética funcional (RMf) Figura 17. Diagrama simplificado de uma sequência de pulso EPI-SE. A forma de preenchimento do espaço K é bastante particular para a sequência EPI, pois os ecos são armazenados linha a linha em zigue-zague, como mostrou a Figura 14 (d). Da mesma forma que na TSE, o TEef será determinado pelo eco que preencher o centro do espaço K. A ponderação das imagens EPI é baseada em T2*, uma vez que a aquisição de todos os ecos produzidos ocorre dentro do tempo de decaimento induzido livre. EPI é bastante susceptível a inomogeneidades de campo. Sistemas de gradientes rápidos e perfeitos são fatores decisivos para a qualidade das imagens. O fator turbo está diretamente relacionado ao tempo e a resolução espacial da imagem. Já o chamado espaçamento entre ecos (ESP) está diretamente relacionado à qualidade da imagem. Quanto maior o fator turbo, menor o ESP. Quanto menor o ESP, menor serão os artefatos de distorção na imagem, desvio químico e perda de sinal. EPI-SE A sequência de pulso 2D spin eco EPI (EPI-SE) é formada pela aplicação de um pulso inicial de RF de 90º e um pulso de refocalização com ângulo de desvio de 180º. O pulso de 180º irá gerar o eco. Durante a janela de tempo em torno do eco, os gradientes de codificação EPI de leitura e fase serão acionados para produzir uma série de ecos de gradiente codificados espacialmente4. Os ecos de gradiente que são amostrados para preencher o espaço K foram gerados por um eco de spin ao invés de um SIL como ocorrerá com a EPI-GRE. A EPI-SE sofre uma redução nos artefatos de susceptibilidade, porém possui sensibilidade reduzida ao efeito que buscaremos obter para o mapeamento cerebral pela RMf. A sequência de pulso EPI-SE é utilizada para a obtenção de imagens ponderadas na difusão da água no tecido cerebral e nas aquisições para o cálculo do tensor de difusão (DTI)15. EPI-GRE A sequência de pulso 2D EPI-GRE tem início com o envio de um pulso de excitação para a produção do SIL. Enquanto 126 Revista Brasileira de Física Médica. 2009;3(1):117-29. A ressonância magnética funcional é hoje uma técnica estabelecida e amplamente utilizada para o mapeamento da função cerebral. A obtenção de imagens do tecido cerebral que possibilitam localizar regiões que estão envolvidas com a realização de determinadas tarefas é tópico de interesse para a Biologia Molecular, Neurofisiologia e Neuroanatomia. Uma aplicação clínica importante da RMf é o de auxiliar no planejamento neurocirúrgico e radioterápico de tumores cerebrais e outras lesões13,14. Os dados gerados pela RMf podem ser sobrepostos nas imagens anatômicas e correlacionados com a provável abordagem cirúrgica ou terapêutica a ser adotada, de forma a evitar ou reduzir as complicações decorrentes da mesma. Em 1991, o artigo de Moonen et al. publicado na Science12 apresentou técnicas de RM como angiografia, perfusão, difusão, transferência de magnetização e espectroscopia como técnicas funcionais de obtenção de imagens em seres humanos. Entretanto, a partir do trabalho de Ogawa em 199016, o termo funcional passou a ser aplicado somente para a técnica que será descrita a seguir. Exploraremos a RMf baseada no chamado efeito BOLD (do inglês blood oxygenation level dependent), ou dependência no nível de oxigenação do sangue. Em 1990, Ogawa et al. observaram que os vasos sanguíneos do cérebro de um rato eram originalmente pretos quando este respirava ar numa composição normal; entretanto, passavam a apresentar maior sinal na imagem de RM e perdiam o contraste com o tecido vizinho quando o ar que respiravam atingia uma concentração de 100% de oxigênio. Os autores perceberam que a mudança de sinal era causada por diferenças nas propriedades magnéticas do sangue. A hemoglobina sem oxigênio (deoxi-hemoglobina) apresenta efeito de susceptibilidade magnética em relação ao tecido vizinho. Já quando o rato respira 100% de oxigênio, o sangue venoso possui uma concentração bem maior de oxi-hemoglobina, deixando de existir diferenças em relação ao tecido vizinho (redução do contraste). Ogawa et al. concluem que é possível utilizar este mecanismo de contraste para visualizar a função cerebral, pois acreditava que, quando ocorre uma ativação numa dada região do tecido cerebral, surgiriam pontos escuros na imagem uma vez que aumentaria o nível de deoxi-hemoglobina devido ao consumo de oxigênio. As propriedades magnéticas da oxi-hemoglobina e da deoxi-hemoglobina já haviam sido estudadas por Pauling e Coryell em 193617, onde relatam que o estado Ressonância magnética: princípios de formação da imagem e aplicações em imagem funcional magnético da hemoglobina muda de acordo com o seu estado de oxigenação. Em 1982, Thulborn e colaboradores18 demonstram que o tempo de relaxação T2 do sangue é dependente da concentração de oxigênio. De fato o que passou a ser observado nas primeiras imagens feitas do tecido cerebral durante a realização de tarefas foi um aumento na intensidade de sinal nas regiões neuronais ativas e não uma redução. Este fato se deve a um aumento no fluxo sanguíneo arterial (oxigenado) bastante maior que o aumento de deoxi-hemoglobina local, causado pelo consumo de oxigênio. Localmente é observada uma redução no nível de deoxi-hemoglobina e um aumento no tempo de relaxação T2. É a maior ou menor concentração de deoxi-hemoglobina que determina o contraste entre os tecidos. O efeito BOLD deveria ser chamado de dependência no nível de deoxigenação do sangue, uma vez que é a deoxi-hemoglobina que altera a susceptibilidade magnética. A oxi-hemoglobina é diamagnética e a deoxi-hemoglobina é paramagnética. Em 1992, Kwong et al., Ogawa et al. e Bandetinni et al., assim como outros pesquisadores, publicaram trabalhos mostrando que era possível mapear mudanças de sinal nas imagens de RM e que estas mudanças estavam diretamente relacionadas com estímulos cerebrais produzidos em cérebros humanos19-21. O físico inglês Michael Faraday tem uma relação muito estreita com os fundamentos que permitiram o desenvolvimento da física relacionada à RMN e à observação deste fenômeno, responsável pela Lei da Indução Eletromagnética (Lei de Faraday) em que uma força eletromotriz é induzida em um condutor quando um campo magnético em torno deste muda. Ao observar atentamente o conteúdo deste artigo, pode-se perceber que é devido à Lei de Faraday que se detecta a variação da magnetização do tecido através das bobinas receptores de um equipamento de IRM. Mas qual seria a relação de Faraday com a RMf? Essa pergunta começa a ser respondida quando, verificando o trabalho de Ogawa et al. de 1990, os autores fazem referência ao trabalho publicado por Thulborn et al. em 1982, sendo queeste faz referência ao trabalho de Pauling e Coryell, de 1936. Numa curta frase na introdução do trabalho de Pauling e Coryell, os autores mencionam experimentos de Faraday em 184522, investigando propriedades magnéticas de amostras de sangue seco. Faraday realmente investigou a resposta de diversos materiais quando colocados sob a ação do campo magnético – entre eles, o sangue fresco e o sangue seco. Relata que ficou bastante impressionado pelo fato do sangue não ser ‘magnético’, apesar de conter ferro. Relata, ainda, que se um homem pudesse ser suspenso com suficiente delicadeza e colocado sob ação de um campo magnético, o mesmo não seria defletido por este campo, permanecendo inalterado em termos do alinhamento com o campo externo. Efeito BOLD e o sinal de RMf Uma região do córtex cerebral responsável pela função motora dos dedos da mão pode ser considerada em repouso Figura 18. Função de resposta hemodinâmica (FDR) com a divisão em sete fases. quando o indivíduo não está realizando a movimentação dos mesmos. Neste momento, as concentrações de oxihemoglobina e deoxi-hemoglobina estão distribuídas de tal forma que o comportamento magnético da região é igual a todo tecido vizinho. A partir do momento em que os neurônios desta área forem ativados para que o indivíduo inicie a movimentação dos dedos da mãos, haverá um aumento no consumo de oxigênio local e um aumento no fluxo sanguíneo para suprir a região com oxi-hemoglobina. Como a quantidade suprida de oxi-hemoglobina é muito maior que o consumo para realizar a tarefa, a relação oxi/deoxi-hemoglobina aumenta na região. Esta redução na proporção de deoxi-hemoglobina (paramagnética) torna o tempo T2 local maior, causando aumento local no sinal de RM. Estes eventos que iniciam com o aumento da atividade elétrica e modulam a resposta neurovascular, alteram o sinal de RM no tempo e produzem a chamada função de resposta hemodinâmica. Função de resposta hemodinâmica A curva mostrada na Figura 18 representa a função de resposta hemodinâmica (FRH) para um voxel localizado na área motora descrita anteriormente. Podemos considerar sete fases distintas nesta curva: 1) linha de base; 2) queda inicial; 3) aumento do sinal BOLD; 4) pico do sinal BOLD; 5) redução do sinal BOLD; 6) queda posterior; 7) retorno à linha de base. Durante a ativação neuronal, pode ocorrer um aumento na concentração de deoxi-hemoglobina, causando a queda inicial na FRH (fase 2). Logo a seguir, o aumento na relação oxi/deoxi-hemoglobina leva até o pico do sinal BOLD (fases 3 e 4) e pode se manter num platô se o estímulo for mantido por tempo suficiente. Após cessar o estímulo, o sinal retorna à linha de base (fase 7), podendo apresentar uma queda posterior (fase 6). Acredita-se que esta queda deriva de uma demora na normalização do volume sanguíneo regional em relação ao fluxo sanguíneo. Modelos biomecânicos vêm sendo criados e testados experimentalmente para explicar as alterações dinâmicas na oxigenação e no fluxo sanguíneo durante a atividade neural . Revista Brasileira de Física Médica. 2009;3(1):117-29. 127 Mazzola AA Figura 19. Resumo da cadeia de eventos que gera a alteração local de sinal nas imagens de RM. Figura 20. Efeito da escolha do limiar estatístico para visualização do mapa de ativação de tarefa motora de movimentação dos dedos da mão direita sobreposto na imagem anatômica ponderada em T1. As imagens foram usadas para o planejamento neurocirúrgico do tumor localizado no lado esquerdo do cérebro. A implicação prática é que o efeito BOLD pode ser usado para detectar indiretamente o aumento na atividade neuronal no momento em que um indivíduo realiza uma tarefa em particular, comparativamente a outro momento quando a tarefa não é executada . A Figura 19 resume a cadeia de eventos que criam o aumento local de sinal nas imagens ponderadas em T2* da sequência de pulso EPI-GRE. Paradigmas O paradigma representa o conjunto de tarefas cognitivas que o indivíduo deve realizar no momento do exame. Alternar a movimentação do pé com períodos de repouso, ou realizar a leitura de frases projetadas numa tela com a visualização de uma letra no centro da mesma tela, são exemplos de paradigmas simples usados em experimentos de RMf. O desenho de paradigmas é fundamental para a obtenção de resultados nas imagens que representem a função cerebral a ser estudada. A forma mais simples de fornecer estímulos é em bloco, ou seja, alternando períodos de atividade e de repouso; porém, outras estratégias podem ser adotadas. O paradigma em bloco será explorado neste artigo por ser o mais utilizado clinicamente. Paradigma em bloco Tal paradigma consiste na apresentação de um estímulo ao paciente de forma alternada como períodos de repouso. Pode-se desenhar um paradigma em bloco para observar as regiões do córtex cerebral relacionadas ao movimento dos dedos da mão direita. A estratégia a ser adotada pode 128 Revista Brasileira de Física Médica. 2009;3(1):117-29. ser de pedir que, durante os 30 segundos iniciais (A), o indivíduo permaneça imóvel e somente prestando atenção no ruído produzido pelo equipamento. Nos 30 segundos seguintes (B), o indivíduo é orientado a realizar um movimento de encontro dos dedos da mão. Este ciclo de dois períodos (AB) pode ser repetido duas, três ou mais vezes. Com o uso da sequência de pulso EPI-GRE, é possível adquirir de 10 a 20 cortes com espessuras de 3 a 10 mm, que cobrirão todo o cérebro em tempos de aquisição de 1,5 a 4 segundos. Se utilizarmos um TR de 1500 ms, podemos obter 20 imagens coletadas na condição A e 20 imagens na condição B. A matriz de aquisição normalmente utilizada é de 64x64. A aquisição rápida permite que as alterações no sinal devido ao fenômeno BOLD possam ser detectadas de forma mais sensível e comparadas ao modelo em bloco. Estas alterações de sinal em equipamentos de 1,5 T são da ordem de 0,3 a 5%, o que se aproxima bastante do próprio ruído, tornando impossível a observação direta na imagem. Somente através da análise estatística pixel a pixel é possível identificar os pixels na imagem que se correlacionam com o paradigma. Análise das imagens Existe uma quantidade bastante grande de programas livres ou comerciais para o processamento das imagens de RMf que são fornecidos por diversos grupos de pesquisa espalhados pelo mundo. Programas como o SPM e o FSL26 são exemplos amplamente usados por pesquisadores. Os fabricantes de equipamentos também fornecem programas comerciais que podem ser instalados em estações de trabalho ou no próprio equipamento para análisel, seja após a aquisição das imagens ou em tempo real, durante a execução do exame25. As etapas necessárias para o processamento dos dados de uma aquisição de RMf, e que são comuns a todos os programas, podem ser resumidas nos itens mostrados abaixo. Outras etapas podem ser acrescentadas, dependendo do objetivo do exame ou análise: • correção de movimento: busca realinhar os volumes adquiridos de forma que pequenos movimentos não atrapalhem a análise posterior; • aplicação de filtro de suavização: serve para reduzir o ruído das imagens, aumentando a razão sinal-ruído, porém reduzindo a resolução espacial das imagens; • modelamento com o paradigma e com a FRH: esta etapa cria a função do sinal no tempo esperada para área ativada e modelada com a função de resposta hemodinâmica; • geração do mapa estatístico e estabelecimento do limiar de visualização: o modelo criado é comparado com o sinal medido pixel-a-pixel e um mapa estatístico é criado para cada corte, onde cada pixel neste mapa possuirá um tom de cinza ou de cor que expressa o grau de correlação entre o modelo e o sinal medido. A este mapa podemos atribuir um limiar estatístico, de Ressonância magnética: princípios de formação da imagem e aplicações em imagem funcional forma que só sobrevivam os pixels acima de um determinado valor, aumentando a confiança de que aquele ponto é realmente uma ativação (Figura 20); • sobreposição em imagens anatômicas: como a resolução espacial da sequência de pulso EPI-GRE é baixa, o mapa contendo as ativações pode ser sobreposto numa imagem anatômica ponderada em T1 de alta resolução. Conclusão A IRM amplia cada vez mais suas aplicações para o diagnóstico médico, e a área que mais se beneficiou até hoje desta evolução foi a Neurorradiologia. Em especial, a RMf vem auxiliando de forma fundamental no entendimento dos mecanismos relacionados ao funcionamento cerebral. Ainda assim, um aprofundamento nos conceitos físicos aqui apresentados é necessário para o entendimento completo, uma vez que o caminho mais simples foi adotado. É impossível não imaginar que tipo de sensação Faraday teria ao ver um equipamento de RM e, na sua tela, a detecção em tempo real das mudanças de sinal no tecido cerebral devido a alterações dinâmicas da concentração de deoxi-hemoglobina. Assim como em outros grandes exemplos de aplicações da física na medicina, a RMf está maravilhosamente entrelaçada nestas duas áreas. Agradecimentos À equipe multidisciplinar da Unidade de Diagnóstico por Imagem do Hospital Moinhos de Vento e a Professora Doutora Ana Maria Marques, da Faculdade de física da PUCRS, pelo incentivo e comentários para este artigo. Referências 1. Bloch F. Nuclear induction. Phys Rev. 1946;70(7-8):460-74. 2. Purcell EM, Torrey HC, Pound RV. Resonance absorption by nuclear magnetic moments in a solid. Phys Rev. 1946;69:37-8. 3. Foster MA. Magnetic resonance in medicine and biology. Pergamon Press: New York; 1984. 4. Bernstein MA, King KE, Xiaohong JZ. Handbook of MRI pulse sequences. London: Elsevier; 2004. 5. Hahn EL. Spin echoes. Phys Rev. 1950;80(4):580-94. 6. Lauterbur PC. Image formation by induced local interactions: examples employing nuclear magnetic resonance. Nature. 1973;242:190-1. 7. Hounsfield GN. Computerized transverse axial scanning (tomography): Part 1. Description of system. Br J Radiol. 1973;46(552):1016-22. 8. Mansfield P. Multi-planar imaging formation using NMR spin echoes. J Phys. 1977;10:L55-8. 9. Bracewell R. The Fourier transform and its applications. 3rd ed. New York: McGrawl-Hill Science; 1999. 10. Gallagher TA, Nemeth AJ, Hacein-Bey L. An introduction to the Fourier Transform: relationship to MRI. AJR. 2008;190(5):1396-405. 11. Henning J, Nauerth A, Friedburg H. RARE imaging: a fast imaging method for clinical MR. Magn Reson Med. 1986;3(6):823-33. 12. Moonen CT, van Zijl PC, Frank JA, Le Bihan D, Becker ED. Functional Magnetic Resonance Imaging in Medicine and Physiology. Science. 1990;250(4977):53-61. 13. Sunaert S. Presurgical planning for tumor resectioning. J Magn Reson Imaging. 2006;23(6):887-905. 14. Narayana A, Chang J, Thakur S, Huang W, Karimi S, Hou B, et al. Use of MR spectroscopy and functional imaging in the treatment planning of gliomas. Br J Radiol. 2006;80(953):347-54. 15. Mukherjee P, Chung SW, Berman JI, Hess CP, Henry RG. Diffusion tensor MR imaging and fiber tractography: technical considerations. AJNR Am J Neuroradiol. 2008;29(5):843-52. 16. Ogawa S, Lee TM, Kay AR, Tank DW. Brain magnetic resonance imaging with contrast dependent on blood oxygenation. Proc Natl Acad Sci. 1990;87:9868-72. 17. Pauling L, Coryell CD. The magnetic properties and structure of hemoglobin, oxyhemoglobin and carbonmonoxyhemoglobin. Proc Natl Acad Sci USA. 1930;22:210-5. 18. Thulborn KR, Waterton JC, Matthews PM, Radda GK. Oxygenation dependence of the transverse relaxation time of water protons in whole blood at high field. Biochim Byophys Acta. 1982;714(2):265-70. 19. Kwong KK, Belliveau JW, Chesler DA, Goldberg IE, Weisskoff RM, Poncelet BP, et al. Dynamic magnetic resonance imaging of human brain activity during primary sensory stimulation. Proc Natl Acad Sci USA. 1992;89(12):5675-9. 20. Ogawa S, Tank DW, Menon R, Ellermann JM, Kim SG, Merkle H, et al. Intrinsic signal changes accompanying sensory stimulation: functional brain mapping with magnetic resonance imaging. Proc Natl Acad Sci U S A. 1992;89(13):5951-5. 21. Bandettini PA, Wong EC, Hinks RS, Tikofsky RS, Hyde JS. Time course EPI of human brain function during task activation. Magn Reson Med. 1992;25(2):390-7. 22. Faraday M. Experimental Researches in Electricity. v. 3. London: Richard Taylor and William Francis; 1855. 23. Buxton RB, Wong EC, Frank LR. Dynamics of blood flow and oxygenation changes during brain activation: the ballon model. Magn Reson Med. 1998;39(6):855-64. 24. Amaro Jr E, Barker GJ. Study design in fMRI: basic principles. Brain and Cogn. 2006:60(3):220-32. 25. Statistical Parametric Mapping. Disponível em: http://www.fil.ion.ucl.ac.uk/ spm/). 26. FSL. Disponível em: http://www.fmrib.ox.ac.uk/fsl/index.html. 27. Fernández G, De Greiff A, Von Oertzen J, Reuben M, Lun S, Klaver P, et al. Language mapping in less than 15 minutes: real-time funcional MRI during routine clinical investigation. Neuroimage. 2001;14(3):585-94. Revista Brasileira de Física Médica. 2009;3(1):117-29. 129 Artigo de Revisão Revista Brasileira de Física Médica. 2009;3(1):131-9. PACS: Sistemas de Arquivamento e Distribuição de Imagens PACS: Picture Archiving and Communication Systems Paulo Mazzoncini de Azevedo-Marques1, Samuel Covas Salomão2 1 Doutor em Física Aplicada; Professor-associado do Departamento de Clínica Médica da Faculdade de Medicina de Ribeirão Preto da Universidade de São Paulo (USP) – Ribeirão Preto (SP), Brasil. 2 Bacharel em Ciências da Computação; Mestrando do Programa de Pós-Graduação Interunidades Bioengenharia (EESC/FMRP/IQSC) da USP – Ribeirão Preto (SP), Brasil. Resumo A revolução tecnológica ocorrida nas últimas décadas tem provocado mudanças importantes em várias áreas do conhecimento. Na Radiologia, a utilização em grande escala de sistemas digitais tem gerado um volume de dados cada vez maior. A melhor solução para gerenciar essas imagens digitais está na adoção de um Sistema de Arquivamento e Distribuição de Imagens (PACS, do inglês Picture Archiving and Communication System). Este artigo apresenta uma revisão sobre esse tema, incluindo componentes, arquitetura, padrões de comunicação, dinâmica de processos e uma discussão sobre custo-benefício. Palavras-chave: imagens médicas; informática de imagens médicas; gerenciamento de imagens médicas; sistemas de informação em saúde; DICOM; PACS. Abstract The technological revolution that has occurred in the last decade induced significant changes in different areas of knowledge. In Radiology, the utilization of digital systems in large scale has generated a huge volume of data. The best option to manage these digital images is the adoption of a Picture Archiving and Communication System (PACS). This paper presents a review on PACS, including its components, architecture, communication standards, workflow and a discussion on the cost-benefits commitment. Keywords: medical imaging; medical imaging informatics; medical imaging management; health information systems; DICOM; PACS. Introdução A aplicação de sistemas de informação para gerenciamento de imagens e informações clínicas começou a ser estudada de forma mais efetiva no final da década de 1980, quando os processos de aquisição digital começaram a ser utilizados em maior escala nos hospitais1. Até então, cada equipamento era considerado um sistema isolado, estando conectado somente a uma estação de trabalho e a uma determinada impressora. Porém, o desenvolvimento do uso da informação em formato digital criou a necessidade de se estabelecer uma estrutura computacional que possibilitasse a troca de dados de imagens de forma consistente e automática dentro do ambiente hospitalar. Em resposta a essa necessidade, surgiu o conceito de PACS (do inglês, Picture Archiving and Communication System). O PACS é um sistema de arquivamento e comunicação voltado para o diagnóstico por imagem que permite o pronto acesso às imagens médicas em formato digital em qualquer setor de um hospital2. O conceito de PACS foi definido por um consórcio integrado pela American National Association of Electric Machines (NEMA), Radiology Society of North America (RSNA) e um conjunto de empresas e universidades dos Estados Unidos da América. Segundo definição da NEMA, um PACS deve oferecer visualização de imagens em estações de diagnóstico remotas; armazenamento de dados em meios magnéticos ou ópticos para recuperação em curto ou longo prazo; comunicação utilizando redes locais (Local Area Network, LAN) ou expandidas (Wide Area Network, WAN), ou outros serviços públicos de telecomunicação; sistemas com interfaces por modalidade e conexões para serviços de saúde e informações departamentais que ofereçam uma solução integrada para o usuário final. O PACS, em conjunto com os Sistemas de Informação em Radiologia (Radiology Information System, RIS) e de Informação Hospitalar (Hospital Information System, HIS), forma a base para um serviço de radiologia sem filme (filmless). Radiologia Correspondência: Faculdade de Medicina de Ribeirão Preto, Universidade de São Paulo, Centro de Ciências das Imagens e Física Médica, Departamento de Clínica Médica – Avenida dos Bandeirantes, 3.900 – Monte Alegre, CEP 14049-900 – Ribeirão Preto (SP), Brasil – e-mail: [email protected] Associação Brasileira de Física Médica® 131 Azevedo-Marques PM, Salomão SC filmless refere-se a um hospital, com um ambiente de rede amplo e integrado, no qual o filme foi completamente, ou em grande parte, substituído por sistemas eletrônicos que adquirem, arquivam, disponibilizam e exibem imagens2. Padrões da Radiologia Digital Um aspecto fundamental dentro do fluxo de trabalho em um ambiente radiológico digital (sem filme) é a garantia da consistência da informação transmitida componente a componente dentro da cadeia de eventos presente na dinâmica de processos. Para que a consistência seja garantida, a distribuição da informação é feita segundo uma estrutura hierárquica baseada em uma distribuição top-down, ou seja, as informações são propagadas a partir do sistema de informação mais geral (HIS), passando pelo sistema de informação intermediário (RIS) até alcançar o sistema de informação mais específico (PACS). Para que isso seja possível, dois pré-requisitos são necessários: uma estrutura de rede adequada (redundante e balanceada) e padrões de comunicação bem definidos. Na Radiologia Digital, o padrão de comunicação principal é o DICOM (do Inglês, Digital Imaging and Communications in Medicine). Tabela 1. Classes de objetos de informação DICOM Normalizado Paciente Estudo Resultados Fonte de armazenamento Anotações da imagem Composto Radiografia computadorizada Tomografia computadorizada Imagem de filme digitalizado Imagem digital de subtração Imagem de ressonância magnética Imagem de medicina nuclear Imagem de ultrassom Gráficos Curvas Tabela 2. DIMSEs normalizados Comando N-EVENT-REPORT N-GET N-SET N-ACTION N-CREATE N-DELETE Função Notificação de evento para um objeto Recuperação do valor de um atributo de um objeto Especificação do valor de um atributo para um objeto Especificação de ação para um objeto Criação de um objeto Exclusão de um objeto Tabela 3. DIMSEs compostos Comando C-ECHO C-STORE C-FIND C-GET C-MOVE 132 Função Verificação da conexão Transmissão da instância de um objeto Consulta informações da instância de um objeto Transmissão (servidor-cliente) da instância de um objeto para a entidade solicitante Transmissão (servidor-cliente) da instância de um objeto Nem sempre o receptor será a mesma entidade que solicitou a transmissão Revista Brasileira de Física Médica. 2009;3(1):131-9. O DICOM é o padrão global para transferência de imagens radiológicas e outras informações médicas entre computadores. O DICOM atual, publicado em 1993 e geralmente identificado como 3.0, evoluiu das versões anteriores de um padrão desenvolvido pelo Colégio Americano de Radiologia (American College of Radiology, ACR) em conjunto com a NEMA (ACR-NEMA 1.0, de 1985, e ACR-NEMA 2.0, de 1988). A conectividade prevista pelo padrão é muito importante no que diz respeito à razão custo-benefício para áreas da saúde que fazem uso de imagens médicas. Usuários DICOM podem prover serviços de radiologia entre instalações localizadas em diferentes regiões geográficas, aproveitar recursos de tecnologia da informação já existentes e manter os custos baixos através da compatibilidade e interoperabilidade de novos equipamentos e sistemas3. O DICOM é extremamente adaptável, uma característica que levou outras especialidades, tais como a endoscopia e a área da odontologia, a adotarem o padrão. Devido ao seu impacto mundial, o DICOM agora é mantido e atualizado por um comitê multidisciplinar internacional. Classes de objetos DICOM A classe de objetos DICOM é constituída por objetos normalizados e objetos compostos. Classes de objetos de informação normalizados incluem atributos inerentes ao mundo real. Considerando-se as classes de objetos “estudo” e “paciente”, por exemplo, a data do estudo e a hora da geração da imagem são atributos da classe “estudo”, pois estão presentes sempre que um estudo é realizado. O nome do paciente, por sua vez, pertence à classe “paciente”. O uso de classes de objetos de informação pode identificar de forma mais precisa, e sem ambigüidade, objetos encontrados em sistemas e aplicações de diagnóstico por imagem. Em geral, é feita a combinação de objetos normalizados para formar classes compostas de objetos. Por exemplo, o objeto de informação de uma radiografia computadorizada é considerado composto, pois possui atributos da classe do estudo (data e hora da imagem) e da classe do paciente (nome do paciente), como mostra a Tabela 1. Serviços DICOM Serviços DICOM são utilizados para a comunicação de objetos de informação dentro de um dispositivo e para que dispositivos possam executar serviços para um determinado objeto, como, por exemplo, armazenar ou mostrar esse objeto. Um serviço é geralmente construído sobre uma série de Elementos de Serviços de Mensagem (DICOM Message Services Elements, DIMSEs). Existem dois tipos de DIMSEs: um para objetos normalizados (mais específico) e outro para objetos compostos (mais geral), como mostram as Tabelas 2 e 3. Esses elementos são programas de computador especialmente escritos para executar funções específicas. De modo geral, um dispositivo lança um comando de solicitação estruturado segundo uma sintaxe e uma sequência de transmissão específicas do padrão, e o receptor responde com um comando de aceitação, também estruturado segundo a mesma sintaxe e sequência. PACS: Sistemas de Arquivamento e Distribuição de Imagens Um serviço também é conhecido como Classe de Serviço por causa da natureza orientada a objetos do seu modelo de informação. Dessa maneira, se um dispositivo oferece um serviço, ele pertence a uma Classe Provedora de Serviços (Service Class Provider, SCP). Caso ele apenas utilize um serviço, é considerado um Usuário de Serviços (Service Class User, SCU). Por exemplo, uma unidade gravadora de DVD em um servidor PACS assume o papel de um SCP para o servidor poder armazenar as imagens. Por outro lado, um aparelho de Tomografia Computadorizada (TC, do Inglês Computed Tomography) assume o papel de um SCU ao solicitar que imagens sejam armazenadas no servidor PACS. Dependendo do caso, um dispositivo pode atuar como SCP, SCU ou ambos (Tabelas 2 e 3). Comunicação DICOM O DICOM utiliza padrões já existentes de comunicação em rede baseados no Modelo de Referência para a Interconexão de Sistemas Abertos (Open Systems Interconnection Reference Model, OSI) para transmissão de informações e imagens médicas. O modelo OSI consiste em sete camadas, sendo que a camada mais alta compõe as interfaces de aplicação com o usuário e a camada mais baixa corresponde ao meio físico (fios e cabos) através do qual a informação é enviada e recebida4. Quando objetos com informação ou imagens médicas são enviados entre camadas de um mesmo dispositivo, esse processo é chamado de serviço. Por outro lado, quando objetos são enviados entre dois dispositivos diferentes, o processo é considerado um protocolo. Dessa maneira, quando um processo caracteriza um protocolo, dizse no padrão DICOM que os dois dispositivos estabeleceram uma associação. A Figura 1 ilustra a transmissão de imagens de um aparelho de TC para uma Estação de Trabalho (do Inglês Workstation, WS). Utilização de serviços DICOM Para os usuários finais, as funcionalidades DICOM mais esperadas para a rotina diária são serviços eficientes para enviar, receber, consultar e recuperar imagens. A Figura 2 apresenta o passo-a-passo do envio de múltiplas imagens de um exame de TC para um determinado servidor PACS. Nesse exemplo, cada imagem é transmitida do aparelho para o servidor utilizando o serviço DICOM C-STORE. O aparelho assume o papel de SCU e o servidor, o papel de SCP. O processo de envio e recebimento por meio do C-STORE é relativamente simples comparado a outros serviços, como o de consulta e recuperação de imagens (Query and Retrieve, Q/R), por exemplo. A Figura 3 ilustra um exemplo no qual uma WS efetua consultas no servidor para recuperar exames. Trata-se de um serviço composto que envolve o trabalho de três DIMSEs: C-FIND, C-MOVE e C-STORE. Nesse caso específico, como a WS tem de consultar e depois armazenar os exames recuperados, ela assume respectivamente os papéis de Q/R SCU e C-STORE SCP. Por outro lado, o servidor assume os papeis de Q/R SCP e C-STORE SCU. Além do DICOM, outros dois padrões são importantes para garantir a consistência dos dados e o fluxo Figura 1. Envio de uma série de imagens de tomografia computadorizada de um escâner para uma WS. (a) O escâner codifica todas as imagens em um objeto DICOM. (b) O escâner invoca uma série de serviços para mover o objeto até a camada física do modelo OSI. (c) A WS utiliza uma série de serviços para receber o objeto através da camada física e depois movê-lo para camadas de maior nível. (d) A WS decodifica o objeto DICOM. automático de informação em um ambiente radiológico digital: o HL7 (Health Level Seven) e o IHE (Integrating the Health Care Enterprise). O HL7 é um American National Standards Institute (ANSI) que atua na área da saúde. Tem por missão definir padrões para troca, gerenciamento e integração de dados que propiciem o cuidado clínico de pacientes, além do gerenciamento, fornecimento e avaliação de serviços de saúde. Possui foco específico na garantia da interoperabilidade entre sistemas de informação em saúde. Nível Sete (Level Seven) se refere ao nível mais alto do modelo de comunicação OSI, que é o nível de aplicação. Assim como o DICOM, o HL7 organiza a transmissão da informação segundo uma sequência pré-estabelecida de envio de dados que segue uma estrutura padrão baseada em rótulos específicos (Tags). O IHE é uma iniciativa da RSNA que tem por finalidade promover a integração dos sistemas dentro do ambiente de cuidado da saúde. O objetivo é melhorar a eficácia da prática clínica através da melhoria do fluxo de informação. O foco do IHE é estabelecer formas otimizadas de fluxo de informação no âmbito de instituições de saúde com base em padrões de comunicação, como o DICOM e o HL7. O IHE estabelece um conjunto de arcabouços técnicos (frameworks) que define como os padrões devem ser implementados de forma a satisfazerem as necessidades da prática clínica. Utilizam-se três conceitos básicos: atores, transações e perfis de integração. Atores são as funcionalidades que fazem a comunicação entre os sistemas. Transações são as mensagens trocadas entre os sistemas. Perfis de Integração são agrupamentos de atores e transações que compõem um fluxo específico. Por exemplo, o perfil Patient Information Reconciliation (PIR) estabelece um framework para garantir que as informações referentes a um paciente inicialmente não identificado, atendido em Revista Brasileira de Física Médica. 2009;3(1):131-9. 133 Azevedo-Marques PM, Salomão SC Figura 2. Envio de múltiplas imagens de um SCU para um SCP. (0) Escâner e servidor estabelecem uma associação. (1) Escâner (SCU) solicita um serviço C-STORE ao servidor (SCP). (2) Servidor recebe solicitação do escâner e envia resposta de aceitação à solicitação do serviço. (3) Escâner envia pacote de dados referente à primeira imagem ao servidor. (4) Servidor executa serviço C-STORE solicitado, armazenando o pacote. (5) Quando o serviço é concluído, o servidor envia uma resposta de confirmação para o escâner. (6) Após receber a confirmação da execução do serviço, o escâner envia o próximo pacote de dados da imagem para o servidor. (7) Os passos 4, 5 e 6 se repetem até que todos os pacotes de dados da primeira imagem sejam transmitidos. (8) O escâner solicita um segundo serviço C-STORE ao servidor para transmitir a segunda imagem. Os passos 1 a 7 se repetem até que todas as imagens do estudo sejam transmitidas. (9) O escâner e o servidor invocam comandos DICOM para se desconectarem. um serviço de emergência, possam ser devidamente atualizadas em todos os sistemas envolvidos no processo no momento de sua posterior identificação. Componentes e dinâmica de processos Em linhas gerais, um PACS é composto por equipamentos e sistemas voltados para aquisição, arquivamento e apresentação de dados e imagens médicas5. Cada componente é devidamente integrado por meio de redes de computadores e aplicações computacionais compatíveis com o padrão DICOM. Aquisição de imagens A aquisição de dados e imagens é um componente indispensável para a existência de um PACS. Nos primórdios da tecnologia digital, estabelecer a comunicação entre os equipamentos de aquisição de imagens e os demais componentes do PACS era uma tarefa bastante complexa. 134 Revista Brasileira de Física Médica. 2009;3(1):131-9. Muitos equipamentos não eram compatíveis com o padrão DICOM, exigindo grande esforço para transformar os dados adquiridos em objetos válidos para o armazenamento no PACS. Entretanto, os dispositivos mais novos já possuem computadores acoplados que, além de armazenarem localmente as imagens adquiridas, funcionam como um canal de comunicação (gateway) com o PACS, executando três tarefas primárias: aquisição da imagem através do equipamento radiológico; conversão dos dados ao padrão DICOM e encaminhamento do estudo que contém as imagens para o servidor PACS ou estações de trabalho. Controlador PACS e servidor de arquivamento de imagens O servidor do PACS é a peça fundamental de sua arquitetura e pode ser dividido em dois componentes principais: o controlador PACS e o servidor de arquivamento de imagens. O primeiro consiste em equipamentos e programas que controlam a comunicação e todo o fluxo de dados no PACS. O segundo é responsável pelo armazenamento, segurança e integridade PACS: Sistemas de Arquivamento e Distribuição de Imagens Figura 3. Operação de consulta e recuperação de imagens. (0) WS e servidor estabelecem uma associação. (1) WS solicita serviço C-FIND ao servidor. (2) Servidor recebe a solicitação da WS (2a); executa o serviço C-FIND (2b) e depois envia os resultados para a WS (2c). (3) WS recebe resposta do servidor com resultados da consulta. (4) Usuário da WS escolhe imagens desejadas para recuperação e solicita serviço C-MOVE ao servidor. (5) Servidor recebe solicitação de serviço C-MOVE (5a) e prepara serviço C-STORE SCU (5b). (6) Serviço C-STORE SCU do servidor recupera imagens do banco de dados. (7) Servidor solicita serviço C-STORE à WS (C-STORE SCP). (8) WS recebe solicitação C-STORE do servidor e inicia processo de armazenamento das imagens. (9) Depois que a WS recebe e armazena os dados da última imagem, as duas entidades terminam a associação. dos dados das imagens recebidas. Em termos de hardware, o servidor de arquivamento de imagens pode ser considerado um “datacenter” composto por computadores de alto desempenho, dispositivos de armazenamento e conexões de rede ultrarrápidas. Os principais dispositivos para armazenamento em um PACS incluem discos magnéticos (Hard Disk, HD), conjunto de discos independentes (Reduntant Array of Inexpensive Disks, RAID), fitas magnéticas (Digital Linear Tape, DLT), além de CDs e DVDs. Devido à grande demanda por velocidade de acesso e confiabilidade, geralmente se utiliza RAID no PACS para armazenamento de dados que não necessitem estar disponíveis por um período de tempo muito longo. Por outro lado, fitas magnéticas são comuns quando o armazenamento é permanente ou deve ser mantido por muitos anos (cópias de segurança). O software implementado no servidor de arquivamento deve ser compatível com o padrão DICOM, pois é através dele que o servidor recebe exames, grava informações do paciente no banco de dados e armazena as imagens em discos ou fitas magnéticas. O servidor deve suportar também serviços Q/R, assim como serviços independentes para C-Store, C-Find e C-Move para comunicação com diferentes estações de trabalho. Revista Brasileira de Física Médica. 2009;3(1):131-9. 135 Azevedo-Marques PM, Salomão SC Apresentação de imagens Sabe-se que a radiografia plana é a primeira modalidade de exame radiológico de que se tem notícia. Mesmo após décadas de evolução tecnológica, ela ainda permanece ativa respondendo por aproximadamente 70% do volume de estudos em todo o mundo. Até meados da década de 1980, a única forma de aquisição de uma radiografia era por meio de filme. De forma semelhante, quando outras modalidades, como ultrassom, tomografia computadorizada e ressonância magnética surgiram, ainda era necessário imprimir as imagens em filme para visualização. Com o surgimento do PACS, percebeu-se a possibilidade da utilização de monitores acoplados a computadores para visualização de imagens. Os primeiros monitores padrão CRT não forneciam a qualidade necessária em comparação à de um filme radiológico e, portanto, os fabricantes tiveram de produzir monitores específicos para a área médica, com fósforos especiais para atingir níveis maiores de luminância e contraste e menor distorção espacial e latência. Mais tarde, os monitores LCD foram adotados devido ao seu baixo custo, durabilidade e qualidade de exibição, inclusive de imagens coloridas. As primeiras estações de trabalho PACS eram compostas, em geral, por quatro monitores. O número de monitores estava diretamente ligado ao costume dos radiologistas de visualizar imagens em filmes. Atualmente, a configuração mais adotada é composta por dois monitores. Uma estação de visualização de imagens é composta basicamente por quatro componentes de hardware: um computador, uma placa de vídeo, monitores e dispositivos de armazenamento. O computador da estação geralmente possui software instalado para se comunicar com o PACS via rede e, através da placa de vídeo, transforma os dados de imagem armazenados para que seja possível a sua visualização nos monitores. Dependendo da aplicação, as características da estação podem se diferentes. Por exemplo, uma estação diagnóstica para uso do radiologista precisa de monitores de maior resolução e contraste, além de um programa de visualização com interface amigável e funções básicas de manipulação de imagens (janelamento, medidas de distâncias e ângulos, entre outras). Por outro lado, uma estação voltada para a visualização de imagens e laudos associados fora do ambiente da radiologia pode utilizar componentes mais simples, uma vez que a visualização das imagens, nesse caso, possui caráter mais ilustrativo do que diagnóstico. Tabela 4. Relação entre disponibilidade e tempo não programado de parada de serviço Disponibilidade Média por Média por Média por Média por (%) ano (dias) mês (horas) semana (horas) dia (min) 95 18,25 36,5 8,42 72 98 7,3 14,6 3,37 28,8 99 3,65 7,3 1,69 14,4 99,9 0,365 0,73 0,17 1,44 99,99 0,0365 0,073 0,017 0,144 99,999 0,00365 0,0073 0,0017 0,0144 136 Revista Brasileira de Física Médica. 2009;3(1):131-9. Dois conceitos são muito importantes em relação aos equipamentos: disponibilidade e resiliência. Disponibilidade refere-se ao período de funcionamento dos sistemas sem paradas não programas (Tabela 4), e resiliência, à capacidade de retomada das tarefas após uma parada imprevista. Os equipamentos que compõem a estrutura do PACS devem ter alta disponibilidade e alta resiliência. Em relação ao fluxo de informação, existem duas arquiteturas básicas, geralmente encontradas sozinhas ou combinadas: arquitetura centralizada (ou sob demanda) e arquitetura descentralizada (ou roteada). A arquitetura centralizada trabalha com o envio dos exames diretamente para os servidores de arquivamento e, a partir destes, para as estações de trabalho (Figura 4). Essa arquitetura possui a vantagem de ser centralizada, facilitando o gerenciamento e organização do serviço, e de ser mais flexível, sem depender de um fluxo de trabalho pré-determinado. Porém, é extremamente dependente da infra-estrutura de rede e dos equipamentos de armazenamento. A arquitetura descentralizada (Figura 5) trabalha com o envio dos exames diretamente para as estações de trabalho e, a partir delas, para os servidores de arquivamento. As principais vantagens dessa abordagem são a não exigência de infra-estrutura de rede com banda muito larga e a possibilidade de acesso mais rápido aos dados. Porém, depende de um fluxo de trabalho pré-estabelecido e é mais complexa em relação ao seu gerenciamento e sincronização. Independentemente da arquitetura dos sistemas, de modo geral, as soluções encontradas utilizam tecnologia web para possibilitar a consulta de dados em redes locais ou expandidas6. Binômio custo-benefício Um aspecto importante no processo de transição para uma ambiente digital, com a implantação de um PACS, refere-se ao estudo de viabilidade baseado na avaliação do binômio custo-benefício. Em geral, quando se analisa o impacto da inserção da tecnologia da informação (TI) na área da saúde, observam-se três aspectos básicos: benefícios relacionados ao paciente, benefícios relacionados ao diagnóstico e benefícios relacionados ao serviço. Do ponto de vista do paciente, os ganhos possíveis estão fundamentalmente relacionados à agilização do atendimento, com uma melhora no fluxo de trabalho, maior segurança nos procedimentos e a possibilidade de humanização do atendimento, com redução de filas e tempo de espera. Os ganhos relacionados ao diagnóstico refletem, principalmente, as melhorias possíveis em relação à atividade dos profissionais envolvidos na cadeia de atenção à saúde e podem ser resumidos como facilidade de acesso a informações diversas e, consequentemente, maior suporte à tomada de decisão, e possibilidade de acesso à segunda opinião clínica e formativa, por meio de protocolos de telemedicina e telerradiologia. Os benefícios relacionados ao serviço (ou à instituição) estão focados principalmente em aspectos financeiros PACS: Sistemas de Arquivamento e Distribuição de Imagens Modalidades de Exames Servidor de dados RAID Arquivamento em longo prazo Estações de Trabalho Figura 4. Arquitetura centralizada: os exames são enviados dos equipamentos para o servidor e, então, para as estações de trabalho. (pay-back) e englobam a possibilidade de um maior controle de procedimentos; diminuição de perdas e repetições; diferenciação do serviço prestado; facilidade para auditoria de processos e suporte à tomada de decisão em nível de gestão. Do ponto de vista institucional, embora o investimento inicial em curto prazo possa ser elevado, dependendo da solução adotada, em médio e longo prazo os recursos investidos podem ser recuperados, inclusive com a possibilidade de financiamento de atualizações e melhorias no sistema. Goldszal7 apresenta um ganho da ordem de US$ 16,5 milhões na comparação entre os custos de implantação e manutenção do PACS (mais algum filme residual ainda existente) e o custo estimado caso se mantivesse a solução baseada em filme, ao final de um período de oito anos de funcionamento do Serviço de Radiodiagnóstico do Hospital Universitário da Universidade da Pensilvânia, Filadélfia, EUA. Alternativas possíveis de implantação que exigem menor investimento em curto prazo baseiam-se na utilização de programas livres, como o Conquest e o K-PACS, por exemplo. O Revista Brasileira de Física Médica. 2009;3(1):131-9. 137 Azevedo-Marques PM, Salomão SC Modalidades de Exames Estações de Trabalho RAID Servidor de dados Arquivamento em longo prazo Figura 5. Arquitetura descentralizada: os exames são enviados dos equipamentos para as estações de trabalho e, então, para o servidor. Conquest é um servidor DICOM completo que foi desenvolvido no Netherlands Cancer Institute, por Marcel van Herk e Lambert Zijp, com base em um código de domínio público (UCDMC DICOM) desenvolvido inicialmente no Medical Center of the University of Califórnia at Davis por Mark Oskin. O K-PACS é um visualizador de aplicação geral que fornece ferramentas básicas de manipulação de imagens e que possui também integradas as principais classes de serviços DICOM, como “store”, “query/retrieval”, “send” e “move”. Outra abordagem possível, de menor impacto financeiro em curto prazo, é uma implantação por modalidades, segundo uma filosofia modular baseada no conceito de mini-PACS8. Tendências futuras e comentários finais Diagnóstico auxiliado por computador (do Inglês, Computer-Aided Diagnosis, CAD) pode ser definido como um diagnóstico feito por um radiologista que utiliza o resultado de análises quantitativas automatizadas de imagens radiográficas como uma segunda opinião para a tomada de decisões diagnósticas9. A finalidade do CAD é melhorar a precisão do diagnóstico, bem como a consistência da interpretação da imagem radiológica, mediante o uso da resposta do computador 138 Revista Brasileira de Física Médica. 2009;3(1):131-9. como referência10. O padrão para a utilização de sistemas especialistas em processamento de imagens médicas como CAD, ainda hoje, é baseado em estação de trabalho isolada (standalone), sem a integração dos resultados obtidos aos sistemas de informação ou ao PACS. A integração de procedimentos de processamento de imagens dentro do fluxo de trabalho do PACS tem sido objeto recente de pesquisas na área de informática de imagens médicas10-14. Outro aspecto interessante no processo de adoção da tecnologia digital no ambiente radiológico hospitalar diz respeito à coordenação do processo de planejamento e implantação dos sistemas. Existe uma controvérsia bastante grande entre a comunidade médica com relação ao posicionamento do grupo de TI responsável pelo PACS dentro do organograma institucional15. Do ponto de vista econômico-administrativo, a centralização da gestão do PACS junto ao grupo de TI responsável pelos sistemas de informação parece ser a solução mais adequada. Porém, do ponto de vista da gestão da informação dentro do serviço de radiologia e considerando-se a grande dependência da área em relação à tecnologia, bem como as particularidades envolvidas no gerenciamento de imagens, a organização de um serviço de TI especializado ligado ao serviço de radiologia parece ser uma solução mais eficiente. O que se percebe é que instituições com PACS: Sistemas de Arquivamento e Distribuição de Imagens foco principal na assistência tendem a privilegiar a organização integrada, baseada em sistemas comerciais e contratos de manutenção por parte de terceiros. Em contrapartida, trabalham com equipes de TI bem reduzidas. Por outro lado, instituições de ensino, como os hospitais universitários, por exemplo, tendem a privilegiar a organização descentralizada e buscar o desenvolvimento e/ou customização local de soluções livres e de código aberto, ou desenvolvidas em parceria com a iniciativa privada. Porém, em geral, necessitam de equipes de TI com maior número de profissionais. Finalmente, deve-se ressaltar a necessidade de estabelecimento de procedimentos de certificação de sistemas e serviços, buscando-se garantir os aspectos de confidencialidade, interoperabilidade e consistência nos processos de arquivamento e distribuição de Imagens, seja em nível local ou remoto, em conformidade com o preconizado pelo Conselho Federal de Medicina (CFM) em suas resoluções referentes às Normas Técnicas Concernentes à Digitalização e Uso dos Sistemas Informatizados para Guarda e Manuseio dos Documentos dos Prontuários dos Pacientes (CFM-1821/2007) e à Telerradiologia (CFM-1890/2009). Referências 1. Wiley G. The prophet motive: How PACS was developed and sold. [Homepage on the internet]. [cited 16 Sep, 2009]. Imaging Economics, May 2005. Available from: http://www.imagingeconomics.com/issues/ articles/2005-05_01.asp 2. Siegel EL, Kolodner RM. Filmless radiology: state of the arte and future trends. In: Siegel EL, Kolodner RM, editors. Filmless radiology. Berlin: Springer-Verlag, 1999. p. 3-20. 3. Horii SC. A nontechnical introduction to DICOM. [Homepage on the internet]. [cited 16 sep, 2009]. Available from: http://www.rsna.org/Technology/ DICOM/intro/index.cfm. 4. Tanenbaum AS. Redes de computadores. 4 ed. Rio de Janeiro: Campus; 2003. 5. Huang HK. PACS and imaging informatics: basic principles and applications. Wilmington: Wiley-Liss; 2004. 6. Azevedo-Marques PM. Integração RIS/PACS no Hospital das Clínicas de Ribeirão Preto: uma solução baseada em “web”. Radiol Bras. 2005;38(1):37-43. 7. Goldszal AF, Bleshman MH, Bryan RN. Financing a large-scale picture archival and communication system. Acad Radiol. 2004;11(1):96-102. 8. Azevedo-Marques PM. Implantação de um mini-PACS (sistema de arquivamento e distribuição de imagens) em hospital universitário. Radiol Bras. 2001;34(4):221-4. 9. Azevedo-Marques PM. Diagnóstico auxiliado por computador na radiologia. Radiol Bras. 2001;34(5):285-93. 10. Doi K. Computer-aided diagnosis in medical imaging: Historical review,current status and future potential. Computerized Medical Imaging and Graphics. 2007;31:198-211. 11. Cotrim DS, Marques da Silva AM, Bezerra EA. Infra-estrutura de informática para sistemas de apoio ao diagnóstico aplicada a servidores PACS. [Apresentado no III Simpósio de Instrumentação e Imagens Médicas – SIIM, São Carlos, 7 a 9 de novembro de 2007]. 12. Caritá EC, Seraphim E, Honda MO, Azevedo-Marques PM. Implementação e avaliação de um sistema de gerenciamento de imagens médicas com suporte à recuperação baseada em conteúdo. Radiol Bras. 2008;41(5):331-6. 13. Azevedo-Marques PM, Salomão SC, Traina AJM, da Silva MP, Macedo AA, Pessotti HC. CAD-PACS integration: a framework for pattern recognition of diffuse lung disease in HRCT. Int J CARS. 2009;4(Suppl 1):S180-S181. 14. Le AHT, Liu B, Huang HK. Integration of computer-aided diagnosis/detection (CAD) results in a PACS environment using CAD-PACS toolkit and DICOM SR. Int J CARS. 2009;4:317-29. 15. Channin DS, Bowers G, Nagy P. Should radiology IT be owned by the chief information officer? J Digit Imaging. 2009;22(3):218-21. Revista Brasileira de Física Médica. 2009;3(1):131-9. 139 Artigo de Revisão Revista Brasileira de Física Médica. 2009;3(1):141-9. Método de Monte Carlo: princípios e aplicações em Física Médica Monte Carlo Method: principles and applications in Medical Physics Hélio Yoriyaz1 1 Pesquisador Senior Instituto de Pesquisas Energéticas e Nucleares (IPEN-CNEN/SP) – São Paulo (SP), Brasil. Resumo O método de Monte Carlo tem se tornado, ao longo dos anos, uma ferramenta padrão para cálculos de dose absorvida e outras grandezas de interesse nas áreas de terapêutica e diagnóstico da Física Médica. Este artigo faz uma breve revisão das principais aplicações deste método, abrangendo as aplicações nas diversas modalidades de tratamento, acompanhado da descrição do surgimento dos principais códigos computacionais. Com o intuito de introduzir o tema àqueles que desejam conhecer o método, é apresentada uma breve descrição dos conceitos básicos do método e suas potencialidades. Palavras-chave: Método de Monte Carlo; dosimetria computacional; Física Médica. Abstract The Monte Carlo method has become the main tool for absorbed dose calculation and other parameters of interest in almost all Medical Physics areas, including therapeutic and diagnostic. This article presents a brief review of the main applications of the method, covering the applications in several treatment modalities and accompanied by a description of the most widely used Monte Carlo codes worldwide in general and specifically in Medical Physics. A brief presentation of the basic concepts of the method is also presented for the readers who are not acquainted with this method. Keywords: Monte Carlo Method; computational dosimetry; Medical Physics. Introdução Hoje em dia, o método de Monte Carlo é uma ferramenta matemática comumente utilizada em diversos segmentos da ciência e da engenharia para simular problemas que podem ser representados por processos estocásticos. Simulações do transporte de radiação por meio deste método e, em particular, na Física Médica, têm passado por um rápido crescimento nas últimas décadas. Ao se realizar uma pesquisa na base de dados PubMed*, nota-se que a primeira publicação registrada que aborda este tema data de 1949, por Metropolis e Ulam1. A partir de então, estão registradas 22.969 publicações e, certamente, ao passo que o leitor corre os olhos por este artigo, o número está aumentando. Em parte, este vertiginoso crescimento se deve diretamente ao rápido avanço tecnológico dos computadores, que traz benefícios tanto à velocidade de processamento quanto à capacidade de armazenamento de informações2. * http://www.ncbi.nlm.nih.gov/sites/entrez O método em si já era conhecido há séculos, mas passou a ser efetivamente utilizado somente nas últimas décadas. Pelo fato de as simulações por esse método estarem baseadas em eventos que ocorrem aleatoriamente e, ainda, por terem uma similaridade com jogos de azar, durante o Projeto Manhattan na Segunda Guerra Mundial, Ulam e Von Neumann denominaram “Monte Carlo”, fazendo referência à famosa cidade de Mônaco conhecida mundialmente como a capital dos jogos de azar3. O método de Monte Carlo (MMC) pode ser descrito como um método estatístico, no qual se utiliza uma sequência de números aleatórios para a realização de uma simulação. Em termos de transporte de radiação, o processo estocástico pode ser visto como uma família de partículas cujas coordenadas individuais mudam aleatoriamente em cada colisão. O comportamento médio dessas partículas é descrito em termos de grandezas macroscópicas, como fluxo ou densidade de partículas. O valor esperado dessas grandezas corresponde à solução determinística da equação de Boltzman (que rege o fenômeno de transporte de radiação). Grandezas específicas Correspondência: Hélio Yoriyaz, Cidade Universitária, Avenida Lineu Prestes, 2.242 – Butantã, CEP 05508-000 – São Paulo (SP), Brasil, Tel.: (11) 3133-9482, Fax: (11) 3133-9423, E-mail: [email protected] Associação Brasileira de Física Médica® 141 Yoriyaz H como energia depositada ou dose são derivadas destas grandezas. Simulações estatísticas contrastam com métodos convencionais de discretização, que são tipicamente aplicados em sistemas de equações diferenciais parciais ou ordinárias que descrevem o processo físico. Em muitas aplicações práticas do MMC, o processo físico é simulado diretamente, sem necessidade de se descreverem as equações matemáticas que representam o comportamento do sistema, sendo que o único requisito necessário é que o processo físico possa ser descrito por funções densidades de probabilidade (PDF, do inglês probability density functions), que delineiam o processo físico do fenômeno observado. Desta forma, a essência do MMC aplicado a transporte de radiação consiste em estimar determinadas quantidades, observando-se o comportamento de um número grande de eventos individuais. O conjunto de eventos que ocorre com uma determinada partícula, desde o seu “nascimento”, ou seja, o momento em que ela é emitida pela fonte, até o momento em que ela “morre”, ou seja, é absorvida ou escapa do sistema, é denominado de história da partícula. Essas histórias são geradas por meio de amostragens das PDF. Em outras palavras, solucionar um problema com o Método de Monte Carlo consiste em realizar uma simulação matemática (ou experimento matemático) do fenômeno físico de interesse ao invés de solucionar a equação ou conjunto de equações que o regem. Assim, qualquer cálculo de Monte Carlo é iniciado com a criação de um modelo que representa o sistema real de interesse (por exemplo, detector, corpo humano, etc.). A partir de então, simulam-se as interações da radiação com este modelo por meio de amostragens aleatórias das PDF que caracterizam esse processo físico. À medida que o número de histórias das partículas simuladas aumenta, melhora-se a qualidade do comportamento médio do sistema, caracterizado pela diminuição das incertezas estatísticas das grandezas de interesse. Entretanto, este método é qualificado pela impraticabilidade em se obter a solução exata do problema, mas o que se espera é uma boa estimativa do valor exato à medida que um número suficientemente grande de amostragens é processado. Este aspecto explica a relação do aumento do uso dessa técnica concomitantemente ao avanço tecnológico na área computacional. Uma ilustração simplificada do processo de cálculo pelo MMC pode ser visto na Figura 1. O programa de Figura 1. Ilustração simplificada de um processo de simulação por meio do método de Monte Carlo. 142 Revista Brasileira de Física Médica. 2009;3(1):141-9. Monte Carlo é alimentado por um gerador de números aleatórios utilizado para a amostragem dos vários fenômenos que ocorrem durante os processos de interesse. Essas amostragens são realizadas através das distribuições de probabilidade conhecidas e que caracterizam os processos referentes aos fenômenos físicos. Como resultado, obtêm-se valores médios que estão relacionados com grandezas físicas integrais de interesse como fluxo de partículas, deposição de energia por radiação ou dose radioativa4. Conceitos básicos Função densidade de probabilidade e função probabilidade cumulativa Como o leitor já pode ter observado, a técnica de Monte Carlo envolve alguns componentes primários necessários a qualquer tipo de simulação: a) funções densidade de probabilidade (PDF); b) gerador de números aleatórios; c) técnicas de amostragem; A função densidade de probabilidade, dada por p(x), é uma medida da probabilidade de observar x, tal que: • p(x)≥0, desde que probabilidades negativas não tenham sentido; • p(x) é normalizado no domínio de x, isto é: Associado a estas funções, existem as funções probabilidade cumulativas (CPF, do inglês cumulative probability functions), definidas como na Equação 1. (1) As propriedades que podem ser derivadas desta função são: • c(xmin)=0 no início do domínio de x; • c(xmáx)=1 no final do domínio de x. As CPF podem ser relacionadas com números aleatórios uniformemente distribuídos, o que possibilita uma forma de amostragem dessas funções ou distribuições. Outra componente fundamental em processos estocásticos é o conceito de variável aleatória. Qualquer quantidade que não pode ser especificada sem o uso das leis de probabilidade é chamada de variável aleatória. Define-se a variável aleatória como um número real ξ associado ao evento E. Elas são úteis porque permitem a quantificação de processos aleatórios e facilitam a manipulação numérica, tal como a média e o desvio padrão. Em outras palavras, uma variável aleatória é uma quantidade numérica associada a um jogo de azar, sendo que, à medida que os vários eventos possíveis ocorrem, a Método de Monte Carlo: princípios e aplicações em Física Médica variável aleatória assume valores definidos. Uma variável aleatória ξ é dita ter uma distribuição discreta se assumir apenas valores distintos x1, x2,..., cujo conjunto pode ser finito ou infinito. Uma variável aleatória ξ é dita ter uma distribuição contínua se ela pode assumir qualquer valor entre os limites x1 e x2. Assim sendo, a probabilidade desta variável estar neste intervalo, P(x1<ξ<x2) é dada pela Equação 2. (2) Na qual p(x) é a função densidade de probabilidade de x. Gerador de números aleatórios Toda simulação de Monte Carlo é efetuada por meio de amostragens das funções densidade de probabilidade e do uso das funções probabilidade cumulativa. Essas amostragens são realizadas através de números aleatórios, portanto, qualquer programa computacional que utiliza o MMC necessita de um gerador de números aleatórios. Geradores de números aleatórios são baseados em algoritmos matemáticos que geram números, cujas ocorrências obedecem a uma aleatoriedade, e que simulam a verdadeira aleatoriedade encontrada na natureza. Neste sentido, os números gerados por estes algoritmos são formalmente chamados de números pseudoaleatórios. Um conjunto de números definidos dentro de um intervalo, por exemplo [0,1], constitui uma sequência de números aleatórios se eles estiverem uniformemente distribuídos neste intervalo e se nenhuma correlação existir dentro dessa sequência. Durante a simulação de um problema, os números aleatórios são utilizados no processo de decisão de escolha, quando um evento físico possui vários resultados possíveis. Uma simulação típica pode utilizar entre 107 a 1012 números aleatórios3. Entre os métodos mais utilizados, pode-se citar o método linear congruencial, o método congruencial misto e o método congruencial multiplicativo. O estudo de novos algoritmos geradores de números aleatórios continua uma área de pesquisa ativa, principalmente em aplicações nas quais se torna crítica. Técnicas de amostragem Uma vez conhecidas as PDF que caracterizam os processos físicos do fenômeno em estudo e de posse de um algoritmo de geração de números aleatórios, é possível desenvolver técnicas de amostragens que fazem a conexão entre as funções de probabilidade (PDF e CPF) e os números aleatórios, r. Para isso, é preciso que se trate de uma função densidade de probabilidade p(x) válida no intervalo [a,b]. Se essa função é integrável neste intervalo, pode-se construir a respectiva função probabilidade cumulativa c(x) dada pela Equação 3. (3) Assumindo que a função p(x) esteja normalizada, temos: c(b)=1. Uma vez que a função c(x) varia entre 0 e 1, pode-se mapear essa função através da variável r uniformemente distribuída neste mesmo intervalo [0,1], tal que: r=c(x). Invertendo-se essa equação, temos: x=c-1(r). Desta forma, é possível amostrar um valor de x da PDF a partir de um número aleatório r. Um exemplo prático do uso desta técnica é a determinação da distância z de interação entre uma partícula e o meio. Neste caso, a função densidade de probabilidade que governa esse evento é dada pela Equação 4. p(z)dz=µe-µzdz (4) Na qual μ é o coeficiente de interação e z está definida no intervalo [0≤z< ∞]. A função cumulativa c(z) correspondente é dada pela Equação 5. c(z)=1-e-µz = r (5) Invertendo a equação, temos a Equação 6. z=-1/μ log(1-r) (6) A restrição desta técnica é que a função p(x) seja integrável e que posteriormente a função c(x) seja analítica ou numericamente inversível, entretanto, existem casos em que isso não é possível ou, mesmo sendo possível, a inversão se torna matematicamente muito complicada. Neste caso, uma alternativa é o uso do método da rejeição5. Definindo-se o valor M como o máximo da função p(x) em xmax, ou seja, M = p(xmáx), tal que, p(x)≤M no intervalo [a≤x≤b], escolhe-se um ponto aleatório no retângulo formado pela base (b-a) e altura M, como mostrado na Figura 2. Desta forma, o processo de amostragem segue o seguinte esquema: f(x) M a b x Figura 2. Técnica de amostragem de uma função f(x) pelo método da rejeição. Revista Brasileira de Física Médica. 2009;3(1):141-9. 143 Yoriyaz H • • geram-se dois números aleatórios r1 e r2 e calcula-se: x=a+r1.(b-a) o valor de x é aceito se: r2≤p(x)/M. Caso contrário, é rejeitado e repete-se o processo. Muitas outras técnicas de amostragem e redução de variância têm sido desenvolvidas e apresentadas em literatura, abrangendo uma vasta área de aplicações, desde o uso geral6,7, bem como especificamente para simulação do transporte de radiação e em particular para física médica5,8,9. Outros exemplos de amostragem de funções Seleção do nuclídeo na mistura Seja Sn a seção de choque macroscópica total de cada tipo de nuclídeo numa mistura composta de N nuclídeos, e St a seção de choque total desta mistura, como visto na Equação 7. (7) Seja r1 um número aleatório gerado. O nuclídeo 1 é selecionado se o número aleatório r1<S1/St, ou então o nuclídeo 2 é selecionado se o número aleatório for dado pela Equação 8. (8) E assim sucessivamente, de forma que o i-ésimo nuclídeo será selecionado se: (9) Seleção do tipo de interação Uma vez escolhido o nuclídeo, pode-se dar prosseguimento à simulação por meio da escolha do tipo de interação que a partícula sofrerá com este nuclídeo, por exemplo, entre uma reação de espalhamento e de absorção. Para isso, seja outro número aleatório r2 gerado, e seja Ss a seção de choque de espalhamento deste nuclídeo selecionado. Se r2 for menor que Ss/St, ocorrerá um espalhamento; caso contrário, ocorrerá uma absorção. Seleção do ângulo de espalhamento azimutal f No exemplo anterior, supondo que a interação de espalhamento tenha sido escolhida, temos que a PDF correspondente é dada por f(f)=1/2p e a correspondente CDF será: 144 Revista Brasileira de Física Médica. 2009;3(1):141-9. (10) Selecionando-se um número aleatório r3, obtém-se f através da Equação 11. r3=F(f)=f/2p, tal que: f=2pr3 (11) A sequência de eventos acima pode continuar com a amostragem do ângulo polar de espalhamento, seguida pela amostragem da nova energia da partícula, após a colisão, e assim sucessivamente. Para cada caso, o algoritmo de Monte Carlo utilizará um número ou um conjunto de números aleatórios, gerados a partir de um gerador de números aleatórios, para a realização da amostragem da PDF correspondente a cada evento. Como se pode notar, esta sucessão de amostragens, que na verdade segue o processo sequencial natural da interação da radiação com a matéria, constitui a simulação de Monte Carlo. Matematicamente, é possível extrair informações sobre uma grandeza física de interesse à medida que esta sucessão de eventos vai sendo simulada. Isso é feito armazenando-se os valores assumidos pelas variáveis aleatórias correspondentes às grandezas físicas de interesse em cada um dos eventos simulados. Aplicações em física médica O MMC tem se tornado, ao longo dos anos, uma ferramenta fundamental para cálculos de dose absorvida, e outras grandezas de interesse, relacionados ao tratamento do câncer por radiação tanto com fontes externas como com fontes internas. Além disso, as aplicações do método têm se estendido para a avaliação de dose em procedimentos diagnósticos e estudos sobre qualidades de imagens médicas em geral. Com o aumento da utilização deste método, também surgiram vários códigos computacionais, alguns para aplicações gerais e outros específicos para determinadas áreas de pesquisa. Dentre esses códigos, podem-se citar os mais conhecidos: EGS410, MCNP-4C11, GEANT412, PENELOPE13 entre outros. Esses códigos têm sido extensamente comparados entre si e com medidas experimentais, com o intuito de analisar a qualidade de seus resultados em cálculos de dose absorvida, gerando muitos trabalhos publicados em literatura14-19. Com o aumento da confiabilidade deste método, começaram a ser desenvolvidos códigos para uso em sistemas de planejamento em radioterapia, tais como: PEREGRINE20,21, ORANGE22,23 e THERAPLAN24,25. Além disso, as técnicas de Monte Carlo começaram a ser utilizadas em praticamente todas as áreas da física médica. Nos próximos itens deste artigo, são descritas de forma geral as suas diversas aplicações. Aplicações em medicina nuclear De certa forma, é consenso geral que as primeiras aplicações das técnicas de Monte Carlo em física médica Método de Monte Carlo: princípios e aplicações em Física Médica ocorreram na área de medicina nuclear. Desde 1968, o comitê MIRD (Medical Internal Radiation Dose), através da revista The Journal of Nuclear Medicine da Sociedade Americana de Medicina Nuclear, tem publicado regularmente dados de cálculos de dose a partir de seu formalismo de cálculo, cujos dados são baseados em técnicas de Monte Carlo. Concomitantemente aos dados publicados, novos modelos anatômicos do corpo humano foram desenvolvidos ao longo dos anos. Na década de 1970, Snyder et al.26 desenvolveram o modelo antropomórfico e heterogêneo que consistia em esferas, elipsoides e toroides seccionados para simular os diversos órgãos internos do corpo. Em 1987, Cristy e Eckerman27 desenvolveram uma série de modelos representando crianças de várias idades. Outros trabalhos têm sido publicados introduzindo outras modificações em determinados órgãos, tais como sistema digestivo e reto28, ou novos modelos dosimétricos para a região da cabeça e cérebro29. Guimarães30 quantificou os dados antropomórficos de massa e altura para o brasileiro médio entre 20 e 40 anos de idade, dando origem ao modelo Matemático do Homem Brasileiro para uso em dosimetria interna. Zubal et al.31 produziram um modelo baseado em imagens de tomografia computadorizada (TC) de um paciente real para fins de pesquisa. Neste modelo, cada parte do corpo ou órgão é constituída por pequenos volumes, ou “voxels”, criados a partir das imagens digitalizadas. A partir de então, muitos outros modelos começaram a ser criados32-36. A Figura 3 mostra as comparações entre alguns modelos matemáticos de órgãos e outros baseados em imagens tomográficas. Cada novo modelo anatômico desenvolvido possibilitou novos cálculos de frações absorvidas para diferentes radionuclídeos de interesse em medicina nuclear. Muitos trabalhos foram publicados nesse sentido, usando diferentes códigos de Monte Carlo37-40. A Figura 4 mostra um exemplo de resultado obtido de cálculo de distribuição de dose dentro de um determinado órgão ou tecido em estudo através de ferramentas computacionais que acoplam imagens médicas com códigos de Monte Carlo. (A) Aplicações em radioterapia Entre o final da década de 1930 e inicio da década de 1940, ocorreu o desenvolvimento do gerador Van de Graaff, que possibilitou a terapia por meio de aceleradores de megavoltagem. Após a Segunda Guerra Mundial, os aceleradores com feixes de raio X de alta energia já eram comuns e, a partir de então, foram desenvolvidas para produzir também feixes de elétrons na faixa terapêutica de 5 a 30 MeV41. À medida que os aceleradores lineares (LINACS) foram evoluindo, tornaram-se o meio mais utilizado em radioterapia. Em muitos aspectos, a determinação de parâmetros dos feixes de radiação produzidos em LINACS, principalmente aqueles difíceis ou impossíveis de medir, foi realizada com o auxílio de técnicas de Monte Carlo. Além disso, a determinação da distribuição de dose em pacientes (A) (B) Figura 3. Comparação de modelos matemáticos de órgãos com obtidos por imagens de tomografia computadorizada: (A) sistema gastrintestinal e (B) pulmões. (B) (C) Figura 4. Ilustração de imagens tomográficas (A) anatômicas e (B) funcionais utilizadas para determinação da distribuição de dose (C) pelo método de Monte Carlo. Revista Brasileira de Física Médica. 2009;3(1):141-9. 145 Yoriyaz H que se submetem à radioterapia é um dos processos mais importantes no tratamento e, portanto, requer alta qualidade em seus resultados. De maneira geral, é reconhecido que as técnicas de Monte Carlo, atualmente, são as ferramentas mais precisas para a obtenção desses resultados. Acrescentando-se o fato de que a capacidade computacional de processadores aumentou vertiginosamente, tornou-se possível o uso do MMC em sistemas de planejamento em radioterapia num tempo plausível em práticas clínicas. Os primeiros sistemas deste tipo foram implantados para radioterapia com feixes de fótons42,21,43,25. Mais recentemente, técnicas de Monte Carlo têm sido usadas para estudos em tratamento com radioterapia com feixes de intensidade modulada (IMRT) e campos pequenos44-46. A Figura 5 mostra o exemplo de uma simulação de Monte Carlo, usando o código MCNP-4C para tratamento com feixes de elétrons de 9 MeV na região da cabeça e pescoço. Para viabilizar esta simulação, os dados anatômicos do paciente real foram substituídos pelo modelo anatômico MAX33. O espectro energético do acelerador foi obtido pelas técnicas de reconstrução baseadas em dados experimentais de PDP (porcentagem de dose profunda) e perfis de dose47,48. A fonte de radiação foi posicionada de modo que o feixe incidisse na lateral do objeto simulador, sendo que a distância entre o plano da fonte e o plano tangencial à pele fosse de 15 cm, (Figura 5). As distribuições de dose foram calculadas em alguns planos perpendiculares ao eixo central do feixe de radiação (plano YZ), sendo que o 146 plano consiste em um arranjo de 74 x 158 voxels, totalizando 11.692 voxels, onde foi computada a deposição de energia. As distribuições de dose (em unidades relativas) são apresentadas em forma de imagem, onde cada cor representa um nível de dose para melhor visualização das distribuições. As Figuras 6, 7 e 8 apresentam respectivamente os resultados de distribuição de dose obtidos por simulação para três profundidades distintas em planos perpendiculares ao feixe de radiação (planos YZ), 41,28; 42,72 e 43,80 cm da fonte. Aplicações em Braquiterapia A Braquiterapia tornou-se uma modalidade corrente a partir do início da década de 1950. Com o início da utilização de semente de I-125 e Pd-103 em meados da década de 1960, verificou-se a necessidade de uma quantificação mais apurada da distribuição de dose. O uso das técnicas de Monte Carlo data desta época, sendo que eram utilizadas para cálculos de distribuição de dose radial para fontes puntuais isotrópicas no meio. No trabalho de Williamson49, no qual foi utilizado o MMC, foi constatado que resultados obtidos por métodos semiempíricos superestimaram a dose em 10 a 14%. Uma série de outros estudos comparativos entre medidas experimentais de dose e cálculos de Monte Carlo comprovaram a confiabilidade dessas técnicas para a determinação de doses em Braquiterapia tanto em meios homogêneos como em sistemas heterogêneos50-52. Figura 5. Irradiação de um paciente na região de cabeça-pescoço. Figura 7. Distribuição de dose na região de cabeça-pescoço num plano perpendicular ao feixe de radiação com distância de 42,72 cm da fonte. Figura 6. Distribuição de dose na região de cabeça-pescoço num plano perpendicular ao feixe de radiação, com distância de 41,28 cm da fonte. Figura 8. Distribuição de dose na região de cabeça-pescoço num plano perpendicular ao feixe de radiação distante 43,80 cm da fonte. Revista Brasileira de Física Médica. 2009;3(1):141-9. Método de Monte Carlo: princípios e aplicações em Física Médica Em Braquiterapia intravascular, as doses recebidas por pacientes foram avaliadas utilizando-se diversos códigos de Monte Carlo para diferentes materiais radioativos53,54. Em Braquiterapia oftálmica, muitos estudos também foram realizados utilizando-se fontes de Co-60, I-125, Pd103 e Ru-106, entre outros55-58. Aplicações em diagnósticos Recentemente, em muitos hospitais, os filmes radiográficos convencionais têm sido substituídos pela radiografia digital. Entretanto, uma das principais diferenças entre este e os filmes convencionais é a sua variação de sensibilidade com energia do raio X, de forma que a qualidade do espectro de emissão do raio X que produzirá a melhor qualidade de imagem é diferente daquele para filmes convencionais59. Neste sentido, diversos estudos têm sido realizados levando-se em conta a qualidade das imagens e a dose efetiva recebida pelos pacientes submetidos a estes exames. Códigos de Monte Carlo têm sido utilizados para estabelecer correlações entre os parâmetros físicos do sistema de imagem e as informações diagnósticas obtidas das imagens60,61. Alguns códigos, como o MCNP562 e o MCNPX63, fornecem até mesmo opções específicas de cálculo para simulação de imagens radiográficas. Além disso, o MMC é atualmente utilizado para avaliar e aperfeiçoar vários parâmetros relacionados à aquisição da imagem, como o espectro de raio X, geometrias adequadas e doses de radiação. Outros trabalhos têm quantificado as doses de radiação recebidas por pacientes que se submetem a exames diagnósticos com tomografia computadorizada (TC)64-66. Sabe-se que exames de TC contribuem com 34 a 41% da dose total de radiação recebida pelos pacientes submetidos a exames diagnósticos por imagem. Esse percentual varia de um país para outro e tende a aumentar com o a maior utilização desses exames. Com isto, existe hoje uma preocupação em se quantificarem as doses de radiação67. Alguns trabalhos recentes avaliaram as doses de radiação usando códigos de Monte Carlo a fim de determinar dados com maior precisão utilizando-se dados específicos do paciente68,69. Outras aplicações Dentre muitas outras aplicações do MMC em física médica, destaca-se o papel fundamental que ele exerceu no cálculo da razão de stopping power entre a água e o ar, que é um parâmetro essencial para conversão de ionização em dose na água. Iniciando-se na década de 1980, vários parâmetros relacionados à câmara de ionização foram determinados, tais como os fatores de espalhamento e atenuação nas paredes da câmara70. Com o passar dos anos e com o avanço tecnológico na área computacional, possibilitaram-se simulações mais precisas com incertezas estatísticas de até 0,1%. Com isso, novos fatores de correção puderam ser quantificados, como a não uniformidade das paredes de uma câmara de ionização de placas paralelas2. Hoje em dia, a avaliação da resposta de novos tipos de detectores usados em dosimetria é normalmente feita por meio da simulação pelo método de Monte Carlo71,72,73. Na área de terapia com captura de nêutrons (BNCT), modelos computacionais baseados no método de Monte Carlo têm sido desenvolvidos para uso em sistemas de planejamento e cálculo de distribuição de dose74,75. Conclusão A simulação pelo MMC consiste em realizar um experimento matemático. A grande diferença é que, em simulação, ao contrário de um experimento “real”, as regras podem ser mudadas e, ainda assim, resultados realistas serem obtidos. Técnicas de redução de variância são artifícios matemáticos que são introduzidos no processo de amostragem e modificam essas “regras” com o intuito de reduzir o tempo de processamento computacional e, ao mesmo tempo, obter resultados realistas, compensando de alguma forma as mudanças introduzidas. Além do mais, a flexibilidade e a variedade de opções de simulação permitem que fenômenos físicos sejam “ligados” ou “desligados” para quantificar suas influências no fenômeno observado. Esses recursos fazem com que o método se torne extremamente útil em análises do comportamento individual de cada tipo de evento dentro de um processo como um todo, algo que seria impossível num experimento real, abrindo uma infinidade de possibilidades e experimentos teóricos cujo limite é a imaginação. À medida que ocorre o avanço tecnológico na área computacional, a técnica de Monte Carlo para uso em transporte de radiação e, especificamente, para a área de Física Médica, tende a aumentar. Com isso, códigos mais sofisticados e precisos surgirão para aplicação em dosimetria e sistemas de planejamento em modalidades que usam a radiação para tratamento de câncer. A tendência é que áreas correlatas, como microdosimetria e nanodosimetria, também comecem a utilizar mais intensamente modelos estocásticos de Monte Carlo para estudar fenômenos, principalmente os mais complicados ou impossíveis de se estudar experimentalmente. Além disso, novas modalidades de terapia com radiação têm sido testadas e apresentado promissores resultados, mas estudos mais minuciosos, que novamente recorrerão a simulações computacionais, ainda são necessários. Referências 1. Metropolis N, Ulam S. The Monte Carlo method. J Am Stat Assoc. 1949;44(247):335-41. 2. Rogers DW. Fifty years of Monte Carlo simulations for medical physics. Phys Med Biol. 2006;51(13):R237-R301. 3. Zaidi H, Sgouros G. Therapeutic Applications of Monte Carlo Calculations in Nuclear Medicine. London: Institute of Physics Publishing; 2003. 4. Jenkins TM, Nelson WR, Rindi A. Monte Carlo Transport of Electrons and Photons. New York: Plenum Press; 1988. Revista Brasileira de Física Médica. 2009;3(1):141-9. 147 Yoriyaz H 5. Morin RL. Monte Carlo Simulation in the Radiological Sciences. Florida: CRC Press; 1988. 6. Hammersley M, Handscomb DC. Monte Carlo Methods. London: Methuen & Co LTD; 1964. 7. Kalos MH, Whitlock PA. Monte Carlo Methods. Vol. 1. New York: John Wiley & Sons; 1986. 8. Cashwell ED, Everett CJ. A Practical Manual on the Monte Carlo Method for random walk problems. New York: Pergamon Press; 1959. 9. Lux I, Koblinger L. Monte Carlo Particle Transport Methods: Neutron and Photon Calculations. Boca Raton: CRC Press; 1991. 10. Nelson WR. Hirayama H, Rogers DWO. The EGS4 code system, Report SLAC-265. Stanford, CA: Stanford Linear Accelerator Center; 1985. 11. Briesmeister JF. MCNP - A general Monte Carlo N-particle transport code, Version 4C Report LA-13709-M. Los Alamos National Laboratory; 2000. 12. Agostinelli S, Allison J, Amako K, Apos-tolakis J, Araujo H, Arce P et al. GEANT4-a simulation toolkit. Nucl Instrum Methods A. 2003;506:250-303. 13. Baro J, Sempau J, Fernandez-Varea JM, Salvat F. PENELOPE: an algorithm for Monte Carlo simulation of the penetration and energy loss of electrons and positrons in matter. Nucl Instrum Methods. 1995;B100:31-46. 14. Love PA, Lewis DG, Al-Affan IA, Smith CW. Comparison of EGS4 and MCNP Monte Carlo codes when calculating radiotherapy depth doses. Phys Med Biol. 1998;43(5):1351-7. 15. Jeraj R, Keall PJ, Ostwald PM. Comparisons between MCNP, EGS4 and experiment for clinical electron beams. Phys Med Biol. 1999;44(3):705-17. 16. Schaart DR, Jansen JT, Zoetelief J, de Leege PF. A comparison of MCNP4C electron transport with ITS 3.0 and experiment at incident energies between 100 keV and 20 MeV: influence of voxel size, substeps and energy indexing algorithm. Phys Med Biol. 2002;47(9):1459-84. 17. Doucet R, Olivares M, DeBlois F, Podgorsak EB, Kawrakow I, Seuntjens J. Comparison of measured and Monte Carlo calculated dose distributions in inhomogeneous phantoms in clinical electrons beams. Phys Med Biol. 2003;48(15):2339-54. 18. Staelens S. Monte Carlo simulations of a scintillation camera using GATE: validation and application modeling. Phys Med Biol. 2003;48:3021-42. 19. Pacilio M, Lanconelli N, Lo MS, Betti M, Montani L, Torres AL, et al. Differences among Monte Carlo codes in the calculations of voxel S values for radionuclide targeted therapy and analysis of their impact on absorbed dose evaluations. Med Phys. 2009;36(5):1543-52. 20. Hartmann Siantar CL, Moses E. The PEREGRINE program: using physics and computer simulation to improve radiation therapy for cancer. Eur J Phys. 1998;19:513-21. 21. Hartmann Siantar CL, Walling RS, Daly TP, Faddegon B, Albright N, Bergstrom P, et al. Description and dosimetric verification of the PEREGRINE Monte Carlo dose calculation system for photon beams incident on a water phantom. Med Phys. 2001;28(7):1322-37. 22. Van der Zee W, Hogenbirk A, van der Marck SC. ORANGE: a Monte Carlo engine for radiotherapy. Phys Med Biol. 2005;50(4):625-41. 23. Van der Marck SC, Hogenbirk A. ORANGE, a new fast dose engine for radiotherapy treatment planning. Rad Prot Dosim. 2005;115:517-21. 24. Cygler JE, Daskalov GM, Chan GH, Ding GX. Evaluation of the first commercial Monte Carlo dose calculation engine for electron beam treatment planning. Med Phys. 2004;31(1):142-53. 25. Cygler JE, Lochrin C, Daskalov GM, Howard M, Zohr R, Esche B, et al. Clinical use of a commercial Monte Carlo treatment planning system for electron beams. Phys Med Biol. 2005;50(5):1029-34. 26. Snyder W, Ford M, Warner G, Estimates of specific absorbed fractions for photon sources uniformly distributed in various organs of a heterogeneous phantom. New York: MIRD Pamphlet, n. 5, Society of Nuclear Medicine (revised); 1978. 27. Cristy M, Eckerman K. Specific Absorbed Fractions of Energy at Various Ages from Internal Photon Sources, Rep. ORNL/NUREG/TM-8381, V1–V7. Oak Ridge Natl Lab TN; 1987. 148 Revista Brasileira de Física Médica. 2009;3(1):141-9. 28. Mardirossian G, Tagesson M, Blanco P, Bouchet LG, Stabin M, Yoriyaz H, et al. A New Rectal Model for Dosimetry Applications. Med Phys. 1999;31:142-53. 29. Bouchet LG, Bolch WE, Weber DA, Atkins HL, Poston JW. A revised dosimetric model of the adult head and brain. J Nucl Med. 1996;37(7):1226-36. 30. Guimarães MI. Comparison of specific absorbed fractions (SAF) in the Brazilian adult male and the reference man phantoms. Cell Mol Biol (Noisyle-grand). 2002;48(5):475-85. 31. Zubal IG, Harrell CR, Smith EO, Rattner Z, Gindi G, Hoffer PB. Computerized 3-dimensional segmented human anatomy. Med Phys. 1994;21(2):299302. 32 Zankl M, Wittmann A. The adult male voxel model “Golem” segmented from whole-body CT patient data. Radiat Environ Biophys. 2001;40(2):153-62. 33. Kramer R, Vieira JW, Khoury HJ, Lima FR, Fuelle D. All about MAX: a male adult voxel phantom for Monte Carlo calculations in radiation protection dosimetry. Phys Med Biol. 2003;48(10):1239-62. 34. Kramer R, Khoury HJ, Vieira JW, Loureiro EC, Lima VJ, Lima FR, et al. All about FAX: a Female Adult voXel phantom for Monte Carlo calculation in radiation protection dosimetry. Phys Med Biol. 2004;49(23):5203-16. 35. Lee C, Lee C. Development of the two Korean adult tomographic computational phantoms for organ dosimetry. Med Phys. 2006;33(2): 380-90. 36. Nakayama H, Mizowaki T, Narita Y, Kawada N, Takahashi K, Mihara K, et al. Development of a three-dimensionally movable phantom system for dosimetric verifications. Med Phys. 2008;35(5):1643-50. 37. Yoriyaz H, dos Santos A, Stabin MG, Cabezas R. Absorbed fractions in a voxel-based phantom calculated with the MCNP-4B code. Med Phys. 2000;27(7):1555-62. 38. Yoriyaz H, Stabin MG, dos Santos A. Monte Carlo MCNP-4B based absorbed dose distribution estimates for patient-specific dosimetry. J Nucl Med. 2001;42(4):662-69. 39. Chiavassa S, Aubineau-Lanièce I, Bitar A, Lisbona A, Barbet J, Franck D, et al. Validation of a personalized dosimetric evaluation tool (Oedipe) for targeted radiotherapy based on the Monte Carlo MCNPX code. Phys Med Biol. 2006;51(3):601-16. 40. Stabin M. Nuclear medicine dosimetry. Phys Med Biol. 2006;51:R187-R202. 41. Hogstrom KR, Almond P. Review of electron beam therapy physics. Phys Med Biol. 2006;51(13):R455-R489. 42. Ma CM, Li JS, Pawlicki T, Jiang SB, Deng J, Lee MC, et al. A Monte Carlo dose calculation tool for radiotherapy treatment planning. Phys Med Biol. 2002;47(10):1671-90. 43. Fippel M. Fast Monte Carlo dose calculation for photon beams based on the VMC electron algorithm. Med Phys. 1999;26(8):1466-75. 44. Pisaturo O. A Monte Carlo-based procedure for independent monitor unit calculation in IMRT treatment plans. Phys Med Biol. 2009;54(13): 4299-310. 45. Lin MH, Chao TC, Lee CC, Tung CJ, Yeh CY, Hong JH. Measurement-based Monte Carlo dose calculation system for IMRT pretreatment and on-line transit dose verifications. Med Phys. 2009;36(4):1167-75. 46. Kry SF. Monte Carlo study shows no significant difference in second cancer risk between 6- and 18-MV intensity-modulated radiation therapy. Radiother Oncol. 2009;91(1):132-7. 47. Ma C, Faddegon BA, Rogers DW, Mackie TR. Accurate characterization of Monte Carlo calculated electron beams for radiotherapy. Med Phys. 1997;24(3):401-16. 48. Ma C. Characterization of computer-simulated radiotherapy beams for Monte Carlo treatment planning. Radiat Phys Chem. 1998;329-44. 49. Williamson JF. Monte Carlo evaluation of specific dose constants in water for 125I seeds. Med Phys. 1998;15(5):686-94. 50. Williamson JF. Comparison of measured and calculated dose rates in water near I-125 and Ir-192 seeds. Med Phys. 1991;18(4):776-86. 51. Perera H, Williamson JF, Li Z, Mishra V, Meigooni AS. Dosimetric Método de Monte Carlo: princípios e aplicações em Física Médica 52. 53. 54. 55. 56. 57. 58. 59. 60. 61. 62. 63. characteristics, air-kerma strength calibration and verification of Monte Carlo simulation for a new ytterbium-169 brachytherapy source. Int J Radiat Oncol Biol Phys. 1994;28(4):953-71. Das RK, Keleti D, Zhu Y, Kirov AS, Meigooni AS, Williamson JF. Validation of Monte Carlo dose calculations near 125I sources in the presence of bounded heterogeneities. Int J Radiat Oncol Biol Phys. 1997;38(4): 843-53. Campos L, Stabin M. Intravascular brachytherapy to prevent restenosis: dosimetric considerations. Cell Mol Biol (Noisy-le-grand). 2002;48(5): 429-39. Mourtada F, Soares CG, Seltzer SM, Bergstrom PM Jr, Fernández-Verea JM, Asenjo J, et al. Dosimetry characterization of a 32P source wire used for intravascular brachytherapy with automated stepping. Med Phys. 2003;30(5):959-71. Cross WG, Hokkanen J, Järvinen H, Mourtada F, Sipilä P, Soares CG, et al. Calculation of beta-ray dose distributions from ophthalmic applicators and comparison with measurements in a model eye. Med Phys. 2001;28(7):1385-96. Chiu-Tsao S-T, Anderson LL, O‘Brien K, Stabile L, Liu JC. Dosimetry for 125 I seed (model 6711) in eye plaques. Med Phys. 1993;20(2 pt 1):383-9. Glecker M, Valentine JD, Silberstein EB. Calculating lens dose and surface dose rates from 90Sr ophthalmic applicators using Monte Carlo modeling. Med Phys. 1998;25(1):29-36. Yoriyaz H, Sanchez A, Santos A. A new human eye model for ophthalmic brachytherapy dosimetry. Radiat Prot Dosim. 2005;115(1-4):316-9. Correa SCA, Souza EM, Silva AX, Lopes RT, Yoriyaz H. Dose-image quality study in digital chest radiography using Monte Carlo simulation. Appl Radiat Isot. 2008;66(9):1213-7. Peplow DE, Verghese K. Digital mammography image simulation using Monte Carlo. Med Phys. 2000;27(3):568-79. Ullman G, Sandborg M, Dance DR, Hunt RA, Alm Carsson G. Towards optimization in digital chest radiography using Monte Carlo modeling. Phys Med Biol. 2006;51(11):2729-43. Brown FB. MCNP - a general Monte Carlo N-particle transport code, version 5 Report LA-UR-03-1987. Los Alamos, NM: Los Alamos National Laboratory; 2003. Pelowitz DB. MCNPX User’s manual, version 2.5.0 LA-CP-05-0369. Los Alamos National Laboratory; 2005. 64. Shope TB, Gagne RM, Johnson GC. A method for describing the doses delivered by transmission x-ray computed tomography. Med Phys. 1981;8(4):488-95. 65. Huda W, Scalzetti EM, Roskopf M. Effective doses to patients undergoing thoracic computed tomography examinations. Med Phys. 2000;27(5): 838-44. 66. Huda W, Lieberman KA, Chang J, Roskopf ML. Patient size and x-ray technique factors in head computed tomography examinations. I. Radiation doses. Med Phys. 2004;31(3):588-94. 67. Salvado M, López M, Morant JJ, Calzado A. Monte Carlo calculation of radiation dose in CT examinations using phantom and patient tomographic models. Radiat Prot Dosim. 2005;114:364-8. 68. Perisinakis K, Tzedakis A, Damilakis J. On the use of Monte Carlo-derived dosimetric data in the estimation of patient from CT examinations. Med Phys. 2008;35(5):2018-28. 69. DeMarco JJ, Cagnon CH, Cody DD, Stevens DM, McCollough CH, Zankl M, et al. Estimating radiation doses from multidetector CT using Monte Carlo simulations: effects of different size voxelized patient models on magnitudes of organ and effective dose. Phys Med Biol. 2007;52(9): 2583-97. 70. Nath R, Schultz RJ. Calculated response and wall correction factors for ionization chambers exposed to 60Co gamma rays. Med Phys. 1981; 8: 85-93. 71. Wang LLW, Rogers DWO. Monte Carlo study of Si diode response in electron beams. Med Phys. 2007;34(5):1734-42. 72. Siegbahn EA, Bräuer-Krisch E, Bravin A, Nettelbeck H, Lerch ML, Rosenfeld AB. MOSFET dosimetry with high spatial resolution in intense synchrotron-generated x-ray microbeams. Med Phys. 2009;36(4): 1128-37. 73. Chow JC, Leung MK. Monte Carlo simulation of MOSFET dosimeter for electron backscatter using the GEANT4 code. Med Phys. 2008;35(6): 2383-90. 74. Kumada H, Nakamura T, Komeda M, Matsumura A. Development of a new multi-modal Monte-Carlo radiotherapy planning system. Appl Radiat Isot. 2009;67(7-8 Suppl):S118-21. 75. Chin MP, Spyrou NM. A detailed Monte Carlo accounting of radiation transport in the brain during BNCT. Appl Radiat Isot. 2009;67(7-8 Suppl):S164-7. Revista Brasileira de Física Médica. 2009;3(1):141-9. 149 Artigo de Revisão Revista Brasileira de Física Médica. 2009;3(1):151-6. O Programa Nuclear Brasileiro e a Física Médica no Brasil The Brazilian Nuclear Program and the consequences for Medical Physics Odair Dias Gonçalves1 1 Doutor em Física pela Universidade Federal do Rio de Janeiro; Presidente da Comissão Nacional de Energia Nuclear (CNEN) Resumo O uso de processos nucleares ou radioativos na Medicina é anterior ao grande desenvolvimento da energia nuclear que ocorreu a partir da Segunda Guerra Mundial. Entretanto, impulsionado por esse progresso, o desenvolvimento de novas técnicas nucleares e o crescimento cada vez maior de sua utilização ocorrem concomitantemente. O mesmo acontece para o Brasil. O que não ocorreu simultaneamente foi a evolução dos procedimentos de segurança de modo a garantir a minimização dos riscos que, em todo o mundo, surgem primeiro na área de energia e apenas em décadas posteriores na Medicina. A evolução das duas vertentes, médica e energética, é abordada neste artigo, no qual se procura fazer uma breve análise do atual Programa Nuclear Brasileiro e suas consequências na área médica. Palavras-chave: programa nuclear; Física Médica; regulação nuclear; produção de radiofármacos. Abstract The use of radioactive materials or nuclear phenomena in Medicine begun before the Second World War; since then, the knowledge about nuclear power has been through a huge development. Impelled by the development of nuclear power plants, the application of nuclear techniques and processes in Medicine also had a similar progress, as the same happened in Brazil. On the other hand, the parallel evolution did not happen in developing ways to guarantee the safe and secure use of such knowledge, which grew in the energy field faster and earlier than in Medicine. This paper attempts to make a brief analysis of the progress in both fields throughout time, emphasizing the Brazilian Nuclear Program and its consequences on the field of Medical Physics. Keywords: nuclear program; Medical Physics; regulatory actions in the nuclear area; radiopharmaceutical production. Introdução O objetivo deste artigo é informar os leitores sobre o Programa Nuclear Brasileiro e suas implicações na Física Médica no Brasil e na profissão do físico médico, principalmente nas áreas de radiodiagnóstico, medicina nuclear, radioterapia e regulação do setor. A área nuclear, que esteve marginalizada nas ações governamentais durante quase 15 anos, foi resgatada pelo atual governo em 2004 e, desde então, vem sendo objeto de intenso debate. A retomada dessa discussão no Brasil foi motivada, inicialmente, pela necessidade de se decidir sobre a continuidade ou não da construção do terceiro reator nuclear em Angra dos Reis, um projeto para o qual grande parte dos equipamentos já foi comprada e encontra-se estocada no país. Coincidentemente, um ano depois, no mundo todo, ressurgiu a discussão sobre a energia nuclear, motivada pela necessidade de geração de mais energia elétrica tanto em países desenvolvidos como em países em desenvolvimento e pelas descobertas sobre o efeito das energias termoelétricas no ecossistema e em sua relação com o efeito estufa. Internacionalmente, a retomada da discussão sobre energia nuclear passou a ser conhecida como “Renascença Nuclear”. Pensar em como a retomada das atividades nucleares no mundo e no Brasil afetam e interferem na Física Médica, em particular na Física Médica do Brasil, é o objetivo deste artigo, com a ressalva de que abordaremos apenas os aspectos da Física Médica relacionados a processos nucleares e à regulação exercida pela CNEN. O Programa Nuclear e a Física Médica no Brasil até 2003 Por ocasião da Segunda Guerra Mundial, a área nuclear, cujas pesquisas começaram no início do século 20, teve uma evolução excepcional com o desenvolvimento das Correspondência: Comissão Nacional de Energia Nuclear, Rua General Severiano, 90, CEP 22290-901 – Rio de Janeiro (RJ), Brasil – e-mail: [email protected] Associação Brasileira de Física Médica® 151 Gonçalves OD bombas nucleares, desenvolvimento que acabou gerando também a tecnologia de reatores nucleares de potência para a geração de energia núcleo-elétrica. O Brasil iniciouse na pesquisa nuclear com vistas à geração elétrica antes mesmo de 1940, e os marcos institucionais foram a criação do Conselho Nacional de Pesquisa (CNPq) em 1953, inicialmente devotado à área nuclear, e a criação da Comissão Nacional de Energia Nuclear em 1956. As ações brasileiras na área nuclear enfrentaram, ao longo da história, reações de países que não desejavam que o Brasil possuísse armas nucleares e se tornasse um forte competidor num mercado de grande valor econômico e estratégico. Apesar disso e da forte oposição interna em setores políticos, durante alguns governos, nossa capacidade na área se desenvolveu e foi estabelecida com sucesso. O Brasil é hoje um dos poucos países do mundo a dominar todo o processo de fabricação de combustível para usinas nucleares e um dos três, ao lado de Estados Unidos e Rússia, a dominar o processo de enriquecimento e a ter reservas significativas de urânio. Entretanto, ainda fazemos a conversão no Canadá e o enriquecimento na Europa, principalmente devido à desaceleração dos empreendimentos iniciados na década de 1970. As reservas de urânio já confirmadas são de cerca de 300 mil toneladas e estão entre as seis maiores do mundo. Em termos energéticos, mesmo com apenas um terço do território do País prospectado, as reservas de urânio são da mesma ordem de grandeza das reservas conhecidas (sem considerar o pré-sal) em petróleo e seriam suficientes para manter em funcionamento 10 reatores de 1.000 MW por cerca de 200 anos. O Brasil investiu na geração eletronuclear em dois períodos: na década de 1970, quando foi construída Angra I, e na década de 1980, quando foi firmado o acordo com a Alemanha para a construção de oito reatores. Não se pode afirmar que o acordo foi um sucesso, pois resultou apenas em Angra II, que só entrou em operação em 2000, e na aquisição de grande parte do equipamento de Angra III, hoje devidamente estocado ao custo de cerca de US$ 20 milhões anuais. As razões do insucesso são várias, mas é importante dizer que, nas décadas de 1970 e 1980, o país não necessitava produzir energia elétrica a partir da nuclear, dado o amplo potencial hidroelétrico, sendo que as razões para a opção tinham um caráter mais estratégico. A situação hoje é diferente. Como as reservas hídricas situam-se principalmente na Amazônia, em áreas de grandes reservas indígenas e ecológicas que impedem a construção de grandes reservatórios, existe a necessidade de diversificação da matriz de produção de eletricidade. Soma-se a isso o fato de o volume de água dos reservatórios apresentar queda acentuada no período de setembro a novembro, e de o preço da eletricidade núcleo-elétrica ser hoje competitivo, mesmo em relação ao gás e ao carvão, ambos poluentes, e pode-se começar a entender a necessidade de dar maior relevância ao papel da energia nuclear na matriz energética. 152 Revista Brasileira de Física Médica. 2009;3(1):151-6. As razões que atestam essa necessidade, no caso brasileiro, constam nos estudos da Empresa de Pesquisa Energética (EPE) do Ministério de Minas e Energia, publicados no Plano Decenal de Energia 2007-2016 e no Plano Nacional de Energia 2030. Os estudos traçam diversos cenários, concluindo pela necessidade de construção de Angra III e de outras quatro a oito novas usinas até 2030, dependendo do crescimento da demanda*. Por outro lado, a Física Médica surgiu, epistemologicamente, quando pela primeira vez se aplicaram princípios da Física à Medicina. Por mais que seja discutido quando isso aconteceu, certamente foi muito antes de 1945, podendo a criação da Física Médica ser atribuída talvez a Leonardo da Vinci no século 16, conforme diversos autores. Com o passar do tempo, as aplicações da Física à Medicina aumentaram sua abrangência e aplicabilidade tanto como instrumento diagnóstico como terapêutico. A discussão sobre a história da Física Médica, assim como a delimitação de suas fronteiras, é complexa e foge ao escopo deste trabalho. Ao contrário da geração de energia elétrica, a aplicação das Ciências Nucleares à Medicina passou pelo período da Segunda Guerra Mundial (1939-1945) e da explosão das bombas de Hiroshima e Nagasaki (1945) sem ser contaminada pelo preconceito que passou a acompanhar a discussão dos programas nucleares, inclusive no Brasil. Naturalmente, a evolução das Ciências Nucleares interferiu nas técnicas utilizadas pela Física Médica, e não é por acaso que países que haviam investido fortemente em programas nucleares endógenos tenham apresentado maior desenvolvimento nas aplicações da nova tecnologia à área médica. O mesmo não ocorreu com a preocupação com a segurança e a regulação. Enquanto o mundo discutia como evitar que mais países desenvolvessem conhecimentos e tecnologias que pudessem levá-los à construção de armas nucleares (as chamadas salvaguardas), a proliferação do uso de técnicas nucleares na medicina cresceu sem qualquer restrição. Apenas após alguns anos a Agência Internacional de Energia Atômica (AIEA) começou a discutir procedimentos que, uma vez adotados, garantiriam a segurança física e radiológica do público, dos profissionais e do meio ambiente. Isto permite compreender as razões pelas quais as primeiras normas da CNEN na área de reatores e materiais nucleares datam de 1965 e 1969 (Resolução CNEN 03/65, sobre minérios nucleares e materiais de interesse nuclear e Resolução CNEN 09/69, “Normas para Escolha de Locais para Reatores de Potência”), enquanto as primeiras normas com temas relacionados à área de aplicações médicas foram emitidas apenas em 1973 e 1984 (“Normas Básicas de Proteção Radiológica”, Resolução CNEN 06/73, precursora da atual Norma NN 3.01 com o mesmo título e “Licenciamento de Instalações Radiativas”, * Consultar www.epe.gov.br. O Programa Nuclear Brasileiro e a Física Médica no Brasil Norma NE 6.02/1984). Essas datas são aproximadamente as mesmas das recomendações da AIEA sobre o assunto. Outra evidência da preocupação tardia com as aplicações da energia nuclear à medicina é que, ainda hoje, não existe consenso sobre as medidas de proteção de pacientes, assunto amplamente discutido nas seções e seminários da AIEA. Ao se fazer a correlação entre a Física Médica, a área nuclear e a CNEN, torna-se necessária a ressalva de que o físico médico, diferentemente de outras profissões, não se define simplesmente como aquele que trabalha com Física Médica; trata-se de uma profissão que é bem delimitada e que exige funções e capacidades relativamente fáceis de serem enumeradas. A influência da evolução da energia nuclear na Física Médica se dá principalmente na área de segurança e controle, o que, por sua vez, influencia a regulamentação da profissão e os requisitos exigidos do profissional, e que pode variar em cada país. No Brasil, essa regulação é exercida pela CNEN e pela Associação Brasileira de Física Médica (ABFM), que credenciam o supervisor de proteção radiológica e o físico médico, respectivamente. As duas atividades dessas duas categorias profissionais têm grande grau de superposição e, às vezes, são exercidas pela mesma pessoa. As normas da CNEN e da Agência Nacional de Vigilância Sanitária (ANVISA) exigem a existência das duas ações em clínicas e hospitais para que o licenciamento seja aprovado. As regulamentações sobre o assunto datam da década de 1980 e devem-se muito à atuação da ABFM, já que, até 2004, a CNEN era responsável apenas por algumas questões na prova de habilitação de físico médico da ABFM. Aqueles que fossem aprovados poderiam, apenas a partir de uma requisição, obter a certificação de supervisor. Para terminar esta breve reflexão sobre as ações do Programa Nuclear Brasileiro (PNB) anterior a 2003, é necessário dizer que a mesma desaceleração que chegou a colocar o PNB em risco motivou a busca por novas formas de geração de recursos financeiros por parte dos Institutos da CNEN, o que levou a um grande desenvolvimento na área de produção e manipulação de radioisótopos e radiofármacos. pelo Ministério de Minas e Energia (MME), e que conta com a participação de diversos outros Ministérios, decidiu pela retomada da construção de Angra III. No início de 2008, a Ministra da Casa Civil, Dilma Roussef, assumiu a liderança do processo de discussão do Programa Nuclear, constituindo o Comitê de Desenvolvimento do Programa Nuclear (CDPNB), composto por doze Ministros: Ministro da Casa Civil, das Minas e Energia, da Ciência e Tecnologia, da Defesa, da Saúde, da Indústria e Comércio, das Relações Exteriores, do Planejamento, do Meio Ambiente, do Gabinete de Segurança Institucional, da Secretaria de Política Estratégica e da Agricultura. Ao longo de 2008, o comitê aprovou propostas nas áreas de produção de energia elétrica, rejeitos, ciclo do combustível, medicina, agricultura, indústria e inovação, estrutura organizacional, capacitação de recursos humanos e cooperação internacional. À medida que as propostas iam obtendo consenso, eram então submetidas ao Presidente da República para apreciação. As propostas aprovadas englobam as sugestões de construção de pelo menos mais quatro usinas além de Angra III, prevêem a autossuficiência na produção de combustível em 2014, a construção de depósito final de rejeitos de média e baixa atividades até 2018, de projeto para o depósito de longo prazo de combustíveis usados até 2014, de um novo reator de pesquisa multipropósito, que nos trará a autossuficiência na produção de radiofármacos até 2015, reforço da área reguladora, programas de formação de pessoal e diversas outras medidas, e, finalmente, a criação da Agência Reguladora Nuclear Brasileira, separando as atividades de promoção e regulação da CNEN. O PNB e a Física Médica no Brasil hoje A retomada do Programa Nuclear Brasileiro Quatro linhas de ação do PNB dizem respeito, mais de perto, às atividades relacionadas à Física Médica e à profissão do físico médico. São elas: • revisão do arcabouço legal de Regulação, Licenciamento, Fiscalização e Certificação; • criação da Agência Reguladora Nuclear Brasileira; • produção de radiofármacos; • construção de um reator multipropósito brasileiro. O Ministério da Ciência e Tecnologia coordenou, em 2004, um Grupo de Trabalho encarregado de rever o Programa Nuclear e formular planos de médio prazo. O grupo apresentou um plano para ser executado em 18 anos que objetivava o fortalecimento de todas as atividades da área nuclear. A proposta foi motivo de ampla discussão em Ministérios afeitos à questão, nas duas câmaras do Legislativo e na mídia. No final de 2007, o Conselho Nacional de Política Energética (CNPE), órgão encarregado da elaboração de políticas na área de energia, liderado Revisão do arcabouço legal de regulação, licenciamento, fiscalização e certificação O arcabouço legal da regulação nuclear tem como objetivo garantir a segurança radiológica da população, dos profissionais, dos pacientes e do meio ambiente e também a segurança física, que corresponde às medidas de proteção física de fontes e equipamentos, de maneira a impedir que venham a ser utilizados para fins deliberadamente prejudiciais à população ou ao Estado. Essa preocupação se traduz em um conjunto de normas editadas pela CNEN e pela ANVISA, cuja observância Revista Brasileira de Física Médica. 2009;3(1):151-6. 153 Gonçalves OD é fiscalizada pela CNEN e pelas Vigilâncias Sanitárias Estaduais (VISAs) estaduais ou municipais. A segurança nuclear é constantemente aperfeiçoada, sendo fruto de um esforço internacional, com projetos e sistemas cada vez mais confiáveis, procurando reduzir as possibilidades de falhas e acidentes. Para que um equipamento receba sua licença de construção e operação, o operador tem que provar que a instalação é segura em qualquer cenário. A variedade e amplitude dos cenários a serem considerados dependem, naturalmente, do risco associado à atividade. No Brasil, esse controle é de responsabilidade da CNEN, que licencia e inspeciona todas as instalações que utilizam material nuclear, inclusive as médicas e industriais. Além disso, a CNEN credencia os profissionais responsáveis pela segurança e que, por lei, devem ter um vínculo formal ou fazer parte do corpo de funcionários da instalação. Como foi dito, até 2004, a habilitação do físico médico e do supervisor de proteção radiológica (SPR) era feita a partir da aplicação de uma única prova, cuja responsabilidade maior pelas questões cabia à ABFM. A partir de 2004, inclusive motivada pela perspectiva de retomada do PNB e pela necessidade de revisão do arcabouço legal, a CNEN resolveu assumir completamente as funções de credenciadora dos SPR para a medicina nuclear que teve o primeiro exame de SPR realizado em 2006, sendo que, até então, a função de SPR nesta área era delegada ao médico responsável pela instituição. Outras iniciativas em curso dizem respeito à revisão de todas as normas da CNEN. As regulações vêm sendo editadas há 40 anos e, apesar de modificadas sempre que necessário, nunca foi feita uma revisão conjunta para verificar possíveis inconsistências no arcabouço legal como um todo. Pretende-se concluir esse trabalho até meados de 2010, procedendo ao processo de discussão pública daquelas que necessitam mudanças, sempre da maneira mais transparente e ágil possível, o que tem sido facilitado pela realização de eventos públicos de discussão, como o Primeiro Encontro Nacional de Informação Regulatória, realizado em dezembro de 2005 no Rio de Janeiro, e sua segunda versão, que ocorrerá concomitantemente ao Encontro Nacional de Energia Nuclear em setembro próximo no Rio de Janeiro. Criação da Agência Reguladora Nuclear Brasileira Parte da discussão sobre o arcabouço legal, a criação da Agência Reguladora merece ser destacada. Nas discussões do Comitê de Desenvolvimento, essa foi a primeira sugestão a ter consenso. A principal razão da criação da Agência Reguladora Nuclear Brasileira (ARNB) não se deve a uma possível ineficiência do processo de regulação, mas à perspectiva de crescimento da área nuclear. A opção de se criar uma Agência reguladora independente da CNEN vem sendo usada como bandeira por diversos setores com diferentes motivações, muitas vezes em interesse próprio. Um dos argumentos é o de que, uma vez que a CNEN é promotora da área nuclear, isso 154 Revista Brasileira de Física Médica. 2009;3(1):151-6. impediria a autarquia de exercer um controle independente sobre as empresas e institutos de pesquisa. Na defesa deste ponto de vista, constantemente são feitas interpretações equivocadas, como o ocorrido recentemente em auditoria realizada pelo Tribunal de Contas de União. Recentemente, a mídia divulgou questionamento do TCU sobre a eficácia e cobertura das ações de fiscalização da CNEN, e cabem alguns esclarecimentos sobre a questão. A auditoria do TCU considerou como instalações que deveriam ter sido inspecionadas as instalações de baixo risco, as quais, segundo a instrução normativa IN-DRS-0007, estão isentas dessa forma de controle. Considerou, também, como instalações ativas, algumas instalações inativas que ainda constavam no cadastro da CNEN, por não terem requerido baixa oficial, e que portanto não possuem autorização de funcionamento válida. A realidade, já demonstrada ao TCU, é que apenas 6% das instalações de alto risco e 3,5% das instalações de médio risco estão com as autorizações vencidas. Mais da metade dessas instalações estão em processo de renovação. As cinco (2%) instalações de alto risco e seis (1,5%) de médio risco, que não vêm renovando sua licença, já foram notificadas. Todas permanecem sob inspeção. É importante ressaltar que o sistema regulatório na área médica foi objeto de avaliação procedida pela AIEA em 2006. A AIEA aprovou e elogiou a estrutura e prática do sistema regulatório brasileiro, fazendo apenas alguns reparos já implementados. Portanto, podemos afirmar que a razão da criação da Agência não se apoia na existência de problemas no sistema de regulação, mas no aumento das demandas futuras provenientes do crescimento e da importância do setor nuclear na sociedade brasileira. O projeto da ARNB é simples e baseado na atual estrutura da Diretoria de Radioproteção e Segurança (DRS) da CNEN, adaptado à lei que rege as Agências Reguladoras Brasileiras. O projeto foi submetido à apreciação dos diversos Ministérios que têm alguma relação com o assunto e deve em breve ser submetido à Casa Civil, que o encaminhará ao Congresso, onde finalmente será objeto de discussão pública. Uma vez aprovado, será necessária a contratação de servidores na área de gestão administrativa, bem como a aquisição de bens e imóveis. Para não haver solução de continuidade durante este processo, teremos um período de transição no qual, atuando com independência, a ARNB poderá funcionar hospedada pela CNEN. Como novidade, o projeto incorpora uma nova gama de sanções e multas pecuniárias para instalações que porventura desobedeçam às normas, o que era, até agora, um dos grandes problemas na regulação, já que a única alternativa de penalidade era a suspensão da licença e, portanto, do funcionamento da instalação. Produção de radiofármacos A medicina nuclear brasileira ganhou importância crescente nos últimos anos, acompanhando a tendência mundial. O Programa Nuclear Brasileiro e a Física Médica no Brasil Dentre as contribuições para a saúde da população brasileira, destaca-se seu papel na Oncologia e na Cardiologia. Atualmente, a medicina nuclear brasileira atende a 3.600 mil procedimentos por ano, ou seja, aproximadamente 10 mil por dia, sempre sob a supervisão do físico médico e do SPR. A CNEN produz radiofármacos em três de seus institutos e passará a ter quatro com o início de produção de FDG em Recife, Pernambuco. O Instituto de Pesquisas em Energia Nuclear (IPEN/ CNEN), localizado na cidade de São Paulo, além da maior linha de produção de radiofármacos, preparada para importação e manipulação de diversos radiofármacos, dispõe de dois cíclotrons, um utilizado para produção de Gálio-67, Tálio-201, Iodo-123 e Flúor-18 (FDG) e outro dedicado apenas à produção da FDG, instalado em 2007. O Instituto de Engenharia Nuclear (IEN/CNEN), localizado na cidade do Rio de Janeiro, possui dois cíclotrons, um CV-28, de energia variável, cuja energia máxima é de 24 MeV para prótons, inaugurado em 1974 e direcionado para a produção de Iodo-123; e o cíclotron RDS 111, instalado em 2003 e dedicado à produção do Flúor-18. O CV-28 opera também como alternativa ao RDS-111 na produção de Flúor-18. O Centro de Desenvolvimento de Tecnologia Nuclear (CDTN/CNEN), localizado em Belo Horizonte, inaugurou, em 2008, um cíclotron de 16,5 MeV para produção de Flúor-18. Está prevista para setembro de 2009 a inauguração, com a presença do Presidente da República, da unidade de produção do Centro Regional de Ciências Nucleares do Nordeste (CRCN-NE) da CNEN, localizado em Recife, de mais um cíclotron de 18 MeV e de uma unidade de produção de Flúor-18. Desta forma, a CNEN amplia e regionaliza a produção de radiofármacos no país. Além desses, como a produção de radioisótopos de meia-vida curta está aberta para a iniciativa privada, já existem mais dois centros produzindo FDG e outros dez em fase de licenciamento. Uma das propostas da CNEN/MCT, juntamente com o Ministério da Saúde, é a constituição de uma empresa estatal que se responsabilize pela produção e comercialização dos radiofármacos produzidos ou importados pela CNEN, uma vez que a gestão de um processo produtivo dentro de uma autarquia oferece diversas dificuldades de gerência que poderiam ser evitadas numa estrutura empresarial. Essa proposta ainda não é consensual. A crise mundial no fornecimento de geradores de tecnécio Um exemplo de problema que poderia ser enfrentado de maneira mais eficiente em outra estrutura institucional é a atual crise mundial de fornecimento do Molibdênio 99, um isótopo obtido a partir da fissão do urânio e insumo básico na fabricação de geradores de tecnécio 99m, fundamentais em uma série de exames de radiodiagnóstico. O Mo99 tem uma meia-vida de 66 horas e o tecnécio 99m de 6 horas. O Brasil não produz Mo-99 e depende de sua importação, feita pelo IPEN/CNEN-SP, única instituição brasileira com uma radiofarmácia preparada, processo produtivo adequado e que vem atendendo a 100% da demanda de Tc99m por mais de 10 anos. O Brasil consome aproximadamente 5% da produção mundial de Mo-99, ao custo de 20 milhões de dólares por ano. Vale ressaltar que todos os reatores que produzem hoje Mo-99 têm mais de 40 anos. Em meados de 2008, dois reatores que foram construídos no Canadá, MAPLE I e II, da empresa MDS Nordion, não puderam ser licenciados, causando à empresa um prejuízo de centenas de milhões de dólares. Coincidentemente, em 2008 encerrou-se o contrato de fornecimento de Mo-99 com a MDS Nordion, ocasião em que esta empresa declarou não mais se interessar em fornecer o material ao preço de aquisição que vinha sendo pago pela CNEN. Tal decisão exigiu que a CNEN contratasse uma aquisição emergencial por três meses, enquanto realizava uma nova licitação internacional. No contrato emergencial firmado (para o período entre setembro e novembro de 2008), o preço obtido foi 82% superior ao que vinha sendo praticado. Na licitação internacional, a única empresa candidata e portando vencedora, foi a mesma MDS Nordion, apesar dos convites enviados aos países produtores. O preço negociado na licitação, encerrada em dezembro de 2008, passou a ser 138% superior (em dólares) ao que vinha sendo praticado um ano antes. A CNEN aumentou o preço em apenas 70%, absorvendo parte significativa do aumento. O Ministério da Saúde reajustou a tabela de pagamento pelos exames que usavam Tc, evitando prejuízo para hospitais e clínicas. Em maio de 2009, foi observado um vazamento no reator NRU do Canadá, interrompendo suas atividades. A previsão de parada de 30 dias foi posteriormente alterada para um mínimo de três meses, com retomada de atividades prevista para setembro de 2009. A Nordion se propôs a fornecer ao Brasil somente 1/3 da sua demanda. A CNEN conseguiu, através das negociações na área nuclear em curso entre Brasil e Argentina, que este último país passasse a fornecer outro 1/3, conseguindo mitigar a deficiência e suprindo 2/3 da demanda. No final de junho, o IPEN/CNEN-SP foi notificado pela NORDION que durante as duas primeiras semanas de julho haveria novamente interrupção no fornecimento de Mo-99, o que nos fez retornar à situação de atendimento de 33% da demanda nacional. Diante da intempestividade da crise atual, iniciada efetivamente em maio deste ano, várias medidas de urgência e emergência foram tomadas, tais como ações legais para garantir o cumprimento do contrato de fornecimento pela Nordion, busca de novos fornecedores além da Argentina (sendo o mais promissor a África do Sul, país com o qual o Brasil já vem negociando), estabelecimento de alternativas para diagnóstico com outros radiofármacos que não o Mo-99 e estudo da possibilidade de importação direta de geradores de tecnécio. Revista Brasileira de Física Médica. 2009;3(1):151-6. 155 Gonçalves OD As expectativas são de que a oferta internacional melhore e que possamos atender 2/3 da demanda em breve. Construção do reator multipropósito brasileiro A raiz da crise do Molibdênio, no mundo e no Brasil, reside no longo período sem investimentos em novos reatores de maior potência e múltiplas aplicações, particularmente para reatores de produção de radioisótopos, pelo qual se passou. O Governo brasileiro, através do Ministério da Ciência e Tecnologia, está empenhado na mudança deste quadro, o que é evidenciado no projeto desenvolvido pela CNEN, de construção de um reator de pesquisa com características modernas e adequadas à produção de radiofármacos, previsto para entrar em funcionamento em 2016, mas ainda sem garantia de verbas para sua execução, orçada em cerca de US$ 500 milhões. Este é outro ponto de consenso no Comitê de Desenvolvimento do Programa Nuclear Brasileiro. O projeto vem sendo desenvolvido por uma equipe de mais de cem especialistas dos quadros da CNEN, e de outras instituições. A instalação será em Iperó, interior de São Paulo, em área vizinha às instalações de Aramar do Centro Técnico da Marinha em São Paulo, terreno cedido em parte pela Marinha e em parte pelo Estado de São Paulo. O Programa Nuclear Brasileiro é ambicioso e tem progredido bastante desde o início da discussão em 2004. Um 156 Revista Brasileira de Física Médica. 2009;3(1):151-6. programa deste porte, quando finalmente aprovado, deverá contar com atenção especial dos diversos Ministérios envolvidos, e será fundamental o acordo amplo entre todos os setores da sociedade para que possa ser não um projeto do Governo, mas um projeto do Estado, com força e reconhecimento que garantam sua continuidade. As consequências desse programa ultrapassam a área nuclear e todas as áreas afeitas, entre elas a Física Médica, estendendo-se a toda a população brasileira. Fontes Os dados usados neste artigo podem ser encontrados a partir dos seguintes links: • http://www.cnen.gov.br: apostilas e informações gerais • http://www.epe.gov.br: programas plurianuais da área de energia • http://www.iaea.org: estatísiticas, história e dados completos sobre a área nuclear • http://www.inb.gov.br: ciclo do combustível • http://www.uic.com.au/nip22.htm: informações sobre o acidente em Chernobyl • http://www.world-nuclear.org: informações sobre a área nuclear