Comemorando os 40 anos de Fundação da Associação

Transcrição

Comemorando os 40 anos de Fundação da Associação
Editorial
Revista Brasileira de Física Médica. 2009;3(1):3.
Comemorando os 40 anos de Fundação
da Associação Brasileira de Física Médica
N
este número especial, a Revista Brasileira de Física Médica (RBFM) publica uma série de artigos de revisão.
Pesquisadores e profissionais de reconhecida competência na área de Física Médica foram convidados a compartilharem seus conhecimentos sobre temas de interesse geral com toda a comunidade. Os artigos trazem uma abordagem
didática sobre diversos temas em questão, possibilitando seu uso como material de consulta permanente e, dessa forma,
contribuindo para a formação e atualização de profissionais da Física Médica.
Os temas abordados neste número especial procuram retratar a diversidade e abrangência dessa área do conhecimento.
Partindo do estudo da física das radiações, ou mesmo do método Monte Carlo, passando pelo desenvolvimento dos
princípios de proteção radiológica e segurança nuclear até, finalmente, chegar aos aspectos fundamentais e técnicos
das principais modalidades de atuação profissional do especialista em Física Médica, todo esse conhecimento acaba por
traduzir o grande desenvolvimento dessa área no país. O ensino de graduação e a formação profissional, temas também
tratados neste número, reforçam a importância da área para a melhoria da qualidade da assistência à saúde no país e
firmam definitivamente a Física Médica como área do conhecimento interdisciplinar.
Essa evolução foi alcançada ao longo de muitos anos de esforço e dedicação de vários profissionais e pesquisadores que
têm trabalhado arduamente na representação da área junto a organizações oficiais do governo e da sociedade, na estruturação do ensino dessa carreira em universidades e centros de formação, na criação e manutenção de grupos organizados
de atuação profissional reconhecida, na realização de pesquisa básica e aplicada, enfim, profissionais que vêm atuando
coletivamente para o reconhecimento da Física Médica como área do conhecimento.
Nesse sentido, a Associação Brasileira de Física Médica (ABFM) merece destaque pelo seu pioneirismo na congregação
de profissionais e seu histórico de atuação incessante pelo reconhecimento e organização das atividades da área. Esse
pioneirismo é traduzido, este ano, pela comemoração do aniversário de 40 anos de sua fundação. E como não poderia
deixar de ser, o artigo de abertura deste número especial da RBFM traz um relato detalhado dos acontecimentos que
marcaram a fundação e a evolução da ABFM.
Com tiragem de mil exemplares, esse número será distribuído a todos os participantes do XIV Congresso Brasileiro de
Física Médica, aos sócios da ABFM e a bibliotecas de Universidades, Institutos e Centros responsáveis pela formação e
capacitação de profissionais em Física Médica.
A RBFM brinda a comunidade com este número especial, em comemoração aos 40 anos de fundação da ABFM, uma
data histórica para a Física Médica no país.
Marcelo Baptista de Freitas
Editor Científico da Revista Brasileira de Física Médica
Associação Brasileira de Física Médica®
3
Artigo de Revisão
Revista Brasileira de Física Médica. 2009;3(1):5-18.
Histórico da Associação Brasileira de Física
Médica e sua contribuição para a evolução
da Física Médica no Brasil
History of the Brazilian Association of Medical Physics
and its contribution to the evolution of Medical Physics in
Brazil
Thomaz Ghilardi Netto1
1
Professor titular aposentado do Departamento de Física e Matemática da Faculdade de Filosofia, Ciências e
Letras de Ribeirão Preto da Universidade de São Paulo (USP); físico médico coordenador da Área de Física Médica,
Radioproteção e de Radioterapia do Hospital das Clínicas da Faculdade de Medicina de Ribeirão Preto da USP –
Ribeirão Preto (SP), Brasil.
Resumo
A introdução contém um breve comentário sobre a origem da ciência da Física das Radiações com suas específicas referências. Descreve-se,
ainda, o desenvolvimento prévio de organizações de físicos em instituições médicas, como a Hospital Physicists’ Association no Reino Unido e a
American Association of Physicists in Medicine nos Estados Unidos; ambas serviram de modelo para alguns dos fundadores da nossa associação,
que contaram também, com a ajuda e as sugestões do professor John Cameron, da Universidade de Wisconsin. No preâmbulo são descritos alguns
detalhes acerca da criação de várias instituições envolvidas com proteção radiológica e a forma como foram iniciadas as interações dos físicos
com os médicos, nos hospitais de São Paulo e Rio de Janeiro. Além disso, descreve-se com detalhes a formação da Associação Brasileira de Física
Médica, o seu contínuo desenvolvimento e ainda são historiados os eventos realizados. A evolução, as criações e as atividades da Associação são
descritas com base em períodos de dois em dois anos.
Palavras-chave: história; associação; Física das Radiações; hospital.
Abstract
The introduction contains a brief commentary on the origins of Radiation Physics with specific references. It also describes the prior development
elsewhere of physicists organizations in medical institutions, such as the Hospital Physicists’ Association, in the United Kingdom and the American
Association of Physicists in Medicine, in the United States; both served as a model for some of our founders, who also received the help and the
suggestions of professor John Cameron, from the University of Wisconsin. The preamble details the creation of several institutions working with
radiation protection and the manner in which the interaction between physics and physicians started, both in São Paulo and Rio de Janeiro hospitals.
It also details the creation of the Brazilian Association of Medical Physics and events in its continuous development. The Association’s evolution,
creations and activities are described in two-year intervals.
Keywords: history; association; Radiation Physics; hospital.
Introdução
O convite para escrever um histórico da Associação
Brasileira de Física Médica (ABFM) nos faz relembrar as comemorações de associações pioneiras, como a celebração de quarenta anos do Hospital Physicists Association
(HPA), realizada em Newcastle upon Tyne em 19831, e
a da American Association of Physicists in Medicine em
19982 e que em julho de 2009 encerrou as festividades de
comemoração do seu cinquentenário.
Historicamente, pode-se dizer que a Física Médica
teve origem há cinco séculos, quando Leonardo da Vinci
passou a se interessar pela mecânica da locomoção humana. O termo ‘Física Médica’ já havia sido empregado
por Neil Arnott em seu livro publicado em 18282,3 e por
A. Fick no livro publicado em 1856 com o título de Física
Médica2.
Posteriormente, o subsequente desenvolvimento de
dispositivos físicos contribuiu fundamentalmente para
a evolução das ciências biológicas, culminando com o
Correspondência: Hospital das Clínicas da Faculdade de Medicina de Ribeirão Preto-USP – Avenida Bandeirantes, 3900 Campus Universitário – Monte
Alegre, CEP 14048-900 - Ribeirao Preto (SP), Brasil – e-mail: [email protected]
Associação Brasileira de Física Médica®
5
Ghilardi Netto, T
desenvolvimento do microscópio por Van Leeuwnhoek
no século 17. Por outro lado, com o crescimento do conhecimento dos fenômenos ligados ao eletromagnetismo,
especialistas em Física, em meados do século 19, prestaram significante contribuição à terapia e ao diagnóstico
médico. Outras contribuições importantes que podem ser
citadas são as do físico francês D’Arsonval, que permitiu
o desenvolvimento de sensíveis voltímetros registradores
e viabilizou o sucesso da eletrocardiografia e da eletroencefalografia; e as do médico e cientista Helmholtz, que
desenvolveu sistematicamente o conceito de conservação
de energia, inventou o oftalmoscópio – para perscrutar o
olho internamente – e o oftalmometro – para medir a curvatura do olho –, e que também foi o primeiro a medir a
velocidade de um impulso nervoso.
A partir de 1895, a descoberta dos raios x por Wilhelm
Conrad Roentgen, juntamente às descrições de suas propriedades de atenuação em determinados materiais, foram suficientes para estimular não só a sua utilização em
imagens médicas, como também os estudos imediatos
realizados por Thomas Edison, que contribuíram para o
desenvolvimento de telas intensificadoras e o consequente estímulo a vários fabricantes para oferecerem diferentes
tipos de tubos de raios x4.
Seguido à descoberta dos raios x, nos últimos anos do
século 19, vários pesquisadores da época se envolveram
com a seleção de minerais que se tornavam luminescentes
durante e após a exposição a raios x. Entre eles pode-se
citar o físico francês Henri Becquerel, que descobriu o minério Urânio em 1896, e o casal Pierre e Marie Curie, que
em 1898 anunciava a descoberta do polônio e o rádio5.
Com o desenvolvimento dos tubos fotomultiplicadores
e com o advento da Física Computacional, pode-se dizer
que estes conceitos e aplicações desenvolvidos no século
passado foram tão importantes quanto o microscópio, no
século 17, para a evolução das ciências médicas e biológicas. Assim sendo, com o desenvolvimento da Física
Aplicada, novas especialidades evoluíram com a Física
Médica para atender às necessidades do mundo moderno. Entre outras, pode-se citar a Biofísica, havendo grande
interesse – na América, durante as décadas de 1940 e 50
– em sua ligação a aplicações radioativas. Houve um crescimento substancial influenciado pela radioterapia e pelo
efeito de crescimento desorientado induzido pela radiação
nas células. Por outro lado, na Europa, especialmente no
Reino Unido, esse crescimento se deu devido ao sucesso
alcançado na determinação de estruturas de macromoléculas biológicas utilizando difração de raios x, e tendo
como marco a determinação da estrutura da molécula do
DNA4.
Maiores detalhes sobre as principais contribuições sobre pesquisas antigas com radiação podem ser encontrados em artigos publicados nas paginas da revista Medical
Physics6-10.
Em meados do século passado, na década de 40,
físicos interagiam com instituições médicas na cidade de Nova Iorque, mantendo reuniões para comparar
6
Revista Brasileira de Física Médica. 2009;3(1):5-18.
instrumentação e suas avaliações quantitativas de radioatividade em soluções de uso medicinal. Essa interação
propiciou a criação da Radiological and Medical Physics
Society em 1957.
Do ponto de vista internacional, antes de 1960, os físicos médicos não tinham uma organização própria, mas ao
redor de 1958 o Presidente da HPA sugeriu a necessidade
da criação de uma organização internacional e após vários encontros e reuniões, com a participação de 80 membros de 20 países, foi criado o International Committee on
Medical Physics. Este comitê internacional se reuniu pela
primeira vez em Estocolmo, em 1961, e elegeu um comitê
especial para estabelecer condições para a criação da organização. Assim, em 1962 o comitê se reuniu novamente
em Montreal, no Canadá, e decidiu criar a Internacional
Organization for Medical Physics (IOMP), “com o objetivo
de organizar a cooperação internacional em Física Médica
em todos os seus aspectos, especialmente em países em
desenvolvimento, e encorajar e supervisionar a formação
de organizações de Física Médica naqueles continentes
afiliados à organização”11.
Preâmbulo
A evolução da tecnologia em Medicina vem sendo intensamente pautada por aplicações de conceitos e métodos
da Física, tornando imprescindível a atuação constante de
profissionais especializados da área de Exatas em atividades ligadas às ciências da saúde. Um trabalho fundamental desenvolvido por esses profissionais, em todos os
setores em que atuam, relaciona-se com as aplicações de
energia, conceitos e métodos para o diagnóstico e terapia de doenças humanas. Seguindo estes princípios, os
profissionais ligados à Física Médica vêm desempenhando
ao longo dos anos uma importante função na assistência
médica e na pesquisa biomédica, procurando alcançar a
otimização da proteção radiológica. Assim, foi se estabelecendo uma relação importante entre a qualidade da
técnica, da proteção das pessoas e dos ambientes envolvidos. Estas necessidades propiciaram uma interação
natural desses profissionais com várias especialidades da
Medicina, que vêm contribuindo substancialmente para
o progresso não só de tratamentos, mas também em
Medicina Nuclear, Radiodiagnóstico, Cardiologia e outras
ramificações técnicas de produção de imagem utilizando
equipamentos de ultrassom e ressonância magnética.
No Brasil, essa interação teve início em meados da
década de 50, envolvendo alguns pioneiros que foram os
responsáveis pela implantação da Física Médica no Brasil.
Entre outros, podem ser citados a física Esther Nunes
Pereira, que 1954 foi convidada, pelo médico Osolando
Judite Machado, para trabalhar no Serviço de Radioterapia
do Instituto Nacional do Câncer no Rio de Janeiro. Em
1957, o físico Dirceu Martins Vizeu foi convidado pelo
médico Mathias Octávio Roxo Nobre para trabalhar na
Associação Paulista de Combate ao Câncer, na cidade de
Histórico da Associação Brasileira de Física Médica e sua contribuição para a evolução da Física Médica no Brasil
São Paulo. Em 1961, Adelino José Pereira iniciou suas atividades em radioterapia nesta mesma associação.
A partir de 1959, os físicos Alípio Luiz Dias Neto e
Thomaz Bitelli iniciaram suas atividades no Centro de
Medicina Nuclear (CMN) da Faculdade de Medicina da
Universidade de São Paulo (USP), convidados pelo médico Tede Eston de Eston, diretor e fundador do centro.
Nessa mesma década, além do CMN, foram também
criadas algumas instituições que formaram a base para o
desenvolvimento da Física Médica: o Instituto Nacional do
Câncer, criado em 1957 e reconhecido oficialmente como
INCA em 1961; a Associação do Estado de São Paulo
para o Combate ao Câncer; e a Comissão Nacional de
Energia Nuclear (CNEN). Nessa época, a CNEN, também
implantou o Laboratório de Dosimetria das Radiações na
Pontifícia Universidade Católica (PUC) do Rio de Janeiro,
contando com a colaboração do professor Bernard Gross,
que se transformou no atual Instituto de Radioproteção e
Dosimetria (IRD), criado em 1972.
O Instituto de Energia Atômica (IEA), hoje Instituto de
Pesquisas Energéticas e Nucleares (IPEN), foi criado em
1956 e hoje é uma autarquia do Governo do Estado de
São Paulo, vinculada à Secretaria de Desenvolvimento e
gerenciado pela CNEN; também é associado, para fins de
ensino de pós-graduação, à Universidade de São Paulo.
Já a Divisão de Proteção Radiológica teve seu início em
1957, com a contratação de Thomaz Bitelli e Dirceu Vizeu;
Bitelli se transferiu para o CMN em 1959, ao passo que
Vizeu continuou trabalhando até 1967. Gian Maria Sordi,
em 1961, e Sudernaique F. de Deus, em 1965, também se
juntaram à Divisão. Atualmente, Linda Viola Elhin Caldas é
a Diretora de Segurança Nuclear, tendo iniciado seu trajeto
no IPEN em 197512. Outra instituição que deve ser citada é
o Hospital A. C. Camargo, hoje reconhecido como um dos
principais centros de tratamento, ensino e pesquisa sobre
câncer da América Latina.
Na área acadêmica, a evolução da Física Médica contou com as importantes participações da USP, liderada
pelo professor Shigueo Watanabe em São Paulo e pelo
professor Sergio Mascarenhas de Oliveira em São Carlos.
Na Universidade Federal do Rio de Janeiro (UFRJ) houve
grande participação do professor Eduardo Penna Franca
– falecido recentemente. Em 1968, o professor Watanabe
criou e instalou o laboratório de dosimetria termoluminescente no IEA, contando com a colaboração de John
Cameron, que na época era responsável pela Divisão de
Física Médica da Universidade de Wisconsin.
A evolução da Física no interior de São Paulo se iniciou com a criação do curso de licenciatura em Física,
em 1962, na cidade de Rio Claro. Em 1967 foi criado o
curso de Física na Universidade Estadual de Campinas
(UNICAMP). Posteriormente, com o crescimento da massa crítica iniciada e criada pelos professores Sergio e Ivone
Mascarenhas na Escola de Engenharia de São Carlos
da USP em 1957, possibilitou-se a criação do Instituto
de Física e Química de São Carlos da USP, em 1970, o
que tornou possível a criação imediata dos cursos de
pós-graduação e de bacharelado em Física. Nesta mesma
época foi criado o Curso de Física na Universidade Federal
de São Carlos (UFSCAM).
Em julho de 1967, após a minha participação em um
curso ministrado para docentes pelo professor Thomaz
Bitelli no Instituto de Matemática e Física da Universidade
Federal de Goiás em Goiânia, fui incentivado a realizar um
estágio de quatro meses no CMN da USP, na cidade de
São Paulo, e a participar do curso de Física e Higiene das
Radiações, onde tive a oportunidade de colaborar juntamente com o físico José Maria Fernandes Neto na preparação das aulas práticas. Descrevo esta passagem com
detalhes, pois a minha participação como aluno do curso
ministrado sob coordenação do professor Bitelli e contando com a participação dos professores Dirceu Martins
Vizeu, Adelino José Pereira e Dra. Verona Rapp Eston,
além de colegas de curso, os médicos radia-oncologistas
João Luiz Fernandes da Silva, hoje chefe do Serviço de
Radioterapia do Hospital Sírio Libanês e o falecido Marcos
Lederman, foi fundamental para me motivar a continuar
estudando e trabalhando em áreas ligadas a biomedicina
e a me transferir para Ribeirão Preto em 1969, e assim
poder realizar a Pós-Graduação em Física no Instituto
de Física e Química de São Carlos da USP, com ênfase
em biofísica, contando com a colaboração do professor
Sergio Mascarenhas de Oliveira e sob a orientação do
professor Robert Lee Zimmerman. Em Janeiro de 1980, a
convite de Carlos Eduardo Veloso de Almeida passei um
período no IRD onde tive a oportunidade de trabalhar com
Ana Maria Campos de Araujo e João Emilio Peixoto, fato
este que permitiu posteriormente estabelecer um convênio entre o Centro de Instrumentação e Dosimetria da USP
em Ribeirão Preto e a CNEN, o qual foi muito profícuo.
Posteriormente essa interação teve continuidade através de trabalhos realizados com Helvécio Correa Mota e
Simoni Kodlulovich.
Criação, formação e atividades da ABFM
Pode-se dizer que os centros mencionados anteriormente foram os embriões da Física Médica no Brasil. Assim,
sugeriu-se a criação de uma Associação para congregar
os físicos da área médica no CMN da USP, tendo em vista três fatores: a profícua interação entre os profissionais
pertencentes às instituições citadas, o crescimento do
número de físicos trabalhando em Física Médica, e após
visita feita pelo professor Cameron, da Universidade de
Wisconsin em meados do ano de 1969, acompanhado
pelo professor Shigueo, ao CMN, tal sugestão motivou o
professor Bitelli a encaminhá-la ao doutor. Tede Eston de
Eston, Diretor do Centro, que prontamente a aceitou13.
Desta forma, após uma reunião preliminar no CMN da
USP em 23 de julho de 1969, contando com a participação dos físicos Adelino José Pereira, Gian Maria Sordi
e José Maria Fernandes Neto, foi realizada a reunião de
criação da ABFM, presidida por Adelino José Pereira e
Revista Brasileira de Física Médica. 2009;3(1):5-18.
7
Ghilardi Netto, T
secretariada por José Solda, em 25 de agosto do mesmo
ano (Anexo 1).
Assim, o sonho iniciado em uma pequena sala, com
alguns poucos sócios fundadores, foi se tornando realidade, com a adesão de mais profissionais da área, agregando e adicionando idéias. Aos poucos, sua estrutura foi
se fortalecendo, motivada pela primeira diretoria, formada
pelo Presidente Thomaz Bitelli, que na época era responsável pela Divisão de Física e Higiene das Radiações do
CMN, mas que havia iniciado carreira no IEA, tendo sido
levado pelo professor Rômulo Pieroni. Em 1959, por indicação do professor Abrahão de Moraes, iniciou suas
atividades no CMN, onde permaneceu até 1970, tendo
sido ainda, por muitos anos, docente da Universidade
Mackenzie, onde devido ao conhecimento profundo do
assunto e a qualidade didática de suas apresentações estimularam muitos jovens a se dedicarem à Física Médica.
Além do Presidente, faziam parte da diretoria o Presidente
Eleito Shigueo Watanabe, o Secretário Geral Adelino
José Pereira e o Tesoureiro José Solda. No período da
gestão desta diretoria foram realizadas as seguintes reuniões científicas: ciclos de conferências na Faculdade de
Ciências Médicas da Santa Casa de Misericórdia, na cidade de São Paulo, em 1969; e o Segundo Encontro de
físicos e Radioterapêutas, no Rio de Janeiro, e o Simpósio
Utilização de Aceleradores Lineares em Radioterapia, no
Hospital Oswaldo Cruz, na cidade de São Paulo, ambos
em 1971.
Com a demissão do professor Bitteli em 12 de fevereiro de 1971, o professor Shigueo assumiu a presidência,
complementando o mandato da diretoria. Em 24 de agosto do mesmo ano, durante a 4ª Assembleia Geral, realizada no Hospital A. C. Camargo, foi eleita a segunda diretoria, sob a presidência de Shigueo Watanabe. O professor
Watanabe, àquela época pertencente ao Departamento
de Física Nuclear da USP, contribuiu enormemente para
a Física Médica ao introduzir no Brasil, em 1968, o estudo do fenômeno de termoluminescência, o que tornou
possível, a partir do ano seguinte, o início da monitoração
Figura 1. Cerimônia de entrega do título de Sócio Honorário
ao professor John Cameron pela Dra. Esther Nunes Pereira em
São Paulo.
8
Revista Brasileira de Física Médica. 2009;3(1):5-18.
pessoal e ambiental. O professor Watanabe, além de ser
um dos fundadores da ABFM, foi juntamente com professor Sergio Mascarenhas, um dos responsáveis pela criação da Academia de Ciência de São Paulo em 1974. Pela
sua dedicação à ciência, o professor Shigueo recebeu,
além do título de Sócio Honorário da ABFM, vários outros
títulos honoríficos internacionais e a Ordem Nacional de
Mérito Educacional das mãos do Ministro da Educação
Paulo Renato. Além de Watanabe, faziam parte da diretoria o Presidente Eleito Dirceu Martins Vizeu, o Secretário
Adelino José Pereira e o Tesoureiro Luiz Alberto Malaguti
Scaff. Cabe destacar que a primeira reunião científica organizada pela ABFM foi a 1st Latin American Conference
on Physics in Medicine and Radiation Protection, realizada
no IEA, hoje IPEN, no início de março de 1972, na cidade de São Paulo, sob a Presidência do professor Shigueo
Watanabe, tendo como Patrono o professor Rômulo
Ribeiro Pieroni, Superintende do Instituto, que na oportunidade tornou-se o primeiro sócio honorário da ABFM
e como Secretário o professor Adelino José Pereira, cuja
publicação dos Anais, entregue no dia aos participantes foi
devido principalmente aos esforços do professor Vizeu14.
Cabe ressaltar que coube a esta diretoria a primeira publicação do Boletim Informativo nº 1 em junho de 1971,
onde entre outros assuntos foi divulgada uma palestra do
professor Alípio Dias Neto, e a divulgação dos nomes dos
sócios fundadores totalizando 22 sócios efetivos e 11 sócios aspirantes, alunos da Universidade Mackenzie15. Em
1972, o professor Cameron foi eleito membro Honorário
pela sua contribuição a Física Médica Brasileira. A Figura
1 mostra a cerimônia de entrega realizada pela doutora
Esther Nunes Pereira.
Em 24 de setembro de 1973 tomou posse a terceira
diretoria da ABFM sob a presidência do professor Vizeu.
O professor Vizeu iniciou a sua carreira no IEA e posteriormente foi contratado como docente da Faculdade de
Farmácia da USP, sendo o primeiro a trabalhar como físico
e responder por um Serviço de Física Médica no Instituto
de Radioterapia Oswaldo Cruz; juntamente com o médico Marcos Lederman, foi responsável pela instalação do
primeiro acelerador linear no Brasil16. A nova diretoria era
composta ainda pelo Presidente Eleito Alípio Luiz Dias
Neto, o Secretário Adelino José Pereira e o Tesoureiro
Gian Maria A. Sordi. Durante a gestão dessa diretoria,
no período de 1973 a 1975, foi realizado o Simpósio de
Atualização de Física em Medicina, durante a 26ª Reunião
Anual da SBPC, em Recife.
No biênio de agosto de 1974 a agosto 1976 a ABFM
foi presidida pelo saudoso professor Alípio José Luiz Dias
Netto, que dedicou quase cinquenta anos de sua vida ao
CMN da USP, onde exerceu o cargo de Diretor durante
muitos anos. No início de suas atividades, foi pesquisador
visitante junto à Agência Internacional de Energia Atômica
(AIEA) em meados da década de 60 e posteriormente obteve o seu doutoramento na USP. Além do Presidente, a
diretoria era composta pelo Vice-Presidente Adelino José
Pereira, o Secretário Geral Eugênio Del Vigna Filho e a
Histórico da Associação Brasileira de Física Médica e sua contribuição para a evolução da Física Médica no Brasil
Tesoureira Marilia Teixeira da Cruz. Na gestão dessa diretoria foram realizadas a 2nd Latin American Conference
on Physics in Medicine and Radiation Protection e a 2nd
Symposium on Utilization of Linear Acclerators in Medicine
na cidade de Belo Horizonte em 1975, tendo como
Presidente Eugênio Del Vigna Filho17.
Durante as comemorações desta reunião, foi entregue pelo professor Watanabe o título de sócio honorário
ao Dr. Mathias Otávio Roxo Nobre, o terceiro a receber
da ABFM tal homenagem, como gratidão pelos serviços
prestados à Medicina, mas principalmente pelo apoio e
incentivo para o progresso da Física Médica, conforme
mostra a Figura 2.
Em agosto de 1975, tomou posse a nova diretoria da
ABFM, que seria Presidida pelo professor Adelino José
Pereira até agosto de 1977; na época, o professor Adelino
era responsável pelo Serviço de Física Médica do Hospital
A.C. Camargo na cidade de São Paulo, pesquisando e
prestando serviços em aplicações radioterápicas até
2006. A Figura 3 mostra os ex-presidentes Adelino José
Pereira, Dirceu Martins Vizeu e Eugenio Del Vigna Filho
reunidos com Dr. Mathias Otavio Roxo Nobre.
A diretoria era constituída ainda pelo Presidente Eleito
Eugênio Del Vinha Filho, pelo Secretário Geral Paulo
Mota Craveiro e pela Tesoureira Marilia Teixeira da Cruz.
Durante a sua gestão foi realizado o International Seminar
on Medical Physics, em Teresópolis, e o XV International
Congress on Radiology no Rio de Janeiro, em 1977, tendo como Presidente Watanabe e Secretário Geral Eugênio
Del Vigna Filho18. Cabe destacar algumas realizações importantes neste período que foram: o lançamento da publicação do primeiro Boletim Informativo, com trabalhos
publicados e informações mais completas; a realização de
cursos intensivos, de Física Médica e Oncologia, ministrados em várias cidades brasileiras; e a outorgação, em
17 de setembro de 1976, do título de especialista na 17a
Assembleia Geral Ordinária da ABFM. Em 1977, após uma
avaliação realizada por uma comissão designada pelo
conselho deliberativo da ABFM, foi realizada uma seleção
dos interessados a concorrerem ao título de Especialistas
em Física Radiológica; foram aprovados e classificados
os primeiros 30 especialistas em Física Radiológica, sendo homologados pelo Conselho Deliberativo da ABFM
sob a presidência de Adelino José Pereira. Em 23 de
abril 1979 foram aprovadas, pelo Conselho, as deliberações da Comissão de Credenciamento referente ao título a ser concedido nas especialidades ligadas a Física
Aplicada: em Radioterapia, em Medicina Nuclear e em
Radiodiagnóstico ou Física Radiológica, englobando as
três áreas19.
Em agosto de 1977, a diretoria da ABFM deu posse
ao Presidente Eugênio Del Vigna Filho, físico formado pela
USP que iniciou suas atividades de formação na área de
Física Médica nos Laboratórios do Instituto de Física da
USP e no IEA, sob a orientação do professor Watanabe,
especializando-se em Física Radiológica sob a supervisão do professor Adelino José Pereira no Hospital A. C.
Camargo na cidade de São Paulo. No período de 1971
a 1973, trabalhou no Hospital Sírio Libanês. Em 1974 se
transferiu para a Santa Casa de Belo Horizonte, para assumir a responsabilidade do Serviço de Física, onde permanece até o presente. A diretoria era composta, ainda, pela
Presidenta Eleita Esther Nunes Pereira, o Secretário Geral
Paulo Mota Craveiro e a Tesoureira Marilia Teixeira da Cruz.
Em 20 de agosto de 1977, durante reunião, foi entregue o
título de Sócio Honorário ao professor Watanabe, sendo o
quarto a receber da ABFM tal homenagem, como gratidão
pelos serviços prestados à Medicina, mas principalmente
pelo apoio e incentivo para o progresso da Física médica17.
Em 1979, foi realizada a Conferência do 10o Aniversário
da ABFM no IPEN12. Na gestão dessa diretoria houve um
aumento sensível do número de sócios, além de ter sido
aprovado o convênio entre a ABFM e o Colégio Brasileiro
de Radiologia, fundamental para o crescimento das áreas.
Em 1979, durante reunião realizada no Rio de Janeiro,
foi outorgado o título de Sócio Honorário da ABFM ao
Presidente da CNEN pelo apoio irrestrito às causas da
Figura 2. Cerimônia de entrega do título de Sócio Honorário ao
Dr. Mathias Otávio Roxo Nobre pelo professor Watanabe durante
reunião em Belo Horizonte.
Figura 3. Ex-presidentes Adelino José Pereira, Dirceu Martins
Vizeu e Eugenio Del Vigna Filho reunidos com Dr. Mathias Otavio
Roxo Nobre.
Revista Brasileira de Física Médica. 2009;3(1):5-18.
9
Ghilardi Netto, T
ABFM, com aprovação de convênios altamente importantes para as Sociedades envolvidas com radiação.
No período de 1979 a 1981 a ABFM foi presidida
pela pioneira Esther Nunes Pereira, formada em Física e
Matemática pela Faculdade de Filosofia da Universidade
do Brasil em 1944. Em 1954, ao ser convidada pelo Dr.
Osolando Machado, foi contratada para as “funções
atinentes à Física Aplicada à Medicina nos Setores de
Roentgenterapia, Curieterapia e Radioisótopos do INCA”;
participou de cursos no Instituto Nacional de Tecnologia
no Rio de Janeiro entre 1952 e 1954; de Metodologia
de Radioisópos e Dosimetria Radiológica na USP, na cidade de São Paulo, entre 1953 e 1958; e de Dosimetria
e Instrumentação Nuclear na CNEN, em 1959. De abril
de 1960 a maio de 1961, com bolsa da AIEA, foi estagiária no Christie Hospital and Hold Radium Institute em
Manchester no Reúno Unido. Após a vida inteira dedicada
à Física das radiações ionizantes do INCA, aposentou-se
em outubro de 1986. A nova diretoria era composta ainda, pelo Vice-Presidente Paulo Mota Craveiro, a Secretária
Geral Ana Maria Campos de Araújo e a Tesoureira Marilia
Teixeira da Cruz.
Nesse período, além da Conferência do 10o Aniversário
da ABFM, citado anteriormente, houve uma participação
efetiva dos sócios da ABFM na 34ª Reunião Anual da SBPC,
em Campinas, e no 2o Simpósio sobre Instrumentação, realizado em 1980 na cidade de São Paulo e coordenado pelo
professor Watanabe.
No início da década de 80, por sugestão do professor
Abdus Salam – Diretor, na época, do International Centre
for Theoretical Physics, Presidente da 3rd World Academy
of Sciences, fez-se uma proposta que, sob os auspícios
das duas organizações presididas pelo professor Salam,
foi aceita: a criação da 3rd World Association of Medical
Physics20.
Nesta oportunidade, durante a Assembleia foi outorgado o título de sócio honorário ao sócio professor Vizeu,
pelos relevantes serviços prestados à Radioterapia e à
ABFM.
No biênio de 1981 a 1983, a Associação foi presidida por Paulo Mota Craveiro formado em física pela USP
em 1972, que cursou vários cursos de especialização no
período 1972 a 1974, e o Mestrado em Física Aplicada à
Medicina e Biologia em 1997. No período de 1972 a 1992,
foi Diretor da Equipe Técnica de Radiação do Centro de
Vigilância Sanitária da SSESP e Chefe do Departamento
de Física do Hospital Sírio Libanês. Desde 1992 é docente
da Faculdade de Medicina de Marilia. A diretoria era composta, ainda, pelo Presidente Eleito Carlos Eduardo Veloso
de Almeida, Secretário Geral José Maria Fernandes Neto
e Tesoureira Cecília Maria Kalil Haddad. Neste período, foram realizadas as Jornadas de Física Médica de Ribeirão
Preto, que eu coordenei em março de 1983; a Jornada
de Física Médica do Rio de Janeiro, em agosto do mesmo ano, coordenada por Ana Maria Campos Araújo; e
o Congresso Brasileiro de Engenharia Biomédica, em
Campinas, em setembro de 1985. Nesta reunião foi dada
10
Revista Brasileira de Física Médica. 2009;3(1):5-18.
posse à nova diretoria da ABFM, presidida por Carlos
Eduardo Veloso de Almeida, graduado em Física pela
Universidade Federal da Bahia em 1967, mestrado em
1973 e doutorado em 1979 na M. D. Anderson Hospital
and Tumor Institute da Universidade do Texas, Pós doutorado Bureau International des Poids et Measures (1986)
e ex-Diretor do Instituto de Radioproteção e Dosimetria.
Atualmente é professor e Coordenador do Laboratório de
Ciências Radiológicas da UERJ. A composição da nova
diretoria era formada ainda pelo Vice-Presidente José de
Julio Rozental, o Secretário Geral Eugênio Roberto Cecatti
e a Tesoureira Maria dos Prazeres Ventura Pfeffer. No período desta diretoria, devido ao aumento substancial de
sócios, principalmente de regiões geograficamente mais
afastadas, o Conselho da ABFM, em novembro 1983,
aprovou o aumento do número de secretarias regionais
e a criação do Conselho Editorial para responder pelas
edições das publicações dos boletins. Nesta gestão teve
inicio a discussão da minuta do convênio CNEN/ ABFM21.
Em 1984, durante a 36a reunião da Sociedade
Brasileira para o Progresso da Ciência (SBPC), foi realizada sob minha coordenação a Reunião do 15o aniversário da ABFM. Em 1985 foram realizados dois eventos:
a Jornada de Física Médica de Juiz de Fora, no Estado
de Minas Gerais, coordenada por José Galdino Ulysses,
e o 1o Congresso Brasileiro de físicos em Medicina, juntamente com o 20o Congresso Brasileiro de Radiologia, o 4o
Congresso Brasileiro de Ultrassonografia e o 2o Congresso
Latino-americano de Ultrassonografia, em Belo Horizonte.
Durante a Assembleia Geral, foi concedido o título de
Sócio Honorário ao professor Adelino José Pereira, pela
sua dedicação e prestação de serviços à comunidade e
à ABFM.
Em julho de 1984, com a participação de vários sócios, foi fundada a Associação Latino-americana de
Física Médica (ALFIM), durante a 26a reunião anual da
American Association of Medical Physics e a 1a Reunião
Interamericana de Física, em Chicago, nos Estados Unidos.
Para o período de 1985 a 1987, assumiu como
Presidente José de Julio Rozental, formado em física
em 1957, pós-graduação na Escola de Engenharia da
Universidade do Brasil. Em 1967, foi bolsista no Oak
Ridge Institute of Nuclear Studies, no Tennessee, Estados
Unidos, para se especializar em proteção radiológica. De
1973 a 1989 dedicou sua vida, trabalhando na CNEN,
nas funções de regulamentação, proteção radiológica,
inspeção de instalações radioativas e segurança física
e radiológica. Hoje é consultor científico para assuntos
de segurança na AIEA. Em 2004 recebeu das mãos do
Ministro da Ciência e Tecnologia, Eduardo Campos, a medalha Carneiro Felipe, que é a mais alta condecoração da
CNEN. Segundo Rozental, seu programa de trabalho contou com forte apoio e dedicação efetiva de seus colegas
de diretoria: Presidente Eleito Homero Cavalcante Melo,
Secretário Geral Pedro Paulo Pereira Junior e a Tesoureira
Sônia Garcia Pereira Cecatti. Neste período, foram realizados dois convênios importantes entre a CNEN e o Colégio
Histórico da Associação Brasileira de Física Médica e sua contribuição para a evolução da Física Médica no Brasil
Brasileiro de Radiologia (CBR), e entre a CNEN e a ABFM.
Com base no convênio CNEN-ABFM, tendo em vista
que os programas para especialistas em Física Médica
incluíam uma parte especifica de Proteção Radiológica,
a CNEN reconhecia os títulos de especialistas em Física
Médica, aprovados pela ABFM como Supervisores de
Proteção Radiológica nas três áreas afins. Neste período foram realizados os seguintes eventos: o Simpósio de
Física Médica Esther Nunes Pereira, por ocasião da 38a
Reunião Anual da SBPC, realizada em 1986 em Curitiba,
e o 2o Congresso Brasileiro de físicos em Medicina, em
conjunto com o 21o Congresso Brasileiro de Radiologia,
realizado em São Paulo.
Em 1986, foi criado no Departamento de Física e
Matemática da Faculdade de Filosofia, Ciências e Letras
de Ribeirão Preto (FFCLRP), da USP na cidade de Ribeirão
Preto, o Curso de Mestrado em Física Aplicada à Medicina
e Biologia, que impulsionou a evolução da Física Médica
no interior do Estado de São Paulo.
Em outubro de 1987, assumiu a Presidência Homero
Cavalcante Melo, formado em Geologia, se especializando em Geofísica em 1972. Em 1973, inicia sua carreira
trabalhando no Centro de Energia Nuclear da UFPE e paralelamente desenvolve atividades em Radioterapia, trabalhando com o Dr. Ivo Roesler, no hospital do Câncer. Nesta
época, é contratado pelo Centro Brasileiro de Tecnologia
Nuclear/CBTN/CNEN, passando a ser o único funcionário
fora da sede no Rio de Janeiro. Nesta época, Roberto Salvi
e Carlos Austerlitz A. Lima Campos realizavam estágio no
Hospital do Câncer. Em 1978, é convidado para trabalhar
no Instituto de Radium e Supervoltagem Ivo Roesler, no
Real Hospital Português, época em que foi instalado o primeiro acelerador linear no Recife. Homero foi um referencial para a Física Médica no Nordeste. Como Presidente
da ABFM, atuou como supervisor durante o acidente
com fonte de radio em Goiânia. Teve como companheiros de diretoria, além de mim como Presidente Eleito, a
Secretária Geral Helen Jamil Khoury e a Tesoureira Lea
Contier de Freitas. A posse da nova diretoria se deu durante o 2º Congresso Brasileiro de físicos em Medicina,
coordenado por Marília Teixeira da Cruz e realizado, na
cidade de São Paulo, poucas semanas após o trágico e
mais grave acidente envolvendo equipamentos de tratamento médico com Césio-137, no dia 13 de setembro,
em Goiânia.
Em 1988, a ABFM se congregou durante a 40a
Reunião Anual da SBPC, na cidade de São Paulo; com a
colaboração de Laura Natal Rodrigues, foi acrescentada
aos Anais a seção de Física Médica. Na Assembleia Geral
da ABFM, realizada em julho de 1988 em São Paulo, foi
discutida novamente a regulamentação da profissão de físico, sendo apresentada uma proposta para o projeto de
regulamentação21, preocupação esta que já era compartilhada com a Sociedade Brasileira de Física (SBF). Nesta
época, a ABFM já contava com 400 sócios.
Nessa oportunidade, foi outorgado o título de Sócio
Honorário da ABFM ao professor Thomaz Bitelli, como
um dos fundadores, primeiro Presidente da Associação e
pelos serviços prestados, principalmente pela sua contribuição para a motivação e formação de inúmeros especialistas em Física Médica.
Em agosto de 1988, durante a reunião da IOMP em
San Antonio, Estados Unidos, a ABFM e a Sociedade
Brasileira de Engenharia, representadas por um número expressivo de sócios, apresentaram formalmente a
candidatura do Brasil para realizar o World Congress on
Medical Physics and Biomedical Engineering, cabendo ao
então Presidente do Comitê de Educação e Treinamento
da IOMP, Carlos Eduardo Veloso de Almeida, apresentar
formalmente a candidatura do Brasil. Concorrendo com
a França e a Hungria, o país foi escolhido como sede do
Congresso a se realizar no Rio de Janeiro em 199422.
Em novembro de 1988, foi realizado em Bariloche na
Argentina o 1º Workshop de Física Médica, coordenado
pelo Dr. Omar A. Bernaola e contando com a colaboração,
entre outros, de Mariana Levi de Cabreja, Marcelo Rubio,
Mônica Graciela Bruneto e a participação efetiva de sócios
da ABFM. Nesta ocasião, foi criada a Sociedade Argentina
de Física Médica e decidiu-se que o 2o Workshop em
Física Médica seria realizado em outubro de 1990 na cidade de Ribeirão Preto, sob a minha coordenação.
No meu retorno, tendo sido convidado pelo sócio
Aristides Marques de Oliveira Neto, o Diretor professor
Antonio Dias Nunes solicitou minha ajuda para assessorálo, juntamente com outros professores do Departamento
na implantação de um curso de Física com ênfase em
Física Médica, que funciona desde 1992. Na minha volta,
recebi um convite do professor Shigueo Watanabe para
presidir o 3o Congresso Brasileiro de físicos em Medicina,
realizado em Águas de Lindoia, em agosto de 1989. Além
da grande quantidade de trabalhos apresentados, houve participação expressiva de sócios: aproximadamente
duas centenas, conforme pode ser visto, na Figura 423.
Nesta reunião, tive o prazer e orgulho de tomar posse como Presidente da ABFM juntamente com os demais membros da diretoria: Vice-Presidente Marília
Teixeira da Cruz, Secretário Geral Homero Lavieri Martins
e o Tesoureiro Carlos Alberto Pelá. Em outubro de 1990
foi realizado também, na cidade de Ribeirão Preto, a
Figura 4. 3º Congresso Brasileiro de físicos em Medicina realizado em Águas de Lindoia; a imagem mostra parte dos 200
participantes da reunião, em agosto de 1989.
Revista Brasileira de Física Médica. 2009;3(1):5-18.
11
Ghilardi Netto, T
5ª Reunião Latino-americana de Física Médica, o 2o
Workshop de Física Médica, o 1o Workshop de Física
Médica e Engenharia Biomédica, sob minha coordenação,
em conjunto com 12o Congresso Brasileiro de Engenharia
Biomédica, coordenado por José B. Portugal Paulin. As
reuniões foram realizadas em conjunto para atender uma
das exigências da IOMP no sentido de aprovar a realização
do World Congress on Medical Physics and Biomedical
Engineering, que seria realizado no Brasil em 1994. Esta
reunião contou com a participação de 280 inscritos, entre
sócios e estudantes. Neste período, durante a Assembleia
Geral, foi concedido o título de Sócia Honorária à professora Marília Teixeira da Cruz pela sua dedicação ao ensino,
principalmente ligado à Física Médica, e sua contribuição
para o crescimento da ABFM.
Em agosto de 1991, transmiti o cargo à nova diretoria,
tendo como Presidenta Marilia Teixeira da Cruz, Presidente
Eleito Shigueo Watanabe, Secretário Geral Homero Lavieri
Martins e Tesoureira Regina Maria Godoy Lopes. A professora Marilia realizou o seu doutoramento no Instituto
de Física da USP. Além de exercer a Presidência, foi também tesoureira durante oito anos, iniciando em agosto de
1974. Como professora do Instituto de Física da USP, juntamente com os professores Shigueo Watanabe e Emico
Okuno foi uma das primeiras incentivadoras de estudantes
à prática de Física das Radiações aplicada à Biomédica.
Neste período foi realizado o 1o Fórum Nacional de
Ciência e Tecnologia em Saúde, conjuntamente com o
13o Congresso Brasileiro de Engenharia Biomédica, o 4o
Congresso Brasileiro de físicos em Medicina, o Encontro
de Brasileiro de Biologia e Medicina Nuclear e o Encontro
de Proteção Radiológica, realizada em Caxambu sob a
coordenação de Homero Lavieri Martins, dando continuidade aos compromissos assumidos entre ABFM e a
Sociedade Brasileira de Engenharia Biomédica (SBEB),
na reunião realizada na cidade de Ribeirão Preto. Neste
período, o Boletim da ABFM entrou na era da informática, editorado por Renato Dimenstein, com seções em
homenagem aos desbravadores das radiações ionizantes,
evidenciando assuntos em evolução e em desenvolvimento no Brasil. Durante a assembleia realizada em 23
Figura 5. Imagem dos professores e alunos da 1ª turma de
Física Médica da FFCLRP.
12
Revista Brasileira de Física Médica. 2009;3(1):5-18.
de novembro de 1992 foi aprovado a mudança, de titulação do cargo de Presidente Eleito para Vice-Presidente22,
a partir desta data, foi modificada a representação, pois,
anteriormente, havia a figura do Presidente e Presidente
Eleito que, algumas vezes, apresentou dificuldades burocráticas para a diretoria. Os associados passaram a eleger
o Presidente e o Vice-Presidente.
Em maio 1993, com a renuncia do professor Watanabe
por carta23, assumi novamente a Presidência, contando com a colaboração da Vice-Presidenta Cecil Chow
Robilota, Secretário Geral Homero Lavieri Martins, e o
Tesoureiro Francisco Carlos Diniz Carrieri, que teve participação fundamental para implementar a listagem de
sócios. Ressalte-se que neste período foram introduzidos
coordenadores ligados a cada uma das especialidades,
além da representação internacional. Na época, foi indicado o sócio Cláudio Hissao Shibata. Seria importante ressaltar que a escolha do meu nome para presidir por duas
vezes a ABFM se deve pelo apoio que recebi inicialmente
de John Cameron, no período de agosto a dezembro de
1979, e posteriormente dos meus colegas e sócios da
ABFM, representados aqui por Robert Lee Zimmerman e
Oswaldo Baffa Filho, que colaboraram para o crescimento
da Física Médica na USP na cidade de Ribeirão Preto, iniciado com a criação do curso de aprimoramento em Física
Radiológica no Hospital das Clínicas em 1982, do curso
de mestrado e a criação do Centro de Instrumentação,
Dosimetria e Radioproteção, em 1986, e do doutoramento
em 1995 na FFCLRP, na USP, culminando com a criação
do curso de Física Médica em 1999 e, ainda, com a proposta da criação, em 1991, do Serviço de Física Médica e
Radioproteção no Hospital das Clínicas.
A imagem da Figura 5 mostra professores e alunos
da 1ª turma de Física Médica da Faculdade de Filosofia,
Ciências e Letras de Ribeirão Preto da Universidade de
São Paulo.
Eu ainda colaborei como assessor na implantação
dos cursos com ênfase na Física Médica, da PUC do Rio
Grande do Sul, em Porto Alegre, em 1990, e do Centro
Universitário Franciscano de Santa Maria (UNIFRA), convidado por Evanberto Garcia Góes e do Curso de Física
Médica da UNESP de Botucatu, convidado por José
Ricardo de Arruda Mirando. Além dos cursos citados anteriormente e dos tradicionais cursos da USP e da PUC de
São Paulo e da UFRJ, foram criados nesta década os cursos de Física Médica na Universidade Federal de Sergipe
em 2001, o curso da Unicamp em 2003 e da Fundação
Técnico Educacional Souza Marques no Rio de Janeiro.
Em âmbito internacional, colaborei como assessor da
Organização Pan-americana da Saúde na implantação
do curso de mestrado em Física Médica na Universidade
de Buenos Aires e de graduação na Universidade de San
Martín, no início da década de 1990.
Em outubro de 1992, durante o 3o Workshop de Física
Médica realizado em Entre Rios, na Argentina, fui eleito
Presidente da ALFIM e, tendo como componentes da diretoria a Vice-Presidenta Helen Jamil Khoury e Secretário
Histórico da Associação Brasileira de Física Médica e sua contribuição para a evolução da Física Médica no Brasil
Oswaldo Baffa Filho, com o compromisso de revitalizar
e reestruturar a Associação que até então tinha como
Presidente Victor Tovar Munoz do México e Vice-Presidente
German Ramires da Colômbia. Posteriormente, durante o
4o Workshop Argentino de Física Médica, realizado no Rio
de Janeiro em 1994, o estatuto da Associação foi apresentado, discutido e aprovado pelos sócios presentes,
que na época totalizavam 101 sócios22. A partir de 1996
passaram a ser realizados os Congressos Ibero-latinoamericano e do Caribe de Física Médica. Em maio de
2010 será realizado o 6o Congresso em Cuzco, no Peru.
No Brasil, a formação de pós-graduação em áreas
de Física Aplicada à Biociência era realizada nos cursos
tradicionais com ênfase nas áreas de interesse de cada
instituição; a partir dos anos 80, porém, iniciou-se a criação de cursos de aprimoramento, aperfeiçoamento e de
pós-graduação nas áreas específicas. Assim sendo, foram
criados cursos de aprimoramento nos seguintes hospitais:
Radioterapia, nos hospitais A. C. Camargo, Sírio Libanês,
no hospital da Unicamp, nos Hospitais das Clinicas da
USP, no Hospital do Câncer de Barretos, no Hospital da
Liga Paranaense de Combate ao Câncer, em Curitiba, no
Hospital do Câncer em Goiânia, e em Medicina Nuclear
no CMN da USP; radiodiagnóstico no hospital da Escola
Paulista de Medicina; e radioterapia e radiodiagnóstico no
INCA e radiodiagnóstico e medicina nuclear no Hospital
das Clínicas de Ribeirão Preto. Alem desses cursos, podem ser destacadas as seguintes instituições que oferecem cursos de pós-graduação em Física Médica: Instituto
de Física e FFCL de Ribeirão Preto da USP, Instituto de
Física Gleb Wataghin da Universidade de Campinas, IPEN/
CNEN/SP, COPPE/UFRJ, UERJ, IRD/CNEN/RJ, CDTN/
CNEN/BH, PUC/RGS. Neste período foram realizados
o World Congress on Medical Physics and Biomedical
Engineering, o 10th International Conference on Medical
Physics, o 17th International Conference on Medical and
Biological Engineeering, o 2nd National Forum of Science
and Technology in Health, o 5th Brazilian Congress of
Physicists in Medicine, o 14th Brazilian Congress on
Biomedical Engineering, o 2nd Argentinean Congress
on Bioengineering and Medical Physics organized and
Sponsored by ABFM, SBEB, IOMP, IUPESM, IFMBE,
1994 no Rio de Janeiro, tendo como co-coordenadores
Carlos Eduardo Veloso de Almeida pela ABFM e Antonio
Giannella Neto pelo CBEB e tendo como editores Laura
Natal Rodrigues e Jurandir Nadal.
Neste período, durante a Assembleia Geral, foi concedido o título de Sócia Honorária à professora Marilia
Teixeira da Cruz, pela sua dedicação ao ensino, principalmente ligado à Física Médica e sua contribuição para o
crescimento da ABFM.
Após o acidente de Goiânia em agosto de 1987, a
CNEN – na época Presidida pelo Dr. Rex Nazaré – aprovou a implantação de um programa visando a promoção
do uso de radiações ionizantes em benefício da saúde do
homem, para garantir a segurança dos pacientes, dos
profissionais envolvidos, da população em geral e do meio
ambiente – e para isso institucionalizou o Programa Saúde
CNEN que era coordenado por Luís Hiroshi Sakamoto e
secretariado por Roberto Sávio, que reuniu, em 1991, no
Ministério da Saúde, um grupo para assessorá-lo, que
na época era formado por Helen Jamil Khoury, Ricardo
Tadeu Lopes, da COPPE/UFRJ e eu, que após vários
trabalhos de organização, em setembro de 1992, sugeriu ao Secretário de Vigilância Sanitária a formação de
um Grupo que representasse todas sociedades envolvidas com radiação ionizante. Em 1994 a Secretaria de
Vigilância Sanitária do Ministério da Saúde criou o Grupo
Assessor Técnico-Científico em Radiações Ionizantes; no
período de 1994 a 2000, fizeram parte desse grupo os
sócios: Clóvis Abrahão Hazim, Carlos Alberto Pelá, Carlos
Eduardo Veloso de Almeida, Helvécio Correa Mota, Giam
Maria A.A. Sordi e José Barreira Filho, que durante esses
anos gerenciou os assuntos ligados à área de radiação
ionizante, culminando com a publicação da Portaria 45324,
graças à eficiência da Secretária de Vigilância Sanitária,
Dra. Marta Nóbrega Martinez e a dedicação da doutora
Mônica Mulser Parada Toscana Chefe dos Serviços da
Secretaria de Vigilância Sanitária do Ministério de Saúde.
Em 2005 foi publicado o Guia “Radiodiagnóstico
médico: desempenho de equipamentos e segurança do
Ministério da Saúde”25. Ressaltando que em dezembro de
1994, para disciplinar as ações em radiodiagnóstico no
Estado de São Paulo, já havia sido publicada a Resolução
625 pela Vigilância Sanitária da Secretaria da Saúde do
Estado de São Paulo26. Dando seqüência aos trabalhos, a
Agência Nacional de Vigilância Sanitária (ANVISA), contando com a colaboração de sócios da ABFM, publicou em
fevereiro de 2006 a Resolução RDC 20, que estabelece o
regulamento técnico para funcionamento de serviços de
radioterapia; e em 4 de junho de 2008, a RDC 38, que
regulamenta serviços de Medicina. Ressalte-se ainda que
a CNEN, durante estes últimos anos, atualizou várias das
suas normas.
Em agosto de 1995, a diretoria da ABFM passou a ter
como Presidenta Cecil Show Robilotta, PhD em Medical
Physics pela University of London (1980), com experiência
na área de Física, com ênfase na Física Médica, atuando
principalmente nos seguintes temas: SPECT, PET, reconstrução tomográfica, instrumentação, controle e gerenciamento de qualidade na Medicina Nuclear. Atualmente, participa de projetos de cooperação técnica em PET e SPECT
junto ao Hospital das Clínicas da USP, nos Serviços de
Medicina Nuclear do Instituto de Radiologia e do Instituto
do Coração. Sendo atualmente orientadora de pós-graduação, atua em atividades de divulgação de ciência e tecnologia no Instituto de Física da USP. Em junho de 1996,
com a renuncia da Presidenta devido a compromissos de
pós-doutorado no exterior, a diretoria da ABFM deu posse
à Vice-Presidenta Laura Funari, física com bacharelado e
licenciatura em 1965, e mestrado em 1969 pelo Instituto
de Física da USP e sendo formada também no Curso de
Tecnólogo em Análise de Sistemas Computacionais da
Faculdade de Tecnologia de São Paulo. Profissionalmente,
Revista Brasileira de Física Médica. 2009;3(1):5-18.
13
Ghilardi Netto, T
desenvolve atividades na Física Médica desde 1976,
no Hospital da Beneficência Portuguesa e Instituto de
Radiologia do Hospital das Clínicas da Faculdade de
Medicina da USP. A diretoria esteve formada ainda pelo
Secretário Geral Homero Lavieri Martins, e o Tesoureiro
Francisco Carlos Diniz Carrieri. Em 1996, foi realizado
em Campos do Jordão o 3o Fórum Nacional de Ciência
e Tecnologia em Saúde, o 15º Congresso Brasileiro de
Engenharia Biomédica, o 6o Congresso Brasileiro de físicos
em Medicina, o 5o Congresso Brasileiro de Informática em
Saúde, e o Encontro Brasileiro de Proteção Radiológica,
mantendo assim a tradição de realizar os congressos da
SBEB e ABFM conjuntamente. No período de dezembro
1997 a novembro de 1999, a diretoria era formada pelo
Presidente Sérgio Quirino Brunetto. Desde 1991 é responsável pelo Grupo de Medicina Nuclear da Área de Física
Médica do Centro Engenharia Biomédica da Unicamp. A
diretoria era composta ainda pelo Vice-Presidente Carlos
José Cardoso de Oliveira Junior, Secretário Geral Roberto
Contreras Pitorri e a Tesoureira Adelaide de Almeida.
Neste período foi realizado o 4o Fórum Nacional de
Ciência e Tecnologia em Saúde, o 16o Congresso Brasileiro
de Engenharia Biomédica, o 7o Congresso Brasileiro de
físicos em Medicina e o Encontro Brasileiro de Proteção
Radiológica, na cidade de Curitiba, em 1997. Neste ano
faleceu o físico Eugênio Cecatti, que iniciou as suas atividades no Centro de Oncologia de Campinas e organizou
a Área de Metrologia do IRD-CNEN.
Para o período de 1999 a 2001 assumiu a presidência
Helvécio Correa Mota, graduado em Física na Universidade
Federal da Paraíba em 1970, iniciando suas atividades na Universidade Federal da Paraíba como professor
Assistente em 1976, em 1980 se transferiu para o IRD/
CNEN. Em 1991 doutorou-se em Biofísica, sob a orientação do professor Eduardo Penna Franca. Posteriormente
assumiu a chefia do Departamento de Física Médica. Em
2003 transferiu-se para os Estados Unidos para realizar
pós-doutorado na, East Carolina University. A diretoria
era composta, ainda, pelo vice-presidente José Carlos da
Cruz, a Secretária Geral Maria Helena da Hora Marechal e
o Tesoureiro Renato Di Prinzio. Neste período foi realizado
o Congresso Brasileiro de Física Médica no Rio de Janeiro,
conjuntamente com o 3o Encontro da Sociedade Brasileira
de Radioterapia e a 31a Jornada Paulista de Radiologia,
com a participação efetiva de sócios da ABFM, tendo
como presidente Helvécio Correa Mota.
Na Assembleia Geral realizada durante o congresso,
foi outorgado o título de Sócio Honorário ao professor
Alípio Luiz Dias Neto – pelos relevantes serviços prestados à ABFM, em especial ligado as atividades de Medicina
Nuclear – e à professora Cari Borrás – pela sua sempre
dedicada colaboração à ABFM e pelos serviços prestados
como membro da Organização Pan-americana da Saúde
e Organização Mundial da Saúde27.
Em 5 de setembro de 1998, na cidade de Belo
Horizonte, Minas Gerais, foi criada a Sociedade Brasileira
de Radioterapia, durante a realização do XXVII Congresso
14
Revista Brasileira de Física Médica. 2009;3(1):5-18.
Brasileiro do CBR. No ano seguinte, em 1999, foi realizado o 1o Congresso Brasileiro de Radioterapia, na cidade de
Barretos, com a participação de um número significante de
físicos Médicos; e em 2001, na cidade de Blumenau, Santa
Catarina, foi realizada a 1a Jornada de Física Médica, em
conjunto com o 3o Congresso da Sociedade Brasileira de
Radioterapia. A partir daquele ano, as jornadas vêm sendo
realizadas em conjunto com o congresso, sendo que neste
ano foram realizadas as reuniões da 9a Jornada de Física
Médica e o 11o Congresso Brasileiro de Radioterapia.
Durante esta década, vem sendo desenvolvido no
Instituto Nacional do Câncer, coordenado pela física Ana
Maria Campos Araujo, o Programa de Qualidade em
Radioterapia, que entre outros objetivos visa estimular e
promover a capacitação dos profissionais vinculados à radioterapia e estabelecer e recomendar condutas técnicas
que garantam o cumprimento da dose prescrita no volume
tumoral.
Em 13 de setembro de 2003 tomou posse a nova
diretoria, sob a presidência de José Carlos da Cruz, bacharel em Física pelo Instituto de Física da USP em 1979
e doutor em Ciências, com ênfase em Radioterapia, pela
Faculdade de Medicina da Universidade Federal de São
Paulo em 2002. Atualmente é coordenador do Serviço de
Física Médica do Hospital Israelita Albert Einstein, atuando
em Radioterapia, mais especificamente em Tele-terapia,
Braquiterapia intracavitária; Radiocirurgia, Radioterapia
intra-operatória, IMRT, IGRT, Dosimetria in vivo, planejamento virtual e gerenciamento de serviço de radioterapia.
A composição da nova diretoria incluía o Vice-Presidente
Homero Lavieri Martins, Secretária Geral Silmara Luci
Vernucio e Tesoureiro Renato Di Prinzio. Nesta gestão
foi criada a ABFM News, com a colaboração de Laura
Natal Rodrigues. Neste período foram realizados o 8o
Congresso Brasileiro de Física Médica, coordenado por
Ana Maria Marques da Silva, na PUC do Rio Grande
do Sul, e o 1o Simpósio de Instrumentação e Imagens
Médicas, em parceria com a SBEB, sendo coordenado
por Homero Schiabel e Paulo Roberto Costa, realizado em
São Paulo. Também foi realizado, no Rio de Janeiro, o 1o
Workshop Internacional em IMRT/IGRT e o 2o Workshop
Internacional em PD/PDT, coordenado por Helvécio
Corrêa Mota e Cláudio Hissao Shibata.
Em 2004 foi realizado o 9o Congresso Brasileiro de
Física Médica em conjunto com o 3o Congresso Iberolatino-americano e do Caribe de Física Médica, na cidade
do Rio de Janeiro, sendo coordenado por Helvécio Correa
Mota. Durante a Assembleia da ABFM, coordenada pelo
Vice-Presidente Homero Lavieri Martins, fui surpreendido
com a premiação do título de Sócio Honorário, que honrosamente recebi das mãos do Vice-Presidente.
Em dezembro de 2003, em reunião do Conselho
Deliberativo, a nova direção da ABFM tomou posse para
o biênio de 2003 a 2005, sendo o cargo transmitido ao
Presidente Homero Lavieri, graduado em Física e com
mestrado no Instituto de Física da USP em 1984, responsável pelo Serviço de Física Médica da Santa Casa
Histórico da Associação Brasileira de Física Médica e sua contribuição para a evolução da Física Médica no Brasil
de São Paulo e ultimamente responsável pelo ensino no
Serviço de Física Médica do Hospital A. C. Camargo. Foi
Supervisor do Serviço de Física Médica do Hospital Amaral
Carvalho, em Jaú. Durante oito anos, foi Secretário Geral
da ABFM. Convém destacar, também, a sua luta pela
retomada da discussão da regulamentação da profissão
de físico. Além do Presidente, tomaram posse o vice-presidente Paulo Roberto Costa, a Secretária Geral Márcia
de Carvalho Silva e o Tesoureiro Renato de Prinzio, pela
terceira vez consecutiva. Cabe aqui ressaltar a sua dedicação tanto do ponto de vista de aumento do número de
sócios como pelos serviços prestados na informatização
da ABFM. Neste período foi realizado o 10o Congresso de
Brasileiro de Física Médica, em Salvador, sendo presidido
por Edmário Guimarães Costa.
Em janeiro de 2005 foi lançado o Jornal da ABFM, intitulado Física Médica em Foco, cujo responsável era o
jornalista Fabio Siqueira, inclusive com entrevistas homenageando Ex-presidentes; também foi criada a Revista
Brasileira de Física Médica, totalmente eletrônica e desenvolvida inteiramente na ABFM, com submissão, analise e emissão de parecer pelos referees online, aprovado
pelo professor Silvio Salinas, editor da Brazilian Journal of
Physics, que se interessou em implantá-la nas revistas da
SBF. A imagem da Figura 6 mostra membros da equipe
de Física Médica do Hospital das Clínicas da Faculdade
de Medicina da USP.
Em 15 de dezembro de 2005 em reunião do Conselho
Deliberativo tomou posse a nova direção da ABFM, para
o biênio 2006-2007, quando o Presidente Homero Laviéri
Martins, na cidade de São Paulo, deu posse a Presidente
Laura Natal Rodrigues, bacharel em Física pelo IFUSP, em
1980, mestre em Física Aplicada pelo IFSCUSP, em 1984
e doutoramento em Biofísica pela UFRJ em parceria com
o Instituto Karolinska na Universidade de Estocolmo em
1993. Pesquisadora da CNEN desde 1984 no IRD até
2001 e posteriormente no IPEN até o momento. Editora
da Revista de Física Médica de 2004 a 2008 e Supervisora
pelo programa de aprimoramento do HCFMUSP desde 2004. Além da Presidente tomaram posse o VicePresidente Paulo Roberto Costa, a Secretária Geral
Márcia de Carvalho Silva e o Tesoureiro Renato Di Prinzio.
Neste período foram realizados o 11o Congresso Brasileiro
de Física Médica, contando com a participação de 850
inscritos com um número expressivo de alunos de todos os níveis, sob a minha Presidência e de Oswaldo
Baffa Filho em 2006 na cidade de Ribeirão Preto; e o 2o
Workshop Internacional em IMRT/IGRT e o 3o Workshop
Internacional em PD/PDT no Rio de Janeiro, tendo como
Coordenadores Claudio Shibata e Wanderley Bagnato.
Nesta gestão contando com a colaboração de Homero
Lavieri Martins criou-se a “Física Médica em Foco” revista de divulgação da ABFM para os sócios. Remodelação
da revista acima, com nova equipe de jornalistas e novo
layout e enfoque “Núcleo da Matéria“ e finalmente promoveu uma reunião com o Vice-Presidente do CNPq
para apresentação e entrega do documento, com o
levantamento da massa crítica dos pesquisadores da área
de Física Médica, por ocasião da revisão da tabela de áreas de conhecimento do Conselho Nacional de Pesquisa
(CNPq). Aprovação do Código de Ética que já vinha sendo
discutido pelos Ex-Presidentes e cujo documento inicial foi
elaborado pelo Ex-Presidente José de Julio Rozental que
na gestão do Presidente Helvécio Corrêa Mota foi finalmente finalizado, na reunião do Conselho deliberativo realizada durante o Congresso e aprovado pela Assembleia
Geral na cidade de Porto Alegre, em 2003. A Figura 7
mostra a imagem dos participantes do 1o Workshop sobre calibração de Instrumentos para controle de qualidade de equipamentos de diagnóstico, realizado na cidade
de São Paulo e promovido pelo IPEN e pelo Instituto de
Eletrotécnica e Energia.
Em dezembro de 2007, assumiu a presidência Paulo
Roberto Costa, bacharel em Física em 1989, mestrado em
Física em 1993 e doutorado em Tecnologia Nuclear em
1999, todos obtidos na USP. A partir de 2000 foi Diretor
do Serviço Técnico de Aplicações Medico Hospitalares do
Figura 6. Equipe de Física Médica do Hospital das Clínicas da
FM-USP. Entre os presentes, estão: a professora Laura Natal
Rodrigues e, da esquerda para direita, os estudantes Guilherme,
Rodrigo, Marco Antonio, Dalila, Bruno, Gisela e Fábio.
Figura 7. 1o Workshop sobre Calibração de Instrumentos Para
Controle de Qualidade de Equipamentos de Diagnóstico, realizado na cidade de São Paulo e promovido pelo IPEN e pelo
Instituto de Eletrotécnica e Energia.
Revista Brasileira de Física Médica. 2009;3(1):5-18.
15
Ghilardi Netto, T
Instituto de Eletrotécnica e Energia da USP. Atualmente é
professor doutor no Departamento de Física Nuclear do
Instituto de Física da USP. A diretoria é ainda composta pelos seguintes membros: Vice-Presidente Edmário
Guimarães Costa, Secretária Geral Maria Esmeralda Poli e
a Tesoureira Vilma Aparecida Ferrari. Durante a gestão dessa diretoria foi realizado o 13o Congresso de Física Médica
na cidade de Belo Horizonte, em julho de 2008, coordenado por Carlos Malamut e Eugênio Del Vigna Filho; a coordenação cientifica ficou a cargo de Teógenes Augusto
da Silva. No de período de 19 a 21 de agosto de 2009 foi
realizado o 1o Congresso de Física Médica da Unicamp.
Esta gestão empenhou-se intensamente para que o
Congresso Brasileiro de Física Médica reflita a importância da data comemorativa dos seus 40 anos de atividades
sob a coordenação de Homero Lavieri Martins, além de
dar continuidade à publicação do ABFM News, da Revista
Brasileira de Física Médica, da campanha de reintegração
de sócios inadimplentes com ampla adesão e revisão das
regras para a obtenção do título de Especialista. Entre as
muitas frentes de atuação, vale destacar a aprovação da
parceria com a SBF, tornando a ABFM sua co-irmã. Dentre
os muitos benefícios que esta parceria deverá trazer, um
destes que já esta disponível é o da possibilidade de adesão a um seguro-saúde específico para os seus membros.
Colaboram nesta gestão, como Diretores de Área, Tânia
Correia Furquim (Radiodiagnóstico), Valter Siqueira Paes
(Medicina Nuclear), Homero Lavieri Martins (Radioterapia).
O Secretário da Região Centro–Sudeste é Fernando Meca
Augusto; Região Sul, Vinicius Bortolloto; e Região Norte,
Daniel Couro da Silva. Finalmente, a elaboração de propostas para sediar a Conferência Internacional de Física
Médica em 2011, na cidade de Porto Alegre, e o Congresso
Mundial de Física Médica e Engenharia Biomédica em
2015, em Recife. O próximo Congresso será realizado na
cidade de Aracajú, em Sergipe, e está sendo coordenado
por Ana Figueiredo Maia e sua equipe de trabalho.
Antes de finalizar gostaria de dizer que foi um prazer
poder escrever este histórico, cujo relato, em sua maioria,
não foi retirada de documentos oficiais da ABFM, portanto
está sujeito a algumas falhas; os interessados poderão enviar sugestões, que serão bem-vindas para que se possa,
futuramente, complementar o histórico. Agradeço à Ana
Maria Campos de Araújo, Aristides Marques de Oliveira,
Gustavo Lazzaro Barbi, Homero Lavieri Martins, José
de Julio Rozental, Laura Furnari, Laura Natal Rodrigues,
Marcelo Baptista de Freitas e Shigueo Watanabe pelas
informações e fotos fornecidas e a Alexandre Parizzote,
Renato Atir Bachiéga Ghilardi, Ana Luiza Ghilardi Valin e
Vilma Maria de Faria Locci pela colaboração durante a
execução do trabalho. Um agradecimento especial ao
corpo editorial pelas sugestões e revisão do trabalho.
Para finalizar gostaria de deixar uma mensagem do
professor Emérito do Instituto de Física de São Carlos da
USP, Sérgio Mascarenhas, que foi incluída em um texto de
sua autoria: “Ciência e Tecnologia sem complementação
dos ricos traços humanísticos de nossa cultura multi-racial
16
Revista Brasileira de Física Médica. 2009;3(1):5-18.
e tradições artísticas, literárias, musicais e esportivas não
bastam para atingir os objetivos de formar uma nova plataforma de valores e cidadãos para o lançamento deste
‘novo amanhecer’”.
Referências
1. Haggith JW. History of the Hospital Physicists’ Association 1943-1983.
(Northumbert Press, Ltd., Gatesthead, U.K, 1983). Medical Physics.
1988;25(7):1235-6.
2. Laughlin SJ, Goodwin PN. History of the American Association of Physicists
in Medicine 1958-1998, Med Phys 1998; 25(7 Pt 2):1235-383.
3. Arnott N. Elements of Physics or Natural Philosophy, General and Medical,
3rd ed. (Longman, Rebs, Orme, Brow and Green; and T. and G. Underwood,
London, England, 1928); reviewed by Lanzl L.H. Med Phys. 1983;20:
1571-2.
4. Ghilardi Netto T. O papel da Física Médica na evolução da ciência e da
tecnologia moderna, Boletim Informativo da ABFM. São Paulo: ABFM.
1982;24:20-32.
5. Bitelli T. Dosimetria e higiene das radiações, 1. ed. São Paulo: Grêmio
Politécnico; 2. ed. Rio de Janeiro: Atheneu; 2006.
6. del Regato JA. Comments on “My dear Eve…”: letters of Ernest Rutherford
to Arthur Stewart Eve. Med Phys. 1992;19(2):261-2.
7. Webster EW. The origins of Medical Physics in the USA: William Duane,
Ph.D., 1913-1920. Med. Phys. 1993;20(6):1607-10.
8. Gagliardi RA. “Radiology: a century of achievement”. AJR, Am. J.
Roentgenol. 1995;(165):505-8.
9. Mould RF. “The early history of x-ray diagnosis with emphasis on the
contributions of Physics 1895-1915,” Phys Med Biol. 1995;40(11):
1741-87.
10. Knight N. Seventy-five years of the RSNA (Radiological Society of North
America), approaching a century of Radiology: museum and information
resources. Radiographics. 1989;9(6):1101-11.
11. Boag JW, Ellis RE. Report of a discussion on international organization in
Medical Physics: Phys Med Biol. 1960;4:223-37.
12. Watanabe S. Conferência do 10º Aniversário da ABFM. Anais da
Conferência do 10º Aniversário da ABFM; Cidade de São Paulo, São Paulo:
ABFM; 1979. p. iii-iv.
13. Bitelli T. Retrospectiva dos vinte anos da ABFM. In: Anais do 3º Congresso
Brasileiro de Físicos em Medicina; 1989; Águas de Lindóia. São Paulo:
ABFM; 1989. p. 1-3.
14. VIzeu DM, editor. Proceedings of the 1st Latin Conference on Physics in
Medicine and Radiation Protection; 1972; São Paulo: ABFM edited; 1973.
15. Watanabe S, editor. Boletim Informativo da ABFM. São Paulo: ABFM; 1971.
p. 1.
16. Lederman M, Vizeu DM. Installation, Operation and Maintenance of the
L.A. Clinac 4 at Instituto de Radioterapia Oswaldo Cruz. In: Proceedings of
the 1st Latin Conference on Physics in Medicine and Radiation Protection;
1972; São Paulo. São Paulo: ABFM; 1973. p. 79-83.
17. Proceedings of the 2nd Latin American Conference on Physics in Medicine
and Radiation Protection and 2nd Symposium on Utilization of Linear
Accelerators in Medicine; 1975; Belo Horizonte. São Paulo: ABFM; 1975.
18. Watanabe S, Del Vigna E, editors. Proceedings of the International Seminar
on Medical Physics; 1977.
19. Leme PR, Furnaro L, editores. Suplemento 4 da Associação Brasileira de
Físicos em Medicina. Maio de 1979.
20. Newsletter of the 3rd World Association of Medical Physics; Edited by
TWAMP, 1987;2.
21. Dimenstein; R, editor. Boletim Informativo da ABFM, São Paulo: ABFM;
1994;37:2.
Histórico da Associação Brasileira de Física Médica e sua contribuição para a evolução da Física Médica no Brasil
22. Dimenstein; R, editor. Boletim Informativo da ABFM. São Paulo: ABFM;
1993;34:10.
23. Watanabe; S. Anais do 3o Congresso Brasileiro de Físicos em Medicina;
1989; Águas de Lindóia. São Paulo: ABFM/ACIESP; 1989.
24. Agência Nacional de Vigilância Sanitária. Resolução nº 453. In: Ministério
da Saúde. Diretrizes de Proteção Radiológica em Radiodiagnóstico Médico
e Odontológico. Brasília: Ministério da Saúde; 1998.
25. Agência Nacional de Vigilância Sanitária. Radiodiagnóstico médico:
desempenho de equipamentos e segurança. Brasília: ANVISA; 2005.
26. Vigilância Sanitária. Secretaria do Estado de São Paulo-SESP. Resolução
SS 625; Normas de Proteção Radiológica em Radiodiagnóstico Médico e
Odontológico; 1994.
27. Organización Panamericana de la Salud, Organización Mundial de la Salud.
Garantia de Calidad en Radiodiagnóstico. Washington, DC: OPAS/OMS; 1984.
Anexo 1. Ata de fundação da Associação Brasileira de Física Médica (ABFM).
Revista Brasileira de Física Médica. 2009;3(1):5-18.
17
Ghilardi Netto, T
18
Revista Brasileira de Física Médica. 2009;3(1):5-18.
Artigo de Revisão
Revista Brasileira de Física Médica. 2009;3(1):19-23.
Educación y entrenamiento clínico de físicos
médicos en América Latina
Educação e treinamento clínico de físicos médicos na
América Latina
María Ester Brandan1
Instituto de Física de la Universidad Nacional Autónoma de México, Distrito Federal/DF, México
1
Resumen
Este trabajo analiza la cantidad de físicos médicos que se dedican al trabajo clínico en la región de América Latina y su formación profesional, con
base en estadísticas de organizaciones internacionales. Se reportan recomendaciones recientes para la educación y el entrenamiento de estos
especialistas. El análisis muestra carencias cuantitativas, el número de físicos médicos clínicos es aproximadamente igual a 500 y debería aumentar
un factor de 2,4 para cubrir las necesidades mínimas de los servicios de radioterapia existentes; y cualitativas, sólo el 10% de estos profesionales
tiene el grado de Maestría, o equivalente a nivel de postgrado. El sistema formativo regional no cuenta con suficientes programas de entrenamiento
clínico supervisado y sólo un país tiene un proceso de certificación profesional. Se discuten iniciativas internacionales actuales de apoyo.
Palabras clave: física sanitaria; educación; entrenamiento; formación de recursos humanos.
Resumo
Este trabalho analisa a quantidade de físicos médicos que tem se dedicado ao trabalho clínico na região da América Latina e sua formação profissional,
a partir de dados estatísticos de organismos internacionais. São apresentadas as recomendações recentes para a educação e treinamento destes
especialistas. A análise demonstra deficiências quantitativas, uma vez que o número de físicos médicos clínicos é aproximadamente igual a 500 e
deveria aumentar por um fator de 2,4 para suprir a necessidade mínima dos serviços de radioterapia existentes, e qualitativas, visto que somente
10% desses profissionais tem título de mestrado, ou formação equivalente de pós-graduação. O sistema de educação regional não conta com
programas de treinamento clínico supervisionado em número suficiente e somente um país tem um processo de certificação profissional. Iniciativas
internacionais atuais de apoio são discutidas.
Palavras-chaves: física sanitária; educação; treinamento; formação de recursos humanos.
Introducción
Física Médica es la aplicación de conceptos y técnicas de
Física en la prevención, diagnóstico y tratamiento de las
enfermedades del ser humano. Es un área de especialización dentro de la Física, como la Física Nuclear, la Física
Estadística o la Física del Estado Sólido, y en el ámbito de
la investigación comparte con estas los principios y herramientas. Sin embargo, la Física Médica también incluye,
bajo el mismo nombre, un campo de desempeño profesional en el medio hospitalario que la distingue de las otras.
El Físico Médico que trabaja en un centro de salud (llamado “físico médico clínico” en este trabajo) ayuda a garantizar la calidad del servicio clínico. Su responsabilidad
primaria es optimizar el uso de la radiación para asegurar
la calidad de un procedimiento de diagnóstico o de terapia. En el presente momento, organismos internacionales
y asociaciones profesionales y académicas trabajan para
precisar el perfil, responsabilidades, y requisitos de formación de un Físico en el medio clínico. Estos esfuerzos
tienen como fin lograr que este profesional especializado
pueda cumplir óptimamente su papel dentro del equipo
multidisciplinario de un centro de salud moderno.
Como en otros lugares, la llegada de los físicos a los hospitales de América Latina (AL) estuvo directamente asociada
con la adquisición de los primeros equipos de radioterapia
(RT) a mediados del siglo 20. En 1955, menos de cuatro
años después del primer tratamiento de RT en Canadá, llegó
el primer irradiador de cobalto a AL, un Eldorado, instalado
en Río de Janeiro. Al año siguiente se contrató a los primeros físicos brasileños en hospitales de São Paulo y Río de
Janeiro. En 1956 se instaló el primer irradiador en México,
un Theratron Jr., en el Instituto Nacional de Cardiología del
Distrito Federal y se creó el primer departamento de Física
Correspondência: María Ester Brandan – Instituto de Física UNAM, A.P. 20-364, 01000 DF-MEXICO – e-mail: [email protected]
Associação Brasileira de Física Médica®
19
Brandan ME
Médica del país. Como ejemplos pioneros de organización
profesional, en Mayo de 1962 se constituyó la Asociación
Mexicana de Físicos de Hospital (precursora de la actual
Asociación Mexicana de Física Médica), y en 1969 se fundó
la Asociación Brasilera de Física Médica (ABFM)1,2. Este número especial de la Revista Brasilera de Física Médica precisamente recuerda este 40avo aniversario. En esos primeros
tiempos, y debido a la falta de programas de especialización
formales, la mayoría de los físicos e ingenieros locales adquirieron su entrenamiento con la experiencia diaria. Pero, el
rápido avance en la complejidad del equipamiento hizo patente la necesidad de una formación profesional específica
y rigurosa. La realidad es que hoy, medio siglo después del
inicio de la RT en la región, todavía hay físicos médicos que
ejercen en servicios médicos sin haber recibido la educación
universitaria y/o el entrenamiento clínico deseables.
Este trabajo describe en términos generales la situación de formación profesional de los (y las) físicos médicos
de AL, las necesidades de desarrollo inmediato, y acciones relacionadas con la profesión que ocurren actualmente en organizaciones internacionales. He incluido parte de
mi experiencia originada en la coordinación de un programa universitario de Física Médica.
Los servicios de salud en AL
La región de AL, con 560 millones de habitantes en el año
20053, está constituida por 41 países que hablan español,
portugués o francés en América del Norte, Central y Sur,
y el Caribe. Una característica de la región son las diferencias contrastantes de paisaje, clima y nivel de desarrollo entre países, e internamente dentro de cada uno. De
acuerdo con estadísticas de las Naciones Unidas, en el
año 20004, seis países (el 17% de la población total) pertenecían al nivel más alto (I) de servicios de salud (definido
como ≥ 1 médico por 1.000 habitantes), 31 países (78,5%
de la población) pertenecían al nivel II (1 médico por 1.000
a 3.000 habitantes), y 4 países (4,5% de la población) pertenecían al nivel III (1 médico por 3.000 a 10.000 habitantes). El 67% de la población reside en los cuatro países
más poblados: Brasil, México, Colombia y Argentina.
Cada año se detectan más de 940.000 nuevos casos
de cáncer en AL y probablemente la mitad de estos necesitará un tratamiento de RT. Un análisis reciente de la situación
regional en RT5 concluyó que hay 470 centros de RT en 18
países (desde 151 en Brasil a 1 en Nicaragua) que ofrecen
tratamientos de megavoltaje con 60Co (396 unidades) y/o
aceleradores lineales (314 linacs). El 75% de estos centros
está ubicado en los cuatro países más poblados y, entre estos, sólo Argentina cuenta con un centro por millón de habitantes (parámetro de equipamiento considerado como adecuado). Otros países con una infraestructura similar en RT
(basado en el mismo parámetro) son Chile, Panamá, Uruguay
y Venezuela. El número de médicos radioterapeutas (también
llamados radio-oncólogos) cualificados en la región se estimó
en 933. El reporte5 concluye que la principal debilidad en la
20
Revista Brasileira de Física Médica. 2009;3(1):19-23.
región no es la falta de equipos, sino de recursos humanos
especializados y, en este caso particular, el número de médicos radioterapeutas debería aumentar 70% (hasta unos
1.600) para responder a las necesidades nacionales. Esta
conclusión refleja una situación generalizada en la región: se
invierte en equipos médicos de alto desarrollo tecnológico,
en parte debido al prestigio institucional que la compra trae
consigo, sin comprender que la tecnología avanzada requiere
de una inversión simultánea en recursos humanos especializados. Como consecuencia, el equipo adquirido (muchas
veces a precios muy altos relativos a las necesidades básicas
de la población) termina usándose de manera rutinaria, sin
explotar al máximo la inversión.
La necesidad de físicos médicos
El Organismo Internacional de Energía Atómica (OIEA) con
la asesoría técnica de la Organización Panamerican de La
Salud (OPS) realizó recientemente un estudio de la situación
actual de los físicos médicos en AL. Uno de los resultados
del proyecto ARCAL LXXXIII fue el documento “El físico médico: criterios y recomendaciones para su formación académica, entrenamiento clínico y certificación”6, que incluye
recomendaciones específicas relativas a la educación, entrenamiento y certificación profesional del físico médico clínico. Fueron responsables por los contenidos del documento:
Mónica Brunetto (Argentina), José Carlos da Cruz (Brasil),
María Esperanza Castellanos (Colombia), Rodolfo AlfonsoLaguardia (Cuba), María Ester Brandan (México), Federico
Gutt (Venezuela) y Pablo Jiménez (OPS, Washington DC),
todos bajo la coordinación de Pedro Andreo (OIEA). Se espera que la orientación y las recomendaciones planteadas
en el documento sean de utilidad para las autoridades de
salud, protección radiológica y universitarias en todos los
países con una problemática similar.
La principal conclusión del análisis6 es que hay
una carencia notable de físicos médicos en AL, y que
aquellos actualmente en la clínica no han sido necesariamente formados de manera apropiada. Las estimaciones
del documento del OIEA-OPS, basadas en estadísticas
de 2007, indican que existen unos 500 físicos médicos
clínicos en la región, mayoritariamente en servicios de RT.
Siguiendo la regla simple de asociar un físico médico a
cada 400 nuevos casos de cáncer, puede estimarse que
se necesitan 1.200 especialistas en AL, sólo considerando la necesidad de físicos médicos clínicos especializados en RT. La estimación anterior debe considerarse sólo
como primera aproximación, ya que ignora la necesidad
de personal adicional asociado a las tecnologías más
avanzadas, como son radiocirugía o RT de intensidad
modulada, realidad para la cual se hacen recomendaciones concretas en el documento del OIEA-OPS. Esto significa que la cantidad actual de físicos médicos debería
multiplicarse al menos por 2.4.
Pero, la insuficiente cantidad es apenas parte del problema. La mayoría de los físicos médicos clínicos de la
Educación y entrenamiento clínico de físicos médicos en América Latina
región no han seguido un patrón estándar de educación
universitaria y de entrenamiento clínico indispensable para
ejercer independientemente. Este nivel de especialización
profesional requiere educación específica en Física Médica
a nivel de postgrado, complementada por un entrenamiento
clínico supervisado. Los datos de 20035 indicaban que sólo
el 10% de los físicos médicos clínicos latinoamericanos tenían el grado de Maestría (también llamado Magister, Máster
o M.Sc.), el 68% tenía un grado universitario “específico
en Física Médica” (a nivel de Licenciatura, Bacharelado o
B.Sc.) y 22% tenían otros grados a nivel Licenciatura.
Requisitos de formación para físicos
médicos clínicos
El documento del OIEA-OPS define al físico médico cualificado clínicamente, en algunos países podría llamarse especialista en Física Médica, como “un individuo competente
para ejercer profesionalmente y de manera independiente,
en una o más de las especialidades de la Física Médica.
Trabajar de manera independiente significa trabajar sin la
supervisión directa de un físico médico de más experiencia”6. Pueden existir físicos médicos cualificados clínicamente en RT (especialista en Física de la RT) o físicos médicos cualificados clínicamente en Diagnóstico por Imágenes
(especialistas en Física del Diagnóstico por Imágenes).
Las recomendaciones del documento del OIEAOPS relativas a la formación de estos especialistas
Licenciatura en Física
(o campo relacionado)
recogen la opinión expresada por organismos profesionales de países industrializados, como la Federación
Europea de Organizaciones de Física Médica (EFOMP)
y la Asociación Estadounidense de Físicos en Medicina
(AAPM). La formación de un físico médico cualificado
clínicamente debe contemplar tres etapas: educación
universitaria con énfasis en física, matemáticas y otros
temas afines, especialización en las aplicaciones de la
física en la medicina, y entrenamiento para el desarrollo
de habilidades y competencias en la práctica clínica.
Esto requiere tres elementos académicos/profesionales:
formación académica de grado universitario; formación
académica de postgrado y entrenamiento clínico formal
supervisado.
La Figura 1 indica los posibles caminos para lograr el
objetivo, dependiendo de la formación de origen del interesado. En esta aparece una última especialización, denominada experto en Física Médica, que correspondería al
más alto nivel de competencias en el área.
El documento6 incluye los temas a cubrir en los cursos
de postgrado y en las residencias clínicas del segundo y
tercer elemento ya mencionados.
Motivada, en parte, por el proceso de armonización del
sistema educativo europeo (conocido como “proceso de
Bolonia”), la EFOMP ha emitido recientemente el “Policy
Statement 12”7 en que se establecen criterios de educación y de entrenamiento clínico para físicos médicos clínicos
en Europa. Las recomendaciones son similares a las del
documento del OIEA-OPS para nuestra región.
4-5 años
Maestría o Doctorado en Física
(o campo relacionado)
2-4 años
Postgrado en Física Médica
o en una rama de la Física Médica
1-2 años
Completar, si es necesario,
formación académica en
Física Médica
1 año
Entrenamiento clínico supervisado
2-3 años
Físico médico cualificado clínicamente
+6 años de
práctica
clínica
Experto en Física Médica
Figura 1. Elementos que conforman la formación profesional de un físico médico clínico, según las recomendaciones del OIEA-OPS6.
Revista Brasileira de Física Médica. 2009;3(1):19-23.
21
Brandan ME
Oferta regional de educación y
entrenamiento clínico
La oferta educativa universitaria en Física Médica ha evolucionado positivamente en los últimos años. El primer programa formal de Física Médica en la región se abrió en 1979
(curso “Física de la RT”, Instituto de Tecnología Nuclear Dan
Beninson, Buenos Aires, Argentina, más de 120 titulados
hasta la fecha) y el de postgrado se inició en 1986 (Maestría
en Física Aplicada a Medicina y Biología, Universidade de
São Paulo, Riberão Preto, SP, Brasil, más de 80 titulados
a la fecha). En la actualidad, existen en la región unas 30
opciones universitarias de estudios en Física Médica, 13 a
nivel de grado universitario (la mayoría son bacharelados en
Brasil) y 17 a nivel de postgrado en Brasil, Cuba, Argentina,
Colombia, México, Perú y Venezuela6. Las estadísticas del
reporte del OIEA-OPS indican que a partir de 2002 hasta
2007, 240 individuos completaron en AL un postgrado en
Física Médica (190 Maestrías y 48 Doctorados). Los programas con números mayores de titulados corresponden
a Brasil (49%), México (24%), Venezuela (12%) y Argentina
(11%). Cada año, en promedio, unas 40 personas con un
grado de Maestría entran al mercado laboral regional.
Por otro lado, la situación para las residencias clínicas es mucho menos auspiciosa. Hay 15 programas en
sólo dos países, 12 en Brasil (llamados aprimoramentos)
y tres en Argentina. En 2007, estas residencias ofrecieron
un total de 26 plazas para entrenamiento clínico en RT
y 9 en imágenes para diagnóstico6. Estos números son
insuficientes para la cantidad de titulados que requieren el
entrenamiento clínico posterior a la educación universitaria
de postgrado. La situación es aún más crítica si se considera que sólo dos países ofrecen residencias.
Un proceso de certificación profesional que garantice
niveles apropiados de conocimientos y habilidades individuales en quienes completaron un programa completo de
formación sólo existe en Brasil, ofrecido por la ABFM2,6.
La Maestría en Física Médica de la
Universidad Nacional Autónoma de México
La Universidad Nacional Autónoma de México (UNAM) es
la universidad más grande de AL8. Es una institución pública y gratuita, probablemente el proyecto educativo/social
más exitoso del país. En 1997, aprovechando una reforma del Reglamento de Estudios de Posgrado, me correspondió organizar la creación de un programa de Maestría
en Ciencias (Física Médica) como parte del Posgrado en
Ciencias Físicas, que también incluye a los tradicionales
Maestría y Doctorado en Física.
El objetivo del programa de Maestría en Física Médica
(MFM)9 es formar al estudiante para que pueda ejercer “de
manera creativa” las labores de un físico médico clínico,
y/o para que inicie una carrera de investigación en Física
Médica. Lo primero significa que, ante la limitación de tiempo inherente a un programa de Maestría (cuatro semestres
22
Revista Brasileira de Física Médica. 2009;3(1):19-23.
lectivos para cursos, prácticas, entrenamiento y tesis), la
enseñanza de los conceptos y principios de física en que
se basan las aplicaciones médicas tiene prioridad frente a
la enseñanza de tópicos puntuales y técnicos. De esta manera, esperamos que la sólida formación básica permita la
comprensión e implantación de las nuevas tecnologías que
llegan continuamente al servicio clínico. El cuerpo docente
incluye a unos 30 tutores de física/matemáticas/biología y
15 médicos clínicos que asesoran a nivel de comités tutorales. Las prácticas y una residencia hospitalaria de seis
meses ocurren en una decena de centros de salud. El programa incluye estudios de física de la radiación ionizante
(física de la RT y del diagnóstico por imágenes), física de
la resonancia magnética, procesamiento de imágenes, radiobiología y biofísica, modelos matemáticos en biología y
medicina, óptica, láseres, y litotripsia, entre otras.
El programa MFM ha resultado muy atractivo para los
egresados de Física e Ingeniería Física (las carreras de
donde proviene la mayoría de los estudiantes) de México
y la región. En los primeros 12 años han ingresado 95
alumnos, se han titulado 58, y en este momento hay 20
alumnos regulares. Las bajas, por abandono voluntario o
académico, son cercanas al 10%.
La mayoría de los egresados (casi 60%) trabaja en la
clínica, mayoritariamente en RT. También ejercen en servicios de rayos X, medicina nuclear y resonancia magnética. Estos físicos médicos han adquirido su entrenamiento
clínico con la experiencia diaria, debido a la ausencia de
programas formales de residencia clínica en el país, al menos en los términos definidos por el documento del OIEAOPS6. La MFM también ha resultado atractiva para quienes desean iniciar una carrera de investigación y el 21% de
los titulados realiza o ha concluido estudios de Doctorado.
Los primeros tres titulados de la MFM que luego obtuvieron un Doctorado en Física (o Física Médica) han regresado a México e iniciaron carreras académicas en Física
Médica. Un 15% de los titulados trabaja en actividades
relacionadas (protección radiológica en instituciones, asesoría técnica en empresas, docencia etc).
La experiencia de coordinación durante estos años permite destacar dos elementos que han resultado claves para el
buen avance del programa. Primero, un riguroso examen de
admisión permite escoger los mejores postulantes cada año,
garantizando no sólo que contarán con una beca gubernamental, sino que mostrarán un excelente desempeño académico. Segundo, el plan de estudios es intensivo y de tiempo
completo durante cuatro semestres (512 horas de docencia
directa en cursos teórico/prácticos, 320 horas de residencia
hospitalaria y un semestre y medio de dedicación a la tesis).
Los investigadores y profesores que se han asociado a la
MFM, los antecedentes académicos de los alumnos que ingresan, y la colocación profesional de los titulados han llevado al Consejo Nacional de Ciencia y Tecnología (CONACYT)
a calificar la Maestría en Física Médica de la UNAM, como
Posgrado Nacional de Alto Nivel, el único programa de Física
Médica reconocido, recompensando este desempeño con
becas de dos años para los estudiantes.
Educación y entrenamiento clínico de físicos médicos en América Latina
Acciones actuales de apoyo a la Física
Médica
Recientemente, el OIEA ha iniciado el proyecto internacional de Cooperación Técnica “Strengthening Medical
Physics in Radiation Medicine”10, cuyas metas son definir
responsabilidades y requisitos de formación profesional,
armonizar el material educativo y promover el reconocimiento de la Física Médica como profesión desarrollada en
el medio clínico. Lo que hace particularmente especial a
esta iniciativa es la presencia de una amplia gama de organismos internacionales que serán partícipes de los acuerdos alcanzados. Participan la Organización Internacional
de Física Médica (IOMP), la Organización Mundial de la
Salud (OMS), la EFOMP y AAPM, la Comunidad Europea,
la Asociación Latinoamericana de Física Médica (ALFIM),
y otras organizaciones profesionales mundiales y regionales. La primera reunión tuvo lugar en Mayo de 2009 y se
espera elaborar documentos de alcance internacional en
el periodo hasta 2013.
La IOMP ha creado dentro del Comité de Relaciones
Profesionales11 un grupo de trabajo internacional (llamado
International Board of Medical Physics) dedicado a colaborar en la solución del problema de certificación profesional. Su objetivo inmediato es organizar la creación de un
sistema de certificación independiente, que permita este
proceso en países donde aún no existe debido al precario
avance de la especialidad.
exclusivas y podríamos identificar situaciones de igual o
mayor necesidad en África o Asia. Los apoyos y recomendaciones esperados de los proyectos en curso deberían
servir a autoridades educativas, sanitarias y reguladoras a
definir mejor sus objetivos y estrategias.
Esta breve revisión de la situación de la Física Médica
ejercida en el medio clínico en AL muestra contrastes tan
agudos como los de nuestro paisaje: hay países con programas de formación y certificación profesional adecuados junto a países con centros de RT que no cuentan con
un físico médico de tiempo completo. Creemos que son
tiempos de avance y esperamos que la situación en la región mejore a la velocidad requerida. El papel del físico
médico clínico es asegurar que los diagnósticos y tratamientos con radiación sean seguros y eficaces.
Agradecimientos
Este trabajo fue realizado durante una estancia científica de año sabático en el grupo de Física Médica,
en el Departamento de Radiología de la Universidad
Complutense de Madrid, a quienes agradezco su hospitalidad. La visita fue parcialmente apoyada por la Dirección
General de Asuntos del Personal Académico (DGAPA) de
la UNAM y CONACYT de México.
Referencias
Conclusiones
Una mirada retrospectiva a los últimos diez años en la región de América Latina permitiría una lectura optimista,
ya que el número de físicos médicos va aumentando, la
oferta educativa se ha diversificado y se han organizado
programas que hace 15 años no existían. Sin embargo,
las estadísticas globales positivas no deberían engañarnos pues los promedios no incluyen las desigualdades de
los casos particulares. Con relación a la educación, existe
una gran variabilidad en los contenidos teóricos y prácticos de los programas universitarios, incluso dentro de un
mismo país. Es sabido que, a pesar de contar con la mejor
educación que su país puede ofrecer, los egresados de
los programas de postgrado no necesariamente terminarán trabajando en las instituciones con equipamiento más
avanzado. Son estos centros que introducen las nuevas
tecnologías en el país, los cuales se beneficiarían directamente de la educación de postgrado recibida, ya que este
físico médico puede asimilar rápidamente la esencia de los
nuevos procedimientos y colaborar eficientemente en la
oferta de un servicio de máxima calidad.
Los asuntos pendientes, la falta de residencias clínicas para los titulados de los programas universitarios (o
integradas a ellos) y la urgente necesidad de implementar
la certificación profesional son de importancia central. Por
cierto, las fallas y carencias del continente latino no son
1. Gaona E. Cáncer, radiación y seguridad radiológica. México: Edilibros;
1999. p. 1-2.
2. Associação Brasileira de Física Médica. Disponível em: http://www.abfm.
org.br/
3. United Nations Demographics. Disponível em: http://unstats.un.org/unsd/
demographic
4. United Nations Scientific Committee on the Effects of Atomic Radiation
[Internet]. UNSCEAR Report 2000: sources and effects of ionizing radiation.
United Nations: UNSCEAR; 2000. [cited 2009 Sep 11]. v. 1, Disponível em:
http://www.unscear.org/unscear/en/publications/2000_1.html
5. Zubizarreta EH, Poitevin A, Levin CV. Overview of radiotherapy resources in
Latin America: a survey by the International Atomic Energy Agency (IAEA).
Radiother Oncol. 2004;73(1):97-100.
6. International Atomic Energy Agency. El Físico Médico: criterios y
recomendaciones para su formación académica, entrenamiento clínico y
certificación en América Latina. Human Health Report. Viena, 2009. n. 1.
En prensa.
7. Eudaldo T, Olsen K. The European Federation of Organisations for
Medical Physics. Policy Statement No. 12: The present status of Medical
Physics Education and Training in Europe. New perspectives and EFOMP
recommendations. Physica Medica. 2009;1-5. In press.
8. Universidad Nacional Autónoma de México [Internet]. Disponível em: http://
www.unam.mx
9. Maestría en Ciencias (Física Médica), UNAM [Internet]. Disponível em:
http://www.fisica.unam.mx/fismed
10. Internacional Atomic Energy Agency [Internet]. Disponível em: http://tc.iaea.
org/tcweb/regionalsites/europe/news/newsstory/default.asp?newsid=409
11. International Organization for Medical Physics [Internet]. Disponível em:
http://www.iomp.org
Revista Brasileira de Física Médica. 2009;3(1):19-23.
23
Artigo de Revisão
Revista Brasileira de Física Médica. 2009;3(1):25-34.
Ensino de graduação em Física Médica:
experiência da PUCRS
Undergraduate education in Medical Physics:
experience at PUCRS
Maria Emília Baltar Bernasiuk1, Alexandre Bacelar2
Professora da Faculdade de Física da Pontifícia Universidade Católica do Rio Grande do Sul (PUCRS) – Porto
Alegre (RS), Brasil.
2
Professor da Faculdade de Física da PUCRS; físico do Hospital de Clínicas de Porto Alegre – Porto Alegre (RS),
Brasil.
1
Resumo
Este artigo apresenta um relato da experiência do primeiro curso de Física Médica em nível de graduação do Brasil. Menciona-se a origem do
curso, as dificuldades encontradas, as alterações curriculares realizadas em função da melhoria da qualidade do ensino, o início das atividades
complementares, bem como um panorama da atuação dos egressos até o presente momento.
Palavras-chave: Física Médica; Graduação; Ensino; Aprendizagem significativa.
Abstract
This paper presents a report of the experience from the first graduation course of Medical Physics in Brazil. The article brings an outline of
the foundation of the course, the difficulties found, curriculum changes accomplished in order to improve education quality, the beginning of
complementary activities as well as the panorama of the performance of beginners until the present moment.
Keywords: Medical Physics; Graduation; Education; Significant learning.
Introdução
Este artigo apresenta um relato da experiência do primeiro
curso de Física Médica em nível de graduação do Brasil. É
apresentada, aqui, a origem do curso, as dificuldades encontradas, as alterações curriculares realizadas em função
da melhoria da qualidade do ensino, o início das atividades
complementares, bem como um panorama da atuação
dos egressos até o presente momento.
O Curso de Física (Licenciatura e Bacharelado) da
Pontifícia Universidade Católica do Rio Grande do Sul
foi oficialmente autorizado a funcionar em 15 de junho
de 1942 por meio do decreto n.º 9696 e reconhecido
pelo decreto n.º 17398 de 19 de dezembro de 1944.
Ao longo desses anos, foram implantados vários currículos, tanto de Licenciatura como de Bacharelado,
com o objetivo de adequá-los à realidade existente e,
dessa forma, atender melhor à formação dos alunos.
O Bacharelado deixou de ser oferecido de 1978 até o
primeiro semestre de 1990.
Assim, desde o segundo semestre de 1990, um dos
grandes desafios da Faculdade de Física da Pontifícia
Universidade Católica do Rio Grande do Sul (PUCRS)
passou a ser a preparação de bacharéis em Física Médica
para o mercado de trabalho, ou seja, profissionais aptos a
conviverem em uma sociedade altamente dinâmica, evolutiva, na qual o vertiginoso campo científico e tecnológico
progride assustadoramente, exigindo mais do que conhecimento técnico.
Origem do bacharelado em Física Médica e
primeira proposta curricular
A ênfase em Física Médica designada ao Bacharelado
surgiu após a realização de um curso de aperfeiçoamento ministrado pelo físico médico Dílson Moreira a um grupo constituído por duas professoras e quatro alunos da
Licenciatura em Física, em 1981. Nessa época, ocupava o
cargo de Diretor do Instituto de Física o Professor António
Correspondência: Maria Emilia Baltar Bernasiuk – Avenida Ipiranga, 6.681, Prédio 10, CEP 90619-900 – Porto Alegre (RS), Brasil
E-mail: [email protected], [email protected]
Associação Brasileira de Física Médica®
25
Bernasiuk MEB, Bacelar A
Dias Nunes. Concluídos o curso de aperfeiçoamento e a
graduação em Física, os licenciados foram contratados
por setores de Física Médica de hospitais e clínicas de
Porto Alegre, enquanto as professoras continuaram no
Instituto de Física. Consequentemente, outros alunos da
licenciatura solicitaram uma segunda edição do curso,
tendo em vista uma nova oportunidade de trabalho. No
entanto, tendo o físico médico Dílson Moreira retornado
para São Paulo, o curso não foi oferecido novamente.
Com o objetivo de atender à solicitação dos alunos,
pensou-se inicialmente em oferecer uma especialização
em Física Médica, em nível de pós-graduação, mas não se
dispúnha, na época, do número necessário de professores
habilitados na área para a abertura do curso. A alternativa
foi oferecer, a partir de 1982, cursos de extensão sobre
“Física das Radiações Ionizantes Aplicadas à Medicina”,
“Proteção Radiológica em Raios X Odontológico”,
“Qualidade em Radiologia”, “Medicina Nuclear”, “Proteção
Radiológica e Controle de Qualidade” entre outros.
Concomitantemente, foram oportunizadas algumas mesas redondas, sobre “Física em Radioterapia” e “Física
Médica”, visando a sondar a possibilidade de se implantar,
na Faculdade de Física da PUCRS, um Bacharelado em
Física Médica. Paralelamente, alunos e egressos do curso
da Licenciatura Física que participaram dos cursos de extensão, incentivados pela possibilidade de um novo ramo
no mercado de trabalho, fizeram outros cursos no Instituto
de Radioproteção e Dosimetria da Comissão de Energia
Nuclear (IRD/CNEN) e no exterior. Consequentemente,
esses egressos começaram a trabalhar na área de Física
Médica em hospitais de Porto Alegre. Cabe destacar que
as referidas atividades de extensão contaram com a valiosa colaboração do físico médico Aristides Marques de
Oliveira Neto, que atuava em Hospitais de Porto Alegre,
de profissionais convidados do IRD/CNEN, como os físicos médicos Doutor João Emilio Peixoto e Doutor Helvecio
Correa Mota, e de professores convidados de outras instituições, como os professores Doutor Thomaz Ghilardi
Netto de Ribeirão Preto de São Paulo, Doutora Emico
Okuno e Doutor Cecil Chow Robilotta da USP, Doutor
Sergio Brunetto da UNICAMP, o físico Francisco Carriere
da Kodak, entre outros renomados colaboradores. A maioria dos cursos tinha como público-alvo odontólogos, físicos e alunos de graduação das duas áreas.
No entanto, esta alternativa não foi satisfatória, a ponto
de os alunos continuarem insistindo em uma habilitação
em Física Médica. Assim, para atender aos anseios dos
alunos do curso de Física e de egressos da Licenciatura,
passou-se a oferecer um Bacharelado com ênfase em
Física Médica a partir do segundo semestre de 1990.
O curso foi elaborado para atender às necessidades do
mundo do trabalho, a partir das sugestões coletadas em
entrevistas com pesquisadores e profissionais em Física
Médica e na área médica. Na ocasião, também se contou
com a orientação e valiosa colaboração de professores da
Universidade de São Paulo (USP), Doutora Marilia Texeira
da Cruz e Doutora Emico Okuno, e de profissionais da
26
Revista Brasileira de Física Médica. 2009;3(1):25-34.
CNEN, Doutora Ana Maria Campos de Araujo e Doutor
João Emilio Peixoto, entre outros.
Após as consultas, o curso foi criado com o objetivo de
capacitar profissionais de nível superior a exercerem atividades nas instituições de saúde. A formação deste profissional tinha como referência as atividades básicas que ele
poderia exercer, tais como: auxiliar em assistência e consultoria, em controle de qualidade e fiscalização de equipamentos, desenvolver pesquisa na área, aplicando os princípios e os métodos da Física adquiridos ao longo do curso,
bem como ensino e formação em recursos humanos.
O egresso teve sua formação apoiada numa sólida base de conhecimentos em Física, Matemática,
Informática e Física Médica. O primeiro currículo, implementado no segundo semestre de 1990, tinha duração
de nove semestres com 3.285 horas, que corresponde
a 219 créditos; destas, 2.100 horas foram destinadas às
disciplinas do núcleo comum e 1.185 horas às disciplinas do Bacharelado em Física Médica. O núcleo comum à
Licenciatura e ao Bacharelado foi constituído por um conjunto de disciplinas relativas à Física Geral, Física Clássica,
Física Moderna, Matemática, Química, Educação Física,
Filosofia, Sociologia e Cultura Religiosa. O núcleo do
Bacharelado foi composto pelas disciplinas que abrangiam os conteúdos relativos à Informática, Física do Corpo
Humano, Física das Radiações, Técnicas de Ressonância,
Proteção Radiológica e Seminários de Informática aplicados à Física. Também faziam parte do currículo o trabalho
de conclusão e estágios realizados em hospitais e clínicas.
Implantação do programa de atividades
complementares
Paralelamente, tendo em vista a qualificação dos alunos do Bacharelado, os professores Mestre Alexandre
Bacelar, Doutor Volnei Borges e Mestre Maria Emilia Baltar
Bernasiuk criaram o grupo de Física Médica Hospitalar
(GFMH). Cabe ressaltar que a professora Maria Emilia, na
época, ocupava o cargo de vice-diretora e foi uma das professoras que concluíram o curso de aperfeiçoamento em
Física Médica, que deu origem ao referido Bacharelado. O
grupo montou um programa de atividades complementares com o objetivo de auxiliar a qualificação do aluno, bem
como colocá-lo em contato com o mundo do trabalho
desde o início da graduação.
O primeiro grupo de alunos a fazer parte do programa
foi constituído, no segundo semestre de 1992, por: Aline
Barlem Guerra, Alessandro Souza Dytz e Telpo Martins
Dias, inscritos como voluntários no programa. A primeira
tarefa desse grupo-piloto foi preparar um seminário sobre raios X e suas aplicações na Radiologia Médica. O
grupo trabalhou de forma integrada, utilizando bibliografia indicada pelos professores orientadores. O seminário,
apresentado no período de férias escolares, foi assistido
pelos orientadores, professores e alunos do curso, bem
como por profissionais que atuavam nos setores de Física
Ensino de graduação em Física Médica: experiência da PUCRS
Médica e Engenharia Biomédica de hospitais da cidade.
Vale lembrar a valiosa colaboração da física Ana Lúcia
Acosta Pinto, do Hospital de Clínicas de Porto Alegre,
do físico Gérson Staevie e do Engenheiro Denis Xavier
Barbiere, ambos do Hospital São Lucas da PUCRS, que
sempre colaboraram com o GFMH e com o Instituto de
Física, orientando os alunos do bacharelado e recebendoos como estagiários.
O grupo contou com a infraestrutura da PUCRS, de
hospitais de grande porte, clínicas e órgãos públicos para
usufruir de condições favoráveis para o desenvolvimento das atividades complementares previstas iniciadas no
Setor de Radiologia.
Durante esse período, foram oferecidos diversos cursos de extensão voltados para a área de Física Médica e
firmados convênios com hospitais, clínicas, com o IRD/
CNEN e Instituto de Cardiologia e vigilância sanitária estadual. Alguns desses cursos foram ministrados pelos
professores Alexandre Bacelar, Volnei Borges e Ana Luiza
Bretanha Lopes, do Instituto de Física da PUCRS, e outros
por professores, físicos médicos e médicos convidados de
outras instituições.
As atividades complementares propostas pelo GFMH
tiveram como ponto de partida o pressuposto de que,
para ocorrer uma aprendizagem significativa, são necessários pré-requisitos, material significativo relevante, além
de pré-disposição, interesse, mobilização e esforço do
aluno para aprender1. Com o objetivo de planejar as atividades subsequentes, foi importante que cada professor
orientador percebesse como os alunos relacionaram, definiram, estruturaram e trabalharam os diversos conceitos
físicos durante a apresentação dos seminários. Desta forma, buscou-se verificar o que os alunos já conheciam e
assimilaram corretamente, uma vez que tais informações
serviriam de ancoradouro para a aprendizagem e retenção
de novos conceitos. Além disso, também foram consideradas algumas variáveis interpessoais e situacionais que
influenciam na aprendizagem. Dentre as interpessoais,
consideraram-se o conhecimento, as habilidades, o interesse, a personalidade e as atitudes do aluno. Dentre
as situacionais, destacaram-se as atividades sugeridas e
o material instrucional oferecido ao grupo, bem como as
características do grupo de alunos e dos orientadores2.
Vale lembrar que, após a apresentação do seminário,
os conceitos sobre os quais os alunos não demonstraram
segurança foram reforçados pelos orientadores. Numa segunda etapa, o grupo de alunos foi encaminhado ao setor
de Física Médica do hospital São Lucas da PUCRS, onde
realizaram estágio não remunerado no Setor de Radiologia
Médica durante quatro meses. Sempre que se constatava
um hiato entre o conhecimento que os alunos já possuíam
e o que necessitariam conhecer antes de aprenderem significativamente a tarefa proposta, foram fornecidas novas
referências bibliográficas, providenciadas palestras e cursos de curta duração ministrados por especialistas na área.
O acompanhamento do grupo piloto foi realizado por
meio de correção e discussão dos relatórios elaborados
pelos alunos, avaliação dos orientadores em reuniões e,
também, de entrevistas realizadas após o término do cronograma estabelecido para cada etapa3. O primeiro grupo
foi acompanhado até 1996. Graça aos excelentes resultados obtidos com o grupo piloto, novos grupos passaram
a ingressar no programa de atividades complementares a
cada semestre, seguindo uma metodologia similar. No entanto, em função do crescente número de alunos interessados em participar do programa, o seminário inicial passou a ser precedido por um curso preparatório obrigatório.
Em razão do crescente número de alunos, em 1996, o
programa de atividades complementares proposto inicialmente sofreu algumas modificações, sendo estruturado,
então, em seis etapas. Na primeira, os alunos aprovados
no curso preparatório eram entrevistados pelo físico do
Setor de Física Médica do local. Na segunda, que durou
seis meses, os alunos se familiarizaram com o local de estágio e com as rotinas do setor, acompanharam os técnicos para aprender a manusear os equipamentos e, também, apresentaram seminários e relatos das atividades.
Na terceira etapa, os alunos participaram de cursos, com
a finalidade de adquirir conhecimentos básicos de Física
que ainda não tinham adquirido no curso de graduação
e passaram a auxiliar na execução das rotinas. Esta fase
durou cerca de seis meses. Na quarta etapa, os alunos
começaram a participar de pesquisas em nível de Iniciação
Científica sob orientação do físico médico do local do estágio e de um professor do Instituto de Física. Esta fase
durou de seis meses a um ano. Na quinta etapa, os alunos
apresentaram trabalhos em eventos científicos e continuaram contribuindo com o gerenciamento do Setor de Física
Médica. Os alunos integrantes do programa e seus orientadores participaram de vários eventos científicos nacionais e
internacionais com a apresentação de trabalhos.
Concluídas as etapas anteriores, na sexta etapa, os
alunos foram transferidos para outras Instituições e também auxiliaram, como monitores, a orientação dos novos
alunos. Alguns iniciaram atividades em outras áreas sob a
orientação de médicos ou de professores da Faculdade
de Física, especialistas nessas áreas.
Para avaliar a importância deste programa, diversas
vezes foram aplicados questionários4 e realizadas entrevistas com alunos, orientadores, egressos e físicos dos
Setores de Física Médica das Instituições onde os alunos
atuaram. Os resultados das avaliações foram analisados
pelos professores integrantes do GFMH e grupo de Ensino
do Instituto de Física, além de, por diversas ocasiões, terem sido apresentados em reuniões, eventos científicos
nacionais e internacionais.
Segundo os alunos entrevistados, participar do grupo
de atividades extracurriculares auxiliou na melhoria da sua
formação acadêmica, permitindo vivências de crescimento humano que consideraram muito importante para o seu
crescimento pessoal e profissional. Também foi mencionada a aquisição de maturidade profissional, nova visão
do mercado de trabalho, necessidade de trabalhar com
seriedade e honestidade. Quanto à aprendizagem, os
Revista Brasileira de Física Médica. 2009;3(1):25-34.
27
Bernasiuk MEB, Bacelar A
alunos relataram que houve um maior interesse na Física
e suas aplicações devido à possibilidade de relacioná-la
aos novos conhecimentos adquiridos por meio do desenvolvimento das atividades complementares. Salientou-se,
também, a importância dos cursos assistidos e da participação em Palestras, Congressos, Feiras de Ciências
no Brasil e no exterior. Um fator importante que deve ser
salientado é o fato de que as novas informações foram
adquiridas através do esforço deliberado, por parte dos
alunos, de relacioná-las a conceitos relevantes preexistentes na sua estrutura cognitiva.
Os orientadores relataram que houve um maior interesse dos alunos pelo curso de graduação e de continuar
seus estudos em nível de pós-graduação, bem como uma
modificação positiva na expectativa de mundo do trabalho
do físico médico.
As atividades realizadas pelos alunos também foram
consideradas de grande importância pelos físicos responsáveis pelo Setor de Física Médica das Instituições,
uma vez que contribuíram com o programa de qualidade
implantado nelas. Na avaliação, esses profissionais concordaram que as atividades junto aos Setores de Física
Médica poderiam ser implantadas no início do curso, após
a apresentação de um seminário ou da aprovação do curso preparatório. Foi relatado que, quanto mais cedo os
alunos realizarem trabalhos práticos em complementação
aos teóricos, tais como rotinas hospitalares, mais aptos
eles estarão para realizar trabalhos de iniciação científica e
trabalhar na área de atuação profissional5.
Assim, o programa de atividades complementares implantado pelo GFMH procurou oferecer aos alunos uma
formação teórica e prática mais abrangente para facilitar o
seu acesso ao mundo do trabalho, sem, contudo, dirigi-los
para uma especialização precoce em determinada área e
muitas vezes totalizando uma atuação de mais de 4 mil
horas no futuro ambiente de trabalho. Os egressos nesse
bacharelado começaram a desempenhar atividades em
hospitais, clínicas, vigilância sanitária, empresas de consultorias e consultorias técnicas e vendas. Dentre as áreas
de atuação, salientaram-se a radiologia, radioterapia, medicina nuclear, ecografia, ressonância magnética nuclear e
simulações computacionais aplicadas à Medicina.
Em novembro de 1993,���������������������������
os alunos do GFMH participaram da Feira Sul-brasileira de Ciências e Tecnologia da
PUCRS com apresentação de trabalhos da área de Física
Médica. Em 1994, os���������������������������������
alunos do Bacharelado participaram pela primeira vez de um evento na área da Física
Médica, apresentando trabalhos no World Congress on
Medical Physics and Biomedical Engineering, na cidade
do Rio de Janeiro, sendo que alguns foram agraciados
com prêmios. A partir de 1994, os alunos e os orientadores participaram de muitos eventos científicos nacionais
e internacionais sempre com apresentação de trabalhos.
Dentre os eventos internacionais, citam-se alguns trabalhos apresentados na Argentina6, Peru7, França8, Estados
Unidos9, entre outros. A partir de 1996, com a implantação de novos grupos de pesquisa, aumentou o número
28
Revista Brasileira de Física Médica. 2009;3(1):25-34.
de alunos participantes das atividades complementares e,
com isto, de participantes de eventos em Física Médica.
A evolução curricular
A ênfase em Física Médica deu um novo impulso ao
Instituto de Física, aumentando não só o número de alunos, mas também o de projetos de pesquisa, principalmente de iniciação científica. Os professores orientadores
começaram a participar de diversos cursos de atualização
na área, muitos na CNEN. Graças a um convênio com a
CNEN, a cada semestre um grupo de alunos participava
de cursos no IRD/CNEN na cidade do Rio de Janeiro. Com
o programa de atividades complementares, aumentaram a
produção científica e a participação de professores e alunos em eventos científicos, principalmente relacionados à
área de Física Médica.
Os estágios curriculares e não curriculares dos alunos
do bacharelado ficaram sob a supervisão do professor
Alexandre Bacelar. Com o aumento do número de alunos, novos professores foram contratados, sendo que
alguns passaram a contribuir com o GFMH. Os trabalhos
de conclusão de curso eram orientados por um professor do Instituto de Física em parceria com físicos médicos
e profissionais da área da saúde dos locais onde os alunos realizavam os estágios curriculares. Os trabalhos de
conclusão, no currículo vigente denominado monografia,
sempre foram apresentados a uma banca constituída por
um professor do Instituto de Física e por mais um ou dois
convidado de outras Instituições. Dependendo da área, os
convidados eram físico médico, médico ou professor.
Durante o tempo de implantação do primeiro currículo,
foram realizadas várias reuniões envolvendo professores
da Faculdade de Física, dos quais alguns trabalhavam em
diferentes áreas da Física Médica em hospitais e também
como Supervisores de Proteção Radiológica na indústria,
professores da Faculdade de Informática, alunos do bacharelado e especialistas da área. Foram discutidas e analisadas possíveis alterações de disciplinas e de programas
para uma melhor adequação do currículo às exigências
do mercado de trabalho e dos órgãos governamentais,
o que resultou em algumas adaptações no primeiro currículo do bacharelado, após a formatura do primeiro aluno,
Alexandre da Silva Corrêa, em 1994.
Este bacharelado foi o primeiro com ênfase em
Física Médica no Brasil e, com a implantação das Novas
Diretrizes Curriculares para os cursos de graduação, foram enfrentadas algumas dificuldades no momento de realizar as reformulações. Assim, a reformulação implantada
em 1995 vigorou até 2003.
Como dito anteriormente, a proposta de mudança curricular do bacharelado em 1995, foi devido às várias sugestões de professores, alunos e profissionais que atuavam na
área, mais especificamente físicos médicos consultados.
Muitos alunos basearam suas sugestões em experiências
vividas nas atividades complementares e estágios não
Ensino de graduação em Física Médica: experiência da PUCRS
curriculares realizados no Hospital São Lucas da PUCRS
e no Hospital de Clínicas de Porto Alegre. As sugestões
dos profissionais foram colhidas por professores e alunos
do Bacharelado em congressos nacionais e internacionais
e em seminários de Física Médica promovidos pelo no
Instituto de Física. Em linhas gerais, as sugestões propunham duas alterações: redução acentuada de disciplinas
de Informática, mantendo-se apenas algumas básicas, e
introdução de novas disciplinas que propiciassem melhores condições aos alunos para cursarem pós-graduação
em Física e, de preferência, em Física Médica. Alguns fatores foram considerados essenciais para as sugestões
mencionadas, aceitas pelo Conselho Departamental e propostas no documento enviado à Câmara de Graduação
desta Universidade. Dentre as justificativas, salientam-se:
a) os avanços em Física Médica e a abertura de cursos de
mestrado nesta área e em Engenharia Biomédica, indicando o grande incremento de ambas as áreas no mercado
de trabalho nos últimos anos e, também, de novas exigências para os candidatos; b) maiores exigências de órgãos
governamentais na concessão de certificações para supervisores ou responsáveis nas áreas de radioterapia, medicina nuclear, radiologia e proteção radiológica, exigindo
dos egressos uma especialização imediata após o curso;
c) avanços em softwares de Física Médica, mormente em
radioterapia e medicina nuclear, não havendo mais necessidade de grandes conhecimentos de programação
dos alunos ao necessitarem da parte computacional em
suas tarefas. Essas justificativas mostram que o perfil do
egresso deste novo currículo mudou em parte em relação
ao perfil do currículo que estava em vigor desde 1990. A
obrigatoriedade de sólidos conhecimentos em Informática
passou a ter caráter secundário, e a pós-graduação, que
era aconselhável, passou a ter caráter de obrigatoriedade
para todos aqueles que desejassem ser supervisores de
qualquer área relacionada à Física Médica e, deste modo,
progredir na profissão.
Como a grande maioria dos alunos do bacharelado
também cursava Licenciatura Plena, este currículo teve
alguns ajustes, principalmente troca de nível de várias disciplinas, possibilitando aos alunos interessados, cursar as
duas habilitações simultaneamente. Não ocorreram mudanças significativas, pois se entendeu que o atual currículo atende de maneira eficaz seus principais objetivos.
As novas disciplinas introduzidas foram: Introdução à
Microinformática, Algoritmos e Programação I, Algoritmos
e Programação II; Introdução à Pesquisa em Física;
Laboratório de Técnicas e Medidas Nucleares; Física do
Estado Sólido; Análise de Resultados em Física; Origens
e Desenvolvimento da Física, e Cálculo Numérico, Noções
de Anatomia e Fisiologia e Biofísica.
Paralelamente, foram eliminadas as seguintes disciplinas: Introdução à Informática I; Laboratório de
Programação I; Laboratório de programação II, Introdução
à Informática II; Algoritmos e Estrutura de Dados I;
Algoritmos e Estrutura de Dados II; Organização de
Computadores I; Sistemas Operacionais I; Seminários
de Informática Aplicados à Física, Educação Física. O
Trabalho de Conclusão passou de três para dois créditos.
Assim, esta reestruturação curricular aumentou a carga
para 3.180 horas, o que corresponde a 212 créditos.
Para atender às novas necessidades do bacharelado,
em 1995, os professores do GFMH objetivavam montar o
Laboratório de Técnicas e Medidas Nucleares com equipamentos importados. O projeto foi encaminhado à direção do
Instituto de Física e posteriormente aprovado pela Reitoria
da Universidade. Foram muitas horas de trabalho. Após a
aprovação, a sala destinada ao laboratório foi construída
de acordo com as normas estabelecidas pela CNEN, com
local apropriado para a guarda e manuseio de fontes radioativas. O Laboratório de Estrutura da Matéria foi transferido
para a parte térrea do prédio ao lado do novo laboratório.
Em 1996, foi criado o Grupo de Estudos de
Propriedades de Superfícies e Interfaces (GEPSI)��������
coordenado pelo professor Doutor Roberto Hübler com o objetivo de realizar projetos com impactos diretos na sociedade, pesquisando materiais para aumentar a vida útil de
implantes ortopédicos, desenvolvendo nanoestruturas periódicas para proteção contra desgaste mecânico e corrosivo, estudando e caracterizando materiais biocompatíveis
para aplicação em seres humanos, enfim, abrindo mais
um campo de atuação para o bacharel.
Posteriormente, em 1997, foi criado o Grupo de Física
das Radiações (GFR) coordenado pela professora Doutora
Mara Rizzatti, que passou a investigar as implicações da
radiação ultravioleta na sociedade e os efeitos dessa radiação em materiais poliméricos, desenvolvendo novos
materiais para aplicação em dosimetria.
Sempre em busca da melhoria da qualidade de ensino,
o Instituto de Física participou de periódicas avaliações internas. Algumas dessas avaliações foram propostas pelo
Setor Didático-Pedagógico da Universidade (SEDIPE),
outras foram realizadas por iniciativa dos professores.
Sob a orientação do SEDIPE, em 1998, foi modificado o
Projeto Pedagógico do Curso de Física, coordenado pela
professora Maria Emilia com a colaboração da professora
Doutora Elaine Evaní Streck, tendo como referência sugestões colhidas a partir de várias reuniões realizadas com
professores, alunos, funcionários, egressos e profissionais
que atuavam nas duas habilitações oferecidas pelo curso
de Física, licenciatura em Física e bacharelado com ênfase em Física Médica. Na ocasião, foi enviada uma cópia
do referido projeto ao Ministério de Educação e Cultura
como sugestão para elaboração das novas Diretrizes
Curriculares para os Cursos de Física. Entretanto, a nova
reformulação curricular não entrou em vigor, tendo em vista uma orientação da Universidade de aguardar as novas
Diretrizes Curriculares para os cursos de Física.
Em 1999, em função de uma reforma na Universidade,
o Instituto de Física passou a ser denominado Faculdade
de Física (FAFIS). No final desse mesmo ano, a professora Maria Emilia assumiu a direção e o professor Doutor
Cláudio Galli, a vice-direção. Junto com a equipe de
professores, a direção deu continuidade ao trabalho das
Revista Brasileira de Física Médica. 2009;3(1):25-34.
29
Bernasiuk MEB, Bacelar A
direções anteriores, adaptando seu planejamento à realidade vivenciada naquele momento pela Universidade e
aos novos desafios do século 21.
Cabe ressaltar que, até 2000, o curso tinha formado
31 bacharéis, dentre os quais 16 fizeram parte do GFMH.
Nove dentre os egressos deste grupo, após a formatura,
foram contratados como físicos em radiologia diagnóstica,
fiscalização, medicina nuclear, radioproteção, ressonância
nuclear, entre outros. Destes, cinco também ingressaram
em cursos de pós-graduação. Os demais alunos, ao concluírem o curso de graduação, ingressaram direto na pósgraduação e, mais tarde, no mundo do trabalho.
Neste mesmo ano, a FAFIS recebeu a visita da
Comissão de Avaliação das Condições de Oferta dos
Cursos de Física MEC/SESu. Apesar do curso de Física ter
recebido um conceito muito bom, os avaliadores tiveram
dificuldade em compreender a estrutura do Bacharelado,
tendo em vista que nenhum deles era da área de Física
Médica. Outra dificuldade foi enfrentada pelos alunos durante a realização do Exame Nacional de Cursos (ENC),
mais conhecido como “Provão” em 2001, 2002 e 2003.
Tendo em vista o pioneirismo na ênfase do bacharelado,
as provas elaboradas para os alunos deste curso contemplaram somente questões referentes aos conteúdos
abordados em bacharelado clássico, não apresentando
questões atinentes à Física Médica, o que prejudicou os
alunos, deixando-os desmotivados.
Em 2001, a universidade iniciou os trabalhos relativos
ao Planejamento Estratégico. Paralelamente, após várias
reuniões com professores, alunos e funcionários, foi elaborado o Plano de Ações da FAFIS. Em conjunto, foram escolhidos os objetivos, traçadas metas e estratégias para a
Faculdade de Física; entre elas, iniciou-se o estudo de uma
revisão curricular amparado pelas Diretrizes Curriculares
para os Cursos de Graduação em Física (Parecer CNE/
CES 1.304/2001)10. Cabe lembrar que, durante este período, houve muitos encontros para se debaterem as alterações curriculares. Alguns dos encontros foram promovidos
pela SBF, pela SeSu/MEC, pela BFM e pela CNEN.
Em 2002, durante o estudo da nova reformulação curricular e tendo em vista a evolução dos equipamentos de
obtenção digital de imagens médicas que exigia do físico
médico um conhecimento cada vez maior acerca do processamento e análise dessas imagens, introduzimos este
conhecimento na nova proposta de currículo para o bacharelado. Assim, ao incluir essa nova área de atuação para os
bacharéis em Física Médica, foi contratada a professora
Doutora Ana Maria Marques da Silva, que criou o Núcleo
de Pesquisa em Imagens Médicas. Este Núcleo multidisciplinar passou a reunir profissionais da Física, Informática,
Engenharia e Medicina para a realização de pesquisa e desenvolvimento na área de aquisição, processamento, visualização e análise de imagens médicas, tendo por objetivo
a melhoria da qualidade do diagnóstico e a otimização de
sistemas de telerradiologia. Também em função das novas
alterações curriculares, especificamente no caso da Física
Médica, foram contratados dois egressos do bacharelado,
30
Revista Brasileira de Física Médica. 2009;3(1):25-34.
o físico médico Mestre Alessandro Mazzolla e a professora
Doutora Gabriela Hoff que acabara de concluir o doutorado na área. Na ocasião, também retornou de um doutorado na área a professora Doutora Maria Eulália Tarragó.
A essa altura, estava completo o grupo de professores
responsáveis pela formação dos bacharéis atendendo aos
novos desafios e à nova proposta curricular.
Levando-se em consideração a necessidade de manter um ensino de qualidade que forme profissionais preparados para um complexo mercado de trabalho, buscou-se
majorar o número de parcerias e o número de convênios,
desta vez com a vigilância sanitária, com a secretaria
municipal da saúde, clínicas, entre outros, e renovar os
convênios anteriormente firmados. Com o crescimento
da pesquisa nas áreas da Física Médica, do Ensino e da
Energia solicitou-se mais um espaço físico para a FAFIS, o
qual foi cedido, pelo Magnífico Reitor Professor Norberto
Francisco Rauch, no antigo Quartel, contíguo ao Campus
Central, propriedade recém-adquirida pela PUCRS.
Após várias adaptações, nessa mesma propriedade,
foi criado o Centro de Pesquisa e Desenvolvimento em
Física (Centro de P&D em Física), que passou a fazer parte do Parque Tecnológico da PUCRS. A inauguração do
Centro ocorreu no dia 28 de abril de 2003. A instalação
deste Centro junto ao Parque Tecnológico da PUCRS
(TECNOPUC) foi muito importante, uma vez que passou a
vincular a imagem da Faculdade de Física a atividades tecnológicas e de Física Aplicada, aumentando a pesquisa, a
prestação de serviço e as parcerias, atraindo novos alunos
para a pós-graduação e para a graduação, além de tornar
a Universidade referência nacional e internacional nestas
áreas de pesquisa.
Após a sua inauguração, o Centro passou a congregar
quatro Núcleos Tecnológicos de Pesquisa e Desenvolvimento:
o de Energia Solar, o de Pesquisa em Interação da Radiação
com a Matéria que assumiu o GFR, o de Desenvolvimento
em Superfícies, Interfaces e Nanoestruturas que incluiu o
GPSI e o de Pesquisa em Imagens Médicas. Destes, os três
últimos beneficiaram os alunos da Física Médica. Mais tarde,
também beneficiando a Física Médica, foi criado o Grupo
de Nanoestruturas (NANOPUC), coordenado pelo professor
Doutor Ricardo Papaleo.
Na ocasião da inauguração do Centro P&D em
Física, permaneceram no prédio 10 da FAFIS: o grupo de
Física Médica Hospitalar, o Grupo de Experimentação e
Simulação Computacional em Física Médica (GESiC), o
Grupo de Física Biológica (GFB) e os grupos voltados para
a licenciatura.
O grupo de Física Médica Hospitalar, coordenado pelo
professor Mestre Alexandre Bacelar, continuou desenvolvendo suas atividades com poucas alterações, contando
com a colaboração da equipe de professores responsáveis pelos alunos do bacharelado. O GESiC, coordenado
pela professora Doutora Gabriela Hoff, passou a desenvolver ferramentas computacionais para a construção de simuladores virtuais, realizando simulações computacionais
em dosimetria externa das radiações ionizantes, através
Ensino de graduação em Física Médica: experiência da PUCRS
de softwares que utilizam o método de Monte Carlo e programas determinísticos de Teoria de Transporte. O GFB,
coordenado pela professora Doutora Maria Eulália Pinto
Tarragó, introduziu uma linha de pesquisa voltada para a
simulação computacional do sistema imunológico e folding de proteínas.
Em 2003, a nova revisão curricular das duas habilitações que compõem o curso de Física foi aprovada pela
Câmara de graduação da Universidade. Assim, após a
reestruturação curricular,������������������������������
as duas habilitações que compõem o curso de Física da PUCRS passaram a ser: a
Licenciatura em Física (Físico-Educador) e Bacharelado
em Física, com ênfase em Física Médica, que passou a
ser chamado Bacharelado em Física Médica. Cabe salientar que Física Médica refere-se ao Físico-Interdisciplinar
(Bacharel em Física Médica) que deverá utilizar “prioritariamente o instrumental (teórico e/ou experimental) da Física
em conexão com a Física Médica”, passando a atuar de
forma conjunta e harmônica com especialistas de outras
áreas, tais como médicos, odontólogos, biólogos, engenheiros, químicos e administradores. O novo currículo,
mais flexível que o anterior, que com algumas adaptações
permanece até hoje, passou a incluir duas disciplinas eletivas e atividades complementares, substituindo o trabalho
de conclusão por monografia.
O bacharelado em Física Médica, por sua vez, passou
a ter como objetivo capacitar profissionais de nível superior
a exercerem atividades nas Instituições de Saúde, visando à qualidade dos serviços prestados e produtos usados,
bem como a segurança e a economia no âmbito de Física
Médica. Mais especificamente, passou a formar bacharéis
com sólida formação em Física e condições de aplicar os
conhecimentos e a metodologia da Física na área da Saúde,
trabalhando com desenvoltura e de forma conjunta e harmônica com especialistas da área médica, biomédica e
administrativa, mantendo uma postura profissional baseada
na ética e na responsabilidade social. Com a implantação
do novo currículo, o referencial do professor sofreu algumas
modificações com o intuito de atender às novas demandas,
buscando alcançar aos objetivos do curso por meio de novas tecnologias, sem perder a visão humanística.
Consciente dos desafios e das necessidades educacionais para o século 21, as ações pedagógicas escritas
no Projeto Pedagógico foram alicerçadas nos quatro pilares da educação referidos no Relatório para a Organização
das Nações Unidas para a Educação, a Ciência e a Cultura
(UNESCO), da Comissão Internacional sobre Educação
para o século 2111. Os referidos pilares são: aprender a
aprender, aprender a fazer, aprender a viver em conjunto
e aprender a ser.
Relativamente ao “aprender a aprender”, a ação pedagógica buscou disponibilizar aos alunos do curso de Física
o desenvolvimento da iniciativa, do espírito de busca de
conhecimento, da autonomia intelectual, do espírito crítico
e analítico. Isso se justifica pela necessidade primordial,
em um mundo com mudanças cada vez mais rápidas,
de se adquirirem os novos conhecimentos que surgem
diariamente em função das novas descobertas realizadas
em grande número e em intervalos de tempo cada vez
menores.
O “aprender a fazer” foi sugerido uma vez que, cada
vez mais, são exigidas capacidades intelectuais, no sentido de concepção, organização e aptidão para realizar
trabalhos em equipe com iniciativa, tendo em vista as modificações introduzidas pelo progresso tecnológico.
O “aprender a viver com os outros” foi escolhido por
ser uma exigência imposta em um mundo globalizado,
onde as diferenças devem ser reconhecidas e respeitadas,
considerando-se as repercussões, tanto positivas quanto
negativas, das atitudes do relacionamento do professor
com os alunos, bem como dos alunos com seus colegas.
O “aprender a ser” foi incluído no sentido de proporcionar a possibilidade de conviver bem, influenciando o
“aprender a fazer” e o “aprender a aprender”. Os quatro
pilares foram escolhidos como referência por serem interdependentes e os sustentáculos de uma educação integral do ser humano.
No que se refere especificamente ao ensino da Física,
enfatizou-se a compreensão dos fenômenos, solicitandose aos alunos que se expressem de forma clara e precisa, seja oralmente ou através do uso consciente do formalismo matemático. A experimentação continuou a ser
cultivada conscientemente de forma demonstrativa ou
realizada pelos alunos, incentivando-se a motivação, a
criatividade, a autonomia e o trabalho em equipe.
Atendendo às Diretrizes Nacionais Curriculares para os
cursos de Física, o currículo do curso foi estruturado de
forma que apresentasse um núcleo comum às duas habilitações do curso de Física e um conjunto de disciplinas específicas para cada uma das duas habilitações. O bacharelado permaneceu com a duração de nove semestres,
mas a carga passou para 2.910 horas. Destas, 1.710 horas foram atribuídas ao núcleo comum, seguindo a mesma
orientação dos cursos de Física de outras Universidades,
990 horas foram destinadas a disciplinas específicas da
área de Física Médica, 210 horas de estágio curricular e no
mínimo 120 horas de atividades complementares.
O núcleo comum foi constituído por um conjunto de disciplinas relativas à Física Geral, Matemática, Física Clássica,
Física Moderna e Ciência como atividade humana. Desta
forma, pretendia-se que as dificuldades enfrentadas pelos
alunos nas avaliações do MEC fossem superadas.
Os alunos do bacharelado em Física Médica passaram
a cursar disciplinas que abrangiam os conteúdos relativos à Física das Radiações, Física da Radiologia, Física
da Medicina Nuclear, Física da Radioterapia, Proteção
Radiológica, Detectores de Radiação, Ressonância
Magnética, Processamento e Análise de Imagens
Médicas, Ultrassom, Instrumentação para Laboratório,
Anatomia, Fisiologia e Biofísica, oferecendo uma formação
relacionada à sua futura área de atuação e interesse. Os
estágios obrigatórios e não obrigatórios continuaram a ser
realizados em hospitais, clínicas médicas, secretarias de
saúde e meio ambiente.
Revista Brasileira de Física Médica. 2009;3(1):25-34.
31
Bernasiuk MEB, Bacelar A
As atividades complementares foram ajustadas com
a Faculdade de Física, sendo constituídas por estágios
não obrigatórios, monitoria, pesquisa de iniciação científica, cursos de extensão, seminários, simpósios, congressos, conferências e auxílio na organização de eventos
científicos. O estágio continuou a ser desenvolvido em
Instituições de Saúde, em empresas prestadoras de serviços na área da Física Médica e órgãos governamentais de
fiscalização e normatização na área da Física Médica. Um
professor da FAFIS acompanhou e realizou a supervisão
do estagiário.
Tendo em vista que a formação em Física, na sociedade contemporânea, deve se caracterizar pela flexibilidade do currículo, de modo a oferecer alternativas aos
egressos, os alunos passaram a escolher duas disciplinas
eletivas, continuaram a realizar, durante a sua formação,
estágios obrigatórios e não obrigatórios, atividades complementares e a apresentar uma monografia, em nível de
iniciação científica, no final do curso.
Sendo assim, o perfil egresso do curso de Física
Médica continuou a ter como referência as atividades que
o aluno foi habilitado a desempenhar, tais como: auxiliar
em assistência e consultoria e em controle de qualidade
e fiscalização de serviços e equipamentos, desenvolver
pesquisas na área, aplicando os princípios e métodos da
Física adquiridos ao longo do curso e atuando de forma
conjunta e harmônica com outros profissionais da área
da saúde. Na definição do perfil do profissional egresso
desta habilitação, até o presente momento, são consideradas as dimensões cognitiva, metodológica, afetiva e
ético-profissional.
A metodologia adotada pelos professores está relacionada à natureza das disciplinas, sendo descrita especificamente nos programas de cada uma. Em geral, as aulas
das disciplinas de Física ocorrem mediante explanações
dialogadas acompanhadas de demonstrações utilizando
equipamentos específicos para tal fim e, quando pertinente, resoluções de problemas-modelo conduzidas pelo professor, bem como resoluções de problemas em pequenos
grupos pelos alunos. Também são realizadas atividades
junto ao Museu de Ciências e Tecnologia da PUCRS e visitas técnicas. As aulas de laboratório são realizadas em
pequenos grupos, adotando-se uma metodologia interativa na qual os alunos assessorados pelo professor e
monitores são considerados os principais responsáveis
pelo êxito da aprendizagem no contexto da experiência.
As experiências, na maioria das vezes, são precedidas
por um conjunto apropriado de informações. As disciplinas teórico-práticas são desenvolvidas por meio de aulas
expositivas, demonstrativas, práticas de laboratórios em
pequenos grupos, realização de pesquisas bibliográficas e
apresentação de seminários de tópicos escolhidos pelos
alunos. As disciplinas de formação geral são ministradas
através de aulas expositivas e de resolução de problemas pelo professor e pelos alunos em pequenos grupos.
Algumas destas disciplinas também são desenvolvidas em
laboratórios específicos de acordo com a sua natureza. As
32
Revista Brasileira de Física Médica. 2009;3(1):25-34.
disciplinas de formação humanística, por sua vez, são desenvolvidas através de aulas expositivas, de seminários,
de debates e de trabalhos em grupos.
Nas revisões curriculares, têm sido consideradas as
novas demandas que vêm emergindo no Brasil nas últimas
décadas, mas que já existem em outros países há muitos
anos. Logo, enfatiza-se que a formação deste profissional
deve ser sólida em conhecimentos básicos de física, mas
flexível de modo que o futuro profissional disponha das habilidades e competências necessárias às expectativas do
seu campo de atuação e uma capacidade de adequação
às diferentes perspectivas de atuação futura.
Nesse sentido, como já foi mencionado anteriormente,
o currículo do curso implantado em 2003 até o presente
momento está alicerçado nas quatro dimensões citadas
anteriormente, de forma que o bacharel precisa desenvolver competências, dentre as quais destacam-se: dominar
princípios gerais e fundamentos da Física relacionados às
suas áreas clássicas e modernas; diagnosticar, formular e
encaminhar a solução de problemas físicos, experimentais e teóricos, utilizando instrumentos matemáticos ou de
laboratório apropriados; descrever e explicar fenômenos
naturais, processos e equipamentos na área da Física
Médica, em termos de conceitos, teorias e princípios físicos fundamentais; auxiliar em consultorias, em controle
de qualidade e também na aquisição de materiais e equipamentos utilizados em Física Médica; realizar testes de
garantia da qualidade de equipamentos de diagnóstico e
terapia (equipamentos da área da saúde), selecionando,
executando e avaliando as rotinas da área médica realizadas de modo a identificar prioridades no planejamento
de suas atividades; assessorar na identificação e avaliação
de parâmetros físicos relevantes para a análise de imagens; assessorar a elaboração de projetos de locais para
instalação de equipamentos de terapia e diagnóstico por
imagem (radiodiagnóstico, medicina nuclear, radioterapia)
e laboratórios destinados ao uso de fontes e aparelhos
emissores de radiação; manusear fontes emissoras de
radiações ionizantes, seladas e não seladas, controlando
as atividades manipuladas; reconhecer a administração e
organização do local de trabalho; proferir palestras, seminários e cursos; realizar pesquisas; manter atualizado o
seu conhecimento sobre a legislação que rege a sua área
de trabalho; colaborar com o sistema de vigilância sanitária; agir com autonomia, iniciativa, responsabilidade e
consciência ético-profissional; dar prosseguimento a uma
educação continuada em Física Médica.
As competências acima mencionadas estão diretamente relacionadas à formação básica em Física e específica em Física Médica e à preparação do aluno para
uma educação continuada. Essas competências estão
relacionadas à aquisição de determinadas habilidades,
dentre as quais são destacadas: utilizar adequadamente
as ferramentas matemáticas para a expressão de fenômenos físicos; abordar e resolver adequadamente problemas
experimentais; utilizar adequadamente a linguagem científica, tanto na forma oral quanto escrita, comunicando com
Ensino de graduação em Física Médica: experiência da PUCRS
clareza resultados científicos em relatórios técnicos, artigos, seminários e palestras, entre outros; reconhecer os
princípios físicos e o funcionamento dos principais equipamentos utilizados na área da Física Médica; aprender
novas técnicas, métodos ou usos de instrumentos pertinentes à área de atuação do físico médico; reconhecer
as relações entre o desenvolvimento da Física e a evolução tecnológica utilizada em diagnósticos e terapias na
medicina; usar e desenvolver softwares na área de Física
Médica; empregar corretamente a metodologia de pesquisa científica, sendo capaz de analisar dados e interpretar
resultados; compreender e aplicar as diretrizes de proteção radiológica; colaborar na elaboração e na implantação de normas e protocolos na área de Física Médica;
manter um bom relacionamento com profissionais da sua
área, de outras áreas, com pacientes e com o público em
geral; manter uma visão realista do mercado de trabalho,
atuando como agente de mudança, através da iniciativa
e competência. Essas habilidades envolvem conceitos,
procedimentos e atividades e o seu desenvolvimento está
diretamente ligado aos objetivos, às ações pedagógicas e
aos instrumentos de avaliação do curso.
Além das habilidades e competências adquiridas ao
longo do curso, o Bacharel em Física Médica deve ter a
oportunidade de vivenciar situações que auxiliem na qualificação de sua formação, tais como: a leitura, a análise
e a redação de textos técnicos e científicos; a sistematização de conhecimentos e resultados obtidos em pesquisas por meio da elaboração de relatórios, trabalhos
para publicação científica e do trabalho de conclusão de
curso; a realização de pesquisas bibliográficas e experimentais; a realização de experimentos em laboratórios;
o uso de equipamentos de informática; a realização de
estágios obrigatórios e não obrigatórios; a apresentação
de trabalhos em eventos científicos; a participação em
cursos de atualização e em eventos científicos; o exercício
de relações interpessoais através do trabalho em equipe
em grupos de pesquisa ou de trabalho; a monitoria nos
Laboratórios de Física; a Física Interativa no Museu de
Ciências e Tecnologia da PUCRS.
Buscando a flexibilização da formação do Bacharel em
Física Médica, as disciplinas eletivas foram escolhidas pelo
próprio aluno. No entanto, tendo em vista a qualidade desta formação dentro da sua área de atuação profissional, os
alunos foram orientados a buscarem disciplinas que efetivamente complementassem a sua formação, incrementando as suas possibilidades no mercado do trabalho.
Ainda em 2003, com o intuito de melhorar a infraestrutura de apoio do bacharelado, foi criado o Laboratório de
Física Médica, com equipamentos doados pelo Hospital
São Lucas da PUCRS, pela Sul Imagem e pela Kodak.
Em maio deste mesmo ano, a PUCRS foi sede do VIII
Congresso Brasileiro de Física Médica. Vale destacar que
um grupo de professores da FAFIS, em conjunto com a
Associação Brasileira de Físicos em Medicina (ABFM),
participou ativamente da organização do Congresso. O
evento foi uma oportunidade de reencontrar e conhecer
diversos profissionais da área, permutando experiências
e permitindo diálogos acerca da importância e dos novos
rumos da Física Médica no Brasil e no Exterior. Nesta ocasião, houva participação com outras Instituições de uma
mesa redonda com o objetivo de discutir os currículos dos
cursos de Física Médica na graduação.
Posteriormente, no mesmo ano, a PUCRS foi sede da
Jornada Ítalo-Brasileira de Biofísica e Biologia Molecular,
evento realizado em conjunto com as Faculdades de
Física, Biociências e Medicina. Novamente um grupo de
professores da FAFIS participou da organização do evento.
Até 2003, o curso tinha formado 71 alunos no bacharelado em Física Médica. Destes, 43 atuavam em hospitais
ou clínicas, 5 na vigilância sanitária, 6 em empresas de
consultoria, 1 em Universidade, 12 na pós-graduação e
6 em escolas.
A partir dezembro de 2005, o cargo de Diretora da
Faculdade de Física passou a ser exercido pela professora
Doutora Ana Maria Marques da Silva, que deu
�������������
continuidade ao trabalho das direções anteriores, adaptando seu
plano de ações ao planejamento da nossa Universidade.
Em 2006, em função de medidas administrativas da
Universidade, o curso passou a oferecer vestibular somente no verão. Em 2007, para atender às solicitações
dos professores e alunos, foram realizadas algumas adaptações no projeto pedagógico. Assim, aumentaram o número de horas dos estágios curriculares, das atividades
complementares e algumas disciplinas mudaram sua carga horária e nomenclatura. Para tanto, foram eliminadas
as tutorias em Física Médica. Desta forma, o curso passou
para 3.250 horas-aula, permanecendo com esta carga horária até a presente data. Isso se justifica pelo fato de que,
em um mundo com intensas e contínuas mudanças, é importante que os alunos adquiram conhecimentos amplos,
competência cognitiva mais desenvolvida, habilidades que
os auxiliem a enfrentar os avanços tecnológicos e os coloque à altura para acompanhar o crescimento e os efeitos
das inovações tecnológicas na área da Física Médica, ou
seja, preparados para um futuro que não se pode prever.
É desejável que os futuros bacharéis aprendam a buscar
e valorizar o conhecimento. Também é importante saber o
que é relevante investigar, questionar, comparar, generalizar, como buscar soluções, estabelecer relações, conviver
com as divergências, trocar ideias com os colegas, exercitar o pensamento crítico e a reflexão. Para tanto, é preciso
que os professores criem as condições necessárias para
um trabalho educativo eficaz, incentivando-os a interagir
com diferentes recursos tecnológicos e permitindo que
aprendam em seu ritmo e de forma autônoma.
Ainda é importante prepará-los para pensar sobre
questões éticas implícitas nas relações entre Ciências,
Tecnologia e Sociedade e para exercer o trabalho de acordo com os princípios éticos, de forma que isso dignifique
a sua profissão.
Além das competências e habilidades adquiridas ao longo do curso, é necessário que os futuros bacharéis tenham
tido a oportunidade de vivenciar situações que contribuam
Revista Brasileira de Física Médica. 2009;3(1):25-34.
33
Bernasiuk MEB, Bacelar A
com a qualificação de sua formação, e sejam alertados
quanto ao fato de que a educação deve ser continuada,
ou seja, é necessário atualizar-se ao longo de toda a vida.
Nesse passo, é indispensável uma infraestrutura física
adequada e professores aptos a pensar, sempre que for
oportuno, sobre a necessidade de mudanças educacionais e como devem ocorrer as suas adequações para enfrentar os novos desafios. Para que esta ação seja eficaz,
cabe lembrar que o ato de ensinar exige um grande trabalho intelectual dos professores, pois envolve refletir sobre
suas ações, entender o processo de desenvolvimento dos
alunos, compreender como ocorre a aprendizagem para
que seja possível ensinar de acordo, tomando como referência o objetivo do curso e um futuro desconhecido.
Entretanto, sabemos que para que a aprendizagem
ocorra, não depende só do professor e de uma ótima infraestrutura; é também importante que os alunos apresentem disposição para aprender e que a nova informação
se relacione com o aspecto importante da sua estrutura
de conhecimento. É desejável que o ensino propicie aos
alunos estabelecer tantos vínculos essenciais e não arbitrários entre os novos conteúdos e os conhecimentos prévios quanto permita a situação, permitindo que eles compartilhem experiências e identifiquem interesses, adquiram
habilidades, competências e vivências fundamentais para
um bom desempenho profissional.
Também é importante que os egressos tenham um
perfil empreendedor. Neste sentido, é necessário que
sejam capazes de reaprender a planejar, de enxergar as
limitações do seu empreendimento ou do setor sob sua
responsabilidade, de ser um líder em ação, de agir de
acordo com os princípios éticos e de estimular sua equipe. É importante manter os pés no chão e trazer o futuro
para o presente, aprendendo com o passado e não apenas extrapolando-o; por este motivo, mais uma vez, em
2009, o currículo do Bacharelado em Física médica vem
passando por uma reavaliação.
Considerações finais
Até 2009, o curso de bacharelado formou 139 alunos. Em
2008, foi realizada uma pesquisa, que tinha como objetivo
verificar a posição dos egressos no mercado de trabalho. Foram entrevistados 73 egressos. Desses, 28 atuam,
atualmente, em hospitais ou clínicas, 26 em empresas na
área de Física Médica, 3 em Universidades, 8 ingressaram
na pós-graduação, 1 trabalha na vigilância sanitária, 4 trabalham em escolas e 3 migraram para outra área.
Os dirigentes da FAFIS têm procurado o melhor
caminho para expandir sua pesquisa e aprimorar as
34
Revista Brasileira de Física Médica. 2009;3(1):25-34.
habilitações do curso de Física. Desta forma, pretendese ajudar os alunos a encontrarem um justo e merecido
lugar na sociedade e contribuir com a projeção da nossa Universidade no cenário nacional e internacional. As
contribuições e o engajamento efetivo de cada professor,
funcionário, aluno e egresso tem auxiliado no crescimento e fortalecimento das habilitações oferecidas pelo curso de Física.
Para finalizar, é importante salientar o quanto é fundamental conhecer cada partícipe da equipe e suas potencialidades, de forma que todos possam dar a sua valiosa
contribuição e compartilhar um mesmo objetivo, traçando metas e estratégias. O trabalho em equipe, aliado à
vontade férrea de se alcançar um determinado fim, pode
atingir resultados inimagináveis. Muito já foi feito, mas há
ainda muito a se fazer sempre com bastante dedicação,
entusiasmo e, principalmente, satisfação pela busca dos
melhores resultados. O grande desafio não é saber no que
formar, mas como formar com qualidade.
Referências
1. Ausubel DP, Novak JD, Hanesian H. Psicologia Educacional. Rio de Janeiro:
Interamericana; 1980.
2. Triandis HC. Actitudes y cambios de actitudes. Barcelona: Toray; 1974.
3. Bleger J. Temas de Psicologia: entrevistas e grupos. São Paulo: Martins
Fontes; 1980.
4. Bardin L. Análise de conteúdos. Lisboa: Edições 70; 1977.
5. Bernasiuk MEB, Bacelar A, Streck EE. Uma alternativa para qualificar a
formulação de Bacharéis em Física Médica. [Apresentado no XIII Simpósio
Nacional de Ensino de Física, Brasília, 1999].
6. Mazzola AA, Wagner Filho RVL. Controle de qualidade em processadoras
de filmes de raios X. [Apresentado no IV Congresso Latinoamericano para
Docentes y Alumnos en Actividades Científicas Extraescolares, San Juan,
Argentina, 1994].
7. Hoff G, Bacelar A, Costa CD, Fernandes CD, Pessi A, Oliveira SS, et al.
Análisis Comparativo de Placas Rechazadas en Cuatro Hospitales de
Porto Alegre. [Apresentado no III Congresso Regional sobre Segurança
Radiológica e Nuclear, Congresso Regional IRPA, 1995, Cuzco, 1995].
8. Bacelar A, Borges V, Ferreira MB, Jaques L, Mazzola AA. Periodical
determination of tests trought technical parameters in X-rays equipaments
of Porto Alegre’s Clinicas Hospital. [Apresentado no World Congress on
Medical Physics and Biomedical Engineering, Nice, France, 1997].
9. Bernasiuk MEB, Bacelar A, Streck EE. Qualyfing bachelor degree course
student formation in medical physics. [Apresentado no World Congress on
Medical Physics and Biomedical Engineering, 2000, Chicago].
10. Ministério da Educação Conselho Nacional de Educação. Diretrizes
Nacionais Curriculares para os Cursos de Física. Despacho do Ministro em
4/12/2001, publicado no Diário Oficial da União de 7/12/2001. Seção 1, p.
25. [Página da internet]. [Acesso em 17 set. 2009]. Disponível em: http://
portal.mec.gov.br/cne/arquivos/pdf/CES1304.pdf.
11. Delors J. Educação: um tesouro a descobrir. São Paulo/Brasília: Cortez/
MEC: UNESCO, 1998.
Artigo de Revisão
Revista Brasileira de Física Médica. 2009;3(1):35-41.
Evolução dos paradigmas de proteção
radiológica
Evolution of the radiological protection paradigms
Gian Maria A A Sordi1
Doutor em Física e Professor do Programa de Pós-Graduação em Tecnologia Nuclear do Instituto de Pesquisas
Energéticas e Nucleares – IPEN/USP, São Paulo (SP), Brasil.
1
Resumo
Consideramos como paradigmas iniciais de Proteção Radiológica aqueles que se tornaram vigentes após a liberação da energia atômica para
usos pacíficos em 1955. Naquela época, só foi introduzido um único paradigma, atualmente conhecido como sistema de limitação de dose. Após
discutirem-se as bases que originaram o paradigma, foram introduzidas as diretrizes, isto é, as medidas a serem realizadas para satisfazer o
paradigma. Na época, eram duas: o monitoramento das doses de radiação e a classificação das áreas de trabalho. Em seguida, discutiram-se as
premissas que reformularam os paradigmas de proteção radiológica que permaneceram em uso internacional até 1995. Ao paradigma anterior
modificado foram introduzidos os princípios da justificação e da otimização da proteção radiológica, bem como o conceito de que a proteção
radiológica deve ser econômica e eficaz. As diretrizes também aumentaram para quatro: monitoramento pessoal, classificação das áreas de
trabalho, níveis de referência e classificação dos trabalhadores. Depois, forneceram-se as principais justificativas para os atuais paradigmas,
acrescentando-se as restrições de dose, a exposição potencial e os limites anuais de risco. Em virtude destas modificações, das diretrizes foi
eliminada a classificação dos trabalhadores, mas foram acrescentadas as exposições potenciais e a perseguição às restrições das doses. Por fim,
discutiram-se as tendências próximas futuras e as principais alterações introduzidas pela CIPR em 2007, publicação nº 103.
Palavras-chave: proteção radiológica; paradigma; justificação; otimização; limites.
Abstract
We consider as initial radiological protection paradigms those in vigour after the release of the atomic energy for pacific usages in 1955. In that
occasion, only one paradigm was introduced, presently named dose limitation system. After arguing about the basis that raised the paradigm, we
introduced the guidance, that is, the measurements to be implemented to comply with the paradigm. In that occasion, they were two, i.e., the
radiation dose monitoring and the workplace classification. Afterwards, the reasons that caused the radiological protection paradigms changes
in force until 1995 are discussed. The initial paradigm was modified introducing the justification and the optimization principles, adding that the
radiological protection should be economical and effective. The guidance also increased to four: personal monitoring, workplace classification,
reference level and workers classification. Afterwards, we give the main justifications for the present paradigms that besides the formers were added
the dose constraints, the potential exposure and the annual risk limits. Due to these modifications, the workers classifications were eliminated from
the guidance, but the potential exposure and the search for the dose constraints were added. Eventually, we discuss the tendencies for the next future
and the main changes introduced by the ICRP in the Publication 103, 2007.
Keywords: radiological protection; paradigm; justification; optimization; limits.
Paradigmas iniciais de proteção radiológica
Bibliografia e premissas
Consideramos como paradigmas iniciais de proteção
radiológica aqueles que se tornaram vigentes após
a liberação da energia atômica para usos pacíficos
em 1955. Estes paradigmas foram enunciados pela
Comissão Internacional de Proteção Radiológica (CIPR,
ou International Commission on Radiological Protection
em inglês) através da Publicação 11, em 1958; da
Publicação 22, em 1959; e da Publicação 93, em 1966.
O Organismo Internacional de Energia Atômica (OIEA)
enunciou os paradigmas em 1967, na Publicação
94 da coleção Safety Series. Já a Comissão Nacional
de Energia Nuclear (CNEN) os enunciou em 1973, na
Resolução CNEN 06/735.
O paradigma
Naquela época, o paradigma era um só – atualmente
conhecido como paradigma do sistema de limitação de
dose. Em síntese, é expresso pelos limites de doses máximos permissíveis (LAMP), que foram definidos para a
Correspondência: Instituto de Pesquisas Energéticas e Nucleares da Comissão Nacional de Energia Nuclear (IPEN/CNEN) – Avenida Professor Lineu
Prestes, 2.242 – Cidade Universitária – CEP 05508-000 – São Paulo (SP), Brasil – E-mail: [email protected]
Associação Brasileira de Física Médica®
35
Sordi, GMAA
população como um todo, para o trabalhador e para os
indivíduos do público (grupo crítico).
Para a população como um todo
Perguntou-se aos geneticistas da época qual a porcentagem de mutações genéticas – que um indivíduo normalmente possui – poderia ser provocada pela radiação
natural, no nosso globo. A resposta foi que de 2 a 20%
das mutações maléficas seriam atribuídas à radiação ionizante. Partindo destes dados e do conhecimento da dose
anual média do globo, deduziram que o número de mutações maléficas nos descendentes de um indivíduo duplicaria num intervalo de dose entre 0,15 e 1,5 Sv.
Na época, a dose anual média natural do globo terrestre era considerada 1 mSva-1, pois não era levada em
conta o radônio e a vida média de uma geração de 30
anos, isto é, os primeiros 30 anos de vida. Atualmente,
considera-se que a vida média por geração é de 35 anos.
A CIPR, com o objetivo de garantir a segurança, admitiu que a duplicação das mutações se daria com uma
dose de 0,10 Sv, e a partir deste valor estabeleceu um
valor de 50 mSv por geração, para a população como um
todo. Este valor de 50 mSv era considerado um valor seguro para evitar um grande acréscimo de mutações nas
gerações futuras, lembrando que se considerava que a
vida média de uma geração era de 30 anos. Este valor
limita a dose anual na população a 1,67 mSv/ano.
Para o trabalhador
O trabalhador é uma fração muito pequena de indivíduos quando comparada à população como um todo e,
portanto, não devem se considerar os efeitos hereditários como no caso anterior, mas unicamente os efeitos somáticos. Para os efeitos que têm uma dose limiar
para a sua manifestação, é fácil estabelecer um limite;
entretanto, a preocupação deve ser dirigida a alguns
efeitos biológicos considerados completamente aleatórios na época, como o câncer e o encurtamento do
período de vida. Sabe-se, atualmente, que este último
não se manifesta nos seres humanos. Neste caso, o limite anual máximo permissível deveria ser estabelecido
num valor tal que a incidência de cânceres no trabalhador continue idêntica àquela que ocorre na população
como um todo, isto é, que não seja detectado aumento
de incidência de cânceres no trabalhador com relação
à população como um todo. Para o encurtamento da
vida, não deve ser detectado no trabalhador nenhuma diminuição de sua vida média com relação à vida
média da população como um todo, isto é, 70 anos.
Atualmente, considera-se a que a vida média da população é de 76 anos. Partindo destes pressupostos,
estabeleceu-se que o limite anual máximo permissível
para o corpo inteiro é de 50 mSv/ano.
Para os indivíduos do público
É evidente que se deve considerar um terceiro grupo
de indivíduos além dos dois já citados, pois quando se
36
Revista Brasileira de Física Médica. 2009;3(1):35-41.
trabalha com as radiações ionizantes sempre existe uma
fuga ou uma liberação de material radioativo no ambiente,
irradiando, consequentemente, as pessoas que lá se encontram. Estas pessoas foram chamadas de indivíduos do
público. Dentre estas pessoas existe um grupo conhecido
como grupo crítico, e é este grupo, homogêneo em seus
usos e costumes, que recebe a maior dose – e portanto
os maiores malefícios.
É evidente que este grupo que vive nas imediações
de instalações nucleares é bem maior do que o grupo
de trabalhadores, mas bem inferior à população como
um todo; dessa forma, o limite de dose anual máximo
permissível deveria ser estabelecido entre os 50 mSv/
ano para o trabalhador e 1,67 mSv/ano para a população como um todo. Foi escolhida a dose de 5 mSv/ano
para o grupo crítico.
Diretrizes
Uma vez que temos em nossas mentes o paradigma do
sistema de limitação de dose, necessitamos conhecer o
que devemos fazer para assegurar as ações de acordo
com este paradigma. As ações que devemos empreender
em obediência ao paradigma assumido são conhecidas
como diretrizes ou medidas.
O paradigma estabelecido no item anterior estará satisfeito se forem executadas as duas diretrizes que discutiremos a seguir: monitoramento e classificação das áreas
de trabalho.
Monitoramento
Existem dois tipos de monitoramento, conhecidos como
monitoramento do local de trabalho e individual. O monitoramento do local de trabalho tem caráter preventivo, uma
vez que pode ser empreendido antes que o trabalhador
venha a receber a dose; portanto, podem ser tomadas
medidas corretivas de proteção antes da execução das
tarefas pelo trabalhador.
Já o monitoramento individual, ou seja, aquela medida
no próprio indivíduo, tem um caráter confirmatório, pois
confirma as doses previstas pelo monitoramento do local de trabalho. Em outras palavras, podemos dizer que
o monitoramento individual mede a dose de radiação do
trabalhador após o seu recebimento.
Classificação das áreas de trabalho
As áreas de trabalho foram classificadas em duas: área
livre e área controlada. A área de trabalho livre é aquela em
que são obedecidos os limites para indivíduos do público.
Nesta área não é obrigatória a presença de um Serviço de
Proteção Radiológica (SPR).
Por sua vez, a área de trabalho controlada é aquela
em que os valores da radiação são superiores aos limites para indivíduos do público. Nesta área, a presença do
SPR é obrigatória. Portanto, o SPR empreende estas duas
diretrizes com a finalidade de demonstrar a obediência ao
paradigma da limitação da dose.
Evolução dos paradigmas de proteção radiológica
Paradigmas internacionalmente em uso
até 1995
Bibliografia e premissas
Os paradigmas internacionalmente em uso até 1995 foram enunciados nas publicações da CIPR, nº 22 de 19736,
nº 26 de 19777, e nº 30 de 19788, sendo adotados em
19829 pela OIEA e em 198810 pela CNEN.
Antes de discutirmos os novos paradigmas, devemos
estabelecer como premissa o porquê da necessidade da
sua mudança. Uma série de fatos propiciaram tal mudança, mas dentre eles destacaremos alguns que consideramos vitais.
Os efeitos biológicos considerados completamente
aleatórios, como o câncer e o encurtamento da vida, na
realidade não eram tão aleatórios e imprevisíveis assim,
e obedeciam às leis da probabilidade e da estatística. O
encurtamento da vida não pode ser provado para os seres humanos e deixou de ser considerado. Para explicar
o aparecimento dos cânceres induzidos pela radiação ionizante, surgiu a teoria alvo. Em síntese, essa teoria está
alicerçada na ideia do tiro ao alvo, na qual o tiro seria a
radiação ionizante e o alvo, a célula. Se a radiação ionizante acertasse a célula em seus pontos vitais, a célula
morreria; caso contrário, poderia ser lesada e sobreviver
ao ferimento, ou vir a morrer tempos depois. No caso
de sobreviver, poderia se tratar, em virtude da lesão, de
uma célula diferenciada das demais; e se o patrimônio de
divisão celular não for prejudicado, poderia dar origem a
descendentes diferenciados que, após várias gerações
de divisão, apareceriam clinicamente diagnosticáveis
como câncer.
Como qualquer radiação ionizante, sua energia –
por menor que seja – é suficiente para lesar as células.
Devemos admitir que o processo de oncogênese não
possui limiar, ou, em outras palavras, que qualquer dose,
por menor que seja, é prejudicial e portanto deve ser reduzida. Para conseguir a redução de dose devemos modificar o paradigma do sistema de limitação de dose, isto
é, devemos melhorar as condições de proteção até chegarmos a um valor de dose cujo risco, por ser considerado
muito pequeno, é aceitável. Este valor de risco é conhecido como nível de registro (vide Figura 1).
Em segundo lugar, quando surgiu a primeira publicação de nº 226 da CIPR, estávamos em plena crise do
petróleo, o que trouxe uma série de consequências econômicas mundiais muito graves. Tal fato também deveria
ser levado em consideração e, portanto, propiciou a introdução de um segundo paradigma.
Os paradigmas
O novo sistema de limitação estabelece os limites anuais
máximos admissíveis (LAMA) para o trabalhador e para o
público. O limite da população como um todo foi eliminado, uma vez que foi analisada a dose dos grupos críticos
recebidas nos países mais desenvolvidos e todas elas
apresentavam doses iguais ou inferiores a 1 mSva-1 e uma
dose média de 0,5 a-1 e, portanto, o valor estipulado para
a população como um todo nunca seria alcançado.
Estes limites anuais só são admitidos se forem justificados e enquanto se mantiverem otimizados. Nada mais
é permitido, tudo deve ser justificado e otimizado. Doses
superiores aos LAMAs para trabalhadores e indivíduos do
público são inaceitáveis. O princípio da justificação e principalmente o princípio da otimização, de acordo com o
qual as doses devem ser mantidas otimizadas, são responsáveis por fazer com que a proteção seja cada vez
melhorada até alcançarmos os valores de dose considerados aceitáveis.
O princípio da justificação proíbe a introdução de atividades para as quais o prejuízo sanitário é superior ao benefício recebido pela sociedade com a introdução daquela
atividade, e o princípio da otimização, também conhecido
como princípio ALARA (‘as low as reasonably achievable’
em inglês), impõe o abaixamento contínuo das doses com
procedimentos racionalmente exeqüíveis ou praticáveis,
levando-se em conta fatores sociais e econômicos. Este
último princípio procura responder à pergunta: ‘Será que
já fiz tudo o que poderia ser feito em matéria de proteção
para abaixar ainda mais as doses?’
A resposta positiva a esta pergunta é muito difícil de
ser obtida. Não é o caso para os LAMP, cuja pergunta seria: ‘Já fiz tudo o que precisava para manter os valores das
doses abaixo de seus respectivos limites?’. Se, por um
monitoramento, for comprovado que os valores medidos
das doses são inferiores aos limites de dose, em princípio
poderia ser garantida a resposta positiva.
A crise do petróleo provocou uma recessão econômica
tão grave que repercutiu também no campo nuclear, obrigando a introdução do segundo paradigma, de acordo com
o qual a proteção radiológica deve ser econômica e eficaz.
Diretrizes
Com a duplicação dos paradigmas, há a duplicação também das diretrizes. As quatro diretrizes são: monitoramento pessoal, classificação das áreas de trabalho, níveis de
referência, e classificação dos trabalhadores.
Figura 1. Premissas para mudança do paradigma do sistema
de limitação de dose.
Revista Brasileira de Física Médica. 2009;3(1):35-41.
37
Sordi, GMAA
Monitoramento pessoal
Os dois tipos de monitoramento discutidos no item anterior, relativo aos paradigmas iniciais, são mantidos na íntegra, recebendo o nome de monitoramento pessoal.
Tanto o monitoramento do local de trabalho como o
monitoramento individual foram divididos em três, quanto
à sua função:
• controladora
• operacional
• interventora
Dizemos que o monitoramento tem função controladora quando, no caso do monitoramento do local de
trabalho, avalia a dose que será recebida pelos trabalhadores que permanecem na área, ou quando se quer mostrar que as condições de proteção não foram alteradas
com o transcorrer do tempo. No caso do monitoramento individual, a função controladora estima a dose dos
trabalhadores.
Os verbos ‘avaliar’ e ‘estimar’ serão aqui usados de
acordo com as definições da OIEA9: ‘avaliar’ quando se
trata de uma dose previsível de ser recebida, usada para
o monitoramento de área, que tem um caráter preventivo;
e ‘estimar’ quando a dose já foi recebida pelo trabalhador,
usada para o monitoramento individual, e que tem um caráter confirmatório.
Dizemos que o monitoramento é operacional quando
procura evitar, detectar e possibilitar as primeiras medidas
em desvios das situações normais de trabalho. Portanto,
não visa avaliar ou estimar a dose dos trabalhadores, que
é função do monitoramento controlador; antes, visa evitar
que o pessoal venha a tomar dose em caso de desvio da
normalidade. Para o monitoramento individual, são úteis
os dosímetros de aviso. Como as situações anormais no
trabalho são causadas por falha de equipamento ou instrumentos, ou por falhas humanas, o lógico é que esta
função do monitoramento seja exercida pelo próprio pessoal de operação da instalação – daí o seu nome.
O monitoramento com função interventora pode se
dar tanto em situação normal de trabalho como em situações anormais reais, portanto, situações já ocorridas.
Esse monitoramento tem objetivos e prazos bem definidos
e uma vez esclarecido o problema ou sanada a situação
anormal, a função interventora desaparece.
Classificação das áreas de trabalho
A definição de área livre é mantida igual ao do item a respeito dos paradigmas iniciais. Entretanto, para doses superiores aos limites do público, e para carga máxima de
trabalho de 2.000 horas por ano, a área é denominada
‘restrita’ e subdividida em duas categorias: supervisionada
e controlada.
Na área supervisionada, os valores da radiação são
inferiores a 3/10 do LAMA do trabalhador, para 2.000 horas/ano, sendo necessário um controle rígido por parte do
Serviço de Proteção Radiológica; na área controlada, os
valores de radiação são superiores a 3/10 do LAMA do
38
Revista Brasileira de Física Médica. 2009;3(1):35-41.
trabalhador para a mesma carga horária, sendo necessário apenas um controle brando.
Níveis de referência
Podemos considerar os níveis de referência como uma
das duas vigas mestras para o abaixamento dos valores
de radiação. O nível de referência é um valor da radiação
a partir do qual se torna mandatória uma ação por parte
do Serviço de Proteção Radiológica. Tanto a CIPR como
o OIEA sugerem pelo menos três níveis: nível de registro,
nível de investigação e nível de interferência.
O nível de registro é um nível de radiação a partir
do qual se torna obrigatório o seu registro por parte do
Serviço de Proteção Radiológica. Tanto a CIPR como o
OIEA recomendam, para o monitoramento individual com
função controladora, o valor de 1/10 do LAMA para trabalhador, na fração de tempo de medida do instrumento.
O nível de investigação é um valor da radiação a partir
do qual se torna obrigatória uma investigação por parte do
SPR e exige melhorias no sistema de proteção para que
a situação não se repita. Tanto a CIPR como o OIEA recomendam, para o monitoramento individual com função
controladora, o valor de 3/10 do LAMA para trabalhador,
na fração de tempo de medida do instrumento.
Uma vez que o SPR investiga os motivos das doses
elevadas acima dos 3/10 dos LAMAs do trabalhador, verifica e monta as opções de proteção que poderiam diminuir as doses e avalia os seus custos. Fazendo uso das
técnicas de ajuda para a tomada de decisão, verifica qual
é a opção ótima e a submete à autoridade competente
para aprovação. Após a implantação da opção ótima, o
SPR efetua um monitoramento para confirmação dos resultados previstos pela opção implementada.
Por fim, o nível de interferência é um valor da radiação
a partir do qual se torna obrigatória a interrupção da atividade a fim de sanar falhas graves no sistema de proteção.
Tanto a CIPR como o OIEA recomendam que, para o monitoramento individual seja tomado o valor do LAMA para
trabalhadores, recebido num único evento. É evidente que
este nível define a situação de incidente ou acidente e,
portanto, exige a ação de verificar as causas da emergência e evoca o plano de emergência radiológica para
retorno à situação normal.
Classificação dos trabalhadores
Esta classificação pode ser considerada a segunda viga
mestra para o abaixamento dos valores da radiação. Com
relação ao monitoramento individual com função controladora, os trabalhadores são classificados em duas categorias: os que se situam em condições de trabalho A e os
que se situam em condições de trabalho B.
É considerada condição de trabalho A aquela em que
o trabalhador tem possibilidade de receber doses maiores
do que os 3/10 dos LAMAs, em condições normais de
trabalho. Neste caso devem ser consideradas as horas
realmente trabalhadas em presença de radiação, e não
as 2.000 horas/ano usadas na classificação das áreas de
Evolução dos paradigmas de proteção radiológica
trabalho. tais trabalhadores necessitam de monitoramento
individual com função controladora.
É considerada condição de trabalho B aquela em que
a possibilidade do trabalhador, em condições normais de
trabalho, ultrapassar uma dose igual aos 3/10 dos LAMAs,
é remota. Neste caso, não se justifica o monitoramento
individual com função controladora.
Paradigmas internacionais atuais
Bibliografia e premissas
Os novos paradigmas internacionais foram introduzidos
pela CIPR em 199111, na publicação nº 60, em 199512 pelo
OIEA, e em 200513 pela CNEN. Suponhamos que todos
os trabalhadores em situação normal de trabalho recebam
doses inferiores aos 3/10 dos LAMAs. Nesta situação,
muita coisa deve ser alterada com relação ao módulo relativo aos paradigmas vigentes até 1995, tendo em vista as
seguintes questões:
• se todos os trabalhadores recebem doses inferiores
aos 3/10 dos LAMAs, todos eles são classificados
nas condições de trabalho B e, portanto, não existe
classificação?
• se abstrairmos das 2.000 horas/ano, base para a
classificação das áreas, e considerarmos as horas
realmente trabalhadas no local, podemos dizer que
não existem mais áreas controladas, mas unicamente
supervisionadas?
• deve-se manter o limite anual de dose para o corpo
inteiro em 50 mSv se ninguém, em condições normais
de trabalho, ultrapassa 15 mSv?
Em virtude destas novas situações, é evidente que os
paradigmas anteriores deveriam sofrer modificações, com
a provável introdução de outros; porém, antes de discutirmos os paradigmas, introduziremos as principais premissas que levaram ao novo conjunto de paradigmas:
• continua válida a ideia de que qualquer dose, por
menor que seja é prejudicial e, portanto, deve ser reduzida, uma vez que se quer reduzir a dose ao valor
aceitável que coincide com o nível de registro, isto
é, 1/10 do LAMA – equivalente a 5 mSv/ano para o
corpo todo;
• enquanto antes, quando as doses eram superiores
aos 3/10 do LAMA, havia um universo de trabalhadores muito pequeno nas condições de trabalho A, agora
esse universo passa a ser muito grande, podendo alcançar 30 ou 40% dos trabalhadores.
• os limites anteriores para trabalhadores não são justificados. Esta premissa é evidente uma vez que todos
os trabalhadores recebem doses inferiores a 3/10 dos
LAMAs.
• para os trabalhadores, não se justifica um limite anual
único para as múltiplas atividades humanas envolvendo fontes de radiação ionizante. Isto é evidenciado pelo
fato de que diferentes atividades humanas possibilitam
diferentes blindagens das fontes, bem como diferentes
espectros de dose dos trabalhadores. Doses admitidas para trabalhadores em gamagrafia, por exemplo,
não são as mesmas que aquelas admitidas pelos trabalhadores que usam pequenas fontes para avaliar a
espessura de películas de papel, nem mesmo aquelas
recebidas pelos trabalhadores administrativos envolvidos nessas atividades.
• deve-se controlar as possibilidades de ocorrência e os
valores previstos nas exposições potenciais.
Em função destas premissas, houve a necessidade
de modificar em parte os paradigmas vigentes e introduzir
outros.
Os paradigmas
O paradigma do sistema de limitação com os limites
anuais e os princípios da justificação e da otimização foram mantidos, mas para o trabalhador foi acrescentado
mais um limite. Como todos os trabalhadores apresentam doses anuais de corpo inteiro inferiores a 15 mSv,
e como neste valor de dose o erro estimado é de cerca
de 25%, teremos 15 mSv ± 4 mSv. Portanto, foi estabelecido um limite anual médio de 20 mSv, mediado sobre
cinco anos, que identificaremos como sendo o limite
anual máximo admissível médio, LAMAM. O paradigma
de manter a proteção radiológica econômica e eficaz
continua vigente.
Foi introduzido um terceiro paradigma para permitir
limites diferenciados para as diferentes atividades humanas, limites estes conhecidos como restrições de dose. E,
por fim, foi introduzido um quarto limite para a exposição
potencial14, isto é, a exposição que pode ocorrer em eventos anormais mas cuja ocorrência não pode ser garantida.
Por meios de cenários, pode-se prever uma certa probabilidade de ocorrência e uma probabilidade de ocorrer um
determinado valor da dose.
Para esta exposição potencial, foi sugerido um limite anual de risco14; e para abaixar a sua probabilidade de ocorrência e a dose prevista caso ela ocorra,
foram introduzidos os princípios da justificação e da
otimização.
Para estabelecer o limite anual de risco14, foi sugerido
que o risco anual à saúde provocado pela exposição potencial fosse, no máximo, igual ao risco provocado pelo
limite anual máximo admissível.
Diretrizes
Com o acréscimo dos novos paradigmas houve a necessidade de ampliar o número de diretrizes para cinco:
• monitoramento pessoal;
• classificação das áreas de trabalho;
• níveis de referência;
• restrições de dose;
• exposição potencial.
Estas diretrizes serão sucintamente discutidas a seguir.
Revista Brasileira de Física Médica. 2009;3(1):35-41.
39
Sordi, GMAA
Monitoramento pessoal
A única novidade no monitoramento pessoal, com relação
àquela descrita no item acerca dos paradigmas internacionalmente usados, é a eliminação do monitoramento
individual com função controladora, uma vez que todos
os trabalhadores, em condições normais de trabalho, recebem doses inferiores aos 3/10 do LAMA. Neste caso,
essa função do monitoramento individual não é justificado.
O próximo passo será chegar a doses inferiores a 1/10 do
LAMA para trabalhadores, quando será eliminado, também, o monitoramento do local de trabalho com função
controladora.
Ocorre, porém, que em 1997 a CIPR15 informa que o
monitoramento individual deve ser mantido para valores
de dose individuais entre 5 mSv a-1 e 10 mSv a -1 ou superiores, quando não há possibilidade de se efetuar a estimativa da dose individual de outra maneira.
Esta publicação também altera o nome das funções
dos monitoramentos. A função rotineira, denominada
‘controladora’, passa a ser denominada ‘de rotina’; a
função operacional passa a ser denominada ‘relacionada
com a tarefa’; e a função especial não tem o seu nome
alterado.
Classificação das áreas de trabalho
Quanto à classificação das áreas de trabalho – se omitirmos que deve ser feita com base nas 2.000 horas de
trabalho por ano, e se considerarmos as horas de permanência real pelo trabalhador –, não teremos nenhuma
área controlada, mas unicamente áreas livres ou supervisionadas. Em virtude disto, a classificação foi mantida,
mas a definição das áreas foi modificada, com exceção
feita à área livre. Desta maneira, a área livre continua sendo
aquela que obedece aos limites anuais para os indivíduos do público; a área supervisionada, por sua vez, passa
a ser aquela em que, no caso de exposições potenciais,
há unicamente possibilidade de efeitos estocásticos; e
a área controlada passa a ser aquela em que, no caso
de exposições potenciais, há possibilidade de efeitos
determinísticos.
A classificação da OIEA12 prefere continuar descrever
as áreas de trabalho em função das exposições normais.
Neste caso, a área supervisionada é aquela em que as
condições de exposições laboral são mantidas sob inspeção, ainda que medidas de proteção e fornecimento
de segurança específicos normalmente não sejam necessárias. Já a área controlada é aquela em que são ou
podem ser exigidas medidas de proteção e fornecimento
de segurança específicos para o controle das exposições
normais ou a prevenção do espalhamento da contaminação durante as condições normais de trabalho, bem como
para prevenir ou limitar as exposições potenciais.
Níveis de referência
Os níveis de referência discutidos no item acerca dos paradigmas itnernacionalmente usados são mantidos e uma
única alteração foi introduzida, no nível de investigação,
40
Revista Brasileira de Física Médica. 2009;3(1):35-41.
que passa a ser para doses superiores ao nível de registro;
tais doses vão desencadear o processo de otimização.
Restrições de dose
À medida que as doses dos trabalhadores para uma determinada atividade vão diminuindo, é importante que
se fixe uma restrição de dose para acelerar a diminuição
das doses das empresas que apresentam doses superiores. Em virtude do exposto, as restrições de dose são
estabelecidas em um valor médio entre as maiores e
menores doses das diferentes empresas para uma mesma atividade.
Exposição potencial
Esta diretriz pretende diminuir e, se possível, eliminar o
detrimento provocado pelas exposições potenciais, caso
elas se tornem reais. Para alcançar esta meta temos, no
momento, três linhas de pesquisa:
• tentar diminuir a probabilidade de ocorrência da exposição potencial;
• tentar diminuir as doses previstas, caso a exposição
potencial se torne real;
• tentar interpor barreiras que se constituam em linhas
de atraso na evolução de uma situação de exposição
potencial.
Tendências futuras próximas
No relatório anual da CIPR, referente ao ano de 1997,
informava-se que já tinha sido empreendido o trabalho
inicial para consolidar e recapitular as recomendações da
publicação 60 da CIPR11, com o propósito de publicar um
conjunto de medidas atualizadas por volta de 2005 – data
em que os países do Mercado Comum Europeu estariam
em condições técnicas de adotar essas novas normas,
partindo do pressuposto que todos os trabalhadores recebam, em condições normais de trabalho, doses anuais
inferiores a 5 mSv. Pelo que se pode avaliar, atualmente
existem três correntes se degladiando:
• a tradicionalista, isto é, aquela que predominou até
a publicação 60 da CIPR11 e as recomendações do
OIEA12, e que preconiza, para os trabalhadores, doses
inferiores à 1 mSv/ano e 0,3 mSv/ano para o público,
considerando-os valores aceitáveis;
• a baseada na otimização, que preconiza as restrições
de doses e sua diminuição, até que seja justificado
pelo processo das otimizações sucessivas;
• aquele que deseja voltar aos LAMP. Em virtude do fato
que abaixo dos 200 mSv/ano não podemos detectar
os malefícios provocados pela radiação, defende o estabelecimento de um LAMP de 30 mSv/ano tanto para
trabalhadores como para público, isto é, tal limite seria
válido para toda a população tomando o sujeito individualmente. É a corrente atualmente mais fraca, e seu
principal defensor já foi dissuadido desta ideia, porém
existe a possibilidade de voltar à tona no futuro.
Evolução dos paradigmas de proteção radiológica
A tendência mostrada pela CIPR16 no Congresso da
IRPA, realizado no Japão de 14 a 19 de maio de 2000, é
de que o processo de otimização continuará até que as
doses dos trabalhadores alcancem os limites para o público; já no Congresso realizado na Espanha em 200417, esta
tendência continuou a prevalecer.
Finalmente, em 2007 a CIPR publicou as suas novas
recomendações18. Porém, na prática não houve mudanças nos paradigmas e nas diretrizes, apesar de se encontram no detalhamento. Algumas mudanças no detalhamento são:
• uma condenação nas restrições de dose que em 12 publicações posteriores à de número 60 eram mais de 30;
• ampliação do intervalo dos valores das doses limite,
que variavam de 1mSva-1 a 50mSva-1 para a dose efetiva, para a atual variação de 0,1 mSva-1 até 100mSva-1;
• a restrição de dose deixa de ser um valor médio, entre as diferentes instalações, das doses individuais de
uma prática, passando a ser o valor de dose da opção
de proteção básica, isto é, a opção de proteção com
o maior valor de dose individual.
Conforme ocorreu com recomendações anteriores, o
OIEA já possui uma minuta para suas novas recomendações baseadas na publicação 103 da CIPR.
Agradecimentos
Agradecemos o bacharel Jefferson de Jesus Sousa
pela inestimável ajuda na confecção deste artigo.
Referências
1. International Commission on Radiological Protection. Recommendations
of the International Commission on Radiological Protection (Adopted
September 9, 1958). Publication 1. Oxford, Reino Unido: ICRP; 1958.
2. International Commission on Radiological Protection. Addendum to the
ICRP Publication. Publication 2. Oxford, Reino-Unido: ICRP; 1959.
3. International Commission on Radiological Protection. Recommendations
of the International Commission on Radiological Protection (Adopted
September 17, 1965). Publication 9. Oxford, Reino-Unido: ICRP; 1966.
4. Organismo Internacional de Energia Atômica. Basic Safety Standards for
Radiation Protection. Safety series, n. 9. Vienna, Austria: OIEA; 1967.
5. Comissão Nacional de Energia Nuclear. Normas Básicas de Proteção
Radiológica. Resolução 06/73. In: Diário Oficial da União, 19 de setembro
de 1973.
6. International Commission on Radiological Protection. Implications of
commission recommendations that doses be kept as low as readily
achievable. Publication 22. Oxford, Reino-Unido: ICRP; 1973.
7. International Commission on Radiological Protection. Recommendations
the International Radiological of Commission Protection. Publication 26.
Oxford, Reino-Unido: ICRP; 1977.
8. International Commission on Radiological Protection. Limits for intakes
of radionuclides by workers. Publications 30. Oxford, Reino-Unido: ICRP;
1978-1982.
9. Organismo Internacional de Energia Atômica. Basic Safety Standards for
Radiation Protection, Safety series, n. 9. Viena, Austria: OIEA; 1982.
10. Comissão Nacional de Energia Nuclear. Diretrizes básicas de radioproteção.
Resolução 12/88. In: Diário Oficial da União, 01 de agosto de 1988.
11. International Commission on Radiological Protection. 1990
Recommendations the International Radiological of Commission Protection.
Publication 60. Oxford, Reino-Unido: ICRP; 1991.
12. Organismo Internacional de Energia Atômica. International basic safety
standards for protection against ionizing radiation and for the safety of
radiation sources. Safety series, n. 115. Viena, Austria: OIEA; 1996
13. Comissão Nacional de Energia Nuclear. Diretrizes básicas de radioproteção.
In: Diário Oficial da União, 06 de janeiro de 2006.
14. International Commission on Radiological Protection. Commission on
Radiological Protection. Protection from potential exposure: a conceptual
framework. Publication 64. Oxford, Reino-Unido: ICRP; 1993.
15. International Commission on Radiological Protection. General principles for
the radiation protection of workers. Publication 75. Oxford, Reino-Unido:
ICRP; 1997.
16. Clarke RH. The current activities of the International Commission on
Radiological Protection. In: Proceedings of the 10th International Radiation
Protection Association Congress; 2000; Hiroshima, Japão.
17. Proceedings of the 11th International Protection Association Congress;
2004; Madrid, Espanha. 18. International Commission on Radiological
Protection. Oxford, Reino-Unido: Publication 103: ICRP; 2007.
Revista Brasileira de Física Médica. 2009;3(1):35-41.
41
Artigo de Revisão
Revista Brasileira de Física Médica. 2009;3(1):43-55.
Epidemiologia do câncer devido a radiações
e a elaboração de recomendações
Epidemiology of cancer due to radiations
and development of guidelines
Emico Okuno1
1
Professora Doutora do Departamento de Física Nuclear do Instituto de Física da Universidade de São Paulo (USP)
– São Paulo (SP), Brasil.
Resumo
Este artigo de revisão discorre sobre as comissões de proteção às radiações ionizantes e não ionizantes e sobre os processos para o estabelecimento
de recomendações de limites de exposição. Descrevemos um pouco sobre a história da criação de comissões e sobre os tipos de estudos
epidemiológicos, a partir dos quais são estimados os fatores de risco. Serão apresentados alguns resultados recentes de estudos epidemiológicos
com sobreviventes das explosões de bombas no Japão e as dificuldades inerentes. Por fim, são relatadas as recomendações internacionais em vigor.
Palavras-chave: radiações ionizantes e não ionizantes; epidemiologia; fator de risco; limites de exposição.
Abstract
This review article describes the ionizing and non-ionizing radiation protection commissions and the development processes of the guidelines for
limiting exposure to these radiations. We briefly describe the history of these commissions and the types of epidemiological studies from which the
risk factors are evaluated. Some recent results obtained from epidemiological studies of atomic bomb survivors in Japan and the inherent difficulties
will be presented. At last the current international recommendations will be presented.
Keywords: ionizing and non-ionizing radiations; epidemiology; risk factor; exposure limits.
Introdução
A elaboração de recomendações internacionais de proteção às radiações ionizantes e não ionizantes é feita por
grupos de trabalho nomeados por comitês internacionais,
que de tempos em tempos as atualizam à medida que
novos conhecimentos são obtidos. O processo para se
chegar às recomendações segue um caminho bastante
longo. Partem principalmente dos resultados de estudos
epidemiológicos e de pesquisas em laboratórios que fornecem as bases para a estimativa de riscos associados a
determinados agentes que, por sua vez, são usados para
o estabelecimento de limites de exposição.
Comissões internacionais e nacionais
Existem várias comissões internacionais, principalmente relativas às radiações ionizantes. Citarei aqui somente as mais
importantes. Essas comissões se reúnem regularmente em
intervalos de poucos anos, elaborando recomendações ou
atualizando as já existentes. As comissões trabalham em
parceria e têm relações oficiais com: Organização Mundial
da Saúde (WHO), Agência Internacional de Energia
Atômica (IAEA), Organização Internacional do Trabalho
(ILO), Comitê Científico das Nações Unidas sobre o Efeito
das Radiações Atômicas (UNSCEAR), Programa Ambiental
das Nações Unidas (UNEP), entre outros.
Radiações ionizantes: comissões internacionais
Em 1925 foi organizado o 1º Congresso Internacional de
Radiologia em Londres. Nesse evento foi criada, a pedido de radiologistas, uma comissão que foi chamada
International X-Ray Unit Committee, posteriormente mudado para International Commission on Radiological Units
and Measurements (ICRU) para elaborar grandezas e unidades com a finalidade de ‘dosar’ a quantidade de radiação usada em aplicações médicas, bem como de uniformizar procedimentos de medidas1. Os raios X haviam sido
descobertos por Roentgen em dezembro de 1895 e desde então estavam sendo amplamente utilizados no mundo
todo. Cada país media o nível de raios X com unidade
Correspondência: Instituto de Física da Universidade de S. Paulo – Rua do Matão, travessa R, 187 – CEP 05508-090 – São Paulo (SP), Brasil – E-mail:
[email protected]
Associação Brasileira de Física Médica®
43
Okuno E
própria, que diferia da que era usada em outro país, porque não havia nem grandezas físicas nem unidades de
medida com aceitação internacional. A ICRU introduziu a
primeira grandeza relativa à área, que se chamou exposição e para sua unidade o roentgen (r) em 1928, mais tarde
modificado para (R) e depois para (C/kg) no sistema internacional (SI); introduziu ainda a dose absorvida (rad) em
1953, o equivalente de dose (rem) em 1962, e suas novas
unidades no SI, o gray (Gy) em 1975 e o sievert (Sv), em
1979, respectivamente. Hoje há uma quantidade imensa
de grandezas, e para complicar, muitas delas têm a mesma unidade sievert (Sv).
No 2º Congresso Internacional de Radiologia, que se
realizou em 1928 em Estocolmo, foi criado o International
X Ray and Radium Protection Committee, cujo nome
foi mudado em 1950 para International Commission on
Radiological Protection (ICRP)2. Essa é uma comissão da
Sociedade Internacional de Radiologia. Teve por missão
elaborar guias de proteção radiológica e estabelecer limites de exposição às radiações ionizantes para indivíduos
ocupacionalmente expostos, que foram chamados trabalhadores, e para público em geral. Em 1934, os sete membros da comissão propuseram pela primeira vez o valor de
nível permissível de taxa de exposição de 0,2 r/dia. Com
o advento do Projeto Manhattan, a questão da proteção
radiológica se tornou importante e em 1952, na reunião
da comissão compareceram geneticistas de sete países,
quando alteraram o limite para 0,3 r/semana para trabalhadores. A recomendação mais recente relativa à proteção radiológica está na ICRP Publicação 103: The 2007
Recommendations of the International Commission on
Radiological Protection3, que substituiu a ICRP Publicação
60 de 19904, que por sua vez substituiu a ICRP Publicação
26 de 19775 e assim por diante.
Radiações ionizantes: comissão nacional
Cada país tem um órgão que faz adequações nas recomendações internacionais e as adota para regulamentar
o uso das radiações. No Brasil, tal órgão é a Comissão
Nacional de Energia Nuclear (CNEN), que foi criada através do Decreto 40.110 em 10 de outubro de 1956. Em
setembro de 1973, a CNEN elaborou as “Normas básicas
de proteção radiológica”, cuja atualização mais recente é
o documento NN-3.01, “Diretrizes básicas de proteção radiológica”, de janeiro de 2005 e publicada no Diário Oficial
da União em 18 de janeiro de 2006. Esta norma é uma tradução com adaptação da ICRP Publicação 60 de 19904.
Radiações não ionizantes: comissão internacional
A International Radiation Protection Association (IRPA)
foi fundada em 1964 sob o patrocínio da Health Physics
Society dos Estados Unidos, à qual a Associação Brasileira
de Física Médica se filiou em 1989. Uma de suas funções
é organizar congressos regionais e internacionais.
Em junho de 1974, a IRPA formou um grupo de trabalho para realizar pesquisas em radiações não ionizantes a
fim de elaborar guias. Em 1977, no 4º Congresso da IRPA,
44
Revista Brasileira de Física Médica. 2009;3(1):43-55.
em Paris, esse grupo recebeu o nome de International
Non-Ionizing Radiation Committee (INIRC). E em 1992, no
8º Congresso da IRPA, em Montreal, o nome do grupo foi
mudado para International Commission on Non-Ionizing
Radiation Protection (ICNIRP). Ela trabalha em colaboração com a WHO, o UNEP, a Agência Internacional de
Pesquisa em Câncer (IARC), a Organização Meteorológica
Internacional (WMO), entre outros. Para cada faixa da onda
eletromagnética não ionizante, englobando a radiação ultravioleta, visível, infravermelha, micro-ondas e radiofrequência
e frequência baixa, é constituído um subcomitê especializado para a elaboração das recomendações de proteção.
A elaboração das recomendações e o estabelecimento de limites de exposição das radiações não ionizantes
seguem um organograma complexo. A ICNIRP forma um
grupo de experts de diferentes áreas, que analisa e faz revisão de todos os artigos científicos publicados até então
em Epidemiologia, Biologia, Física e Dosimetria, separando
aqueles que são confiáveis dos não confiáveis, por falta de
dados, por exemplo. Concomitantemente, a IARC elabora
monografia na qual identifica e classifica agentes, substâncias, fatores ambientais ou estilo de vida que podem aumentar o risco de seres humanos a terem câncer. A IARC
classifica os agentes em grupos: 1 – carcinogênico, 2A –
provavelmente carcinogênico, 2B – possivelmente carcinogênico, 3 – não carcinogênico e 4 – provavelmente não carcinogênico. No grupo 2A estão os agentes que apresentam
forte evidência de correlação com câncer, porém ainda não
conclusivos e no grupo 2B, os agentes com alguma evidência de correlação com câncer, mas ainda longe de se
chegar à conclusão. Após a realização dessas duas comissões, a Divisão de Saúde Ambiental da WHO elabora
um documento completo chamado Environmental Health
Criteria (EHC). Esse inclui uma visão geral das características físicas, técnicas de medida e instrumentação, fontes e
aplicações das radiações, uma análise completa da literatura sobre efeitos biológicos e uma avaliação dos riscos à
saúde devido à exposição às radiações não ionizantes de
cada faixa. Só depois é que a ICNIRP elabora as recomendações internacionais com os limites de exposição.
O EHC 1606 relativo à Radiação Ultravioleta (RUV),
por exemplo, foi publicado em 1994 sob o patrocínio da
UNEP, ILO, ICNIRP e WHO. A IARC, por sua vez, elaborou
a monografia Solar and Ultraviolet Radiation em 19927, na
qual classificou a radiação solar no grupo 1 e as radiações
UVA, UVB e UVC no grupo 2A; também publicou outra
monografia sobre protetores solares em 20018. As últimas
recomendações para a RUV da ICNIRP foram publicadas
em 20049, que substituíram as de 1996.
Com relação às ondas eletromagnéticas de frequência
alta e campos eletromagnéticos de 50 a 60 Hz, a IRPA/
INIRC havia emitido as recomendações respectivamente
em 1988 e 1990, que foram atualizadas em 1998 pela
recomendação ICNIRP, atualmente em vigor: Guidelines
for limiting exposure to time-varying electric, magnetic,
and electromagnetic fields (up to 300 GHz)10. A ICNIRP
continua desde então trabalhando no sentido de que essa
Epidemiologia do câncer devido a radiações e a elaboração de recomendações
Radiações não ionizantes: comissão nacional
Não há nenhum órgão responsável para a elaboração das
recomendações de proteção e de estabelecimento de limites de exposição a radiações não ionizantes no Brasil.
Em 2 de julho de 2002, a Agência Nacional de
Telecomunicações (ANATEL) apresentou a resolução 303,
que aprova o Regulamento sobre limitação da exposição a
campos elétricos, magnéticos e eletromagnéticos na faixa
entre 9 kHz e 300 GHz, além de um anexo a essa resolução baseado nas recomendações da ICNIRP10. Em 5 de
maio de 2009 foi decretada a lei 11.934 pela Presidência
da República, que estabelece limites de exposição humana a campos elétricos, magnéticos e eletromagnéticos,
associados ao funcionamento de estações transmissoras de radiocomunicação, de terminais de usuário e de
sistemas de energia elétrica na faixa de frequência até
300 GHz, visando garantir a proteção da saúde e do meio
ambiente. Os limites são os mesmos da ICNIRP10.
Quanto à radiação ultravioleta, há portarias relativas
somente ao bronzeamento artificial: CVS-02 do Estado de
São Paulo de janeiro de 2000 e CVS-12 de dezembro de
2000, e a Resolução 308 da ANVISA; esta, publicada no
Diário Oficial da União em 5 de dezembro de 2002, obriga
os fornecedores de câmaras de bronzeamento e os estabelecimentos que as usam a atenderem as prescrições da
NBR IEC 60335-2-27, sendo uma delas a de apresentar
laudo de espectro radiométrico.
Epidemiologia
A epidemiologia – palavra que vem do grego epi (sobre) +
demos (população) + logos (estudo) – trata de epidemias*,
30
Excesso de mortes por ano
recomendação seja harmonizada, isto é, usada por todos
os países do mundo. Entretanto, isso não aconteceu pois
alguns países rejeitaram essas recomendações e abaixaram os limites de exposição, principalmente no que se
refere às micro-ondas emitidas por antenas de telefonia
celular. Outra grande preocupação se refere ao campo
magnético de 60 Hz, desde que foi classificado em 1992
pela IARC – na monografia Non-ionizing radiation, part 1:
static and extremely low frequency (ELF) electric and magnetic fields11 – como pertencente ao grupo 2B, ou seja,
como agente possivelmente carcinogênico.
A WHO iniciou o International Electromagnetic Field
Project em 1996 para coletar evidências científicas dos
possíveis efeitos biológicos dos campos elétricos e magnéticos e eletromagnéticos de 0 a 300 GHz. Muito já foi realizado e a programação é a seguinte: o documento EHC
para campos de frequência extremamente baixa, cuja publicação estava prevista para 2003, foi efetivada em 2007,
e a ICNIRP espera apresentar as recomendações ainda
em 2009; quanto ao documento EHC para campos eletromagnéticos de radiofrequência cuja publicação, originalmente prevista para 2006, foi prorrogada para 2011 e
as recomendações da ICNIRP ficaram para 2012.
Câncer sólido
20
10
Doenças (não-câncer)
leucemia
0
1945
1965
1985
2005
2025
Ano
Fonte: RERF (Radiation Effects Research Foundation), 200515
Figura 1. Mortalidade relacionada à radiação ionizante no Estudo do tempo de vida (life span study) com os sobreviventes das
bombas atômicas acompanhados de 1950 a 1997.
de padrões de doença tais como quem é portador de uma
dada doença e porque tem essa doença, e é o estudo do
que ocorre em uma dada população12-14.
O grande temor das pessoas com relação a algum tipo
de radiação é a indução de câncer, que surge muitos anos
após a exposição e que é denominado efeito estocástico.
O tempo de latência médio entre a exposição à radiação
ionizante e a detecção do excesso de mortes com leucemia em Hiroshima foi de 2 anos e o pico foi alcançado
(7 ± 1) anos após a explosão da bomba. Entretanto, no
caso de cânceres sólidos, o tempo de latência médio pode
ser de mais de 50 anos, como se pode ver na Figura 1.
Assim, a correlação entre a exposição à radiação e câncer
só pode ser feita através de estudo epidemiológico. Isso
porque a epidemiologia se propõe a medir a influência de
vários agentes, do estilo de vida, dos hábitos alimentares,
da genética e mesmo de medicamentos que devem ser
tomados durante toda a vida, na saúde humana e investiga a existência ou não de uma associação entre uma dada
doença e um determinado agente.
Desde meados do século 19, a Medicina tenta descobrir a existência de correlação entre o ambiente, o modo de
vida, a genética e o surgimento de determinadas doenças.
Com o avanço da estatística e dos métodos de diagnóstico
e com milhares de participantes honestos é que surgiram os
primeiros estudos importantes em epidemiologia. Um estudo epidemiológico prospectivo importantíssimo, ainda em
andamento, é o Framingham Heart Study16 que se iniciou
em 1948 e foi coordenado pela Universidade de Harvard e
pelo Instituto Nacional de Saúde dos Estados Unidos. Isso
porque, no fim da década de 40, a maior causa de morte
nos Estados Unidos já eram os distúrbios cardiovasculares
e o número de mortes aumentava a cada ano, transformando-se em epidemia. Além disso, pouco se sabia sobre as
causas de infarto, por exemplo, e o estudo teve por um
* De acordo com o Novo Dicionário Aurélio, epidemia é uma doença que
surge rapidamente em um lugar e acomete simultaneamente grande
número de pessoas; a endemia, por sua vez, é uma doença que existe
constantemente em determinado lugar e ataca número maior ou menor de
indivíduos; a pandemia é uma epidemia generalizada.
Revista Brasileira de Física Médica. 2009;3(1):43-55.
45
Okuno E
dos objetivos a identificação de fatores que contribuem nas
doenças cardiovasculares. A maior parte dos cardiologistas
acreditava que a aterosclerose, assim como o aumento da
pressão arterial, era uma consequência inevitável do envelhecimento. Esse estudo teve por participante quase toda
a população de Framingham, cidade-dormitório a 50 km
de Boston, Estados Unidos. Eles assumiram o compromisso de se submeterem a repetidos testes e responderem a
questionários de tempos em tempos por toda a vida, para
determinar os fatores de risco para derrames e infartos. Em
1971, a segunda geração entrou como participante e em
2002, a terceira geração foi recrutada. Os conhecimentos
adquiridos durante todos esses anos apontam que os principais fatores de risco cardiovasculares são: pressão arterial
alta, nível alto de colesterol, tabagismo, obesidade, diabetes mellitus e sedentarismo. Além disso, apontam também
que hábitos de vida saudável podem reverter ou retardar
doenças cardíacas, e que há relação entre vírus e bactérias
e incidência de doenças cardiovasculares. Outras informações importantes sobre a demência, osteoporose, artrite,
diabetes e câncer também foram obtidas. Atualmente os
pesquisadores estão com a atenção voltada aos genes responsáveis pelo metabolismo do colesterol e o papel dos
fatores genéticos nas doenças cardiovasculares.
Objetivo da epidemiologia
O principal objetivo da epidemiologia é a determinação de
causa e efeito relativos aos agravos à saúde. Tem como
meta verificar se os resultados estatísticos indicam a presença de uma verdadeira associação causal e estimar o
risco de um dado agente à saúde. Entretanto, um resultado estatisticamente significativo ainda não prova que a
associação seja necessariamente de causa e efeito.
Para determinar se um dado agente, também denominado fator de risco (fumo, radiação ionizante, radiação UV,
amianto etc.) causa doença, há alguns critérios principais
que os epidemiologistas usam: temporalidade, consistência, resposta à dose, plausibilidade etc.
• Temporalidade: significa que a exposição deve preceder a ocorrência de doença. Uma pessoa, ao descobrir que está com câncer de pulmão, fica nervosa e
começa a fumar. Nesse caso, o fumo não é a causa
do câncer. Entretanto, em muitos estudos, os epidemiologistas coletam informações após ambas as
ocorrências: exposição e doença, esquecendo-se da
temporalidade.
• Consistência: significa que o mesmo tipo de efeito é
verificado por pesquisadores de diferentes localidades.
A relação entre fumo e câncer de pulmão foi estudada
de 1950 a 1990 por diferentes autores na população
feminina e masculina separadamente, e em raças diferentes, e todos chegaram à conclusão de que o fumo é
agente carcinogênico, causador de câncer pulmonar.
• Resposta à dose: significa que quanto maior a dose,
maior é o efeito. No caso do fumo foi também demonstrado que quem fuma mais tem maior risco de
ter câncer do pulmão.
46
Revista Brasileira de Física Médica. 2009;3(1):43-55.
• Plausibilidade: se houver uma explicação científica
plausível sobre o processo de interação que causa
câncer, como a ionização, maior é a credibilidade na
associação causal entre a doença e aquele agente. No
que se refere às micro-ondas de telefonia celular, até
hoje não há conhecimento científico plausível quanto
ao processo de indução de câncer. Essas ondas não
possuem energia suficiente para ionizar, que é o primeiro estágio do dano na molécula de DNA que pode
resultar em câncer.
Principais tipos de estudos epidemiológicos
A seguir descreveremos resumidamente dois dos principais tipos de estudos epidemiológicos.
Estudo caso-controle
Esse estudo responde à pergunta: por que eu? Por que
aconteceu comigo? Por que certas pessoas ficam doentes (casos) e por que outras não (controle)? O estudo caso-controle é em geral retrospectivo, desde que a história
de exposição a um agente no passado seja avaliada. Uma
vez que os objetivos do estudo são definidos, começase a identificação dos casos (doentes) e dos respectivos
controles (não doentes). Tradicionalmente a comparação
é expressa em termos de proporção de casos versus proporção de controles, ambos mostrando uma característica particular. Ou seja, trata-se de verificar a possibilidade
de diferenças nas proporções de indivíduos expostos entre os doentes e entre os não doentes. Se encontrar uma
frequência maior de indivíduos expostos entre os casos
do que entre os de controle, pode-se deduzir que há uma
associação entre a doença e o agente ao qual as pessoas
estudadas estiveram expostas.
Nesse tipo de estudo determina-se o odds (chance,
probabilidade), que é uma razão de probabilidades. O
Odds Ratio (OR), também chamado razão de produto
cruzado, é uma razão entre odds, ou uma razão entre as
razões de probabilidades e é associado à probabilidade
de exposição. A partir dos dados da Tabela 1, podemos
escrever a Equação 1, através da qual se determina a
Odds Ratio.
(1)
O Odds Ratio é uma grandeza adimensional; se OR=1,
significa que não há associação entre o agente em questão e o evento; se OR>1, significa que a associação é positiva e que quem é doente provavelmente esteve exposto
ou mais exposto a um dado agente do que quem não é
doente; e se OR<1, a associação é negativa e o agente
tem um papel protetor.
Estudo coorte
O estudo coorte seleciona indivíduos baseados em nível de exposição, sendo que nenhum deles está doente
quando se inicia o estudo. É um estudo longo, diferente
Epidemiologia do câncer devido a radiações e a elaboração de recomendações
do caso-controle, que é bem mais curto. Em geral é um
estudo prospectivo que acompanha a partir de uma data,
durante muitos anos, um grupo de pessoas que sabidamente estiveram expostas ao fator suspeito em diferentes níveis, ou um grupo exposto e outro não exposto ou
menos exposto. À medida que se prossegue o estudo, o
pesquisador vai contabilizando o aparecimento da doença. Um exemplo é a verificação do surgimento de casos
de leucemia em crianças que estiveram expostas à radiação ionizante ainda no útero.
Os dados coletados consistem de informação sobre
o grau de exposição dos indivíduos e o aparecimento e
desenvolvimento de uma dada doença. Esses dados são
tabulados conforme a Tabela 2.
A taxa de incidência entre os expostos é a/(a+b)=Ie e a
taxa entre os não expostos é c/(c+d)=I0. O epidemiologista
está interessado em determinar se a taxa de incidência
entre os expostos é maior que a taxa entre os não expostos, ou seja, se a/(a+b)>c/(c+d). Se isso ocorrer é porque
há uma associação entre o agente ao qual essas pessoas estiveram expostas e o subsequente aparecimento da
doença. A pergunta seguinte é quão forte é essa associação. Para responder a essa pergunta, calcula-se o Risco
Relativo ou o Risco Proporcional (RR), que é uma medida
da intensidade de associação em um caso observacional.
Portanto, o Risco Relativo pode ser calculado, dividindo a
taxa de incidência de uma dada doença entre indivíduos
expostos, Ie pela taxa de incidência dessa mesma doença
entre indivíduos não expostos, I0,, através da Equação 2.
(2)
O RR é uma grandeza adimensional; se o RR=1, não
há associação entre a presença de um agente e o evento; se RR>1, a associação é positiva e a presença desse
agente se associa a uma maior ocorrência de evento; e se
RR<1, a associação é negativa.
O RR é útil porque nos diz quantos casos extras de incidência da doença são esperados em uma população específica nos próximos anos, sabendo-se a exposição e o fator
de risco correspondente. Calculam-se também a variância,
os limites de confiabilidade e realizam-se os testes estatísticos. A interpretação dos valores de RR está na Tabela 3.
Mesmo que o RR esteja entre 1 e 3, na categoria de
associação muito fraca ou fraca, se a quantidade de indivíduos envolvidos for grande, a pesquisa epidemiológica
torna-se importante.
O OR e o RR são equivalentes no caso de doenças
relativamente raras, o que é verdade para muitas doenças
crônicas que acometem menos do que 1 a 5% da população em observação durante vários anos, que é o caso
de câncer.
Podemos definir ainda o Risco Absoluto (AR), que é a
probabilidade, comumente medida em porcentagem, de
uma pessoa desenvolver uma doença ou morrer, em certo
Tabela 1. Caracterização do banco de dados para estudo epidemiológico do tipo caso-controle.
Exposição
Expostos
Não expostos
Total
Número de doentes
(casos)
a
c
a+c
Número de pessoas sem
a doença (controle)
b
d
b+d
Tabela 2. Caracterização do banco de dados para estudo epidemiológico do tipo coorte.
Característica etiológica
ou exposição
Presente (expostos)
Ausente (não expostos)
Ficaram
doentes
a
c
Não ficaram
doentes
b
d
Total
a+b
c+d
Tabela 3. Interpretação do Risco Relativo
Risco Relativo (RR)
>3
Entre 2 e 3
Entre 1 e 2
1
<1
Interpretação
Associação forte
Associação fraca
Associação muito fraca
Não há associação
Associação negativa (efeito protetor)
intervalo de tempo. O AR é importante para estimar a porcentagem de uma população que é a de risco com relação
a um dado agente.
A publicação da ICRP3 emprega ainda as grandezas
Excesso de Risco Relativo (ERR), sendo ERR=1-RR, e
Excesso de Risco Absoluto (EAR), sendo EAR=1-AR, e o
Coeficiente de Risco Nominal medido em Sv-1, que é a estimativa de risco para efeitos estocásticos, isto é, câncer e
efeitos hereditários.
Qualquer estudo epidemiológico devido a doses baixas deve ser feito com um número muito grande de indivíduos. Comumente, o estudo é feito com centenas de indivíduos, ou, na melhor das hipóteses, com alguns milhares,
de modo que a estatística pode não ser confiável.
Na história da epidemiologia, somente cerca de uma
dúzia de agentes ambientais têm sido repetida e fortemente ligados ao câncer humano. Entre eles podemos citar o
fumo, o álcool, a radiação ionizante, a ocupação ligada a
asbestos, o vírus da hepatite B, o vírus HTLV-1 da leucemia de célula T humana e o papilomavírus humano (HPV).
A determinação da relação entre exposição à radiação ionizante e incidência de câncer nos sobreviventes
das bombas atômicas é feita através de estudo epidemiológico do tipo coorte. Esse estudo vem fornecendo as
informações mais confiáveis e acumulando dados desde
1947.
Atomic Bomb Casualty Commission e Radiation
Effects Research Foundation
Dois anos após a explosão das bombas atômicas no
Japão, em 1947, a Atomic Bomb Casualty Commission
Revista Brasileira de Física Médica. 2009;3(1):43-55.
47
Okuno E
(ABCC) se estabeleceu em Hiroshima e no ano seguinte
em Nagasaki, sob os auspícios da United States National
Academy of Sciences para começar os estudos epidemiológicos de longa duração de efeitos das radiações ionizantes nos sobreviventes das duas cidades17. Era um trabalho
de colaboração entre Estados Unidos e Japão. Em 1975,
a ABCC foi substituída pela Radiation Effects Research
Foundation (RERF)15, que é uma fundação japonesa sem
fins lucrativos, administrada com fundos iguais dos governos do Japão e dos Estados Unidos. A RERF vem desenvolvendo uma série de pesquisas desde então, sendo
seus principais temas: estudo do tempo de duração da
Tipo de câncer
bexiga
câncer sólido
mama fem
pulmão
cérebro
tireoide
colo
esôfago
ovário
estômago
fígado
pâncreas
reto
câncer de pele não melanoma
útero
próstata
1,0
2,0
1,5
2,5
3,0
Risco Relativo
Fonte: adaptado de Preston et al.18
Figura 2. Risco Relativo para a incidência de câncer obtido com
o estudo epidemiológico sobre tempo de duração de vida entre
os sobreviventes das bombas no Japão. As linhas horizontais
indicam intervalo de confiança de 90%.
Doenças
mioma uterino
doença na tireoide
cálculo no rim
demência
doença no fígado
infarto do miocárdio
catarata
derrame
aneurisma aórtico
hipertensão
doença cardíaca
úlcera gástrica
doença de Parkinson
glaucoma
0,75
1,00
1,25
1,50
1 ,75
2,00
Risco Relativo
Fonte: adaptado de Yamada et al.19
Figura 3. Risco Relativo para a incidência de outras doenças
que não câncer entre os 10.000 sobreviventes das bombas em
Hiroshima e Nagasaki que receberam dose de 1 Gy obtido através do estudo da saúde de adultos de 1958 a 1998. As linhas
horizontais indicam intervalo de confiança de 95%.
48
Revista Brasileira de Física Médica. 2009;3(1):43-55.
vida (Life Span Study - LSS), Estudo da saúde de adultos, estudo de patologias e Estudo de mortalidade, entre
outros. Um documento publicado em 2008 pela RERF diz
que, embora já se passaram mais de 60 anos, ainda serão
necessários mais 40 anos para completar o estudo epidemiológico dos efeitos das radiações nos sobreviventes.
A pesquisa sobre LSS acompanhou e continua acompanhando mais de 200.000 sobreviventes das explosões
das bombas de Hiroshima e Nagasaki e seus descendentes. O principal objetivo da pesquisa é correlacionar a mortalidade e a incidência de câncer induzido pela radiação
ionizante com o grau de exposição. Esse estudo epidemiológico é o mais importante do mundo pelo tamanho
da população considerada, duração da pesquisa e dados
minuciosamente registrados ano após ano. Vários resultados importantes continuam sendo obtidos e eles são usados para estimar o grau de risco da radiação ionizante na
saúde humana. A Figura 2 mostra o RR normalizado para
a incidência de câncer em diferentes órgãos, induzido por
uma dose de 1 Gy recebida aos 30 anos e detectado aos
70 anos18.
Um outro resultado novíssimo de epidemiologia foi obtido com o Estudo da saúde de adultos de 1958 a 1998.
Ele se refere a um aumento na incidência de outras doenças que não câncer entre os sobreviventes da explosão
das bombas no Japão que receberam dose absorvida de
1 Gy. A Figura 3 mostra o RR para a incidência de várias
doenças que não câncer devido à radiação ionizante.
A Figura 4, por sua vez, mostra o RR para a mortalidade que resulta de outras doenças que não câncer entre
os sobreviventes das bombas no Japão, obtido através
do Estudo LSS e do Estudo da saúde do adulto, principalmente quando a exposição ocorreu em tenra idade. O
aumento de mortalidade é estatisticamente significativo
para todas as doenças que não cânceres, especialmente
doenças cardiorrespiratórias, derrames e doenças digestivas em pessoas que receberam dose absorvida de 1 Gy.
Atualmente, são estudados os possíveis mecanismos biológicos relacionados com a aterosclerose, causada pela
radiação ionizante. Os efeitos tardios em pessoas que se
submeteram a radioterapia na região do tórax também
estão sendo coletados e acumulados para fins de comparação. Esses dados serão muito importantes porque em
radioterapia as doses são bem conhecidas.
Dificuldades inerentes aos estudos epidemiológicos
Há várias dificuldades em estudos epidemiológicos: os
vieses, o tamanho da população a considerar, a determinação da ‘dose’ a que a população é exposta, a influência
do sexo, da idade das pessoas, entre outros.
Os vieses são outros fatores ou agentes que podem
influenciar na determinação de risco e que não foram considerados21. No que se refere ao tamanho da população,
ele deve ser tanto maior quanto menor for a dose (ou o
efeito), e muitas vezes não é fácil encontrar a população
de controle que não é exposta ou pouco exposta a um
dado agente, como é o caso de exposição a micro-ondas
Epidemiologia do câncer devido a radiações e a elaboração de recomendações
de telefonia celular. No caso da radiação ionizante, o tamanho da população necessário para detectar excesso
de risco associado com probabilidade de 80% com nível
de significância de 5% é estimado como sendo de 61,8
milhões de indivíduos para dose de 1 mGy, de 620 mil
para dose de 10 mGy e de 6.390 para dose de 100 mGy
etc., segundo a ICRP Publicação 9922.
Uma das maiores dificuldades é a estimativa de dose
recebida pelas pessoas do público que não usavam dosímetros e que foram expostas à radiação. No caso dos campos magnéticos de 60 Hz, o estudo epidemiológico correlacionando câncer infantil começou com Nancy Wertheimer
e Ed Leeper em 197923, que consideraram a configuração
dos fios elétricos nas casas em Denver para especificar a
dose. O acidente de Chernobyl expôs à radiação ionizante
tanto externa quanto internamente a maior população na
história de acidentes até hoje, mas não há como determinar a dose recebida individualmente. As cidades europeias
foram contaminadas de forma muito diferente, dependendo
da meteorologia na ocasião, como a direção do vento que
levou a poeira radioativa e as chuvas localizadas.
A primeira tentativa para estimar as doses recebidas
pelos sobreviventes das bombas atômicas explodidas no
Japão foi iniciada em 1957 pelos pesquisadores da Oak
Ridge National Laboratory, cujo sistema de dosimetria recebeu o nome de T57D15,24,25. As cidades foram divididas
em regiões por meio de círculos concêntricos com raios
de 500 m, 1.000 m, 1.500 m etc., tendo como centro o
hipocentro, que é o ponto em que uma linha perpendicular traçada do local da explosão da bomba atinge o solo.
A dose individual seria estimada coletivamente por faixas, através de informação do próprio sobrevivente sobre
sua posição na hora da explosão, se estava entre 500 e
1.000 m, por exemplo, do hipocentro. Para isso, explodiram bombas no deserto de Nevada, principalmente para
avaliar o grau de blindagem da radiação pelas residências e prédios, e também para avaliar os campos de radiação que resultaram da explosão. Para tal, construíram
residências similares àquelas japonesas, com paredes
de madeira, com fantomas portando dosímetros no interior delas, e as colocaram nas proximidades dos locais
das explosões. Foram feitas as dosimetrias de radiação
gama e de nêutrons. Sendo esse sistema bastante rudimentar, ele foi substituído posteriormente pelo sistema
dosimétrico T65D15,24,25 realizado pelos pesquisadores da
Oak Ridge National Laboratory em colaboração com os
do Los Alamos National Laboratory. Ambos eram ainda
métodos tentativos e empíricos baseados em medidas
nucleares e continham muitas dúvidas quanto à altura e
ao hipocentro da explosão das bombas, além de incoerências encontradas entre os resultados previstos e medidos e de efeitos entre os sobreviventes de Hiroshima e
Nagasaki. Com o avanço na tecnologia de computação,
decidiram levar avante um novo sistema dosimétrico,
agora em colaboração entre Estados Unidos e Japão,
que foi denominado DS8624,25. As doses absorvidas (Gy)
estimadas em Hiroshima pelo T65D e DS86 a 1.485 m
do hipocentro podem ser vistas na Tabela 4. Nota-se
que a dose devida a nêutrons no DS86 em relação a
T65D abaixou de um fator ao redor de 10, mas a devida
à radiação gama aumentou entre 1,5 e 2,0. Em ambos
os sistemas, a blindagem diminuiu de 2,5 a 3,0 vezes a
dose devida a nêutrons, e a devida à radiação gama, de
1,1 a 1,7 em um indivíduo por ter estado em ambiente
interno em vez de a céu aberto. O excesso de cânceres sólidos, por outro lado, havia dobrado em estatística de 1985 em relação a de 1975. O excesso de morte
com câncer entre os sobreviventes acompanhados de
1950 a 1985 foi estimado como sendo de: 13,1×10-4/
(pessoa∙ano∙Gy).
Esses dados foram muito importantes quando a ICRP
decidiu atualizar em 1990 as recomendações de ICRP
Publicação 26 de 19775. O limite anual recomendado para
trabalhadores, para limitar a probabilidade de ocorrência
de efeito estocástico que era de 50 mSv/ano, passou a
ser de 20 mSv/ano na ICRP Publicação 60 de 19904 – um
abaixamento drástico.
Entretanto, os pesquisadores perceberam que o DS86
ainda tinha algumas falhas à medida que começou a ser
usado. Para distâncias maiores que 1,5 km do hipocentro
todas as doenças não câncer
doenças cardíacas
derrame
doenças respiratórias
doenças digestivas
doenças infecciosas
outras doenças
0,8
1,0
1,2
Risco Relativo
Fonte: adaptado de Preston et al.20.
Figura 4. Risco Relativo de mortalidade devido a outras doenças que não câncer. As linhas horizontais indicam intervalo de
confiança de 90%.
Tabela 4. Estimativa de dose (mGy) em Hiroshima feita pelo
T65D e DS86 a 1.485 m do hipocentro a céu aberto, em ambiente interno e na medula óssea
Local
Céu aberto
Ambiente
interno
Medula
óssea
Nêutron Nêutron
T65D
DS86
120
9,3
34
3,7
9,5
1,1
Gama
T65D
240
210
Gama
DS86
517
308
Total
T65D
360
244
Total
DS86
526
312
130
244
140
245
Fonte: adaptado de Kaul DC24
Revista Brasileira de Física Médica. 2009;3(1):43-55.
49
Okuno E
em Hiroshima, a quantidade de nêutrons calculada não
estava de acordo com valores medidos. Surge assim,
em 2002, um novo sistema de dosimetria denominado
DS0215,25. Foram efetuadas simulações computacionais
para melhor determinar o local de explosão da bomba,
o tipo e a quantidade de radiação liberada, seu transporte no ar e sua atenuação através de diversos meios.
Os dados assim obtidos foram validados com medidas
experimentais de termoluminescência, e de ativação de
elementos por nêutrons térmicos e rápidos em diversos
laboratórios especializados do mundo.
Com DS0215,25 muitas dúvidas foram sanadas, e as
doses individuais estimadas não ficaram muito diferentes
daquelas obtidas com DS86. Entretanto, as doses nas
pessoas continuam tendo uma incerteza inerente de cerca de 35% por várias razões: possível imprecisão na informação reportada pelos sobreviventes de onde e como
estavam no exato momento da explosão além do valor do
rendimento da bomba e das características da radiação
emitida que só são conhecidos através de estimativas.
Há ainda um outro fator que dificulta a obtenção do
coeficiente de risco: as doses e as taxas de dose nos sobreviventes das bombas são muito mais altas que aquelas
as quais estamos expostos no nosso dia-a-dia. Assim, foram desenvolvidos modelos para poder extrapolar os riscos de doses baixas e taxas de dose baixa (RDTDB) a partir dos riscos de doses altas e taxas de dose alta (RDTDA).
Introduziram o que se chamou DDREF (dose and dose
rate effectiveness factor) que é um número que deve ser
usado para dividir o RDTDA para se estimar o RDTDB. Ele
é obtido dividindo o coeficiente angular da reta que ajusta
os dados de efeitos versus dose alta, usando o modelo
linear sem limiar, pelo coeficiente angular da reta que ajusta a região de dose baixa. Os valores de DDREF obtidos
variam muito de 2 a 10, dependendo do tipo de tumor e
do modelo usado para correlacionar o efeito (morte ou incidência de câncer) versus dose. A ICRP Publicação 1033
recomenda o uso do valor 2,0 para DDREF e reconhece
que há muitas incertezas.
O estado da arte
A seguir transcrevemos as recomendações em vigor elaboradas pelas comissões internacionais para as radiações ionizantes, radiação ultravioleta, campos elétricos e
magnéticos estáticos e de 60 Hz e campos eletromagnéticos de radiofrequência, com comentários. A forma
para o estabelecimento de limites de exposição tanto para
radiações ionizantes quanto para as não ionizantes tem
certa similaridade. As grandezas usadas para limitação
primária não são mensuráveis e se relacionam com os
efeitos biológicos no corpo humano. Para saber se a recomendação está sendo cumprida, outras grandezas mensuráveis necessitam ser introduzidas. Os limites de dose,
que já chegaram a ser chamados limites máximos permissíveis, de uma forma geral, são inicialmente estabelecidos
para indivíduos ocupacionalmente expostos. O valor da
limitação para público é obtido, geralmente, dividindo-se o
valor ocupacional por um fator 20 ou 10 ou 5, dependendo do caso. As recomendações levam em conta somente
os efeitos comprovados e os efeitos tardios e agudos ou
somente os agudos.
Radiações ionizantes: recomendações da ICRP
Publicação 103
A ICRP introduziu o conceito de detrimento, em vez de
morte ou incidência de câncer, como medida de dano total
à saúde experimentado por um grupo de pessoas e seus
descendentes devido à exposição à radiação, à medida
que vários tipos de câncer começaram a apresentar curas.
Esse conceito leva em conta o fato de um indivíduo ser acometido por um câncer fatal, ponderado pela probabilidade
de ter um câncer não fatal e pela probabilidade de ter graves efeitos hereditários além de anos de vida perdidos.
O risco de detrimento ou risco fatal (de morte) R de
indivíduos expostos à radiação com dose efetiva E (Sv)
pode ser calculado através da Equação 3:
R = f×E
(3)
onde:
f (Sv-1) é o fator de risco ou coeficiente de probabilidade
de risco nominal expresso em número de casos ocorridos
por unidade de dose.
Os coeficientes f de probabilidade de risco nominal
para efeitos estocásticos ajustados ao detrimento e usados pela ICRP de 19904 e de 20073 estão na Tabela 5. É
importante observar que quase não houve alteração nos
coeficientes para câncer, mas para efeitos hereditários os
novos coeficientes abaixaram muito. Isso porque, por ora,
não encontraram evidência de aumento de danos genéticos nos descendentes dos sobreviventes das bombas
atômicas no Japão.
Uma vez conhecidos os coeficientes de risco nominal,
e decidindo um valor de risco R que seria considerado
aceitável, pode-se calcular o valor de dose efetiva para
limitar os efeitos estocásticos.
Tabela 5. Coeficientes de risco nominal para efeitos estocásticos ajustados ao detrimento (10-2 Sv-1)
População exposta
População toda
Trabalhador adulto
Câncer fatal + não fatal
ICRP 2007
ICRP 1990
5,5
5,0 + 1,0
4,1
4,0 + 0,8
Fonte: publicação ICRP 604 e ICRP 1033.
50
Revista Brasileira de Física Médica. 2009;3(1):43-55.
Efeitos hereditários
ICRP 2007
ICRP 1990
0,2
1,3
0,1
0,8
Total
ICRP 2007
5,7
4,2
Total
ICRP 1990
7,3
5,6
Epidemiologia do câncer devido a radiações e a elaboração de recomendações
Tipo de limite
Dose efetiva E
Ocupacional
Público
20 mSv/ano,
1 mSv/ano
100 mSv/5 anos, nunca
ultrapassar 50 mSv/ano
Dose equivalente H anual no:
Cristalino
150 mSv
Pele
500 mSv
Mãos e pés
500 mSv
15 mSv
50 mSv
-
Fonte: ICRP Publicação1033
UVC
UVB UVA
106
106
105
105
104
104
103
103
102
102
101
101
100
100
10-1
10-1
10-2
10-2
10-3
10-3
10-4
10-4
150
200
250
300
350
Efetividade espectral relativa Sλ
Radiação ultravioleta (radiação não ionizante):
recomendações da ICNIRP
A exposição à radiação ultravioleta (RUV) que causa eritema (queimadura) da pele começou sendo avaliada em
termos da grandeza física MED (minimal erythema dose),
que não é mensurável. O valor de 1 MED foi avaliado
como correspondendo à exposição radiante de 200 J/
m2 de RUV com comprimento de onda de 300 nm que
causa avermelhamento apenas perceptível em uma pele
sensível, 24 horas após a exposição. Essa grandeza física
não é adequada porque depende fortemente do tipo de
pele e do local da pele. Dessa forma introduziram uma
nova grandeza que levou em conta o espectro de ação da
RUV que causa eritema, que foi denominada SED (standard erythema dose), sendo o valor de 1 SED equivalente
a 100 J/m2.
Os limites de exposição à RUV são estabelecidos em
termos da grandeza física irradiância E (W/m2) para exposição contínua e, em termos de exposição radiante, H (J/
m2) para exposição limitada no tempo ou a feixe pulsado26.
Essas grandezas correspondem às grandezas operacionais das radiações ionizantes. A recomendação é para
limitar a exposição da pele e dos olhos, já que a profundidade de penetração da radiação ultravioleta é pequena.
A recomendação é a mesma para indivíduos ocupacionalmente expostos e para o público, e leva em conta só o
efeito agudo, que é o eritema e o dano nos olhos, apesar
de haver comprovação científica de que a radiação ultravioleta tem ação carcinogênica tardia. Alguns cientistas
avaliam que protegendo a pele contra o eritema, está se
protegendo contra o câncer de pele.
A Figura 5 mostra as recomendações da ICNIRP9 com
os limites de exposição no eixo da direita e com a efetividade espectral relativa no eixo da esquerda em função
do comprimento de onda da RUV. A efetividade espectral
relativa é um fator de peso e é fortemente dependente
do comprimento de onda, estando relacionado com a
sensibilidade da pele. Como se pode ver pela Figura 5,
os limites de exposição à RUV de 180 nm a 400 nm cobrem cerca de 5 décadas, variando fortemente com o
Tabela 6. Limites de dose recomendados pela ICRP Publicação103
Limite de exposição
[exposição radiante(J/m2)]
Fazendo o caminho inverso, isto é, usando o limite
recomendado de dose efetiva anual de 20 mSv para trabalhador, podemos então calcular o risco adotado: R =
(4,1x10-2/Sv)(20 mSv/ano) = 82/100.000 (mortes/ano).
As recomendações sobre os limites de dose da ICRP
Publicação 1033 em vigor estão na Tabela 6.
Tanto a dose efetiva quanto a dose equivalente no tecido não são grandezas mensuráveis, e outras grandezas,
denominadas grandezas operacionais que são correlacionadas com as doses medidas pelos monitores individuais
e com a dose efetiva foram introduzidas. As recomendações são específicas para trabalhadores, denominados
pela norma da CNEN, NN-3.01 - indivíduos ocupacionalmente expostos (IOE), e para público em geral. Para o estabelecimento das recomendações, foram considerados
tanto os efeitos agudos quanto os tardios.
400
Comprimento de onda (nm)
Fonte: ICNIRP de 20049
Figura 5. Limites de exposição à radiação ultravioleta e efetividade espectral relativa em função do comprimento de onda
recomendados pela ICNIRP de 20049
comprimento de onda. Para verificar o cumprimento da
recomendação, há que se medir a exposição radiante
com um equipamento muito sofisticado, o espectro-radiômetro com grande resolução, um aparelho de alto custo
que deve ser calibrado de tempos em tempos no exterior.
Este é um problema muito complicado, porque em quase todos os países a quantidade de equipamento desse
tipo é extremamente limitada. Por causa disso, e porque a
RUV é carcinogênica, a WHO, em colaboração com vários
órgãos, introduziu o que se chamou de Índice UV26, uma
grandeza adimensional que reflete os níveis de RUV relevantes aos efeitos biológicos estabelecidos no ser humano. Esse índice, que é associado a cores, pode ser usado
e compreendido facilmente pela população. Os boletins
meteorológicos divulgam diariamente o valor máximo do
Índice UV do dia, que é atingido ao redor do meio dia. De
acordo com o valor do Índice UV, recomenda-se o uso de
protetores solares, óculos e chapéus e até a permanência
em ambientes fechados em alguns horários.
Em junho de 2009, 20 cientistas de 9 países se reuniram na IARC para re-estimar a carcinogenicidade de vários tipos de radiação, e informaram que as conclusões
serão publicadas como parte D do volume 100 de suas
monografias. Nesse ínterim, publicaram um artigo na
Revista Brasileira de Física Médica. 2009;3(1):43-55.
51
Okuno E
Lancet Oncology27. Nele, reafirmam que mantiveram no
grupo 1 – comprovadamente carcinogênico – as partículas
alfa, beta, nêutrons, raios X, raios gama e a radiação solar.
Agora, incluíram também no grupo 1 a radiação ultravioleta com comprimentos de onda de 100 nm a 400 nm. Essa
faixa compreende as radiações UVC, UVB e UVA, que na
monografia anterior da IARC, de 19927, constava no grupo 2A, de agente provavelmente carcinogênico. Informam
ainda, nesse artigo, que uma meta-análise, que combina
resultados de vários estudos epidemiológicos, mostrou
que o risco de melanoma maligno na pele aumenta 75%
quando uma pessoa se submete ao bronzeamento artificial antes dos 30 anos. Lembramos que entre os cânceres
de pele do tipo não-melanoma, a saber, carcinomas espinocelular e basocelular, e melanoma maligno a incidência
deste é de somente 4% entre todos os tipos de câncer
de pele, porém com mortalidade altíssima, de 25%26. Os
autores relatam ainda vários estudos epidemiológicos do
tipo caso-controle que forneceram evidências de uma associação positiva entre o bronzeamento artificial e melanoma ocular. Estudos com animais confirmaram esses resultados. Assim, o grupo de trabalho classificou o aparelho
de bronzeamento artificial como sendo comprovadamente
carcinogênico, incluindo-o no grupo 1.
Os aparelhos de bronzeamento artificial estão hoje espalhados pelo país por existir uma cultura de pele bronzeada como sinal de beleza e de saúde. Apesar de todos
os anos, no início do verão, os dermatologistas fazerem
propaganda extensiva sobre os perigos do bronzeamento artificial, trata-se de uma cultura difícil de ser mudada.
Esperamos que, com essa conclusão da IARC, os órgãos
responsáveis tomem atitudes mais drásticas. Além disso,
há o passo seguinte da ICNIRP, que deve elaborar recomendações a respeito.
Campos elétricos, magnéticos e eletromagnéticos
(radiação não ionizante): recomendações da ICNIRP
Antes de 1998 havia uma grande quantidade de guias, com
cada país e/ou cada entidade emitindo a sua recomendação para faixas diferentes de campos eletromagnéticos,
5
5
10
10
ocupacional
4
4
10
10
público
2
J (mA/m )
2
10
3
10
densidade de corrente J
no corpo, cabeça e tronco
2
10
ocupacional
1
10
SAR localizado
0
10
1
10
público
0
10
ocupacional
SAR no corpo todo
-1
10
-1
10
público
-2
10
SAR (W/kg)
3
10
-2
-2
-1
0
1
2
3
4
5
6
7
8
9
10
10
11
10 10 10 10 10 10 10 10 10 10 10 10 10 10
frequência (Hz)
Fonte: ICNIRP de 199810.
Figura 6. Restrições básicas em função da frequência para trabalhador e para público em geral.
52
Revista Brasileira de Física Médica. 2009;3(1):43-55.
com valores diferentes, para pessoas ocupacionalmente
expostas e para o público, ou para ambientes diferentes.
Lembramos ainda que os limites de exposição a microondas no leste europeu eram ao redor de 1.000 vezes
inferior aos do ocidente. Em 1998, a ICNIRP, numa tentativa de harmonizar e uniformizar os guias, publicou uma
recomendação10 que ainda está em vigor. Nela, o intervalo
de frequência da onda eletromagnética considerado foi de
0 a 300 GHz, que devido ao tipo de interação que ocorre
com o corpo humano, foi dividido em duas grandes faixas:
a que vai de 0 Hz a 10 MHz e de 10 MHz a 300 GHz.
Introduziram grandezas físicas relacionadas aos efeitos
biológicos, e que também não são mensuráveis e usadas
para o estabelecimento de restrições básicas. Na primeira
faixa, a grandeza física recomendada foi a densidade de
corrente induzida no corpo J (A/m2) com a finalidade de
evitar a ocorrência de estímulo elétrico nos músculos e
nervos e assim proteger o cérebro e o coração. Na segunda faixa, a nova grandeza física introduzida foi SAR – taxa
específica de absorção ou dissipação de energia, com
unidade em W/kg, também não mensurável, para evitar
aquecimento do corpo. Para o estabelecimento de limite,
partiu-se do conhecimento de que uma exposição a campos eletromagnéticos na faixa de 10 MHz a alguns GHz
do corpo todo à SAR de 4 W/kg durante 30 minutos pode
elevar a temperatura do corpo de 1oC. Usando um fator
10, limitou a SAR ocupacional entre 100 kHz e 10 GHz a
0,4 W/kg, e do público a 0,08 W/kg. Como se pode ver, os
efeitos biológicos considerados foram somente os comprovados cientificamente, que são os agudos de curto
prazo, mas não os estocásticos (câncer e efeitos hereditários), que são os mais temidos pela população. Para verificar o cumprimento das recomendações, introduziram-se
as grandezas físicas mensuráveis, a saber: campo elétrico
E (V/m), campo magnético H (A/m), densidade de fluxo
magnético B (T) e densidade de potência S (W/m2). Os valores de limitação com essas grandezas foram chamados
níveis de referência.
As Figuras 6 e 7 mostram respectivamente as restrições básicas e os níveis de referência da ICNIRP de 199810
para trabalhador e para público em função da frequência
da onda eletromagnética.
Os valores mínimos dos níveis de referência são devidos ao fato de que, nessa faixa de frequência da onda
eletromagnética, o corpo ou regiões do corpo entram em
ressonância. Como se pode perceber os limites abrangem
muitas décadas.
Campos elétricos e magnéticos estáticos e com
frequência de 60 Hz
Em 2002, a IARC11 publicou uma monografia sobre a
avaliação de riscos carcinogênicos em seres humanos
expostos a campos elétricos e magnéticos estáticos e
com frequência extremamente baixa. Nela, classificou os
campos elétricos e magnéticos estáticos e os campos
elétricos de frequência extremamente baixa no grupo 3,
de agentes não carcinogênicos, e o campo magnético
10
4
10
3
10
2
10
1
10
0
0cupacional
E
H
S
-1
10
-2
10
5
10
2
5
densidade de potência (W/m )
10
6
10
campo elétrico E (V/m)
campo magnético H (A/m)
6
2
10
densidade de potência (W/m )
campo elétrico E (V/m)
campo magnético H (A/m)
Epidemiologia do câncer devido a radiações e a elaboração de recomendações
Público em geral
4
10
3
10
E
2
10
H
1
10
S
0
10
-1
10
-2
-1
0
1
2
3
4
5
6
7
8
9
10
11
12
10 10 10 10 10 10 10 10 10 10 10 10 10 10 10
Fonte: ICNIRP de 199810.
13
10
-1
0
1
2
3
4
5
6
7
8
9
10
11
12
13
10 10 10 10 10 10 10 10 10 10 10 10 10 10 10
frequência (Hz)
frequência (Hz)
Figura 7. Níveis de referência em função da frequência para trabalhador e para público em geral.
com frequência extremamente baixa, na qual inclui o de
60 Hz, no grupo 2B de agente possivelmente carcinogênico para seres humanos. Na monografia, justificam que
desde a primeira publicação, associando leucemia infantil
a campos elétricos e magnéticos nas proximidades das
linhas de transmissão de energia elétrica em 1979 por N.
Wertheimer e E. Leeper23, muitos trabalhos têm sido publicados sobre o tema, alguns confirmando a associação
com campos magnéticos.
Em 2006, a WHO publicou o Environmental Health
Criteria28 sobre campos elétricos e magnéticos estáticos, e em 2009 a ICNIRP29 publicou as recomendações
para limitar a exposição a campos magnéticos estáticos.
Explicitam que as recomendações se basearam em efeitos biológicos diretos e que valores acima dos limites podem causar vertigem, náusea e magnetofosfenos (pontos
brilhantes nos olhos). Além disso, consideraram a necessidade de proteger os indivíduos do público com dispositivos médicos implantados que podem apresentar mau
funcionamento por sofrerem interferência, e com implantes contendo material ferromagnético. Os limites de exposição a campos magnéticos estáticos recomendados pela
ICNIRP29 estão na Tabela 7.
Nas recomendações da ICNIRP de 199810, quanto a
campos elétricos e magnéticos de 60 Hz, foram considerados somente os efeitos agudos que podem acometer o
sistema nervoso.
Em 2007, a WHO, juntamente com a ILO e a ICNIRP,
publicou o Environmental Health Criteria 23830 sobre campos com frequência extremamente baixa. Algumas publicações recentes indicavam haver evidências científicas
epidemiológicas de que a exposição crônica a campos
magnéticos com frequência de 60 Hz, com intensidade
muito baixa, poderia causar leucemia infantil. Entretanto,
essa evidência ainda está sujeita a muitas incertezas e
por isso esses campos foram colocados na categoria 2B.
Várias outras doenças também têm sido analisadas: outros tipos de câncer infantil, câncer em adultos, depressão, suicídio, alteração imunológica, doenças neurológicas e cardiovasculares, entre outros, podendo-se afirmar
Tabela 7. Limites de exposição a campos magnéticos estáticos
Características de exposição
Ocupacional
Exposição da cabeça e do tronco
Exposição dos membros
Público em geral
Exposição de qualquer parte do corpo
Densidade de fluxo
magnético B
2 T
8 T
400 mT
Fonte: Publicação ICNIRP29
com segurança que não há associação entre essas doenças e campos magnéticos de 60 Hz.
Uma meta-análise que combinou resultados de vários
estudos epidemiológicos31 para exposições com densidade de fluxo magnético B entre 0,1 e 0,2 μT, 0,2 e 0,4 μT
e B ≥ 0,4 μT, tendo por referência o valor de B < 0,1 μT,
mostra haver uma associação entre o campo magnético de 60 Hz e leucemia infantil, principalmente porque o
Risco Relativo aumenta com a dose. A Figura 8, retirada
do artigo31, mostra esse efeito.
As novas recomendações da ICNIRP relativas aos
campos magnéticos de 60 Hz devem estar sendo providenciadas, tendo em vista os resultados recentes de diversas pesquisas. Até mesmo porque o nível de referência
para densidade de fluxo magnético com frequência de
60 Hz recomendado pela ICNIRP de 199810 para o público é de 83 μT.
Campos eletromagnéticos com frequência alta
(radiofrequência e micro-ondas)
As recomendações atualmente em vigor para radiofrequência de 10 kHz a 300 GHz e micro-ondas de
300 MHz a 300 GHz são as da ICNIRP de 199810. Desde
então muitos artigos foram publicados, e com isso surgiu a
necessidade de uma análise e discussão do conjunto para
atualização da recomendação, se for o caso. Por isso,
um comitê da ICNIRP realizou esse trabalho e acabou de
publicar em 2009 um extenso documento de 358 páginas: Exposure to high frequency electromagnetic fields,
Revista Brasileira de Física Médica. 2009;3(1):43-55.
53
Okuno E
10
10
a
relação causal entre exposição à radiofrequência e qualquer efeito danoso à saúde.
b
1
1
Referências
10
10
c
1
1
o.1
d
<o.1 µT
o.1 <0.2 µT
o.2 -<0.4 µT ≥=0.4 µ
o.1
<o.1 µT
o.1 <0.2 µT
o.2 -<0.4 µT ≥=0.4 µT
Fonte: Schüz J and Ahlbom A 31.
Figura 8. Risco Relativo (no eixo vertical) em função de intervalos de densidade de fluxo magnético obtido com meta-análise.
(A) todos os estudos; (B) estudos baseados em campos calculados; (C) estudos baseados em medidas de 24/48 horas; (D)
estudos baseados em medidas de exposição noturna.
biological effects and health consequences (100 kHz300 GHz)32. O documento é composto por três partes,
sendo que a primeira discorre sobre dosimetria, a segunda trata de uma revisão dos estudos experimentais sobre
efeitos biológicos e a terceira discorre sobre epidemiologia.
Dentro da faixa considerada estão os campos eletromagnéticos com aplicações importantes, como aqueles
usados em fornos de micro-ondas e em comunicação em
geral, incluindo telefones celulares. Esse trabalho é um preâmbulo para a preparação das novas recomendações. A
principal conclusão desse documento é que somente os
efeitos térmicos, em que o mecanismo de interação é cientificamente bem conhecido, continuam sendo confirmados. Outros efeitos tardios, principalmente o câncer, continuam sem comprovação, mesmo no caso de crianças que
fazem uso constante de celulares durante tempos longos.
Escrevem também que há várias dificuldades com relação
aos estudos epidemiológicos que possam associar o uso
de celulares a tumores cerebrais. Há o fato de que o uso
regular de telefones celulares começou a partir de 1990 e o
câncer é um efeito a longo prazo; além disso, a tecnologia
vem mudando a passos largos, cada ano sendo lançados
modelos novos, o que dificulta sobremaneira a avaliação
do nível de exposição. Várias outras dificuldades são dignas de serem citadas: a população inicialmente exposta é
pequena e os 15 anos de exposição são insuficientes para
detectar excesso de incidência de câncer e morte; encontrar uma população de controle que nunca foi exposta ou
pouco exposta para comparação; além da incidência de
tumores cerebrais na população ser pequena, sendo de 10
a 15 casos a cada 100.000 pessoas por ano.
A principal conclusão desse documento é de que resultados de estudos epidemiológicos até a data da sua
publicação não fornecem evidências consistentes e convincentes de uma associação e muito menos de uma
54
Revista Brasileira de Física Médica. 2009;3(1):43-55.
1. Taylor LS. History of the International Commission on Radiological Units and
Measurements (ICRU). Health Phys. 1958;1(3):306-16.
2. Taylor LS. History of the International Commission on Radiological
Protection (ICRP). Health Phys. 2002;82(6):789-94.
3. ICRP Publication 103. The 2007 Recommendations of the International
Commission on Radiological Protection. UK: Elsevier; 2007;37(2-4).
4. ICRP Publication 60. 1990 Recommendations of the International
Commission on Radiological Protection. Oxford: Pergamon Press;
1991;21(1-3).
5. ICRP Publication 26. Recommendations of the International Commission on
Radiological Protection. Oxford: Pergamon Press; 1977;1(3).
6. Environmental Health Criteria (EHC) 160: Ultraviolet radiation. Geneva:
World Health Organization; 1994.
7. International Agency for Research on Cancer (IARC). Solar and ultraviolet
radiation. Monographs on the evaluation of carcinogenic risk to humans.
Lyon: IARC; 1992. v. 55.
8. International Agency for Research on Cancer, World Health Organization.
Sunscreens. IARC handbooks of cancer prevention. Lyon: IARC, WHO;
2001. v. 5.
9. International Commission on Non Ionizing Radiation Protection (ICNIRP).
Guidelines on limits of exposure to ultraviolet radiation of wavelengths
between 180 nm and 400 nm (incoherent optical radiation). Health Phys.
2004;87(2):171-86.
10. International Commission on Non Ionizing Radiation Protection (ICNIRP).
Guidelines for limiting exposure to time-varying electric, magnetic,
and electromagnetic fields (up to 300 GHz). Health Phys. 1998;74(4):
494-522.
11. International Agency for Research on Cancer. IARC monographs on the
evaluation of carcinogenic risks to humans. Non-ionizing radiation, Part
1: Static and extremely low-frequency (ELF) electric and magnetic fields.
Lyon:IARC; 2002. v. 80.
12. Lilienfeld DE, Stolley PD. Foundations of Epidemiology. 3rd ed. N. York.
Oxford University Press; 1994.
13. Franco EL. Epidemiology in the study of cancer. In: Bertino JR, editor.
Encyclopedia of cancer, v. 1. San Diego:Academic Press; 1997. p. 621-41.
14. Foratini OP. Epidemiologia geral. São Paulo: Edgard Blücher Ltda & Editora
da USP; 1976.
15. Radiation Effects Research Foundation [Internet]. A brief description. [cited
2009 Jul 20]. Available from: http://www.rerf.or.jp/shared/briefdescript/
briefdescript.pdf.
16. Framingham Heart Study [Internet]. A Project of National Heart, Lung and
Blood Institute and Boston University. [cited 2009 Jul 20]. Available from:
http://www.framinghamheartstudy.org/.
17. Putnam FW [Internet]. The Atomic Bomb Casualty Commission in
retrospect. [cited 2009 Jul 20]. Available from: http://www.pnas.org/
content/95/10/5426.full.
18. Preston DL, Ron E, Tokuoka S, Funamoto S, Nishi N, Soda M, et al. Solid
cancer incidence in atomic bomb survivors: 1958-1998. Radiat Res.
2007;168(1):1-64.
19. Yamada M, Lennie WF, Fujiwara S, Akahoshi M, Suzuki G. Noncancer
disease incidence in atomic bomb survivors, 1958-1998. Radiat Res.
2004;161(6):622-32.
20. Preston DL, Shimizu Y, Pierce DA, Suyama A, Mabuchi K. Studies of
mortality of atomic bomb survivors. Report 13: Solid cancer and noncancer
disease mortality: 1950-1997. Radiat Res. 2003;160(4):381-404.
Epidemiologia do câncer devido a radiações e a elaboração de recomendações
21. Taubes G. Epidemiology faces its limits. Science. 14 July 1995;269:164-9.
22. ICRP Publication 99. Low dose extrapolation of radiation-related cancer
risk. UK: Elsevier; 2006. v. 35. n. 4.
23. Wertheimer N, Leeper E. Electrical wiring configurations and childhood
cancer. Am J Epidemiol. 1979;109(3):273-84.
24. Kaul DC. The origin of DS86. In: Peterson LE, Abrahamson S, eds. Effects of
ionizing radiation: atomic bomb survivors and their children (1945-1995).
Washington, DC: Joseph Henry Press; 1998.
25. Reassessment of the Atomic Bomb Radiation Dosimetry for Hiroshima
and Nagasaki [Internet]. Dosimetry System 2002: DS02, v. 1, 2005.
[cited 2009 Jul 20]. Available from: http://www.rerf.or.jp/shared/ds02/
index.html.
26. Okuno E. Radiação ultravioleta: características e efeitos. São Paulo: SBF,
Editora Livraria da Física; 2005.
27. El Ghissassi F, Baan R, Straif K, Grosse Y, Secretan B, Bouvard V, et al.
A review of human carcinogens - Part D: radiation. Lancet Oncol.
2009;10(8):751-2.
28. World Health Organization. Environmental Health Criteria 232. Static fields.
Geneva, China: WHO; 2006.
29. International Commission on Non Ionizing Radiation Protection.
Guidelines on Limits of exposure to static magnetic fields. Health Phys.
2009;96(4):504-14.
30. Environmental Health Criteria 238: Extremely low frequency fields. The
International Labour Organization, The International Commission on NonIonizing Radiation Protection, The World Health Organization. Spain: WHO
Press; 2007.
31. Schüz J, Ahlbom A. Exposure to electromagnetic fields and the risk
of childhood leukemia: a review. Radiat Prot Dosim. 2008;132(2):
202-11.
32. Vecchia P, Matthes R, Ziegelberger G, Lin J, Saunders R, Swerdlow A,
editors [Internet]. Exposure to high frequency electromagnetic fields,
biological effects and health consequences (100 kHz-300 GHz). In:
International Commission on Non Ionizing Radiation Protection 16/2009.
[cited 2009 Jul 31]. Available from: http://www.icnirp.de/PubEMF.htm.
Revista Brasileira de Física Médica. 2009;3(1):43-55.
55
Artigo de Revisão
Revista Brasileira de Física Médica. 2009;3(1):57-67.
Física das Radiações:
interação da radiação com a matéria
Radiation Physics: interaction of radiation with matter
Elisabeth Mateus Yoshimura1
Professora-associada do Departamento de Física Nuclear do Instituto de Física da Universidade de São Paulo
(USP), São Paulo (SP), Brasil
1
Resumo
Neste artigo é feita uma revisão sistemática da interação das radiações ionizantes com a matéria, ressaltando sua dependência com o tipo de
radiação, composição do meio e energia da radiação.
Palavras-chave: radiação; fótons; íons; elétrons; nêutrons.
Abstract
A systematic review of interaction of ionizing radiation with matter is presented in this paper. Special attention is given to the dependence of the
processes on the type and energy of radiation and on the medium composition.
Keywords: radiation; photons; ions; electrons; neutrons.
Introdução
Física das Radiações é o nome tradicional da área da
Física que estuda a interação das radiações ionizantes
com a matéria, com interesse especial nos resultados dessas interações, e em particular na transferência de energia
da radiação para o meio. Em primeiro lugar, é importante
ressaltar que há dois conceitos importantes relacionados
ao tema, que nem sempre são bem esclarecidos: interação e radiação ionizante. Interação é o termo que representa, na Física, a ação de uma força e o efeito causado
por essa ação1. Por exemplo, duas partículas carregadas
em repouso interagem pela ação da força coulombiana.
Radiação ionizante, por sua vez, é qualquer radiação, com
ou sem massa de repouso, que pode remover elétrons de
átomos e moléculas. O conjunto das radiações ionizantes
usualmente estudadas compreende:
i. radiação eletromagnética com energia de fóton acima
de 12 eV, que recebe várias denominações de acordo
com a origem: raios X – originados de desexcitações
atômicas (raios X característicos) e da desaceleração de partículas carregadas (Bremsstrahlung); raios
gama – originados de desexcitações nucleares; fótons de aniquilação – originados da aniquilação de
pares partícula-antipartícula;
ii. partículas eletricamente carregadas e que possuem
energia cinética bem maior que a energia térmica,
e superior a energias de ligação de elétrons atômicos, chamadas Partículas Carregadas Rápidas. Suas
origens podem ser a emissão por núcleos atômicos
(partículas alfa e beta e os produtos de fissão nuclear,
por exemplo), a emissão por átomos (elétrons Auger),
feixes produzidos em aceleradores de partículas (elétrons, pósitrons, prótons, dêuterons, íons em geral,
de qualquer número atômico ou número de massa),
a radiação cósmica primária ou produtos de sua interação com a atmosfera (múons, píons etc.), produtos
de reações nucleares, etc;
iii. nêutrons livres com qualquer energia cinética e de
qualquer origem.
Essa classificação das radiações ionizantes tem fundamentação nas forças responsáveis pelas interações e
na modelagem utilizada para descrevê-las. Fótons interagem pela ação de campos eletromagnéticos, atuando sobre partículas carregadas do meio; partículas carregadas
têm sua ação em elétrons do meio aproximada por interações coulombianas consecutivas; já os nêutrons atuam
sobre prótons e nêutrons de núcleos atômicos pela força
nuclear forte. As áreas da Física que tratam dessas interações são a Eletrodinâmica Quântica para interações entre
campos eletromagnéticos e cargas em movimento, e a
Física Nuclear para as interações entre nucleons. Em geral
não há soluções analíticas para o problema completo, e a
Correspondência: Elisabeth Mateus Yoshimura – Universidade de São Paulo, Instituto de Física, Departamento de Física Nuclear. Travessa R da Rua do
Matão, 187 – Cidade Universitária – 05508-900 – Sao Paulo (SP), Brasil – e-mail: [email protected]
Associação Brasileira de Física Médica®
57
Yoshimura EM
Física da Radiação se fundamenta em soluções analíticas
parciais e aproximações numéricas combinadas com resultados experimentais2-6. Neste artigo pretendemos revisar os principais marcos dessas interações, assim como
as suas consequências.
•
Interações da radiação eletromagnética
Na faixa de energias que inclui os raios X e gama, há várias interações possíveis com o átomo ou com elétrons
atômicos ou ainda com o núcleo, mas há também a
possibilidade de não-interação, ou seja, a interação da
radiação eletromagnética (REM) pode atravessar distâncias consideráveis em um meio material sem modificá-lo
e sem se modificar. As probabilidades de interação (e de
não-interação) dependem de características do meio e da
radiação. A REM ionizante é tratada, em boa parte dos casos, como um conjunto de partículas – os fótons. A cada
energia de fóton hv corresponde um momento associado
hv / c, e, dessa forma, podem ocorrer ‘colisões’ em que o
fóton transfere energia e momento para outras partículas.
As principais interações que ocorrem na matéria com fótons de energias na faixa de poucos keV até dezenas de
MeV são:
• espalhamento coerente (ou efeito Rayleigh): corresponde à absorção e re-emissão da radiação pelo
átomo, em uma direção diferente da de incidência.
Somente neste efeito a radiação é tratada como
onda; em todos os outros se considera a REM como
constituída de fótons;
• efeito fotoelétrico: o fóton é absorvido pelo átomo e
um elétron atômico é liberado para se mover no material. A energia cinética adquirida por esse elétron é
a diferença entre a energia do fóton e a energia de
ligação do elétron ao átomo;
• efeito Compton (ou espalhamento inelástico): trata-se
do espalhamento de um fóton por um elétron livre do
•
material. Há transferência de parte da energia e do
momento do fóton para o elétron, e um fóton com a
energia restante é espalhado em outra direção;
produção de pares elétron-pósitron: Neste processo,
o fóton é absorvido e toda sua energia é convertida
em massa de repouso e energia cinética de um par
partícula/antipartícula – elétron/pósitron. É interpretada como a transição de um elétron de um estado de
energia total negativa para um estado de energia total
positiva; a diferença de energia entre os dois estados é a energia do fóton incidente, que é absorvido;
a lacuna de um elétron no conjunto de estados de
energia negativa é observada como um pósitron7. É
possível a criação de outros pares de partícula/antipartícula, mas a energia necessária do fóton é muito
mais elevada. O efeito é resultado da interação entre
o fóton e o campo eletromagnético, e ocorre normalmente nas vizinhanças do núcleo, podendo também
acontecer devido à interação do fóton com o campo
de qualquer partícula carregada, incluindo os elétrons
atômicos. Neste caso particular, um elétron atômico
também é ejetado e o efeito é chamado de produção
de tripleto. É mais provável quanto mais intenso for o
campo;
reações fotonucleares: a principal reação nuclear provocada por fótons é a fotodesintegração, que equivale a um ‘efeito fotonuclear’ num paralelo com o efeito
fotoelétrico. O fóton com energia maior que a energia
de ligação de nucleons é absorvido pelo núcleo que
libera um próton ou um nêutron com energia cinética
suficiente para abandonar o núcleo, que se transforma em outra espécie nuclear.
O fóton é absorvido nos processos de efeito fotoelétrico, produção de par e reações fotonucleares. A Tabela 1
mostra, para cada efeito, quais são as consequências para
o meio e para a radiação, e quais radiações ionizantes são
produzidas ou liberadas em decorrência da interação.
Tabela 1. Interações possíveis de ocorrer para radiação eletromagnética ionizante – raios X, raios gama e fótons de aniquilação – e
consequências das interações
Interação – símbolo da
seção de choque
Espalhamento Coerente - scoer
(espalhamento da radiação
pelo átomo)
Fotoelétrico - t
(ejeção de elétron ligado)
Compton - sinc
(espalhamento do fóton
por um elétron)
Produção de Par - k
(energia do fóton é consumida
na criação do par (e- e+))
Reação Fotonuclear
(ejeção de nucleon ligado)
58
O que muda no meio
O que muda na radiação incidente Radiação ionizante produzida
Direção de propagação,
(mantém energia)
REM espalhada de mesma energia
Ionização e excitação do átomo,
recuo do núcleo
Ionização do átomo
Fóton é absorvido
Elétron rápido, raios X característicos,
elétrons Auger
Elétron rápido, fóton com menor energia,
espalhado
Recuo do núcleo; aniquilação
do pósitron
Fóton é absorvido
Fóton perde energia e muda
de direção
Núcleo modificado (Z ou A) e excitado Fóton é absorvido
Revista Brasileira de Física Médica. 2009;3(1):57-67.
Elétron e pósitron rápidos,
raios X de aniquilação
Partículas subnucleares, em geral nêutrons
Física das Radiações: interação da radiação com a matéria
Sob o ponto de vista de probabilidades de ocorrência, a ordem em que estão apresentadas as interações
na Tabela 1 corresponde, grosso modo, à prevalência
de cada efeito em função da energia de fóton: os efeitos
coerente e fotoelétrico ocorrem com maior probabilidade
para baixas energias, enquanto o efeito Compton ocorre
para intermediárias. Produção de par e reações fotonucleares só acontecem acima de um limiar de energia: no
primeiro caso, é necessário que o fóton tenha no mínimo
1,022 MeV de energia (equivalente a duas massas de repouso de elétron) para que toda sua energia se converta
em massa de repouso e energia cinética do par (e- e+); já
para as reações fotonucleares, a energia do fóton deve ser
superior à energia de ligação de nucleons (ao menos alguns MeV, em geral mais de 10 MeV) para que um nêutron
ou próton seja retirado do núcleo. A Figura 1 mostra com
mais clareza que o efeito Compton predomina para todos
os elementos da tabela periódica se as energias de fótons
estão entre algumas centenas de keV e alguns MeV, e predomina para todas as energias se os números atômicos
são baixos (região sombreada na Figura 1). Para números
atômicos elevados o efeito fotoelétrico é o mais provável
para energias baixas e a produção de par para energias
elevadas.
As reações fotonucleares ocorrem com probabilidades
muito menores que os outros efeitos e não são em geral
computadas nas probabilidades de interação. No entanto,
sua ocorrência é importante pois os nêutrons produzidos
podem ser um problema de proteção radiológica.
É conhecida a lei de atenuação de um feixe de fótons,
que relaciona o número de fótons incidentes perpendicularmente em um material homogêneo (N0) e o número de fótons que emerge desse meio sem interagir com
ele (N): N=N0e-mx, que também pode ser apresentada na
sua forma diferencial: dN=-μdx. O coeficiente µ, chamado de coeficiente de atenuação, representa a seção de
Figura 1. Gráfico que apresenta os valores de número atômico
e de energia que tornam iguais as probabilidades de ocorrência dos efeitos fotoelétrico e Compton (curva à esquerda) e dos
efeitos Compton e produção de par (curva à direita). Valores
obtidos a partir da base de dados XCOM8.
choque de interação entre cada fóton e o meio que atravessa, por unidade de volume. O coeficiente de atenuação
é a soma de coeficientes parciais (símbolos na Tabela 1)
para cada um dos efeitos, considerados independentes:
m=scoer+sinc+t+k, ou, como é mais comum, os coeficientes
mássicos:
,
que são o resultado da divisão dos coeficientes lineares
pela densidade do material (ρ) e representam seções de
choque por unidade de massa do material. O termo e-μx
representa a probabilidade de não interação por qualquer
dos efeitos, ao atravessar uma espessura x de material.
A Figura 2 mostra, para três dos átomos que compõem o corpo humano – oxigênio, carbono e cálcio –,
a variação desses coeficientes mássicos parciais com
a energia. Nota-se com clareza a forte dependência da
probabilidade de ocorrência do efeito fotoelétrico com a
energia do fóton:
(
aproximadamente).
Quanto maior a energia do fóton comparada à energia
de ligação dos elétrons ao átomo, menor a probabilidade
de desencadear o efeito fotoelétrico. Ainda na Figura 2,
para o átomo de Ca, é possível notar uma descontinuidade na curva de τ contra energia chamada de borda K:
esse aumento na seção de choque do efeito fotoelétrico
ocorre quando a energia do fóton coincide com a energia
de ligação dos elétrons mais ligados desse átomo, o que
Figura 2. Seções de choque, por unidade de massa, total (linhas cheias grossas) e parciais, para os efeitos fotoelétrico
(símbolos cheios) e produção de par (símbolos vazios) para três
dos principais átomos que constituem o corpo humano – C, O,
Ca. No destaque, o mesmo para Efeito Compton. As linhas unindo pontos são para guiar os olhos. Valores obtidos a partir da
base de dados XCOM8.
Revista Brasileira de Física Médica. 2009;3(1):57-67.
59
Yoshimura EM
permite que também os dois elétrons desse nível de energia passem a poder ser arrancados do átomo, reforçando a noção de que a interação é praticamente um efeito
ressonante.
A produção de par é o único dos efeitos cuja seção de
choque cresce monotonicamente com a energia, o que
produz a inversão da tendência decrescente de µ com
o aumento da energia do fóton. Por esse fato, fótons de
mais alta energia podem ser menos penetrantes que fótons de mais baixa energia e, para a maioria dos materiais, um mesmo valor de coeficiente de atenuação pode
corresponder a dois valores bem distintos de energia de
fóton. A produção de par se torna o efeito predominante
para todos os materiais em altas energias de fóton, mas
o crescimento de κ com a energia do fóton é muito mais
lento para energias altas que para as energias logo acima
do limiar de 1,022 MeV.
O espalhamento coerente, cuja seção de choque
como função da energia é mostrada na Figura 3, tem
dependência forte de número atômico do meio e energia do fóton. Recentemente têm sido desenvolvidas aplicações desse efeito para obtenção de imagens médicas
com o uso do contraste de fase para obtenção da imagem
ou para redução de ruído; as defasagens da onda eletromagnética são resultado da interferência entre ondas
espalhadas coerentemente ou refratadas por meios distintos9. Para esse tipo de imagem é necessário um feixe monocromático e coerente – de um síncrotron, em geral10-12.
Outra forma de observar a predominância de cada
efeito é pela variação das probabilidades de interação
com o material. Como já se nota na Figura 2, para o efeito
Compton quase não há variação da seção de choque para
os diversos elementos químicos. Mas para efeitos fotoelétrico e de produção de par a variação é expressiva com
o número atômico do meio. Examinando os gráficos da
Figura 4, conclui-se que a variação de τ/ρ com Z está próxima de uma potência entre 3 e 4. Já a produção de par
tem o coeficiente κ/ρ que cresce de maneira praticamente
linear com Z. Como há uma tendência linear de aumento da densidade dos elementos com o número atômico
(veja Apêndice A), a divisão dos coeficientes lineares por ρ
tende a tornar as seções de choque menos dependentes
de Z: o coeficiente linear τ tem a dependência próxima de
uma potência 4 e 5 com Z, κ varia com o quadrado de Z,
e σinc uma dependência linear com Z.
Interações das partículas carregadas rápidas
p
Figura 3. Pontos unidos por linhas - seções de choque parciais,
por unidade de massa, para o espalhamento coerente em carbono, oxigênio e cálcio. Curvas cheias: seção de choque para
efeito fotoelétrico dos mesmos elementos. Valores obtidos a
partir da base de dados XCOM8.
Ao contrário da REM, partículas carregadas têm probabilidade 100% de interagir no meio material, pois há cargas distribuídas no meio e a força coulombiana é de longo
alcance. O modelo mais frequentemente utilizado para
descrever a passagem de uma partícula carregada pela
matéria supõe que há uma sequência contínua de interações nas quais a partícula perde pequenas frações de
sua energia, até ser completamente freada e não ser mais
a
a
Figura 4. Seções de choque parciais, por unidade de massa, para os efeitos fotoelétrico (esquerda) e produção de par (direita) para
alguns valores de energia de fóton. As linhas claras unindo pontos são para guiar os olhos. As retas pretas indicam comportamentos
com potências inteiras de Z. Valores obtidos a partir da base de dados XCOM8.
60
Revista Brasileira de Física Médica. 2009;3(1):57-67.
Física das Radiações: interação da radiação com a matéria
considerada uma radiação ionizante. Essa aproximação
recebe o nome, em inglês, de continuous slowing-down
approximation (CSDA). A esse continuum de interações
suaves somam-se algumas interações mais intensas, nas
quais uma grande perda de energia acontece.
Entre as radiações ionizantes o elétron é a partícula carregada de menor massa de repouso (mec2 = 0,511 MeV),
de maneira que sua energia cinética (T), em geral, não
é desprezível se comparada com a energia de repouso.
Esse é o principal motivo para que o tratamento físico da
interação das partículas carregadas rápidas (PCRs) com a
matéria seja subdividido em dois grandes grupos: elétrons
(que inclui elétrons e pósitrons) e partículas carregadas
pesadas (todas as outras PCRs). Do ponto de vista fenomenológico, as diferenças estão explicitadas na tabela 2.
São necessárias algumas observações sobre a Tabela
2. Algumas das interações listadas como restritas a elétrons e pósitrons podem ocorrer também para íons pesados se suas energias cinéticas forem suficientemente
altas. Por exemplo, a emissão de radiação de freamento proveniente da interação da partícula carregada com
o campo eletromagnético do núcleo tem uma seção de
choque, obtida com cálculos de Eletrodinâmica Quântica7,
que é inversamente proporcional ao quadrado da massa
da partícula2,5. Assim, um elétron com 0,25 MeV de energia cinética tem uma probabilidade três milhões de vezes
maior de emitir fótons de Bremsstrahlung que um próton
com mesma velocidade (a energia cinética do próton seria de 500 MeV), interagindo com o mesmo material. As
reações nucleares são também pouco prováveis para todos os casos, a menos que a energia cinética seja muito
elevada.
A ocorrência de cada tipo de interação e a correspondente perda de energia pela PCR dependem basicamente
do parâmetro de impacto da interação, ou seja, da distância entre a trajetória da partícula e o centro do átomo mais
próximo. As interações com o núcleo são mais raras, pois
este ocupa uma área muito pequena do átomo. O choque
mais frequente é com a eletrosfera, predominando as colisões suaves sobre as colisões duras.
Para cada interação a energia cinética da partícula diminui de uma quantidade ∆Ti, que depende do tipo de
partícula, da sua energia cinética e do meio de interação.
A composição dos possíveis valores de ∆Ti, ponderados
pela probabilidade de ocorrência de cada tipo de interação, dá como resultado uma grandeza conhecida como
stopping-power, traduzido para o português como poder
de freamento, que representa a perda média de energia
por unidade de caminho em um determinado meio, considerando-se a média sobre um conjunto grande de partículas idênticas e com mesma energia. Para representar o
poder de freamento, usam-se os símbolos:
s .
As expressões e variações do poder de freamento com
energia e meio são tratadas separadamente para elétrons
e partículas carregadas, devido às diferenças entre interações já enfatizadas, e também porque as PCRs leves
têm tratamento relativístico que não é necessário para as
pesadas.
Outra característica importante das interações das
PCRs é a existência de uma distância máxima percorrida: para qualquer meio sempre é possível encontrar, para
qualquer material, uma espessura específica de que é
suficiente para parar (reduzir a energia cinética a valores
equivalentes à energia térmica) as partículas carregadas
que nele incidiram. À espessura mínima que freia todas
as partículas de um determinado tipo e energia, dá-se o
nome de alcance. Se a partícula tem uma trajetória sem
mudanças de direção, o alcance coincide com o comprimento da trajetória da partícula. Isso em geral não ocorre,
principalmente para as partículas leves, que percorrem caminhos em geral mais longos que a espessura necessária
para o seu freamento total devido a espalhamentos múltiplos. A definição de alcance requer então cálculos médios
e medidas experimentais. Conhecida a variação de S com
a energia cinética da partícula, pode-se calcular um comprimento médio de trajetória, para um número grande de
partículas idênticas de energia cinética inicial T0 dado por
Tabela 2. Interações possíveis de ocorrer para partículas carregadas rápidas e consequências das interações
Partícula carregada
Elétrons, pósitrons e íons
pesados
Interações possíveis
Colisão inelástica com o átomo
(colisão suave)
Colisão com elétron fortemente
ligado (colisão dura)
Choque elástico com o núcleo
Elétrons e pósitrons
Choque inelástico com o núcleo
Pósitrons
Aniquilação com um elétron
do meio
Reação nuclear
Todos
O que muda no meio de interação Radiação ionizante produzida
Excitação e eventual ionização de Partícula primária com pequena
átomos em camada de valência
mudança de direção, eventualmente um
elétron rápido (secundário)
Ionização (camada interna) e
Partícula primária, elétron rápido
excitação do átomo
(secundário), raios X característicos,
elétrons Auger
Recuo do núcleo
Partícula primária com mesma energia
e outra trajetória
Recuo do núcleo
Partícula primária e radiação
de freamento (Bremsstrahlung)
Ionização e excitação
Dois fótons de aniquilação, cada um
do átomo
com hn≥0,511 MeV
Núcleo modificado (Z ou A)
Partículas subnucleares, raios gama
e excitado
de desexcitação nuclear
Revista Brasileira de Física Médica. 2009;3(1):57-67.
61
Yoshimura EM
.
Cálculos desse tipo, com a aproximação CSDA, levam a valores disponíveis em tabelas na literatura13.
Experimentalmente, a determinação do alcance é feita
pela interposição de espessuras crescentes de material homogêneo em frente a um feixe de partículas e a
contagem do número de partículas que o atravessam. A
Figura 5 mostra exemplos da variação do número de partículas com espessura: na situação ideal (representada
pela linha tracejada) é simples identificar o alcance com
a espessura Lmáx; nas situações reais, como as vistas na
linha cheia e na linha mista, é possível definir o alcance
médio (L50) como a espessura que reduz o número de
partículas à metade, ou ainda definir, além de outros, o
alcance extrapolado (Lext) pela intersecção entre a tangente à curva de penetração e o eixo x. As curvas de
penetração de PCRs leves se assemelham à curva mista
da Figura 5, enquanto para as PCRs pesadas, as curvas
de penetração são mais bem definidas, como a curva em
linha cheia. Isso porque desvios apreciáveis de trajetória
dessas partículas em choques com elétrons do meio são
muito improváveis, pela grande diferença de massas.
Poder de freamento de partículas
carregadas pesadas
No cálculo do poder de freamento de partículas carregadas pesadas (PCPs), levam-se em conta as colisões suave e dura, não sendo computadas perdas de energia por
radiação de Bremsstrahlung ou por reação nuclear, consideradas pouco prováveis para partículas com até centenas de MeV de energia cinética. O poder de freamento
é chamado de eletrônico. No final da trajetória das PCPs
(
) também é importante o espalhamento elástico
com o núcleo, cuja perda de energia é computada separadamente, no poder de freamento nuclear.
Figura 5. Exemplos de curvas de penetração de partículas carregadas e algumas possíveis definições de alcance.
62
Revista Brasileira de Física Médica. 2009;3(1):57-67.
As dificuldades dos cálculos de perda de energia de
íons na matéria são de variadas origens: a distribuição de
elétrons no meio deve ser conhecida, sendo a estratégia o
uso de cálculos aproximados, como os de Hartree-Fock;
a carga do íon muda durante sua trajetória na matéria,
sendo definida uma carga efetiva que diminui com a velocidade do íon14,15 de uma forma que depende do meio;
há polarização da eletrosfera dos átomos à medida que o
íon penetra no meio; os potenciais interatômicos devem
ser bem conhecidos, considerada também a blindagem
pela nuvem eletrônica. Há vários conjuntos de tabelas
de dados e programas disponíveis para o cálculo dessa
grandeza12,14,16,17, baseadas em compilações de dados experimentais e uso de códigos de simulação pelo método
de Monte Carlo. Há também expressões analíticas para o
cálculo das perdas de energia2,18, mas o desconhecimento
de parâmetros dos meios de interação (potencial médio de
ionização e efeito de densidade) e a introdução de várias
correções tornam seu uso muito limitado – muitas vezes
a medição experimental de
em uma determinada faixa
de energia é efetuada para determinar experimentalmente
algumas características do meio em estudo19.
Dos valores conhecidos para o poder de freamento,
algumas regularidades podem ser observadas. A Figura 6
mostra que, para energias cinéticas relativamente altas, o
decréscimo de sm é quase linear com a energia cinética.
De fato, observando-se o gráfico à direita na Figura 6, em
que T é dividido pelo número de nucleons (para íons não
relativísticos com número de massa A,
),
nota-se que, para energias cinéticas acima de poucas
centenas de keV por nucleon, há uma variação decrescente e quase linear de sm com v2, independente da
massa do íon. O comportamento da perda de energia
com o inverso do quadrado da velocidade do íon foi
previsto inicialmente por Bohr20, e depois ratificada por
cálculos de Bethe4,21. Já o crescimento de sm com a
velocidade para energias baixas é, em boa parte, resultado da diminuição da carga efetiva do íon à medida que se torna mais lento. Apenas como exemplo, no
gráfico à direita na Figura 6 é também colocado o poder
de freamento nuclear de prótons em água, que só se
torna importante para energias muito baixas do íon. No
mesmo gráfico se observa a coincidência das curvas de
(sm/Z2) para quase toda a faixa de energias, inferindo-se
uma dependência de sm com o quadrado da carga do
íon: íons de mesma velocidade, percorrendo determinado meio, perdem energia por unidade de caminho mais
rapidamente quanto maior for a sua carga e independente de sua massa.
A consequência imediata do comportamento de
sm com T é que há uma grande perda de energia pelo
íon pouco antes do final de sua trajetória – o que normalmente é chamado de pico de Bragg, pois foi W. H.
Bragg, em 1905, quem primeiro observou o comportamento sistemático da absorção de energia de partículas
Física das Radiações: interação da radiação com a matéria
Figura 6. Esquerda: poder de freamento eletrônico, por unidade de massa, para três íons – próton (1H+), partícula alfa (4He2+) e
carbono (12C6+) - incidentes nos seguintes meios: água (pontos), carbono amorfo (linhas cheias), osso compacto (linhas tracejadas).
À direita o gráfico para água é repetido com grandezas reduzidas: sm/Z2 nas ordenadas e T/A nas abscissas. Valores obtidos com os
programas PStar e AStar12 e MStar16.
alfa na matéria5. A Figura 7 mostra o comportamento esperado para a deposição de energia por um próton na
água, para três energias distintas, e por um conjunto de
prótons de 200 MeV (no destaque). Como nem todas as
partículas do feixe seguem exatamente a mesma trajetória, há um alargamento da região de maior deposição
de energia em relação a uma partícula isolada. Esta característica da deposição de energia localizada tem sido
empregada para radioterapia nos últimos anos, principalmente na protonterapia22.
Poder de freamento de partículas carregadas leves
(elétrons e pósitrons)
O poder de freamento para elétrons (para simplificar a linguagem, a menos que se faça ressalva, a palavra elétron
se refere a elétrons negativos e positivos) é composto de
duas parcelas: uma se refere a perdas de energia cinética da partícula em processos de colisão (suave ou dura)
e outra às perdas por emissão de radiação S=Scol+Srad.
O termo de colisão tem o mesmo comportamento com
energia que o poder de freamento eletrônico para as PCRs
mais velozes, como se vê no lado esquerdo da Figura
8. Embora os valores de (sm)col para elétrons sejam bem
mais baixos que os vistos na Figura 6 para PCPs, eles
são bastante próximos aos de um íon de carga 1e com
mesma velocidade que o elétron. Já as perdas de energia
por processos de emissão de radiação (Bremsstrahlung)
têm um crescimento praticamente linear com a energia do
elétron, sendo o processo dominante para o freamento
dessas partículas para qualquer material em altas energias
de elétron.
A dependência do poder de freamento com o meio pode
ser mais bem observada no gráfico à direita na Figura 8: (sm)
cresce de forma aproximadamente linear com Z, e, conserad
quentemente (veja Apêndice A), Srad varia aproximadamente
com Z2. Ao mesmo tempo se observa que as perdas por
colisão diminuem à medida que aumenta o número atômico
do meio, efeito devido em parte à blindagem que a nuvem
Figura 7. Simulação da perda de energia por um único próton
em água, em função da distância percorrida, para energias
inicias de 50, 100 e 200 MeV. No destaque, a perda relativa
para um feixe de muitos prótons de 200 MeV, que, devido a
variações individuais de trajetória, mostra um alargamento
da região onde ocorre a máxima deposição de energia (pico
de Bragg).
eletrônica produz no campo elétrico percebido pelo elétron
rápido no meio, diminuindo a intensidade das interações.
Com essas características, pode-se inferir que a energia na
qual 50% da perda de energia ocorrem por processos de
colisão e 50% ocorrem por radiação é tão mais baixa quanto mais elevado é o número atômico do meio, como se vê
na Figura 9. Já se levarmos em consideração a trajetória
completa da partícula até parar, define-se o rendimento de
Revista Brasileira de Física Médica. 2009;3(1):57-67.
63
f
f
Yoshimura EM
Fonte: programa EStar12.
Figura 8. Gráfico à esquerda: poder de freamento (sm) de elétrons em água: de colisão (linha cheia fina), de radiação (linha tracejada)
e total (linha cheia e grossa) em função da energia cinética dos elétrons; os símbolos representam (sm)col: cheios para osso compacto
e vazios para carbono. Gráfico à direita: (sm)col (quadrados) e (sm)rad (triângulos) para vários elementos químicos, em função de Z, para
duas energias, sendo símbolos cheios para T=10MeV e símbolos vazios para T=15MeV.
radiação (Y) como a razão entre a quantidade de energia
perdida em média pelo elétron em processos radiativos e a
energia inicial com que o elétron incidiu no meio:
.
O gráfico à direita na Figura 9 mostra que a fração da energia total do elétron irradiada na forma de
Bremsstrahlung é em geral pequena, exceto se o meio
tem número atômico alto e o elétron é de alta energia.
A produção de raios X para uso médico se utiliza do
processo de Bremsstrahlung, com um feixe de elétrons
de energia cinética inicial T0 incidindo em um alvo de
número atômico alto (em geral W ou Mo) e espessura
maior que o alcance dos elétrons. Nos equipamentos
radiológicos T0, está na faixa de 20 a 150 keV; e nos
aceleradores lineares empregados em radioterapia, no
intervalo de 1 a 30 MeV. Como se vê no gráfico à direita na Figura 9, a energia irradiada nessas duas faixas,
em um alvo de W, corresponde a aproximadamente
de 2 a 50% da energia incidente. O restante da energia dos elétrons, que é perdida em processos de colisão, é quase todo convertido em calor. O espectro de
energias dos fótons de Bremsstrahlung é largo, como
o exemplo mostrado na Figura 10 (feixe de radiodiagnóstico, elétrons de 100 keV). Nessa mesma figura, os
picos observados nas energias próximas de 10, 60, 67
e 69 keV correspondem a transições de elétrons de
64
Revista Brasileira de Física Médica. 2009;3(1):57-67.
níveis excitados para níveis de menor energia, e formam o espectro característico de emissão do tungstênio. O espectro largo, entre 0 e 100 keV, corresponde
a emissões de radiação de freamento do elétron incidente, e seu formato pode mudar de acordo com os
materiais que atravessa dentro do próprio equipamento
de raios X22.
Interações de nêutrons
Nêutrons que incidem na matéria podem sofrer espalhamento elástico ou inelástico com núcleos do meio,
podem ser absorvidos e podem provocar reações nucleares diversas. Além disso, da mesma maneira que os
fótons, nêutrons podem atravessar diversas camadas
atômicas sem sofrer qualquer interação, pois a força
nuclear forte tem alcance muito curto e só atua entre
o nêutron e o núcleo. Em geral, quanto maior a energia
dos nêutrons, maior a sua penetração nos materiais,
pois a seção de choque de boa parte das interações
diminui com o aumento da energia cinética. No entanto, há processos específicos e ressonâncias que fogem
à regra. Assim, não é possível fazer muitas generalizações sobre as interações, e trataremos aqui apenas
das consequências em termos de produção de outras
radiações ionizantes. Na tabela 3 estão listadas as principais interações que serão brevemente discutidas a
Física das Radiações: interação da radiação com a matéria
Radiação
Colisão
a
Fonte: programa EStar12.
Figura 9. Gráfico à esquerda: faixas de energia e número atômico com predominância de perda de energia do elétron por processos
de colisão (região sombreada) e por radiação. A curva divisória representa (sm)col = (sm)rad. Gráfico à direita: rendimento de radiação em
função da energia do elétron para três materiais.
Processos inelásticos de interação de nêutrons
As reações nucleares em geral e o espalhamento inelástico do nêutron estão nesta categoria na qual se
incluem os processos em que o núcleo com o qual o
nêutron interagiu é modificado em termos de energia
interna (fica excitado), ou até em termos de sua composição de prótons e nêutrons. Em todos os casos
há o chamado recuo do núcleo, o qual pode adquirir
energia cinética suficiente para perder elétrons periféricos e se tornar uma partícula carregada rápida. As reações nucleares podem produzir núcleos radioativos,
sendo chamadas então de reações de transmutação
ou de ativação – são dos principais mecanismos de
r
f
seguir. Os produtos dessas interações são fótons (raios
gama) ou íons (núcleos de recuo e produtos de reações
nucleares), que passam a interagir com a matéria nas
formas vistas nas seções anteriores.
Figura 10. Espectro de raios X emitidos quando um alvo espesso de tungstênio é irradiado por elétrons com 100 keV de energia cinética. (Espectro gerado com o programa XCOMP5R23).
Tabela 3. Interações possíveis de ocorrer para nêutrons e consequências das interações
Interação
Espalhamento inelástico
O que muda no meio
Núcleo recua e fica excitado
Reação nuclear
Núcleo se torna
outra espécie nuclear
Espalhamento elástico
Recuo do núcleo
O que muda na radiação incidente
Direção de propagação
e energia do nêutron
Nêutron é absorvido
Direção de propagação
e energia do nêutron
Radiação ionizante produzida
Radiação gama (desexcitação do núcleo);
núcleo de recuo
Emissões radioativas do núcleo final;
radiação gama do núcleo final; produtos
da reação nuclear
Núcleo de recuo, nêutron com
menor energia, espalhado
Revista Brasileira de Física Médica. 2009;3(1):57-67.
65
Yoshimura EM
produção de isótopos radioativos. Como exemplos,
temos:
• reação de captura de um nêutron por um núcleo,
acompanhada de emissão gama:
;
• reações de troca entre um nêutron e um próton:
;
• reações com emissão de partículas:
;
• produção de radioisótopos:
.
Espalhamento elástico de nêutrons
Neste tipo de choque não há mudança da energia interna
do núcleo, ocorrendo somente troca de energia e momento entre o nêutron e o núcleo. O problema é tratado
como o espalhamento de corpos quaisquer na Mecânica
Clássica, com conservação de energia e momento totais,
e definição do plano de espalhamento onde as trajetórias
estão contidas e o processo pode ser descrito. Como
para núcleos leves a massa do nêutron é comparável à
massa do núcleo, pode haver grande perda de energia
cinética do nêutron, e o núcleo de recuo pode ter velocidades suficientemente altas para caminhar no meio
e ionizá-lo. Trata-se do principal processo de freamento
do nêutron na matéria, principalmente para meios com
muito hidrogênio, pois, por possuir massa praticamente
igual à do nêutron, o hidrogênio de recuo (próton) pode
receber até toda a energia cinética do nêutron em um
único choque.
Notas finais
Fótons e nêutrons são considerados radiação indiretamente ionizante pois liberam um número muito discreto
de íons na matéria que atravessam: um ou dois elétrons,
um ou dois íons em cada interação. A ionização da matéria de fato ocorre quando esses elétrons e íons liberados
(radiações diretamente ionizantes) são freados no meio.
Ao lembrarmos que para ionizar o átomo de um gás são
necessários em média algumas dezenas de eV e para ionizar um semi condutor bastam poucos eV24, vemos que
a quantidade de cargas liberada em um meio quando
uma única PCR é freada é muito grande – da ordem de
104 pares de íons são produzidos em um gás e 106 íons
em um semicondutor, se a PCR tem 1 MeV de energia
cinética. A consequência da passagem da radiação ionizante pelo meio é a produção de ionizações e excitações
no meio e mais radiação ionizante além da incidente.
Do ponto de vista do material, as ionizações e excitações são causa de mudanças de propriedades físicas e
químicas que podem ser estudadas e relacionadas com
a quantidade de radiação que produziu as mudanças.
Todas as aplicações das radiações ionizantes, bem como
a metrologia das radiações ionizantes, são feitas a partir
desse estudo, seja ele em materiais inertes ou biológicos.
66
Revista Brasileira de Física Médica. 2009;3(1):57-67.
A modelagem física da interação da radiação com a
matéria faz, como é usual, uma série de simplificações.
Para as interações de fótons, a matéria é considerada um
mar de átomos cujas características de agregação e de
ligações químicas não fazem diferença. Para o estudo das
interações de nêutrons, só os núcleos importam. Já na
interação de partículas carregadas rápidas, em que a frequência de interações é grande, a constituição da matéria
é levada em conta, seja no cálculo dos potenciais de ionização atômicos ou moleculares, seja nos efeitos de polarização da matéria, dependentes da densidade do meio e
que são utilizados nos cálculos do poder de freamento. A
grande dificuldade teórica e experimental para obter valores corretos do poder de freamento tem sido enfrentada
por vários autores, principalmente no que se refere a íons
pesados18,25,26. As dificuldades se relacionam às características dos meios (densidade de cargas e regularidade na
sua distribuição, efeitos de polarização) e das partículas
(mudanças de estado de carga ao longo da trajetória, possibilidade de estados excitados do íon). Como todas as radiações acabam liberando PCR’s ao interagir com o meio,
melhorias nessa modelagem e superação das dificuldades
atuais são assuntos importantes no futuro da Física das
Radiações.
Referências
1. Feynman RP, Leighton RB, Sands M. The Feynman Lectures in Physics, v.
1. Massachusetts: Pearson Addison Wesley; 2006.
2. Attix FE. Introduction to Radiological Physics and Radiation Dosimetry. New
York: John Wiley and Sons; 1986.
3. Hubbell JH. Review and history of photon cross section calculations. Phys
Med Biol. 2006;51(13): R245-62.
4. Turner JE. Interaction of ionizing radiation with matter. Health Phys.
2004;86(3):228-52.
5. Evans RD. The Atomic Nucleus, New York: McGraw-Hill; 1955.
6. Davisson CM, Evans RD. Gamma-ray Absorption Coefficients. Rev Mod
Phys. 1952;24(2):79-107.
7. Heitler W. The Quantum Theory of Radiation. 3rd ed. New York: Dover
Publication; 1953.
8. NIST (Berger MJ et al). XCOM: Photon Cross Sections Database. [Página
na internet] [acesso em jul. 2009]. Disponível em: http://physics.nist.gov/
PhysRefData/Xcom/Text/XCOM.html.
9. Gureyev TE, Mayo SC, Myers DE, Nesterets Y, Paganin DM, Pogany A, et
al. Refracting Röntgen’s rays: propagation-based x-ray phase contrast for
biomedical imaging. J Appl Phys. 2009;105:102005.
10. Davis TJ, Gao D, Gureyev TE, Stevenson AW, Wilkins SW. Phase-contrast
imaging of weakly absorbing materials using hard x-rays. Nature
1995;373(6515):595-8.
11. Fitzgerald R. Phase-sensitive x-ray imaging. Phys Today 2000;53(7):23-6.
12. Dreossi D et al. The mammography project at the SYRMEP beamline. Eur J
of Radiol 2008; 68S: S58-S62.
13. NIST (Berger MJ et al). Stopping-power and range tables for electrons,
protons and helium ions. [Página na internet] [acesso em ago. 2009].
Disponível em: http://physics.nist.gov/PhysRefData/Star/Text/contents.
html.
14. Bohr N. Velocity-range relation for fission fragments. Phys Rev.
1941;59:270-5.
Física das Radiações: interação da radiação com a matéria
15. Ziegler JF, Biersack JP, Ziegler MD. SRIM, the stopping and range of ions in
matter. Morrisville: Lulu Press Co; 2008.
16. Paul H, Schinner A. Empirical stopping power tables for ions from 3Li to 18Ar
and from 0.001 to 1000 MeV/nucleon in solids and gases. Atomic Data and
Nuclear Data Tables. 2003;85:377-452.
17. Paul H. Stopping power for light ions. [Página na internet] [acesso em ago.
2009]. Disponível em: http://www.exphys.uni-linz.ac.at/stopping/.
18. Johns HE, Cunningham JR. The physics of radiology, 4th ed. Springfield,
Illinois: Charles C. Thomas; 1983.
19. Sabin JR, Oddershede J. Stopping power - What next? Adv Quantum Chem.
2005;49:299-319.
20. Bohr N. On the decrease of velocity of swiftly moving electrified particles in
passing through matter. Phil Mag. 1915;30:581-612.
21. Inokuti M. Inelastic collisions of fast charged particles with atoms and
molecules – the Bethe Theory revisited. Rev Mod Phys. 1971;43(3):297-347.
22. Smith AR. Proton therapy, Phys Med Biol. 2006;51:R491-504.
23. Nowotny R, Hofer A. A computer code for the calculation of diagnostic-xray spectra. Fortschritte Auf Dem Gebiete Der Rontgenstrahlen Und Der
Nuklearmedizin 1985;142:6685-9.
24. Kantele J. Handbook of Nuclear Spectroscopy. London: Academic Press;
1995.
25. Inokuti M. Remarks on stopping power: Its connections with particle
transport and with the electronic structure of matter. Int J Quantum Chem.
1996;57(2):173-82.
26. Nobel JA, Trickey SB, Sabin JR, Oddershede J. Basis set limitations on the
ab initio calculation of stopping cross-sections via generalized oscillator
strengths. Chem Phys. 2005;309(1):89-94.
27. NIST (Dragoset RA). Periodic Table: Atomic Properties of the Elements.
[Página na internet] [acesso em ago. 2009]. Disponível em: http://physics.
nist.gov/PhysRefData/PerTable/index.html.
Apêndice A: densidade e número atômico
O gráfico da Figura A1 mostra a densidade dos elementos químicos sólidos (ρ), em função do número atômico (Z). Embora a variação de ρ com Z dentro de cada
um dos 7 períodos da tabela periódica apresente uma
forma de pico, a tendência de aumento da densidade
com Z é notável, como se observa pelas linhas de tendência ajustadas aos pontos experimentais. Para os 11
elementos gasosos (os 6 gases nobres e H, N, O, F e
Cl), também incluídos no gráfico, a tendência é especialmente forte.
Essa tendência de aumento de densidade com número atômico justifica a utilização de seções de choque
para fótons e poder de freamento nas formas
,
que têm então dependências com o número atômico mais
fracas que
.
a
Fonte: NIST27.
Figura A1. Comportamento da densidade dos elementos químicos
com o número atômico. Os pontos cheios correspondem a elementos sólidos e os vazados aos gases (escala à direita). As retas verticais representam as fronteiras entre os períodos (linhas horizontais
da Tabela Periódica), indicados pelos números em fundo preto. As
retas de tendência do conjunto têm fatores de correlação R2 de
0,46105 (elementos sólidos) e 0,96793 (elementos gasosos).
Revista Brasileira de Física Médica. 2009;3(1):57-67.
67
Artigo de Revisão
Revista Brasileira de Física Médica. 2009;3(1):57-67.
Física das Radiações:
interação da radiação com a matéria
Radiation Physics: interaction of radiation with matter
Elisabeth Mateus Yoshimura1
Professora-associada do Departamento de Física Nuclear do Instituto de Física da Universidade de São Paulo
(USP), São Paulo (SP), Brasil
1
Resumo
Neste artigo é feita uma revisão sistemática da interação das radiações ionizantes com a matéria, ressaltando sua dependência com o tipo de
radiação, composição do meio e energia da radiação.
Palavras-chave: radiação; fótons; íons; elétrons; nêutrons.
Abstract
A systematic review of interaction of ionizing radiation with matter is presented in this paper. Special attention is given to the dependence of the
processes on the type and energy of radiation and on the medium composition.
Keywords: radiation; photons; ions; electrons; neutrons.
Introdução
Física das Radiações é o nome tradicional da área da
Física que estuda a interação das radiações ionizantes
com a matéria, com interesse especial nos resultados dessas interações, e em particular na transferência de energia
da radiação para o meio. Em primeiro lugar, é importante
ressaltar que há dois conceitos importantes relacionados
ao tema, que nem sempre são bem esclarecidos: interação e radiação ionizante. Interação é o termo que representa, na Física, a ação de uma força e o efeito causado
por essa ação1. Por exemplo, duas partículas carregadas
em repouso interagem pela ação da força coulombiana.
Radiação ionizante, por sua vez, é qualquer radiação, com
ou sem massa de repouso, que pode remover elétrons de
átomos e moléculas. O conjunto das radiações ionizantes
usualmente estudadas compreende:
i. radiação eletromagnética com energia de fóton acima
de 12 eV, que recebe várias denominações de acordo
com a origem: raios X – originados de desexcitações
atômicas (raios X característicos) e da desaceleração de partículas carregadas (Bremsstrahlung); raios
gama – originados de desexcitações nucleares; fótons de aniquilação – originados da aniquilação de
pares partícula-antipartícula;
ii. partículas eletricamente carregadas e que possuem
energia cinética bem maior que a energia térmica,
e superior a energias de ligação de elétrons atômicos, chamadas Partículas Carregadas Rápidas. Suas
origens podem ser a emissão por núcleos atômicos
(partículas alfa e beta e os produtos de fissão nuclear,
por exemplo), a emissão por átomos (elétrons Auger),
feixes produzidos em aceleradores de partículas (elétrons, pósitrons, prótons, dêuterons, íons em geral,
de qualquer número atômico ou número de massa),
a radiação cósmica primária ou produtos de sua interação com a atmosfera (múons, píons etc.), produtos
de reações nucleares, etc;
iii. nêutrons livres com qualquer energia cinética e de
qualquer origem.
Essa classificação das radiações ionizantes tem fundamentação nas forças responsáveis pelas interações e
na modelagem utilizada para descrevê-las. Fótons interagem pela ação de campos eletromagnéticos, atuando sobre partículas carregadas do meio; partículas carregadas
têm sua ação em elétrons do meio aproximada por interações coulombianas consecutivas; já os nêutrons atuam
sobre prótons e nêutrons de núcleos atômicos pela força
nuclear forte. As áreas da Física que tratam dessas interações são a Eletrodinâmica Quântica para interações entre
campos eletromagnéticos e cargas em movimento, e a
Física Nuclear para as interações entre nucleons. Em geral
não há soluções analíticas para o problema completo, e a
Correspondência: Elisabeth Mateus Yoshimura – Universidade de São Paulo, Instituto de Física, Departamento de Física Nuclear. Travessa R da Rua do
Matão, 187 – Cidade Universitária – 05508-900 – Sao Paulo (SP), Brasil – e-mail: [email protected]
Associação Brasileira de Física Médica®
57
Yoshimura EM
Física da Radiação se fundamenta em soluções analíticas
parciais e aproximações numéricas combinadas com resultados experimentais2-6. Neste artigo pretendemos revisar os principais marcos dessas interações, assim como
as suas consequências.
•
Interações da radiação eletromagnética
Na faixa de energias que inclui os raios X e gama, há várias interações possíveis com o átomo ou com elétrons
atômicos ou ainda com o núcleo, mas há também a
possibilidade de não-interação, ou seja, a interação da
radiação eletromagnética (REM) pode atravessar distâncias consideráveis em um meio material sem modificá-lo
e sem se modificar. As probabilidades de interação (e de
não-interação) dependem de características do meio e da
radiação. A REM ionizante é tratada, em boa parte dos casos, como um conjunto de partículas – os fótons. A cada
energia de fóton hv corresponde um momento associado
hv / c, e, dessa forma, podem ocorrer ‘colisões’ em que o
fóton transfere energia e momento para outras partículas.
As principais interações que ocorrem na matéria com fótons de energias na faixa de poucos keV até dezenas de
MeV são:
• espalhamento coerente (ou efeito Rayleigh): corresponde à absorção e re-emissão da radiação pelo
átomo, em uma direção diferente da de incidência.
Somente neste efeito a radiação é tratada como
onda; em todos os outros se considera a REM como
constituída de fótons;
• efeito fotoelétrico: o fóton é absorvido pelo átomo e
um elétron atômico é liberado para se mover no material. A energia cinética adquirida por esse elétron é
a diferença entre a energia do fóton e a energia de
ligação do elétron ao átomo;
• efeito Compton (ou espalhamento inelástico): trata-se
do espalhamento de um fóton por um elétron livre do
•
material. Há transferência de parte da energia e do
momento do fóton para o elétron, e um fóton com a
energia restante é espalhado em outra direção;
produção de pares elétron-pósitron: Neste processo,
o fóton é absorvido e toda sua energia é convertida
em massa de repouso e energia cinética de um par
partícula/antipartícula – elétron/pósitron. É interpretada como a transição de um elétron de um estado de
energia total negativa para um estado de energia total
positiva; a diferença de energia entre os dois estados é a energia do fóton incidente, que é absorvido;
a lacuna de um elétron no conjunto de estados de
energia negativa é observada como um pósitron7. É
possível a criação de outros pares de partícula/antipartícula, mas a energia necessária do fóton é muito
mais elevada. O efeito é resultado da interação entre
o fóton e o campo eletromagnético, e ocorre normalmente nas vizinhanças do núcleo, podendo também
acontecer devido à interação do fóton com o campo
de qualquer partícula carregada, incluindo os elétrons
atômicos. Neste caso particular, um elétron atômico
também é ejetado e o efeito é chamado de produção
de tripleto. É mais provável quanto mais intenso for o
campo;
reações fotonucleares: a principal reação nuclear provocada por fótons é a fotodesintegração, que equivale a um ‘efeito fotonuclear’ num paralelo com o efeito
fotoelétrico. O fóton com energia maior que a energia
de ligação de nucleons é absorvido pelo núcleo que
libera um próton ou um nêutron com energia cinética
suficiente para abandonar o núcleo, que se transforma em outra espécie nuclear.
O fóton é absorvido nos processos de efeito fotoelétrico, produção de par e reações fotonucleares. A Tabela 1
mostra, para cada efeito, quais são as consequências para
o meio e para a radiação, e quais radiações ionizantes são
produzidas ou liberadas em decorrência da interação.
Tabela 1. Interações possíveis de ocorrer para radiação eletromagnética ionizante – raios X, raios gama e fótons de aniquilação – e
consequências das interações
Interação – símbolo da
seção de choque
Espalhamento Coerente - scoer
(espalhamento da radiação
pelo átomo)
Fotoelétrico - t
(ejeção de elétron ligado)
Compton - sinc
(espalhamento do fóton
por um elétron)
Produção de Par - k
(energia do fóton é consumida
na criação do par (e- e+))
Reação Fotonuclear
(ejeção de nucleon ligado)
58
O que muda no meio
O que muda na radiação incidente Radiação ionizante produzida
Direção de propagação,
(mantém energia)
REM espalhada de mesma energia
Ionização e excitação do átomo,
recuo do núcleo
Ionização do átomo
Fóton é absorvido
Elétron rápido, raios X característicos,
elétrons Auger
Elétron rápido, fóton com menor energia,
espalhado
Recuo do núcleo; aniquilação
do pósitron
Fóton é absorvido
Fóton perde energia e muda
de direção
Núcleo modificado (Z ou A) e excitado Fóton é absorvido
Revista Brasileira de Física Médica. 2009;3(1):57-67.
Elétron e pósitron rápidos,
raios X de aniquilação
Partículas subnucleares, em geral nêutrons
Física das Radiações: interação da radiação com a matéria
Sob o ponto de vista de probabilidades de ocorrência, a ordem em que estão apresentadas as interações
na Tabela 1 corresponde, grosso modo, à prevalência
de cada efeito em função da energia de fóton: os efeitos
coerente e fotoelétrico ocorrem com maior probabilidade
para baixas energias, enquanto o efeito Compton ocorre
para intermediárias. Produção de par e reações fotonucleares só acontecem acima de um limiar de energia: no
primeiro caso, é necessário que o fóton tenha no mínimo
1,022 MeV de energia (equivalente a duas massas de repouso de elétron) para que toda sua energia se converta
em massa de repouso e energia cinética do par (e- e+); já
para as reações fotonucleares, a energia do fóton deve ser
superior à energia de ligação de nucleons (ao menos alguns MeV, em geral mais de 10 MeV) para que um nêutron
ou próton seja retirado do núcleo. A Figura 1 mostra com
mais clareza que o efeito Compton predomina para todos
os elementos da tabela periódica se as energias de fótons
estão entre algumas centenas de keV e alguns MeV, e predomina para todas as energias se os números atômicos
são baixos (região sombreada na Figura 1). Para números
atômicos elevados o efeito fotoelétrico é o mais provável
para energias baixas e a produção de par para energias
elevadas.
As reações fotonucleares ocorrem com probabilidades
muito menores que os outros efeitos e não são em geral
computadas nas probabilidades de interação. No entanto,
sua ocorrência é importante pois os nêutrons produzidos
podem ser um problema de proteção radiológica.
É conhecida a lei de atenuação de um feixe de fótons,
que relaciona o número de fótons incidentes perpendicularmente em um material homogêneo (N0) e o número de fótons que emerge desse meio sem interagir com
ele (N): N=N0e-mx, que também pode ser apresentada na
sua forma diferencial: dN=-μdx. O coeficiente µ, chamado de coeficiente de atenuação, representa a seção de
Figura 1. Gráfico que apresenta os valores de número atômico
e de energia que tornam iguais as probabilidades de ocorrência dos efeitos fotoelétrico e Compton (curva à esquerda) e dos
efeitos Compton e produção de par (curva à direita). Valores
obtidos a partir da base de dados XCOM8.
choque de interação entre cada fóton e o meio que atravessa, por unidade de volume. O coeficiente de atenuação
é a soma de coeficientes parciais (símbolos na Tabela 1)
para cada um dos efeitos, considerados independentes:
m=scoer+sinc+t+k, ou, como é mais comum, os coeficientes
mássicos:
,
que são o resultado da divisão dos coeficientes lineares
pela densidade do material (ρ) e representam seções de
choque por unidade de massa do material. O termo e-μx
representa a probabilidade de não interação por qualquer
dos efeitos, ao atravessar uma espessura x de material.
A Figura 2 mostra, para três dos átomos que compõem o corpo humano – oxigênio, carbono e cálcio –,
a variação desses coeficientes mássicos parciais com
a energia. Nota-se com clareza a forte dependência da
probabilidade de ocorrência do efeito fotoelétrico com a
energia do fóton:
(
aproximadamente).
Quanto maior a energia do fóton comparada à energia
de ligação dos elétrons ao átomo, menor a probabilidade
de desencadear o efeito fotoelétrico. Ainda na Figura 2,
para o átomo de Ca, é possível notar uma descontinuidade na curva de τ contra energia chamada de borda K:
esse aumento na seção de choque do efeito fotoelétrico
ocorre quando a energia do fóton coincide com a energia
de ligação dos elétrons mais ligados desse átomo, o que
Figura 2. Seções de choque, por unidade de massa, total (linhas cheias grossas) e parciais, para os efeitos fotoelétrico
(símbolos cheios) e produção de par (símbolos vazios) para três
dos principais átomos que constituem o corpo humano – C, O,
Ca. No destaque, o mesmo para Efeito Compton. As linhas unindo pontos são para guiar os olhos. Valores obtidos a partir da
base de dados XCOM8.
Revista Brasileira de Física Médica. 2009;3(1):57-67.
59
Yoshimura EM
permite que também os dois elétrons desse nível de energia passem a poder ser arrancados do átomo, reforçando a noção de que a interação é praticamente um efeito
ressonante.
A produção de par é o único dos efeitos cuja seção de
choque cresce monotonicamente com a energia, o que
produz a inversão da tendência decrescente de µ com
o aumento da energia do fóton. Por esse fato, fótons de
mais alta energia podem ser menos penetrantes que fótons de mais baixa energia e, para a maioria dos materiais, um mesmo valor de coeficiente de atenuação pode
corresponder a dois valores bem distintos de energia de
fóton. A produção de par se torna o efeito predominante
para todos os materiais em altas energias de fóton, mas
o crescimento de κ com a energia do fóton é muito mais
lento para energias altas que para as energias logo acima
do limiar de 1,022 MeV.
O espalhamento coerente, cuja seção de choque
como função da energia é mostrada na Figura 3, tem
dependência forte de número atômico do meio e energia do fóton. Recentemente têm sido desenvolvidas aplicações desse efeito para obtenção de imagens médicas
com o uso do contraste de fase para obtenção da imagem
ou para redução de ruído; as defasagens da onda eletromagnética são resultado da interferência entre ondas
espalhadas coerentemente ou refratadas por meios distintos9. Para esse tipo de imagem é necessário um feixe monocromático e coerente – de um síncrotron, em geral10-12.
Outra forma de observar a predominância de cada
efeito é pela variação das probabilidades de interação
com o material. Como já se nota na Figura 2, para o efeito
Compton quase não há variação da seção de choque para
os diversos elementos químicos. Mas para efeitos fotoelétrico e de produção de par a variação é expressiva com
o número atômico do meio. Examinando os gráficos da
Figura 4, conclui-se que a variação de τ/ρ com Z está próxima de uma potência entre 3 e 4. Já a produção de par
tem o coeficiente κ/ρ que cresce de maneira praticamente
linear com Z. Como há uma tendência linear de aumento da densidade dos elementos com o número atômico
(veja Apêndice A), a divisão dos coeficientes lineares por ρ
tende a tornar as seções de choque menos dependentes
de Z: o coeficiente linear τ tem a dependência próxima de
uma potência 4 e 5 com Z, κ varia com o quadrado de Z,
e σinc uma dependência linear com Z.
Interações das partículas carregadas rápidas
p
Figura 3. Pontos unidos por linhas - seções de choque parciais,
por unidade de massa, para o espalhamento coerente em carbono, oxigênio e cálcio. Curvas cheias: seção de choque para
efeito fotoelétrico dos mesmos elementos. Valores obtidos a
partir da base de dados XCOM8.
Ao contrário da REM, partículas carregadas têm probabilidade 100% de interagir no meio material, pois há cargas distribuídas no meio e a força coulombiana é de longo
alcance. O modelo mais frequentemente utilizado para
descrever a passagem de uma partícula carregada pela
matéria supõe que há uma sequência contínua de interações nas quais a partícula perde pequenas frações de
sua energia, até ser completamente freada e não ser mais
a
a
Figura 4. Seções de choque parciais, por unidade de massa, para os efeitos fotoelétrico (esquerda) e produção de par (direita) para
alguns valores de energia de fóton. As linhas claras unindo pontos são para guiar os olhos. As retas pretas indicam comportamentos
com potências inteiras de Z. Valores obtidos a partir da base de dados XCOM8.
60
Revista Brasileira de Física Médica. 2009;3(1):57-67.
Física das Radiações: interação da radiação com a matéria
considerada uma radiação ionizante. Essa aproximação
recebe o nome, em inglês, de continuous slowing-down
approximation (CSDA). A esse continuum de interações
suaves somam-se algumas interações mais intensas, nas
quais uma grande perda de energia acontece.
Entre as radiações ionizantes o elétron é a partícula carregada de menor massa de repouso (mec2 = 0,511 MeV),
de maneira que sua energia cinética (T), em geral, não
é desprezível se comparada com a energia de repouso.
Esse é o principal motivo para que o tratamento físico da
interação das partículas carregadas rápidas (PCRs) com a
matéria seja subdividido em dois grandes grupos: elétrons
(que inclui elétrons e pósitrons) e partículas carregadas
pesadas (todas as outras PCRs). Do ponto de vista fenomenológico, as diferenças estão explicitadas na tabela 2.
São necessárias algumas observações sobre a Tabela
2. Algumas das interações listadas como restritas a elétrons e pósitrons podem ocorrer também para íons pesados se suas energias cinéticas forem suficientemente
altas. Por exemplo, a emissão de radiação de freamento proveniente da interação da partícula carregada com
o campo eletromagnético do núcleo tem uma seção de
choque, obtida com cálculos de Eletrodinâmica Quântica7,
que é inversamente proporcional ao quadrado da massa
da partícula2,5. Assim, um elétron com 0,25 MeV de energia cinética tem uma probabilidade três milhões de vezes
maior de emitir fótons de Bremsstrahlung que um próton
com mesma velocidade (a energia cinética do próton seria de 500 MeV), interagindo com o mesmo material. As
reações nucleares são também pouco prováveis para todos os casos, a menos que a energia cinética seja muito
elevada.
A ocorrência de cada tipo de interação e a correspondente perda de energia pela PCR dependem basicamente
do parâmetro de impacto da interação, ou seja, da distância entre a trajetória da partícula e o centro do átomo mais
próximo. As interações com o núcleo são mais raras, pois
este ocupa uma área muito pequena do átomo. O choque
mais frequente é com a eletrosfera, predominando as colisões suaves sobre as colisões duras.
Para cada interação a energia cinética da partícula diminui de uma quantidade ∆Ti, que depende do tipo de
partícula, da sua energia cinética e do meio de interação.
A composição dos possíveis valores de ∆Ti, ponderados
pela probabilidade de ocorrência de cada tipo de interação, dá como resultado uma grandeza conhecida como
stopping-power, traduzido para o português como poder
de freamento, que representa a perda média de energia
por unidade de caminho em um determinado meio, considerando-se a média sobre um conjunto grande de partículas idênticas e com mesma energia. Para representar o
poder de freamento, usam-se os símbolos:
s .
As expressões e variações do poder de freamento com
energia e meio são tratadas separadamente para elétrons
e partículas carregadas, devido às diferenças entre interações já enfatizadas, e também porque as PCRs leves
têm tratamento relativístico que não é necessário para as
pesadas.
Outra característica importante das interações das
PCRs é a existência de uma distância máxima percorrida: para qualquer meio sempre é possível encontrar, para
qualquer material, uma espessura específica de que é
suficiente para parar (reduzir a energia cinética a valores
equivalentes à energia térmica) as partículas carregadas
que nele incidiram. À espessura mínima que freia todas
as partículas de um determinado tipo e energia, dá-se o
nome de alcance. Se a partícula tem uma trajetória sem
mudanças de direção, o alcance coincide com o comprimento da trajetória da partícula. Isso em geral não ocorre,
principalmente para as partículas leves, que percorrem caminhos em geral mais longos que a espessura necessária
para o seu freamento total devido a espalhamentos múltiplos. A definição de alcance requer então cálculos médios
e medidas experimentais. Conhecida a variação de S com
a energia cinética da partícula, pode-se calcular um comprimento médio de trajetória, para um número grande de
partículas idênticas de energia cinética inicial T0 dado por
Tabela 2. Interações possíveis de ocorrer para partículas carregadas rápidas e consequências das interações
Partícula carregada
Elétrons, pósitrons e íons
pesados
Interações possíveis
Colisão inelástica com o átomo
(colisão suave)
Colisão com elétron fortemente
ligado (colisão dura)
Choque elástico com o núcleo
Elétrons e pósitrons
Choque inelástico com o núcleo
Pósitrons
Aniquilação com um elétron
do meio
Reação nuclear
Todos
O que muda no meio de interação Radiação ionizante produzida
Excitação e eventual ionização de Partícula primária com pequena
átomos em camada de valência
mudança de direção, eventualmente um
elétron rápido (secundário)
Ionização (camada interna) e
Partícula primária, elétron rápido
excitação do átomo
(secundário), raios X característicos,
elétrons Auger
Recuo do núcleo
Partícula primária com mesma energia
e outra trajetória
Recuo do núcleo
Partícula primária e radiação
de freamento (Bremsstrahlung)
Ionização e excitação
Dois fótons de aniquilação, cada um
do átomo
com hn≥0,511 MeV
Núcleo modificado (Z ou A)
Partículas subnucleares, raios gama
e excitado
de desexcitação nuclear
Revista Brasileira de Física Médica. 2009;3(1):57-67.
61
Yoshimura EM
.
Cálculos desse tipo, com a aproximação CSDA, levam a valores disponíveis em tabelas na literatura13.
Experimentalmente, a determinação do alcance é feita
pela interposição de espessuras crescentes de material homogêneo em frente a um feixe de partículas e a
contagem do número de partículas que o atravessam. A
Figura 5 mostra exemplos da variação do número de partículas com espessura: na situação ideal (representada
pela linha tracejada) é simples identificar o alcance com
a espessura Lmáx; nas situações reais, como as vistas na
linha cheia e na linha mista, é possível definir o alcance
médio (L50) como a espessura que reduz o número de
partículas à metade, ou ainda definir, além de outros, o
alcance extrapolado (Lext) pela intersecção entre a tangente à curva de penetração e o eixo x. As curvas de
penetração de PCRs leves se assemelham à curva mista
da Figura 5, enquanto para as PCRs pesadas, as curvas
de penetração são mais bem definidas, como a curva em
linha cheia. Isso porque desvios apreciáveis de trajetória
dessas partículas em choques com elétrons do meio são
muito improváveis, pela grande diferença de massas.
Poder de freamento de partículas
carregadas pesadas
No cálculo do poder de freamento de partículas carregadas pesadas (PCPs), levam-se em conta as colisões suave e dura, não sendo computadas perdas de energia por
radiação de Bremsstrahlung ou por reação nuclear, consideradas pouco prováveis para partículas com até centenas de MeV de energia cinética. O poder de freamento
é chamado de eletrônico. No final da trajetória das PCPs
(
) também é importante o espalhamento elástico
com o núcleo, cuja perda de energia é computada separadamente, no poder de freamento nuclear.
Figura 5. Exemplos de curvas de penetração de partículas carregadas e algumas possíveis definições de alcance.
62
Revista Brasileira de Física Médica. 2009;3(1):57-67.
As dificuldades dos cálculos de perda de energia de
íons na matéria são de variadas origens: a distribuição de
elétrons no meio deve ser conhecida, sendo a estratégia o
uso de cálculos aproximados, como os de Hartree-Fock;
a carga do íon muda durante sua trajetória na matéria,
sendo definida uma carga efetiva que diminui com a velocidade do íon14,15 de uma forma que depende do meio;
há polarização da eletrosfera dos átomos à medida que o
íon penetra no meio; os potenciais interatômicos devem
ser bem conhecidos, considerada também a blindagem
pela nuvem eletrônica. Há vários conjuntos de tabelas
de dados e programas disponíveis para o cálculo dessa
grandeza12,14,16,17, baseadas em compilações de dados experimentais e uso de códigos de simulação pelo método
de Monte Carlo. Há também expressões analíticas para o
cálculo das perdas de energia2,18, mas o desconhecimento
de parâmetros dos meios de interação (potencial médio de
ionização e efeito de densidade) e a introdução de várias
correções tornam seu uso muito limitado – muitas vezes
a medição experimental de
em uma determinada faixa
de energia é efetuada para determinar experimentalmente
algumas características do meio em estudo19.
Dos valores conhecidos para o poder de freamento,
algumas regularidades podem ser observadas. A Figura 6
mostra que, para energias cinéticas relativamente altas, o
decréscimo de sm é quase linear com a energia cinética.
De fato, observando-se o gráfico à direita na Figura 6, em
que T é dividido pelo número de nucleons (para íons não
relativísticos com número de massa A,
),
nota-se que, para energias cinéticas acima de poucas
centenas de keV por nucleon, há uma variação decrescente e quase linear de sm com v2, independente da
massa do íon. O comportamento da perda de energia
com o inverso do quadrado da velocidade do íon foi
previsto inicialmente por Bohr20, e depois ratificada por
cálculos de Bethe4,21. Já o crescimento de sm com a
velocidade para energias baixas é, em boa parte, resultado da diminuição da carga efetiva do íon à medida que se torna mais lento. Apenas como exemplo, no
gráfico à direita na Figura 6 é também colocado o poder
de freamento nuclear de prótons em água, que só se
torna importante para energias muito baixas do íon. No
mesmo gráfico se observa a coincidência das curvas de
(sm/Z2) para quase toda a faixa de energias, inferindo-se
uma dependência de sm com o quadrado da carga do
íon: íons de mesma velocidade, percorrendo determinado meio, perdem energia por unidade de caminho mais
rapidamente quanto maior for a sua carga e independente de sua massa.
A consequência imediata do comportamento de
sm com T é que há uma grande perda de energia pelo
íon pouco antes do final de sua trajetória – o que normalmente é chamado de pico de Bragg, pois foi W. H.
Bragg, em 1905, quem primeiro observou o comportamento sistemático da absorção de energia de partículas
Física das Radiações: interação da radiação com a matéria
Figura 6. Esquerda: poder de freamento eletrônico, por unidade de massa, para três íons – próton (1H+), partícula alfa (4He2+) e
carbono (12C6+) - incidentes nos seguintes meios: água (pontos), carbono amorfo (linhas cheias), osso compacto (linhas tracejadas).
À direita o gráfico para água é repetido com grandezas reduzidas: sm/Z2 nas ordenadas e T/A nas abscissas. Valores obtidos com os
programas PStar e AStar12 e MStar16.
alfa na matéria5. A Figura 7 mostra o comportamento esperado para a deposição de energia por um próton na
água, para três energias distintas, e por um conjunto de
prótons de 200 MeV (no destaque). Como nem todas as
partículas do feixe seguem exatamente a mesma trajetória, há um alargamento da região de maior deposição
de energia em relação a uma partícula isolada. Esta característica da deposição de energia localizada tem sido
empregada para radioterapia nos últimos anos, principalmente na protonterapia22.
Poder de freamento de partículas carregadas leves
(elétrons e pósitrons)
O poder de freamento para elétrons (para simplificar a linguagem, a menos que se faça ressalva, a palavra elétron
se refere a elétrons negativos e positivos) é composto de
duas parcelas: uma se refere a perdas de energia cinética da partícula em processos de colisão (suave ou dura)
e outra às perdas por emissão de radiação S=Scol+Srad.
O termo de colisão tem o mesmo comportamento com
energia que o poder de freamento eletrônico para as PCRs
mais velozes, como se vê no lado esquerdo da Figura
8. Embora os valores de (sm)col para elétrons sejam bem
mais baixos que os vistos na Figura 6 para PCPs, eles
são bastante próximos aos de um íon de carga 1e com
mesma velocidade que o elétron. Já as perdas de energia
por processos de emissão de radiação (Bremsstrahlung)
têm um crescimento praticamente linear com a energia do
elétron, sendo o processo dominante para o freamento
dessas partículas para qualquer material em altas energias
de elétron.
A dependência do poder de freamento com o meio pode
ser mais bem observada no gráfico à direita na Figura 8: (sm)
cresce de forma aproximadamente linear com Z, e, conserad
quentemente (veja Apêndice A), Srad varia aproximadamente
com Z2. Ao mesmo tempo se observa que as perdas por
colisão diminuem à medida que aumenta o número atômico
do meio, efeito devido em parte à blindagem que a nuvem
Figura 7. Simulação da perda de energia por um único próton
em água, em função da distância percorrida, para energias
inicias de 50, 100 e 200 MeV. No destaque, a perda relativa
para um feixe de muitos prótons de 200 MeV, que, devido a
variações individuais de trajetória, mostra um alargamento
da região onde ocorre a máxima deposição de energia (pico
de Bragg).
eletrônica produz no campo elétrico percebido pelo elétron
rápido no meio, diminuindo a intensidade das interações.
Com essas características, pode-se inferir que a energia na
qual 50% da perda de energia ocorrem por processos de
colisão e 50% ocorrem por radiação é tão mais baixa quanto mais elevado é o número atômico do meio, como se vê
na Figura 9. Já se levarmos em consideração a trajetória
completa da partícula até parar, define-se o rendimento de
Revista Brasileira de Física Médica. 2009;3(1):57-67.
63
f
f
Yoshimura EM
Fonte: programa EStar12.
Figura 8. Gráfico à esquerda: poder de freamento (sm) de elétrons em água: de colisão (linha cheia fina), de radiação (linha tracejada)
e total (linha cheia e grossa) em função da energia cinética dos elétrons; os símbolos representam (sm)col: cheios para osso compacto
e vazios para carbono. Gráfico à direita: (sm)col (quadrados) e (sm)rad (triângulos) para vários elementos químicos, em função de Z, para
duas energias, sendo símbolos cheios para T=10MeV e símbolos vazios para T=15MeV.
radiação (Y) como a razão entre a quantidade de energia
perdida em média pelo elétron em processos radiativos e a
energia inicial com que o elétron incidiu no meio:
.
O gráfico à direita na Figura 9 mostra que a fração da energia total do elétron irradiada na forma de
Bremsstrahlung é em geral pequena, exceto se o meio
tem número atômico alto e o elétron é de alta energia.
A produção de raios X para uso médico se utiliza do
processo de Bremsstrahlung, com um feixe de elétrons
de energia cinética inicial T0 incidindo em um alvo de
número atômico alto (em geral W ou Mo) e espessura
maior que o alcance dos elétrons. Nos equipamentos
radiológicos T0, está na faixa de 20 a 150 keV; e nos
aceleradores lineares empregados em radioterapia, no
intervalo de 1 a 30 MeV. Como se vê no gráfico à direita na Figura 9, a energia irradiada nessas duas faixas,
em um alvo de W, corresponde a aproximadamente
de 2 a 50% da energia incidente. O restante da energia dos elétrons, que é perdida em processos de colisão, é quase todo convertido em calor. O espectro de
energias dos fótons de Bremsstrahlung é largo, como
o exemplo mostrado na Figura 10 (feixe de radiodiagnóstico, elétrons de 100 keV). Nessa mesma figura, os
picos observados nas energias próximas de 10, 60, 67
e 69 keV correspondem a transições de elétrons de
64
Revista Brasileira de Física Médica. 2009;3(1):57-67.
níveis excitados para níveis de menor energia, e formam o espectro característico de emissão do tungstênio. O espectro largo, entre 0 e 100 keV, corresponde
a emissões de radiação de freamento do elétron incidente, e seu formato pode mudar de acordo com os
materiais que atravessa dentro do próprio equipamento
de raios X22.
Interações de nêutrons
Nêutrons que incidem na matéria podem sofrer espalhamento elástico ou inelástico com núcleos do meio,
podem ser absorvidos e podem provocar reações nucleares diversas. Além disso, da mesma maneira que os
fótons, nêutrons podem atravessar diversas camadas
atômicas sem sofrer qualquer interação, pois a força
nuclear forte tem alcance muito curto e só atua entre
o nêutron e o núcleo. Em geral, quanto maior a energia
dos nêutrons, maior a sua penetração nos materiais,
pois a seção de choque de boa parte das interações
diminui com o aumento da energia cinética. No entanto, há processos específicos e ressonâncias que fogem
à regra. Assim, não é possível fazer muitas generalizações sobre as interações, e trataremos aqui apenas
das consequências em termos de produção de outras
radiações ionizantes. Na tabela 3 estão listadas as principais interações que serão brevemente discutidas a
Física das Radiações: interação da radiação com a matéria
Radiação
Colisão
a
Fonte: programa EStar12.
Figura 9. Gráfico à esquerda: faixas de energia e número atômico com predominância de perda de energia do elétron por processos
de colisão (região sombreada) e por radiação. A curva divisória representa (sm)col = (sm)rad. Gráfico à direita: rendimento de radiação em
função da energia do elétron para três materiais.
Processos inelásticos de interação de nêutrons
As reações nucleares em geral e o espalhamento inelástico do nêutron estão nesta categoria na qual se
incluem os processos em que o núcleo com o qual o
nêutron interagiu é modificado em termos de energia
interna (fica excitado), ou até em termos de sua composição de prótons e nêutrons. Em todos os casos
há o chamado recuo do núcleo, o qual pode adquirir
energia cinética suficiente para perder elétrons periféricos e se tornar uma partícula carregada rápida. As reações nucleares podem produzir núcleos radioativos,
sendo chamadas então de reações de transmutação
ou de ativação – são dos principais mecanismos de
r
f
seguir. Os produtos dessas interações são fótons (raios
gama) ou íons (núcleos de recuo e produtos de reações
nucleares), que passam a interagir com a matéria nas
formas vistas nas seções anteriores.
Figura 10. Espectro de raios X emitidos quando um alvo espesso de tungstênio é irradiado por elétrons com 100 keV de energia cinética. (Espectro gerado com o programa XCOMP5R23).
Tabela 3. Interações possíveis de ocorrer para nêutrons e consequências das interações
Interação
Espalhamento inelástico
O que muda no meio
Núcleo recua e fica excitado
Reação nuclear
Núcleo se torna
outra espécie nuclear
Espalhamento elástico
Recuo do núcleo
O que muda na radiação incidente
Direção de propagação
e energia do nêutron
Nêutron é absorvido
Direção de propagação
e energia do nêutron
Radiação ionizante produzida
Radiação gama (desexcitação do núcleo);
núcleo de recuo
Emissões radioativas do núcleo final;
radiação gama do núcleo final; produtos
da reação nuclear
Núcleo de recuo, nêutron com
menor energia, espalhado
Revista Brasileira de Física Médica. 2009;3(1):57-67.
65
Yoshimura EM
produção de isótopos radioativos. Como exemplos,
temos:
• reação de captura de um nêutron por um núcleo,
acompanhada de emissão gama:
;
• reações de troca entre um nêutron e um próton:
;
• reações com emissão de partículas:
;
• produção de radioisótopos:
.
Espalhamento elástico de nêutrons
Neste tipo de choque não há mudança da energia interna
do núcleo, ocorrendo somente troca de energia e momento entre o nêutron e o núcleo. O problema é tratado
como o espalhamento de corpos quaisquer na Mecânica
Clássica, com conservação de energia e momento totais,
e definição do plano de espalhamento onde as trajetórias
estão contidas e o processo pode ser descrito. Como
para núcleos leves a massa do nêutron é comparável à
massa do núcleo, pode haver grande perda de energia
cinética do nêutron, e o núcleo de recuo pode ter velocidades suficientemente altas para caminhar no meio
e ionizá-lo. Trata-se do principal processo de freamento
do nêutron na matéria, principalmente para meios com
muito hidrogênio, pois, por possuir massa praticamente
igual à do nêutron, o hidrogênio de recuo (próton) pode
receber até toda a energia cinética do nêutron em um
único choque.
Notas finais
Fótons e nêutrons são considerados radiação indiretamente ionizante pois liberam um número muito discreto
de íons na matéria que atravessam: um ou dois elétrons,
um ou dois íons em cada interação. A ionização da matéria de fato ocorre quando esses elétrons e íons liberados
(radiações diretamente ionizantes) são freados no meio.
Ao lembrarmos que para ionizar o átomo de um gás são
necessários em média algumas dezenas de eV e para ionizar um semi condutor bastam poucos eV24, vemos que
a quantidade de cargas liberada em um meio quando
uma única PCR é freada é muito grande – da ordem de
104 pares de íons são produzidos em um gás e 106 íons
em um semicondutor, se a PCR tem 1 MeV de energia
cinética. A consequência da passagem da radiação ionizante pelo meio é a produção de ionizações e excitações
no meio e mais radiação ionizante além da incidente.
Do ponto de vista do material, as ionizações e excitações são causa de mudanças de propriedades físicas e
químicas que podem ser estudadas e relacionadas com
a quantidade de radiação que produziu as mudanças.
Todas as aplicações das radiações ionizantes, bem como
a metrologia das radiações ionizantes, são feitas a partir
desse estudo, seja ele em materiais inertes ou biológicos.
66
Revista Brasileira de Física Médica. 2009;3(1):57-67.
A modelagem física da interação da radiação com a
matéria faz, como é usual, uma série de simplificações.
Para as interações de fótons, a matéria é considerada um
mar de átomos cujas características de agregação e de
ligações químicas não fazem diferença. Para o estudo das
interações de nêutrons, só os núcleos importam. Já na
interação de partículas carregadas rápidas, em que a frequência de interações é grande, a constituição da matéria
é levada em conta, seja no cálculo dos potenciais de ionização atômicos ou moleculares, seja nos efeitos de polarização da matéria, dependentes da densidade do meio e
que são utilizados nos cálculos do poder de freamento. A
grande dificuldade teórica e experimental para obter valores corretos do poder de freamento tem sido enfrentada
por vários autores, principalmente no que se refere a íons
pesados18,25,26. As dificuldades se relacionam às características dos meios (densidade de cargas e regularidade na
sua distribuição, efeitos de polarização) e das partículas
(mudanças de estado de carga ao longo da trajetória, possibilidade de estados excitados do íon). Como todas as radiações acabam liberando PCR’s ao interagir com o meio,
melhorias nessa modelagem e superação das dificuldades
atuais são assuntos importantes no futuro da Física das
Radiações.
Referências
1. Feynman RP, Leighton RB, Sands M. The Feynman Lectures in Physics, v.
1. Massachusetts: Pearson Addison Wesley; 2006.
2. Attix FE. Introduction to Radiological Physics and Radiation Dosimetry. New
York: John Wiley and Sons; 1986.
3. Hubbell JH. Review and history of photon cross section calculations. Phys
Med Biol. 2006;51(13): R245-62.
4. Turner JE. Interaction of ionizing radiation with matter. Health Phys.
2004;86(3):228-52.
5. Evans RD. The Atomic Nucleus, New York: McGraw-Hill; 1955.
6. Davisson CM, Evans RD. Gamma-ray Absorption Coefficients. Rev Mod
Phys. 1952;24(2):79-107.
7. Heitler W. The Quantum Theory of Radiation. 3rd ed. New York: Dover
Publication; 1953.
8. NIST (Berger MJ et al). XCOM: Photon Cross Sections Database. [Página
na internet] [acesso em jul. 2009]. Disponível em: http://physics.nist.gov/
PhysRefData/Xcom/Text/XCOM.html.
9. Gureyev TE, Mayo SC, Myers DE, Nesterets Y, Paganin DM, Pogany A, et
al. Refracting Röntgen’s rays: propagation-based x-ray phase contrast for
biomedical imaging. J Appl Phys. 2009;105:102005.
10. Davis TJ, Gao D, Gureyev TE, Stevenson AW, Wilkins SW. Phase-contrast
imaging of weakly absorbing materials using hard x-rays. Nature
1995;373(6515):595-8.
11. Fitzgerald R. Phase-sensitive x-ray imaging. Phys Today 2000;53(7):23-6.
12. Dreossi D et al. The mammography project at the SYRMEP beamline. Eur J
of Radiol 2008; 68S: S58-S62.
13. NIST (Berger MJ et al). Stopping-power and range tables for electrons,
protons and helium ions. [Página na internet] [acesso em ago. 2009].
Disponível em: http://physics.nist.gov/PhysRefData/Star/Text/contents.
html.
14. Bohr N. Velocity-range relation for fission fragments. Phys Rev.
1941;59:270-5.
Física das Radiações: interação da radiação com a matéria
15. Ziegler JF, Biersack JP, Ziegler MD. SRIM, the stopping and range of ions in
matter. Morrisville: Lulu Press Co; 2008.
16. Paul H, Schinner A. Empirical stopping power tables for ions from 3Li to 18Ar
and from 0.001 to 1000 MeV/nucleon in solids and gases. Atomic Data and
Nuclear Data Tables. 2003;85:377-452.
17. Paul H. Stopping power for light ions. [Página na internet] [acesso em ago.
2009]. Disponível em: http://www.exphys.uni-linz.ac.at/stopping/.
18. Johns HE, Cunningham JR. The physics of radiology, 4th ed. Springfield,
Illinois: Charles C. Thomas; 1983.
19. Sabin JR, Oddershede J. Stopping power - What next? Adv Quantum Chem.
2005;49:299-319.
20. Bohr N. On the decrease of velocity of swiftly moving electrified particles in
passing through matter. Phil Mag. 1915;30:581-612.
21. Inokuti M. Inelastic collisions of fast charged particles with atoms and
molecules – the Bethe Theory revisited. Rev Mod Phys. 1971;43(3):297-347.
22. Smith AR. Proton therapy, Phys Med Biol. 2006;51:R491-504.
23. Nowotny R, Hofer A. A computer code for the calculation of diagnostic-xray spectra. Fortschritte Auf Dem Gebiete Der Rontgenstrahlen Und Der
Nuklearmedizin 1985;142:6685-9.
24. Kantele J. Handbook of Nuclear Spectroscopy. London: Academic Press;
1995.
25. Inokuti M. Remarks on stopping power: Its connections with particle
transport and with the electronic structure of matter. Int J Quantum Chem.
1996;57(2):173-82.
26. Nobel JA, Trickey SB, Sabin JR, Oddershede J. Basis set limitations on the
ab initio calculation of stopping cross-sections via generalized oscillator
strengths. Chem Phys. 2005;309(1):89-94.
27. NIST (Dragoset RA). Periodic Table: Atomic Properties of the Elements.
[Página na internet] [acesso em ago. 2009]. Disponível em: http://physics.
nist.gov/PhysRefData/PerTable/index.html.
Apêndice A: densidade e número atômico
O gráfico da Figura A1 mostra a densidade dos elementos químicos sólidos (ρ), em função do número atômico (Z). Embora a variação de ρ com Z dentro de cada
um dos 7 períodos da tabela periódica apresente uma
forma de pico, a tendência de aumento da densidade
com Z é notável, como se observa pelas linhas de tendência ajustadas aos pontos experimentais. Para os 11
elementos gasosos (os 6 gases nobres e H, N, O, F e
Cl), também incluídos no gráfico, a tendência é especialmente forte.
Essa tendência de aumento de densidade com número atômico justifica a utilização de seções de choque
para fótons e poder de freamento nas formas
,
que têm então dependências com o número atômico mais
fracas que
.
a
Fonte: NIST27.
Figura A1. Comportamento da densidade dos elementos químicos
com o número atômico. Os pontos cheios correspondem a elementos sólidos e os vazados aos gases (escala à direita). As retas verticais representam as fronteiras entre os períodos (linhas horizontais
da Tabela Periódica), indicados pelos números em fundo preto. As
retas de tendência do conjunto têm fatores de correlação R2 de
0,46105 (elementos sólidos) e 0,96793 (elementos gasosos).
Revista Brasileira de Física Médica. 2009;3(1):57-67.
67
Artigo de Revisão
Revista Brasileira de Física Médica. 2009;3(1):69-75.
Metrologia das radiações ionizantes
Metrology of Ionizing Radiation
Laura Natal Rodrigues1
Doutora em Biofísica pela Universidade Federal do Rio de Janeiro; Pesquisadora Titular da Comissão Nacional
de Energia Nuclear; Docente do Programa de Pós-Graduação em Tecnologia Nuclear do Instituto de Pesquisas
Energéticas e Nucleares
1
Resumo
Neste trabalho, foi apresentada a estrutura metrológica em nível nacional e internacional com o intuito de apresentar os organismos internacionais
pertinentes, bem como as definições conceituais relevantes para a área da dosimetria das radiações ionizantes. Uma breve descrição dos padrões
existentes também foi apresentada.
Palavras-chave: metrologia, radiação ionizante, rastreabilidade
Abstract
In this paper, the national and international metrology structure was presented aiming an overview of the international organizations as well as the
conceptual definitions regarding the ionizing radiation dosimetry. A brief description of the existing standards was also presented.
Keywords: metrology, ionizing radiation, traceability
Introdução
A metrologia é definida como a ciência da medição. Ela
abrange todos os aspectos teóricos e práticos relativos
às medições qualquer que seja a incerteza, em quaisquer
campos da ciência ou tecnologia. Uma frase que ilustra
bem o significado da metrologia no contexto atual é a seguinte: “o grau de desenvolvimento de empresas e nações
pode ser avaliado pelo nível de sofisticação do seu sistema metrológico”1.
Pode-se entender que o objetivo geral da metrologia
consiste em sustentar a incerteza da unidade em um nível
que se torne uma contribuição desprezível para a incerteza global atribuída ao valor de uma grandeza física.
Metrologia e a sociedade
O rápido crescimento mundial das relações comerciais, a
pressão para que se removam as barreiras técnicas do
comércio, a necessidade de se desenvolver um sistema
que estabeleça confiança entre os parceiros comerciais
e, consequentemente, o desenvolvimento de sistemas de
credenciamento de laboratórios são os principais fatores
que induzem à necessidade de um sistema muito mais
transparente de rastreabilidade internacional dos resultados de medições, assegurando a comparabilidade deles.
A confiabilidade das medições com radiações ionizantes pode ser alcançada por meio da rastreabilidade de
sua cadeia metrológica. A rastreabilidade é definida como
a propriedade do resultado de uma medição ou do valor de um padrão relacionado a referências estabelecidas,
geralmente padrões nacionais ou internacionais, por meio
de uma cadeia contínua de comparações (cadeia de rastreabilidade), todas com incertezas estabelecidas2. Desta
forma, o objetivo da rastreabilidade é obter a garantia das
medições dentro dos sistemas de hierarquia.
O arranjo de reconhecimento mútuo (MRA)
Em fevereiro de 1988, no Bureau International des Poids et
Mesures (BIPM), 38 dirigentes dos Institutos Nacionais de
Metrologia (NMI) assinaram um acordo e se comprometeram a participar do “Reconhecimento mútuo dos padrões
nacionais de medição e certificados de calibração emitidos por Institutos Nacionais de Metrologia (RMA)”3.
Este acordo baseia-se no estabelecimento de equivalência de padrões nacionais da equivalência dos certificados de calibração emitidos pelos laboratórios que detêm
esses padrões nacionais. Segundo esse acordo, a equivalência deve ser estabelecida para cada um dos padrões
das unidades de medida que referendam o sistema metrológico desses países. A base da validação desse acordo
se dá pela participação dos padrões nacionais ou de medição nas chamadas comparações-chave (key-comparisons), cujo entendimento pressupõe a compreensão dos
conceitos de hierarquia e rastreabilidade metrológica.
Correspondência: Instituto de Pesquisas Energéticas e Nucleares, Comissão Nacional de Energia Nuclear (IPEN/CNEN), Avenida Professor Lineu Prestes,
2.242 – Cidade Universitária, CEP 05508-900 – São Paulo (SP), Brasil, e-mail: [email protected]
Associação Brasileira de Física Médica®
69
Rodrigues LN
A equivalência é definida como “a condição de ser
equivalente, isto é, igual para finalidades práticas, no
significado ou no valor”3. Um termo que tem aplicação
mais prática é o “grau de equivalência de um padrão de
medição”3, definido como o “grau com que o valor de
um padrão de medição é consistente com o valor de referência da comparação-chave3. Quantitativamente, ele
é expresso pelo desvio relativo em relação ao valor de
referência da comparação-chave e pela incerteza deste desvio, com nível de confiança de 95% ou fator de
abrangência k=2.
As comparações-chave, nas quais deve ser demonstrada e quantificada a equivalência, são definidas como
“um dos conjuntos de comparações selecionados por um
Comitê Consultivo do Bureau International des Poids et
Mesures (BIPM) para verificar os principais métodos e técnicas de um ramo específico da ciência”3.
A metrologia exige uma estrutura essencialmente hierárquica (Figura 1). No topo desta estrutura, encontram-se
as definições das unidades básicas de medida do Sistema
Internacional de Unidades (SI).
Logo abaixo da estrutura do SI, situa-se o BIPM, que
é o laboratório internacional de metrologia teoricamente
responsável pela prática da metrologia de maior exatidão.
Compete ao BIPM a guarda dos padrões internacionais
de medida e a disseminação das unidades do SI aos NMI
dos países signatários da Convenção do Metro que criou
o BIPM e estabeleceu esta lógica hierárquica.
Aos NMI cabe a guarda dos padrões nacionais e a disseminação das unidades SI para os padrões de referência
dos laboratórios credenciados de calibração de seus respectivos países.
Em seguida, encontram-se os laboratórios credenciados de ensaios que são responsáveis pela qualificação e
avaliação de conformidade de produtos que buscam a
certificação. Os padrões de referência dos laboratórios de
ensaio são calibrados em relação aos padrões de referência dos laboratórios de calibração credenciados.
Na base da estrutura, situam-se os padrões de trabalho dos usuários cuja calibração também provém dos
Figura 1. Hierarquia dos padrões de medição, destacando o
papel dos Laboratórios Nacionais de Metrologia (LNM) os quais
detém os padrões nacionais no Brasil.
70
Revista Brasileira de Física Médica. 2009;3(1):69-75.
padrões de referência dos laboratórios de calibração
credenciados.
Nesta estrutura hierárquica, as Organizações
Regionais de Metrologia (RMO) têm um papel muito importante no RMA, já que elas têm a responsabilidade de
realizar as comparações-chave no âmbito de suas regiões
de abrangência para estabelecer a confiabilidade mútua
na validade dos certificados de calibração e medição dos
seus NMI membros.
A fim de assegurar a rastreabilidade dos padrões e
medições dos laboratórios credenciados, os NMI devem
participar, independentemente dos programas regionais,
das comparações-chaves. Além disso, para garantir um
sistema metrológico coerente e robusto, torna-se necessário que esses programas regionais sejam interligados com o programa de comparações-chave do BIPM.
Os programas regionais das comparações-chave estão organizados em seis grandes blocos denominados
Organizações Regionais de Metrologia (RMO) e são os
seguintes:
1. Asia Pacific Metrology Programme (APMP): bloco regional constituído pelos países da região do Pacífico e
da Ásia;
2. Euro-Asian Cooperation of National Metrology
Programme (COOMET): bloco regional dos países da
Europa-Ásia;
3. European Association of National Metrology Institutes
(EUROMET): bloco regional dos países da Europa;
4. Middle East and Northern África Regional Metrology
Cooperation (MENAMET): bloco regional dos países
da Ásia;
5. Southern
African
Development
Community
Cooperation in Measurement Traceability (SADCMET):
bloco regional dos países da África Meridional;
6. Inter-American Metrology System (SIM): bloco regional
dos países das Américas.
O Comitê Internacional de Pesos e Medidas (CIPM)
criou uma série de Comitês Consultivos (CC), reunindo
os melhores especialistas em suas respectivas áreas,
que atuam como consultores sobre questões técnicas
e científicas3. Entre as tarefas dos CC estão as avaliações detalhadas dos avanços na Física que influenciam
diretamente a Metrologia, a preparação das recomendações para discussão no CIPM, a organização das comparações-chave internacionais de padrões, assim como
orientam o CIPM sobre os trabalhos científicos nos laboratórios do BIPM.
Atualmente, existem dez CC:
1. Comitê Consultivo para Eletricidade e Magnetismo
(CCEM), criado em 1927;
2. Comitê Consultivo para Fotometria e Radiometria
(CCPR), criado em 1933;
3. Comitê Consultivo para Termometria (CCT), criado em
1937;
4. Comitê Consultivo para Comprimento (CCL), criado
em 1952;
Metrologia das radiações ionizantes
5. Comitê Consultivo para Tempo e Frequência (CCTF),
criado em 1956;
6. Comitê Consultivo para Radiações Ionizantes (CCRI),
criado em 1958;
7. Comitê Consultivo para Unidades (CCU), criado em
1964;
8. Comitê Consultivo para Massa e Grandezas
Relacionadas (CCM), criado em 1980;
9. Comitê Consultivo para Quantidade de Matéria
(CCQM), criado em 1993;
10.Comitê Consultivo para Acústica, Ultrassom e Vibração
(CCAUV), criado em 1998.
Atualmente, admite-se a existência de um grau de
equivalência entre os padrões nacionais de medição dos
países cujos NMI participam das comparações internacionais organizadas sob o patrocínio do BIPM ou de
RMO. Mas essa equivalência ainda não está suficientemente sistematizada e os resultados não são publicados
de maneira acessível ao grande público. Apesar de ser
adequado para muitas finalidades, isto não é consistente
com o procedimento transparente e acessível exigido pela
filosofia de reconhecimento mútuo. Devido a isso, os NMI
assinaram o MRA, sob o patrocínio do CIPM, com relação
aos padrões nacionais e certificados de calibração e medição emitidos pelos NMI. Um grande foi feito pelo BIPM e
RMO para disponibilizar, em um banco de dados, os graus
de equivalência para as principais grandezas do Sistema
Internacional de Unidades (SI)*. Um panorama abrangente
e atualizado sobre a rede metrológica internacional foi publicado recentemente4.
A metrologia no Brasil
O desenvolvimento do campo da metrologia, padronização e avaliação de conformidade é realizado no Brasil
sob a estrutura do chamado Sistema Nacional Brasileiro
de Metrologia, Padronização e Qualidade Industrial
(SINMETRO), operado pelo INMETRO (Instituto Nacional
de Metrologia, Padronização e Qualidade Industrial) – o
único órgão oficial brasileiro de credenciamento de laboratórios de calibração e de ensaio e de certificação
de órgãos reguladores, que atua como o Secretariado
Executivo para o SINMETRO como um todo.
O corpo normativo do SINMETRO é o Conselho
Nacional de Metrologia, Padronização e Qualidade
Industrial (CONMETRO), que tem como objetivo estabelecer políticas nacionais referentes à metrologia, padronização e qualidade. Como Secretariado Executivo do
CONMETRO, o INMETRO é responsável pela implementação de políticas nacionais no que concerne à metrologia,
à padronização e à qualidade. As responsabilidades principais do INMETRO referentes a essas políticas incluem as
seguintes atividades:
• realização, manutenção e disseminação das unidades
do Sistema Internacional de Unidades (SI) no Brasil;
* Banco de dados disponível em http://kcdb.bipm.org
• gerenciamento do Sistema de Metrologia Legal no
Brasil;
• credenciamento de laboratórios de ensaio, órgãos de
inspeção, treinamento de pessoal e órgãos de certificação, qualidade e órgãos de certificação de sistemas
de gerenciamento ambiental e órgãos de certificação
de produtos;
• credenciamento de laboratórios de calibração.
Metrologia científica no Brasil
O Laboratório Nacional de Metrologia (LNM) é responsável
pela realização, manutenção e disseminação das unidades do SI no Brasil, desempenhando atividades de metrologia de mais alto nível no país e fornecendo as bases para
a rastreabilidade para esses laboratórios de calibração
credenciados pelo INMETRO. As seguintes organizações
constituem a estrutura dos LNM no Brasil:
1. os laboratórios da Diretoria de Metrologia Científica
(DIMCI), que abrangem as padronizações na área de
Mecânica, Elétrica, Acústica e de Vibrações, Óptica,
Térmica e Metrologia Química e Ambiental;
2. os laboratórios do Departamento do Serviço da Hora
do Observatório Nacional (DSH-ON/CNPq);
3. o Laboratório Nacional de Metrologia das Radiações
Ionizantes do Instituto de Radioproteção e Dosimetria
(LNMRI-IRD/CNEN).
Sistema internacional de unidades
No SI distinguem-se duas classes de unidades: unidades
de base e unidades derivadas. Sob o aspecto científico,
a divisão das unidades SI nessas duas classes é arbitrária, porque não é uma imposição da Física. Entretanto,
a Conferência Geral, levando em consideração as vantagens de se adotar um sistema prático único para ser
utilizado mundialmente nas relações internacionais, no
ensino e no trabalho científico, decidiu basear o Sistema
Internacional em sete unidades perfeitamente definidas,
consideradas independentes do ponto de vista dimensional: o metro, o kg, o segundo, o ampère, o kelvin, o
mol e a candela. Essas unidades SI são chamadas unidades de base5.
Unidade de base
Segundo esta mesma terminologia, a unidade de base
é entendida como a unidade de medida de uma grandeza de base em um sistema de grandezas. É importante ressaltar que, em um sistema de unidades coerentes, há uma única unidade de base para cada grandeza
fundamental.
Por sua vez, a grandeza de base é a grandeza que, em
um sistema de grandezas, é aceita por convenção como
funcionalmente independente de outra grandeza. Como
exemplo, as grandezas comprimento, massa e tempo são
geralmente tidas como grandezas de base no campo da
mecânica.
Revista Brasileira de Física Médica. 2009;3(1):69-75.
71
Rodrigues LN
Unidade derivada
A segunda classe de unidades SI abrange as unidades
derivadas, isto é, as unidades que podem ser formadas
combinando-se unidades de base segundo relações algébricas que interligam as grandezas correspondentes.
Diversas destas expressões algébricas, em razão de unidades de base, podem ser substituídas por nomes e símbolos especiais, o que permite sua utilização na formação
de outras unidades derivadas.
A unidade derivada é a unidade de medida de uma
grandeza derivada em um sistema de grandezas. Por sua
vez, a grandeza derivada é a grandeza definida como função de grandezas de base deste sistema. Como exemplo, em um sistema que tem como grandezas de base
o comprimento, a massa e o tempo, a velocidade é uma
grandeza derivada, definida como o comprimento dividido
por tempo.
É importante acentuar que cada grandeza física tem
uma só unidade SI, mesmo que esta unidade possa ser
expressa sob diferentes formas. Porém, o inverso não é
verdadeiro: a mesma unidade SI pode corresponder a várias grandezas diferentes.
Algumas unidades derivadas possuem nomes e símbolos especiais, por exemplo, no SI: força (N); energia
(J); pressão (Pa). As unidades derivadas compreendem as unidades derivadas adimensionais: radiano e
esterradiano.
Sistema coerente de unidades
Cada grandeza pode ter apenas uma única unidade obtida por multiplicação ou divisão das unidades de base
e das unidades derivadas adimensionais, sem outro fator
que não seja o número 1. As unidades derivadas são interligadas por meio de sua definição (por exemplo: metro
por segundo e volt).
Definição de grandeza
Uma grandeza pode ser expressa por meio da seguinte
relação:
Grandeza = (valor numérico)x . (unidade)x
Na qual x é o sistema de unidades da grandeza em
questão.
Unidade de base: o metro
A definição do metro baseada no protótipo internacional
em platina iridiada, em vigor desde 1889, foi substituída na
11a CGPM (1960) por uma definição baseada no comprimento de onda da radiação do Kn-86, com a finalidade de
aumentar a exatidão da realização do metro. A 17a CGPM
substituiu, em 1983, essa última definição pela seguinte:
“O metro (m) é o comprimento do trajeto percorrido pela
luz no vácuo durante um intervalo de tempo de 1/299 792
458 de segundo” 6.
Esta definição tem o efeito de fixar a velocidade da luz
em 299.792.548 m.s-1, exatamente. É necessário medir
72
Revista Brasileira de Física Médica. 2009;3(1):69-75.
o intervalo de tempo (Dt) necessário para que um pulso
luminoso percorra, no vácuo, distâncias bem superiores
a dezenas de km, de modo que Dt a ser medido não seja
muito curto. O antigo protótipo internacional do metro é
conservado no BIPM nas mesmas condições em que foi
fixado em 1889.
Unidade de base: o quilograma
O protótipo internacional do kg foi sancionado pela 1a
CGPM quando se declarou que “este protótipo será considerado doravante como unidade de massa” (CGPM
1890). A 3a CGPM, para acabar com a ambiguidade que
ainda existia no uso corrente sobre o significado da palavra “peso”, confirmou que o quilograma (kg) é a unidade
de massa: é a massa protótipo internacional do kg.
Calibrar uma massa é compará-la à massa do protótipo internacional do kg. Isto implica que massas de
transferência são utilizadas entre a referência nacional e as
massas destinadas para uso corrente.
Unidade de base: o segundo
Primitivamente, o segundo, unidade de tempo, era definido como a fração 1/86.400 do dia solar médio. A definição exata do “dia solar médio” fora deixada aos cuidados
dos astrônomos, porém os seus trabalhos demonstraram que o dia solar médio não apresentava as garantias
de exatidão requeridas devido às irregularidades da rotação da Terra. Para conferir maior exatidão à definição
da unidade de tempo, a 11a CGPM sancionou outra definição fornecida pela União Astronômica Internacional, e
baseada no ano trópico. Na mesma época, as pesquisas
experimentais tinham já demonstrado que um padrão
atômico de intervalo de tempo, baseado em uma transição entre dois níveis de energia de um átomo ou de
uma molécula, poderia ser realizado e reproduzido com
precisão muito superior.
Desta forma, a 13a CGPM7 decidiu substituir a definição do segundo pela seguinte: “O segundo (s) é a duração
de 9.192.631.770 períodos da radiação correspondente
à transição entre dois níveis hiperfinos do estado fundamental do átomo de césio 133”. A radiação do Césio-133
é utilizada como referência para estabilizar a frequência de
um oscilador de quartzo. Em 1997, o CGPM confirmou
que: “essa definição se refere a um átomo de césio em
repouso, a uma temperatura de 0 K”8.
Unidade de base: o ampère
Diversas unidades elétricas ditas internacionais para a
intensidade de corrente elétrica e para a resistência haviam sido introduzidas no Congresso Internacional de
Eletricidade, em 1893. Embora por ocasião da 8a CGPM9
já fosse evidente a opinião unânime no sentido de substituir as unidades “internacionais” por unidades ditas “absolutas”, a decisão formal de suprimir estas unidades
“internacionais” foi tomada somente pela 9ª CGPM10,
que adotou para o ampère, unidade de corrente elétrica,
a seguinte definição: “o ampère é a intensidade de uma
Metrologia das radiações ionizantes
corrente elétrica constante que, mantida em dois condutores paralelos, retilíneos, de comprimento infinito, de
seção circular desprezível, e situados à distância de 1 m
entre si, no vácuo, produz entre estes condutores uma
força igual a 2 x 10-7 newton por metro de comprimento.”
Unidade de base: o kelvin
A definição da unidade de temperatura termodinâmica foi
dada pela 10a CGPM (CGPM 1956), que escolheu o ponto
tríplice da água como ponto fixo fundamental, atribuindo-lhe
a temperatura de 273,16 oK por definição. A 13a CGPM11
formulou a definição da unidade de temperatura termodinâmica: “o kelvin, unidade de temperatura termodinâmica, é
a fração 1/273,16 da temperatura termodinâmica no ponto
tríplice as água”. Esta mesma CGPM decidiu também que
a unidade kelvin e seu símbolo K fossem utilizados para expressar um intervalo ou uma diferença de temperatura.
Unidade de base: o mol
Desde a descoberta das leis fundamentais da química,
utilizaram-se diversas unidades denominadas, por exemplo, “átomo grama” ou “molécula grama”, para especificar
quantidades de diversos elementos ou compostos químicos. Estas unidades eram estritamente ligadas aos “pesos
atômicos” ou aos “pesos moleculares”. Originalmente, os
“pesos atômicos” eram referidos ao elemento químico oxigênio. Porém, enquanto os físicos separavam os isótopos
no espectrógrafo de massa e atribuíam o valor 16 a um
dos isótopos do oxigênio, os químicos atribuíam o mesmo
valor à mistura (levemente variável) dos isótopos 16, 17 e
18, que, para eles, constituía o elemento oxigênio natural.
Um acordo entre a União Internacional de Física Pura
e Aplicada e a União Internacional de Química Pura e
Aplicada resolveu esta dualidade em 1959-1960. Desde
então, físicos e químicos concordam em atribuir o valor
12 para o isótopo 12 do carbono. A escala unificada assim obtida estabelece os valores das “massas atômicas
relativas”. Faltava determinar a massa que corresponde à
unidade de quantidade de carbono 12. Por acordo internacional, essa massa foi fixada em 0,012 kg, e foi dado o
nome de mol à unidade da grandeza “quantidade de matéria”. Dessa forma, a definição adotada para o mol é a seguinte12: “o mol é a quantidade de matéria de um sistema
contendo tantas entidades elementares quantos átomos
existem em 0,012 kg de carbono 12. Quando se utiliza o
mol, as entidades elementares devem ser especificadas,
podendo ser átomos, moléculas, íons, elétrons, assim
como outras partículas, ou agrupamentos especificados
em tais partículas”. Nesta definição, entende-se que se faz
referência aos átomos de carbono 12 livres, em repouso e
no seu estado fundamental.
Unidade de base: a candela
As unidades de intensidade luminosa baseadas em padrões
de chama ou filamento incandescente foram substituídas
em 1948 pela “vela nova”, que correspondia à luminância
do emissor de radiação Planck (corpo negro) à temperatura
de solidificação da platina. Em 1948, foi adotado o novo
nome internacional, candela, para designar a unidade de
intensidade luminosa. No entanto, em virtude das dificuldades experimentais da realização do irradiador de Planck a
temperaturas elevadas e das novas possibilidades oferecidas pela radiometria, foi adotada, em 1979, a nova definição13: “a candela é a intensidade luminosa, em uma dada
direção de uma fonte que emite uma radiação monocromática de frequência 540 x 1012 hertz e cuja intensidade
energética nessa direção é 1/683 watt por esterradianos”.
Unidades possuidoras de nomes especiais
e símbolos particulares
Por questões de comodidade, certas unidades derivadas
receberam nome especial e símbolo particular. Estes nomes e símbolos podem ser utilizados, por sua vez, para
expressar outras unidades derivadas, sobretudo as unidades das grandezas relativas à radiação ionizante, tais
como: atividade (becquerel – Bq); dose absorvida, energia
específica, kerma (gray – Gy); equivalente de dose, equivalente de dose ambiente, equivalente de dose direcional,
equivalente de dose individual, dose equivalente em um
órgão (sievert – Sv).
Na prática, a fim de reduzir o risco de confusão entre
grandezas de mesma dimensão, emprega-se, para exprimir
sua unidade, de preferência um nome especial ou uma combinação particular de unidades. No âmbito das radiações
ionizantes, utiliza-se a unidade SI de atividade, becquerel,
mais vezes que o segundo elevado à potência menos um; e
emprega-se a unidade SI de dose absorvida e a unidade SI
de equivalente de dose, gray e sievert respectivamente, mais
frequentemente que joule por kg. Os nomes especiais becquerel, gray e sievert foram introduzidos especificamente por
motivos de risco para a saúde humana que poderiam resultar
de erros no uso das unidades: segundo elevado à potência
menos um e joule por kg.
Recentemente, foi publicado um artigo de revisão14 no
qual é apresentada uma evolução histórica neste último
século das grandezas e unidades empregadas na dosimetria das radiações ionizantes. Especificamente na área de
Proteção Radiológica, também foi publicada uma revisão
bem interessante a respeito dos padrões internacionais
para dosímetros empregados neste campo de interesse15.
Vocabulário internacional de termos fundamentais e
gerais de metrologia
O Vocabulário Internacional de Metrologia12 foi traduzido por
um Grupo de Trabalho de Terminologia da Rede Brasileira
de Calibração, com o objetivo de padronizar e apresentar
o atual estado da arte da linguagem metrológica brasileira.
Graus de equivalência de metrologia em
dosimetria das radiações ionizantes
O arranjo de reconhecimento mútuo assinado por 38
Institutos Nacionais de Metrologia no BIPM, em fevereiro
Revista Brasileira de Física Médica. 2009;3(1):69-75.
73
Rodrigues LN
de 1988, objetivou o estabelecimento dos graus de equivalência metrológica entre os padrões primários das principais grandezas físicas do SI. Na dosimetria das radiações ionizantes e na radioatividade, as grandezas em
questão são o kerma no ar, a dose absorvida na água e
na atividade. Para estabelecer os graus de equivalência
entre os NMI para uma dada grandeza física, o principal
elemento a ser avaliado é o valor de referência de uma
comparação-chave.
A seguir, serão descritos os principais padrões primários que servem como base para se estabelecer a rastreabilidade das medições na dosimetria das radiações
ionizantes, assim como na radioatividade.
Câmara de ar-livre: requisitos
• Campo elétrico na região coletora precisa ser uniforme.
• Campo elétrico precisa ser suficiente para reduzir a recombinação iônica.
• Dimensões precisam ser suficientemente grandes
para que a maioria da energia dos elétrons liberados
seja dissipada dentro do ar no interior da câmara.
• Ionização produzida pela radiação espalhada fora do
feixe precisa ser pequena.
• Radiação proveniente de outras partes fora da abertura de entrada precisa ser reduzida por meio de uma
blindagem adequada em torno da câmara.
Vantagens da câmara de ar-livre
• Possibilita um conhecimento preciso da massa de ar na
qual os elétrons estão sendo liberados pela radiação.
• Assegura a coleta do número de íons igual ao número
total de íons produzidos por esses elétrons.
• Mede precisamente a corrente de ionização resultante.
Padrões de radioatividade
A grande variedade de partículas emitidas pelos radionuclídeos implica alterações das fontes radioativas e, consequentemente, a realização de um padrão primário único
em metrologia de radionuclídeos não é mais planejada.
Desta forma, as referências primárias consistem na combinação de instrumentos e métodos de medição específicos a cada tipo de radionuclídeos ou, alternativamente, na
medida direta da atividade das fontes radioativas. Sendo
assim, as fontes são preparadas de forma que os padrões
de radioatividade sejam os mais puros e mais homogêneos possíveis.
International Reference System
O Sistema Internacional de Referência (SIR), coordenado pelo BIPM, é um sistema criado com a finalidade de possibilitar aos Laboratórios Nacionais de
Metrologia (LNM) verificarem seu grau de confiança de
suas medições de atividade pela comparação com outros laboratórios. Dessa forma, emissores γ (líquidos ou
gasosos) são enviados para o BIPM pelos LNM, onde
eles são comparados com fontes padrão de meia-vida
alta (como, por exemplo, o 226Ra) usando câmaras de
74
Revista Brasileira de Física Médica. 2009;3(1):69-75.
ionização pressurizadas. Esse sistema de referência é
um sistema simples, com alta estabilidade e que possibilita o estabelecimento dos graus de conformidade entre os laboratórios participantes dessas comparações
interlaboratoriais.
Banho de sulfato de manganês
Neste sistema de padronização primária para fluência de
nêutrons, uma fonte de Am-Be (padrão nacional de fluência) é introduzida no centro da parte interior do banho.
Após um período de 24 horas, retira-se a fonte e é introduzido, no interior do banho de sulfato de manganês, um
detector de cintilação para medir sucessivamente o decaimento gama dos átomos de manganês. Desta forma, o
valor da taxa de fluência de nêutrons emitido pelo padrão
nacional é comparado ao resultado obtido na padronização feita no BIPM.
Ionometria
A ionometria é o método de medição para a determinação da energia média por unidade de massa, transferida a uma massa conhecida de gás, da qual pode ser
deduzida a energia transferida ao material circundante.
Essas energias estão relacionadas à carga elétrica que
a radiação ionizante libera por ionização. As câmaras de
ionização são instrumentos que apresentam uma grande
sensibilidade, e são utilizáveis para todas as radiações.
Geralmente, as câmaras de ionização são empregadas
para as medidas primárias de exposição e de kerma no
ar (feixes de fótons). Além disso, elas são empregadas
em medidas relativas de taxa de dose absorvida nos tecidos (radiação γ) ou de taxa de dose absorvida na água
(feixes de fótons e elétrons).
Câmara cavitária: vantagens
• É compacta: alcance dos elétrons na parede sólida é
mil vezes maior do que no ar.
• Pode medir campos multidirecionais.
• Determinação da dose absorvida em qualquer material
da parede por meio da teoria da cavidade.
• Pode ter várias configurações, possibilitando a medida da dose de partículas carregadas, nêutrons e
fótons.
• As cavidades de gás podem ser pequenas e planas
para medir a dose na superfície de um objeto simulador, a dose em profundidade e a dose em vários
pontos.
• Carga coletada pode ser medida em um tempo real
por meio de um eletrômetro.
Calorimetria
Este método de medição permite determinar, em uma
massa conhecida de um determinado material (da ordem
do grama), a energia média depositada pela radiação e
que é transformada em calor. Por suas características básicas, o calorímetro é considerado como um padrão primário para a grandeza dose absorvida. Existem dois tipos
Metrologia das radiações ionizantes
de calorímetros: o calorímetro de grafite e o calorímetro
de água. Ambos apresentam uma baixa sensibilidade, da
ordem de 1 mK/Gy, podendo ser utilizados apenas para
energias acima de 1 MeV.
Calorímetro de grafite: vantagens
• Defeito térmico de calor conhecido.
• Toda a energia absorvida é transformada em calor.
• Tem alta difusibilidade térmica de forma que o calor é
espalhado em torno de qualquer componente.
• É similar à água.
• É facilmente usinável.
Calorímetro de grafite: problemas
• Isolamento térmico do disco.
• Perda de calor pelo disco.
• Medidas de variações de temperatura da ordem de
mK com precisão suficiente em laboratório, nas quais
pode ocorrer uma variação de um grau durante uma
série de medidas.
Dosimetria Fricke
O princípio de funcionamento do dosímetro Fricke é baseado na oxidação de uma solução aquosa ácida de sulfato
ferroso. A quantidade de conversão de Fe+2 para Fe+3 está
diretamente relacionada à dose absorvida no meio em
questão e, pela medida da variação da densidade ótica
com um espectrômetro, é determinada a dose absorvida.
No entanto, a incerteza inerente ao rendimento radioquímico faz com que este sistema seja utilizado apenas para
medidas relativas.
Agradecimentos
Este trabalho foi realizado com o apoio do INCT em
Metrologia das Radiações na Medicina (FAPESP e CNPq).
Agradeço também aos comentários e sugestões da
Doutora Linda V.E. Caldas.
Referências
1. Frota MN. Metrology in Chemistry: a new challenge for the Americas:
proceedings of the First Interamerican Workshop on Metrology in Chemistry.
Rio de Janeiro: Qualimark; 1998. p. 1-25.
2. Vocabulário Internacional de Termos Fundamentais e Gerais de Metrologia
(VIM). Portaria INMETRO no 029 de 1995. Instituto Nacional de Metrologia e
Normalização e Qualidade Industrial (INMETRO). 5ª Ed. Rio de Janeiro: SENAI;
2007.
3. BIPM. Mutual Recognition of national Measurement Standards and of Calibration
and Measurement Certificates Issued by National Metrology Institutes (CIPM
MRA). Sèvres, France: Comité International des Poids et Mesures; 1999.
4. Allisy PJ, Burns DT, Andreo P. International framework of traceability for radiation
dosimetry quantities. Metrologia. 2009;46:S1-S8.
5. Quinn TJ. Base units of the Système International d’Unités, their accuracy,
dissemination and international traceability. Metrologia. 1994;31:
515-27.
6. Giacomo P. News from the BIPM, New Definition of the Metre. Metrologia
1984;20(1):25-30.
7. Terrien J. News from the International Bureau of Weight and Measures.
Metrologia. 1969;4(1):43.
8. Quinn TJ. News from the BIPM – International Report. Metrologia. 2000;37(10):94.
9. CGPM. Résolution de la 8e réunion de la CGPM. Substitution des unités
électriques absolues aux unités dites «interantionelles». Comptes Rendus de la
8e CGPM, p. 53, 1934.
10. CGPM. Résolution de la 9e réunion de la CGPM. Concernant la question des
retouches à apporter á la Convention du Métre. Comptes Rendus de la 9e
CGPM, p. 72, 1949.
11. CGPM. Résolution 4 de la 13e réunion de la CGPM, Définition de l’unité SI de
températurethermodynamique (kelvin). Comptes Rendus de la 13e CGPM, p.
104, 1969.
12. INMETRO. Vocabulário internacional de termos fundamentais e gerais de
metrologia Instituto Nacional de Metrologia, Normalização e Qualidade
Industrial. 2a edição, 2000.
13. CGPM. Résolution 3 de la 16e réunion de la CGPM. Unité SI d´intensité
lumineuse (candela). Comptes Rendus de la 16e CGPM, p. 100, 1980.
14. Jennings WA. Evolution over the past century of quantities and units in radiation
dosimetry. J Radiol Prot. 2007;27(1):5-16.
15. Behrens R, Ambrosi P. Review of international standards for dosemeters. Rad
Prot Dosim. 2008;128:159-68.
Revista Brasileira de Física Médica. 2009;3(1):69-75.
75
Artigo de Revisão
Revista Brasileira de Física Médica. 2009;3(1):77-90.
Controle de qualidade em radioterapia
Quality assurance in radiotherapy
Laura Furnari1
1
Instituto de Radiologia (INRAD) do Hospital das Clínicas da Faculdade de Medicina da Universidade de São Paulo
(USP) – São Paulo (SP), Brasil.
Resumo
O objetivo deste artigo é fazer uma revisão sobre controle de qualidade em radioterapia. A metodologia empregada é, após uma pequena descrição
dos aspectos mais importantes de cada modalidade de tratamento, apresentar uma tabela com testes sugeridos por organismos internacionais. Na
maioria das tabelas está indicada a frequência e a tolerância para cada teste. Relata-se também como a radioterapia evoluiu no século passado, e
apresentam-se diversos conceitos teóricos relacionados ao controle de qualidade. A descrição dos procedimentos para a realização dos principais
testes será tema de outro artigo.
Palavras-chave: controle de qualidade; radioterapia; aceleradores lineares; cobaltoterapia; simuladores.
Abstract
The objective of this article is to do a review about the quality assurance in radiotherapy. The methodology used is to do a short description showing
the most important aspects about each treatment modality and after to present a table with the tests suggested by international organisms for each
modality. The frequency and the tolerance for each test are presented in the tables. How the radiotherapy changed in the last century is reported
Also a discussion about several theoretical concepts related to quality control is presented. The description of the procedures for the realization of
the tests will be subject in other manuscript.
Keywords: quality assurance; radiotherapy; linear accelerator; cobalt machine; simulators.
Histórico
O uso das radiações com fins terapêuticos começou muito
antes do que se imagina. Já antes de 1900, tinha-se percebido que a radiação destruía tecidos e que podia ser usada
para tratamento de qualquer tipo de lesão, pelo menos era
assim que se pensava na época. Isso quer dizer que mesmo
conhecendo muito pouco sobre os efeitos da radiação, esta
era empregada empiricamente de forma inconsequente.
É possível imaginar a quanta radiação os pacientes
eram expostos, já que, em alguns locais, as sessões de
terapia eram feitas conjuntamente, isto é, diversos pacientes sentados numa sala, um ao lado do outro, cada um
segurando uma fonte de rádio sobre sua lesão por um
tempo definido de forma totalmente empírica e grosseira.
Essas experiências de tentativa e erro devem ter tido
alguns resultados desastrosos que alertaram os médicos
usuários sobre o risco da nova técnica.
Na radioterapia, grande parte dos conhecimentos sobre a dose eficaz para cada tipo de tumor e sobre a eficácia dos tratamentos é resultado experimental obtido por
meio de tentativa e erro, porém com metodologia mais
científica. As mudanças introduzidas são progressivas,
baseadas em resultados de pesquisas em radiobiologia,
e com a comparação dos resultados obtidos na utilização
de diferentes protocolos (trials) de tratamento.
Inicialmente, os equipamentos de radioterapia utilizavam fontes de rádio, as quais foram substituídas por fontes de césio-137 e de cobalto-60, depois que foi possível
construí-las com alta atividade e de tamanho reduzido.
Esse foi um grande avanço, pois, com uma atividade específica da fonte maior, foi possível aumentar a distância
entre o equipamento e o paciente, além de ser mais prático não ter que trabalhar com fontes de rádio.
Do ponto de vista tecnológico, o avanço seguinte veio
com a construção dos aceleradores lineares, que permitiram utilizar terapeuticamente feixes de fótons e de elétrons
com energias da ordem de megavolts. Por outro lado, os
conceitos básicos de física envolvidos nos cálculos não
sofreram grandes alterações, mas, paulatinamente, foram
sendo introduzidas novas grandezas mais precisas e convenientes, assim como surgiram os protocolos de determinação da dose, aprimorados ao longo dos anos, desde
1970 até os dias de hoje.
No início os cálculos de dose eram feitos usando-se
a prescrição de dose na pele, em seguida começaram a
Correspondência: Hospital das Clínicas da Faculdade de Medicina da Universidade de São Paulo – Avenida Doutor Eneas de Carvalho Aguiar, 255 – Portaria
3 – Radioterapia, CEP 05403-001 – São Paulo (SP), Brasil – E-mail: [email protected]
Associação Brasileira de Física Médica®
77
Furnari L
ser feitas avaliações da dose absorvida na profundidade,
valores esses que permitiam a avaliação da dose quando
o paciente era tratado com um par de campos opostos.
O passo seguinte surgiu quando, ao invés de se determinar a dose somente no raio central, começou-se a avaliar
a distribuição da dose num plano, utilizando um cálculo
manual de composição de diversos campos, a partir do
desenho da distribuição de dose na profundidade. Nessa
época, a avaliação ou verificação da porcentagem de
dose na profundidade (PDP) era feita por medidas pontuais no eixo central do campo de radiação e em diversos
pontos deslocados longitudinalmente e transversalmente
do eixo central em diferentes profundidades, para diversos
tamanhos de campo. A coleta de dados para o comissionamento de um acelerador com duas ou três energias de
elétrons era um trabalho longo, podendo se estender por
semanas.
Logo, houve a criação de sistemas de planejamento
computadorizado. No começo, os sistemas faziam exatamente a mesma coisa que o cálculo manual, só que
mais rapidamente, ou seja, a determinação das curvas
de isodose era no plano central da região de tratamento. Com a ampliação da memória dos computadores o
aumento da velocidade de processamento de dados e
a evolução dos algoritmos de cálculo, tornou-se possível determinar a distribuição tridimensional da dose. A
evolução tecnológica em computação permitiu também
a aquisição, diretamente, dos aparelhos de diagnóstico e
de imagens tridimensionais com visualização das estruturas a serem tratadas.
Outra evolução foi a possibilidade de realizar a fusão
de imagens oriundas de diferentes métodos complementares de diagnóstico: ressonância magnética, tomografia
computadorizada, cintilografia, ultrassom, PET (Pósitron
Emission Tomography), SPECT (Single Photon Emission)
ou PET-SCAN (PET acoplado a um CT).
Também houve o uso da técnica estereotática para a
localização precisa de lesões pequenas e da técnica de
intensidade modulada, na qual é possível fazer modulação
da intensidade do feixe de radiação graças aos sistemas
de controle do formato dos feixes de forma automática
e computadorizada por meio de colimadores multifolhas.
Foram criados sistemas de verificação prévia do posicionamento do paciente a cada seção de tratamento,
Image-Guided Radiation Therapy (IGRT), usando raios X
tanto com energia de diagnóstico como com alta energia
do próprio acelerador. Estes sistemas permitiram a localização controlada e precisa do paciente, fundamental para
os planejamentos que empregam menores margens para
a região irradiada.
Tudo isso levou à possibilidade de liberar altas doses
de forma precisa e controlada numa região muito bem definida, o que veio de encontro com um novo problema, o
movimento involuntário das estruturas do paciente. Foram
desenvolvidos métodos que permitissem acompanhar o
movimento dos órgãos e liberar a radiação no alvo com
margens bem exíguas.
78
Revista Brasileira de Física Médica. 2009;3(1):77-90.
Pode-se observar, ainda, a evolução tecnológica e
conceitual introduzida pela tomoterapia, na qual a radiação é liberada em feixes estreitos que circundam o paciente enquanto ele é deslocado longitudinalmente. A radiação
é liberada helicoidalmente. O sistema de planejamento
nessa técnica é através de iterações sucessivas permitindo poupar, de uma forma melhor, os órgãos vizinhos à
região que se quer irradiar. Com esta técnica, utiliza-se
uma mesa robótica que torna mais rápida e precisa a localização do paciente, inclusive realizando uma tomografia
de localização antes de cada seção do tratamento.
O último avanço tecnológico são as máquinas que irradiam o paciente com partículas pesadas, prótons e nêutrons. Um feixe de prótons tem como caraterística básica
que seu pico de Bragg (região de maior depósito da energia) é estreito, ou seja, é possível depositar energia numa
região profunda do paciente sem depositar ao longo do
percurso da radiação.
Aparentemente tudo se tornou mais fácil, já que existem tantos sistemas automáticos para fazer o trabalho dos
físicos. Mas esse é um ledo engano, pois o controle necessário para garantir que os cálculos sejam feitos corretamente, os pacientes sejam posicionados com precisão
e o desempenho das máquinas de terapia e dos sistemas
automatizados de controle seja exato exige grande dedicação e um trabalho sistemático, a fim de que pequenos
descuidos não coloquem a perder a precisão que se imagina estar utilizando.
Comissionamento e controle de qualidade
A International Comission on Radiation Units and
Measurements (ICRU) recomenda que a incerteza total
de um tratamento de radioterapia não deve ultrapassar ±
5%, ou seja, cada parte do processo de administração de
dose no paciente deve ter uma incerteza bem menor que
esse valor1.
Ao se iniciar o uso de uma nova máquina ou procedimento, após realizar os testes de aceitação, é preciso
estabelecer, por testes de comissionamento, os dados
que se tornarão referência para os posteriores controles
de qualidade. Esses dados serão a baliza para a análise
do desempenho dos aparelhos e dispositivos. O objetivo
do Programa de Controle de Qualidade (PCQ) é que o desempenho de todas as máquinas, dispositivos e processos não se afastem de seus valores de referência mais que
as respectivas tolerâncias.
O controle de qualidade (CQ) de uma instituição de
radioterapia é o esforço de uma equipe; entretanto, a responsabilidade global deve ser atribuída a uma só pessoa:
um físico médico, com título de especialista.
Frequência dos testes
O desempenho das máquinas pode ser afetado por funcionamento defeituoso; quebra mecânica; acidentes físicos; falha de componentes; troca de componentes
Controle de qualidade em radioterapia
importantes; e alterações graduais causadas pelo
envelhecimento.
O objetivo do CQ é conseguir observar alterações no
sistema radioterápico e reduzir o impacto de qualquer um
desses fatores.
Os documentos sobre o CQ não têm a força da lei,
servem somente como orientações. Para reduzir a frequência sugerida de um determinado teste, deve-se examinar e validar seus resultados após uma longa história e
documentar a análise feita do impacto potencial de resultados catastróficos no caso deles ocorrerem.
Existe um documento, American Association of
Physicists on Medicine, Task Group-100 (AAPM TG-100)2,
que discute questões sobre a frequência com que os testes devem ser realizados. A frequência dos testes de controle de um certo parâmetro deve refletir a probabilidade
de alteração desse parâmetro e o impacto gerado no caso
dessa ocorrência.
As necessidades institucionais definem os valores de
limites associados aos níveis 2 e 3, enquanto os limites
para o nível 1 se originam dos dados do CQ.
Guia para as tolerâncias
• Padrões dos procedimentos de aceitação (Acceptance
Testing Procedure, ATP): conjunto de dados de referência (baselines) para futuras dosimetrias e para testes que garantem um desempenho constante do feixe
e que permitem a verificação de que a máquina opera
dentro de certas tolerâncias em relação aos valores
absolutos.
• Valores de referência do comissionamento: durante o
processo de comissionamento determinam-se todos
os dados caraterísticos dos feixes necessários para
o uso clínico. Esses valores de referência são usados
para verificar a relativa constância para todas as medidas de validação dosimétrica futuras.
• Tolerâncias e níveis de ação: se um parâmetro tem
uma variação superior ao valor tabelado é necessário
realizar uma ação, o equipamento deve ser ajustado
para que o valor do parâmetro volte à conformidade.
Se certos parâmetros estão repetidamente no limite da
tolerância alguma ação deve ser realizada.
Recomenda-se que o sistema de medida e o procedimento de repetibilidade sejam escolhidos de forma que,
para três ou mais medidas repetidas consecutivamente, o
valor de dois desvios padrões seja menor do que o valor
de tolerância, o que representa uma confiança de 95%.
O TG – 142 define três níveis de ação3:
• Nível 1 – ação de inspeção: pode ocorrer um desvio
repentino e significativo em relação ao valor esperado sem exceder o valor da tabela de tolerância; nesse
caso a programação de tratamento deve continuar,
mas deve-se investigar sua causa;
• Nível 2 – ação planejada: sucessivos resultados do
CQ estão próximos ou chegam ao valor limite de tolerância ou um único valor que o ultrapassa, mas não
excessivamente; então, o tratamento pode continuar e
medidas de solução devem ser programadas para os
próximos um ou dois dias de trabalho;
• Nível 3 – ação corretiva com imediata parada de tratamento: resultados inesperados que requerem a imediata suspensão dos tratamentos relacionados com o
parâmetro; os tratamentos relacionados com ele não
devem ser realizados até o problema ser corrigido.
Incerteza, repetibilidade e precisão
A incerteza associada a uma medida depende da técnica
usada, do dispositivo de medida e da pessoa que usa o
dispositivo e registra a medida.
• Incerteza (exatidão) da medida: está relacionada com
o erro esperado de uma medida em relação a um padrão estabelecido.
• Repetibilidade: está relacionada com a estatística das
medidas feitas com certo dispositivo, ou seja, para a medida de uma grandeza sem mudança no arranjo experimental, os valores originários de repetidas medidas apresentam um desvio padrão em relação ao valor médio.
• Precisão de uma medida: está relacionada com a resolução da escala do dispositivo de medida.
Recomendações gerais
Para realizar todas as atividades necessárias no CQ é importante se ter um grupo executor. Cada instituição deve estabelecer seus dados de referência. A equipe de CQ deve ser
liderada por especialista em física médica. As tarefas diárias
podem ser realizadas por técnicos, mas os testes mensais
devem ser realizados ou supervisionados diretamente por um
físico especialista. As medidas anuais devem ser feitas por
um físico especialista com o envolvimento de toda a equipe
do CQ. Recomenda-se uma verificação de ponta a ponta de
todo o sistema para garantir a fidelidade da liberação da dose.
Devem ser gerados relatórios anuais do CQ. Um programa de
CQ bem estruturado deve ter como palavras-chaves: educação, verificação, documentação (registro) e comunicação.
A documentação de registro deve conter todas as informações relativas aos pacientes, ao tratamento, ao CQ
das máquinas e do sistema de planejamento. As falhas e
os erros ocorridos devem ser registrados.
O TPS 430 sugere uma mudança na filosofia a respeito
dos erros que acontecem, ou seja, que todos os membros, com espírito de equipe, discutam os fatos ocorridos
e procurem definir atitudes que minimizem a probabilidade
de sua ocorrência4.
A realização sistemática dos testes rotineiros dá uma
relativa tranquilidade, pois minimiza a probabilidade da
ocorrência de erros ou de sua gravidade.
Unidades de cobalto
Uma unidade de cobalto é a máquina mais simples e de
maior confiança dentro de um serviço de radioterapia. Muitos
Revista Brasileira de Física Médica. 2009;3(1):77-90.
79
Furnari L
terapeutas acham que é o aparelho mais indicado para tratar
cabeça e, pescoço, linfomas, mamas e certos tipos de tratamentos paliativos. Suas desvantagens são a grande penumbra, a pequena penetração comparada com fótons de alta
energia e a necessidade de troca da fonte periodicamente.
Van Dyk e Battista5 sugerem que “uma moderna unidade do cobalto redesenhada poderia incorporar um multileaf collimator (MLC) e filtros dinâmicos, minimizando o
uso de bandejas para acessórios e permitindo o uso de
distâncias maiores entre a fonte e os aparatos para definir
o campo. É possível também redesenhar as cápsulas das
fontes de modo a conseguir a mesma atividade específica
com um diâmetro menor”.
Para o CQ, considera-se que os elementos que devem
ser verificados são: gantry, cabeçote, colimadores, mesa,
sala e console. A Quadro 1 indica os testes, a frequência e
os níveis de tolerância6.
Aceleradores
Os aceleradores lineares representam a mais importante,
prática e versátil fonte de radiação ionizante em radioterapia. Os principais componentes de um acelerador linear
geralmente são agrupados em cinco classes: sistema de
injeção; sistema de radiofrequência; sistema auxiliar; sis-
Quadro 1. Testes em unidades de cobalto
Frequência
Diários
Semanais
Mensais
Anuais
80
Procedimento
Segurança
Interlock da porta
Monitor da sala de tratamento
Comunicação auditiva
Mecânicos
Localização com lasers
Indicador de distância SSD
Verificação da posição da fonte
Dosimetria
Constância do fator output
Mecânicos
Coincidência do campo radioativo com luminoso
Indicador do tamanho de campo (colimador)
Indicador do ângulo do colimador/gantry
Centro do cross-hair
Trava dos filtros e bandejas
Interlock de segurança
Botões de emergência
Interlock de filtro
Dosimetria
Constância do fator output
Dependência da constância do output com o tamanho de campo
Constância dos parâmetros de dosimetria no eixo central (PDD e TMR)
Constância dos fatores de transmissão de todos os acessórios padrão
Constância do fator de transmissão do filtro
Linearidade e erro do relógio
Constância do output versus ângulo do gantry
Uniformidade do feixe versus ângulo do gantry
Interlock de segurança
Seguir os teste indicados pelo fabricante
Mecânicos
Isocentro de rotação colimador
Isocentro de rotação do gantry
Isocentro de rotação da mesa
Coincidência do eixo do colimador, do gantry e da mesa com o isocentro mecânico e radioativo
Coincidência de isocentro mecânico e radioativo
Deflexão do topo da mesa
Jogo ao longo do curso vertical da mesa
Intensidade da luz de campo
Revista Brasileira de Física Médica. 2009;3(1):77-90.
Tolerância
Funcional
Funcional
Funcional
2 mm
2 mm
3 mm
2%
3 mm
2 mm
1 grau
1 mm
Funcional
Funcional
Funcional
2%
2%
2%
2%
2%
1%
2%
3%
Funcional
diâmetro de 2 mm
diâmetro de 2 mm
diâmetro de 2 mm
diâmetro de 2 mm
diâmetro de 2 mm
2 mm
2 mm
Funcional
Controle de qualidade em radioterapia
tema de transporte do feixe e sistema de colimação e de
monitoração do feixe.
Os aceleradores, sendo máquinas que produzem os
feixes de radiação eletronicamente, podem ter seu desempenho alterado inesperadamente, então é necessário
atender a dois requisitos essenciais: as medidas do CQ
devem ser repetidas de forma rotineira e deve haver uma
monitoração regular do desempenho por meio de uma
manutenção preventiva.
Os testes do CQ de aceleradores estão classificados em diários (Quadro 2), mensais (Quadro 3) e anuais
(Quadro 4)1,3. Nas tabelas há indicação da tolerância para
cada teste separadamente, para máquinas em que se
realizam tratamentos de IMRT, máquinas em se realizam
tratamentos estereotáticos e máquinas em que nenhuma
dessas técnicas é usada.
Micromultileaf
O sistema de colimação por meio de multilâminas, em
substituição às técnicas convencionais de conformação
do campo de radiação, tem como função melhorar a eficiência da realização dos tratamentos. O MLC tem lâminas móveis (blindagens), que podem bloquear uma fração
do campo de radiação. Os MLC típicos têm de 40 a 120
lâminas arranjadas em pares. É possível gerar campos
que conformem o tumor automaticamente por comandos
computacionais que posicionam precisamente um grande
número dessas lâminas estreitas e encostadas entre si.
Esse sistema, desde que disponha de hardware e software apropriados, economiza tempo e tem um menor custo
operacional do que o uso de blocos de cerrobend. O MLC
pode ter três funções:
• substituir os blocos convencionais;
• se ajustar continuamente para formar a projeção do
beam’s-eye view (BEV) do volume alvo planejado
(PTV), durante uma rotação em arco do feixe de fótons. A mudança da posição das lâminas pode ocorrer com o gantry parado ou em movimento, tendo-se,
nesse caso, a modalidade de arco dinâmico;
• possibilitar a obtenção de feixes com intensidade modulada. Existem diversas técnicas para se conseguir
esse resultados, algumas mantendo o gantry fixo em
certos ângulos e outras movimentando-o durante a
irradiação.
Um programa de controle de qualidade (PCQ) para
MLC deve garantir o funcionamento seguro e confiável de
seus componentes mecânicos, pela avaliação da precisão
posicional, do movimento confiável das lâminas, da fuga
através das lâminas, dos interlocks, do trabalho na rede
e da transferência de dados7. A Quadro 5 apresenta os
testes sugeridos1.
Intensity-Modulated Radiation Therapy (IMRT)
O IMRT é uma extensão da terapia conformacional 3D,
a qual usa feixes de radiação de intensidade não uniforme determinados por técnicas de otimização obtidas de
programas de computadores. É proposta melhoria na radioterapia pelo aumento de controle tumoral e redução da
morbidade do tratamento. O processo de planejamento
de IMRT tem uma grande complexidade, pois há muitas
instruções para as máquinas necessitando-se altos padrões de capacidade de computação. A dose num campo
de IMRT é construída pela soma de muitos segmentos, às
vezes, bem pequenos. Mostrou-se que, para feixes com
1 cm de largura, uma incerteza de 1 décimo de milímetro
na abertura dos pares opostos de lâminas pode produzir
incertezas de até 10% na projeção de dose local. Além
disso, os subcampos podem estar em muitos locais dentro da área tratada, implicando que sua posição deve ser
Quadro 2. Testes diários em acelerador
Procedimento
Dosimetria
Constância do fator output de fótons
(todas as energias)
Constância do fator output de elétrons (semanalmente, com
exceção de máquina com uma só energia ou necessidade de
monitoração diária)
Mecânicos
Localização com lasers
Indicador de distância SSD
Indicador do tamanho do colimador
Segurança
Interlock de porta
Segurança do fechamento da porta
Monitor audiovisual
Trancamento por fora sala estereotática
Monitor de área de radiação (se usado)
Indicador de emissão de feixe
Tolerância
(máquinas sem IMRT)
Tolerância
(máquinas com IMRT)
Tolerância estereotática
3%
2 mm
2 mm
2 mm
NA
1,5 mm
2 mm
2 mm
Funcional
Funcional
Funcional
NA
Funcional
Funcional
1 mm
2 mm
1 mm
Funcional
NA = não avaliado
Revista Brasileira de Física Médica. 2009;3(1):77-90.
81
Furnari L
Quadro 3. Testes mensais em acelerador
Procedimento
Tolerância
(máquinas sem IMRT)
Dosimetria
Constância do fator output de fótons
Constância do fator output de elétrons
Constância do monitor de backup
Constância da taxa de dose de output típica
Constância do perfil do feixe de fótons
Constância do perfil do feixe de elétrons
Constância da energia do feixe de elétrons
Mecânicos
Coincidência campo radioativo e luminoso
Coincidência campo radioativo e luminoso (campo assimétrico)
Dispositivo para checar distância usado para laser/ODI
Indicador digital de ângulo gantry/colimador (ângulos cardinais)
Bandeja para acessórios (por exemplo régua para filmes portais)
Indicador da abertura do colimador simétrico
Indicador da abertura do colimador assimétrico
Posição do centro do cross-hair
Indicador da posição da maca de tratamento
Precisão de colocação do filtro
Trava dos filtros e da bandeja dos blocos
Lasers de localização
Segurança
Interlock de porta
Gating respiratório
Constância do output do feixe
Controle da amplitude e da fase do feixe
Sistema de monitoração de respiração que fica na sala
Interlock do gating
Tolerância
(máquinas com IMRT)
Tolerância estereotática
2%
NA
2% (taxa de dose IMRT)
2% (taxa de dose
estéreo, UM)
1%
2% / 2 mm
2 mm / 1 grau
±2 mm
2 mm ou 1% de um lado
1 mm ou 1% de um lado
1mm
1 grau
2 mm
2 mm
1 mm
1 mm
2 mm / 1 grau
2mm
Funcional
±1 mm
2 mm / 0,5 grau
< ± 1mm
Funcional
2%
Funcional
Funcional
Funcional
NA = não avaliado
conhecida com grande precisão, ou seja, a posição relativa das lâminas deve ser mantida menor que 1 mm. O
posicionamento das lâminas e o comprimento do seu percurso dependem do modelo do MLC. O sistema Varian,
por exemplo, tem uma limitação de deslocamento das
lâminas de 14,5 cm, e para deslocamentos maiores é
necessário que os carros que levam as lâminas também
sejam deslocados. Por um lado essa é uma configuração
mais limitada para a colocação de blocos únicos, porém
tem mais aplicações na modulação do feixe.
Os planos de tratamento com IMRT devem ser verificados de forma independente, pela transferência de cada
plano para um objeto simulador representativo com os
campos planejados para o paciente, a dose medida deve
ser comparada com aquela calculada pelo sistema8.
Filtros dinâmicos/virtual/universal
Os filtros dinâmicos produzem o efeito de filtro nas curvas de isodose pelo movimento de fechamento gradual
de uma das bordas dos colimadores comandado computacionalmente, enquanto a borda oposta permanece
estacionária durante a irradiação. Os diferentes ângulos
82
Revista Brasileira de Física Médica. 2009;3(1):77-90.
de filtro são obtidos a partir do controle do movimento das
lâminas. O fator filtro pode ser afetado por pequenas variações no posicionamento dos colimadores. Sugere-se que,
para sistemas que produzem um ângulo de filtro “efetivo”
usando uma combinação de 60° e campo aberto, o teste
sejam realizados para 45º. Se, porém, a instituição optou
por empregar o filtro de 60º com um único campo, então
este deve ser conferido. A Quadro 6 apresenta os testes
necessários1.
Imagem radiográfica
A eficácia dos tratamentos aumentou com a recente introdução de técnicas, como IMRT e tomoterapia, porém a
precisão da liberação da dose nessas técnicas se depara
com a incerteza na localização do alvo. Ainda existem dificuldades por causa do movimento do alvo em relação
aos marcadores entre as frações. Atualmente, é possível
criar imagens da anatomia dos pacientes imediatamente
antes da liberação da dose, ganhando desse modo um
conhecimento preciso da localização do volume do alvo
diariamente. Essa técnica, conhecida como IGRT, assegura que as posições do volume alvo em relação a algum
Controle de qualidade em radioterapia
Quadro 4. Testes anuais em acelerador
Procedimento
Tolerância (máquinas Tolerância (máquinas
sem IMRT)
com IMRT)
Dosimetria
Variação da planura dos fótons em relação aos dados de referência
Variação da simetria dos fótons em relação aos dados de referência
Variação da planura dos elétrons em relação aos dados de referência
Variação da simetria dos elétrons em relação aos dados de referência
SRS no modo rotação do arco (intervalo de 0,5 a 10 UM/grau)
Fator de calibração para fótons/elétrons
Verificação de escolha casual da dependência do fator de calibração com o tamanho
do campo (2 ou mais FS)
Fator de output para aplicadores de elétrons ( escolha aleatória de 1 aplicador/energia)
Qualidade do feixe de fótons (PDD10, TMR1020)
Qualidade do feixe de elétrons (R50)
Constância do fator de transmissão para todos os acessórios de tratamento
Constância do fator de transmissão do filtro físico
Linearidade da unidade monitor de fótons (constância do output)
Linearidade da unidade monitor de elétrons (constância do output)
Constância do output de raios X versus taxa de dose
Constância do output de raios X versus ângulo do gantry
Constância do output de elétrons versus ângulo do gantry
Constância do fator off-axis para fótons e elétrons versus ângulo do gantry
Modo arco (UM esperado por grau)
Interlock de segurança
Seguir os teste indicados pelo fabricante
Testes mecânicos
Isocentro de rotação colimador
Isocentro de rotação do gantry
Isocentro de rotação da mesa
Interlocks dos aplicadores de elétrons
Coincidência de isocentro mecânico e radioativo
Deflexão do topo da mesa
Ângulo da mesa
Percurso máximo da mesa em todas as direções
Acessórios Estereotáticos, lockout
Modo TBI/TSET
Acessórios TBI/TSET
Constância de PDD ou TMR
Fator de calibração (output)
Dependência com a taxa de dose
Gating respiratório
Constância da energia do feixe
Constância do output do feixe
Precisão temporal do gate-on (vínculo) da fase/amplitude
Calibração da fase/amplitude respiratória substituta
Teste do interlock
Tolerância
estereotática
1%
±1%
1%
±1%
NA
NA
Unidades monitor
usadas versus
liberadas: 1,0 UM ou
2% (o que for maior)
±1% (absoluto)
2% para campos < 4x4 cm2, 1% ≥ 4x4 cm2
±2% em relação aos valores de referência
±1% em relação aos valores de referência
±1 mm
±1% em relação aos valores de referência
±2%
±5% ≥(2-4 UM),
±5% ≥(2-4 UM),
±2% ≥ 5UM
±2% ≥5 UM
±2% ≥5 UM
±2% ≥5 UM
±2% em relação aos valores de referência
±1% em relação aos valores de referência
±1% em relação aos valores de referência
±1% em relação aos valores de referência
±1% em relação aos valores de referência
Funcional
±1 mm em relação aos valores de referência
±1 mm em relação aos valores de referência
±1 mm em relação aos valores de referência
Funcional
±2 mm em relação ±2 mm em relação ±1 mm em relação
aos valores de
aos valores de
aos valores de
referência
referência
referência
2 mm em relação aos valores de referência
1 grau
±2 mm
NA
Funcional
Funcional
Funcional
1% (TBI) ou 1mm deslocamento da PDD (TSET) em relação aos
valores de referência
±2% em relação aos valores de referência
±2% em relação aos valores de referência
2%
2%
100 ms do esperado
100 ms do esperado
Funcional
NA = não avaliado
Revista Brasileira de Física Médica. 2009;3(1):77-90.
83
Furnari L
Quadro 5. Testes em multileaf collimator
Frequência
Semanal
Procedimento
Testes qualitativos (matched segments, aka, “picket fence”)
Mensal
Planejamentos versus campo de radiação medidos para
dois formatos
Backup diagrams settings (só Elekta)
Velocidade da lâmina (IMRT)
Precisão da posição das lâminas
Anual
Transmissão do MLC (média da lâmina e da transmissão
interlâminas) todas as energias
Repetibilidade da posição das lâminas
MLC spoke shot
Coincidência do campo radioativo com o luminoso
Teste da velocidade da folha no arco dinâmico
Teste interblock trip no arco dinâmico
Teste de plano típico com arco dinâmico
Teste de IMRT segmentado (Step and Shoot)
Sliding window IMRT (4 ângulos cardinais do gantry)
Tolerância
Inspeção visual de desvios perceptíveis como o aumento na transmissão
interlâminas
2 mm
2 mm
Perda de velocidade das lâminas <0,5 cm/s
1 mm para a posição das lâminas de um campo de IMRT para 4 ângulos
cardinais* (Teste “picket fence” pode ser usado como teste que depende
do planejamento clínico - tamanho dos segmentos)
±0,5% a partir dos valores de referência
1,0 mm
≤1,0 mm de raio
2,0 mm
<0,35 cm Max erro RMS, 95% das contagens erradas <0,35 cm (Varian)
Interlock para posição da folha ocorre (Varian)
<0,35 cm Max erro RMS, 95% das contagens erradas <0,35 cm (Varian)
<0,35 cm Max erro RMS, 95% das contagens erradas <0,35 cm (Varian)
<0,35 cm Max erro RMS, 95% das contagens erradas <0,35 cm (Varian)
* cardinais = 0o, 90o, 180o e 270o
Quadro 6. Testes em filtros dinâmicos/universais e virtuais
Frequência
Procedimento
Diário
Morning check-out - percurso para um ângulo
Mensal
Fator filtro para todas as energias
Anual
Verificar o ângulo do filtro para 60º em
todo o campo e spot check para ângulos e
tamanhos de campo intermediários
Dinâmico (EDW - Varian)
Tolerância
Universal (Elekta)
Virtual (Siemens)
Funcional
Verificação no eixo central, para Verificação no eixo central, para
45º ou 60º (dentro de 2%)*
45º ou 60º (dentro de 2%)*
5% a partir da
unidade, senão 2%
Verificar a razão de off-center até 80% da largura do campo 10 cm
* Recomenda-se verificar o ângulo de 45º se forem usados ângulos diferentes de 60º
ponto de referência, para cada fração, sejam as mesmas
que as planejadas. Pode ser utilizada usando diferentes
técnicas: fótons com energia MV, ou com energia kV.
Apesar de que o CQ deve ter na precisão espacial da
reconstrução da imagem o fator preponderante, é preciso
também avaliar os parâmetros de qualidade de imagem,
como o contraste, o ruído, a uniformidade espacial e a
resolução. Como esse sistema costuma ser usado diariamente e é capaz de liberar uma dose significativa, é essencial realizar anualmente medidas diretas da dose liberada
pelo processo de imagem e da qualidade/energia do feixe.
Os valores de referência estabelecidos durante os testes
de aceitação são usados como critério do CQ. A Quadro
7 apresenta os testes que devem ser realizados nos sistemas de IGRT1.
Gating respiratório
O documento da AAPM, o TG-76 descreve todos os aspectos que envolvem o controle do movimento respiratório
84
Revista Brasileira de Física Médica. 2009;3(1):77-90.
em Radiologia Oncológica, incluindo a produção da imagem, o planejamento do tratamento e a liberação da dose9.
Para usar essa técnica é preciso: sincronização, necessária em todas as técnicas respiratórias, entre o feixe
de radiação e o movimento do paciente; a caracterização
do feixe do acelerador em condições de gating respiratório; e o uso de fantomas dinâmicos que simulem os movimentos dos órgãos humanos associados à respiração
para avaliar a localização do alvo. Os testes referentes a
esse aspectos estão incluídos nas Quadros 3 e 4.
TBI e TSI
A irradiação de corpo inteiro (do inglês – total body irradiation, TBI) é uma importante técnica radioterapêutica
que libera uma dose de fótons de megavoltagem, com
uma uniformidade de dose dentro de 10% em todo o
corpo do paciente. O comissionamento de uma máquina para esse tratamento é basicamente o mesmo que
para uma máquina da radioterapia padrão, incluindo
Controle de qualidade em radioterapia
Quadro 7. Testes em sistemas de imagens
Procedimento
Tolerâncias para máquinas
sem SRS/SBRT
Tolerâncias para máquinas
com SRS/SBRT
Diário
Imagem MV (EPID)
Interlock para colisão
Funcional
Funcional
Linearidade espacial 1 (x e y) (ângulo do gantry único)
<2 mm
≤1 mm
Coincidência da coordenadas da imagem e do tratamento (um só ângulo)
<2 mm
≤1 mm
Posicionamento/reposicionamento
<2 mm
≤1 mm
Funcional
Funcional
Coincidência da coordenadas da imagem e do tratamento (um só ângulo)
<2 mm
≤1 mm
Posicionamento/reposicionamento
<2 mm
≤1 mm
Funcional
Funcional
<2 mm
≤1 mm
<2 mm
≤1 mm
Imagem kV
Interlock para colisão
Cone-beam CT (kV e MV)
Interlock para colisão
Posicionamento/reposicionamento
Mensal
Imagem MV (EPID)
Coincidência da coordenadas da imagem e do tratamento
(nos quatro ângulos cardinais)
Scaling
<2 mm
≤2 mm
Resolução espacial
Valores de referência
Valores de referência
Contraste
Valores de referência
Valores de referência
Uniformidade e ruído
Valores de referência
Valores de referência
<2 mm
≤1 mm
Imagem kV
Coincidência da coordenadas da imagem e do tratamento
(nos quatro ângulos cardinais)
Scaling
<2 mm
≤1 mm
Resolução espacial
Valores de referência
Valores de referência
Contraste
Valores de referência
Valores de referência
Uniformidade e ruído
Valores de referência
Valores de referência
<1,5 cmm
≤1 mm
<2 mm
≤1 mm
Resolução espacial
Valores de referência
Valores de referência
Contraste
Valores de referência
Valores de referência
Constância do número de CT
Valores de referência
Valores de referência
Uniformidade e ruído
Valores de referência
Valores de referência
<1 mm
≤1 mm
±5 mm
±5 mm
Dose do processo de imagem
Valores de referência
Valores de referência
Energia e qualidade do feixe
Valores de referência
Valores de referência
Energia e qualidade do feixe
Valores de referência
Valores de referência
Dose do processo de imagem
Valores de referência
Valores de referência
Valores de referência
Valores de referência
Cone-beam CT (kV e MV)
Coincidência das coordenadas da imagem e do tratamento
Distorção geométrica
Linearidade espacial (x e y) (para um só ângulo)
Anual
Imagem MV (EPID)
Intervalo completo de percurso SDD
Imagem kV
Cone-beam CT (kV e MV)
Dose do processo de imagem
Revista Brasileira de Física Médica. 2009;3(1):77-90.
85
Furnari L
calibração absoluta do feixe, porcentagem de dose profunda e perfis (fatores off-axis) só que deve ser feito nas
condições específicas de geometria do TBI, a fim de fornecer dados confiáveis10.
A irradiação de toda a pele (do inglês – total skin
irradiation, TSI) é uma técnica radioterapêutica administrada no tratamento de certas doenças malignas
generalizadas da pele. Esse tratamento pretende irradiar toda a pele do paciente de modo uniforme com
grandes campos de elétrons. O comissionamento
compreende um conjunto de dados dosimétricos relevantes, primeiro dos grandes campos estacionários
de elétrons a serem usados nos tratamentos e em seguida da dose verdadeiramente liberada com múltiplos
campos rotacionais.
Recomenda-se repetir um subconjunto dos dados do
comissionamento para TBI ou TSI anualmente para garantir a operação adequada.
Quadro 8. Testes em simuladores
Frequência
Diária
Semanal
Mensal
Semestral
Anual
86
Procedimento
Ópticos
Laser de localização
Indicador de distância (verificação rápida)
Mecânicos
Centro do cross-hair (verificação rápida)
Indicadores de tamanho de campo
Segurança
Interlock da porta
Botões de habilitação dos movimentos
Luzes de advertência
Verificações radiográficas/fluoroscópicas
Sensitometria do processador de filme
Ópticos
Indicador de distância
Coincidência de campo luminoso com radioativo
Segurança
Emergency off
Prevenção de colisão
Mecânicos
Ponteiro (front pointer)
Centro do cross-hair
Indicadores dos ângulos (gantry, colimador, mesa)
Indicadores de tamanho de campo
Paralelismo mesa/campo sobre 20 cm de deslocamento vertical
Verificações radiográficas/fluoroscópicas
Calibração de kVp, mAs e tempo
Linearidade e reprodutibilidade do output
Taxa máxima de exposição fluoroscópica
Mecânicos
Isocentricidade mecânica (coincidência dos tres eixos)
Constância do isocentro sobre todo o percurso da SAD
Indicadores de distância: SAD, distância foco-imagem
Máxima deflexão da mesa com uma carga de 80 kg
Verificações radiográficas/fluoroscópicas
Deslocamento da imagem com mudança do focal spot
Resolução espacial no centro do intensificador de imagem (alto contraste)
Linearidade da escala de cinza
Relógio da fluoroscopia
Segurança
Protetores: luvas e aventais plumbíferos, biombos
Revista Brasileira de Física Médica. 2009;3(1):77-90.
Tolerância
2 mm
2 mm
2 mm
1 mm por borda
Funcional
Funcional
Funcional
Valores de referência
2 mm
1 mm por borda
Funcional
Funcional
1 mm
2 mm de diâmetro
1 grau
1 mm por borda
2 mm
Valores de referência
Valores de referência
Valores de referência
2 mm de diâmetro
2 mm
2 mm
5 mm
Valores de referência
Valores de referência
Valores de referência
Funcional
Funcional
Controle de qualidade em radioterapia
Os testes anuais para TBI e TSI, cuja tolerância está
indicada na Quadro 4, devem conseguir avaliar, nas condições de tratamento: a funcionalidade; a constância de
transmissão dos modificadores; a constância dos valores de Tissue-Maximum Ratio ou PDP; a constância dos
valores de fatores de off-axis e a constância dos fatores
de output.
Simuladores convencionais
Um dos passos mais importantes do processo de tratamento é a simulação que pode ser feita por meio de simuladores convencionais, de tomografia computadorizada
(CT) ou de simuladores CT. Um simulador convencional é
uma máquina de raios X convencional montada num gantry
rotacional, equipado com aspectos geométricos idênticos
àqueles das máquinas de alta voltagem, e que funciona no
modo radiográfico e fluoroscópico. A Quadro 85 indica os
testes a serem feitos, suas frequências e tolerâncias.
Simulação virtual
Um simulador CT aumenta a capacidade de se usar terapias 3D, pois é uma ótima ferramenta para ajudar no processo de localização do tumor e no desenho de estruturas,
fornecendo um meio de verificação computadorizada das
imagens. Essas imagens podem ser comparadas com as
imagens portais obtidas na máquina de tratamento.
O processo de simulação virtual inclui a determinação
de um isocentro ou de um ponto de referência marcado no
paciente, cuja precisão de localização deve estar dentro
de 1 mm. O CQ de um simulador CT pode ser dividido em
avaliação do equipamento de CT e da simulação virtual11.
A Quadro 9 indica os testes a serem feitos no equipamento e a frequência sugerida para cada teste5.
Braquiterapia
Braquiterapia é o termo usado para descrever os tratamentos de câncer com radiação proveniente de fontes de
material radioativo encapsulado, colocadas diretamente
dentro ou próximas do volume a ser tratado. O sistema
de HDR (alta taxa dose – High Dose Rate) mais utilizado
atualmente emprega fontes de Ir-192, na Quadro 10 estão
indicados os testes de CQ desse tipo de conjunto12.
Sistemas de planejamento
Diferentemente do imaginado, o sistema de planejamento computadorizado (SPC) também deve ser submetido
a um CQ13, pois, como todos os outros equipamentos,
está sujeito a erros e falhas de desempenho do software,
do hardware do sistema de planejamento e do hardware
Quadro 9. Testes no TC simulador
Frequência Procedimento
Diária
Qualidade da imagem
Exatidão do número CT - fantoma de água
Uniformidade do campo - fantoma de água
Semanal
Mecânico
Laser interno - coincidência com plano de varredura
Trimestral Qualidade da imagem
Detecção de baixo contraste/ruído na imagem
Resolução espacial de alto contraste / MTF
Mecânico
Exatidão do posicionamento da mesa
Localização do slice a partir da varredura de
transmissão
Calibração da leitura vertical e longitudinal da mesa
Calibração da inclinação do gantry
Anual
Qualidade da imagem
Perfil de sensibilidade da fatia
Escala de contraste do número de CT
Fidelidade geométrica da imagem
Testes radioativos
Exatidão de kVp
HVL (anualmente e quando há troca do tubo de raios X)
Dose no paciente (medida CDTI)
do sistema de rede durante a transferência de dados. Se
as falhas não produzirem um erro crasso podem passar
despercebidas.
Para cada teste, deve-se ter definido: o objetivo, a
descrição, a frequência e os critérios de aceitação dos resultados encontrados. Há documentos guia como o TRS
430 da International Atomic Energy Agency (IAEA)5, que
apresentam um estudo detalhado de todos os aspectos
do CQ de um SPC. A Quadro 11 é um resumo do que
sugere esse documento para o CQ.
Equipamentos de medida
O CQ dos instrumentos de medida tem tanta importância
como o dos equipamentos de tratamento em si. Os sistemas baseados em câmaras de ionização continuam sendo
os preferidos para a realização das calibrações dosimétricas dos feixes de fótons e elétrons. Eles podem ser classificados em referência local, calibrados diretamente em um
Laboratório Padrão de Dosimetria, ou instrumento de campo, igual ao anterior que pode ser calibrado por intercomparação com o de referência local. Este só deve ser empregado nas medidas que não sejam de rendimento absoluto.
Recomenda-se, em todos os casos, estabelecer um
sistema redundante de comprovação dos instrumentos dosimétricos, a fim de assegurar que estes mantenham seus
fatores de calibração. No caso de teleterapia, o sistema
redundante só pode ser estabelecido mediante a avaliação da resposta do instrumento de medida a uma fonte de
referência de meia-vida longa como o Sr-90, ao longo do
Revista Brasileira de Física Médica. 2009;3(1):77-90.
87
Furnari L
Quadro 10. Testes para braquiterapia
Frequência
Procedimento
Fontes seladas
Forma física e química
Encapsulamento da fonte
Trimestral
Calibração
Distribuição do radionuclídeo e uniformidade da fonte (autorradiografia)
Aplicadores
Inicial
Dimensões e integridade
Equipamentos de controle remoto
Diária
Interruptores de segurança da porta, luzes e alarme
Funções do painel de comando, baterias, impressoras, video, monitor de radiação
Inspeção visual das guias condutoras de fontes (cateteres)
Teste de obstrução
Semanais
Medida da indexação do cabo da fonte
Botão de emergência da sala
Botão de emergência do robô
Botão de emergência do console
Botão de interrupção do console
Bloqueio da porta
Detector de área
Luz de segurança da porta
Bobina de papel do console
Monitor de visualização
Intercomunicador
Verificação do timer/cronômetro do console
Mensais
Autorradiografia
Verificação dos canais do robô
Simulação de cateter obstruído
Trimestrais ou a cada troca da fonte Autorradiografia das paradas da fonte
Verificação dos canais do robô
Verificação de todos os tubos de transferência de fonte (tubos para gineco, agulha intersticial, cateter
intersticial, cateter de nylon, esôfago)
Simulação de cateter obstruído feita para cada canal do robô (18 canais)
Verificação da integridade de todos os acessórios e aplicadores
Verificação da atividade da fonte velha (antes da troca)
Verificação da fonte nova (depois da troca)
Anuais
Algoritmo do cálculo de dose
Simular situações de emergência
Verificar inventário das fontes
Sistemas computadorizados
Em cada aplicação
Consistência da informação impressa sobre o plano de tratamento
Exatidão da impressão dos parâmetros do tratamento pelo console de controle remoto
Anual
Exatidão geométrica dos sistemas de entrada/saída (digitalizador e plotter)
Inicial e anual
Verificação dos parâmetros de entrada para configurações pré-calculadas
Inicial e quando se modifica o SW Verificação de doses e cálculo de tempos para todas as fontes em pontos representativos
Exatidão das isodoses de uma fonte
Exatidão das isodoses de fontes múltiplas
Exatidão na rotação dos planos
Exatidão da reconstrução de coordenadas
Exatidão da impressão dos parâmetros do tratamento pelo console de controle remoto
Figuras de mérito do histograma de volume-dose
Software de otimização
Avaliação integral do sistema
Procedimentos em cada implante
Exatidão de descrição do tratamento
Cálculo do plano de tratamento
Verificação do recolhimento da fonte
Retirada dos aplicadores ou implantes
Revisão do tratamento
Registro, auditoria da garantia da qualidade
Inicial
88
Revista Brasileira de Física Médica. 2009;3(1):77-90.
Controle de qualidade em radioterapia
Quadro 11. Testes no sistema computadorizado de planejamento
Semanal
Software
Revalidação do feixe externo
Hardware
CPU
Mesa digitalizadora
Software
Detalhes do plano
Transferência eletrônica de planejamento
Verificar a constância nos cálculos de dose
Mensal
Verificar o funcionamento
Verificar que não houve alteração na sensibilidade da mesa
Conferir se não houve alteração na impressão dos resultados do plano numa cópia impressa
Verificar se não houve modificação na transferência de protocolos e dados para a máquina de
tratamento
Trimestral
Hardware
Impressora
Verificar que a escala não variou
Dispositivos de back-up
Confirmar que os pacientes foram arquivados e recuperados
Geometria da CT e verificação das densidades Verificar que a relação entre os números de CT e as densidades não foram alterados
Para cada paciente
Hardware
Informação anatômica do paciente
Transferência da CT
Verificar que os protocolos não foram alterados
Exportação e a manipulação
Verificar que a representação anatômica do paciente não foi mudada
dos dados do paciente
Software
Verificação da UM/tempo
Verificar que não houve alteração no cálculo de UM
Verificação independente da dose monitor Usar outro método para calcular a UM
Tratamento
Verificação de não ocorrência de
Criar sistema que permita identificar comportamentos não usuais no tratamento
comportamentos não usuais de andamento
do tratamento (semanal)
Dosimetria in vivo e in vitro
Realizar dosimetria de planejamentos para casos não padronizados
tempo. Não havendo uma fonte de referência, é fundamental dispor-se de pelo menos dois sistemas dosimétricos independentes, e nesse caso, uma máquina de Co-60 pode
ser usada para suprir a ausência de uma fonte de referência
de Sr-90. Os testes sugeridos estão na Quadro 1214.
Uma vez que esse tema é extenso, um artigo específico
com a descrição dos procedimentos para a realização dos
principais testes será publicado numa outra oportunidade.
Referências
Conclusão
Pode-se observar que o CQ de um serviço de radioterapia é um universo de medidas, verificações, treinamentos,
manutenções e registros.
Para tornar todo esse processo factível com os recursos disponíveis, é necessário que o físico responsável
faça uma análise detalhada de quais máquinas devem ser
submetidas ao controle, da frequência com que os testes
devem ser feitos e quem irá realizá-los. Ele também deve
estabelecer uma agenda com definição das datas dos
testes, deve criar planilhas para registro dos resultados
encontrados e das comparações com os valores de referência gerados no comissionamento e, finalmente, deve
manter documentos com a descrição detalhada de como
todos os testes devem ser realizados.
1. Hanley J. TG142 AAPM Quality Assurance of Medical Accelerators.
[Proceedings of 26th Annual Meeting of American College of Medical
Physics, Virginia Beach; 2009].
2. American Association of Physicists in Medicine (AAPM). Methods for
Evaluating QA Needs In Radiation Therapy. AAPM Task Group 100.
3. American Association of Physicists in Medicine (AAPM). Quality Assurance
of Medical Accelerators. AAPM Task Group 142.
4. International Atomic Energy Agency (IAEA). Commissioning and quality
assurance of computerized planning systems for radiation treatment of
cancer. Technical Report Series. IAEA TRS-430. 2004; Vienna, Austria
5. Van Dyk J. The modern technology of radiation oncology. Wisconsin, USA:
Medical Physics Publishing; 1999.
6. American Association of Physicists in Medicine (AAPM). Comprehensive
QA for Radiation Oncology, AAPM Task Group 40, Report 40. Med Phys.
1994;21(4):581-618.
7. American Association of Physicists in Medicine (AAPM). Basic Applications
of Multileaf Collimators. AAPM Task Group 50 Report 72. EUA; 2001.
Revista Brasileira de Física Médica. 2009;3(1):77-90.
89
Furnari L
Quadro 12. Testes de garantia da qualidade dos equipamentos de medida
Tipo de instrumento
Referência
Teste
Calibração em Laboratório Padrão Secundário
de Dosimetria
Local
Linearidade
Comunicação atmosférica
Sinal extracâmara
Fuga
Verificação de constância
Recombinação
Efeito de polaridade
Instrumento de campo Comparação com referência local
Linearidade
Comunicação atmosférica
Sinal extracâmara
Fuga
Verificação de constância
Recombinação
Efeito de polaridade
Dosimetria relativa
Com filme
Característica sensitométrica
Linearidade do densitômetro
TLD
Calibração
Linearidade
Câmara de ionização Linearidade
Sinal extracâmara
Diodo
Dependência energética
Linearidade
Fuga
Analisadores de feixe Ajuste mecânico
Exatidão posicional
Tensão de coleção do detetor
Linearidade do detetor
Sinal extracâmara
Fuga do detetor
Exatidão da análise de dados
Exatidão da impressão
Acessórios
Colocação
Exatidão
Histerese
Termômetro
Calibração
Barômetro
Calibração
Réguas
Calibração
Monitor de área
Calibração
8. American Association of Physicists in Medicine (AAPM). Guidance
document on delivery, treatment planning, and clinical implementation of
IMRT. Report 82. Med Phys. 2003;30(8):2089-115.
9. American Association of Physicists in Medicine (AAPM). The Management
of Respiratory Motion in Radiation Oncology. AAPM Task Group 76, Report
91. EUA; 2006.
10. American Association of Physicists in Medicine (AAPM). The Physical
Aspects of Total and Half Body Photon Irradiation. AAPM Task Group 29,
Report 17. EUA; 1986.
11. American Association of Physicists in Medicine (AAPM). Quality Assurance
for computed-tomography simulators and the computed-tomography-
90
Revista Brasileira de Física Médica. 2009;3(1):77-90.
Especificações e Tolerâncias
Certificado de calibração
Frequência
Bianual
0,50%
Registrada e/ou corrigida
0,50%
0,10%
2%
Registrada e/ou corrigida
1%
1%
Registrada e/ou corrigida
Registrada e/ou corrigida
Registrada e/ou corrigida
0,10%
2%
Registrada e/ou corrigida
1%
Bianual
Bianual
Inicial
Em cada uso
Em cada uso
Inicial
Em cada uso
Anual
Registrada
Registrada e/ou corrigida
Registrada
Registrada
Registrada e/ou corrigida
1%
Registrada e/ou corrigida
Registrada e/ou corrigida
2%
2mm
2mm
Registrada e/ou corrigida
0,50%
0,50%
0,50%
1%
1 mm
Para cada lote de filmes
Anual
Para cada lote de TLD
Para cada lote de TLD
Para cada lote de TLD
Inicial
Inicial
Inicial
Anual
Inicial
Em cada uso
Em cada uso
Inicial
Inicial
Em cada uso
Inicial
Inicial
2mm
2mm
0,2 oC
1 mmHg
1 mm
Certificado de calibração
Em cada uso
Em cada uso
Inicial
Trimestral
Inicial
Anual
Bianual
Bianual
Em cada uso
Em cada uso
Inicial
Em cada uso
simulation process. AAPM Task Group 66 Report 83. Med Phys.
2003;30(10):2762-92
12. Rodrigo Rubo. INRAD, Hospital das Clínicas da Faculdade de Medicina
da USP. Comunicação particular a respeito de controle de qualidade em
Braquiterapia; 2009.
13. American Association of Physicists in Medicine (AAPM). Quality Assurance
for Clinical Radiotherapy Treatment Planning. AAPM Task Group 53 Report
62. Med. Phys. 1998;25:1773-829.
14. International Atomic Energy Agency (IAEA). TECDOC-1151 Aspectos
físicos da garantia da qualidade em radioterapia. Protocolo de controle de
qualidade. Vienna. Ministério Saúde: INCA, RJ; 2000.
Artigo de Revisão
Revista Brasileira de Física Médica. 2009;3(1):91-9.
Garantia de qualidade em radiologia
diagnóstica
Quality assurance in diagnostic radiology
Tânia A. C. Furquim1, Paulo R. Costa2
1
Instituto de Eletrotécnica e Energia da Universidade de São Paulo (USP) – São Paulo (SP), Brasil.
2
Instituto de Física da USP – São Paulo (SP), Brasil.
Resumo
As imagens radiológicas proporcionam informações importantes para a decisão dos futuros passos de um diagnóstico, um tratamento ou
acompanhamento de um procedimento. Então, o nível necessário de qualidade de imagem para o correto diagnóstico tem que ser obtido na mais
baixa dose de radiação possível ao paciente. Esses benefícios podem ser alcançados a partir da implementação de um rigoroso programa de
garantia de qualidade. Como os avanços em tecnologia digital permitiram o rápido desenvolvimento de aplicações radiológicas, a transição de um
sistema écran-filme a ambientes digitais tornou-se uma tarefa difícil, pois deve ser acompanhada de um processo de otimização de exposições e
qualidade de imagem. Esse trabalho revisou alguns destes novos detetores e descreveu algumas questões associadas a um programa de garantia de
qualidade dedicada a tecnologias como: radiologia digital e computadorizada, mamografia digital e computadorizada e tomografia computadorizada
multidetetores. Assim, pretendeu-se enfatizar que a crescente complexidade destes novos equipamentos demanda uma nova competência técnica,
o que implica educação continuada sistemática para os físicos médicos.
Palavras-chave: radiologia diagnóstica; garantia de qualidade; radiologia digital; mamografia digital.
Abstract
X-ray images provide important information for the establishment of a diagnosis, treatment and follow-up procedure. Then, the necessary level of
image quality for correct diagnosis has to be obtained at the lowest possible radiation dose to the patient. These benefits could be achieved by the
implementation of rigorous quality assurance program. As advances in digital technology allowed the fast development of different detectors for
radiological applications, the transition from a screen-film system to a digital environment became a difficult matter, and this should be accomplished
with an optimization of exposures and image quality. This paper aimed to review some of the new digital detectors and describe some issues associated
with a quality assurance program dedicated to technologies like digital and computed radiography, digital mammography or computed tomography
multislice. Thus, it is intended to emphasize that the increasing complexity of radiological equipment demands a new technical competence and that
systematic continuing education of medical physicists is necessary.
Keywords: diagnostic radiology; quality assurance; digital radiology; digital mammography; CT multislice.
Introdução
A radiologia diagnóstica tem como função principal diagnosticar patologias. Quando se utilizam imagens obtidas
a partir da interação da radiação ionizante com o paciente, espera-se que esta apresente qualidade de modo a
minimizar os erros de interpretação e identificação de estruturas, possibilitando diagnóstico mais preciso e com
a menor dose. Uma imagem sem a qualidade adequada
deve ser repetida e há alguns custos envolvidos neste
processo que devem ser evitados, e o principal é a duplicação de dose em um mesmo paciente. Assim, a adoção
de conceitos de qualidade em radiologia torna-se muito útil, uma vez que auxilia no controle do processo de
obtenção de imagem com a redução de erros previsíveis.
A norma IEC 61223-11 define os conceitos associados à
qualidade que orientam a sua implementação em radiologia diagnóstica:
• garantia de qualidade: ações sistemáticas e planejadas, necessárias para prover confiança adequada,
assegurando que o produto ou serviço satisfaça exigências de qualidade;
• programa de garantia de qualidade: instruções detalhadas para realizar ações de garantia de qualidade
para cada componente do equipamento, sistemas
de equipamentos ou instalações, incluindo elementos de gestão da qualidade e técnicas de controle
de qualidade;
Correspondência: Tânia A. C. Furquim – Universidade de São Paulo, Instituto de Eletrotécnica e Energia – Av. Prof. Luciano Gualberto, 1289 – Cidade
Universitária – 05508-010 – Sao Paulo (SP), Brasil – E-mail: [email protected]
Associação Brasileira de Física Médica®
91
Furquim TAC, Costa PR
• controle de qualidade: técnicas operacionais e atividades que são utilizadas para atender exigência de
qualidade;
• testes de aceitação: testes iniciais que se realizam
quando se compra um equipamento. Devem verificar
todas as possibilidades de utilização do equipamento
de acordo com o contrato de compra e venda;
• testes de qualidade (constância): avaliação rotineira
dos parâmetros técnicos de desempenho;
• testes de estado: ‘fotografia’ do desempenho de um
equipamento em um dado momento.
Ao se associar estes conceitos à radiologia diagnóstica,
programas de garantia da qualidade (PGQ) devem ser compostos, ao menos, pelas seguintes atividades:
• elaboração de memorial descritivo de proteção
radiológica;
• cálculo de barreiras;
• realização de levantamentos radiométricos;
• testes de aceitação e de constância (qualidade);
• sensitometria;
• valores representativos de doses;
• implementação de padrões de qualidade de imagem;
• assentamento de testes, tabelas de exposição;
• cuidados com avisos conforme a legislação vigente;
• identificação de falhas humanas e de equipamentos;
• verificação dos procedimentos de rotina;
• treinamento de técnicos, tecnólogos, engenheiros, físicos e médicos envolvidos no processo de obtenção
de imagem;
• auditorias pelos titulares;
• otimização constante de doses e qualidade de
imagem.
Porém, para vários dos passos acima, necessários
para a implementação do PGQ, devem-se conhecer as
tecnologias e fenômenos físicos envolvidos no processo
de geração da radiação e formação da imagem médica.
Um pouco de história
São bastante imprecisas as origens históricas dos programas que, atualmente, chamamos de controle de qualidade
em nosso país. No Brasil, tem-se notícia das iniciativas no
desenvolvimento de técnicas e dispositivos para o controle
de qualidade em Radiologia realizadas no Departamento
de Física do Campus de Ribeirão Preto da Universidade
de São Paulo (USP), desde meados da década de 1970,
sob liderança do professor Thomaz Ghilardi Netto. O
Professor Ghilardi, apoiado e estimulado pelo Professor
John Cameron, desenvolveu uma série de dispositivos para
a realização de testes de controle de qualidade em equipamentos radiológicos e, o que foi mais importante, iniciou a
formação de pessoal especializado para o desenvolvimento de novas técnicas de avaliação. Esses novos profissionais rapidamente se espalharam em diferentes cidades do
92
Revista Brasileira de Física Médica. 2009;3(1):91-9.
Estado de São Paulo e também em outros Estados no país,
dando início a programas de controle de qualidade locais,
precursores dos programas atuais.
Na cidade de São Paulo, até o final da década de
1980 havia somente algumas poucas iniciativas para se
estabelecer rotinas de controle de qualidade, ainda sem
maiores preocupações com periodicidades e com o estabelecimento de critérios de avaliação de desempenho
dos equipamentos de diagnóstico por imagens. Entre
1989 e 1990, profissionais do Instituto de Eletrotécnica e
Energia da USP (IEE/USP) iniciaram um programa-piloto
no Hospital Universitário do campus do Butantã que incluíam alguns testes de desempenho dos equipamentos de
radiologia e de fluoroscopia, bem como a análise de rejeição de filmes. Algumas entidades de fomento – tais como
a Financiadora de Estudos e Projetos, a Fundação de
Amparo à Pesquisa do Estado de São Paulo e o Conselho
Nacional de Desenvolvimento Científico e Tecnológico –
passaram a apoiar projetos nesta área que permitissem
o desenvolvimento de técnicas de controle de qualidade,
não apenas de equipamentos radiológicos mais simples
como também de outros tipos de tecnologias de imagens,
tais como a tomografia computadorizada, a ultrassonografia, a ressonância magnética e as técnicas de radiologia intervencionista.
Os progressos vivenciados pelo programa de controle
de qualidade desenvolvido no IEE/USP respondiam a uma
demanda crescente de implementações de programas
desta natureza em hospitais e clínicas das redes pública e
privada. Este processo foi intensificado com a publicação
da Resolução Estadual 625/942 que, entre outras coisas,
estabelecia a obrigatoriedade de implementação desses
programas em todo o Estado de São Paulo. Apesar da evidente geração de conflitos e resistências por parte de alguns profissionais da classe médica, pelo estabelecimento
da obrigatoriedade de implementação, algumas das iniciativas tornaram-se casos de sucesso, demonstrando que,
em médio prazo, o controle de qualidade traz benefícios a
todos os elementos envolvidos. Dado o sucesso da implementação da Resolução 625/94 no Estado de São Paulo,
quatro anos mais tarde a Portaria MS 453/983 ampliaria
essa iniciativa a todo o país. Todo esse esforço de profissionais da área na época, tentando estabelecer critérios
para implementar diversos PGQs cumpriu uma grande
tarefa pioneira. Os PGQs previstos por estas publicações
visavam a alcançar os serviços de radiologia convencional,
odontológico, mamografia convencional, processadoras
que deveriam ser controladas diariamente, equipamentos
de fluoroscopia com intensificador de imagem e alguma
iniciativa em tomografia computadorizada.
A Portaria tentou organizar um serviço em termos
de se ter um memorial descritivo de proteção radiológica que deixasse os recursos de imagem do serviço o
mais expostos possível. Foram estabelecidos alguns critérios de conformidade para parâmetros elétricos e geométricos dos equipamentos e periodicidade mínima de
acompanhamento. Porém, apesar de ter oferecido pouco
Garantia de qualidade em radiologia diagnóstica
direcionamento em termos de controle de doses a pacientes e qualidade de imagem, foi de grande importância para
se estabelecer o domínio sobre a irradiação de pacientes,
uma vez que os equipamentos passaram a ser calibrados
e a funcionar em ambientes melhor controlados, uma vez
que houve um grande número de serviços que passou a
ter cálculo de blindagens e a realizar levantamentos radiométricos. Com base na implementação da Portaria MS
453/98 e com testes dos exatos parâmetros dos equipamentos nela exigidos, a Figura 1 ilustra alguns resultados
alcançados pelo IEE/USP, no período de 2000 a 2006.
Os parâmetros mais problemáticos para estes equipamentos de modelos com filme, e com cerca de dez anos
de instalação, mostram que a frequência de problemas
nos convencionais é maior que em outra modalidade. Por
serem mais antigos, a calibração do tempo de exposição
ainda era um problema, pois este ainda era selecionado
no painel de controle. As doses sempre mostram que há
espaço para otimização, principalmente em equipamentos fluoroscópicos comuns.
Novos parâmetros de avaliação
Com o passar dos anos, os avanços rápidos em tecnologia digital permitiram o desenvolvimento de detectores
que capturam a imagem radiológica com propriedades
que levam à avaliação de grandezas diferentes daquelas
utilizadas em sistemas de écran-filme.
As imagens digitais são formadas por elementos de
imagem chamados de pixels (picture element), que compõem uma matriz que possui um comprimento e uma largura, que dimensionam a imagem bi-dimensional. Assim,
alguns parâmetros fundamentais da imagem vão depender do tamanho desta matriz, considerando-se o tamanho
dos pixels e o espaçamento entre eles (pitch)4. A menor
unidade da informação digital seria o bit, com dois possíveis estados: 0 ou 1. Assim, a profundidade do bit passa a
ter importância na formação da imagem, pois a quantidade de bits é utilizada para codificar a intensidade do sinal
(escala de cinza) de cada pixel de uma imagem. Uma vez
formada a imagem, alguns parâmetros devem ser considerados para que se possa avaliar a qualidade da informação que traz, e alguns deles são discutidos a seguir.
A resolução de contraste é a habilidade de um sistema em
distinguir dois objetos com diferentes intensidades de sinal. É
afetada pela quantização e limitada pela profundidade de bit5.
A resolução espacial é definida como a habilidade em
se distinguir pequenos objetos em alto contraste e é limitada pelo tamanho mínimo do pixel. Esta não é melhorada com o aumento da radiação aplicada ao detector; por
outro lado, a radiação espalhada ou mesmo fótons de luz
podem afetá-la, de maneira a reduzir a resolução4,5. De
acordo com o Teorema de Nyquist, dado um tamanho de
pixel x, a máxima resolução espacial alcançável seria x/2.
A função de transferência de modulação (modulation
transfer function, ou MTF) proporciona a descrição mais
completa da resolução espacial de um detector. A MTF
descreve a eficiência com que variações senoidais no
contraste do sinal, em diferentes frequências espaciais,
são reproduzidos pelo sistema de obtenção de imagem6.
É representada por um gráfico da porcentagem de contraste disponível versus a frequência espacial. Mais especificamente, a MTF tem a função de converter valores de
contraste de objetos de diferentes tamanhos em níveis de
intensidade de contraste na imagem.
A faixa dinâmica é a diferença em intensidade de sinal
ou frequência, entre o maior e menor sinal que um sistema pode processar ou mostrar. A densidade ótica é a
diferença entre as regiões úteis mais claras e mais escuras da imagem. Aumentando o número de bits por pixel,
em uma imagem digital aumenta a faixa dinâmica da imagem5. Em radiologia de écran-filme, a resposta do filme à
exposição é representada pela curva sensitométrica, cuja
faixa dinâmica é definida como o intervalo linear da curva. Os detectores digitais apresentam uma resposta mais
ampla e linear à exposição (Figura 2), ou seja, a função
do detector digital melhora com o aumento da exposição.
Figura 1. Resultados de testes de qualidade em equipamentos
previstos na Portaria MS 453/98, realizados pelo IEE/USP no
período de 2000 a 2006. Os parâmetros foram analisados conforme os critérios da Portaria MS 453/983
Figura 2. Gráfico ilustrando a faixa dinâmica de sistemas écranfilme e equipamentos que produzem imagem digital.
Nova etapa da história
Revista Brasileira de Física Médica. 2009;3(1):91-9.
93
Furquim TAC, Costa PR
Porém, deve-se tomar cuidado com este comportamento uma vez que pode haver super exposição do paciente
para obtenção de uma imagem que poderia ter qualidade
diagnóstica com doses menores.
Em radiologia convencional, a análise da qualidade da
imagem é voltada praticamente ao contraste e resolução
espacial. Esses fatores são frequentemente tratados como
se tivessem características absolutas7, desconsiderandose o ruído na imagem como um dos fatores principais. No
caso de detectores digitais, tanto o ruído como a razão
sinal-ruído (signal-noise ratio, ou SNR) passam a ter importância central na avaliação da qualidade da imagem.
A imagem passa a ter tanto contraste quanto nitidez dinâmicos, devido a recursos de pós-processamento; porém,
qualquer variação de apresentação da imagem é limitada
pelo ruído nela contido. Assim, o parâmetro que passa
a determinar a qualidade da imagem é a razão entre o
sinal e o ruído, pois este está relacionado ao conteúdo de
informação da imagem. Uma grandeza útil para caracterizar o desempenho do detector quanto ao sinal e o ruído
é a eficiência de detecção quântica (detective quantum
efficiency, ou DQE). A DQE é uma função da frequência
espacial e descreve a eficiência de transferência da SNR
(ao quadrado) contido no padrão de raios X incidente à
saída do detector8. Como, em geral, a obtenção da imagem radiográfica efetiva depende da maximização da SNR
e minimização da dose ao detector, pode-se dizer que7-10:
Equação 1
onde:
SNRentrada: razão sinal-ruído antes de entrar no detector;
SNRsaída: razão sinal-ruído quando sai do detector.
Assim, por não existir um detector perfeito, DQE<1, o
que significa que parte da informação é perdida devido a
fontes de ruído no próprio detector. A DQE é um poderoso
instrumento para comparar a eficiência e desempenho de
diferentes detectores. Aumentando-se os valores de DQE
e mantendo-se os níveis de exposição à radiação, podese melhorar a qualidade de imagem.
Essas novas grandezas, ou métrica da qualidade de
imagem11, que passam a ser importantes para a avaliação da qualidade da imagem, devem ser observadas em
equipamentos para radiologia computadorizada ou digital,
mamografia computadorizada ou digital, tomografia computadorizada, fluoroscopia digital e outros que utilizam a
imagem digital para diagnóstico.
Novas tecnologias em equipamentos de radiologia
diagnóstica
Radiologia computadorizada
Um sistema de radiologia computadorizada (computed
radiology, ou CR) consiste basicamente em três componentes: as placas de imagem (imaging plates, ou IP), os
94
Revista Brasileira de Física Médica. 2009;3(1):91-9.
chassis e o leitor. Uma placa não exposta é colocada em
um chassi, que é similar ao de filmes, tanto em tamanho
como em forma.
A diferença fundamental em relação ao sistema de
écran-filme está na aquisição da imagem. O material que
compõe a IP tem a propriedade de colocar os elétrons
em armadilhas quando absorvem energia no processo de
irradiação, formando a imagem latente. Os elétrons são
liberados ao serem estimulados com energia suficiente
de um feixe laser (l ~ 630 nm) no leitor das IPs. O processo de retirar os elétrons das armadilhas libera fótons
com comprimentos de onda próximos ao da luz azul (l
~ 460 nm), os quais são direcionados a um tubo fotomultiplicador, convertidos em sinal elétrico e armazenados
como imagem digital9,11. Esse processo é chamado de luminescência fotoestimulável. As IPs são expostas a uma
intensa luz branca que tem a propriedade de retirar todos
os elétrons,das armadilhas tornando a IP pronta para uso
novamente.
Radiologia digital
Os sistemas de radiologia digital (digital radiology ou DR)
são unidades seladas, e podem ser empregadas em radiologia convencional, odontologia, mamografia ou fluoroscopia. Diferente do que acontece em sistemas écranfilme e computadorizados, eles capturam raios X de forma
mais direta e produzem uma imagem digital. Eles podem
ser classificados em indiretos ou diretos:
• indiretos: possuem uma camada de material cintilador
que converte os fótons de raios X em fótons do espectro visível, que então são coletados por transistores
de filmes finos (TFT) ou por dispositivos de carga acoplado (charge-coupled device ou CCD), convertendoos em sinal elétrico que formarão as imagens digitais.
O material cintilador pode ser iodeto de césio dopado com tálio CsI[Tl], que é formado por cristais tipo
agulha, e se comporta como fibra ótica, o que evita o
espalhamento de luz e a consequente perda de resolução na imagem devido ao espalhamento de luz.
• diretos: não precisam de uma etapa intermediária de
conversão; os fótons de raios X liberam elétrons diretamente no material e estes são coletados pela matriz de
TFT9,10,11,12. Estes detectores são compostos por um
cristal de selênio amorfo (a-Se).
Comparativamente, os sistemas DR direto e indireto
possuem aproximadamente ganho de conversão de raios
X e ruído eletrônico aproximados. Uma vantagem do sistema digital direto em relação ao indireto é que pode ser
fabricado com tamanhos de pixel menores. No caso da
mamografia, esta diferença pode chegar a 30%.
Estes sistemas podem apresentar alguns tipos de artefatos de imagem, como fantasmas (ghost). Este é um
tipo de artefato que pode aparecer devido à alteração na
sensibilidade ou ganho do detetor como um resultado de
exposições anteriores a raios X. Fantasmas em detetores
de a-Se aparecem como redução de sensibilidade devido
Garantia de qualidade em radiologia diagnóstica
à captura de elétrons em armadilhas mais profundas do
cristal de a-Se e sua subsequente recombinação com buracos livres gerados por raios X. Outros fatores que podem
causar artefatos na imagem são defeitos de fabricação e
não-uniformidades do detetor. Muitos destes problemas
são inevitáveis e são compensados pelos softwares dos
equipamentos. Estes detetores necessitam de testes de
qualidade frequentes para garantir imagens uniformes.
Comparação entre sistemas écran-filme, CR e DR
Os sistemas que produzem imagem em formato digital,
como CR e DR, apresentam a vantagem da manipulação,
visualização, transmissão e armazenamento da imagem.
Apesar do filme apresentar melhor resolução espacial
em relação aos demais, os sistemas digitais apresentam
melhor resolução de contraste, o que em muitos casos
pode compensar a espacial. A resolução espacial do CR
e do DR são similares, com matriz típica de aproximadamente 2.500 x 2.500 pixels10. Tanto o DR quanto o CR
apresentam uma faixa dinâmica muito maior do que qualquer combinação écran-filme.
Como os detetores DR possuem DQE maior que CR, têm
a possibilidade de produzir alta qualidade de imagem com
menores doses de radiação. Porém, isso só ocorre quando se
realiza estudos de otimização nos equipamentos instalados.
Vários estudos têm sido publicados comparando esses sistemas, principalmente em mamografia, na qual a
resolução espacial tem uma importância fundamental13-15.
O mais importante é pensar que todos devem ser utilizados com processos de otimização entre dose e qualidade
de imagem; caso contrário, nada se pode afirmar acerca
do melhor desempenho.
Imagem de raios X com sistemas de dupla energia
Os sistemas DR e CR permitem que uma nova técnica
de obtenção de imagem possa ser utilizada devido ao
resultado ser uma imagem digital. Os sistemas de dupla
energia podem usar dois detetores separados por uma
placa de cobre e usar uma exposição aos raios X ou um
detetor com duas exposições. Nos dois casos produzemse imagens de alta e baixa energia de raios X. Desta maneira, imagens de tecido mole ou osso podem ser obtidas.
Devido ao fato de dependências energéticas dos coeficientes de atenuação dos efeitos fotoelétrico e Compton
para os dois materiais serem diferentes, a subtração de
duas imagens obtidas em diferentes tensões (kVp) possibilita produzir imagens separadas do corpo, apenas do
osso ou apenas tecido mole, facilitando a visualização de
achados10,16. Assim, para a obtenção de duas imagens em
alta e baixa energias, há um rápido chaveamento de tensão (kVp) e filtração do feixe, e então aplica-se um algoritmo de imagem para a subtração. Este tipo de tecnologia
mostra-se bastante útil em radiografias de pulmão.
Mamografia
Os equipamentos de mamografia apresentam avanços
tecnológicos similares aos de radiologia convencional. Os
equipamentos podem utilizar sistemas CR ou DR. O grande desafio dos sistemas que produzem imagens digitais é
alcançar uma boa resolução em contraste em doses aceitáveis; manter um pixel máximo em 100 mm em pitches
cada vez menores; e manter o maior tamanho possível
do detector, habilitando-o a obter imagens de mamas
grandes. Mesmo com a busca por parte de todos os fabricantes de um desenvolvimento destes equipamentos,
novas técnicas vêm sendo desenvolvidas para aprimorar
a detecção prematura de câncer de mama, na tentativa de
redução de diagnósticos errados.
Tomossíntese
Tomossíntese digital é uma técnica de imagem que adquire múltiplas imagens da mama, obtidas de diferentes
angulações do tubo de raios X, enquanto a mama permanece em posição constante. De acordo com publicações
recentes17, a irradiação da mama é feita de tal forma que a
dose de radiação resultante é igual às duas projeções obtidas para rastreamento em uma mesma mama. Com a utilização de diferentes algoritmos de reconstrução, a mama
pode ser visualizada em múltiplos planos em várias profundidades paralelas à superfície do detetor, o que pode
reduzir o impacto de superposição do tecido. Além disso,
pode haver reconstrução de imagens tridimensionais.
A tomossíntese baseada em imagens planas brevemente estará disponível por todos os fabricantes de unidades de mamografia digital. As unidades tridimensionais
ainda precisam de avanço tecnológico e refinamento matemático para ser colocado no mercado.
Mamografia digital com reforço de contraste
Aproveitando a tecnologia de aquisição digital da imagem,
foram desenvolvidas duas técnicas que utilizam a injeção
intravenosa de um agente de contraste iodado em conjunção com um exame de mamografia:
• subtração temporal: uma imagem é adquirida em alta
energia antes da injeção de contraste e outra depois
da injeção, e as imagens são subtraídas. O sistema
de mamografia digital tem que ser adaptado de modo
que a sensibilidade da técnica de imagem para baixas
concentrações de iodo seja maximizada. Dessa forma,
uma nova faixa de tensões passa a ter interesse (45 a
49 kVp) e a compressão da mama já não tem a mesma importância, uma vez que pode comprometer o
fluxo sanguíneo e deve-se evitar movimento durante
a aquisição da sequência de imagens. O tempo longo
de aquisição de imagens pode causar movimento da
mama e artefatos na imagem resultante.
• dupla energia: explora a dependência energética da
atenuação de materiais de diferentes composições na
mama. Um par de imagens de alta e baixa energia é
obtido após a injeção de meio de contraste e combinadas para que melhorem o contraste. O sistema de
mamografia deve ser alterado de forma que o espectro
produzido tenha energias acima da borda K do iodo
(33,2 keV). O protótipo produzido pela GE Healthcare
Revista Brasileira de Física Médica. 2009;3(1):91-9.
95
Furquim TAC, Costa PR
utiliza um filtro adicional de cobre para a obtenção do
espectro desejado. As doses para estas avaliações
são estimadas entre 20 a 50% maiores do que para
mamografia convencional.
Tomografia computadorizada
Na tomografia computadorizada, há uma busca para que,
ao se adquirir uma imagem, cada elemento de volume
(voxel) tenha alta resolução e uma natureza isotrópica,
isto é, dimensão igual nos três eixos espaciais, que pode
ser definido como elemento ideal.
Na década de 1990 foi introduzido o equipamento de
tomografia computadorizada (TC) helicoidal, o que constituiu um passo fundamental para o desenvolvimento das
técnicas de obtenção de imagem de TC. Em um primeiro
momento, o volume de dados poderia ser adquirido sem
erro de registro de detalhes anatômicos. Isso orientou o
desenvolvimento de técnicas de processamento de imagem tridimensional, tais como reformatação multiplanar,
projeção de intensidade máxima, visualização de superfícies sombreadas e técnicas de representação de volume,
que têm se tornado um componente vital de imagem médica atualmente. Para muitos cenários clínicos, portanto, a
TC helicoidal com um único corte, com rotação do grantry
de 1 s, é incapaz de preencher todos os requisitos da busca do elemento ideal. Enquanto a resolução no plano da
imagem de TC depende da geometria do sistema e do
software de reconstrução selecionado pelo usuário, a resolução longitudinal (eixo z) ao longo do eixo do paciente é
determinada pela largura do corte colimado e do algoritmo
de interpolação helicoidal. O uso de uma espessura de 5 a
8 mm resulta em um erro entre resolução longitudinal e resolução no plano, que chega de 0,5 a 0,7 mm, dependendo do software de reconstrução. Então, com TC helicoidal
com único corte, o ideal de resolução isotrópica pode ser
alcançado para faixas de varredura muito limitadas.
Em 1998, muitos fabricantes introduziram o sistema
de TC com fileiras de multidetetores, que proporcionou
considerável melhoria na velocidade de varredura e na
resolução longitudinal, e melhor utilização da radiação X
empregada18. Aquisições simultâneas de m cortes resulta
em um aumento de m-vezes na velocidade, se todos os
parâmetros se mantiverem constantes (por exemplo, espessura de corte). Esse aumento de desempenho no TC
com filas de multidetetores permitiu a otimização de uma
variedade de protocolos clínicos. O tempo de exame para
protocolos padrão pode ser reduzido substancialmente,
o que provou ser de imediato benefício clínico para um
rápido e compreensivo estudo de pacientes com trauma
e não-cooperativos. Alternativamente, a faixa de varredura que pode ser coberta dentro de um certo tempo foi
estendida em um fator de m, o que é relevante para estadiamento oncológico ou para angiografia com TC com cobertura estendida (por exemplo, extremidades inferiores).
O benefício clínico mais importante, portanto, provou ser a
habilidade de varrer um dado volume anatômico dentro de
um dado tempo de varredura com substancial redução na
96
Revista Brasileira de Física Médica. 2009;3(1):91-9.
espessura do corte em resolução longitudinal aumentada
m vezes. Por causa disso, o objetivo de resolução isotrópica foi alcançado para muitas aplicações clínicas.
Como um próximo passo, a introdução de um sistema
de oito fileiras de detetores, em 2000, permitiu menores
tempos de varredura, mas ainda não permitiu resolver o
problema da resolução longitudinal. A introdução do TC
com 16 filas de detetores tornou possível a aquisição rotineira de grandes volumes anatômicos com resolução
longitudinal isotrópica em submilímetros e tempos menores que 10 s para 300 mm de cobertura. Enquanto a resolução espacial não for melhorada substancialmente, as
duas principais vantagens do TC multi-detetores são: uma
resolução realmente isotrópica no plano e um tempo de
aquisição curto, que possibilita exames de alta qualidade
em pacientes muito debilitados.
Atualmente, novas edições de TC com 32, 40 (em
combinação com refinadas técnicas de amostragem no
eixo Z) e 64 fileiras de detetores estão em uso. Alguns
serviços utilizam os equipamentos de 128, 256 e até 320
fileiras. Portanto, em contraste com o TC helicoidal, o desempenho clínico melhora apenas incrementalmente, com
o aumento no número de detetores. Os benefícios clínicos
reais para a utilização de equipamentos cada vez mais rápidos terão que ser cuidadosamente considerados na luz
do esforço técnico necessário e custo, principalmente em
dose ao paciente.
Com esta rápida evolução tecnológica, a exposição do
paciente em TC e os danos potenciais resultantes ganham
considerável atenção. Tipicamente, a dose efetiva ao paciente para protocolos de TC pode chegar a valores entre
1 a 2 mSv para cabeça, 5 a 7 mSv para tórax, e 8 a 11
mSv para abdômen.
De acordo com Verdun19, o risco de morte por câncer
de um paciente adulto que passa por um exame de CT é
de 0,12 % para cada passo de varredura em um exame de
abdômen. Com este dado, deve-se pensar que todos os
protocolos devem passar por constante otimização.
Controle de qualidade
Com a crescente evolução tecnológica, os programas
de controle de qualidade precisam passar por revisões
constantes para sempre avaliar e implementar seu principal objetivo: melhor qualidade de imagem com a menor
dose possível a todos os envolvidos no processo diagnóstico. Com isso, para os equipamentos que utilizam fósforos fotoestimuláveis (sistemas CR) existe a publicação
da American Association of Physicists in Medicine (AAPM
Report 9320), que orienta a implementar os testes da
Tabela 1 em sistemas CR. Também o Protocolo Español
de Control de Calidad21 solicita alguns testes que devem
ser realizados nestes sistemas.
Com estes novos sistemas há uma dificuldade de avaliação em serviços sem filmes do tamanho do ponto focal.
Uma vez que tanto as placas CR quanto o detector DR
Garantia de qualidade em radiologia diagnóstica
Tabela 1. Testes recomendados para sistemas CR
Testes
Ruído no IP não irradiado
Verificação
O sistema de apagamento deve ser capaz de eliminar qualquer sinal no IP. Assim, ao verificar o ruído no
IP não irradiado, pode-se perceber o ruído inerente.
Uniformidade
Verifica a resposta apropriada dos IPs a uma exposição incidente alta. A alta exposição não deve saturar
a resposta ADC (por exemplo, todos os pixels com valor de 4.095).
Calibração do indicador de exposição É um método equivalente à verificação da velocidade radiográfica para uma dada exposição. A exposição de
1 mR é utilizada para estabelecer a precisão do “índice de exposição”. É como se fosse calibrar o indicador.
Linearidade de resposta
Este teste determina a resposta do detector e sistemas de leitura para pelo menos três décadas de
variação de exposição.
Função do feixe laser
Verificação da estimulação do feixe laser para transformar a imagem latente em sinal elétrico.
Uniformidade e limite de resolução
Testes de resolução espacial incluem medições de limite de resolução periférico e central em cada
tamanho de IP. Alguns apresentam resolução diferente para cada tamanho:
35 x 35 cm2: 2,5 pl/mm (200 µm)
24 x 30 cm2: 3,3 pl/mm (150 µm)
18 x 24 cm2: 5,0 pl/mm (100 µm)
Sensibilidade de baixo contraste
Habilidade de responder a pequenas quantidades de radiação. A sensibilidade de contraste deve ser
melhorada com o aumento da exposição.
Precisão do ciclo de apagamento
A habilidade de reutilizar os IPs sem sinais residuais de exposições anteriores é importante.
Função do feixe laser
Verificar a integridade da varredura, quebras de sinal e jitter.
Armazenamento
Avaliação da unidade: verificação de velamento na placa CR.
Tabela 2. Testes recomendados para sistemas DR21
Testes
Razão sinal ruído
Razão contraste ruído
Resolução espacial
Resolução de contraste
Contraste detalhe
MTF
Uniformidade
Artefatos
Distorção geométrica
Verificação
Deve-se obter imagem de um objeto uniforme e estabelecer a relação entre valor médio do pixel dentro da
imagem do objeto e seu fundo, considerando o ruído (desvio padrão do valor médio do pixel do objeto).
Deve-se obter imagem de um objeto uniforme e estabelecer a relação entre valor médio do pixel dentro
da imagem do objeto e seu fundo, considerando o ruído tanto da imagem do objeto quando do fundo.
Utilizam-se dispositivos com padrões de barras para determinar quantos pares de linha/mm é possível
identificar.
Uma vez que o contraste é afetado por vários parâmetros, essa verificação é um método para detectar
uma faixa em que o sistema pode falhar.
Verifica-se o limite de visibilidade para um dado contraste.
Utiliza-se um dispositivo de teste com distribuição de frequências conhecidas, no qual se relaciona o
sinal em regiões com pares de linhas conhecidos.
Verifica-se se existem pixels que não possuem sinal, ou mesmo agrupamentos de pixels.
Um dos principais artefatos é o aparecimento de ghost na imagem. A verificação é muito simples.
Pode-se verificar distorção por medições de distâncias horizontais e verticais.
não possuem resolução espacial comparada aos filmes,
e como alguns dispositivos de teste são baseados em
resolução espacial por pares de linhas, devem-se aplicar
outros critérios de análise para estimar o tamanho do ponto focal. O mais indicado seria a utilização de padrão fenda, porém deve-se atentar às dificuldades de alinhamento
para obter a informação mais precisa. Da mesma maneira,
deve-se verificar se os métodos mais difundidos para verificação do alinhamento das grades antiespalhamento são
possíveis de se aplicar aos novos sistemas.
Em mamografia, várias publicações22,23 têm auxiliado na evolução dos PGQs para que realmente se possa atuar na qualidade de imagem e controle de doses
aos pacientes em equipamentos CR e DR. Os sistemas
DR comercialmente disponíveis ainda possuem os procedimentos de CQ muito dependentes do fabricante do
equipamento, uma vez que cada um adota um sistema de
aquisição de imagem diferente. Porém, recomendam-se,
no mínino, testes que verifiquem os parâmetros mostrados na Tabela 2. Os demais tipos de equipamentos, como
tomossíntese ou dupla energia, ainda não possuem publicações acerca de como desenvolver procedimentos padronizados de avaliação de qualidade de imagem e dose,
e de forma rápida e eficiente.
Outra grande dificuldade em implementar processos
de otimização de qualidade de imagem e dose diz respeito
à tomografia computadorizada, pois com os equipamentos multidetetores, o CTDI tem sido muito questionado em
termos de índice de dose. Quão representativo é em termos da dose real ao paciente nos exames tomográficos?
Além disso, como verificar as grandezas de imagem em
um equipamento com 128, 256 ou mesmo 320 cortes? O
Revista Brasileira de Física Médica. 2009;3(1):91-9.
97
Furquim TAC, Costa PR
Quadro 1. Testes de qualidade típicos em tomografia computadorizada
Padrão de dose ao paciente: abdômen, crânio, coluna
Verificação da posição do objeto de teste e alinhamento
Precisão do sistema de alinhamento luminoso
Espessura de corte
Incrementos entre cortes
Exatidão e incremento de posicionamento da mesa
Contraste de alvos esféricos
Linearidade de número CT
Resolução espacial de alto contraste
Resolução de baixo contraste
Razão Sinal Ruído e ruído na imagem
Uniformidade do número CT
Calibração e uniformidade do número CT no ar
Não uniformidade integral
Avaliação da inclinação do gantry
volume de imagens a ser avaliada no CQ passa ser muito
grande e o tempo de análise, proporcional. Um teste de
qualidade típico em TC deveria conter no mínimo as avaliações mostradas no Quadro 1.
O físico habituado a avaliar TC percebe que, para se
extrair as informações necessárias quando se altera a tecnologia adotada, muito estudo deve ser realizado, mesmo
porque, como para sistemas CR em radiologia convencional cada fabricante adota um projeto, aumenta a quantidade de procedimentos a serem avaliados e imagens a
serem interpretadas.
Todas estas modalidades de equipamentos visualizam as imagens digitais em monitores, que passam a ter
importância fundamental na obtenção do diagnóstico.
Assim, estes precisam ser avaliados com muito critério24.
Os principais testes a serem implementados para verificação de performance destes monitores utilizam padrões de
imagem que são disponibilizados pela AAPM na rede de
computadores e estão apresentados no Quadro 2.
Discussão e conclusão
O principal problema com o qual o físico médico pode
se deparar atualmente é a velocidade com que as tecnologias se desenvolvem. O controle de qualidade com
a missão de verificar as doses aos pacientes e aos trabalhadores ocupacionalmente expostos se depara com este
desafio, porque para processos de otimização há necessidade de se conhecer os mecanismos de obtenção da
imagem para que se interfira positivamente no resultado
do diagnóstico.
Após a implementação da Portaria MS 453/98, muito
esforço foi feito para se oferecer qualidade aos serviços
que tentavam se adequar às normas. Porém, a grande
preocupação inicial foi no sentido de corrigir defeitos elétricos, mecânicos e geométricos dos equipamentos emissores de radiação. O que se tornou um grande problema foi
98
Revista Brasileira de Física Médica. 2009;3(1):91-9.
Quadro 2. Principais testes para avaliação de desempenho de
monitores
Distorção geométrica da imagem no monitor.
Reflexão na tela do monitor.
Uniformidade da luminância.
Resposta de luminância e de contraste.
Resolução do monitor.
Ruído na imagem.
Velamento por reflexão interna da tela do monitor
a crença, de uma parcela da comunidade, de que se tratava de um controle de qualidade. Na verdade todo o estudo de doses, que é a função dos físicos nos processos,
foi esquecido. Modalidades como mamografia, intervencionismo, tomografia computadorizada e toda a gama de
exames pediátricos ficaram grandemente prejudicadas.
O futuro do controle de qualidade em radiologia diagnóstica, com equipamentos cada vez mais sofisticados,
leva-nos a concluir que é fundamental o controle de doses em processos rotineiramente otimizados. A função da
educação continuada dos físicos médicos que atuam na
área deve prever exatamente a discussão deste aspecto
pouco abordado em serviços de diagnóstico. Há uma profunda necessidade de que o PGQ seja menos documental
e mais eficaz quanto a doses e melhores qualidades de
imagem.
Agradecimentos
Os autores agradecem aos editores pelo honroso convite.
Referências
1. International Electrotechnical Commission. Evaluation and routine testing in
medical imaging departments. Part 1: general aspects. IEC 61223-1. 1st
ed.; 1993.
2. Secretaria de Estado da Saúde. Resolução SS 625/94, de 14 de dezembro
de 1994. In: Diário Oficial do Estado. Norma técnica que dispõe sobre o
uso, posse e armazenamento de fontes de radiação ionizante no âmbito do
Estado de São Paulo. São Paulo: Secretaria de Estado da Saúde; 1994.
3. Brasil. Ministério da Saúde. Portaria MS 453/98, de 02 de junho de
1998. In: Diário Oficial da União. Diretrizes de proteção radiológica em
radiodiagnóstico médico e odontológico do Ministério da Saúde. Brasília,
DF: Ministério da Saúde; 1998.
4. Körner M, Weber CH, Wirth S, Pfeifer KF, Reiser MF, Treitl M. Advances in
digital radiography: physical principles and system overview. Radiographics.
2007;27(3):675-86.
5. Krupinski EA, Williams MB, Andriole K, Strauss KJ, Applegate K, Wyatt M, et
al. Digital radiography image quality: image processing and display. J Am
Coll Radiol. 2007;4(6):389-400.
6. Cowen AR, Kengyelics SM, Davies AG. Solid-state, flat-panel, digital
radiography detectors and their physical imaging characteristics. Clin
Radiol. 2008;63(5):487-98.
7. Cowen AR, Davies AG, Kengyelics SM. Advances in computed radiography
systems and their physical imaging characteristics. Clin Radiol.
2007;62(12):1132-41.
Garantia de qualidade em radiologia diagnóstica
8. Yaffe MJ, Rowlands JA. X-ray detectors for digital radiography. Phys Med
Biol. 1997;42(1):1-39.
9. Persliden J. Digital radiology and the radiological protection of the patient.
Eur Radiol Syllabus. 2004;14(1):50-8.
10. Wolbarst AB, Zamenhof RG, Hendee WR. Advances in Medical Physics
2006, Madison, Wisconsin: Medical Physics Publishing; 2006.
11. Maidment ADA. Quality control issues for computed and direct radiography.
In: Reiner BI, Siegel EL, Carrino JA. Quality assurance: meeting the
challenge in the digital medical enterprise. Great Falls, Virginia: Society for
Computer Applications in Radiology; 2002. p. 9-27.
12. Lança L, Silva A. Digital radiography detectors: a technical overview: part 1.
Radiography. 2009;15(1):58-62.
13. Monnin P, Gutierrez D, Bulling S, Lepori D, Valley JF, Verdun FR. Performance
comparison of an active matrix flat panel imager, computed radiography
system, and a screen-film system at four standard radiation qualities. Med
Phys. 2005;32(2):343-50.
14. Fernandez JM, Ordiales JM, Guibelalde E, Prieto C, Vañó E. Physical image
quality comparison of four types of digital detector for chest radiology.
Radiat Prot Dosimetry. 2008;129(1-3):140-3.
15. Rong JX, Shaw CC, Johnston DA, Lemacks MR, Liu X, Whitman GJ, et
al. Microcalcification detectability for four mammographic detectors: flatpanel, CCD, CR, and screen/film. Med Phys. 2001:29(9):2052-61.
16. Fass L. Imaging and cancer: a review. Mol Oncol. 2008;2(2):115-52.
17. Schulz-Wendtland R, Fuchsjäger M, Wacker T, Hermann KP. Digital
mammography: an update. Eur J Radiol. In press 2009.
18. Flohr TG, Schaller S, Stierstorfer K, Bruder H, Ohnesorge BM, Schoepf
UJ. Multi-detector row CT systems and image-reconstruction techniques.
Radiology. 2005;253(3):756-73.
19. Verdun FR, Gutierrez D, Schnyder P, Aroua A, Bochud F, Gudinchet F. CT
dose optimization when changing to CT multi-detector row technology. Curr
Probl Diagn Radiol. 2007;36(4):176-84.
20. American Association of Physicists in Medicine. Acceptance Testing and
Quality Control of Photostimulable Storage Phosphor Imaging Systems.
American Association of Physicists in Medicine One Physics Ellipse, College
Park, AAPM Report 93, 2006.
21. Sociedad Española de Física Médica – Sociedad Española de Protección
Radiológica. Protocolo Español de Control de Calidad en radiodiagnóstico,
2002.
22. Perry N, Broeders M, De Wolf C, Törnberg S, Holland R, Von Karsa L.
European guidelines for quality assurance in breast cancer screening and
diagnosis. 4th ed. Bélgica: European Communities; 2006.
23. NHS Breast Screening Programme (NHSBSP) Routine quality control testes
for full field digital mammography systems. Prepress Projects Ltd, Perth,
UK, 2007
24. American Association of Physicists in Medicine. Assessment of display
performance for medical imaging systems. American Association of
Physicists in Medicine One Physics Ellipse, College Park, AAPM Report 03,
2005.
Revista Brasileira de Física Médica. 2009;3(1):91-9.
99
Artigo de Revisão
Revista Brasileira de Física Médica. 2009;3(1):101-15.
Aspectos físicos e técnicos da Radiologia
Intervencionista
Physical and technical aspects in Interventional Radiology
Lucía Canevaro1
Doutora em Biociências Nucleares (Física Médica). Pesquisadora do Serviço de Física Médica de Radiodiagnóstico do
Instituto de Radioproteção e Dosimetria/Comissão Nacional de Energia Nuclear (IRD/CNEN), Rio de Janeiro (RJ), Brasil.
1
Resumo
O presente trabalho faz uma revisão sobre alguns conceitos utilizados em Radiologia Intervencionista. São descritas as grandezas e unidades
utilizadas para dosimetria de pacientes e profissionais, procedimentos de caracterização do equipamento de raios X e procedimentos dosimétricos
em pacientes e profissionais. Descrevem-se algumas particularidades dos equipamentos de raios X dedicados à Radiologia Intervencionista e alguns
aspectos relacionados à proteção radiológica.
Palavras-chave: Radiologia Intervencionista; Dosimetria; Controle de qualidade; Proteção radiológica.
Abstract
This paper is a review of some concepts used in Interventional Radiology. It specifies dosimetric quantities and units applied for both patient and
staff. Characterization of the X-ray equipment and dosimetric procedures in patients and professionals are discussed. We also describe certain
characteristics of the X-ray equipment dedicated to Interventional Radiology and some aspects of radiological protection.
Keywords: Interventional Radiology; Dosimetry; Quality control; Radiological protection.
Radiologia Intervencionista
Desde a década de 19601, os procedimentos intervencionistas com raios X na medicina têm aumentado significativamente e continuam a crescer à medida que técnicas minimamente invasivas, assim como equipamentos
com tecnologia cada dia mais sofisticada, vêm sendo
desenvolvidos.
Define-se Radiologia Intervencionista (RI) como aqueles “procedimentos que compreendem intervenções diagnósticas e terapêuticas guiadas por acesso percutâneo ou
outros, normalmente realizadas sob anestesia local e/ou
sedação, usando a imagem fluoroscópica para localizar a
lesão ou local de tratamento, monitorar o procedimento,
e controlar e documentar a terapia”2. Meios de contraste
são utilizados para a visibilização de órgãos ou tecidos radiotransparentes na tela de um monitor.
Algumas das vantagens da RI são a possibilidade de
realização de procedimentos complexos com cortes cirúrgicos de pequena extensão, a diminuição da probabilidade de infecções, o rápido restabelecimento do paciente,
a redução do tempo de internação e a diminuição dos
custos hospitalares3, tratando-se de uma técnica minimamente invasiva, segura e altamente eficaz.
Entretanto, a RI é uma das especialidades que proporciona as maiores doses a pacientes e profissionais4,5.
Em algumas situações, é possível produzir, nos indivíduos,
lesões radioinduzidas às vezes severas. Isto porque os
tempos de exposição são longos, as taxas de dose são
altas, há grandes quantidades de imagens adquiridas6-8,
além de inadequada colimação e uso de filtros, entre outras razões.
Devido às suas vantagens, a frequência dos procedimentos de RI tem aumentado rapidamente nos últimos
anos2,9,10. Nos países em que o sistema de saúde é desenvolvido, a média anual de procedimentos em RI, entre os anos de 1991 e 1996, foi de 12,73 procedimentos
para cada 1.000 habitantes. Nos países como o Brasil,
que não estão inseridos no grupo anterior, a média anual
foi de 1,7311. Segundo dados do DATA SUS12, entre 1995
e 2001 houve um aumento de 77,6% na frequência de
procedimentos em RI no Brasil, sendo que em 2007 foram
realizados 49.729 procedimentos.
Essas técnicas foram originalmente desenvolvidas por
radiologistas, no início da evolução das técnicas guiadas
fluoroscopicamente; logo em seguida os cardiologistas
entraram nesse campo e mundialmente ainda representam a especialidade com maior número de procedimentos.
Correspondência: Instituto de Radioproteção e Dosimetria. Serviço de Física Médica de Radiodiagnóstico. Av. Salvador Allende s/n. CEP: 22780-160.
Jacarepaguá. Rio de Janeiro. Brasil. [email protected]
Associação Brasileira de Física Médica®
101
Canevaro L
No entanto, a RI foi ‘descoberta’ por muitas outras especialidades de não-radiologistas (urologistas, gastroenterologistas, cirurgiões ortopédicos, cirurgiões vasculares, traumatologistas, anestesistas, pediatras), que,
cada vez mais utilizando estas técnicas, vão se tornando
‘intervencionistas’.
Com o aumento das técnicas e da complexidade dos
procedimentos em radiodiagnóstico e com o aparecimento
de lesões radioinduzidas, e devido ao fato que a maioria
destes profissionais teve pouca ou nenhuma formação em
proteção radiológica, existe uma necessidade urgente de
informá-los sobre os riscos da radiação e como minimizálos na sua prática quotidiana2. Para poder realizar essa
tarefa com eficiência, os físicos médicos devem ter conhecimentos sólidos sobre aspectos físicos, técnicos, de
proteção radiológica e, principalmente, ter suficiente familiaridade com a prática médica (experiência em hospital).
Nessas condições é possível desenvolver programas de
garantia e controle de qualidade, assessorar pessoal médico sobre todos os aspectos relacionados à aquisição, reparo, substituição e controle de equipamentos, assim como
implementar medidas de proteção radiológica de pacientes
e profissionais, e tornar a prática o mais otimizada possível.
Efeitos estocásticos e determinísticos em
radiologia intervencionista
As altas doses ministradas nos procedimentos intervencionistas, se não conhecidas e otimizadas, podem aumentar os riscos de efeitos estocásticos e ocasionar efeitos determinísticos em pacientes e profissionais.
Em 1994, o Food and Drug Administration (FDA) publicou um documento sobre lesões induzidas na pele decorrentes de procedimentos intervencionistas. Estas lesões
não aparecem imediatamente, pelo que o médico não
pode perceber danos ao observar o paciente imediatamente após o exame13-18. Relatos sobre efeitos determinísticos em pacientes e profissionais foram publicados pela
International Commission on Radiation Protection (ICRP) e
outros autores2,16. Além das lesões em pacientes, têm sido
observados casos de catarata e sérios danos nas mãos
dos médicos que realizam os exames2,16 (Figura 1).
Na Tabela 1 são apresentados os limiares de dose para
a ocorrência de alguns efeitos determinísticos na pele de
pacientes submetidos a procedimentos guiados fluoroscopicamente. A dose necessária para causar lesão cutânea é tipicamente 3 Gy para eritema (entre 1 e 2 dias após
a exposição) e depilação temporária (entre 2 e 3 semanas
após a exposição). Tempo adicional de fluoroscopia acima
do limiar de dose aumenta a gravidade das lesões: Dano
vascular é esperado para doses na pele acima de 20 Gy.
Na atualidade, equipamentos fluoroscópicos produzem taxas típicas de kerma no ar da ordem de 0,02 Gy/
min para modo normal de fluoroscopia; porém, podem
atingir 0,2 Gy/min no modo de alta taxa de dose2. A taxa
de exposição máxima permitida nos Estados Unidos pela
102
Revista Brasileira de Física Médica. 2009;3(1):101-15.
FDA é de 10 R/min (100 mGy/min) e, para modo de alta
taxa, 20 R/min (200 mGy/min).
O risco de aparecimento de lesões na pele está associado a tempos prolongados de fluoroscopia. O tempo necessário para atingir o limiar de dose para depilação temporária é tipicamente maior do que 90 minutos em modo
fluoroscopia (0,03 Gy/min). No modo de máxima taxa de
exposição, o tempo para ministrar esta dose em um único
local da pele é de 30 minutos no modo normal de fluoro e 15 minutos no modo alta taxa. Grandes pacientes
são mais suscetíveis a lesões na pele, devido ao fato de o
controle automático de brilho mudar automaticamente os
fatores da técnica para aumentar a produção de raios X19.
A maioria das lesões severas pode ser evitada conhecendo e quantificando não apenas a radiação que sai
do tubo de raios X e chega ao paciente, mas também a
qualidade da imagem suficiente para a intervenção. Além
disso, é indispensável fazer uso racional dos raios X.
Grandezas e unidades de interesse para
radiologia intervencionista
Grandezas para pacientes
Os principais objetivos da dosimetria de pacientes são determinar grandezas dosimétricas para estabelecer níveis
de referência de diagnóstico (DRL)20 e realizar avaliações
comparativas de risco. No ultimo caso, é necessário conhecer a dose média nos órgãos e tecidos em risco. Um
objetivo adicional, não menos importante, é o de avaliar o
desempenho do equipamento de raios X, como parte do
processo de garantia da qualidade.
Figura 1. Exemplos de efeitos determinísticos em pacientes16 (ulceração nas costas) e em profissionais (opacidade do cristalino)2.
Aspectos físicos e técnicos da Radiologia Intervencionista
Em certas situações, interessa medir diretamente no
paciente. Já para o controle de parâmetros técnicos, para
a comparação de diferentes sistemas e para otimização, é
preferível realizar medidas usando um fantoma padrão para
simular o paciente. Em radiologia intervencionista, são requeridos instrumentos especiais cujo design e desempenho
se ajustem às necessidades clínicas. É o caso, por exemplo, dos medidores do produto kerma-área. O uso destes
dosímetros e/ou a interpretação dos resultados obtidos requer técnica e conhecimento especializados. É essencial,
também, padronizar os procedimentos para a medida das
grandezas de interesse (Figura 2)21,22. A grandeza kerma no
ar é utilizada como base para todas as grandezas de aplicação específica medidas diretamente21,22.
Kerma e taxa de kerma
O kerma, K, é o quociente entre dEtr e dm, conforme a
Equação 1. Unidade: J/kg. Nome especial gray (Gy).
(1)
Onde:
K: kerma;
dEtr: soma das energias cinéticas iniciais de todas as partículas carregadas liberadas pelas partículas não carregadas em dm;
dm:a massa de um material.
Já a taxa de kerma é o quociente entre dK e dt, conforme a Equação 2.
(2)
Onde:
K: kerma;
dK: incremento de kerma;
dt: intervalo de tempo.
Unidade: J/kg.s. Nome especial gray por segundo (Gy/s).
Kerma no ar incidente (Ki )
É o kerma no ar de um feixe de raios X incidente medido no eixo central do feixe à dFSD (Figura 2), isto é, no
Tabela 1. Limiares para ocorrência de efeitos determinísticos2
Efeito
Limiar aproximado de dose [Gy]
Tempo de aparição do efeito
2
3
7
14
18
24
18
> 12
2-24 horas
Aproximadamente 3 semanas
Aproximadamente 3 semanas
Aproximadamente 4 semanas
Aproximadamente 4 semanas
> 6 semanas
> 10 semanas
> 52 semanas
Eritema imediato transiente
Depilação temporária
Depilação permanente
Escamação seca
Escamação úmida
Ulceração secundária
Necrose dérmica isquêmica
Necrose dérmica
Minutos de fluoroscopia para uma
taxa de alta dose de 200 mGy/min
10
15
35
70
90
120
90
75
Tubo de raios X
Foco
Distância ao
foco, d
Distância focosuperfície do
paciente
dFSD
Distância focoreceptor de
imagem
dFID
Colimador
Medidor de produto kerma-área
Rendimento Y(d)
Kerma no ar incidente, Ki
Paciente
Radiação
espalhada
Kerma de entrada na
superfície, Ke
Dose em órgão, DT
Dose absorvida no tecido, D
Mesa do paciente
Receptor de imagem
Feixe primário
Figura 2. Grandezas de interesse para estimativa das doses em pacientes e para caracterização do equipamento de raios X2.
Revista Brasileira de Física Médica. 2009;3(1):101-15.
103
Canevaro L
plano de entrada na pele, ou na superfície do simulador.
Somente inclui a radiação incidente e não a radiação retroespalhada. Unidade: J/kg, ou gray (Gy).
Kerma de entrada na superfície (Ke )
É o kerma no ar de um feixe de raios X incidente medido no eixo central do feixe à dFSD (Figura 2), isto é, no
plano de entrada na pele, ou na superfície do simulador,
sendo que a radiação incidente no paciente ou fantoma
e a radiação retroespalhada são incluídas na definição.
Unidade: J/kg, ou gray (Gy).
Rendimento (Y(d))
Define-se como o quociente entre K(d) e PIt, conforme a
Equação 3:
Y(d)=K(d)/PIt
(3)
Onde:
Y(d): rendimento;
K(d): kerma no ar a uma distância especificada, d (geralmente 1 m), do foco do tubo de raios X;
PIt: produto corrente por tempo.
Unidade: J/kg.C ou Gy/mAs.
Produto kerma-área (PKA )
Define-se PKA como a integral do produto do kerma no ar em
uma área, dxdy, do feixe de raios X em um plano perpendicular ao eixo central do feixe de raios X, pela área do feixe
no mesmo plano (Equação 4). Unidade: (J/kg).m2 ou Gy.m2.
PKA=òAK(x, y)dxdy
(4)
A radiação espalhada pelo paciente é excluída nesta
definição. O plano de medida deve estar suficientemente
afastado do paciente para não receber uma quantidade
significativa de radiação espalhada. O valor do PKA independe da distância ao foco do tubo, de modo que a atenuação do ar e a radiação extra-focal podem ser desconsideradas, e pode ser medido em qualquer plano entre o
colimador e o paciente. É uma grandeza mais relacionada
com o risco, porque na sua medida está implícita a medida da área que dá uma indicação da quantidade de energia ministrada ao paciente23.
Dose em órgãos (DT )
A dose média absorvida em um dado órgão ou tecido (ou
‘dose em órgão’, DT), se define como o quociente entre eT
e mT (Equação 5):
Onde:
DT: dose em órgão;
de: energia cedida ao tecido dm;
dm: massa do tecido ou órgão.
104
Revista Brasileira de Física Médica. 2009;3(1):101-15.
(5)
DT é usado como um indicador da probabilidade de efeitos
estocásticos da radiação. A distribuição de DT nos órgãos
e tecidos relevantes do corpo não pode ser obtida através
de medidas diretas em pacientes.
Dose equivalente (HT)
A grandeza que leva em consideração a qualidade da radiação é a dose equivalente (HT), definida como o valor
médio da dose absorvida DT,R num tecido ou órgão T, obtido sobre todo o tecido ou órgão T, devido à radiação R
(Equação 6). Unidade: J/Kg, que recebe o nome especial
de sievert (Sv).
(6)
sendo wR o fator de peso da radiação, tabelado na ICRP
10324. Para as energias empregadas em radiodiagnóstico,
wR é igual a 1.
Dose efetiva (E)
É definida como a soma ponderada das doses equivalentes em todos os tecidos ou órgãos do corpo (Equação 7).
Também expressa em Sv. A dose efetiva é uma grandeza
que não é diretamente mensurável.
(7)
Onde:
HT: dose equivalente no tecido ou órgão;
wT e T: fator de peso para o tecido ou órgão T correspondente, tabelado na ICRP 10324.
A aplicação em exposições médicas da dose efetiva como
grandeza para estimar o risco do paciente tem sido uma
questão polêmica25 e ainda não há um consenso sobre a
efetividade do seu uso26.
Dose máxima na pele
Para a estimativa e prevenção de efeitos determinísticos,
a grandeza mais adequada é a dose máxima na pele,
geralmente obtida mediante o uso de filmes lentos ou
radiocrômicos.
Grandezas para profissionais
As elevadas exposições recebidas em diferentes regiões
do corpo dos profissionais que realizam procedimentos
intervencionistas são devidas principalmente às seguintes razões: proximidade ao tubo de raios X; não utilização de acessórios individuais de proteção; aquisição de
muitas imagens; longos tempos de exposição; uso de
equipamento e tecnologia impróprios; manutenção não
otimizada; taxas de dose elevadas; falta de treinamento de técnicos, médicos, etc.; técnicas intervencionistas
utilizadas por médicos de diferentes especialidades, não
radiologistas; entre outras. Portanto, previamente à aplicação de procedimentos de otimização, faz-se necessário
Aspectos físicos e técnicos da Radiologia Intervencionista
quantificar os níveis de radiação recebidos por estes profissionais. Basicamente, são utilizadas duas grandezas:
Equivalente de dose pessoal (HP(d)) e dose efetiva (E)
O HP(d) é uma grandeza operacional definida como o equivalente de dose em tecido mole, em uma profundidade d
(expressa em milímetros), abaixo de um ponto especificado sobre o corpo. Unidade: J/Kg ou sievert (Sv).
Para radiações fortemente penetrantes recomenda-se
o uso do HP(10), que é o equivalente de dose pessoal em
uma profundidade de 10 mm. Para radiações fracamente
penetrantes, é recomendado o uso de Hp em uma profundidade de 3 mm, HP(3), para estimar a dose no cristalino; e
em uma profundidade de 0,07 mm, HP(0,07), para estimar
a dose na pele e/ou extremidades27.
A grandeza HP(10) também é utilizada para estimar a
dose efetiva ocupacional através da avaliação do dosímetro individual usado na posição mais exposta do tórax28.
Fluoroscopia e sistemas de raios X para
radiologia intervencionista
A fluoroscopia proporciona uma imagem em movimento,
em tempo real, permitindo sua aplicação em exames nos
quais se deseja obter imagens dinâmicas de estruturas e
funções do organismo com o auxílio de meios de contraste
à base de iodo ou bário. A imagem gerada pela fonte de
raios X é formada em uma tela fluorescente de entrada de
um intensificador de imagem, que converte a imagem dos
raios X do paciente em uma imagem luminosa. A intensidade da luz é diretamente proporcional à intensidade de raios
X, e portanto a imagem é fiel29. Na Figura 3 se mostra um
equipamento fluoroscópico típico para intervencionismo.
Componentes de um Equipamento
Fluoroscópico
Gerador de raios X
O gerador de raios X modifica a tensão e a corrente de entrada proveniente da rede elétrica, proporcionando as condições necessárias para a produção do feixe de raios X.
O gerador controla o início e término da exposição e possibilita a seleção das energias, taxa de dose e tempos de
exposição.
O gerador é ligado ao sistema de controle automático de
exposição (CAE), que controla os parâmetros operacionais,
tensão máxima (kVp) e corrente (mA). Fototemporizadores
e subsistemas de controle de brilho automático medem a
exposição da radiação incidente no receptor de imagem
para gerar instantaneamente um sinal de retorno que permite adequar as densidades das imagens adquiridas ou o
brilho da imagem fluoroscópica. O CAE age para manter
um nível constante de brilho da imagem observada em um
monitor, mesmo quando o intensificador de imagem se movimenta por partes do corpo de diferentes densidades e
coeficientes de atenuação. O brilho constante é alcançado ajustando a kVp e a corrente, automaticamente, tanto
quanto for necessário para manter o nível de radiação na
entrada do intensificador de imagem.
Os geradores usados para fluoroscopia podem ser dos
tipos monofásico e trifásico, de potencial constante e de alta
frequência. Os geradores de alta frequência, usados nos
equipamentos modernos, proveem uma reprodutibilidade de
exposição superior, são mais compactos, de menor custo de
aquisição e de menor tempo para reparos e manutenção30.
Nos estudos cardíacos, requer-se que o gerador seja capaz
de produzir uma faixa de quilovoltagem entre 80 e 100 kVp,
de forma uniforme e de pulsos com tempos muito curtos31.
Fluoroscopia contínua e pulsada
Em fluoroscopia, são usados dois modos para fornecer
energia ao tubo de raios X: exposição contínua e pulsada.
Na fluoroscopia contínua, o gerador provê uma corrente
do tubo contínua enquanto a fluoroscopia é acionada. As
imagens são adquiridas para uma taxa de 30 fotogramas
por segundo, sendo um tempo de aquisição de 33 milisegundos por imagem. No modo pulsado, são produzidos
pulsos de radiação curtos e intensos, sendo possível controlar sua altura, largura e frequência (Figura 4). Mudando
a taxa de pulsos de 30 para 7,5 pulsos/s, uma redução de
dose de 75% pode ser alcançada facilmente.
Uma vantagem da fluoroscopia pulsada é a melhoria
na resolução temporal. É possível reduzir o ‘borrão’ (‘blur’
em inglês) causada pelo movimento na imagem, quando
são usados tempos de aquisição mais curtos, tornando
a técnica útil e possível de ser usada para examinar estruturas em movimento rápido, como as obtidas nas aplicações cardiovasculares. A frequência de pulsos pode
ser modificada de maneira a obter uma redução da dose
cumulativa. No entanto, a fluoroscopia pulsada nem sempre significa que a dose será menor que a da contínua.
A taxa de dose depende da dose por pulso (altura e largura do pulso) e do número de pulsos por segundo. Os
geradores de potencial constante são capazes de gerar
pulsos mais curtos de exposições, enquanto os de alta
Figura 3. Equipamento arco em C, utilizado para procedimentos
intervencionistas.
Revista Brasileira de Física Médica. 2009;3(1):101-15.
105
Canevaro L
frequência e trifásicos produzem alguns pulsos ligeiramente mais longos.
Na imagem vascular periférica, é utilizada uma taxa
moderada de aquisição de imagens (baixa taxa de imagens por segundo). Na angiografia cardíaca, as exposições com altas taxas de aquisição (60 a 90 imagens por
segundo) podem ser necessárias e o gerador deve ser capaz de produzir tensões uniformes e pulsos com tempos
de exposição muito curtos31.
Figura 4. Esquema representativo da emissão de radiação no
modo pulsado.
Figura 5. Esquema dos elementos de um tubo de raios X31.
106
Revista Brasileira de Física Médica. 2009;3(1):101-15.
Tubo de raios X
O tubo consiste em dois eletrodos metálicos, o catodo e
o anodo, contidos dentro de um encapsulamento de vidro
a vácuo (Figura 5). O catodo emite elétrons por emissão
termoiônica. Estes elétrons são acelerados até o anodo e
atingem um ponto denominado ponto focal do alvo, produzindo raios X e calor.
A tensão e a corrente aplicadas ao tubo definem as
características da radiação X produzida. A corrente aplicada ao tubo (mA) é relacionada ao número de elétrons,
e portanto ao número de fótons produzidos; já a tensão
aplicada (kV) afeta a energia dos raios X, e portanto seu
poder de penetração. O ponto focal é a região do alvo
do tubo onde ocorrem as colisões dos elétrons emitidos
pelo filamento, e é o local de origem dos raios X produzidos. O tamanho do ponto focal é muito importante para
a formação da imagem. Um ponto focal menor resulta em
imagens mais nítidas31.
Para aplicações clínicas de angiografias e de procedimentos intervencionistas, é importante que o tubo de raios
X tenha algumas características adicionais:
• rotação de anodo de alta velocidade: devido ao
requerimento de registro de imagens de alta velocidade, a quantidade de calor dissipado pode ser
considerável, sendo necessário um tubo de raios X
com uma grande capacidade de dissipação do calor. Para melhorar a dissipação de calor, pode ser
usada uma rotação anódica de alta velocidade (acima de 10.000 rpm);
Aspectos físicos e técnicos da Radiologia Intervencionista
•
circulação de água ou dissipador de calor de óleo:
pelo exposto acima, é necessária a instalação de um
sistema de circulação por água ou um trocador de
calor de óleo com ventiladores de resfriamento.
A maioria dos equipamentos intervencionistas dispõe de
filtros adicionais, geralmente de cobre (Figura 6), além dos
filtros de alumínio encontrados em equipamentos convencionais. Este filtra os componentes de baixa energia do espectro
de raios X que não são necessários para criar a imagem, causando o ‘endurecimento’ do feixe e reduzindo não somente a
dose na pele do paciente, mas também a radiação espalhada
para o operador. Durante a fluoroscopia, o espectro de raios
X é permanentemente endurecido pela presença deste filtro.
Na aquisição digital, mediante o controle automático da exposição, é calculada a equivalência em água do paciente a partir
da relação kV/mA e da largura do pulso. Dependendo deste
valor, o filtro de cobre é automaticamente retirado da trajetória do feixe, caso a qualidade da imagem se torne inaceitável
como consequência da alta densidade do paciente.
Os equipamentos também vêm providos do chamado
‘colimador cardíaco’, que consiste em lâminas de alumínio
que podem ser deslocadas para dentro da região irradiada,
de modo a compensar efeitos de brilho intenso na imagem,
quando em alguma região da imagem não há objeto atenuador e o feixe incide diretamente sobre o intensificador de
imagem (Figura 6). A posição do filtro é mostrada graficamente na última imagem fluoroscópica (‘last image hold’,
em inglês, LIH), de maneira que é possível mudar a posição
do filtro sem necessidade da emissão de radiação.
Grade
A grade é utilizada para reduzir a radiação espalhada e
aumentar o contraste e, consequentemente, a qualidade
da imagem. A grade pode (e deve) ser retirada nos casos
em que o paciente irradiado não produz espalhamento
significativo. Desta maneira, é possível obter uma redução
importante da dose.
Tubo intensificador de imagem
Sistemas de fluoroscopia usam intensificadores de imagem para converter uma imagem de baixa intensidade em
uma imagem minimizada de alta intensidade de brilho. O
tubo intensificador de imagem (II) é um dos componentes
principais do equipamento fluoroscópico. Este dispositivo
é responsável pela transformação dos fótons de raios X
em um sinal luminoso. Os principais componentes de um
tubo II são (Figura 7)32:
• tubo de vidro a vácuo: permite o fluxo de elétrons do
fotocatodo para o anodo;
• tela fluorescente de entrada: composta de cristais de
CsI ativado com sódio (de 15a 40 cm de diâmetro);
• fotocatodo: fina camada de compostos de Cs e Sb,
de onde são liberados elétrons por foto-emissão;
• lentes eletrostáticas: placas de metal positivamente
carregadas que focam e aceleram os elétrons até a
tela de saída;
•
•
anodo: placa carregada positivamente que atrai os
elétrons até a tela de saída. Diferença de potencial
ente anodo e catodo: de 25a 35 kV;
tela fluorescente de saída: peça de vidro ou alumínio
de 2,54 cm de diâmetro coberta com fina camada de
sulfeto de Cd e Zn. Emite luz (amarelo/verde) de 500
a 650 nm.
Quando um fóton chega à tela fluorescente na entrada
do intensificador de imagem, é produzida uma cintilação.
Os fótons de luz desta cintilação ejetam elétrons do fotocatodo adjacente. Estes elétrons são acelerados até o
anodo por meio de eletrodos focalizadores que, quando
Figura 6. Lâmina de cobre na saída do sistema de colimação, geralmente presente nos equipamentos intervencionistas; filtro ‘cardíaco’; imagem congelada (LIH), mostrando a presença do filtro.
(Foto: L. Canevaro).
Figura 7. Esquema de um tubo intensificador de imagem e
princípio de funcionamento31.
Revista Brasileira de Física Médica. 2009;3(1):101-15.
107
Canevaro L
atingem a tela de saída, criam um pulso de luz muito maior
e mais brilhante do que aquele produzido na tela de entrada. O sinal de saída, que é cerca de 5.000 a 10.000 vezes
maior que o sinal da tela de entrada, é devido ao ganho de
brilho que ocorre no intensificador de imagem.
Os intensificadores de imagem possuem telas de entrada entre 13 e 40 cm de diâmetro. A tela de saída tem,
geralmente, de 2,5 a 3,5 cm de diâmetro. Intensificadores
de 13 cm de diâmetro produzem maior magnificação e
melhor definição de detalhes, e geralmente são utilizados
em angioplastia coronária. Intensificadores de 23 cm são
utilizados na ventriculografia esquerda, pois geram imagens de áreas grandes.
Diafragma de luz
Localizado entre a saída do II e a câmara de vídeo, é responsável por garantir que a câmara receba a mesma intensidade de sinal de luz independente da exposição ser
alta ou baixa. Uma pequena abertura deste dispositivo
restringe a imagem a ser adquirida com exposição alta
de radiação, para garantir um nível de luz adequado à
câmara de vídeo, diminuindo o efeito do ruído quântico
e produzindo uma maior relação sinal-ruído na imagem.
Contrariamente, uma grande abertura deste dispositivo é
usada para minimizar a exposição no paciente em casos
onde o ruído quântico não é um fator limitante para a qualidade da imagem33.
Câmara de vídeo ou dispositivo de acoplamento de
cargas
A função básica da câmara de vídeo é a de produzir um
sinal eletrônico proporcional à quantidade de luz enviada
pelo intensificador de imagem. O sinal gerado pela câmara
de vídeo é um sinal de tensão que varia em tempo e que é
enviado até o monitor por meio de um processo de varredura que pode ser de 525 ou de 1.023 linhas.
Fluoroscopia digital
Um sistema fluoroscópico digital é mais comumente configurado como um sistema convencional (tubo, mesa, intensificador, sistema de vídeo) no qual o sinal de vídeo analógico
é convertido e armazenado na forma de dados digitalizados.
A aquisição digital de dados permite a aplicação de diversas técnicas de processamento de imagem, como congelamento da última imagem, processamento da escala de
cinzas, média temporal de imagens, intensificação de bordas, subtração de imagens em tempo real (angiografia por
subtração digital, DSA), assim como a realização de diversas
medições de tamanhos de vasos sanguíneos, volumes, etc.
Alternativamente, a digitalização pode ser realizada com dispositivos denominados dispositivos de acoplamento de carga (CCD), ou por captura direta dos raios X com um detector
do tipo flat panel34. Os CCD foram inicialmente introduzidos
em meados de 1970, como microcircuitos de silício capazes
de gravar imagens de luz visível33.
108
Revista Brasileira de Física Médica. 2009;3(1):101-15.
O detector flat panel está baseado em arranjos de fotodiodos de silício amorfo e finos transistores (TFT), em
combinação com cintiladores de CsI(Tl). Em salas de intervencionismo, a transição de intensificadores de imagem
para flat panel é facilitada pelas vantagens que oferecem,
tais como imagens sem distorção, excelente contraste,
grande faixa dinâmica e alta sensibilidade aos raios X34,35.
De maneira geral, um equipamento intervencionista é
capaz de trabalhar com faixas de tensões entre 50 e 125
kVp, controle automático de exposição e possibilidade de
congelamento da última imagem. Normalmente dispõe de
pelo menos três modos de magnificação e dois modos
de imagem: fluoro e aquisição digital, com diferentes frequências de pulsos. Alguns equipamentos têm incorporado um sistema dosimétrico do produto kerma-área (cGy.
cm2). Geralmente oferecem a possibilidade de diferentes
modos de taxa, denominados low, normal e high, ou baixa
taxa e alta taxa, ou fluoro e fluoro+. No modo de alta taxa,
deve se acionar um alarme sonoro durante a emissão da
radiação. A mesa está montada sobre o piso no centro
longitudinal da sala, e a sua rotação é possível mediante
um único ponto situado no piso, para possibilitar diversos
movimentos do arco em C.
Controle da qualidade em radiologia
intervencionista
Caracterização do equipamento de raios X
O controle de qualidade é fundamental para o bom funcionamento de qualquer setor de hemodinâmica, tanto para
a proteção de pacientes e profissionais quanto para a conservação do equipamento de raios X. Através do controle
de qualidade, falhas do funcionamento são detectáveis
antes que seja necessária uma intervenção.
A caracterização de um equipamento intervencionista
compreende uma grande variedade de testes que devem
ser realizados com diferentes periodicidades36,37. Devem
ser realizadas medidas do equipamento radiológico, dos
receptores de imagem, do sistema de registro de dados,
dos sistemas de visualização da imagem (monitores) e dos
instrumentos de medida. Isto para todos os modos de
dose, para todos os modos de aquisição de imagem (fluoro, digital), para todas as possíveis magnificações, registrando todos os parâmetros relevantes (técnicas, distâncias, instrumentação, etc.) que possibilitem repetir o teste
exatamente nas mesmas condições, e com instrumentos
de medição calibrados e funcionando corretamente.
Avaliações mínimas do sistema tubo de raios
X-gerador são: exatidão e reprodutibilidade da tensão do
tubo, reprodutibilidade e linearidade do rendimento do
tubo, camada semi-redutora, compensação do CAB para
diferentes espessuras e tensões. Na Figura 8 se mostra o
processo de medição do rendimento do tubo de raios X.
Deve-se medir a taxa de kerma no ar a 1 m do ponto focal
variando a tensão, para todos os modos de magnificação
e de taxa de dose do equipamento de raios X.
Aspectos físicos e técnicos da Radiologia Intervencionista
Os parâmetros dosimétricos, relacionados ao paciente, mais importantes de serem medidos são: taxa de kerma de entrada na superfície, máxima taxa de kerma de
entrada na superfície e dose/imagem na entrada da superfície. Em relação ao intensificador de imagem: taxa de kerma no ar na entrada do II, dose/imagem na entrada do II e
fator de conversão. Na Figura 9 apresenta-se um arranjo
experimental que permite medir simultaneamente parâmetros relacionados à entrada do paciente, ao intensificador
de imagem e aos aspectos de qualidade da imagem.
São utilizadas placas de PMMA para simular a presença de um paciente, a câmara de ionização é colocada
sobre a mesa de exames, para medir a taxa de kerma de
entrada e entre as placas é colocado um objeto de teste para avaliar a qualidade da imagem. As medições são
repetidas para espessuras maiores de PMMA, podendo
assim caracterizar o desempenho do equipamento em diferentes condições de funcionamento.
Medidas geométricas importantes são: mínima distância foco-pele, sistema de colimação, coincidência do campo de raios X e o receptor de imagem, tamanho do campo
de entrada do II, distorção geométrica e distorção tipo S.
Figura 8. Posicionamento da câmara de ionização de referência
para medir a taxa de kerma no ar, para diferentes kVp, a fim de
determinar o rendimento do tubo de raios X.
Avaliação da qualidade da imagem
Os aspectos mais relevantes que devem ser avaliados são
o limite de resolução espacial de alto contraste e o limiar
de sensibilidade a baixo contraste (avaliação do ruído).
Para estas avaliações são utilizados objetos de teste específicos para tais fins (Figura 10).
Dosimetria de pacientes
As câmaras de ionização usadas em intervencionismo
devem ter volumes entre 3 cm3 e 60 cm3 e paredes de
material equivalente ao ar, de maneira que sua resposta
energética seja substancialmente uniforme para todos
os espectros de raios X diagnósticos. A corrente de fuga
deve ser muito pequena em comparação à corrente de
ionização produzida pela mínima taxa de dose a ser medida, e a resposta da câmara não deve ser afetada apreciavelmente pela recombinação de íons para altas taxas
de dose. Sua calibração deve ser rastreada ao padrão primário nacional em kerma no ar, e sua incerteza não deve
ultrapassar 10%, com um nível de confiança de 95% para
as qualidades de raios X e taxas de doses encontradas em
radiodiagnóstico. As câmaras de ionização, em particular
as abertas, devem ser protegidas da umidade.
Medida do produto kerma-área, PKA
O produto kerma-área é a grandeza mais adequada para
medir o grau de exposição do paciente e para expressar
os níveis de referência em intervencionismo. Em primeiro
lugar porque a medida do PKA é mais fácil e prática, visto
que o exame é inteiramente registrado (em termos de exposição do paciente), há pouca interferência na realização
do exame e não há necessidade de incomodar o paciente
nem o médico com as medições. Em segundo lugar, o PKA é
uma grandeza mais relacionada com o risco de indução de
Figura 9. Posicionamento da câmara de ionização de referência
para medir a taxa de kerma de entrada (sobre a mesa, embaixo
da lâmina de PMMA) e avaliar aspectos relacionados à qualidade da imagem com objeto de teste colocado entre as duas
placas de PMMA.
efeitos estocásticos, porque considera, além da dose, a área
irradiada (relacionada com o volume de tecido e os órgãos
irradiados).
Uma câmara de ionização de transmissão, de placas
paralelas com área suficiente para abranger o feixe de
raios X, é colocada à saída do feixe após o colimador para
monitorar a exposição total do paciente (Figura 11). A câmara é transparente à luz visível e sua resposta é proporcional à quantidade total de energia dirigida ao paciente
durante a realização do procedimento23. A intensidade do
feixe em um certo ponto da câmara de ionização é a quantidade de energia por segundo, que flui através da unidade
de área de um plano perpendicular ao eixo do feixe. Se
a intensidade é integrada sobre a área do feixe de raios
Revista Brasileira de Física Médica. 2009;3(1):101-15.
109
Canevaro L
Figura 10. Imagens dos objetos de Leeds TOR(TVR) e TO.10
para avaliar resolução espacial e limiar de sensibilidade a baixo
contraste.
Figura 11. Medidor de PKA e câmara colocada na saída do tubo
de raios X.
X e durante o tempo de irradiação, obtém-se o produto
kerma-área. Já que a medida da quantidade de radiação
pode ser feita às expensas da energia absorvida no detector, a medida do PKA está diretamente relacionada com a
energia absorvida pelo paciente, desprezando a atenuação do ar e considerando os correspondentes fatores de
retroespalhamento. A câmara, ao integrar a dose sobre
toda a área, compensa o efeito anôdico (heel) no tubo de
raios X e possíveis flutuações na linha de alimentação.
A câmara do medidor de PKA é fixada ao colimador do
tubo de raios X, e passa a ser parte do arranjo mecânico
definido do equipamento de raios X. Dessa forma, o sistema câmara-eletrômetro não pode ser recalibrado em um
laboratório de calibração, devendo ser recalibrado in loco.
A cadeia de rastreabilidade é estabelecida pela calibração
em kerma no ar do dosímetro de referência.
A recalibração do conjunto (câmara de ionização
de transmissão+eletrômetro) consiste na estimativa do
110
Revista Brasileira de Física Médica. 2009;3(1):101-15.
verdadeiro valor do PKA a partir da medida do kerma no ar,
usando uma câmara de ionização de referência, e da medida da área irradiada em um filme exposto à mesma distância que a câmara. O produto desses valores medidos
separadamente (kerma em cGy e área em cm2) é comparado à leitura fornecida pelo medidor de PKA (cGy.cm2). A
partir desta comparação, um fator de recalibração pode
ser calculado. Posteriormente, todas as mediçoes de PKA
realizadas durante procedimentos com pacientes deverão
ser multiplicadas pelo fator de recalibração encontrado.
Máxima dose na entrada da pele (PSD)
As medidas da máxima dose (kerma) na entrada da pele
são necessárias nos procedimentos intervencionistas
naqueles em que exista a possibilidade de acontecerem
efeitos determinísticos. A PSD pode ser medida utilizando
filmes radiocrômicos (Figura 12).
Os filmes radiocrômicos têm algumas vantagens: é
possível identificar tamanho e distribuição dos campos
irradiados e medir as intensidades das doses (uma vez
que o filme tenha sido calibrado); o filme proporciona um
registro quantitativo para o prontuário do paciente, além
de orientações para planejar futuros procedimentos; permite implementar mecanismos de otimização, melhorando
a técnica fluoroscópica e a segurança do paciente, etc.
Dosimetria de profissionais
Na RI, a avaliação das exposições dos profissionais é complicada, devido à complexidade inerente ao próprio procedimento38. Para cumprir com exigências legais, o profissional deve utilizar um monitor individual na altura do tórax,
por fora do avental plumbífero. Em algumas situações, é
utilizado o sistema de dupla monitoração (no pescoço, por
fora do avental, e na cintura, embaixo do avental; ou no
tórax, por fora do avental e no pulso esquerdo)2,39-41. No
entanto, sabe-se que a irradiação do profissional em intervencionismo é fortemente não-homogênea. Atualmente,
existe uma ampla discussão, no âmbito científico internacional, no sentido de encontrar um método de monitoração adequado para refletir de maneira mais realista o grau
e distribuição da exposição dos profissionais que participam de procedimentos intervencionistas.
Em um único procedimento, o profissional pode receber até 2 mSv no cristalino; com três procedimentos por
dia, é possível atingir 1.500 mSv/ano42. Se elementos de
proteção não são utilizados, em quatro anos será possível
que apareçam opacidades no cristalino43. Para quantificar
a exposição de pontos determinados do corpo do profissional, podem ser usados os seguintes métodos:
• dosimetria termoluminescente (TLD): cristais termoluminescentes do tipo LiF: Mg,Ti (TLD 100) são separados em grupos de dois ou três, e embrulhados
e identificados em pequenos badges. Em seguida,
estes badges são colocados nos pontos do corpo
dos profissionais que se deseja monitorar (Figura 13).
Obviamente, os TLD são previamente selecionados,
recebem os tratamento térmicos pré- e pós-irradiação
Aspectos físicos e técnicos da Radiologia Intervencionista
•
•
•
de acordo aos protocolos estabelecidos, e são calibrados na grandeza Hp(d), com d podendo ser 0,07
mm (pele), 3 mm (cristalino) e 10 mm (dose profunda).
Podem ser avaliadas doses por procedimentos individuais ou por determinados períodos, e por tipo de
procedimento (angiografia, angioplastia, etc). O uso
de TLD apresenta algumas desvantagens, tais como
sensibilidade ao calor, limiar inferior de leitura da ordem de 0,1 mSv, fading quando de demoras na leitura, incapacidade de releitura;
utilização de dosímetros eletrônicos: a tendência atual é a de utilizar dosímetros eletrônicos44 (Figura 14).
Algumas características são: insensibilidade ao calor,
limiar inferior de leitura > 0,1 mSv, dificuldade em calibrar, delicadeza, custo relativamente alto, necessidade de leitura semanal ou mensal para registrar os resultados. A preferência por estes dosímetros se deve
ao fato de que a medição é fornecida em tempo real.
Isto é de grande aplicação prática nos mecanismos
de otimização;
mapeamento da sala construindo curvas de isodoses:
Sabe-se que em um sistema hemodinâmico, a distribuição da radiação espalhada é bastante complexa.
Apesar de a lei do inverso do quadrado da distância
ser válida, outros fatores interferem na atenuação da
radiação, dificultando a estimativa dos valores das
taxas de doses nos diferentes pontos dentro da sala.
Uma maneira de quantificar os níveis de radiação consiste em medir as taxas de kerma no ar, em diferentes
pontos e alturas dentro da sala (Figura 15). A partir das
medições podem ser gerados mapas de isodoses,
de modo que os profissionais podem conhecer com
maior segurança os locais de melhor posicionamento;
dosímetros oticamente estimuláveis (OSD): também
são utilizados para dosimetria pessoal, sendo algumas
de suas vantagens a insensibilidade ao calor, o fornecimento de registros permanentes, o limite inferior de leitura da ordem de 0,01 mSv, a ausência de fading, etc.
Figura 12. Colocação do filme radiocrômico antes da realização do
procedimento e imagem obtida dos campos irradiados no paciente.
Proteção radiológica de pacientes e
profissionais
Em muitos países, a preocupação com os efeitos estocásticos e com as lesões observadas na pele tem resultado
na procura pelo estabelecimento de níveis de referência de
diagnóstico20 para pacientes submetidos a procedimentos
de radiologia intervencionista, e também na elaboração de
algumas recomendações para que estes procedimentos
possam ser otimizados3,23.
Diversas medidas adotadas para proteção do paciente, consequentemente, protegem o profissional. Podemos
mencionar: a redução dos tempos de fluoroscopia e de
aquisição digital; a utilização de baixas taxas de dose; a
menor frequência de pulsos; o uso de colimadores, filtros
adicionais e congelamento da última imagem; o uso de
(Fotos: cortesia B. Dias Rodrigues).
Figura 13. Monitoração dos profissionais com TLD42
Revista Brasileira de Física Médica. 2009;3(1):101-15.
111
Canevaro L
Fotos: cortesia L. Silva Pereira
Figura 15. Procedimento de medição da radiação espalhada,
com câmara de ionização de grande volume, em diferentes pontos da sala para a elaboração de curvas de isodoses.
Figura 14. Monitoração dos profissionais com dosímetros eletrônicos nos pulsos e nas proximidades do cristalino43.
menores distâncias paciente-receptor de imagem, etc.
Outras medidas, como a variação na angulação do tubo
para não produzir lesões na pele, não necessariamente
implicam uma maior proteção do profissional.
No caso dos profissionais, o uso de ferramentas de
radioproteção e a aplicação de boas práticas podem diminuir os valores de dose efetiva assim como o risco de
lesões no cristalino e na pele39,45. Alguns fatores operacionais e técnicos podem contribuir para o aumento da
dose dos profissionais que executam procedimentos hemodinâmicos intervencionistas (tensão aplicada ao tubo,
corrente elétrica no tubo, tempo de fluoroscopia, área irradiada, número de imagens, etc)46, se não são ajustados
112
Revista Brasileira de Física Médica. 2009;3(1):101-15.
corretamente ou se são usados adequadamente. A seguir
discutem-se alguns desses fatores.
• Colimação: quanto maior é o volume irradiado do paciente, maior é a quantidade de radiação espalhada
gerada. Havendo um aumento das dimensões do
campo em um fator de 2, tanto o volume do tecido exposto como a intensidade da radiação espalhada estarão multiplicados aproximadamente por um fator 4;
• Corrente do tubo (mA): este fator é diretamente proporcional à quantidade de radiação emitida e, portanto, proporcional à radiação espalhada. Duplicar o mA
implica dobrar a taxa de dose e a dose ao pessoal;
• Posicionamento do profissional em relação ao paciente e ao tubo de raios X: no caso particular de um sistema hemodinâmico, a distribuição de dose é bastante
complexa. Apesar de a lei do inverso do quadrado da
distância ser válida, outros fatores interferem na atenuação da radiação, dificultando a estimativa dos valores das taxas de doses nos diferentes pontos dentro
da sala. Na Figura 16, apresenta-se um exemplo do
comportamento das curvas de isodoses ao redor de
um sistema hemodinâmico de arco em C31. Em relação
ao paciente, quanto maior o seu volume, maior será a
radiação espalhada que atingirá o profissional;
Aspectos físicos e técnicos da Radiologia Intervencionista
Figura 16. Perfil da radiação espalhada em um sistema hemodinâmico2.
Figura 17. Diferentes incidências de um arco em C31.
•
Angulação do arco em C: a modificação da posição
do tubo de raios X durante o procedimento (Figura 17)
influencia nos valores das doses equivalentes nas diferentes regiões do corpo do profissional. Diferentes
angulações do arco em C podem modificar a taxa de
dose espalhada em diferentes pontos dentro da sala.
Isto se deve às grandes variações na taxa de dose nas
proximidades do tubo de raios X (entre 4 e 8 mSv/h),
e nas proximidades do intensificador de imagem (entre
0,4 e 0,8 mSv)47,48.
Aspectos importantes para a proteção
radiológica em cardiologia intervencionista:
necessidade de treinamento
O documento mais recente da ICRP que trata sobre os
riscos envolvidos na Radiologia Intervencionista, devido
à sua crescente importância em termos da dose coletiva
mundial, é a Publicação 852. As doses ocupacionais em
procedimentos intervencionistas guiados por fluoroscopia
são as mais altas da Radiologia. O documento apresenta
diversas patologias da pele e do olho (catarata) diagnosticadas em médicos intervencionistas, assim como recomendações para evitá-las e otimizar os procedimentos. O
uso de equipamentos de proteção é indispensável. O uso
de aventais de chumbo pode reduzir a 5% a dose dos
profissionais na sala do exame, e devem ser usados por
toda a equipe. Blindagens especiais devem ser colocadas
entre o paciente e o médico. Para evitar o surgimento de
catarata, os médicos devem usar óculos plumbíferos.
Além dos sistemas de proteção, é recomendável o uso
de um sistema robusto e adequado de monitoração individual do pessoal de Cardiologia Intervencionista. Apenas um dosímetro, colocado por dentro ou fora do avental, nem sempre é suficiente para estimar adequadamente a dose efetiva
ocupacional, devido à grande heterogeneidade do campo de
radiação. Pode ser usado um dosímetro adicional na altura
do pescoço, por fora do avental, para estimar a dose na cabeça (olhos). O NCRP31 recomenda uma combinação linear
da leitura destes dois dosímetros para uma melhor estimativa
da dose efetiva. No Brasil, a Portaria 45328 determina que
o monitor individual deve ser usado por fora do avental, na
parte mais exposta do tórax, estimando a dose nas partes
não blindadas do corpo. Para fins de comparação com os
limites de dose efetiva, seu valor nominal deve ser dividido
por 10. Além disto, é recomendado que, caso as mãos recebam doses mais do que 10 vezes superiores ao valor medido
por este dosímetro, sejam usados dosímetros adicionais de
extremidades (anel ou pulseira).
Para garantir as menores doses ocupacionais possíveis em Cardiologia Intervencionista, é preciso otimizar a
dose no paciente: menores doses nos pacientes geram
menor quantidade de radiação espalhada. Para isto, é fundamental que todo o pessoal envolvido nos procedimentos tenha grande conhecimento e treinamento, não só na
parte médica e técnica dos procedimentos e equipamentos, mas também sobre os conceitos de radioproteção. O
estabelecimento de sistemas de controle de qualidade e
níveis de referência também ajuda muito na manutenção
de níveis adequados de proteção aos pacientes e profissionais, favorecendo a comparação entre diferentes serviços de saúde que executam os mesmos procedimentos.
Analisando as causas de valores de doses muito diferentes entre si, ou muito maiores do que o nível de referência
estabelecido, pode-se determinar qual a melhor maneira
de otimizar o processo, tanto em sua fase de planejamento quanto de execução.
Os profissionais de Cardiologia Intervencionista precisam de sistemas de controle da qualidade que garantam
a credibilidade do sistema de segurança e um sistema regulador adequado. A legislação de proteção radiológica
deve contemplar os profissionais expostos, os pacientes,
os equipamentos, as instalações e a capacitação. No
Brasil, a Portaria 453/98/MS não diferencia aspectos relacionados à prática intervencionista. Internacionalmente,
existem diversas recomendações para a proteção radiológica de pacientes e trabalhadores de RI.
Revista Brasileira de Física Médica. 2009;3(1):101-15.
113
Canevaro L
Referências
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
19.
20.
21.
114
Margulis AR. Interventional diagnostic radiology — a new subspecialty.
Am J Radiol. 1967;99:671-762.
International Commission on Radiation Protection. Avoidance of radiation
injuries from medical interventional procedures. Publication 85, Annals of
the ICRP. v. 30 n. 2. ICRP; Vienna 2000.
Luz ES. Proteção radiológica em radiologia intervencionista: estudo de
caso [dissertação]. Rio de Janeiro: Instituto Militar de Engenharia; 2004.
Da Silva LP. Avaliação da exposição à radiação dos profissionais
que executam procedimentos intervencionistas em um serviço de
hemodinâmica [dissertação]. Rio de Janeiro: Instituto de Radioproteção
e Dosimetria, Comissão Nacional de Energia Nuclear; 2004.
Peres da Silva L, Maurício CLP, Canevaro LV, Oliveira PS. Avaliação
da exposição à radiação dos médicos que executam procedimentos
hemodinâmicos intervencionistas. Radiol Bras. 2008;41(5):319-23.
Bernardi G, Bar O, Jezewski T, Vañó E, Maccia C, Trianni A, et al. Quality criteria
for cardiac images: an update. Radiat Prot Dosimetry. 2008;71(1-3):954-60.
Vañó E, González L, Guibelalde E, Fernández JM, Ten JI. Radiation
exposure to medical staff in interventional and cardiac radiology. Br J
Radiol. 1998;71(849):954-96.
Trianni A, Bernardi G, Padovani R. Are new technologies always reducing
patient doses in cardiac procedures? Radiat Prot Dosimetry. 2006;117
(1-3):97-101.
O’Brien B, Van der Putten W. Quantification of risk-benefit in interventional
radiology. Radiat Prot Dosimetry. 2008;129(1-3):59-62.
Bahreyni Toossi MT, Zare H, Bayani S, Esmaili S. Organ and effective
doses of patients arising from coronary angiography and percutaneous
transluminal coronary angioplasty at two hospitals in Mashhad-Iran.
Radiat Prot Dosimetry. 2008;128(3):363-6.
United Nations Scientific Committe on the Effects of Atomic Radiation
Sources and Effects of Ionising Radiation. v.2. UNSCEAR. Vienna; 2000.
DATASUS. [On-line]. [citado 16 jan 2008]. Disponível em: http://tabnet.
datasus.gov.br/tabdata/cadernos/BR/Brasil_GeralBR.xls.
Food and Drug Administration. Avoidance of serious X ray induced skin
injuries to patients during fluoroscopically guided procedures. Med Bull.
1994:24(2):1-17.
Koenig TR, Wolff D, Mettler FA, Wagner LK. Skin injuries from
fluoroscopically guided procedures: part 1, characteristics of radiation
injury. AJR Am J Roentgenol. 2001;177(1):3-11.
Koenig TR, Mettler FA, Wagner LK. Skin injuries from fluoroscopically
guided procedures: part 2, review of 73 cases and recommendations
for minimizing dose delivered to patient. AJR Am J Roentgenol.
2001;177(1):13-20.
Koenig TR, Wagner LK, Mettler FA, Wolff D. Radiation Injury to the Skin
Caused by Fluoroscopic Procedures: Lessons on Radiation Management
[Internet]. The University of Texas Health Science Center at Houston.
[cited 2009 Jul 20]. Available from: <www.uth.tmc.edu/radiology/
exhibits/koenig_wagner/index.htm>
Shope TB. Radiation induced skin injuries from fluoroscopy. Radiographics.
1996;16(5):1195-9.
Archer BR, Wagner LK. Protecting patients by training physicians in
fluoroscopic radiation management. J Appl Clin Med Phys. 2000;1(1):32-7.
Radiological Society of North America. 2007 Syllabus: radiation biology for
diagnostic and interventional radiologists. In: Hedrick WR, editor. 5th ed.
Oak Brook, IL: RSNA; 2007.
International Atomic Energy Agency. Establishing guidance levels in X ray
guided medical interventional procedures: a pilot study. Safety Report
Series, n. 59. Vienna: IAEA; 2009.
International Atomic Energy Agency. Dosimetry in diagnostic radiology: an
international code of practice. Technical Report Series, n. 457. Vienna:
IAEA; 2007.
Revista Brasileira de Física Médica. 2009;3(1):101-15.
22. International Commission on Radiation Units and Measurements. Patient
dosimetry for x rays used in medical imaging. ICRU Report, n. 74.
Bethesda, MD: ICRU; 2006.
23. Canevaro, LV. Otimização da proteção radiológica em fluoroscopia: níveis
de referencia de diagnóstico. [tese]. Rio de Janeiro: Universidade do
Estado do Rio de Janeiro; 2000.
24. International Comission on Radiological Protection. The 2007
Recommendations of the International Commission on Radiological
Protection. Publication 103. : Pergamon Press; Vienna, 2007.
25. Drexler G, Panzer W, Petoussi N, Zankl M. Effective dose — how effective
for patients? Radiat Env Biophys. 1993;32(3):209-19.
26. Tapiovaara M, Lakkisto M, Servomaa A. A PC-based Monte Carlo program
for calculating patient doses in medical x-ray examinations. Helsinki:
Finnish Centre for Radiation and Nuclear Safety; 1997.
27. International Commission on Radiation Units and Measurements.
Quantities and units used in radiation protection dosimetry. Report 51.
Beteshda, MD: ICRU; 1993.
28. Ministério da Saúde. Diretrizes de proteção radiológica em radiodiagnóstico
médico e odontológico. Portaria 453. Brasília, DF; 1998.
29. Faulkner K, Marshall NW. The relationship of effective dose to personnel
and monitor reading for simulated fluoroscopic irradiation conditions.
Health Phys. 1993;64(5):502-8.
30. Rauch PL, Strauss KJ. X-ray generators, tube, collimator, positioner, and
table. In: Nickoloff EL, Strauss KJ, editors. Syllabus: a categorical course
in diagnostic radiology physics — cardiac catheterization imaging. Oak
Brook, IL: Radiological Society of North America; 1998. p. 61-82.
31. Sanchez MEG. Distribuição da taxa de kerma no ar em uma sala de
hemodinâmica para projeções típicas de procedimentos de cardiologia
intervencionista. [dissertação]. Rio de Janeiro: Instituto de Radioproteção
e Dosimetria, Comissão Nacional de Energia Nuclear; 2007.
32. Schueler BA. The AAPM/RSNA physics tutorial for residents general
overview of fluoroscopic imaging. Radiographics. 2000;20(4):1115-26.
33. Krohmer JS. Radiography and fluoroscopy, 1920 to the present.
Radiographics. 1989;9(6):1129-53.
34. Pooley RA, McKinney JM, Miller DA. The AAPM/RSNA physics tutorial for
residents: digital fluoroscopy. Radiographics. 2001;21(2):521-34.
35. Bokou C, Schreiner-Karoussou A, Breisch R, Beissel J. Changing from
image intensifier to flat detector technology for interventional cardiology
procedures: a practical poit of view. Radiat Prot Dosimetry. 2008;129(13):83-6.
36. Sociedad Española de Física Médica, Sociedad Española de Protección
Radiológica. Protocolo español de control de calidad. Madrid; 2002.
37. American Association of Physicist in Medicine. Cardiac catheterization
equipment performance. AAPM Report n.70. Maryland, USA, 2001.
38. Durán Reyes A. Intervenciones extracardíacas: como debemos
protegernos de los rayos X. Boletín Educativo ProEducar. SOLACI. Febrero
2007; Volumen 3, Número 4. Disponível em: http://www.solaci.org/
arquivos/boletines_educativos/2007/16feb2007_esp.pdf .
39. Limacher MC, Douglas PS, Germano G, Laskey WK, Lindsay BD, McKetty
MH, et al. ACC expert consensus document. Radiation safety in the
practice of cardiology. American College of Cardiology. J Am Coll Cardiol.
1998;31(4):892-913.
40. Järvinen H, Buls N, Clerinx P, Jansen J, Miljanić S, Nikodemová D, et al.
Overview of double dosimetry procedures for the determination of the
effective dose to the interventional radiology staff. Radiat Prot Dosimetry.
2008;129(1-3):333-9.
41. Jarvinen H, Buls N, Clerinx P, Miljanić S, Nikodemová D, Ranogajec-Komor
M, et al. Comparison of double dosimetry algorithms for estimating the
effective dose in occupational dosimetry of interventional radiology staff.
Radiat Prot Dosimetry. 2008;131(1):80-6.
42. Lima ALS. Estudo dosimétrico de profissionais em cardiologia intervencionista
[monografia]. Rio de Janeiro: Universidade Federal do Rio de Janeiro; 2009.
Aspectos físicos e técnicos da Radiologia Intervencionista
43. Padovani R. Occupational exposures and protective devices. In: Course
on radiation protection for interventional radiology and cardiology. Sófia,
Bulgária; 2006.
44. Prlic I, Suric Mihic M, Vucic Z. Acive electronic personal dosemeter
in interventional radiology. Radiat Prot Dosimetry. 2008;132(3):
308-12.
45. Vañó E. Radiation exposure to cardiologists: how it could be reduced,
Heart. 2003;89(10):1123-4.
46. Zakova M. Occupational exposure in angiography (Prague workplaces).
Radiat Prot Dosimetry. 2001;94(1-2):129-32.
47. Vañó E, Gonzalez L, Guibelalde E, Fernandez JM, Ten JI. Radiation
exposure to medical staff in interventional and cardiac radiology. Br J
Radiol. 1998;71(849):954-60.
48. Vañó E, Gonzalez L, Beneytez F, Moreno F. Lens injuries induced
by occupational exposure in non-optimized interventional radiology
laboratories. Br J Radiol. 1998;71(847):728-33.
Revista Brasileira de Física Médica. 2009;3(1):101-15.
115
Artigo de Revisão
Revista Brasileira de Física Médica. 2009;3(1):117-29.
Ressonância magnética: princípios
de formação da imagem e aplicações
em imagem funcional
Magnetic resonance: principles of image
formation and applications in funcional imaging
Alessandro A Mazzola1
Bacharel e Licenciado em Física pela Pontifícia Universidade do Rio Grande do Sul (PUCRS) – Rio Grande do
Sul (RS), Brasil; Mestre em Ciências Radiológicas pela Universidade Federal do Rio de Janeiro (UFRJ) – Rio de
Janeiro (RJ), Brasil; Físico-médico do Hospital Moinhos de Vento; Professor da Faculdade de Física da Pontifícia
Universidade Católica do Rio Grande do Sul (PUCRS) e da Faculdade de Tecnologia Ipuc (FATIPUC) e sócio da
PhyMED Consultores em Física Médica e Radioproteção Ltda. – Porto Alegre (RS), Brasil.
1
Resumo
A imagem por ressonância magnética é hoje um método de diagnóstico estabelecido na prática clínica e em crescente desenvolvimento. A
RM funcional se destaca como uma das técnicas que vem permitindo explorar funções cerebrais como a memória, linguagem e controle da
motricidade. Esta revisão tem por objetivo explorar de forma introdutória e simplificada a física da imagem por ressonância magnética e demonstrar
os mecanismos e aplicações da RM funcional.
Palavras-chave: física; imagem por ressonância magnética; neurologia.
Abstract
Magnetic resonance imaging is a well established diagnostic procedure and in continuous development. Functional MR is one of the techniques
that permits to explore the brain functions like memory, language and motor tasks. This revision aims to explore the physics of magnetic resonance
imaging in an introductory and simplified way and to demonstrate the functional MR mechanisms and applications.
Keywords: physics; magnetic resonance imaging; neurology.
Introdução
A imagem por ressonância magnética (IRM) é hoje um método de diagnóstico por imagem estabelecido na prática
clínica e em crescente desenvolvimento. Dada a alta capacidade de diferenciar tecidos, o espectro de aplicações
se estende a todas as partes do corpo humano e explora
aspectos anatômicos e funcionais.
A ressonância magnética funcional (RMf) se destaca
como uma das técnicas de IRM que vem permitindo explorar funções cerebrais como a memória, linguagem e
controle da motricidade.
A física da ressonância magnética nuclear (RMN), aplicada à formação de imagens, é complexa e abrangente,
uma vez que tópicos como eletromagnetismo, supercondutividade e processamento de sinais devem ser abordados em conjunto para o entendimento desse método.
Esta revisão tem por objetivo explorar de forma introdutória e simplificada a física da imagem por ressonância
magnética e demonstrar os mecanismos e aplicações da
RMf, servindo como texto de apoio para o aprofundamento do assunto através das referências citadas.
Física da RMN
A IRM é, resumidamente, o resultado da interação do forte
campo magnético produzido pelo equipamento com os
prótons de hidrogênio do tecido humano, criando uma
condição para que possamos enviar um pulso de radiofrequência e, após, coletar a radiofrequência modificada,
através de uma bobina ou antena receptora. Este sinal
coletado é processado e convertido numa imagem ou
informação.
Apesar do fenômeno físico da RMN ter sido descrito
em 1946 por Block e Purcell em artigos independentes da
Physics Review1,2, as primeiras imagens do corpo humano
só foram possíveis cerca de trinta anos após. Este intervalo de tempo demonstra a complexidade deste método
e a necessidade, para a formação da imagem, do uso de
Correspondência: Hospital Moinhos de Vento – Rua Ramiro Barcelos, 910 – CEP 90035-001 – Porto Alegre (RS), Brasil
[email protected]
Associação Brasileira de Física Médica®
117
Mazzola AA
tecnologias aparentemente tão distintas como os supercondutores e o processamento de sinais.
RMN
As propriedades de ressonância magnética têm origem
na interação entre um átomo em um campo magnético
externo; de forma mais precisa, é um fenômeno em que
partículas contendo momento angular e momento magnético exibem um movimento de precessão quando estão
sob ação de um campo magnético.
Os principais átomos que compõem o tecido humano
são: hidrogênio, oxigênio, carbono, fósforo, cálcio, flúor,
sódio, potássio e nitrogênio. Estes átomos, exceto o hidrogênio, possuem no núcleo atômico prótons e nêutrons.
Apesar de outros núcleos possuírem propriedades que
permitam a utilização em IMR, o hidrogênio é o escolhido
por três motivos básicos:
• é o mais abundante no corpo humano: cerca de 10%
do peso corporal se deve ao hidrogênio3;
• as características de RMN se diferem bastante entre
o hidrogênio presente no tecido normal e no tecido
patológico;
• o próton do hidrogênio possui o maior momento magnético e, portanto, a maior sensibilidade a RMN.
Spin e o momento magnético
O átomo de hidrogênio, o mais simples da tabela periódica, possui como núcleo o próton. Os prótons são partículas carregadas positivamente, que possuem uma propriedade chamada de spin ou momento angular.
Figura 1. O próton de hidrogênio pode ser visto como uma pequena esfera (1), que possui um movimento de giro, ou spin, em
torno do seu próprio eixo (2); por ser uma partícula carregada positivamente (3), irá gerar um campo magnético próprio ao seu redor (4), comportando-se como um pequeno dipolo magnético (4)
ou como um imã (5), com um momento magnético (µ) associado.
Como o objetivo é ter uma visão simplificada e introdutória da física relacionada à IRM, vamos admitir que o spin
represente o movimento de giro do próton em torno de
seu próprio eixo, da mesma forma que um pequeno pião.
Para o próton de hidrogênio, o spin (I) pode ser +1/2 ou
-1/2, o que na nossa analogia clássica pode representar o
prótons girando para um lado ou para o outro.
Juntamente com o spin, o próton de hidrogênio possui
outra propriedade chamada de momento magnético, que
faz com que o mesmo se comporte como um pequeno imã.
Esta analogia é valida se visualizarmos o próton como
uma pequena esfera carregada (carga positiva) e girando
em torno de seu próprio eixo (spin). Como para toda partícula carregada em movimento acelerado surge um campo
magnético associado, o próton de hidrogênio se comporta como um pequeno magneto, ou um dipolo magnético. Podemos utilizar um vetor para descrever cada dipolo
magnético, ou cada próton, como mostra a Figura 1.
E o que acontece quando um próton de hidrogênio
ou um conjunto de prótons de hidrogênio é colocado sob
ação de um campo magnético externo? Ou seja, o que
ocorre com os prótons do corpo do paciente quando o
mesmo é posicionado dentro do magneto?
Para responder esta pergunta, é importante entendermos que na temperatura média de 36,5 ºC do corpo humano, e sob ação do fraco campo magnético terrestre de 0,3
gauss (ou 3x10-5 tesla, uma vez que o fator de conversão é
de 1 T=10.000 G), os momentos magnéticos não possuem
uma orientação espacial definida, se distribuindo de forma
randômica. Esta distribuição aleatória faz com que a magnetização resultante de um volume de tecido seja igual a zero.
Quando o paciente é posicionado no interior do magneto e fica sob ação de um campo magnético de, por
exemplo, 1,5 T, os prótons de hidrogênio irão se orientar de
acordo com a direção do campo aplicado, como se fossem
pequenas bússolas; porém, ao contrário das bússolas, que
apontariam seu norte marcado na agulha para o sul magnético, os prótons de hidrogênio apontam tanto paralelamente
quanto antiparalelamente ao campo. As duas orientações
representam dois níveis de energia que o próton pode ocupar: o nível de baixa energia (alinhamento paralelo) e o nível
de maior energia (alinhamento antiparalelo), como mostra a
Figura 2. No modelo quântico, um dipolo nuclear somente
pode ter 2I+1 orientações com o campo, correspondendo a 2I+1 níveis de energia. O próton de hidrogênio (I=1/2)
possui duas possíveis orientações, que correspondem aos
níveis de baixa e alta energia.
A distribuição dos spins nos dois níveis é regida pela
distribuição de Boltzmann (Equação 1):
(1)
Figura 2. Prótons de hidrogênio sob ação do campo magnético
externo aplicado. Os prótons se distribuem em dois níveis de
energia, sendo que um pequeno número maior de prótons se
alinha paralelamente.
118
Revista Brasileira de Física Médica. 2009;3(1):117-29.
onde:
NP: número de spins alinhados paralelamente;
NAP: número de spins alinhados anti-paralelamente;
k: constante de Boltzmann (k=1,3805x10-23 joules/kelvin);
T: temperatura absoluta, em kelvin.
Ressonância magnética: princípios de formação da imagem e aplicações em imagem funcional
Para um campo magnético de 1,5 T e na temperatura
média do tecido humano, a diferença entre os spins que
ocupam o estado de menor energia e o de maior energia
é de aproximadamente 5 para 1 milhão. Do ponto de vista prático é somente com estes cinco spins resultantes
que poderemos trabalhar para produzir sinal detectável na
bobina.
Movimento de precessão e equação de Larmor
Na tentativa de alinhamento com o campo, e por possuir o spin, surge um segundo movimento chamado
de precessão. A analogia com um pião sob a ação do
campo gravitacional é valida para entendermos este
movimento.
Sob ação de um campo magnético, os prótons de hidrogênio irão precessar a uma frequência w determinada
pela equação de Larmor (Equação 2):
Figura 3. Eixos de coordenadas usados em IRM e o vetor momento magnético (m) associado ao próton de hidrogênio.
(2)
onde:
g: razão giromagnética;
B0: valor do campo magnético externo aplicado.
Para o hidrogênio, a razão giromagnética é de 42,58
MHz/T. Portanto, se considerarmos uma campo de 1,5 T,
a frequência de precessão será de 63,87 MHz.
Uma regra importante a ser sempre lembrada é que
qualquer alteração no valor do campo magnético irá alterar a frequência de precessão.
Magnetização do tecido
Como nas imagens a menor unidade será o voxel – sendo
este da ordem de 1,0 mm3 ou mais –, é o efeito combinado dos prótons de hidrogênio que irá nos interessar. A
magnetização resultante em cada voxel é o resultado da
soma vetorial de todos os spins que resultaram do cancelamento mútuo.
No equilíbrio, a magnetização resultante possui somente a componente horizontal, ao longo de B0. É fundamental que neste momento façamos a localização espacial do vetor magnetização.
Coordenadas no espaço (x, y e z): eixo longitudinal e
plano transversal
A Figura 3 mostra os eixos de coordenadas (x, y e z) e o
vetor que representa o momento magnético de um próton de hidrogênio realizando o movimento de precessão
em torno do eixo z, assim como as mesmas coordenadas num típico magneto supercondutor. O eixo z, ou longitudinal, representa a direção de aplicação do campo
magnético principal (B0). O plano xy é chamado de plano
transversal.
Utilizando o mesmo sistema de coordenadas, podemos
imaginar um elemento de volume de tecido (voxel) contendo 11 spins, como mostra a Figura 4. Os spins irão se alinhar paralelamente (7 spins) e antiparalelamente (4 spins).
Realizando o cancelamento mútuo do vetor momento
Figura 4. Direita: spins alinhados paralelamente e antiparalelamente ao campo magnético externo aplicado (eixo z), realizando
movimento de precessão. Esquerda: Vetor magnetização resultante (M0) de um elemento de volume do tecido.
magnético dos que estão para cima com os que estão para
baixo (7-4=3 spins), uma componente de magnetização resultante M0 irá surgir alinhada ao eixo longitudinal.
Apesar de todos os momentos magnéticos individuais precessarem em torno de B0 a uma frequência angular
igual a w, não existe coerência de fase entre eles e, portanto, não existirá componente de magnetização no plano
transversal.
Uma bobina posicionada de forma perpendicular ao
plano transversal não detectará nenhum sinal, pois não
ocorrerá alteração no fluxo magnético.
Aplicação do campo de radiofrequência (B1)
Para que uma corrente elétrica seja induzida em uma bobina posicionada de forma perpendicular ao plano transversal, é necessário que o vetor magnetização como um todo,
ou parte dele, esteja no plano transversal e possua coerência de fase. Se todos os momentos magnéticos individuais
forem desviados em 90º para o plano transversal e todos
estiverem precessando na mesma posição (mesma fase),
teremos o máximo de sinal induzido nesta bobina.
Para reorientar o vetor magnetização, um segundo
campo magnético de curta duração (pulso) tem que ser
aplicado. Este campo B1 (pulso de radiofrequência, ou RF)
deve ser perpendicular a B0 e deve estar em fase com a
frequência de precessão.
Revista Brasileira de Física Médica. 2009;3(1):117-29.
119
Mazzola AA
O efeito no vetor magnetização (vetor M) é o de afastá-lo,
por um dado ângulo de desvio (α), do alinhamento com B0.
Um dos pulsos de RF mais utilizados é o que irá resultar em
um ângulo de desvio de 90º, transferindo assim todo o vetor M para o plano transversal. Pulsos de 180º também são
utilizados e são chamados de pulsos de inversão (Figura 5).
A emissão deste pulso de RF é normalmente feita pela
chamada bobina de corpo, e a detecção do sinal é feita
por uma bobina local, como a bobina de crânio.
Em resumo, a aplicação do pulso de RF causa dois
efeitos:
• transfere energia para o vetor magnetização, desviando-o do alinhamento, ou jogando-o para o plano
transversal, quando for de 90º;
Figura 5. Pulsos de RF e sua nomenclatura. O pulso de 90º é
chamado de pulso de excitação, o de 180º de pulso de inversão
e o pulso a pode assumir qualquer valor.
• faz com que os núcleos precessem, momentaneamente, em fase no plano transversal.
Sinal de indução livre
Com aplicação de um pulso de RF de 90º, por exemplo,
a magnetização é jogada no plano transversal e passa a
induzir uma tensão elétrica na bobina de frequência w (sinal de RMN). Quando encerra a aplicação do pulso de RF,
o sinal gradualmente decai como resultado do processo
de relaxação ou de retorno do vetor magnetização para o
equilíbrio, ou seja, para o alinhamento com B0.
O formato do sinal induzido (ou sinal de indução livre,
SIL) é o de uma onda seno amortecida, como mostra a
Figura 6.
Processos de relaxação: longitudinal e transversal
A relaxação dos spins que gera o SIL é causada pelas trocas de energia entre spins e entre spins e sua vizinhança
(rede). Estas interações são chamadas de relaxação spinspin e spin-rede e juntas fazem com que o vetor M retorne
ao seu estado de equilíbrio (paralelo a B0).
Duas constantes de tempo foram criadas para caracterizar cada um destes processos: T1 e T2. A constante
T1 está relacionada ao tempo de retorno da magnetização
para o eixo longitudinal e é influenciada pela interação dos
spins com a rede. Já a constante T2 faz referência à redução da magnetização no plano transversal e é influenciada
pela interação spin-spin (dipolo-dipolo).
A Figura 7 mostra passo a passo o retorno do vetor magnetização ao equilíbrio após a aplicação de um pulso de RF
de 90º. Em amarelo são mostrados os momentos magnéticos individuais. É possível perceber que estes vão se defasando e com isso ocorre uma redução rápida na componente de magnetização ainda presente no plano transversal.
Retorno da magnetização longitudinal – T1
A equação que descreve o retorno da magnetização para
o eixo longitudinal, mostrada no gráfico da Figura 8, é a
seguinte (Equação 3):
Figura 6. Sinal de Indução Livre (SIL) gerado pelo retorno da
magnetização para o alinhamento após a aplicação de um pulso
de RF de 90º.
(3)
onde:
MZ: magnetização no eixo z;
ML: magnetização longitudinal;
M0: magnetização inicial;
t: tempo;
T1: constante de relaxação longitudinal.
O tempo necessário para a magnetização longitudinal recuperar 63% do seu valor inicial é chamado de T1.
Decaimento da magnetização transversal: tempo T2
A equação que descreve o decaimento da magnetização
no plano transversal, como mostra no gráfico da Figura 9
é a Equação 4:
Figura 7. Retorno do vetor magnetização ao equilíbrio.
120
Revista Brasileira de Física Médica. 2009;3(1):117-29.
(4)
Ressonância magnética: princípios de formação da imagem e aplicações em imagem funcional
Tabela 1. Tempos de relaxação T1 e T2 aproximados para diversos tecidos do corpo humano a 1,5 T
Tecido
Substância branca
Substância cinzenta
Líquido céfalo-raquidiano (líquor)
Sangue (arterial)
Parênquima hepático
Miocárdio
Músculo
Lipídios (gordura)
T1 (ms)
790
920
4000
1200
490
870
870
260
T2 (ms)
90
100
2000
50
40
60
50
80
Figura 8. Retorno da magnetização longitudinal.
bastante diferentes. É possível perceber que estas diferenças nos tempos de relaxação poderão ser usadas para
gerar contraste entre os tecidos nas imagens (Figura 10),
e que esta é uma vantagem da RM sobre os demais métodos de diagnóstico.
(5)
Ecos de spins
Até aqui tratamos do fenômeno da RMN e da observação
do SIL, assim como entendemos que existem constantes
de relaxação (T1 e T2) que possibilitam diferenciar tecidos.
Um aspecto fundamental para a coleta do sinal que irá
gerar a imagem de ressonância magnética é o fenômeno de formação de ecos. Este fenômeno foi observado e
descrito por Hahn5 em 1950 e é a base para estudarmos
sequências de pulso.
Hahn descreveu que, se excitarmos os prótons com
um pulso de RF inicial e, após um determinado tempo t,
enviarmos um segundo pulso, observaremos que, além
do surgimento de sinal na bobina após o primeiro pulso
(SIL), também haverá o surgimento de um segundo sinal.
Este segundo sinal é um eco do primeiro e aparece na
bobina num tempo igual a 2 t. É importante ressaltarmos
que o surgimento do eco é um processo natural e ocorre
devido a refasagem dos momentos magnéticos induzida
pelo segundo pulso de RF. Podemos controlar o momento
em que o eco irá surgir através dos tempos e de aplicação
dos pulsos, porém a defasagem e refasagem será dependente dos tipos de tecido em questão. Mais tarde abordaremos a sequência de pulso gradiente eco, na qual poderemos manipular também a defasagem e a refasagem.
onde:
T2inomog.: descreve o decaimento adicional no sinal devido
a inomogeneidades do campo.
Estas inomogeneidades podem ter origem nas próprias
diferenças de composição dos tecidos do corpo, como
também em imperfeições na fabricação e ajustes do magneto. A ressonância magnética funcional irá explorar as
alterações no tempo T2*, como veremos mais adiante.
A Tabela 1 apresenta tempos de relaxação T1 e T2
para diversos tecidos a 1,5 T4. Os valores devem servir
apenas como referência, pois uma medida quantitativa dos tempos de relaxação pode resultar em valores
Sequências de pulso spin eco ou eco de spins
A sequência de pulso spin eco se caracteriza pela aplicação de um pulso inicial de RF de 90º, seguido de um pulso
de RF de 180º. Como já descrito anteriormente, o intervalo de tempo t entre a aplicação destes dois pulsos irá
determinar o surgimento do eco em 2 t. Chamaremos de
tempo de eco (TE) o intervalo de tempo entre a aplicação
do pulso inicial de RF de 90º e o pico do eco (Figura 11).
O tempo entre sucessivos pulsos de RF de 90º é chamado de TR, ou tempo de repetição. Enquanto o TE determina
o quanto de relaxação no plano longitudinal estará presente
no eco, o TR estabelece o quanto de magnetização longitudinal se recuperou entre sucessivos pulsos de 90º.
Figura 9. Decaimento da magnetização transversal.
onde:
Mxy: magnetização no plano xy;
MT: magnetização transversal;
M0: magnetização inicial;
t: tempo;
T2: tempo de relação transversal.
O tempo necessário que a magnetização no plano transversal atinja 37% do seu valor inicial é chamado de T2.
Constante de tempo T2 versus T2*
Variações locais do B0 causam defasagem dos momentos
magnéticos, aumentando ainda mais a relaxação no plano
transversal e acelerando o decaimento do sinal de indução
livre. É conveniente definir outra constante de tempo, chamada T2*, ou T2 estrela (Equação 5):
Revista Brasileira de Física Médica. 2009;3(1):117-29.
121
Mazzola AA
Figura 10. Imagem turbo spin eco ponderada em T2, mostrando na imagem ampliada a resolução de contraste obtida devido
as diferenças nos tempos T2 entre os tecidos envolvidos.
Figura 11. Sequência de pulso spin eco. Pulso de 90º e aplicação no tempo (TE/2) do pulso de RF de 180º
Formação da imagem
Codificação do sinal
A RMN só pôde se tornar útil como método de obtenção
de imagens do corpo humano com o desenvolvimento da
codificação espacial do sinal através do uso de gradientes de campo magnético. Em 1973, Paul Lauterbur6 propôs o uso de gradientes de campo magnético, permitindo
assim a codificação espacial do sinal. Lauterbur mostrou
que, adicionando gradientes de campo magnético lineares
e obtendo uma série de projeções da distribuição de sinal,
seria possível reconstruir uma imagem através da mesma
retroprojeção filtrada usada por Hounsfield para obtenção
de imagens de tomografia computadorizada por raios-x7. O
método foi aprimorado por muito outros pesquisadores, incluindo Peter Mansfield, o qual propôs também a sequência
de pulso eco planar (EPI), que será tratada mais adiante8.
Gradientes de campo magnético
Até aqui, consideramos que o campo magnético produzido
pelo magneto possui um valor único e uniforme. Desta forma,
se todo um volume de tecido, como o cérebro, for posicionado neste campo, e se um pulso de RF for enviado com valor
de frequência exatamente igual à frequência de precessão
dos prótons de hidrogênio, todo o volume será excitado. Os
prótons de hidrogênio do volume como um todo receberão
energia do pulso de RF e retornarão sinal para a bobina. Este
122
Revista Brasileira de Física Médica. 2009;3(1):117-29.
Figura 12. Efeito de aplicação de um gradiente de campo magnético na direção do eixo z com amplitude de 45 mT/m. As alterações na frequência de precessão dentro do volume de interesse se modificam de acordo com a posição ao longo do eixo z
sinal contém informação de todo o tecido cerebral, mas não
possibilita que saibamos de que parte do cérebro ele provém.
Como o objetivo é mapear uma imagem bidimensional (2D), é preciso estabelecer um método que possibilite
a seleção de um corte do corpo para que, dentro deste
corte, possa haver uma matriz de pontos organizada em
linhas e colunas. Para cada elemento desta matriz (pixel)
deve ser obtido o valor de intensidade de sinal, para que
através de uma escala de tons de cinza ou cores possamos visualizar a imagem final.
Com a introdução dos chamados gradientes de campo magnético, poderemos variar linearmente em uma
dada direção a intensidade do campo magnético, como
mostra a Equação 6:
(6)
onde:
Gz: intensidade do gradiente aplicado (mT/m) na direção z;
Bz(z): novo valor de campo magnético numa dada posição z.
O novo campo criado localmente com o acionamento do
gradiente fará com que a frequência de precessão mude,
ou seja, cada posição do tecido na direção de aplicação
do gradiente atinja precessão em uma frequência diferente. A Figura 12 exemplifica o acionamento do gradiente. A
frequência poderá ser usada, agora, para localizar espacialmente o sinal.
O acionamento de um gradiente de campo também
altera a fase dos spins. Esta alteração é proporcional ao
tempo que o gradiente fica ligado e amplitude do gradiente.
Juntas, fase e frequência poderão fornecer informações espaciais do sinal.
Seleção de corte, codificação de fase e codificação
de frequência
São necessárias três etapas para a codificação do sinal
de forma a obter uma imagem de RM: seleção de corte,
Ressonância magnética: princípios de formação da imagem e aplicações em imagem funcional
metodologia é usada atualmente para determinar as amplitudes e frequências (e, portanto, as posições) encontradas no sinal de RM (eco) coletado pelas bobinas.
Somente depois de coletar 64, 128, 256 ou mais ecos
e armazená-los no chamado espaço K é que aplicaremos
a TF para passar do domínio do tempo para o domínio
de frequências, obtendo a imagem de RM. Uma descrição completa deste processo é apresentada por autores
como Bracewell9 e Gallagher10.
Espaço K
Figura 13. Diagrama simplificado da sequência de pulso spin
eco mostrando o acionamento dos gradientes de seleção de
corte (GSC), codificação de fase (GCF) e codificação de frequência ou de leitura (GL). Sempre que um pulso de RF é transmitido
(RFt) ocorre o acionamento de um gradiente de seleção de corte.
codificação de fase e codificação de frequência. Cada
etapa representa o acionamento de gradientes em uma
dada direção.
Se o gradiente de seleção de corte for acionado na
direção z, cada posição ao longo do eixo da mesa irá precessar com um valor diferente de frequência. Se este gradiente permanecer ligado, podemos enviar um pulso de
RF com frequência central de precessão igual a da região
que queremos excitar. Assim, dividimos o paciente em
cortes axiais. Os outros dois gradientes (codificação de
fase e frequência) serão acionados nos eixos que restaram
(x e y ou y e x).
Quando o gradiente de codificação de fase é acionado, alteramos a fase dos spins de forma proporcional à
sua localização. Assim, um dos eixos do corte fica mapeado com a fase. É necessário acionar n vezes o gradiente
de codificação de fase. Cada vez que é acionado, alterase a amplitude do gradiente.
No momento da leitura do sinal, o gradiente de codificação de frequência é acionado na direção restante.
Desta forma, o segundo eixo do corte ficará mapeado em
frequência. O gradiente de codificação de frequência também é chamado de gradiente de leitura.
Podemos agora adicionar ao nosso esquema da sequência de pulso as etapas de codificação do sinal, como
mostra a Figura 13.
O espaço K não é um local físico no equipamento de RM,
e sim um conceito abstrato que auxilia no entendimento de sequências de pulso modernas e metodologias de
aquisição. É útil visualizarmos o espaço K como uma matriz. Cada linha desta matriz será preenchida com um eco.
Podemos visualizar o espaço K na forma de uma matriz
em tons de cinza. Cada ponto nesta matriz corresponde a
uma intensidade de sinal (tom de cinza) e a uma posição
no tempo, e representa a amplitude do sinal recebido pela
bobina naquele dado instante. Os eixos de coordenadas
(x e y ou ky e kx) deste espaço são, respectivamente, o
gradiente de codificação de frequência e o gradiente de
codificação de fase, como mostra a Figura 14.
O preenchimento linha a linha do espaço K irá ocorrer à
medida que o gradiente de codificação de fase na sequência de pulso variar sua amplitude. O número de codificações
de fase pode, por exemplo, ser de 256, o que resulta no
acionamento de 256 amplitudes diferentes para o gradiente
de codificação de fase. Esta amplitude pode iniciar com o
uso de um gradiente negativo com máxima amplitude, reduzindo gradativamente sua amplitude até zero e, a partir
daí, acionando um gradiente positivo até atingir novamente
a amplitude máxima, mas na direção contrária. Cada linha
do espaço K será preenchida com um eco que foi codificado por uma amplitude diferente do gradiente de fase.
Uma característica importante do preenchimento do
espaço K, descrito acima, é que os extremos do espaço
K serão preenchidos com sinal de baixa amplitude, pois o
próprio acionamento do gradiente causa maior defasagem
e redução do sinal. Já as linhas centrais do espaço K conterão sinal de maior amplitude, o que na imagem de RM
resultará em contraste (preto e branco).
Domínio do tempo versus domínio de frequências:
Fourier
O sinal coletado de cada corte está mapeado em fase e
frequência. Ou seja, um sinal que varia no tempo, contendo diversas fases e diversas frequências, carrega informação sobre todo o tecido contido no corte.
Por volta de 1807, o matemático francês Jean Baptiste
Joseph Fourier, desenvolveu ferramentas analíticas para
decompor uma função contínua em suas componentes
oscilatórias e amplitudes. Este processo é hoje conhecido como transformada de Fourier (TF). Uma versão desta
Características do espaço K
Algumas características do espaço K são importantes
para entendermos melhor a imagem resultante:
• Não existe correspondência entre um ponto do espaço K e um ponto da imagem de RM. Em cada ponto
do espaço K existe informação de todo o corte. Se,
por exemplo, um pequeno artefato de entrada de RF
na sala de exames ocorrer em um dado instante durante a sequência de pulso, a presença deste artefato
bem localizado no tempo poderá gerar um artefato
que se propagará para toda a imagem de RM;
Revista Brasileira de Física Médica. 2009;3(1):117-29.
123
Mazzola AA
• Quanto maior o número de linhas do espaço K, maior
é a quantidade de sinal coletado, porém maior é o
tempo necessário. Se, em uma sequência de pulso
spin eco, cada linha do espaço K é preenchida a cada
tempo de repetição (TR), o tempo total para adquirir
uma ou mais imagens será diretamente proporcional
ao número de linhas do espaço K;
• As linhas centrais do espaço K estão diretamente relacionadas ao contraste na imagem de RM e a periferia,
à resolução espacial;
• Uma imagem de RM pode ser formada por mais que
um espaço K. A escolha do número de espaços K que
serão utilizados para gerar uma imagem é um parâmetro controlado pelo operador e costuma ser chamado
de número de aquisições ou número de excitações
(NEX). Passar de um para dois espaços K faz com que
o tempo total de aquisição dobre, com o benefício de
melhorar em cerca de 40% a relação sinal-ruído na
imagem.
Formas de preenchimento
Cada sequência de pulso pode se utilizar de uma estratégia
para o preenchimento do espaço K4,9. A Figura 15 mostra
um esquema representativo de algumas destas formas.
Sequências de pulso
Duas grandes famílias de sequências de pulso são usadas
para formar imagens de RM: spin eco (SE) e gradiente eco
(GRE).
Spin eco (SE)
A sequência de pulso spin eco (SE) se caracteriza pela
aplicação de um pulso inicial de RF de 90º, seguido de
um pulso de RF de 180º e a coleta de um eco (Figura 13).
Uma linha do espaço K é preenchida a cada tempo de
repetição (TR).
A ponderação na imagem é controlada pelo TR e pelo
TE. Os tempos típicos de TR e TE, assim como sua respectiva ponderação na imagem, são apresentados no
Quadro 1.
Spin eco multieco
Uma variação da SE convencional é a multieco, onde,
dentro de um mesmo TR, são selecionados dois tempos
de eco diferentes. O primeiro TE é curto e o segundo TE
é longo. Após a aplicação de cada um dos pulsos de RF
de 180º, surgirá um eco. Cada eco, em cada TE, é armazenado em um espaço K diferente. As imagens de RM
resultantes de cada um destes espaços K terão uma ponderação diferente. Esta técnica é usada para obtermos,
dentro do mesmo TR, uma imagem ponderada em T2 e
uma imagem ponderada na densidade de prótons (DP).
Tempo de aquisição
O tempo de aquisição de uma imagem de RM pode ser
calculado da seguinte forma (Equação 7):
Figura 14. Espaço K e a imagem de RM correspondente após
a aplicação da transformada de Fourier bidimensional (TF 2D).
(7)
onde:
TR: tempo de repetição (em segundos);
NCF: número de codificações de fase;
NEX: número de excitações ou número de espaços K
coletados.
Considerando os parâmetros de uma típica aquisição
ponderada em T1 (TR=500ms, 256 codificações de fase
e NEX=1), o tempo de aquisição será de 128 segundos
ou cerca de 2 minutos. Já para uma aquisição ponderada
em T2 com TR igual a 2500ms, 256 codificações de fase
e NEX=1, o tempo total de aquisição passa a ser de 640
segundos ou quase 11 minutos.
Desta forma, para se obter ponderação T2 em tempo
adequados, ou mesmo para aquisições mais rápidas com
ponderação T1, foi desenvolvida no meio da década de
80 a sequência de pulso RARE11 (rapid acquisition with
Quadro 1. da ponderação na imagem em sequências SE.
Figura 15. Esquema representativo das formas de preenchimento do espaço K. A diferença entre a forma cartesiana (a) e a cêntrica (c) é que, ao invés de iniciar o preenchimento por um dos
extremos do espaço K, o método cêntrico inicia pela parte central.
124
Revista Brasileira de Física Médica. 2009;3(1):117-29.
Tempo de repetição (TR)
TR Curto (< 500 ms)
TR Longo (> 1500 ms)
TR Longo (> 1500 ms)
Tempo de eco (TE)
TE Curto (5 a 25 ms)
TE Longo (> 90 ms)
TE Curto (5 a 25 ms)
Ponderação
T1
T2
DP
Ressonância magnética: princípios de formação da imagem e aplicações em imagem funcional
relaxation enhancement em inglês), que se popularizou
como turbo spin eco (TSE).
Turbo spin eco
A sequência de pulso turbo spin eco (TSE) utiliza múltiplos
pulsos de RF de 180º, combinando múltiplas codificações
de fase, dentro de um mesmo TR. Desta forma, um trem
de ecos pode ser gerado. Cada eco irá preencher uma
linha diferente do espaço K, reduzindo assim o tempo total de aquisição. O número de pulso de RF de 180º a ser
empregado é chamado de fator turbo ou tamanho do trem
de ecos. A redução no tempo total de aquisição é proporcional ao fator turbo, como mostra a Equação 8:
(8)
Seria excelente poder usar um fator turbo tão alto a
ponto de reduzir qualquer aquisição a não mais que alguns segundos. O eco coletado a cada pulso de 180º diminui em amplitude de acordo com o tempo T2 do tecido,
ou seja, cada sinal coletado vai ficando menor à medida
que se aplicam mais pulsos de refocalização, até o ponto
em que se coleta um sinal comparável ao ruído. Outra observação sobre as sequências de pulso TSE é o chamado
TE efetivo (TEef). Como uma série de ecos serão gerados
dentro de um mesmo TR, o conceito de TE remete à conclusão de que esta técnica possuirá múltiplos tempos de
eco. Entretanto, o TE que afetará de forma mais significativa a ponderação na imagem é o TE responsável pelo eco,
que fará o preenchimento da linha central do espaço K. A
este TE é dado o nome de TE efetivo (TEef).
A aquisição de uma imagem TSE ponderada em T2
com os mesmos parâmetros do exemplo usado em spin
eco, exceto pelo uso de um fator turbo igual a 4, resultaria
agora em um tempo de aquisição em cerca de 3 minutos,
o qual é razoável para a rotina de exames de um hospital
ou de uma clínica.
Gradiente eco
As sequências de pulso gradiente eco (GRE) são similares
à SE, mas ao invés de se usar um pulso de RF de 180º
para refasar os spins, utiliza-se um gradiente de campo
magnético, como mostra a Figura 16.
Se os valores de TR, TE e ângulo de desvio do pulso
de excitação forem semelhantes aos utilizados em sequências SE, a ponderação na imagem e o tempo de aquisição também serão semelhantes. Entretanto, a GRE é
mais sensível a inomogenidades de campo magnético e
apresenta mais artefatos na imagem devido a diferenças
de susceptibilidade magnética.
Uma vez que a defasagem e refasagem dos spins para
a produção do eco é agora controlada por um gradiente
de campo magnético, é possível reduzir brutalmente o TR
e o TE; entretanto, faz-se necessária uma redução no ângulo de desvio de forma a obter, entre sucessivos pulsos
de excitação, uma quantidade adequada de magnetização
longitudinal. A combinação de baixo ângulo de desvio e
curto TR e TE é a base para a maioria das chamadas sequências de pulso rápidas de RM.
Outra forma de adquirir imagens rápidas em IRM
é fazer uso da sequência de pulso EPI (echo planar
imaging, em inglês).
Imagem ecoplanar
A conexão com imagem funcional por RM se torna mais
evidente a partir de agora com a descrição da sequência
de pulso ecoplanar (EPI). Originalmente descrita por Peter
Mansfield em 19778 como uma forma teórica de aquisição
extremamente rápida, teve que aguardar melhorias nos
sistemas de gradientes e radiofrequência para se tornar
clinicamente útil. Atualmente, a aquisição de EPI é capaz
de adquirir uma imagem 2D em tempos tão curtos quanto
20 milissegundos. Desta forma, desempenhou e continua
a desempenhar papel fundamental para o desenvolvimento de aplicações como difusão, perfusão e RMf.
A sequência de pulso EPI se difere das sequências
SE e GRE principalmente na forma como os gradientes
de codificação de fase e frequência são aplicados4. Um
esquema inicial de aplicação de pulsos e acionamento
de gradientes pode estar baseado em SE ou em GRE.
A Figura 17 mostra o diagrama de um sequência de
pulso EPI-SE.
Um pulso de excitação de 90º é enviado, seguido de
um pulso de refocalização de 180º e, a partir deste ponto,
uma série de gradientes bipolares de leitura são empregados para gerar um trem de ecos. Com a aplicação de
gradientes codificadores de fase, cada eco é coletado e
armazenado em uma linha do espaço K. Se todo o espaço
K necessário para formar uma imagem for adquirido dentro de um TR, chamamos a aquisição EPI de ‘tiro único’.
Figura 16. Sequência de Pulso GRE. O pulso de excitação de
90º é substituído por um pulso a e, ao invés de um pulso de RF
de 180º, é utilizado um gradiente codificador de frequência ou
de leitura (GL) para defasar (lobo invertido ou negativo) e após
refasar os spins (lobo positivo).
Revista Brasileira de Física Médica. 2009;3(1):117-29.
125
Mazzola AA
o SIL ocorre, uma série de ecos de gradiente é produzida
usando os gradientes de codificação EPI de leitura e fase. O
pulso de excitação usado é de 90º, pois o TR é suficientemente longo. As imagens serão fortemente ponderadas em
T2*, o que aumenta o aparecimento de artefatos de susceptibilidade entre tecidos como osso e ar, mas também
auxiliará no contraste das imagens de RMf.
Ressonância magnética funcional (RMf)
Figura 17. Diagrama simplificado de uma sequência de pulso
EPI-SE.
A forma de preenchimento do espaço K é bastante particular para a sequência EPI, pois os ecos são armazenados
linha a linha em zigue-zague, como mostrou a Figura 14 (d).
Da mesma forma que na TSE, o TEef será determinado pelo
eco que preencher o centro do espaço K.
A ponderação das imagens EPI é baseada em T2*,
uma vez que a aquisição de todos os ecos produzidos
ocorre dentro do tempo de decaimento induzido livre. EPI
é bastante susceptível a inomogeneidades de campo.
Sistemas de gradientes rápidos e perfeitos são fatores
decisivos para a qualidade das imagens. O fator turbo está
diretamente relacionado ao tempo e a resolução espacial
da imagem. Já o chamado espaçamento entre ecos (ESP)
está diretamente relacionado à qualidade da imagem.
Quanto maior o fator turbo, menor o ESP. Quanto menor
o ESP, menor serão os artefatos de distorção na imagem,
desvio químico e perda de sinal.
EPI-SE
A sequência de pulso 2D spin eco EPI (EPI-SE) é formada
pela aplicação de um pulso inicial de RF de 90º e um pulso
de refocalização com ângulo de desvio de 180º. O pulso
de 180º irá gerar o eco. Durante a janela de tempo em
torno do eco, os gradientes de codificação EPI de leitura
e fase serão acionados para produzir uma série de ecos
de gradiente codificados espacialmente4. Os ecos de gradiente que são amostrados para preencher o espaço K
foram gerados por um eco de spin ao invés de um SIL
como ocorrerá com a EPI-GRE.
A EPI-SE sofre uma redução nos artefatos de susceptibilidade, porém possui sensibilidade reduzida ao efeito
que buscaremos obter para o mapeamento cerebral pela
RMf. A sequência de pulso EPI-SE é utilizada para a obtenção de imagens ponderadas na difusão da água no
tecido cerebral e nas aquisições para o cálculo do tensor
de difusão (DTI)15.
EPI-GRE
A sequência de pulso 2D EPI-GRE tem início com o envio de
um pulso de excitação para a produção do SIL. Enquanto
126
Revista Brasileira de Física Médica. 2009;3(1):117-29.
A ressonância magnética funcional é hoje uma técnica estabelecida e amplamente utilizada para o mapeamento da
função cerebral. A obtenção de imagens do tecido cerebral que possibilitam localizar regiões que estão envolvidas com a realização de determinadas tarefas é tópico
de interesse para a Biologia Molecular, Neurofisiologia e
Neuroanatomia. Uma aplicação clínica importante da RMf
é o de auxiliar no planejamento neurocirúrgico e radioterápico de tumores cerebrais e outras lesões13,14. Os dados
gerados pela RMf podem ser sobrepostos nas imagens
anatômicas e correlacionados com a provável abordagem
cirúrgica ou terapêutica a ser adotada, de forma a evitar
ou reduzir as complicações decorrentes da mesma.
Em 1991, o artigo de Moonen et al. publicado na
Science12 apresentou técnicas de RM como angiografia,
perfusão, difusão, transferência de magnetização e espectroscopia como técnicas funcionais de obtenção de
imagens em seres humanos. Entretanto, a partir do trabalho de Ogawa em 199016, o termo funcional passou a
ser aplicado somente para a técnica que será descrita a
seguir. Exploraremos a RMf baseada no chamado efeito
BOLD (do inglês blood oxygenation level dependent), ou
dependência no nível de oxigenação do sangue.
Em 1990, Ogawa et al. observaram que os vasos sanguíneos do cérebro de um rato eram originalmente pretos
quando este respirava ar numa composição normal; entretanto, passavam a apresentar maior sinal na imagem de
RM e perdiam o contraste com o tecido vizinho quando o
ar que respiravam atingia uma concentração de 100% de
oxigênio. Os autores perceberam que a mudança de sinal
era causada por diferenças nas propriedades magnéticas
do sangue. A hemoglobina sem oxigênio (deoxi-hemoglobina) apresenta efeito de susceptibilidade magnética em
relação ao tecido vizinho. Já quando o rato respira 100%
de oxigênio, o sangue venoso possui uma concentração
bem maior de oxi-hemoglobina, deixando de existir diferenças em relação ao tecido vizinho (redução do contraste). Ogawa et al. concluem que é possível utilizar este
mecanismo de contraste para visualizar a função cerebral,
pois acreditava que, quando ocorre uma ativação numa
dada região do tecido cerebral, surgiriam pontos escuros
na imagem uma vez que aumentaria o nível de deoxi-hemoglobina devido ao consumo de oxigênio.
As propriedades magnéticas da oxi-hemoglobina
e da deoxi-hemoglobina já haviam sido estudadas por
Pauling e Coryell em 193617, onde relatam que o estado
Ressonância magnética: princípios de formação da imagem e aplicações em imagem funcional
magnético da hemoglobina muda de acordo com o seu
estado de oxigenação. Em 1982, Thulborn e colaboradores18 demonstram que o tempo de relaxação T2 do sangue é dependente da concentração de oxigênio.
De fato o que passou a ser observado nas primeiras
imagens feitas do tecido cerebral durante a realização de
tarefas foi um aumento na intensidade de sinal nas regiões
neuronais ativas e não uma redução. Este fato se deve a
um aumento no fluxo sanguíneo arterial (oxigenado) bastante maior que o aumento de deoxi-hemoglobina local,
causado pelo consumo de oxigênio. Localmente é observada uma redução no nível de deoxi-hemoglobina e um
aumento no tempo de relaxação T2. É a maior ou menor concentração de deoxi-hemoglobina que determina
o contraste entre os tecidos. O efeito BOLD deveria ser
chamado de dependência no nível de deoxigenação do
sangue, uma vez que é a deoxi-hemoglobina que altera a
susceptibilidade magnética. A oxi-hemoglobina é diamagnética e a deoxi-hemoglobina é paramagnética.
Em 1992, Kwong et al., Ogawa et al. e Bandetinni et
al., assim como outros pesquisadores, publicaram trabalhos mostrando que era possível mapear mudanças de
sinal nas imagens de RM e que estas mudanças estavam
diretamente relacionadas com estímulos cerebrais produzidos em cérebros humanos19-21.
O físico inglês Michael Faraday tem uma relação muito
estreita com os fundamentos que permitiram o desenvolvimento da física relacionada à RMN e à observação deste fenômeno, responsável pela Lei da Indução Eletromagnética
(Lei de Faraday) em que uma força eletromotriz é induzida
em um condutor quando um campo magnético em torno
deste muda. Ao observar atentamente o conteúdo deste
artigo, pode-se perceber que é devido à Lei de Faraday que
se detecta a variação da magnetização do tecido através
das bobinas receptores de um equipamento de IRM. Mas
qual seria a relação de Faraday com a RMf?
Essa pergunta começa a ser respondida quando, verificando o trabalho de Ogawa et al. de 1990, os autores fazem referência ao trabalho publicado por Thulborn et al. em
1982, sendo queeste faz referência ao trabalho de Pauling
e Coryell, de 1936. Numa curta frase na introdução do trabalho de Pauling e Coryell, os autores mencionam experimentos de Faraday em 184522, investigando propriedades
magnéticas de amostras de sangue seco. Faraday realmente investigou a resposta de diversos materiais quando
colocados sob a ação do campo magnético – entre eles, o
sangue fresco e o sangue seco. Relata que ficou bastante
impressionado pelo fato do sangue não ser ‘magnético’,
apesar de conter ferro. Relata, ainda, que se um homem
pudesse ser suspenso com suficiente delicadeza e colocado sob ação de um campo magnético, o mesmo não
seria defletido por este campo, permanecendo inalterado
em termos do alinhamento com o campo externo.
Efeito BOLD e o sinal de RMf
Uma região do córtex cerebral responsável pela função motora dos dedos da mão pode ser considerada em repouso
Figura 18. Função de resposta hemodinâmica (FDR) com a divisão em sete fases.
quando o indivíduo não está realizando a movimentação
dos mesmos. Neste momento, as concentrações de oxihemoglobina e deoxi-hemoglobina estão distribuídas de tal
forma que o comportamento magnético da região é igual a
todo tecido vizinho. A partir do momento em que os neurônios desta área forem ativados para que o indivíduo inicie
a movimentação dos dedos da mãos, haverá um aumento
no consumo de oxigênio local e um aumento no fluxo sanguíneo para suprir a região com oxi-hemoglobina. Como a
quantidade suprida de oxi-hemoglobina é muito maior que
o consumo para realizar a tarefa, a relação oxi/deoxi-hemoglobina aumenta na região. Esta redução na proporção
de deoxi-hemoglobina (paramagnética) torna o tempo T2
local maior, causando aumento local no sinal de RM. Estes
eventos que iniciam com o aumento da atividade elétrica
e modulam a resposta neurovascular, alteram o sinal de
RM no tempo e produzem a chamada função de resposta
hemodinâmica.
Função de resposta hemodinâmica
A curva mostrada na Figura 18 representa a função de
resposta hemodinâmica (FRH) para um voxel localizado na
área motora descrita anteriormente.
Podemos considerar sete fases distintas nesta curva:
1) linha de base;
2) queda inicial;
3) aumento do sinal BOLD;
4) pico do sinal BOLD;
5) redução do sinal BOLD;
6) queda posterior;
7) retorno à linha de base.
Durante a ativação neuronal, pode ocorrer um aumento na
concentração de deoxi-hemoglobina, causando a queda
inicial na FRH (fase 2). Logo a seguir, o aumento na relação oxi/deoxi-hemoglobina leva até o pico do sinal BOLD
(fases 3 e 4) e pode se manter num platô se o estímulo for
mantido por tempo suficiente. Após cessar o estímulo, o
sinal retorna à linha de base (fase 7), podendo apresentar
uma queda posterior (fase 6). Acredita-se que esta queda
deriva de uma demora na normalização do volume sanguíneo regional em relação ao fluxo sanguíneo. Modelos
biomecânicos vêm sendo criados e testados experimentalmente para explicar as alterações dinâmicas na oxigenação e no fluxo sanguíneo durante a atividade neural .
Revista Brasileira de Física Médica. 2009;3(1):117-29.
127
Mazzola AA
Figura 19. Resumo da cadeia de eventos que gera a alteração
local de sinal nas imagens de RM.
Figura 20. Efeito da escolha do limiar estatístico para visualização
do mapa de ativação de tarefa motora de movimentação dos dedos da mão direita sobreposto na imagem anatômica ponderada
em T1. As imagens foram usadas para o planejamento neurocirúrgico do tumor localizado no lado esquerdo do cérebro.
A implicação prática é que o efeito BOLD pode ser usado
para detectar indiretamente o aumento na atividade neuronal
no momento em que um indivíduo realiza uma tarefa em particular, comparativamente a outro momento quando a tarefa
não é executada . A Figura 19 resume a cadeia de eventos
que criam o aumento local de sinal nas imagens ponderadas
em T2* da sequência de pulso EPI-GRE.
Paradigmas
O paradigma representa o conjunto de tarefas cognitivas que o indivíduo deve realizar no momento do exame.
Alternar a movimentação do pé com períodos de repouso,
ou realizar a leitura de frases projetadas numa tela com a
visualização de uma letra no centro da mesma tela, são
exemplos de paradigmas simples usados em experimentos de RMf. O desenho de paradigmas é fundamental para
a obtenção de resultados nas imagens que representem a
função cerebral a ser estudada. A forma mais simples de
fornecer estímulos é em bloco, ou seja, alternando períodos de atividade e de repouso; porém, outras estratégias
podem ser adotadas. O paradigma em bloco será explorado neste artigo por ser o mais utilizado clinicamente.
Paradigma em bloco
Tal paradigma consiste na apresentação de um estímulo ao
paciente de forma alternada como períodos de repouso.
Pode-se desenhar um paradigma em bloco para observar
as regiões do córtex cerebral relacionadas ao movimento
dos dedos da mão direita. A estratégia a ser adotada pode
128
Revista Brasileira de Física Médica. 2009;3(1):117-29.
ser de pedir que, durante os 30 segundos iniciais (A), o indivíduo permaneça imóvel e somente prestando atenção no
ruído produzido pelo equipamento. Nos 30 segundos seguintes (B), o indivíduo é orientado a realizar um movimento
de encontro dos dedos da mão. Este ciclo de dois períodos
(AB) pode ser repetido duas, três ou mais vezes.
Com o uso da sequência de pulso EPI-GRE, é possível adquirir de 10 a 20 cortes com espessuras de 3 a 10
mm, que cobrirão todo o cérebro em tempos de aquisição
de 1,5 a 4 segundos. Se utilizarmos um TR de 1500 ms,
podemos obter 20 imagens coletadas na condição A e
20 imagens na condição B. A matriz de aquisição normalmente utilizada é de 64x64.
A aquisição rápida permite que as alterações no sinal devido ao fenômeno BOLD possam ser detectadas de
forma mais sensível e comparadas ao modelo em bloco.
Estas alterações de sinal em equipamentos de 1,5 T são
da ordem de 0,3 a 5%, o que se aproxima bastante do
próprio ruído, tornando impossível a observação direta
na imagem. Somente através da análise estatística pixel
a pixel é possível identificar os pixels na imagem que se
correlacionam com o paradigma.
Análise das imagens
Existe uma quantidade bastante grande de programas livres ou comerciais para o processamento das imagens
de RMf que são fornecidos por diversos grupos de pesquisa espalhados pelo mundo. Programas como o SPM
e o FSL26 são exemplos amplamente usados por pesquisadores. Os fabricantes de equipamentos também fornecem programas comerciais que podem ser instalados
em estações de trabalho ou no próprio equipamento para
análisel, seja após a aquisição das imagens ou em tempo
real, durante a execução do exame25.
As etapas necessárias para o processamento dos dados de uma aquisição de RMf, e que são comuns a todos
os programas, podem ser resumidas nos itens mostrados
abaixo. Outras etapas podem ser acrescentadas, dependendo do objetivo do exame ou análise:
• correção de movimento: busca realinhar os volumes
adquiridos de forma que pequenos movimentos não
atrapalhem a análise posterior;
• aplicação de filtro de suavização: serve para reduzir o
ruído das imagens, aumentando a razão sinal-ruído,
porém reduzindo a resolução espacial das imagens;
• modelamento com o paradigma e com a FRH: esta
etapa cria a função do sinal no tempo esperada para
área ativada e modelada com a função de resposta
hemodinâmica;
• geração do mapa estatístico e estabelecimento do limiar de visualização: o modelo criado é comparado
com o sinal medido pixel-a-pixel e um mapa estatístico
é criado para cada corte, onde cada pixel neste mapa
possuirá um tom de cinza ou de cor que expressa o
grau de correlação entre o modelo e o sinal medido. A
este mapa podemos atribuir um limiar estatístico, de
Ressonância magnética: princípios de formação da imagem e aplicações em imagem funcional
forma que só sobrevivam os pixels acima de um determinado valor, aumentando a confiança de que aquele
ponto é realmente uma ativação (Figura 20);
• sobreposição em imagens anatômicas: como a resolução espacial da sequência de pulso EPI-GRE é
baixa, o mapa contendo as ativações pode ser sobreposto numa imagem anatômica ponderada em T1 de
alta resolução.
Conclusão
A IRM amplia cada vez mais suas aplicações para o
diagnóstico médico, e a área que mais se beneficiou até
hoje desta evolução foi a Neurorradiologia. Em especial,
a RMf vem auxiliando de forma fundamental no entendimento dos mecanismos relacionados ao funcionamento
cerebral. Ainda assim, um aprofundamento nos conceitos
físicos aqui apresentados é necessário para o entendimento completo, uma vez que o caminho mais simples
foi adotado.
É impossível não imaginar que tipo de sensação
Faraday teria ao ver um equipamento de RM e, na sua tela,
a detecção em tempo real das mudanças de sinal no tecido cerebral devido a alterações dinâmicas da concentração de deoxi-hemoglobina. Assim como em outros grandes exemplos de aplicações da física na medicina, a RMf
está maravilhosamente entrelaçada nestas duas áreas.
Agradecimentos
À equipe multidisciplinar da Unidade de Diagnóstico por
Imagem do Hospital Moinhos de Vento e a Professora
Doutora Ana Maria Marques, da Faculdade de física da
PUCRS, pelo incentivo e comentários para este artigo.
Referências
1. Bloch F. Nuclear induction. Phys Rev. 1946;70(7-8):460-74.
2. Purcell EM, Torrey HC, Pound RV. Resonance absorption by nuclear
magnetic moments in a solid. Phys Rev. 1946;69:37-8.
3. Foster MA. Magnetic resonance in medicine and biology. Pergamon Press:
New York; 1984.
4. Bernstein MA, King KE, Xiaohong JZ. Handbook of MRI pulse sequences.
London: Elsevier; 2004.
5. Hahn EL. Spin echoes. Phys Rev. 1950;80(4):580-94.
6. Lauterbur PC. Image formation by induced local interactions: examples
employing nuclear magnetic resonance. Nature. 1973;242:190-1.
7. Hounsfield GN. Computerized transverse axial scanning (tomography): Part
1. Description of system. Br J Radiol. 1973;46(552):1016-22.
8. Mansfield P. Multi-planar imaging formation using NMR spin echoes. J
Phys. 1977;10:L55-8.
9. Bracewell R. The Fourier transform and its applications. 3rd ed. New York:
McGrawl-Hill Science; 1999.
10. Gallagher TA, Nemeth AJ, Hacein-Bey L. An introduction to the Fourier
Transform: relationship to MRI. AJR. 2008;190(5):1396-405.
11. Henning J, Nauerth A, Friedburg H. RARE imaging: a fast imaging method
for clinical MR. Magn Reson Med. 1986;3(6):823-33.
12. Moonen CT, van Zijl PC, Frank JA, Le Bihan D, Becker ED. Functional
Magnetic Resonance Imaging in Medicine and Physiology. Science.
1990;250(4977):53-61.
13. Sunaert S. Presurgical planning for tumor resectioning. J Magn Reson
Imaging. 2006;23(6):887-905.
14. Narayana A, Chang J, Thakur S, Huang W, Karimi S, Hou B, et al. Use of MR
spectroscopy and functional imaging in the treatment planning of gliomas.
Br J Radiol. 2006;80(953):347-54.
15. Mukherjee P, Chung SW, Berman JI, Hess CP, Henry RG. Diffusion tensor
MR imaging and fiber tractography: technical considerations. AJNR Am J
Neuroradiol. 2008;29(5):843-52.
16. Ogawa S, Lee TM, Kay AR, Tank DW. Brain magnetic resonance imaging
with contrast dependent on blood oxygenation. Proc Natl Acad Sci.
1990;87:9868-72.
17. Pauling L, Coryell CD. The magnetic properties and structure of hemoglobin,
oxyhemoglobin and carbonmonoxyhemoglobin. Proc Natl Acad Sci USA.
1930;22:210-5.
18. Thulborn KR, Waterton JC, Matthews PM, Radda GK. Oxygenation
dependence of the transverse relaxation time of water protons in whole
blood at high field. Biochim Byophys Acta. 1982;714(2):265-70.
19. Kwong KK, Belliveau JW, Chesler DA, Goldberg IE, Weisskoff RM,
Poncelet BP, et al. Dynamic magnetic resonance imaging of human brain
activity during primary sensory stimulation. Proc Natl Acad Sci USA.
1992;89(12):5675-9.
20. Ogawa S, Tank DW, Menon R, Ellermann JM, Kim SG, Merkle H, et al.
Intrinsic signal changes accompanying sensory stimulation: functional
brain mapping with magnetic resonance imaging. Proc Natl Acad Sci U S A.
1992;89(13):5951-5.
21. Bandettini PA, Wong EC, Hinks RS, Tikofsky RS, Hyde JS. Time course
EPI of human brain function during task activation. Magn Reson Med.
1992;25(2):390-7.
22. Faraday M. Experimental Researches in Electricity. v. 3. London: Richard
Taylor and William Francis; 1855.
23. Buxton RB, Wong EC, Frank LR. Dynamics of blood flow and oxygenation
changes during brain activation: the ballon model. Magn Reson Med.
1998;39(6):855-64.
24. Amaro Jr E, Barker GJ. Study design in fMRI: basic principles. Brain and
Cogn. 2006:60(3):220-32.
25. Statistical Parametric Mapping. Disponível em: http://www.fil.ion.ucl.ac.uk/
spm/).
26. FSL. Disponível em: http://www.fmrib.ox.ac.uk/fsl/index.html.
27. Fernández G, De Greiff A, Von Oertzen J, Reuben M, Lun S, Klaver P, et al.
Language mapping in less than 15 minutes: real-time funcional MRI during
routine clinical investigation. Neuroimage. 2001;14(3):585-94.
Revista Brasileira de Física Médica. 2009;3(1):117-29.
129
Artigo de Revisão
Revista Brasileira de Física Médica. 2009;3(1):131-9.
PACS: Sistemas de Arquivamento e
Distribuição de Imagens
PACS: Picture Archiving and Communication Systems
Paulo Mazzoncini de Azevedo-Marques1, Samuel Covas Salomão2
1
Doutor em Física Aplicada; Professor-associado do Departamento de Clínica Médica da Faculdade de Medicina de
Ribeirão Preto da Universidade de São Paulo (USP) – Ribeirão Preto (SP), Brasil.
2
Bacharel em Ciências da Computação; Mestrando do Programa de Pós-Graduação Interunidades Bioengenharia
(EESC/FMRP/IQSC) da USP – Ribeirão Preto (SP), Brasil.
Resumo
A revolução tecnológica ocorrida nas últimas décadas tem provocado mudanças importantes em várias áreas do conhecimento. Na Radiologia, a
utilização em grande escala de sistemas digitais tem gerado um volume de dados cada vez maior. A melhor solução para gerenciar essas imagens
digitais está na adoção de um Sistema de Arquivamento e Distribuição de Imagens (PACS, do inglês Picture Archiving and Communication System).
Este artigo apresenta uma revisão sobre esse tema, incluindo componentes, arquitetura, padrões de comunicação, dinâmica de processos e uma
discussão sobre custo-benefício.
Palavras-chave: imagens médicas; informática de imagens médicas; gerenciamento de imagens médicas; sistemas de informação em saúde;
DICOM; PACS.
Abstract
The technological revolution that has occurred in the last decade induced significant changes in different areas of knowledge. In Radiology, the
utilization of digital systems in large scale has generated a huge volume of data. The best option to manage these digital images is the adoption of a
Picture Archiving and Communication System (PACS). This paper presents a review on PACS, including its components, architecture, communication
standards, workflow and a discussion on the cost-benefits commitment.
Keywords: medical imaging; medical imaging informatics; medical imaging management; health information systems; DICOM; PACS.
Introdução
A aplicação de sistemas de informação para gerenciamento de imagens e informações clínicas começou a ser estudada de forma mais efetiva no final da década de 1980,
quando os processos de aquisição digital começaram a ser
utilizados em maior escala nos hospitais1. Até então, cada
equipamento era considerado um sistema isolado, estando
conectado somente a uma estação de trabalho e a uma
determinada impressora. Porém, o desenvolvimento do uso
da informação em formato digital criou a necessidade de
se estabelecer uma estrutura computacional que possibilitasse a troca de dados de imagens de forma consistente
e automática dentro do ambiente hospitalar. Em resposta
a essa necessidade, surgiu o conceito de PACS (do inglês,
Picture Archiving and Communication System). O PACS é
um sistema de arquivamento e comunicação voltado para
o diagnóstico por imagem que permite o pronto acesso
às imagens médicas em formato digital em qualquer setor
de um hospital2. O conceito de PACS foi definido por um
consórcio integrado pela American National Association
of Electric Machines (NEMA), Radiology Society of North
America (RSNA) e um conjunto de empresas e universidades dos Estados Unidos da América.
Segundo definição da NEMA, um PACS deve oferecer
visualização de imagens em estações de diagnóstico remotas; armazenamento de dados em meios magnéticos
ou ópticos para recuperação em curto ou longo prazo;
comunicação utilizando redes locais (Local Area Network,
LAN) ou expandidas (Wide Area Network, WAN), ou outros
serviços públicos de telecomunicação; sistemas com interfaces por modalidade e conexões para serviços de saúde e informações departamentais que ofereçam uma solução integrada para o usuário final. O PACS, em conjunto
com os Sistemas de Informação em Radiologia (Radiology
Information System, RIS) e de Informação Hospitalar
(Hospital Information System, HIS), forma a base para
um serviço de radiologia sem filme (filmless). Radiologia
Correspondência: Faculdade de Medicina de Ribeirão Preto, Universidade de São Paulo, Centro de Ciências das Imagens e Física Médica, Departamento
de Clínica Médica – Avenida dos Bandeirantes, 3.900 – Monte Alegre, CEP 14049-900 – Ribeirão Preto (SP), Brasil – e-mail: [email protected]
Associação Brasileira de Física Médica®
131
Azevedo-Marques PM, Salomão SC
filmless refere-se a um hospital, com um ambiente de rede
amplo e integrado, no qual o filme foi completamente, ou
em grande parte, substituído por sistemas eletrônicos que
adquirem, arquivam, disponibilizam e exibem imagens2.
Padrões da Radiologia Digital
Um aspecto fundamental dentro do fluxo de trabalho em
um ambiente radiológico digital (sem filme) é a garantia
da consistência da informação transmitida componente a
componente dentro da cadeia de eventos presente na dinâmica de processos. Para que a consistência seja garantida,
a distribuição da informação é feita segundo uma estrutura hierárquica baseada em uma distribuição top-down, ou
seja, as informações são propagadas a partir do sistema
de informação mais geral (HIS), passando pelo sistema
de informação intermediário (RIS) até alcançar o sistema
de informação mais específico (PACS). Para que isso seja
possível, dois pré-requisitos são necessários: uma estrutura de rede adequada (redundante e balanceada) e padrões
de comunicação bem definidos. Na Radiologia Digital, o
padrão de comunicação principal é o DICOM (do Inglês,
Digital Imaging and Communications in Medicine).
Tabela 1. Classes de objetos de informação DICOM
Normalizado
Paciente
Estudo
Resultados
Fonte de armazenamento
Anotações da imagem
Composto
Radiografia computadorizada
Tomografia computadorizada
Imagem de filme digitalizado
Imagem digital de subtração
Imagem de ressonância magnética
Imagem de medicina nuclear
Imagem de ultrassom
Gráficos
Curvas
Tabela 2. DIMSEs normalizados
Comando
N-EVENT-REPORT
N-GET
N-SET
N-ACTION
N-CREATE
N-DELETE
Função
Notificação de evento para um objeto
Recuperação do valor de um atributo de um objeto
Especificação do valor de um atributo para um objeto
Especificação de ação para um objeto
Criação de um objeto
Exclusão de um objeto
Tabela 3. DIMSEs compostos
Comando
C-ECHO
C-STORE
C-FIND
C-GET
C-MOVE
132
Função
Verificação da conexão
Transmissão da instância de um objeto
Consulta informações da instância de um objeto
Transmissão (servidor-cliente) da instância de um
objeto para a entidade solicitante
Transmissão (servidor-cliente) da instância de
um objeto Nem sempre o receptor será a mesma
entidade que solicitou a transmissão
Revista Brasileira de Física Médica. 2009;3(1):131-9.
O DICOM é o padrão global para transferência de
imagens radiológicas e outras informações médicas entre
computadores. O DICOM atual, publicado em 1993 e geralmente identificado como 3.0, evoluiu das versões anteriores de um padrão desenvolvido pelo Colégio Americano de
Radiologia (American College of Radiology, ACR) em conjunto com a NEMA (ACR-NEMA 1.0, de 1985, e ACR-NEMA
2.0, de 1988). A conectividade prevista pelo padrão é muito importante no que diz respeito à razão custo-benefício
para áreas da saúde que fazem uso de imagens médicas.
Usuários DICOM podem prover serviços de radiologia entre
instalações localizadas em diferentes regiões geográficas,
aproveitar recursos de tecnologia da informação já existentes e manter os custos baixos através da compatibilidade
e interoperabilidade de novos equipamentos e sistemas3. O
DICOM é extremamente adaptável, uma característica que
levou outras especialidades, tais como a endoscopia e a
área da odontologia, a adotarem o padrão. Devido ao seu
impacto mundial, o DICOM agora é mantido e atualizado
por um comitê multidisciplinar internacional.
Classes de objetos DICOM
A classe de objetos DICOM é constituída por objetos normalizados e objetos compostos. Classes de objetos de informação normalizados incluem atributos inerentes ao mundo real. Considerando-se as classes de objetos “estudo” e
“paciente”, por exemplo, a data do estudo e a hora da geração da imagem são atributos da classe “estudo”, pois estão
presentes sempre que um estudo é realizado. O nome do
paciente, por sua vez, pertence à classe “paciente”.
O uso de classes de objetos de informação pode identificar de forma mais precisa, e sem ambigüidade, objetos
encontrados em sistemas e aplicações de diagnóstico por
imagem. Em geral, é feita a combinação de objetos normalizados para formar classes compostas de objetos. Por
exemplo, o objeto de informação de uma radiografia computadorizada é considerado composto, pois possui atributos
da classe do estudo (data e hora da imagem) e da classe do
paciente (nome do paciente), como mostra a Tabela 1.
Serviços DICOM
Serviços DICOM são utilizados para a comunicação de objetos de informação dentro de um dispositivo e para que
dispositivos possam executar serviços para um determinado objeto, como, por exemplo, armazenar ou mostrar esse
objeto. Um serviço é geralmente construído sobre uma
série de Elementos de Serviços de Mensagem (DICOM
Message Services Elements, DIMSEs). Existem dois tipos
de DIMSEs: um para objetos normalizados (mais específico)
e outro para objetos compostos (mais geral), como mostram as Tabelas 2 e 3. Esses elementos são programas de
computador especialmente escritos para executar funções
específicas. De modo geral, um dispositivo lança um comando de solicitação estruturado segundo uma sintaxe e
uma sequência de transmissão específicas do padrão, e o
receptor responde com um comando de aceitação, também estruturado segundo a mesma sintaxe e sequência.
PACS: Sistemas de Arquivamento e Distribuição de Imagens
Um serviço também é conhecido como Classe de
Serviço por causa da natureza orientada a objetos do seu
modelo de informação. Dessa maneira, se um dispositivo
oferece um serviço, ele pertence a uma Classe Provedora
de Serviços (Service Class Provider, SCP). Caso ele apenas
utilize um serviço, é considerado um Usuário de Serviços
(Service Class User, SCU). Por exemplo, uma unidade gravadora de DVD em um servidor PACS assume o papel de
um SCP para o servidor poder armazenar as imagens. Por
outro lado, um aparelho de Tomografia Computadorizada
(TC, do Inglês Computed Tomography) assume o papel
de um SCU ao solicitar que imagens sejam armazenadas
no servidor PACS. Dependendo do caso, um dispositivo
pode atuar como SCP, SCU ou ambos (Tabelas 2 e 3).
Comunicação DICOM
O DICOM utiliza padrões já existentes de comunicação em
rede baseados no Modelo de Referência para a Interconexão
de Sistemas Abertos (Open Systems Interconnection
Reference Model, OSI) para transmissão de informações e
imagens médicas. O modelo OSI consiste em sete camadas,
sendo que a camada mais alta compõe as interfaces de aplicação com o usuário e a camada mais baixa corresponde ao
meio físico (fios e cabos) através do qual a informação é enviada e recebida4. Quando objetos com informação ou imagens médicas são enviados entre camadas de um mesmo
dispositivo, esse processo é chamado de serviço. Por outro
lado, quando objetos são enviados entre dois dispositivos
diferentes, o processo é considerado um protocolo. Dessa
maneira, quando um processo caracteriza um protocolo, dizse no padrão DICOM que os dois dispositivos estabeleceram
uma associação. A Figura 1 ilustra a transmissão de imagens
de um aparelho de TC para uma Estação de Trabalho (do
Inglês Workstation, WS).
Utilização de serviços DICOM
Para os usuários finais, as funcionalidades DICOM mais esperadas para a rotina diária são serviços eficientes para enviar, receber, consultar e recuperar imagens. A Figura 2 apresenta o passo-a-passo do envio de múltiplas imagens de um
exame de TC para um determinado servidor PACS. Nesse
exemplo, cada imagem é transmitida do aparelho para o
servidor utilizando o serviço DICOM C-STORE. O aparelho
assume o papel de SCU e o servidor, o papel de SCP.
O processo de envio e recebimento por meio do C-STORE
é relativamente simples comparado a outros serviços, como o
de consulta e recuperação de imagens (Query and Retrieve,
Q/R), por exemplo. A Figura 3 ilustra um exemplo no qual
uma WS efetua consultas no servidor para recuperar exames.
Trata-se de um serviço composto que envolve o trabalho de
três DIMSEs: C-FIND, C-MOVE e C-STORE. Nesse caso específico, como a WS tem de consultar e depois armazenar os
exames recuperados, ela assume respectivamente os papéis
de Q/R SCU e C-STORE SCP. Por outro lado, o servidor assume os papeis de Q/R SCP e C-STORE SCU.
Além do DICOM, outros dois padrões são importantes para garantir a consistência dos dados e o fluxo
Figura 1. Envio de uma série de imagens de tomografia computadorizada de um escâner para uma WS. (a) O escâner codifica
todas as imagens em um objeto DICOM. (b) O escâner invoca
uma série de serviços para mover o objeto até a camada física
do modelo OSI. (c) A WS utiliza uma série de serviços para receber o objeto através da camada física e depois movê-lo para
camadas de maior nível. (d) A WS decodifica o objeto DICOM.
automático de informação em um ambiente radiológico
digital: o HL7 (Health Level Seven) e o IHE (Integrating the
Health Care Enterprise).
O HL7 é um American National Standards Institute
(ANSI) que atua na área da saúde. Tem por missão definir
padrões para troca, gerenciamento e integração de dados que propiciem o cuidado clínico de pacientes, além
do gerenciamento, fornecimento e avaliação de serviços
de saúde. Possui foco específico na garantia da interoperabilidade entre sistemas de informação em saúde. Nível
Sete (Level Seven) se refere ao nível mais alto do modelo
de comunicação OSI, que é o nível de aplicação. Assim
como o DICOM, o HL7 organiza a transmissão da informação segundo uma sequência pré-estabelecida de envio
de dados que segue uma estrutura padrão baseada em
rótulos específicos (Tags).
O IHE é uma iniciativa da RSNA que tem por finalidade
promover a integração dos sistemas dentro do ambiente
de cuidado da saúde. O objetivo é melhorar a eficácia da
prática clínica através da melhoria do fluxo de informação.
O foco do IHE é estabelecer formas otimizadas de fluxo de
informação no âmbito de instituições de saúde com base
em padrões de comunicação, como o DICOM e o HL7.
O IHE estabelece um conjunto de arcabouços técnicos
(frameworks) que define como os padrões devem ser implementados de forma a satisfazerem as necessidades da
prática clínica. Utilizam-se três conceitos básicos: atores,
transações e perfis de integração. Atores são as funcionalidades que fazem a comunicação entre os sistemas.
Transações são as mensagens trocadas entre os sistemas.
Perfis de Integração são agrupamentos de atores e transações que compõem um fluxo específico. Por exemplo,
o perfil Patient Information Reconciliation (PIR) estabelece
um framework para garantir que as informações referentes
a um paciente inicialmente não identificado, atendido em
Revista Brasileira de Física Médica. 2009;3(1):131-9.
133
Azevedo-Marques PM, Salomão SC
Figura 2. Envio de múltiplas imagens de um SCU para um SCP. (0) Escâner e servidor estabelecem uma associação. (1) Escâner (SCU)
solicita um serviço C-STORE ao servidor (SCP). (2) Servidor recebe solicitação do escâner e envia resposta de aceitação à solicitação
do serviço. (3) Escâner envia pacote de dados referente à primeira imagem ao servidor. (4) Servidor executa serviço C-STORE solicitado, armazenando o pacote. (5) Quando o serviço é concluído, o servidor envia uma resposta de confirmação para o escâner. (6) Após
receber a confirmação da execução do serviço, o escâner envia o próximo pacote de dados da imagem para o servidor. (7) Os passos
4, 5 e 6 se repetem até que todos os pacotes de dados da primeira imagem sejam transmitidos. (8) O escâner solicita um segundo
serviço C-STORE ao servidor para transmitir a segunda imagem. Os passos 1 a 7 se repetem até que todas as imagens do estudo
sejam transmitidas. (9) O escâner e o servidor invocam comandos DICOM para se desconectarem.
um serviço de emergência, possam ser devidamente atualizadas em todos os sistemas envolvidos no processo no
momento de sua posterior identificação.
Componentes e dinâmica de processos
Em linhas gerais, um PACS é composto por equipamentos e sistemas voltados para aquisição, arquivamento e
apresentação de dados e imagens médicas5. Cada componente é devidamente integrado por meio de redes de
computadores e aplicações computacionais compatíveis
com o padrão DICOM.
Aquisição de imagens
A aquisição de dados e imagens é um componente indispensável para a existência de um PACS. Nos primórdios
da tecnologia digital, estabelecer a comunicação entre os
equipamentos de aquisição de imagens e os demais componentes do PACS era uma tarefa bastante complexa.
134
Revista Brasileira de Física Médica. 2009;3(1):131-9.
Muitos equipamentos não eram compatíveis com o padrão
DICOM, exigindo grande esforço para transformar os dados
adquiridos em objetos válidos para o armazenamento no
PACS. Entretanto, os dispositivos mais novos já possuem
computadores acoplados que, além de armazenarem localmente as imagens adquiridas, funcionam como um canal
de comunicação (gateway) com o PACS, executando três
tarefas primárias: aquisição da imagem através do equipamento radiológico; conversão dos dados ao padrão DICOM
e encaminhamento do estudo que contém as imagens para
o servidor PACS ou estações de trabalho.
Controlador PACS e servidor de arquivamento de
imagens
O servidor do PACS é a peça fundamental de sua arquitetura
e pode ser dividido em dois componentes principais: o controlador PACS e o servidor de arquivamento de imagens. O primeiro consiste em equipamentos e programas que controlam
a comunicação e todo o fluxo de dados no PACS. O segundo
é responsável pelo armazenamento, segurança e integridade
PACS: Sistemas de Arquivamento e Distribuição de Imagens
Figura 3. Operação de consulta e recuperação de imagens. (0) WS e servidor estabelecem uma associação. (1) WS solicita serviço
C-FIND ao servidor. (2) Servidor recebe a solicitação da WS (2a); executa o serviço C-FIND (2b) e depois envia os resultados para a WS
(2c). (3) WS recebe resposta do servidor com resultados da consulta. (4) Usuário da WS escolhe imagens desejadas para recuperação
e solicita serviço C-MOVE ao servidor. (5) Servidor recebe solicitação de serviço C-MOVE (5a) e prepara serviço C-STORE SCU (5b).
(6) Serviço C-STORE SCU do servidor recupera imagens do banco de dados. (7) Servidor solicita serviço C-STORE à WS (C-STORE
SCP). (8) WS recebe solicitação C-STORE do servidor e inicia processo de armazenamento das imagens. (9) Depois que a WS recebe
e armazena os dados da última imagem, as duas entidades terminam a associação.
dos dados das imagens recebidas. Em termos de hardware,
o servidor de arquivamento de imagens pode ser considerado um “datacenter” composto por computadores de alto
desempenho, dispositivos de armazenamento e conexões de
rede ultrarrápidas. Os principais dispositivos para armazenamento em um PACS incluem discos magnéticos (Hard Disk,
HD), conjunto de discos independentes (Reduntant Array
of Inexpensive Disks, RAID), fitas magnéticas (Digital Linear
Tape, DLT), além de CDs e DVDs. Devido à grande demanda
por velocidade de acesso e confiabilidade, geralmente se utiliza RAID no PACS para armazenamento de dados que não
necessitem estar disponíveis por um período de tempo muito
longo. Por outro lado, fitas magnéticas são comuns quando o
armazenamento é permanente ou deve ser mantido por muitos anos (cópias de segurança). O software implementado no
servidor de arquivamento deve ser compatível com o padrão
DICOM, pois é através dele que o servidor recebe exames,
grava informações do paciente no banco de dados e armazena as imagens em discos ou fitas magnéticas. O servidor
deve suportar também serviços Q/R, assim como serviços
independentes para C-Store, C-Find e C-Move para comunicação com diferentes estações de trabalho.
Revista Brasileira de Física Médica. 2009;3(1):131-9.
135
Azevedo-Marques PM, Salomão SC
Apresentação de imagens
Sabe-se que a radiografia plana é a primeira modalidade de
exame radiológico de que se tem notícia. Mesmo após décadas de evolução tecnológica, ela ainda permanece ativa
respondendo por aproximadamente 70% do volume de estudos em todo o mundo. Até meados da década de 1980,
a única forma de aquisição de uma radiografia era por meio
de filme. De forma semelhante, quando outras modalidades, como ultrassom, tomografia computadorizada e ressonância magnética surgiram, ainda era necessário imprimir
as imagens em filme para visualização. Com o surgimento do PACS, percebeu-se a possibilidade da utilização de
monitores acoplados a computadores para visualização de
imagens. Os primeiros monitores padrão CRT não forneciam a qualidade necessária em comparação à de um filme
radiológico e, portanto, os fabricantes tiveram de produzir
monitores específicos para a área médica, com fósforos
especiais para atingir níveis maiores de luminância e contraste e menor distorção espacial e latência. Mais tarde, os
monitores LCD foram adotados devido ao seu baixo custo,
durabilidade e qualidade de exibição, inclusive de imagens
coloridas. As primeiras estações de trabalho PACS eram
compostas, em geral, por quatro monitores. O número de
monitores estava diretamente ligado ao costume dos radiologistas de visualizar imagens em filmes. Atualmente, a
configuração mais adotada é composta por dois monitores. Uma estação de visualização de imagens é composta
basicamente por quatro componentes de hardware: um
computador, uma placa de vídeo, monitores e dispositivos
de armazenamento. O computador da estação geralmente
possui software instalado para se comunicar com o PACS
via rede e, através da placa de vídeo, transforma os dados
de imagem armazenados para que seja possível a sua visualização nos monitores. Dependendo da aplicação, as características da estação podem se diferentes. Por exemplo,
uma estação diagnóstica para uso do radiologista precisa
de monitores de maior resolução e contraste, além de um
programa de visualização com interface amigável e funções
básicas de manipulação de imagens (janelamento, medidas
de distâncias e ângulos, entre outras). Por outro lado, uma
estação voltada para a visualização de imagens e laudos
associados fora do ambiente da radiologia pode utilizar
componentes mais simples, uma vez que a visualização
das imagens, nesse caso, possui caráter mais ilustrativo do
que diagnóstico.
Tabela 4. Relação entre disponibilidade e tempo não programado de parada de serviço
Disponibilidade Média por Média por
Média por Média por
(%)
ano (dias) mês (horas) semana (horas) dia (min)
95
18,25
36,5
8,42
72
98
7,3
14,6
3,37
28,8
99
3,65
7,3
1,69
14,4
99,9
0,365
0,73
0,17
1,44
99,99
0,0365
0,073
0,017
0,144
99,999
0,00365
0,0073
0,0017
0,0144
136
Revista Brasileira de Física Médica. 2009;3(1):131-9.
Dois conceitos são muito importantes em relação aos
equipamentos: disponibilidade e resiliência. Disponibilidade
refere-se ao período de funcionamento dos sistemas sem
paradas não programas (Tabela 4), e resiliência, à capacidade de retomada das tarefas após uma parada imprevista. Os equipamentos que compõem a estrutura do PACS
devem ter alta disponibilidade e alta resiliência.
Em relação ao fluxo de informação, existem duas arquiteturas básicas, geralmente encontradas sozinhas ou
combinadas: arquitetura centralizada (ou sob demanda)
e arquitetura descentralizada (ou roteada). A arquitetura
centralizada trabalha com o envio dos exames diretamente
para os servidores de arquivamento e, a partir destes, para
as estações de trabalho (Figura 4). Essa arquitetura possui
a vantagem de ser centralizada, facilitando o gerenciamento
e organização do serviço, e de ser mais flexível, sem depender de um fluxo de trabalho pré-determinado. Porém, é
extremamente dependente da infra-estrutura de rede e dos
equipamentos de armazenamento. A arquitetura descentralizada (Figura 5) trabalha com o envio dos exames diretamente para as estações de trabalho e, a partir delas, para
os servidores de arquivamento. As principais vantagens
dessa abordagem são a não exigência de infra-estrutura de
rede com banda muito larga e a possibilidade de acesso
mais rápido aos dados. Porém, depende de um fluxo de
trabalho pré-estabelecido e é mais complexa em relação ao
seu gerenciamento e sincronização. Independentemente
da arquitetura dos sistemas, de modo geral, as soluções
encontradas utilizam tecnologia web para possibilitar a consulta de dados em redes locais ou expandidas6.
Binômio custo-benefício
Um aspecto importante no processo de transição para
uma ambiente digital, com a implantação de um PACS,
refere-se ao estudo de viabilidade baseado na avaliação
do binômio custo-benefício. Em geral, quando se analisa
o impacto da inserção da tecnologia da informação (TI) na
área da saúde, observam-se três aspectos básicos: benefícios relacionados ao paciente, benefícios relacionados ao
diagnóstico e benefícios relacionados ao serviço.
Do ponto de vista do paciente, os ganhos possíveis
estão fundamentalmente relacionados à agilização do
atendimento, com uma melhora no fluxo de trabalho,
maior segurança nos procedimentos e a possibilidade
de humanização do atendimento, com redução de filas e
tempo de espera. Os ganhos relacionados ao diagnóstico
refletem, principalmente, as melhorias possíveis em relação à atividade dos profissionais envolvidos na cadeia de
atenção à saúde e podem ser resumidos como facilidade
de acesso a informações diversas e, consequentemente,
maior suporte à tomada de decisão, e possibilidade de
acesso à segunda opinião clínica e formativa, por meio de
protocolos de telemedicina e telerradiologia.
Os benefícios relacionados ao serviço (ou à instituição)
estão focados principalmente em aspectos financeiros
PACS: Sistemas de Arquivamento e Distribuição de Imagens
Modalidades de Exames
Servidor de dados
RAID
Arquivamento em longo prazo
Estações de Trabalho
Figura 4. Arquitetura centralizada: os exames são enviados dos equipamentos para o servidor e, então, para as estações de trabalho.
(pay-back) e englobam a possibilidade de um maior
controle de procedimentos; diminuição de perdas e repetições; diferenciação do serviço prestado; facilidade
para auditoria de processos e suporte à tomada de decisão em nível de gestão. Do ponto de vista institucional,
embora o investimento inicial em curto prazo possa ser
elevado, dependendo da solução adotada, em médio e
longo prazo os recursos investidos podem ser recuperados, inclusive com a possibilidade de financiamento de
atualizações e melhorias no sistema. Goldszal7 apresenta
um ganho da ordem de US$ 16,5 milhões na comparação
entre os custos de implantação e manutenção do PACS
(mais algum filme residual ainda existente) e o custo estimado caso se mantivesse a solução baseada em filme,
ao final de um período de oito anos de funcionamento do
Serviço de Radiodiagnóstico do Hospital Universitário da
Universidade da Pensilvânia, Filadélfia, EUA. Alternativas
possíveis de implantação que exigem menor investimento em curto prazo baseiam-se na utilização de programas
livres, como o Conquest e o K-PACS, por exemplo. O
Revista Brasileira de Física Médica. 2009;3(1):131-9.
137
Azevedo-Marques PM, Salomão SC
Modalidades de Exames
Estações de Trabalho
RAID
Servidor de dados
Arquivamento em longo prazo
Figura 5. Arquitetura descentralizada: os exames são enviados dos equipamentos para as estações de trabalho e, então, para o servidor.
Conquest é um servidor DICOM completo que foi desenvolvido no Netherlands Cancer Institute, por Marcel van
Herk e Lambert Zijp, com base em um código de domínio público (UCDMC DICOM) desenvolvido inicialmente
no Medical Center of the University of Califórnia at Davis
por Mark Oskin. O K-PACS é um visualizador de aplicação
geral que fornece ferramentas básicas de manipulação de
imagens e que possui também integradas as principais
classes de serviços DICOM, como “store”, “query/retrieval”, “send” e “move”. Outra abordagem possível, de menor impacto financeiro em curto prazo, é uma implantação
por modalidades, segundo uma filosofia modular baseada
no conceito de mini-PACS8.
Tendências futuras e comentários finais
Diagnóstico auxiliado por computador (do Inglês,
Computer-Aided Diagnosis, CAD) pode ser definido
como um diagnóstico feito por um radiologista que utiliza o resultado de análises quantitativas automatizadas
de imagens radiográficas como uma segunda opinião
para a tomada de decisões diagnósticas9. A finalidade do CAD é melhorar a precisão do diagnóstico, bem
como a consistência da interpretação da imagem radiológica, mediante o uso da resposta do computador
138
Revista Brasileira de Física Médica. 2009;3(1):131-9.
como referência10. O padrão para a utilização de sistemas especialistas em processamento de imagens médicas como CAD, ainda hoje, é baseado em estação
de trabalho isolada (standalone), sem a integração dos
resultados obtidos aos sistemas de informação ou ao
PACS. A integração de procedimentos de processamento de imagens dentro do fluxo de trabalho do PACS
tem sido objeto recente de pesquisas na área de informática de imagens médicas10-14.
Outro aspecto interessante no processo de adoção da
tecnologia digital no ambiente radiológico hospitalar diz
respeito à coordenação do processo de planejamento e
implantação dos sistemas. Existe uma controvérsia bastante grande entre a comunidade médica com relação ao
posicionamento do grupo de TI responsável pelo PACS
dentro do organograma institucional15. Do ponto de vista econômico-administrativo, a centralização da gestão
do PACS junto ao grupo de TI responsável pelos sistemas de informação parece ser a solução mais adequada.
Porém, do ponto de vista da gestão da informação dentro
do serviço de radiologia e considerando-se a grande dependência da área em relação à tecnologia, bem como
as particularidades envolvidas no gerenciamento de imagens, a organização de um serviço de TI especializado
ligado ao serviço de radiologia parece ser uma solução
mais eficiente. O que se percebe é que instituições com
PACS: Sistemas de Arquivamento e Distribuição de Imagens
foco principal na assistência tendem a privilegiar a organização integrada, baseada em sistemas comerciais e
contratos de manutenção por parte de terceiros. Em contrapartida, trabalham com equipes de TI bem reduzidas.
Por outro lado, instituições de ensino, como os hospitais
universitários, por exemplo, tendem a privilegiar a organização descentralizada e buscar o desenvolvimento e/ou
customização local de soluções livres e de código aberto, ou desenvolvidas em parceria com a iniciativa privada.
Porém, em geral, necessitam de equipes de TI com maior
número de profissionais.
Finalmente, deve-se ressaltar a necessidade de estabelecimento de procedimentos de certificação de sistemas e serviços, buscando-se garantir os aspectos de
confidencialidade, interoperabilidade e consistência nos
processos de arquivamento e distribuição de Imagens, seja
em nível local ou remoto, em conformidade com o preconizado pelo Conselho Federal de Medicina (CFM) em suas
resoluções referentes às Normas Técnicas Concernentes
à Digitalização e Uso dos Sistemas Informatizados para
Guarda e Manuseio dos Documentos dos Prontuários
dos Pacientes (CFM-1821/2007) e à Telerradiologia
(CFM-1890/2009).
Referências
1. Wiley G. The prophet motive: How PACS was developed and sold.
[Homepage on the internet]. [cited 16 Sep, 2009]. Imaging Economics,
May 2005. Available from: http://www.imagingeconomics.com/issues/
articles/2005-05_01.asp
2. Siegel EL, Kolodner RM. Filmless radiology: state of the arte and future
trends. In: Siegel EL, Kolodner RM, editors. Filmless radiology. Berlin:
Springer-Verlag, 1999. p. 3-20.
3. Horii SC. A nontechnical introduction to DICOM. [Homepage on the internet].
[cited 16 sep, 2009]. Available from: http://www.rsna.org/Technology/
DICOM/intro/index.cfm.
4. Tanenbaum AS. Redes de computadores. 4 ed. Rio de Janeiro: Campus;
2003.
5. Huang HK. PACS and imaging informatics: basic principles and applications.
Wilmington: Wiley-Liss; 2004.
6. Azevedo-Marques PM. Integração RIS/PACS no Hospital das Clínicas
de Ribeirão Preto: uma solução baseada em “web”. Radiol Bras.
2005;38(1):37-43.
7. Goldszal AF, Bleshman MH, Bryan RN. Financing a large-scale picture
archival and communication system. Acad Radiol. 2004;11(1):96-102.
8. Azevedo-Marques PM. Implantação de um mini-PACS (sistema de
arquivamento e distribuição de imagens) em hospital universitário. Radiol
Bras. 2001;34(4):221-4.
9. Azevedo-Marques PM. Diagnóstico auxiliado por computador na radiologia.
Radiol Bras. 2001;34(5):285-93.
10. Doi K. Computer-aided diagnosis in medical imaging: Historical
review,current status and future potential. Computerized Medical Imaging
and Graphics. 2007;31:198-211.
11. Cotrim DS, Marques da Silva AM, Bezerra EA. Infra-estrutura de informática
para sistemas de apoio ao diagnóstico aplicada a servidores PACS.
[Apresentado no III Simpósio de Instrumentação e Imagens Médicas – SIIM,
São Carlos, 7 a 9 de novembro de 2007].
12. Caritá EC, Seraphim E, Honda MO, Azevedo-Marques PM. Implementação
e avaliação de um sistema de gerenciamento de imagens médicas
com suporte à recuperação baseada em conteúdo. Radiol Bras.
2008;41(5):331-6.
13. Azevedo-Marques PM, Salomão SC, Traina AJM, da Silva MP, Macedo AA,
Pessotti HC. CAD-PACS integration: a framework for pattern recognition of
diffuse lung disease in HRCT. Int J CARS. 2009;4(Suppl 1):S180-S181.
14. Le AHT, Liu B, Huang HK. Integration of computer-aided diagnosis/detection
(CAD) results in a PACS environment using CAD-PACS toolkit and DICOM
SR. Int J CARS. 2009;4:317-29.
15. Channin DS, Bowers G, Nagy P. Should radiology IT be owned by the chief
information officer? J Digit Imaging. 2009;22(3):218-21.
Revista Brasileira de Física Médica. 2009;3(1):131-9.
139
Artigo de Revisão
Revista Brasileira de Física Médica. 2009;3(1):141-9.
Método de Monte Carlo: princípios
e aplicações em Física Médica
Monte Carlo Method: principles and
applications in Medical Physics
Hélio Yoriyaz1
1
Pesquisador Senior Instituto de Pesquisas Energéticas e Nucleares (IPEN-CNEN/SP) – São Paulo (SP), Brasil.
Resumo
O método de Monte Carlo tem se tornado, ao longo dos anos, uma ferramenta padrão para cálculos de dose absorvida e outras grandezas de interesse
nas áreas de terapêutica e diagnóstico da Física Médica. Este artigo faz uma breve revisão das principais aplicações deste método, abrangendo
as aplicações nas diversas modalidades de tratamento, acompanhado da descrição do surgimento dos principais códigos computacionais. Com o
intuito de introduzir o tema àqueles que desejam conhecer o método, é apresentada uma breve descrição dos conceitos básicos do método e suas
potencialidades.
Palavras-chave: Método de Monte Carlo; dosimetria computacional; Física Médica.
Abstract
The Monte Carlo method has become the main tool for absorbed dose calculation and other parameters of interest in almost all Medical Physics
areas, including therapeutic and diagnostic. This article presents a brief review of the main applications of the method, covering the applications in
several treatment modalities and accompanied by a description of the most widely used Monte Carlo codes worldwide in general and specifically in
Medical Physics. A brief presentation of the basic concepts of the method is also presented for the readers who are not acquainted with this method.
Keywords: Monte Carlo Method; computational dosimetry; Medical Physics.
Introdução
Hoje em dia, o método de Monte Carlo é uma ferramenta
matemática comumente utilizada em diversos segmentos
da ciência e da engenharia para simular problemas que
podem ser representados por processos estocásticos.
Simulações do transporte de radiação por meio deste método e, em particular, na Física Médica, têm passado por
um rápido crescimento nas últimas décadas. Ao se realizar
uma pesquisa na base de dados PubMed*, nota-se que a
primeira publicação registrada que aborda este tema data
de 1949, por Metropolis e Ulam1. A partir de então, estão
registradas 22.969 publicações e, certamente, ao passo
que o leitor corre os olhos por este artigo, o número está
aumentando. Em parte, este vertiginoso crescimento se
deve diretamente ao rápido avanço tecnológico dos computadores, que traz benefícios tanto à velocidade de processamento quanto à capacidade de armazenamento de
informações2.
* http://www.ncbi.nlm.nih.gov/sites/entrez
O método em si já era conhecido há séculos, mas
passou a ser efetivamente utilizado somente nas últimas
décadas. Pelo fato de as simulações por esse método estarem baseadas em eventos que ocorrem aleatoriamente
e, ainda, por terem uma similaridade com jogos de azar,
durante o Projeto Manhattan na Segunda Guerra Mundial,
Ulam e Von Neumann denominaram “Monte Carlo”, fazendo referência à famosa cidade de Mônaco conhecida
mundialmente como a capital dos jogos de azar3.
O método de Monte Carlo (MMC) pode ser descrito
como um método estatístico, no qual se utiliza uma sequência de números aleatórios para a realização de uma
simulação. Em termos de transporte de radiação, o processo estocástico pode ser visto como uma família de
partículas cujas coordenadas individuais mudam aleatoriamente em cada colisão. O comportamento médio dessas partículas é descrito em termos de grandezas macroscópicas, como fluxo ou densidade de partículas. O
valor esperado dessas grandezas corresponde à solução
determinística da equação de Boltzman (que rege o fenômeno de transporte de radiação). Grandezas específicas
Correspondência: Hélio Yoriyaz, Cidade Universitária, Avenida Lineu Prestes, 2.242 – Butantã, CEP 05508-000 – São Paulo (SP), Brasil, Tel.: (11) 3133-9482,
Fax: (11) 3133-9423, E-mail: [email protected]
Associação Brasileira de Física Médica®
141
Yoriyaz H
como energia depositada ou dose são derivadas destas
grandezas.
Simulações estatísticas contrastam com métodos
convencionais de discretização, que são tipicamente aplicados em sistemas de equações diferenciais parciais ou
ordinárias que descrevem o processo físico. Em muitas
aplicações práticas do MMC, o processo físico é simulado diretamente, sem necessidade de se descreverem as
equações matemáticas que representam o comportamento do sistema, sendo que o único requisito necessário é
que o processo físico possa ser descrito por funções densidades de probabilidade (PDF, do inglês probability density functions), que delineiam o processo físico do fenômeno
observado. Desta forma, a essência do MMC aplicado a
transporte de radiação consiste em estimar determinadas
quantidades, observando-se o comportamento de um número grande de eventos individuais.
O conjunto de eventos que ocorre com uma determinada partícula, desde o seu “nascimento”, ou seja, o momento
em que ela é emitida pela fonte, até o momento em que ela
“morre”, ou seja, é absorvida ou escapa do sistema, é denominado de história da partícula. Essas histórias são geradas
por meio de amostragens das PDF. Em outras palavras, solucionar um problema com o Método de Monte Carlo consiste em realizar uma simulação matemática (ou experimento
matemático) do fenômeno físico de interesse ao invés de
solucionar a equação ou conjunto de equações que o regem. Assim, qualquer cálculo de Monte Carlo é iniciado com
a criação de um modelo que representa o sistema real de
interesse (por exemplo, detector, corpo humano, etc.). A partir de então, simulam-se as interações da radiação com este
modelo por meio de amostragens aleatórias das PDF que
caracterizam esse processo físico. À medida que o número
de histórias das partículas simuladas aumenta, melhora-se a
qualidade do comportamento médio do sistema, caracterizado pela diminuição das incertezas estatísticas das grandezas de interesse. Entretanto, este método é qualificado pela
impraticabilidade em se obter a solução exata do problema,
mas o que se espera é uma boa estimativa do valor exato à
medida que um número suficientemente grande de amostragens é processado. Este aspecto explica a relação do aumento do uso dessa técnica concomitantemente ao avanço
tecnológico na área computacional.
Uma ilustração simplificada do processo de cálculo
pelo MMC pode ser visto na Figura 1. O programa de
Figura 1. Ilustração simplificada de um processo de simulação
por meio do método de Monte Carlo.
142
Revista Brasileira de Física Médica. 2009;3(1):141-9.
Monte Carlo é alimentado por um gerador de números
aleatórios utilizado para a amostragem dos vários fenômenos que ocorrem durante os processos de interesse.
Essas amostragens são realizadas através das distribuições de probabilidade conhecidas e que caracterizam
os processos referentes aos fenômenos físicos. Como
resultado, obtêm-se valores médios que estão relacionados com grandezas físicas integrais de interesse como
fluxo de partículas, deposição de energia por radiação
ou dose radioativa4.
Conceitos básicos
Função densidade de probabilidade e função
probabilidade cumulativa
Como o leitor já pode ter observado, a técnica de Monte
Carlo envolve alguns componentes primários necessários
a qualquer tipo de simulação:
a) funções densidade de probabilidade (PDF);
b) gerador de números aleatórios;
c) técnicas de amostragem;
A função densidade de probabilidade, dada por p(x), é
uma medida da probabilidade de observar x, tal que:
• p(x)≥0, desde que probabilidades negativas não tenham sentido;
• p(x) é normalizado no domínio de x, isto é:
Associado a estas funções, existem as funções probabilidade cumulativas (CPF, do inglês cumulative probability
functions), definidas como na Equação 1.
(1)
As propriedades que podem ser derivadas desta função são:
• c(xmin)=0 no início do domínio de x;
• c(xmáx)=1 no final do domínio de x.
As CPF podem ser relacionadas com números aleatórios uniformemente distribuídos, o que possibilita uma
forma de amostragem dessas funções ou distribuições.
Outra componente fundamental em processos estocásticos é o conceito de variável aleatória. Qualquer
quantidade que não pode ser especificada sem o uso
das leis de probabilidade é chamada de variável aleatória. Define-se a variável aleatória como um número real ξ
associado ao evento E. Elas são úteis porque permitem
a quantificação de processos aleatórios e facilitam a manipulação numérica, tal como a média e o desvio padrão.
Em outras palavras, uma variável aleatória é uma quantidade numérica associada a um jogo de azar, sendo que,
à medida que os vários eventos possíveis ocorrem, a
Método de Monte Carlo: princípios e aplicações em Física Médica
variável aleatória assume valores definidos. Uma variável
aleatória ξ é dita ter uma distribuição discreta se assumir apenas valores distintos x1, x2,..., cujo conjunto pode
ser finito ou infinito. Uma variável aleatória ξ é dita ter
uma distribuição contínua se ela pode assumir qualquer
valor entre os limites x1 e x2. Assim sendo, a probabilidade desta variável estar neste intervalo, P(x1<ξ<x2) é dada
pela Equação 2.
(2)
Na qual p(x) é a função densidade de probabilidade
de x.
Gerador de números aleatórios
Toda simulação de Monte Carlo é efetuada por meio
de amostragens das funções densidade de probabilidade e do uso das funções probabilidade cumulativa.
Essas amostragens são realizadas através de números
aleatórios, portanto, qualquer programa computacional
que utiliza o MMC necessita de um gerador de números
aleatórios.
Geradores de números aleatórios são baseados em
algoritmos matemáticos que geram números, cujas ocorrências obedecem a uma aleatoriedade, e que simulam a
verdadeira aleatoriedade encontrada na natureza. Neste
sentido, os números gerados por estes algoritmos são formalmente chamados de números pseudoaleatórios. Um
conjunto de números definidos dentro de um intervalo, por
exemplo [0,1], constitui uma sequência de números aleatórios se eles estiverem uniformemente distribuídos neste intervalo e se nenhuma correlação existir dentro dessa
sequência.
Durante a simulação de um problema, os números aleatórios são utilizados no processo de decisão de escolha,
quando um evento físico possui vários resultados possíveis. Uma simulação típica pode utilizar entre 107 a 1012
números aleatórios3.
Entre os métodos mais utilizados, pode-se citar o método linear congruencial, o método congruencial misto e
o método congruencial multiplicativo. O estudo de novos
algoritmos geradores de números aleatórios continua uma
área de pesquisa ativa, principalmente em aplicações nas
quais se torna crítica.
Técnicas de amostragem
Uma vez conhecidas as PDF que caracterizam os processos
físicos do fenômeno em estudo e de posse de um algoritmo
de geração de números aleatórios, é possível desenvolver
técnicas de amostragens que fazem a conexão entre as funções de probabilidade (PDF e CPF) e os números aleatórios,
r. Para isso, é preciso que se trate de uma função densidade
de probabilidade p(x) válida no intervalo [a,b]. Se essa função
é integrável neste intervalo, pode-se construir a respectiva
função probabilidade cumulativa c(x) dada pela Equação 3.
(3)
Assumindo que a função p(x) esteja normalizada, temos: c(b)=1.
Uma vez que a função c(x) varia entre 0 e 1, pode-se
mapear essa função através da variável r uniformemente distribuída neste mesmo intervalo [0,1], tal que: r=c(x).
Invertendo-se essa equação, temos: x=c-1(r). Desta forma,
é possível amostrar um valor de x da PDF a partir de um
número aleatório r. Um exemplo prático do uso desta técnica é a determinação da distância z de interação entre
uma partícula e o meio. Neste caso, a função densidade
de probabilidade que governa esse evento é dada pela
Equação 4.
p(z)dz=µe-µzdz
(4)
Na qual μ é o coeficiente de interação e z está definida
no intervalo [0≤z< ∞]. A função cumulativa c(z) correspondente é dada pela Equação 5.
c(z)=1-e-µz = r
(5)
Invertendo a equação, temos a Equação 6.
z=-1/μ log(1-r)
(6)
A restrição desta técnica é que a função p(x) seja integrável e que posteriormente a função c(x) seja analítica
ou numericamente inversível, entretanto, existem casos
em que isso não é possível ou, mesmo sendo possível,
a inversão se torna matematicamente muito complicada.
Neste caso, uma alternativa é o uso do método da rejeição5. Definindo-se o valor M como o máximo da função
p(x) em xmax, ou seja, M = p(xmáx), tal que, p(x)≤M no intervalo [a≤x≤b], escolhe-se um ponto aleatório no retângulo
formado pela base (b-a) e altura M, como mostrado na
Figura 2. Desta forma, o processo de amostragem segue
o seguinte esquema:
f(x)
M
a
b
x
Figura 2. Técnica de amostragem de uma função f(x) pelo método da rejeição.
Revista Brasileira de Física Médica. 2009;3(1):141-9.
143
Yoriyaz H
•
•
geram-se dois números aleatórios r1 e r2 e calcula-se:
x=a+r1.(b-a)
o valor de x é aceito se: r2≤p(x)/M. Caso contrário, é
rejeitado e repete-se o processo.
Muitas outras técnicas de amostragem e redução de
variância têm sido desenvolvidas e apresentadas em literatura, abrangendo uma vasta área de aplicações, desde
o uso geral6,7, bem como especificamente para simulação do transporte de radiação e em particular para física
médica5,8,9.
Outros exemplos de amostragem de funções
Seleção do nuclídeo na mistura
Seja Sn a seção de choque macroscópica total de cada
tipo de nuclídeo numa mistura composta de N nuclídeos,
e St a seção de choque total desta mistura, como visto na
Equação 7.
(7)
Seja r1 um número aleatório gerado. O nuclídeo 1 é
selecionado se o número aleatório r1<S1/St, ou então o
nuclídeo 2 é selecionado se o número aleatório for dado
pela Equação 8.
(8)
E assim sucessivamente, de forma que o i-ésimo nuclídeo será selecionado se:
(9)
Seleção do tipo de interação
Uma vez escolhido o nuclídeo, pode-se dar prosseguimento à simulação por meio da escolha do tipo de interação que a partícula sofrerá com este nuclídeo, por exemplo, entre uma reação de espalhamento e de absorção.
Para isso, seja outro número aleatório r2 gerado, e seja
Ss a seção de choque de espalhamento deste nuclídeo
selecionado. Se r2 for menor que Ss/St, ocorrerá um espalhamento; caso contrário, ocorrerá uma absorção.
Seleção do ângulo de espalhamento azimutal f
No exemplo anterior, supondo que a interação de espalhamento tenha sido escolhida, temos que a PDF correspondente é dada por f(f)=1/2p e a correspondente
CDF será:
144
Revista Brasileira de Física Médica. 2009;3(1):141-9.
(10)
Selecionando-se um número aleatório r3, obtém-se f
através da Equação 11.
r3=F(f)=f/2p, tal que: f=2pr3
(11)
A sequência de eventos acima pode continuar com a
amostragem do ângulo polar de espalhamento, seguida
pela amostragem da nova energia da partícula, após a
colisão, e assim sucessivamente. Para cada caso, o algoritmo de Monte Carlo utilizará um número ou um conjunto
de números aleatórios, gerados a partir de um gerador de
números aleatórios, para a realização da amostragem da
PDF correspondente a cada evento.
Como se pode notar, esta sucessão de amostragens,
que na verdade segue o processo sequencial natural da
interação da radiação com a matéria, constitui a simulação
de Monte Carlo. Matematicamente, é possível extrair informações sobre uma grandeza física de interesse à medida
que esta sucessão de eventos vai sendo simulada. Isso
é feito armazenando-se os valores assumidos pelas variáveis aleatórias correspondentes às grandezas físicas de
interesse em cada um dos eventos simulados.
Aplicações em física médica
O MMC tem se tornado, ao longo dos anos, uma ferramenta fundamental para cálculos de dose absorvida,
e outras grandezas de interesse, relacionados ao tratamento do câncer por radiação tanto com fontes externas
como com fontes internas. Além disso, as aplicações do
método têm se estendido para a avaliação de dose em
procedimentos diagnósticos e estudos sobre qualidades
de imagens médicas em geral.
Com o aumento da utilização deste método, também
surgiram vários códigos computacionais, alguns para
aplicações gerais e outros específicos para determinadas
áreas de pesquisa. Dentre esses códigos, podem-se citar os mais conhecidos: EGS410, MCNP-4C11, GEANT412,
PENELOPE13 entre outros. Esses códigos têm sido extensamente comparados entre si e com medidas experimentais, com o intuito de analisar a qualidade de seus
resultados em cálculos de dose absorvida, gerando muitos trabalhos publicados em literatura14-19.
Com o aumento da confiabilidade deste método,
começaram a ser desenvolvidos códigos para uso em
sistemas de planejamento em radioterapia, tais como:
PEREGRINE20,21, ORANGE22,23 e THERAPLAN24,25. Além
disso, as técnicas de Monte Carlo começaram a ser utilizadas em praticamente todas as áreas da física médica.
Nos próximos itens deste artigo, são descritas de forma
geral as suas diversas aplicações.
Aplicações em medicina nuclear
De certa forma, é consenso geral que as primeiras aplicações das técnicas de Monte Carlo em física médica
Método de Monte Carlo: princípios e aplicações em Física Médica
ocorreram na área de medicina nuclear. Desde 1968, o
comitê MIRD (Medical Internal Radiation Dose), através
da revista The Journal of Nuclear Medicine da Sociedade
Americana de Medicina Nuclear, tem publicado regularmente dados de cálculos de dose a partir de seu formalismo de cálculo, cujos dados são baseados em técnicas de
Monte Carlo. Concomitantemente aos dados publicados,
novos modelos anatômicos do corpo humano foram desenvolvidos ao longo dos anos.
Na década de 1970, Snyder et al.26 desenvolveram o
modelo antropomórfico e heterogêneo que consistia em
esferas, elipsoides e toroides seccionados para simular
os diversos órgãos internos do corpo. Em 1987, Cristy e
Eckerman27 desenvolveram uma série de modelos representando crianças de várias idades. Outros trabalhos têm
sido publicados introduzindo outras modificações em determinados órgãos, tais como sistema digestivo e reto28,
ou novos modelos dosimétricos para a região da cabeça e
cérebro29. Guimarães30 quantificou os dados antropomórficos de massa e altura para o brasileiro médio entre 20 e
40 anos de idade, dando origem ao modelo Matemático
do Homem Brasileiro para uso em dosimetria interna.
Zubal et al.31 produziram um modelo baseado em imagens de tomografia computadorizada (TC) de um paciente real para fins de pesquisa. Neste modelo, cada parte
do corpo ou órgão é constituída por pequenos volumes,
ou “voxels”, criados a partir das imagens digitalizadas. A
partir de então, muitos outros modelos começaram a ser
criados32-36. A Figura 3 mostra as comparações entre alguns modelos matemáticos de órgãos e outros baseados
em imagens tomográficas. Cada novo modelo anatômico
desenvolvido possibilitou novos cálculos de frações absorvidas para diferentes radionuclídeos de interesse em
medicina nuclear. Muitos trabalhos foram publicados nesse sentido, usando diferentes códigos de Monte Carlo37-40.
A Figura 4 mostra um exemplo de resultado obtido de cálculo de distribuição de dose dentro de um determinado
órgão ou tecido em estudo através de ferramentas computacionais que acoplam imagens médicas com códigos
de Monte Carlo.
(A)
Aplicações em radioterapia
Entre o final da década de 1930 e inicio da década de
1940, ocorreu o desenvolvimento do gerador Van de
Graaff, que possibilitou a terapia por meio de aceleradores
de megavoltagem. Após a Segunda Guerra Mundial, os
aceleradores com feixes de raio X de alta energia já eram
comuns e, a partir de então, foram desenvolvidas para
produzir também feixes de elétrons na faixa terapêutica
de 5 a 30 MeV41. À medida que os aceleradores lineares
(LINACS) foram evoluindo, tornaram-se o meio mais utilizado em radioterapia.
Em muitos aspectos, a determinação de parâmetros
dos feixes de radiação produzidos em LINACS, principalmente aqueles difíceis ou impossíveis de medir, foi realizada com o auxílio de técnicas de Monte Carlo. Além disso, a determinação da distribuição de dose em pacientes
(A)
(B)
Figura 3. Comparação de modelos matemáticos de órgãos com
obtidos por imagens de tomografia computadorizada: (A) sistema gastrintestinal e (B) pulmões.
(B)
(C)
Figura 4. Ilustração de imagens tomográficas (A) anatômicas e (B) funcionais utilizadas para determinação da distribuição de dose
(C) pelo método de Monte Carlo.
Revista Brasileira de Física Médica. 2009;3(1):141-9.
145
Yoriyaz H
que se submetem à radioterapia é um dos processos
mais importantes no tratamento e, portanto, requer alta
qualidade em seus resultados. De maneira geral, é reconhecido que as técnicas de Monte Carlo, atualmente, são as ferramentas mais precisas para a obtenção
desses resultados. Acrescentando-se o fato de que a
capacidade computacional de processadores aumentou
vertiginosamente, tornou-se possível o uso do MMC em
sistemas de planejamento em radioterapia num tempo
plausível em práticas clínicas. Os primeiros sistemas deste tipo foram implantados para radioterapia com feixes
de fótons42,21,43,25. Mais recentemente, técnicas de Monte
Carlo têm sido usadas para estudos em tratamento com
radioterapia com feixes de intensidade modulada (IMRT)
e campos pequenos44-46.
A Figura 5 mostra o exemplo de uma simulação de
Monte Carlo, usando o código MCNP-4C para tratamento com feixes de elétrons de 9 MeV na região da
cabeça e pescoço. Para viabilizar esta simulação, os
dados anatômicos do paciente real foram substituídos
pelo modelo anatômico MAX33. O espectro energético
do acelerador foi obtido pelas técnicas de reconstrução
baseadas em dados experimentais de PDP (porcentagem de dose profunda) e perfis de dose47,48. A fonte de
radiação foi posicionada de modo que o feixe incidisse
na lateral do objeto simulador, sendo que a distância
entre o plano da fonte e o plano tangencial à pele fosse
de 15 cm, (Figura 5). As distribuições de dose foram
calculadas em alguns planos perpendiculares ao eixo
central do feixe de radiação (plano YZ), sendo que o
146
plano consiste em um arranjo de 74 x 158 voxels, totalizando 11.692 voxels, onde foi computada a deposição
de energia.
As distribuições de dose (em unidades relativas) são
apresentadas em forma de imagem, onde cada cor representa um nível de dose para melhor visualização das
distribuições. As Figuras 6, 7 e 8 apresentam respectivamente os resultados de distribuição de dose obtidos por
simulação para três profundidades distintas em planos
perpendiculares ao feixe de radiação (planos YZ), 41,28;
42,72 e 43,80 cm da fonte.
Aplicações em Braquiterapia
A Braquiterapia tornou-se uma modalidade corrente a
partir do início da década de 1950. Com o início da
utilização de semente de I-125 e Pd-103 em meados
da década de 1960, verificou-se a necessidade de uma
quantificação mais apurada da distribuição de dose.
O uso das técnicas de Monte Carlo data desta época,
sendo que eram utilizadas para cálculos de distribuição de dose radial para fontes puntuais isotrópicas no
meio. No trabalho de Williamson49, no qual foi utilizado
o MMC, foi constatado que resultados obtidos por métodos semiempíricos superestimaram a dose em 10 a
14%. Uma série de outros estudos comparativos entre
medidas experimentais de dose e cálculos de Monte
Carlo comprovaram a confiabilidade dessas técnicas para a determinação de doses em Braquiterapia
tanto em meios homogêneos como em sistemas
heterogêneos50-52.
Figura 5. Irradiação de um paciente na região de cabeça-pescoço.
Figura 7. Distribuição de dose na região de cabeça-pescoço
num plano perpendicular ao feixe de radiação com distância de
42,72 cm da fonte.
Figura 6. Distribuição de dose na região de cabeça-pescoço
num plano perpendicular ao feixe de radiação, com distância de
41,28 cm da fonte.
Figura 8. Distribuição de dose na região de cabeça-pescoço
num plano perpendicular ao feixe de radiação distante 43,80
cm da fonte.
Revista Brasileira de Física Médica. 2009;3(1):141-9.
Método de Monte Carlo: princípios e aplicações em Física Médica
Em Braquiterapia intravascular, as doses recebidas por
pacientes foram avaliadas utilizando-se diversos códigos
de Monte Carlo para diferentes materiais radioativos53,54.
Em Braquiterapia oftálmica, muitos estudos também foram realizados utilizando-se fontes de Co-60, I-125, Pd103 e Ru-106, entre outros55-58.
Aplicações em diagnósticos
Recentemente, em muitos hospitais, os filmes radiográficos convencionais têm sido substituídos pela radiografia digital. Entretanto, uma das principais diferenças entre
este e os filmes convencionais é a sua variação de sensibilidade com energia do raio X, de forma que a qualidade
do espectro de emissão do raio X que produzirá a melhor qualidade de imagem é diferente daquele para filmes
convencionais59. Neste sentido, diversos estudos têm sido
realizados levando-se em conta a qualidade das imagens
e a dose efetiva recebida pelos pacientes submetidos a
estes exames. Códigos de Monte Carlo têm sido utilizados
para estabelecer correlações entre os parâmetros físicos
do sistema de imagem e as informações diagnósticas obtidas das imagens60,61. Alguns códigos, como o MCNP562
e o MCNPX63, fornecem até mesmo opções específicas
de cálculo para simulação de imagens radiográficas. Além
disso, o MMC é atualmente utilizado para avaliar e aperfeiçoar vários parâmetros relacionados à aquisição da imagem, como o espectro de raio X, geometrias adequadas e
doses de radiação.
Outros trabalhos têm quantificado as doses de radiação recebidas por pacientes que se submetem a exames
diagnósticos com tomografia computadorizada (TC)64-66.
Sabe-se que exames de TC contribuem com 34 a 41% da
dose total de radiação recebida pelos pacientes submetidos a exames diagnósticos por imagem. Esse percentual
varia de um país para outro e tende a aumentar com o a
maior utilização desses exames. Com isto, existe hoje uma
preocupação em se quantificarem as doses de radiação67.
Alguns trabalhos recentes avaliaram as doses de radiação
usando códigos de Monte Carlo a fim de determinar dados com maior precisão utilizando-se dados específicos
do paciente68,69.
Outras aplicações
Dentre muitas outras aplicações do MMC em física médica, destaca-se o papel fundamental que ele exerceu no
cálculo da razão de stopping power entre a água e o ar,
que é um parâmetro essencial para conversão de ionização em dose na água. Iniciando-se na década de 1980,
vários parâmetros relacionados à câmara de ionização foram determinados, tais como os fatores de espalhamento
e atenuação nas paredes da câmara70.
Com o passar dos anos e com o avanço tecnológico na área computacional, possibilitaram-se simulações
mais precisas com incertezas estatísticas de até 0,1%.
Com isso, novos fatores de correção puderam ser quantificados, como a não uniformidade das paredes de uma
câmara de ionização de placas paralelas2. Hoje em dia, a
avaliação da resposta de novos tipos de detectores usados em dosimetria é normalmente feita por meio da simulação pelo método de Monte Carlo71,72,73.
Na área de terapia com captura de nêutrons (BNCT),
modelos computacionais baseados no método de Monte
Carlo têm sido desenvolvidos para uso em sistemas de
planejamento e cálculo de distribuição de dose74,75.
Conclusão
A simulação pelo MMC consiste em realizar um experimento matemático. A grande diferença é que, em simulação, ao contrário de um experimento “real”, as regras
podem ser mudadas e, ainda assim, resultados realistas
serem obtidos. Técnicas de redução de variância são artifícios matemáticos que são introduzidos no processo de
amostragem e modificam essas “regras” com o intuito de
reduzir o tempo de processamento computacional e, ao
mesmo tempo, obter resultados realistas, compensando de alguma forma as mudanças introduzidas. Além do
mais, a flexibilidade e a variedade de opções de simulação
permitem que fenômenos físicos sejam “ligados” ou “desligados” para quantificar suas influências no fenômeno
observado. Esses recursos fazem com que o método se
torne extremamente útil em análises do comportamento
individual de cada tipo de evento dentro de um processo
como um todo, algo que seria impossível num experimento real, abrindo uma infinidade de possibilidades e experimentos teóricos cujo limite é a imaginação.
À medida que ocorre o avanço tecnológico na área
computacional, a técnica de Monte Carlo para uso em
transporte de radiação e, especificamente, para a área de
Física Médica, tende a aumentar. Com isso, códigos mais
sofisticados e precisos surgirão para aplicação em dosimetria e sistemas de planejamento em modalidades que
usam a radiação para tratamento de câncer.
A tendência é que áreas correlatas, como microdosimetria e nanodosimetria, também comecem a utilizar mais
intensamente modelos estocásticos de Monte Carlo para
estudar fenômenos, principalmente os mais complicados
ou impossíveis de se estudar experimentalmente. Além
disso, novas modalidades de terapia com radiação têm
sido testadas e apresentado promissores resultados, mas
estudos mais minuciosos, que novamente recorrerão a simulações computacionais, ainda são necessários.
Referências
1. Metropolis N, Ulam S. The Monte Carlo method. J Am Stat Assoc.
1949;44(247):335-41.
2. Rogers DW. Fifty years of Monte Carlo simulations for medical physics.
Phys Med Biol. 2006;51(13):R237-R301.
3. Zaidi H, Sgouros G. Therapeutic Applications of Monte Carlo Calculations in
Nuclear Medicine. London: Institute of Physics Publishing; 2003.
4. Jenkins TM, Nelson WR, Rindi A. Monte Carlo Transport of Electrons and
Photons. New York: Plenum Press; 1988.
Revista Brasileira de Física Médica. 2009;3(1):141-9.
147
Yoriyaz H
5. Morin RL. Monte Carlo Simulation in the Radiological Sciences. Florida:
CRC Press; 1988.
6. Hammersley M, Handscomb DC. Monte Carlo Methods. London: Methuen
& Co LTD; 1964.
7. Kalos MH, Whitlock PA. Monte Carlo Methods. Vol. 1. New York: John Wiley
& Sons; 1986.
8. Cashwell ED, Everett CJ. A Practical Manual on the Monte Carlo Method for
random walk problems. New York: Pergamon Press; 1959.
9. Lux I, Koblinger L. Monte Carlo Particle Transport Methods: Neutron and
Photon Calculations. Boca Raton: CRC Press; 1991.
10. Nelson WR. Hirayama H, Rogers DWO. The EGS4 code system, Report
SLAC-265. Stanford, CA: Stanford Linear Accelerator Center; 1985.
11. Briesmeister JF. MCNP - A general Monte Carlo N-particle transport code,
Version 4C Report LA-13709-M. Los Alamos National Laboratory; 2000.
12. Agostinelli S, Allison J, Amako K, Apos-tolakis J, Araujo H, Arce P et al.
GEANT4-a simulation toolkit. Nucl Instrum Methods A. 2003;506:250-303.
13. Baro J, Sempau J, Fernandez-Varea JM, Salvat F. PENELOPE: an algorithm
for Monte Carlo simulation of the penetration and energy loss of electrons
and positrons in matter. Nucl Instrum Methods. 1995;B100:31-46.
14. Love PA, Lewis DG, Al-Affan IA, Smith CW. Comparison of EGS4 and MCNP
Monte Carlo codes when calculating radiotherapy depth doses. Phys Med
Biol. 1998;43(5):1351-7.
15. Jeraj R, Keall PJ, Ostwald PM. Comparisons between MCNP, EGS4 and
experiment for clinical electron beams. Phys Med Biol. 1999;44(3):705-17.
16. Schaart DR, Jansen JT, Zoetelief J, de Leege PF. A comparison of MCNP4C
electron transport with ITS 3.0 and experiment at incident energies
between 100 keV and 20 MeV: influence of voxel size, substeps and energy
indexing algorithm. Phys Med Biol. 2002;47(9):1459-84.
17. Doucet R, Olivares M, DeBlois F, Podgorsak EB, Kawrakow I, Seuntjens J.
Comparison of measured and Monte Carlo calculated dose distributions
in inhomogeneous phantoms in clinical electrons beams. Phys Med Biol.
2003;48(15):2339-54.
18. Staelens S. Monte Carlo simulations of a scintillation camera using GATE:
validation and application modeling. Phys Med Biol. 2003;48:3021-42.
19. Pacilio M, Lanconelli N, Lo MS, Betti M, Montani L, Torres AL, et al.
Differences among Monte Carlo codes in the calculations of voxel S values
for radionuclide targeted therapy and analysis of their impact on absorbed
dose evaluations. Med Phys. 2009;36(5):1543-52.
20. Hartmann Siantar CL, Moses E. The PEREGRINE program: using physics
and computer simulation to improve radiation therapy for cancer. Eur J
Phys. 1998;19:513-21.
21. Hartmann Siantar CL, Walling RS, Daly TP, Faddegon B, Albright N,
Bergstrom P, et al. Description and dosimetric verification of the PEREGRINE
Monte Carlo dose calculation system for photon beams incident on a water
phantom. Med Phys. 2001;28(7):1322-37.
22. Van der Zee W, Hogenbirk A, van der Marck SC. ORANGE: a Monte Carlo
engine for radiotherapy. Phys Med Biol. 2005;50(4):625-41.
23. Van der Marck SC, Hogenbirk A. ORANGE, a new fast dose engine for
radiotherapy treatment planning. Rad Prot Dosim. 2005;115:517-21.
24. Cygler JE, Daskalov GM, Chan GH, Ding GX. Evaluation of the first
commercial Monte Carlo dose calculation engine for electron beam
treatment planning. Med Phys. 2004;31(1):142-53.
25. Cygler JE, Lochrin C, Daskalov GM, Howard M, Zohr R, Esche B, et al.
Clinical use of a commercial Monte Carlo treatment planning system for
electron beams. Phys Med Biol. 2005;50(5):1029-34.
26. Snyder W, Ford M, Warner G, Estimates of specific absorbed fractions for
photon sources uniformly distributed in various organs of a heterogeneous
phantom. New York: MIRD Pamphlet, n. 5, Society of Nuclear Medicine
(revised); 1978.
27. Cristy M, Eckerman K. Specific Absorbed Fractions of Energy at Various
Ages from Internal Photon Sources, Rep. ORNL/NUREG/TM-8381, V1–V7.
Oak Ridge Natl Lab TN; 1987.
148
Revista Brasileira de Física Médica. 2009;3(1):141-9.
28. Mardirossian G, Tagesson M, Blanco P, Bouchet LG, Stabin M, Yoriyaz H, et al.
A New Rectal Model for Dosimetry Applications. Med Phys. 1999;31:142-53.
29. Bouchet LG, Bolch WE, Weber DA, Atkins HL, Poston JW. A revised dosimetric
model of the adult head and brain. J Nucl Med. 1996;37(7):1226-36.
30. Guimarães MI. Comparison of specific absorbed fractions (SAF) in the
Brazilian adult male and the reference man phantoms. Cell Mol Biol (Noisyle-grand). 2002;48(5):475-85.
31. Zubal IG, Harrell CR, Smith EO, Rattner Z, Gindi G, Hoffer PB. Computerized
3-dimensional segmented human anatomy. Med Phys. 1994;21(2):299302.
32 Zankl M, Wittmann A. The adult male voxel model “Golem” segmented from
whole-body CT patient data. Radiat Environ Biophys. 2001;40(2):153-62.
33. Kramer R, Vieira JW, Khoury HJ, Lima FR, Fuelle D. All about MAX: a male
adult voxel phantom for Monte Carlo calculations in radiation protection
dosimetry. Phys Med Biol. 2003;48(10):1239-62.
34. Kramer R, Khoury HJ, Vieira JW, Loureiro EC, Lima VJ, Lima FR, et al. All
about FAX: a Female Adult voXel phantom for Monte Carlo calculation
in radiation protection dosimetry. Phys Med Biol. 2004;49(23):5203-16.
35. Lee C, Lee C. Development of the two Korean adult tomographic
computational phantoms for organ dosimetry. Med Phys. 2006;33(2):
380-90.
36. Nakayama H, Mizowaki T, Narita Y, Kawada N, Takahashi K, Mihara K, et
al. Development of a three-dimensionally movable phantom system for
dosimetric verifications. Med Phys. 2008;35(5):1643-50.
37. Yoriyaz H, dos Santos A, Stabin MG, Cabezas R. Absorbed fractions in
a voxel-based phantom calculated with the MCNP-4B code. Med Phys.
2000;27(7):1555-62.
38. Yoriyaz H, Stabin MG, dos Santos A. Monte Carlo MCNP-4B based
absorbed dose distribution estimates for patient-specific dosimetry. J
Nucl Med. 2001;42(4):662-69.
39. Chiavassa S, Aubineau-Lanièce I, Bitar A, Lisbona A, Barbet J, Franck D,
et al. Validation of a personalized dosimetric evaluation tool (Oedipe) for
targeted radiotherapy based on the Monte Carlo MCNPX code. Phys Med
Biol. 2006;51(3):601-16.
40. Stabin M. Nuclear medicine dosimetry. Phys Med Biol.
2006;51:R187-R202.
41. Hogstrom KR, Almond P. Review of electron beam therapy physics. Phys
Med Biol. 2006;51(13):R455-R489.
42. Ma CM, Li JS, Pawlicki T, Jiang SB, Deng J, Lee MC, et al. A Monte Carlo
dose calculation tool for radiotherapy treatment planning. Phys Med Biol.
2002;47(10):1671-90.
43. Fippel M. Fast Monte Carlo dose calculation for photon beams based on
the VMC electron algorithm. Med Phys. 1999;26(8):1466-75.
44. Pisaturo O. A Monte Carlo-based procedure for independent monitor
unit calculation in IMRT treatment plans. Phys Med Biol. 2009;54(13):
4299-310.
45. Lin MH, Chao TC, Lee CC, Tung CJ, Yeh CY, Hong JH. Measurement-based
Monte Carlo dose calculation system for IMRT pretreatment and on-line
transit dose verifications. Med Phys. 2009;36(4):1167-75.
46. Kry SF. Monte Carlo study shows no significant difference in second
cancer risk between 6- and 18-MV intensity-modulated radiation therapy.
Radiother Oncol. 2009;91(1):132-7.
47. Ma C, Faddegon BA, Rogers DW, Mackie TR. Accurate characterization
of Monte Carlo calculated electron beams for radiotherapy. Med Phys.
1997;24(3):401-16.
48. Ma C. Characterization of computer-simulated radiotherapy beams for
Monte Carlo treatment planning. Radiat Phys Chem. 1998;329-44.
49. Williamson JF. Monte Carlo evaluation of specific dose constants in water
for 125I seeds. Med Phys. 1998;15(5):686-94.
50. Williamson JF. Comparison of measured and calculated dose rates in
water near I-125 and Ir-192 seeds. Med Phys. 1991;18(4):776-86.
51. Perera H, Williamson JF, Li Z, Mishra V, Meigooni AS. Dosimetric
Método de Monte Carlo: princípios e aplicações em Física Médica
52.
53.
54.
55.
56.
57.
58.
59.
60.
61.
62.
63.
characteristics, air-kerma strength calibration and verification of Monte
Carlo simulation for a new ytterbium-169 brachytherapy source. Int J
Radiat Oncol Biol Phys. 1994;28(4):953-71.
Das RK, Keleti D, Zhu Y, Kirov AS, Meigooni AS, Williamson JF. Validation
of Monte Carlo dose calculations near 125I sources in the presence
of bounded heterogeneities. Int J Radiat Oncol Biol Phys. 1997;38(4):
843-53.
Campos L, Stabin M. Intravascular brachytherapy to prevent restenosis:
dosimetric considerations. Cell Mol Biol (Noisy-le-grand). 2002;48(5):
429-39.
Mourtada F, Soares CG, Seltzer SM, Bergstrom PM Jr, Fernández-Verea
JM, Asenjo J, et al. Dosimetry characterization of a 32P source wire used
for intravascular brachytherapy with automated stepping. Med Phys.
2003;30(5):959-71.
Cross WG, Hokkanen J, Järvinen H, Mourtada F, Sipilä P, Soares CG, et
al. Calculation of beta-ray dose distributions from ophthalmic applicators
and comparison with measurements in a model eye. Med Phys.
2001;28(7):1385-96.
Chiu-Tsao S-T, Anderson LL, O‘Brien K, Stabile L, Liu JC. Dosimetry for
125
I seed (model 6711) in eye plaques. Med Phys. 1993;20(2 pt 1):383-9.
Glecker M, Valentine JD, Silberstein EB. Calculating lens dose and surface
dose rates from 90Sr ophthalmic applicators using Monte Carlo modeling.
Med Phys. 1998;25(1):29-36.
Yoriyaz H, Sanchez A, Santos A. A new human eye model for ophthalmic
brachytherapy dosimetry. Radiat Prot Dosim. 2005;115(1-4):316-9.
Correa SCA, Souza EM, Silva AX, Lopes RT, Yoriyaz H. Dose-image quality
study in digital chest radiography using Monte Carlo simulation. Appl
Radiat Isot. 2008;66(9):1213-7.
Peplow DE, Verghese K. Digital mammography image simulation using
Monte Carlo. Med Phys. 2000;27(3):568-79.
Ullman G, Sandborg M, Dance DR, Hunt RA, Alm Carsson G. Towards
optimization in digital chest radiography using Monte Carlo modeling.
Phys Med Biol. 2006;51(11):2729-43.
Brown FB. MCNP - a general Monte Carlo N-particle transport code,
version 5 Report LA-UR-03-1987. Los Alamos, NM: Los Alamos National
Laboratory; 2003.
Pelowitz DB. MCNPX User’s manual, version 2.5.0 LA-CP-05-0369. Los
Alamos National Laboratory; 2005.
64. Shope TB, Gagne RM, Johnson GC. A method for describing the doses
delivered by transmission x-ray computed tomography. Med Phys.
1981;8(4):488-95.
65. Huda W, Scalzetti EM, Roskopf M. Effective doses to patients undergoing
thoracic computed tomography examinations. Med Phys. 2000;27(5):
838-44.
66. Huda W, Lieberman KA, Chang J, Roskopf ML. Patient size and x-ray
technique factors in head computed tomography examinations. I.
Radiation doses. Med Phys. 2004;31(3):588-94.
67. Salvado M, López M, Morant JJ, Calzado A. Monte Carlo calculation of
radiation dose in CT examinations using phantom and patient tomographic
models. Radiat Prot Dosim. 2005;114:364-8.
68. Perisinakis K, Tzedakis A, Damilakis J. On the use of Monte Carlo-derived
dosimetric data in the estimation of patient from CT examinations. Med
Phys. 2008;35(5):2018-28.
69. DeMarco JJ, Cagnon CH, Cody DD, Stevens DM, McCollough CH, Zankl
M, et al. Estimating radiation doses from multidetector CT using Monte
Carlo simulations: effects of different size voxelized patient models on
magnitudes of organ and effective dose. Phys Med Biol. 2007;52(9):
2583-97.
70. Nath R, Schultz RJ. Calculated response and wall correction factors for
ionization chambers exposed to 60Co gamma rays. Med Phys. 1981; 8:
85-93.
71. Wang LLW, Rogers DWO. Monte Carlo study of Si diode response in
electron beams. Med Phys. 2007;34(5):1734-42.
72. Siegbahn EA, Bräuer-Krisch E, Bravin A, Nettelbeck H, Lerch ML,
Rosenfeld AB. MOSFET dosimetry with high spatial resolution in intense
synchrotron-generated x-ray microbeams. Med Phys. 2009;36(4):
1128-37.
73. Chow JC, Leung MK. Monte Carlo simulation of MOSFET dosimeter for
electron backscatter using the GEANT4 code. Med Phys. 2008;35(6):
2383-90.
74. Kumada H, Nakamura T, Komeda M, Matsumura A. Development of a new
multi-modal Monte-Carlo radiotherapy planning system. Appl Radiat Isot.
2009;67(7-8 Suppl):S118-21.
75. Chin MP, Spyrou NM. A detailed Monte Carlo accounting of radiation
transport in the brain during BNCT. Appl Radiat Isot. 2009;67(7-8
Suppl):S164-7.
Revista Brasileira de Física Médica. 2009;3(1):141-9.
149
Artigo de Revisão
Revista Brasileira de Física Médica. 2009;3(1):151-6.
O Programa Nuclear Brasileiro
e a Física Médica no Brasil
The Brazilian Nuclear Program and
the consequences for Medical Physics
Odair Dias Gonçalves1
1
Doutor em Física pela Universidade Federal do Rio de Janeiro; Presidente da Comissão Nacional de Energia
Nuclear (CNEN)
Resumo
O uso de processos nucleares ou radioativos na Medicina é anterior ao grande desenvolvimento da energia nuclear que ocorreu a partir da Segunda
Guerra Mundial. Entretanto, impulsionado por esse progresso, o desenvolvimento de novas técnicas nucleares e o crescimento cada vez maior de
sua utilização ocorrem concomitantemente. O mesmo acontece para o Brasil. O que não ocorreu simultaneamente foi a evolução dos procedimentos
de segurança de modo a garantir a minimização dos riscos que, em todo o mundo, surgem primeiro na área de energia e apenas em décadas
posteriores na Medicina. A evolução das duas vertentes, médica e energética, é abordada neste artigo, no qual se procura fazer uma breve análise
do atual Programa Nuclear Brasileiro e suas consequências na área médica.
Palavras-chave: programa nuclear; Física Médica; regulação nuclear; produção de radiofármacos.
Abstract
The use of radioactive materials or nuclear phenomena in Medicine begun before the Second World War; since then, the knowledge about nuclear
power has been through a huge development. Impelled by the development of nuclear power plants, the application of nuclear techniques and
processes in Medicine also had a similar progress, as the same happened in Brazil. On the other hand, the parallel evolution did not happen in
developing ways to guarantee the safe and secure use of such knowledge, which grew in the energy field faster and earlier than in Medicine.
This paper attempts to make a brief analysis of the progress in both fields throughout time, emphasizing the Brazilian Nuclear Program and its
consequences on the field of Medical Physics.
Keywords: nuclear program; Medical Physics; regulatory actions in the nuclear area; radiopharmaceutical production.
Introdução
O objetivo deste artigo é informar os leitores sobre o Programa
Nuclear Brasileiro e suas implicações na Física Médica no
Brasil e na profissão do físico médico, principalmente nas
áreas de radiodiagnóstico, medicina nuclear, radioterapia e
regulação do setor.
A área nuclear, que esteve marginalizada nas ações governamentais durante quase 15 anos, foi resgatada pelo atual
governo em 2004 e, desde então, vem sendo objeto de intenso debate.
A retomada dessa discussão no Brasil foi motivada, inicialmente, pela necessidade de se decidir sobre a continuidade ou não da construção do terceiro reator nuclear em Angra
dos Reis, um projeto para o qual grande parte dos equipamentos já foi comprada e encontra-se estocada no país.
Coincidentemente, um ano depois, no mundo todo, ressurgiu a discussão sobre a energia nuclear, motivada pela
necessidade de geração de mais energia elétrica tanto em
países desenvolvidos como em países em desenvolvimento
e pelas descobertas sobre o efeito das energias termoelétricas no ecossistema e em sua relação com o efeito estufa.
Internacionalmente, a retomada da discussão sobre energia
nuclear passou a ser conhecida como “Renascença Nuclear”.
Pensar em como a retomada das atividades nucleares no
mundo e no Brasil afetam e interferem na Física Médica, em
particular na Física Médica do Brasil, é o objetivo deste artigo,
com a ressalva de que abordaremos apenas os aspectos da
Física Médica relacionados a processos nucleares e à regulação exercida pela CNEN.
O Programa Nuclear e a Física Médica no
Brasil até 2003
Por ocasião da Segunda Guerra Mundial, a área nuclear,
cujas pesquisas começaram no início do século 20, teve
uma evolução excepcional com o desenvolvimento das
Correspondência: Comissão Nacional de Energia Nuclear, Rua General Severiano, 90, CEP 22290-901 – Rio de Janeiro (RJ), Brasil – e-mail: [email protected]
Associação Brasileira de Física Médica®
151
Gonçalves OD
bombas nucleares, desenvolvimento que acabou gerando
também a tecnologia de reatores nucleares de potência
para a geração de energia núcleo-elétrica. O Brasil iniciouse na pesquisa nuclear com vistas à geração elétrica antes
mesmo de 1940, e os marcos institucionais foram a criação
do Conselho Nacional de Pesquisa (CNPq) em 1953, inicialmente devotado à área nuclear, e a criação da Comissão
Nacional de Energia Nuclear em 1956. As ações brasileiras
na área nuclear enfrentaram, ao longo da história, reações
de países que não desejavam que o Brasil possuísse armas
nucleares e se tornasse um forte competidor num mercado
de grande valor econômico e estratégico. Apesar disso e da
forte oposição interna em setores políticos, durante alguns
governos, nossa capacidade na área se desenvolveu e foi
estabelecida com sucesso.
O Brasil é hoje um dos poucos países do mundo a
dominar todo o processo de fabricação de combustível
para usinas nucleares e um dos três, ao lado de Estados
Unidos e Rússia, a dominar o processo de enriquecimento
e a ter reservas significativas de urânio. Entretanto, ainda
fazemos a conversão no Canadá e o enriquecimento na
Europa, principalmente devido à desaceleração dos empreendimentos iniciados na década de 1970.
As reservas de urânio já confirmadas são de cerca de
300 mil toneladas e estão entre as seis maiores do mundo.
Em termos energéticos, mesmo com apenas um terço do
território do País prospectado, as reservas de urânio são
da mesma ordem de grandeza das reservas conhecidas
(sem considerar o pré-sal) em petróleo e seriam suficientes
para manter em funcionamento 10 reatores de 1.000 MW
por cerca de 200 anos.
O Brasil investiu na geração eletronuclear em dois períodos: na década de 1970, quando foi construída Angra
I, e na década de 1980, quando foi firmado o acordo com
a Alemanha para a construção de oito reatores. Não se
pode afirmar que o acordo foi um sucesso, pois resultou apenas em Angra II, que só entrou em operação em
2000, e na aquisição de grande parte do equipamento de
Angra III, hoje devidamente estocado ao custo de cerca
de US$ 20 milhões anuais. As razões do insucesso são
várias, mas é importante dizer que, nas décadas de 1970
e 1980, o país não necessitava produzir energia elétrica
a partir da nuclear, dado o amplo potencial hidroelétrico,
sendo que as razões para a opção tinham um caráter mais
estratégico.
A situação hoje é diferente. Como as reservas hídricas
situam-se principalmente na Amazônia, em áreas de grandes reservas indígenas e ecológicas que impedem a construção de grandes reservatórios, existe a necessidade
de diversificação da matriz de produção de eletricidade.
Soma-se a isso o fato de o volume de água dos reservatórios apresentar queda acentuada no período de setembro
a novembro, e de o preço da eletricidade núcleo-elétrica
ser hoje competitivo, mesmo em relação ao gás e ao carvão, ambos poluentes, e pode-se começar a entender a
necessidade de dar maior relevância ao papel da energia
nuclear na matriz energética.
152
Revista Brasileira de Física Médica. 2009;3(1):151-6.
As razões que atestam essa necessidade, no caso
brasileiro, constam nos estudos da Empresa de Pesquisa
Energética (EPE) do Ministério de Minas e Energia, publicados no Plano Decenal de Energia 2007-2016 e no Plano
Nacional de Energia 2030. Os estudos traçam diversos
cenários, concluindo pela necessidade de construção de
Angra III e de outras quatro a oito novas usinas até 2030,
dependendo do crescimento da demanda*.
Por outro lado, a Física Médica surgiu, epistemologicamente, quando pela primeira vez se aplicaram princípios
da Física à Medicina. Por mais que seja discutido quando isso aconteceu, certamente foi muito antes de 1945,
podendo a criação da Física Médica ser atribuída talvez
a Leonardo da Vinci no século 16, conforme diversos
autores.
Com o passar do tempo, as aplicações da Física à
Medicina aumentaram sua abrangência e aplicabilidade
tanto como instrumento diagnóstico como terapêutico. A
discussão sobre a história da Física Médica, assim como
a delimitação de suas fronteiras, é complexa e foge ao
escopo deste trabalho.
Ao contrário da geração de energia elétrica, a aplicação das Ciências Nucleares à Medicina passou pelo período da Segunda Guerra Mundial (1939-1945) e da explosão das bombas de Hiroshima e Nagasaki (1945) sem ser
contaminada pelo preconceito que passou a acompanhar
a discussão dos programas nucleares, inclusive no Brasil.
Naturalmente, a evolução das Ciências Nucleares interferiu nas técnicas utilizadas pela Física Médica, e não
é por acaso que países que haviam investido fortemente
em programas nucleares endógenos tenham apresentado
maior desenvolvimento nas aplicações da nova tecnologia
à área médica.
O mesmo não ocorreu com a preocupação com a segurança e a regulação. Enquanto o mundo discutia como
evitar que mais países desenvolvessem conhecimentos e
tecnologias que pudessem levá-los à construção de armas nucleares (as chamadas salvaguardas), a proliferação
do uso de técnicas nucleares na medicina cresceu sem
qualquer restrição. Apenas após alguns anos a Agência
Internacional de Energia Atômica (AIEA) começou a discutir procedimentos que, uma vez adotados, garantiriam a
segurança física e radiológica do público, dos profissionais
e do meio ambiente.
Isto permite compreender as razões pelas quais as
primeiras normas da CNEN na área de reatores e materiais nucleares datam de 1965 e 1969 (Resolução CNEN
03/65, sobre minérios nucleares e materiais de interesse
nuclear e Resolução CNEN 09/69, “Normas para Escolha
de Locais para Reatores de Potência”), enquanto as primeiras normas com temas relacionados à área de aplicações médicas foram emitidas apenas em 1973 e 1984
(“Normas Básicas de Proteção Radiológica”, Resolução
CNEN 06/73, precursora da atual Norma NN 3.01 com o
mesmo título e “Licenciamento de Instalações Radiativas”,
* Consultar www.epe.gov.br.
O Programa Nuclear Brasileiro e a Física Médica no Brasil
Norma NE 6.02/1984). Essas datas são aproximadamente
as mesmas das recomendações da AIEA sobre o assunto.
Outra evidência da preocupação tardia com as aplicações da energia nuclear à medicina é que, ainda hoje,
não existe consenso sobre as medidas de proteção de
pacientes, assunto amplamente discutido nas seções e
seminários da AIEA.
Ao se fazer a correlação entre a Física Médica, a área
nuclear e a CNEN, torna-se necessária a ressalva de que
o físico médico, diferentemente de outras profissões, não
se define simplesmente como aquele que trabalha com
Física Médica; trata-se de uma profissão que é bem delimitada e que exige funções e capacidades relativamente
fáceis de serem enumeradas. A influência da evolução
da energia nuclear na Física Médica se dá principalmente
na área de segurança e controle, o que, por sua vez,
influencia a regulamentação da profissão e os requisitos
exigidos do profissional, e que pode variar em cada país.
No Brasil, essa regulação é exercida pela CNEN e pela
Associação Brasileira de Física Médica (ABFM), que credenciam o supervisor de proteção radiológica e o físico
médico, respectivamente. As duas atividades dessas
duas categorias profissionais têm grande grau de superposição e, às vezes, são exercidas pela mesma pessoa.
As normas da CNEN e da Agência Nacional de Vigilância
Sanitária (ANVISA) exigem a existência das duas ações
em clínicas e hospitais para que o licenciamento seja
aprovado. As regulamentações sobre o assunto datam
da década de 1980 e devem-se muito à atuação da
ABFM, já que, até 2004, a CNEN era responsável apenas
por algumas questões na prova de habilitação de físico
médico da ABFM. Aqueles que fossem aprovados poderiam, apenas a partir de uma requisição, obter a certificação de supervisor.
Para terminar esta breve reflexão sobre as ações do
Programa Nuclear Brasileiro (PNB) anterior a 2003, é necessário dizer que a mesma desaceleração que chegou
a colocar o PNB em risco motivou a busca por novas
formas de geração de recursos financeiros por parte dos
Institutos da CNEN, o que levou a um grande desenvolvimento na área de produção e manipulação de radioisótopos e radiofármacos.
pelo Ministério de Minas e Energia (MME), e que conta
com a participação de diversos outros Ministérios, decidiu
pela retomada da construção de Angra III.
No início de 2008, a Ministra da Casa Civil, Dilma
Roussef, assumiu a liderança do processo de discussão do Programa Nuclear, constituindo o Comitê de
Desenvolvimento do Programa Nuclear (CDPNB), composto por doze Ministros: Ministro da Casa Civil, das
Minas e Energia, da Ciência e Tecnologia, da Defesa, da
Saúde, da Indústria e Comércio, das Relações Exteriores,
do Planejamento, do Meio Ambiente, do Gabinete
de Segurança Institucional, da Secretaria de Política
Estratégica e da Agricultura.
Ao longo de 2008, o comitê aprovou propostas nas
áreas de produção de energia elétrica, rejeitos, ciclo do
combustível, medicina, agricultura, indústria e inovação,
estrutura organizacional, capacitação de recursos humanos e cooperação internacional. À medida que as propostas iam obtendo consenso, eram então submetidas ao
Presidente da República para apreciação.
As propostas aprovadas englobam as sugestões de
construção de pelo menos mais quatro usinas além de
Angra III, prevêem a autossuficiência na produção de
combustível em 2014, a construção de depósito final de
rejeitos de média e baixa atividades até 2018, de projeto
para o depósito de longo prazo de combustíveis usados
até 2014, de um novo reator de pesquisa multipropósito,
que nos trará a autossuficiência na produção de radiofármacos até 2015, reforço da área reguladora, programas de formação de pessoal e diversas outras medidas,
e, finalmente, a criação da Agência Reguladora Nuclear
Brasileira, separando as atividades de promoção e regulação da CNEN.
O PNB e a Física Médica no Brasil hoje
A retomada do Programa Nuclear Brasileiro
Quatro linhas de ação do PNB dizem respeito, mais de
perto, às atividades relacionadas à Física Médica e à profissão do físico médico. São elas:
• revisão do arcabouço legal de Regulação,
Licenciamento, Fiscalização e Certificação;
• criação da Agência Reguladora Nuclear Brasileira;
• produção de radiofármacos;
• construção de um reator multipropósito brasileiro.
O Ministério da Ciência e Tecnologia coordenou, em 2004,
um Grupo de Trabalho encarregado de rever o Programa
Nuclear e formular planos de médio prazo. O grupo apresentou um plano para ser executado em 18 anos que objetivava o fortalecimento de todas as atividades da área
nuclear.
A proposta foi motivo de ampla discussão em
Ministérios afeitos à questão, nas duas câmaras do
Legislativo e na mídia. No final de 2007, o Conselho
Nacional de Política Energética (CNPE), órgão encarregado da elaboração de políticas na área de energia, liderado
Revisão do arcabouço legal de regulação,
licenciamento, fiscalização e certificação
O arcabouço legal da regulação nuclear tem como objetivo garantir a segurança radiológica da população, dos
profissionais, dos pacientes e do meio ambiente e também a segurança física, que corresponde às medidas de
proteção física de fontes e equipamentos, de maneira a
impedir que venham a ser utilizados para fins deliberadamente prejudiciais à população ou ao Estado.
Essa preocupação se traduz em um conjunto de normas editadas pela CNEN e pela ANVISA, cuja observância
Revista Brasileira de Física Médica. 2009;3(1):151-6.
153
Gonçalves OD
é fiscalizada pela CNEN e pelas Vigilâncias Sanitárias
Estaduais (VISAs) estaduais ou municipais.
A segurança nuclear é constantemente aperfeiçoada,
sendo fruto de um esforço internacional, com projetos e
sistemas cada vez mais confiáveis, procurando reduzir as
possibilidades de falhas e acidentes. Para que um equipamento receba sua licença de construção e operação,
o operador tem que provar que a instalação é segura em
qualquer cenário. A variedade e amplitude dos cenários
a serem considerados dependem, naturalmente, do risco
associado à atividade.
No Brasil, esse controle é de responsabilidade da
CNEN, que licencia e inspeciona todas as instalações que
utilizam material nuclear, inclusive as médicas e industriais.
Além disso, a CNEN credencia os profissionais responsáveis pela segurança e que, por lei, devem ter um vínculo
formal ou fazer parte do corpo de funcionários da instalação. Como foi dito, até 2004, a habilitação do físico médico e do supervisor de proteção radiológica (SPR) era feita
a partir da aplicação de uma única prova, cuja responsabilidade maior pelas questões cabia à ABFM. A partir de
2004, inclusive motivada pela perspectiva de retomada do
PNB e pela necessidade de revisão do arcabouço legal,
a CNEN resolveu assumir completamente as funções de
credenciadora dos SPR para a medicina nuclear que teve
o primeiro exame de SPR realizado em 2006, sendo que,
até então, a função de SPR nesta área era delegada ao
médico responsável pela instituição.
Outras iniciativas em curso dizem respeito à revisão
de todas as normas da CNEN. As regulações vêm sendo
editadas há 40 anos e, apesar de modificadas sempre que
necessário, nunca foi feita uma revisão conjunta para verificar possíveis inconsistências no arcabouço legal como
um todo. Pretende-se concluir esse trabalho até meados
de 2010, procedendo ao processo de discussão pública
daquelas que necessitam mudanças, sempre da maneira
mais transparente e ágil possível, o que tem sido facilitado
pela realização de eventos públicos de discussão, como
o Primeiro Encontro Nacional de Informação Regulatória,
realizado em dezembro de 2005 no Rio de Janeiro, e sua
segunda versão, que ocorrerá concomitantemente ao
Encontro Nacional de Energia Nuclear em setembro próximo no Rio de Janeiro.
Criação da Agência Reguladora Nuclear Brasileira
Parte da discussão sobre o arcabouço legal, a criação da
Agência Reguladora merece ser destacada. Nas discussões do Comitê de Desenvolvimento, essa foi a primeira sugestão a ter consenso. A principal razão da criação
da Agência Reguladora Nuclear Brasileira (ARNB) não se
deve a uma possível ineficiência do processo de regulação, mas à perspectiva de crescimento da área nuclear.
A opção de se criar uma Agência reguladora independente da CNEN vem sendo usada como bandeira por diversos setores com diferentes motivações, muitas vezes
em interesse próprio. Um dos argumentos é o de que,
uma vez que a CNEN é promotora da área nuclear, isso
154
Revista Brasileira de Física Médica. 2009;3(1):151-6.
impediria a autarquia de exercer um controle independente sobre as empresas e institutos de pesquisa. Na defesa
deste ponto de vista, constantemente são feitas interpretações equivocadas, como o ocorrido recentemente em
auditoria realizada pelo Tribunal de Contas de União.
Recentemente, a mídia divulgou questionamento do
TCU sobre a eficácia e cobertura das ações de fiscalização da CNEN, e cabem alguns esclarecimentos sobre a
questão. A auditoria do TCU considerou como instalações que deveriam ter sido inspecionadas as instalações
de baixo risco, as quais, segundo a instrução normativa
IN-DRS-0007, estão isentas dessa forma de controle.
Considerou, também, como instalações ativas, algumas
instalações inativas que ainda constavam no cadastro da
CNEN, por não terem requerido baixa oficial, e que portanto não possuem autorização de funcionamento válida. A
realidade, já demonstrada ao TCU, é que apenas 6% das
instalações de alto risco e 3,5% das instalações de médio
risco estão com as autorizações vencidas. Mais da metade dessas instalações estão em processo de renovação.
As cinco (2%) instalações de alto risco e seis (1,5%) de
médio risco, que não vêm renovando sua licença, já foram
notificadas. Todas permanecem sob inspeção. É importante ressaltar que o sistema regulatório na área médica
foi objeto de avaliação procedida pela AIEA em 2006. A
AIEA aprovou e elogiou a estrutura e prática do sistema
regulatório brasileiro, fazendo apenas alguns reparos já
implementados.
Portanto, podemos afirmar que a razão da criação da
Agência não se apoia na existência de problemas no sistema de regulação, mas no aumento das demandas futuras
provenientes do crescimento e da importância do setor
nuclear na sociedade brasileira.
O projeto da ARNB é simples e baseado na atual estrutura da Diretoria de Radioproteção e Segurança
(DRS) da CNEN, adaptado à lei que rege as Agências
Reguladoras Brasileiras. O projeto foi submetido à apreciação dos diversos Ministérios que têm alguma relação
com o assunto e deve em breve ser submetido à Casa
Civil, que o encaminhará ao Congresso, onde finalmente
será objeto de discussão pública. Uma vez aprovado, será
necessária a contratação de servidores na área de gestão
administrativa, bem como a aquisição de bens e imóveis.
Para não haver solução de continuidade durante este processo, teremos um período de transição no qual, atuando
com independência, a ARNB poderá funcionar hospedada
pela CNEN.
Como novidade, o projeto incorpora uma nova gama
de sanções e multas pecuniárias para instalações que
porventura desobedeçam às normas, o que era, até agora, um dos grandes problemas na regulação, já que a única alternativa de penalidade era a suspensão da licença e,
portanto, do funcionamento da instalação.
Produção de radiofármacos
A medicina nuclear brasileira ganhou importância crescente nos últimos anos, acompanhando a tendência mundial.
O Programa Nuclear Brasileiro e a Física Médica no Brasil
Dentre as contribuições para a saúde da população brasileira, destaca-se seu papel na Oncologia e na Cardiologia.
Atualmente, a medicina nuclear brasileira atende a 3.600
mil procedimentos por ano, ou seja, aproximadamente 10
mil por dia, sempre sob a supervisão do físico médico e
do SPR.
A CNEN produz radiofármacos em três de seus institutos e passará a ter quatro com o início de produção de
FDG em Recife, Pernambuco.
O Instituto de Pesquisas em Energia Nuclear (IPEN/
CNEN), localizado na cidade de São Paulo, além da maior
linha de produção de radiofármacos, preparada para importação e manipulação de diversos radiofármacos, dispõe de dois cíclotrons, um utilizado para produção de
Gálio-67, Tálio-201, Iodo-123 e Flúor-18 (FDG) e outro
dedicado apenas à produção da FDG, instalado em 2007.
O Instituto de Engenharia Nuclear (IEN/CNEN), localizado na cidade do Rio de Janeiro, possui dois cíclotrons,
um CV-28, de energia variável, cuja energia máxima é de
24 MeV para prótons, inaugurado em 1974 e direcionado para a produção de Iodo-123; e o cíclotron RDS 111,
instalado em 2003 e dedicado à produção do Flúor-18.
O CV-28 opera também como alternativa ao RDS-111 na
produção de Flúor-18.
O Centro de Desenvolvimento de Tecnologia Nuclear
(CDTN/CNEN), localizado em Belo Horizonte, inaugurou,
em 2008, um cíclotron de 16,5 MeV para produção de
Flúor-18.
Está prevista para setembro de 2009 a inauguração,
com a presença do Presidente da República, da unidade
de produção do Centro Regional de Ciências Nucleares
do Nordeste (CRCN-NE) da CNEN, localizado em Recife,
de mais um cíclotron de 18 MeV e de uma unidade de
produção de Flúor-18. Desta forma, a CNEN amplia e regionaliza a produção de radiofármacos no país.
Além desses, como a produção de radioisótopos de
meia-vida curta está aberta para a iniciativa privada, já
existem mais dois centros produzindo FDG e outros dez
em fase de licenciamento.
Uma das propostas da CNEN/MCT, juntamente com
o Ministério da Saúde, é a constituição de uma empresa
estatal que se responsabilize pela produção e comercialização dos radiofármacos produzidos ou importados pela
CNEN, uma vez que a gestão de um processo produtivo
dentro de uma autarquia oferece diversas dificuldades de
gerência que poderiam ser evitadas numa estrutura empresarial. Essa proposta ainda não é consensual.
A crise mundial no fornecimento de geradores
de tecnécio
Um exemplo de problema que poderia ser enfrentado de
maneira mais eficiente em outra estrutura institucional é a
atual crise mundial de fornecimento do Molibdênio 99, um
isótopo obtido a partir da fissão do urânio e insumo básico
na fabricação de geradores de tecnécio 99m, fundamentais em uma série de exames de radiodiagnóstico. O Mo99 tem uma meia-vida de 66 horas e o tecnécio 99m de
6 horas. O Brasil não produz Mo-99 e depende de sua
importação, feita pelo IPEN/CNEN-SP, única instituição
brasileira com uma radiofarmácia preparada, processo
produtivo adequado e que vem atendendo a 100% da demanda de Tc99m por mais de 10 anos. O Brasil consome
aproximadamente 5% da produção mundial de Mo-99, ao
custo de 20 milhões de dólares por ano. Vale ressaltar que
todos os reatores que produzem hoje Mo-99 têm mais de
40 anos.
Em meados de 2008, dois reatores que foram construídos no Canadá, MAPLE I e II, da empresa MDS
Nordion, não puderam ser licenciados, causando à empresa um prejuízo de centenas de milhões de dólares.
Coincidentemente, em 2008 encerrou-se o contrato de
fornecimento de Mo-99 com a MDS Nordion, ocasião em
que esta empresa declarou não mais se interessar em fornecer o material ao preço de aquisição que vinha sendo
pago pela CNEN.
Tal decisão exigiu que a CNEN contratasse uma aquisição emergencial por três meses, enquanto realizava
uma nova licitação internacional. No contrato emergencial
firmado (para o período entre setembro e novembro de
2008), o preço obtido foi 82% superior ao que vinha sendo
praticado. Na licitação internacional, a única empresa candidata e portando vencedora, foi a mesma MDS Nordion,
apesar dos convites enviados aos países produtores. O
preço negociado na licitação, encerrada em dezembro de
2008, passou a ser 138% superior (em dólares) ao que
vinha sendo praticado um ano antes. A CNEN aumentou o
preço em apenas 70%, absorvendo parte significativa do
aumento. O Ministério da Saúde reajustou a tabela de pagamento pelos exames que usavam Tc, evitando prejuízo
para hospitais e clínicas.
Em maio de 2009, foi observado um vazamento no
reator NRU do Canadá, interrompendo suas atividades.
A previsão de parada de 30 dias foi posteriormente alterada para um mínimo de três meses, com retomada de
atividades prevista para setembro de 2009. A Nordion se
propôs a fornecer ao Brasil somente 1/3 da sua demanda.
A CNEN conseguiu, através das negociações na área nuclear em curso entre Brasil e Argentina, que este último
país passasse a fornecer outro 1/3, conseguindo mitigar a
deficiência e suprindo 2/3 da demanda.
No final de junho, o IPEN/CNEN-SP foi notificado pela
NORDION que durante as duas primeiras semanas de
julho haveria novamente interrupção no fornecimento de
Mo-99, o que nos fez retornar à situação de atendimento
de 33% da demanda nacional. Diante da intempestividade
da crise atual, iniciada efetivamente em maio deste ano,
várias medidas de urgência e emergência foram tomadas,
tais como ações legais para garantir o cumprimento do
contrato de fornecimento pela Nordion, busca de novos
fornecedores além da Argentina (sendo o mais promissor
a África do Sul, país com o qual o Brasil já vem negociando), estabelecimento de alternativas para diagnóstico com
outros radiofármacos que não o Mo-99 e estudo da possibilidade de importação direta de geradores de tecnécio.
Revista Brasileira de Física Médica. 2009;3(1):151-6.
155
Gonçalves OD
As expectativas são de que a oferta internacional melhore e que possamos atender 2/3 da demanda em breve.
Construção do reator multipropósito brasileiro
A raiz da crise do Molibdênio, no mundo e no Brasil, reside
no longo período sem investimentos em novos reatores
de maior potência e múltiplas aplicações, particularmente para reatores de produção de radioisótopos, pelo qual
se passou. O Governo brasileiro, através do Ministério da
Ciência e Tecnologia, está empenhado na mudança deste quadro, o que é evidenciado no projeto desenvolvido
pela CNEN, de construção de um reator de pesquisa com
características modernas e adequadas à produção de radiofármacos, previsto para entrar em funcionamento em
2016, mas ainda sem garantia de verbas para sua execução, orçada em cerca de US$ 500 milhões.
Este é outro ponto de consenso no Comitê de
Desenvolvimento do Programa Nuclear Brasileiro. O projeto vem sendo desenvolvido por uma equipe de mais
de cem especialistas dos quadros da CNEN, e de outras
instituições. A instalação será em Iperó, interior de São
Paulo, em área vizinha às instalações de Aramar do Centro
Técnico da Marinha em São Paulo, terreno cedido em parte pela Marinha e em parte pelo Estado de São Paulo.
O Programa Nuclear Brasileiro é ambicioso e tem progredido bastante desde o início da discussão em 2004. Um
156
Revista Brasileira de Física Médica. 2009;3(1):151-6.
programa deste porte, quando finalmente aprovado, deverá
contar com atenção especial dos diversos Ministérios envolvidos, e será fundamental o acordo amplo entre todos os
setores da sociedade para que possa ser não um projeto
do Governo, mas um projeto do Estado, com força e reconhecimento que garantam sua continuidade.
As consequências desse programa ultrapassam a
área nuclear e todas as áreas afeitas, entre elas a Física
Médica, estendendo-se a toda a população brasileira.
Fontes
Os dados usados neste artigo podem ser encontrados a
partir dos seguintes links:
• http://www.cnen.gov.br: apostilas e informações
gerais
• http://www.epe.gov.br: programas plurianuais da
área de energia
• http://www.iaea.org: estatísiticas, história e dados
completos sobre a área nuclear
• http://www.inb.gov.br: ciclo do combustível
• http://www.uic.com.au/nip22.htm: informações sobre o acidente em Chernobyl
• http://www.world-nuclear.org: informações sobre a
área nuclear

Documentos relacionados