Aplicativo sugestor de procedimentos para cirurgias plásticas

Transcrição

Aplicativo sugestor de procedimentos para cirurgias plásticas
Aplicativo sugestor de procedimentos para cirurgias plásticas
Hugo S. Piauilino Neto1 , Ricardo T. Freitas1 , Kelson R. T. Aires1 , V. E. S. Campelo2
1
Departamento de Computação
Universidade Federal do Piauí (UFPI) – Teresina, PI – Brasil
2
Departamento de Medicina Especializada
Universidade Federal do Piauí (UFPI) – Teresina, PI – Brasil
{hugos94,ricard0tfreitas,dr.vcampelo}@gmail.com, [email protected]
Abstract. Information technology has supported several areas, particularly health, aiming to provide quality, productivity and efficiency improvements in this
field. This article aims to demonstrate the importance of a mobile application
that will support facial analysis process, by detecting landmarks on a patient’s
face and suggesting aesthetic plastic surgeries to be performed. Consequently, it
will serve as a centralizing tool of patient records, making the access easier and
faster. The application adopts assumptions defined by experts who participated
in the validation stage.
Resumo. A tecnologia da informação tem dado suporte para inúmeras áreas,
principalmente a saúde, com o desejo de proporcionar melhorias na qualidade,
produtividade e eficiência deste campo. Este artigo tem por objetivo demonstrar a importância de uma aplicação móvel que auxiliará no processo de análise facial, realizando a detecção de pontos de interesse (referência) na face e
sugerindo procedimentos cirúrgicos estéticos a serem realizados. Consequentemente, servirá como ferramenta centralizadora de fichas de pacientes, tornando
o acesso mais fácil e rápido. O aplicativo adota premissas definidas por especialistas na área que participaram da etapa de validação.
1. Introdução
O número de cirurgias plásticas realizadas pelo mundo tem crescido de maneira exponencial. Segundo a Sociedade Internacional de Cirurgia Plástica Estética [Surgery 2014], no
ano de 2013 foram realizadas mais de 23 milhões de cirurgias plásticas no mundo todo.
O Brasil obteve uma posição de destaque no levantamento, tornando-se o país que mais
realizou procedimentos cirúrgicos, ultrapassando até mesmo os EUA.
Com a tecnologia, podemos tornar o planejamento e a execução destes procedimentos mais rápidos e seguros. Utilizando dispositivos móveis, especificamente
smartphones que continuamente tornam-se mais acessíveis e portam tecnologias mais
avançadas, podemos levar o atendimento de pacientes e a realização de intervenções médicas para um patamar diferenciado.
Visando auxiliar em consultas e intervenções realizadas por cirurgiões plásticos,
a aplicação desenvolvida oferece uma interface para a captura e processamento de imagens da face, juntamente com a marcação automática de pontos de interesse, cálculo de
métricas essenciais e sugestões de procedimentos.
Estas ações costumam ser rotineiras para diversos profissionais da área, porém,
muitos preferem definir os procedimentos manualmente, sem utilização das métricas necessárias e, possivelmente, sem realizar as anotações devidas. Esse ato geralmente acarreta na realização de procedimentos utilizando puramente a análise visual e pode resultar
em intervenções incorretas.
2. Trabalhos Relacionados
A maioria dos sistemas de visão computacional que trabalham com rostos humanos realizam detecção, reconhecimento e reconstrução de face e.g. [Fernandez e Vicente 2008],
[Jain et al. 2011] e [Hu et al. 2009]. Yang et al. [Yang et al. 2002] agruparam vários
métodos de detecção facial em quatro categorias: métodos baseados em conhecimento
(knowledge-based), métodos baseados em características invariantes (invariant features),
métodos de correlação de modelos (template matching) e métodos baseados em aparência (appearance-based). O trabalho de Viola e Jones [Viola e Jones 2001] provou que a
detecção de faces é perfeitamente factível em aplicações, tais como softwares de organização de fotos.
O problema de detectar faces em imagens é antigo e já resolvido. Vários sistemas
de detecção de face em perfil utilizam a identificação de pontos de interesse, como: cantos
da boca, ponta do nariz, cantos dos olhos e contornos do rosto e.g. [Arca et al. 2004],
[Nair e Cavallaro 2009] e [Sagonas et al. 2013].
A grande maioria dos sistemas existentes realizam apenas a detecção dos pontos de interesse, sem realizar qualquer processamento posterior sobre esses pontos. O
processamento posterior mostra-se de grande valor para avaliações médicas em geral.
O caso específico utilizado são análises realizadas por cirurgiões plásticos para a
definição de intervenções, como a rinoplastia, cirurgia que remodela o nariz com intuito
de melhorar sua aparência e/ou sua funcionalidade.
Visando a falta de aplicações específicas, este artigo propõe um aplicativo que
automatiza os processos de identificação dos pontos de referência e calcula as métricas utilizadas pelos cirurgiões faciais. Ele dispõe de técnicas de visão computacional e
processamento digital de imagens, para sugerir procedimentos a serem realizados. As
análises realizadas em Freitas et al. [Freitas et al. 2014] são utilizadas como base para a
implementação dos algoritmos utilizados na aplicação.
3. Materiais e Métodos
O sistema operacional para dispositivos móveis escolhido foi o iOS, software proprietário
da Apple Inc. que é executado apenas em hardwares específicos por ela desenvolvidos,
como iPhones e iPads. O motivo desta escolha foi a qualidade da captura de imagens realizada por estes dispositivos e a homogeneidade do sistema. Isso faz com que a aplicação
possa ser utilizada com melhores resultados e uma menor perda de qualidade.
Para a criação da aplicação utilizou-se a linguagem de programação Objective-C
e o ambiente de desenvolvimento integrado X-Code. Foi utilizado o framework1 GPUI1
Framework é um conjunto de classes que colaboram para realizar uma responsabilidade para um domínio de um subsistema da aplicação, ditando o fluxo de controle da aplicação.
mage2 que disponibiliza uma série de classes para a manipulação de imagens e vídeos.
Nas imagens da face foram utilizados os algoritmos, pontos definidos e assertivas
para o processamento de imagens contidas em Freitas et al. [Freitas et al. 2014]. Porém,
os pontos trichion, rhinion, sulco, tragion, columela e cervical foram adicionados para
gerar uma melhor avaliação do perfil facial. A Figura 1 ilustra todos os pontos de interesse
identificados pela aplicação e suas posições aproximadas. Esses pontos abrangem grande
parte dos principais locais de interesse existentes na face humana em perfil.
Figura 1. Pontos de interesse e suas localizações.
Para melhorar o enquadramento do rosto do paciente na aplicação, foi utilizado o
ângulo-plano de Frankfurt3 . A determinação da localização desse plano, manualmente definida em Tweed [Tweed 1946], mostra-se de hercúlea dificuldade ao utilizar-se automatizações. Isso ocorre pois a identificação computacional dos pontos Porion e Orbitale não
possui a precisão encontrada na técnica de localização manual. Na literatura, existem apenas técnicas para a detecção do plano utilizando imagens cranianas [Cheng et al. 2012].
Uma série de medidas e ângulos foram adotados para gerar sugestões de procedimentos viáveis em ocasiões pré-determinadas. Medidas essas definidas com auxílio de um
cirurgião plástico especialista em intervenções faciais. A Tabela 1 ilustra as medidas utilizadas, como: projeção da ponta do nariz, altura do terço-médio, distância mento-pescoço,
entre outras. Juntamente, algumas análises como lábio superior projetado e lábio inferior
retraído também são demonstradas.
4. Aplicação
A aplicação encontra-se em versão beta4 . Inicialmente, a aplicação apenas executa com
imagens de perfis faciais orientados para a direita, por questões de desenvolvimento. A
2
GPUImage é uma biblioteca iOS licenciada pela BSD que permite aplicar filtros e outros efeitos em
imagens utilizando aceleração por GPU. Pode ser encontrado em: github.com/BradLarson/GPUImage
3
Plano horizontal mais importante para o estudo cefalométrico, que transpassa a face, e tem por referência a ligação dos pontos Porion/Tragion e Orbitale/Sulco.
4
A versão beta é disponibilizada para que os usuários possam testar e eventualmente, reportar erros para
os desenvolvedores. Na prática, versão beta significa que o desenvolvedor admite que o programa não está
pronto e pode ter problemas, mas encontra-se aceitável para a utilização, mesmo que sem nenhuma garantia.
foto necessita ser capturada em ambiente controlado. Os dois principais cuidados necessários são luminosidade e fundo homogêneo (preferencialmente preto ou branco).
Após a captura, a imagem passa por um processo de recorte e redimensionamento.
Isso ocorre para tornar a execução do algoritmo de detecção de pontos mais veloz, levando
em conta o baixo poder de processamento do hardware utilizado. A execução prossegue
capturando os pontos definidos na Figura 1.
A aplicação retorna a imagem do paciente com os pontos já localizados, ilustrada
na Figura 2(a). O usuário possui a opção de melhorar a localização dos pontos encontrados pela aplicação, como ilustrado na Figura 2(b).
O ajuste manual é implementado para manter o controle do cirurgião sobre a aplicação. Porém, o aplicativo executa normalmente sem utilizar essa etapa. Um dos objetivos da aplicação é agrupar, em um único dispositivo, a captura e marcação de pontos de
interesse. Isso evita que o cirurgião realize essas atividades em dispositivos diferentes.
Ao final, o aplicativo retorna uma série de medidas, ângulos e sugestões de procedimentos que, de acordo com o processamento da imagem, são factíveis de serem realizados no rosto do paciente, como demonstrado na Tabela 1. Porém, cabe lembrar que são
apenas sugestões e que o cirurgião precisa decidir se deve segui-las.
5. Resultados
Foram realizados testes para demonstrar a acurácia do aplicativo móvel com relação a
captação dos pontos definidos pelas métricas médicas. O ambiente foi totalmente controlado de acordo com iluminação e posicionamento do perfil facial. Foi utilizado um fundo
homogêneo de cor branca.
Para analisar a capacidade do algoritmo, foram feitas comparações entre as imagens geradas pela aplicação e as modificadas pelo usuário. Assim, prevalecem as projeções do usuário sobre as automáticas, visto que aquela se mostra mais precisa.
(a) Gerada pela aplicação.
(b) Modificada pelo usuário.
Figura 2. Acurácia do algoritmo de detecção de pontos.
Na Figura 2(a) temos o resultado do processamento automático do aplicativo.
Pode-se observar que alguns pontos ficaram localizados em posições errôneas. Isto influi
na avaliação que é mostrada na Tabela 1, pois modifica as posições dos pontos, interfere
na avaliação realizada pelo algoritmo e, consequentemente, poderá sugerir procedimentos
inapropriados.
A Figura 2(b) ilustra os pontos redefinidos pelo usuário, que pode decidir o melhor
posicionamento para cada ponto, como: tragion e tríquio. A realocação dos pontos tornase fácil devido a possibilidade de utilizar zoom nas imagens. Todos os pontos possuem
um localizador central que determina o local exato que a aplicação irá utilizar, além de
marcadores para identificação.
Nas analises realizadas, o ângulo-plano de Frankfurt foi a medida que apresentou
a maior disparidade em todos os testes, como visto na Figura 2. Porém, comparando os resultados de maneira geral, podemos observar que ambos os processamentos apresentaram
medidas aproximadas, resultando assim, em sugestões semelhantes.
Tabela 1. Dados e sugestões gerados pela aplicação.
Medidas
Projeção da Ponta do Nariz
Altura Terço-Inferior
Ricketts - Lábio Superior
Proporção Facial Total
Ângulo Nasolabial
Ângulo Plano-Frankfurt
Comprimento Nasal
Ângulo Columela-Labial
Burstone - Labio Superior
Distância Mento-Pescoço
Altura Terço-Médio
Ângulo Convexidade-Facial-Total
Ângulo Convexidade-Facial
Ricketts - Labio Inferior
Proporção Terço Inferior
Burstone - Labio Inferior
Valor
156.053
555.060
35.140
1.055
117.784o
270.000o
368.960
40.978o
-35.846
48.421
585.684
43.231o
10.957o
5.671
0.381
-36.068
Avaliação
Regular (baum) = 2.87
Lábio retraído
Ângulo obtuso
Inclinação = 270
Abaixo do ideal
Ângulo ideal = 40.98o
Lábio projetado
Ângulo ideal
Ângulo agudo
Lábio retraído
O número de pessoas utilizadas para validar a aplicação foi bastante reduzido e
não possuiu grande heterogeneidade de raças. Por isso, para garantir a confiabilidade da
aplicação, é necessário analisar o feedback dos usuários.
6. Conclusão e Trabalhos Futuros
Podemos concluir que esta aplicação possui um grande potencial, e que sua disponibilização pode gerar grandes avanços nas avaliações cirúrgicas. Porém, por ser um protótipo,
não deve ser utilizada como referência principal na avaliação do cirurgião. A validação
do aplicativo necessita ser aprimorada utilizando-se amostras de diferentes raças e perfis
faciais esquemáticos diferentes.
Em trabalhos futuros espera-se aprimorar a acurácia do algoritmo de localização
dos pontos. Com a adição de novos pontos, podem ser geradas melhores avaliações. Di-
versas análises métricas serão adicionadas para inferir sugestões mais apuradas. Planejase incluir opções para exportação e armazenamento de dados online.
Por fim, o incremento da análise frontal e a comparação entre o processamento do
pré e pós-operatório são essenciais para que a ferramenta torne-se atrativa e produtiva.
Referências
Arca, S., Campadelli, P., e Lanzarotti, R. (2004). An efficient method to detect facial fiducial points for face recognition. In Pattern Recognition, 2004. ICPR 2004. Proceedings
of the 17th International Conference on, volume 1, pp 532–535 Vol.1.
Cheng, Y., Leow, W. K., e Lim, T. C. (2012). Automatic identification of frankfurt plane
and mid-sagittal plane of skull. In Applications of Computer Vision (WACV), 2012
IEEE Workshop on, pp 233–238.
Fernandez, C. e Vicente, M. (2008). Face recognition using multiple interest point detectors and sift descriptors. In Automatic Face Gesture Recognition, 2008. FG ’08. 8th
IEEE International Conference on, pp 1–7.
Freitas, R. T., Aires, K. R. T., e Campelo, V. E. S. (2014). Automatic location of facial
landmarks for plastic surgery procedures. In Systems, Man and Cybernetics (SMC),
2014 IEEE International Conference on, pp 1444–1449.
Hu, C., Harguess, J., e Aggarwal, J. (2009). Patch-based face recognition from video.
In Image Processing (ICIP), 2009 16th IEEE International Conference on, pp 3321–
3324.
Jain, A., Klare, B., e Park, U. (2011). Face recognition: Some challenges in forensics. In
Automatic Face Gesture Recognition and Workshops (FG 2011), 2011 IEEE International Conference on, pp 726–733.
Nair, P. e Cavallaro, A. (2009). 3-d face detection, landmark localization, and registration
using a point distribution model. Multimedia, IEEE Transactions on, 11(4):611–623.
Sagonas, C., Tzimiropoulos, G., Zafeiriou, S., e Pantic, M. (2013). A semi-automatic
methodology for facial landmark annotation. In Computer Vision and Pattern Recognition Workshops (CVPRW), 2013 IEEE Conference on, pp 896–903.
Surgery, T. I. S. A. P. (2014). Statistics on cosmetic procedures worldwide - more than
23 million cosmetic procedures performed in 2013. http://www.isaps.org/
news/isaps-global-statistics. Acessado em: 15/03/2015.
Tweed, C. H. (1946). The Frankfort-mandibular plane angle in orthodontic diagnosis,
classification, treatment planning, and prognosis. Am J Orthod Oral Surg, 32:175–
230.
Viola, P. e Jones, M. (2001). Rapid object detection using a boosted cascade of simple
features. In Computer Vision and Pattern Recognition, 2001. CVPR 2001. Proceedings
of the 2001 IEEE Computer Society Conference on, volume 1, pp I–511–I–518 vol.1.
Yang, M.-H., Kriegman, D., e Ahuja, N. (2002). Detecting faces in images: a survey.
Pattern Analysis and Machine Intelligence, IEEE Transactions on, 24(1):34–58.

Documentos relacionados

Autenticação facial contínua usando imagens de infravermelho

Autenticação facial contínua usando imagens de infravermelho O sistema utiliza uma câmera NIR e realiza todas as etapas do reconhecimento facial utilizando implementações baseadas na biblioteca OpenCV1 , uma biblioteca de computação visual de licença a...

Leia mais