ANÁLISE DE QUALIDADE DE FRUTAS POR IMAGENS

Transcrição

ANÁLISE DE QUALIDADE DE FRUTAS POR IMAGENS
91
ANÁLISE DE QUALIDADE DE FRUTAS POR IMAGENS
MULTIESPECTRAIS
Jonathan C. Rodrigues; João Milton Lavoier Filho - Acadêmicos do Curso de Ciência da
Computação UniSEB-Coc, [email protected]; [email protected];
Lúcio André de Castro Jorge - Pesquisador Empresa Brasileira de Pesquisa Agropecuária
(Embrapa). Docente do UNISEB –Coc. [email protected]
Resumo
Este trabalho considerou que a partir de uma imagem adquirida por sensoriamento de
imagem, é possível identificar e classificar produtos sadios de produtos portadores de
irregularidades como: manchas, doenças e podridões por meio de seus valores de reflectância.
Contudo o sistema consiste de um classificador de imagens multiespectrais, onde seus valores
de reflectância são apresentados e respectivamente classificados em suas devidas categorias
por uma rede neural artificial do tipo multicamadas (Multilayer Perceptron), a qual demonstra
eficiência nos resultados obtidos.
Palavras-chave: Imagens multiespectrais; Visão de máquina; Redes neurais artificiais;
Qualidade de fruta.
Abstract
This work considered that from an image obtained by image sensing, it is possible to identify
and classify health products between that contain irregularities such as blemishes, disease and
rot through its reflectance values. However, the system consists of a classifier of multispectral
imagery, where their reflectance values are presented and respectively classified in proper
categories by an artificial neural network-type multilayers (Multilayer Perceptron), that
demonstrated efficiency in the obtained results.
Keywords: Multispectral images; Machine vision; Artificial neural networks; Fruit quality.
1. Introdução
Nos últimos anos, a fruticultura tem ganhado maior atenção com respeito aos setores
do agronegócio brasileiro, ocupando a terceira posição entre os maiores produtores de frutas
do mundo, sendo eles China e Índia (SANÁBIO et al., 2009). Segundo o Instituto Brasileiro
de Frutas (IBRAF) em 2010 a produção brasileira de frutas foi superior a 41 milhões de
toneladas, representando cerca de 5% da produção mundial e respectivamente rentabilizando
ao país cerca de R$ 10 bilhões de reais anuais. Embora seja considerável a quantidade de
frutas produzidas, aproximadamente cerca de 20% destes produtos não chegam à mesa do
consumidor o que corresponde a falta de tecnologia apropriada a esta área, no entanto é no
Rev. Científica Eletrônica UNISEB, Ribeirão Preto, v.1, n.1, p.91-110, jan./jun.2013
92
período de pós-colheita que estes frutos acabam se estragando, pelo fato de seu sistema
biológico vital estar em um continuo processo de maturação mesmo após a colheita.
Embora o avanço e a acessibilidade da tecnologia estarem relativamente mais fáceis, a
prática da classificação de frutos de forma visual e manual ainda é amplamente praticada,
onde os mesmos, geralmente, são classificados de acordo com a sua cor, forma e tamanho. A
rigorosa mudança dos hábitos do consumidor e exigências das instituições de proteção ao
consumidor quanto à qualidade dos produtos alimentícios, tem levado ao aumento do
desenvolvimento de máquinas e sistemas de classificação, ou seja, a automatização do
processo de classificação na pós-colheita. Sendo assim, no intuito de atender tais exigências,
sistemas baseados na utilização de técnicas de visão computacional vem se destacando pela
eficiência apresentada na extração e quantificação de modo não destrutivo das características
relacionadas à qualidade e controle dos frutos.
Segundo Panigrahi e Gunasekaran, (2001), “visão computacional é a ciência que
estuda as bases teóricas e algorítmicas pela qual a informação útil referente a um respectivo
objeto ou cena pode ser automaticamente extraída e analisada a partir de uma imagem”. No
entanto, os sistemas de visão computacional são baseados na percepção visual humana de
identificar características a partir dos valores de reflectância dos objetos que constituem uma
determinada cena, sendo diferenciados apenas por possuírem a vantagem de serem imunes a
aspectos intrínsecos da natureza humana como, por exemplo, sintomas de estresse, cansaço
físico, mental e também especialmente por identificar certas características que são
detectáveis apenas por luz de regiões não visíveis ao olho humano como, por exemplo,
Ultravioleta (UV), Infravermelho próximo (NIR) e Infravermelho (IR). O uso de sistemas de
visão computacional no período de pós-colheita de frutas vem se destacando por proporcionar
ao agricultor rapidez, além de favorecer maior produção e qualidade no momento de
classificar os produtos. Com base nos atributos de qualidade como cor, forma e textura, tais
sistemas são capazes de detectar em frutas defeitos como, doenças, pragas, distúrbios
fisiológicos e até mesmo seu grau de maturação. Sendo assim, para compreender o processo
de detecção de defeitos em um determinado tipo de fruto é necessário que o analista tenha
conhecimento dos principais sistemas de cores como, por exemplo, RGB e CIElab, onde este
é o sistema mais utilizado ao se trabalhar com cores de frutos (MACDOUGALL, 2002).
De acordo com Bee e Honeywood (2002), “ao se inspecionar um determinado
produto, os critérios de classificação são adotados de acordo com os valores de reflectância
Rev. Científica Eletrônica UNISEB, Ribeirão Preto, v.1, n.1, p.91-110, jan./jun.2013
93
espectral em cumprimento de onda sob o objeto estudado”. Percebe-se que se um determinado
fruto apresentar podridão ou manchas em determinadas áreas de sua superfície, está área se
diferenciará em aspectos de cor de outras áreas sadias. Sendo assim, a energia eletromagnética
emitida pelo sensor óptico em direção ao produto em questão, terá parte absorvida e parte
refletida. Portanto os valores de reflectância espectral em áreas escuras serão menores do que
os valores refletidos em sua superfície sadia, ou seja, áreas com aspectos mais escuros
absorverão uma considerável quantidade de energia ocasionando sua baixa reflexão ao sensor
e respectivamente áreas sadias terão seu grau de reflexão maior, por não absorverem muita da
energia emitida pelo respectivo sensor.
No entanto é notável a importância da cor no processo de classificação de produtos
como, por exemplo, em Lana et al. (2006, apud JORGE et al., 2011), foram medidas
alterações de cor devido à maturação de tomates. Em Chtioui et al. (2003, apud
GUNASEKARAN, 2010) foram utilizados os sistemas de cores RGB e HLS, garantindo
100% de precisão na classificação de três tipos de feijão. Em (Deck et al., 2006, apud JORGE
et al., 2011) foram comparados técnicas de segmentação por cor, a partir de uma rede neural
multicamadas e classificadores para inspeção de produtos pela característica cor.
2. Metodologia
O projeto foi baseado no estudo da técnica de Inteligência Artificial denominada Visão
Computacional. Desenvolvido na linguagem JAVA, a fim de ser portável para diversas
plataformas, também foram utilizadas as Application Programming Interface (API) Java
AdvancedImage (JAI) para a execução das funções de processamento de imagens, e através
da Waikato Environment Knowledge Analysis (WEKA), foram utilizadas classes cujos
métodos permitem criar e treinar modelos de redes neurais como, por exemplo, as redes
MultlayerPerceptron, utilizadas neste trabalho para classificação dos valores de reflectância
das imagens.
2.1.
Sistemas de visão computacional
Sistemas de visão computacional têm chamado a atenção de pesquisadores de diversas
áreas por proporcionar a solução dos mais variados problemas a partir da extração automática
de informações úteis de uma imagem. Visão computacional, também conhecida como visão
de máquina ou processamento digital de imagens é uma área da inteligência artificial que tem
Rev. Científica Eletrônica UNISEB, Ribeirão Preto, v.1, n.1, p.91-110, jan./jun.2013
94
por objetivo simular o sistema visual humano de perceber características em uma cena do
mundo real a partir da luz refletida pelos respectivos objetos que a compõe. No entanto
segundo Gunasekaran (2010) um sistema de visão é essencialmente constituído por uma
unidade de processamento análoga ao cérebro humano, um sensor ou câmera, análogo ao olho
humano, um sistema de iluminação que tem por objetivo facilitar a captura da cena, um
digitalizador de imagem e um monitor que mostre as etapas do processamento.
Na Ilustração 1 pode ser observado um modelo típico de um sistema de visão
computacional voltado à inspeção de objetos, baseando-se em características de reflectância
das imagens percebidas.
Ilustração 1- Típico sistema de visão computacional para inspeção de objetos.
FONTE: GUNASEKARAN, 2010, p. 43 (apud PANIGRAHI; GUNASEKARAN, 2001).
No entanto para que um sistema baseado em técnicas de visão computacional seja bem
sucedido de acordo com a classificação dos produtos a ele destinado, o mesmo terá que
obedecer a uma série de etapas que podem ser categorizadas em três grupos:
(GUNASEKARAN, 2010).

Aquisição da imagem: que lida com questões de iluminação, componentes de
captura de imagem como, sensores ou câmeras e respectivamente a forma que as
imagens serão digitalizadas para um respectivo processamento.

Processamento de imagem: que se refere ao pré-processamento da imagem,
segmentação dos objetos de interesse e proporcionalmente a extração de
características da mesma.

Análise da imagem: que se refere à interpretação da imagem e respectivamente a
Rev. Científica Eletrônica UNISEB, Ribeirão Preto, v.1, n.1, p.91-110, jan./jun.2013
95
classificação dos objetos que nela consiste.
2.1.1. Aquisição e definição de imagem digital
A captura de uma cena para um respectivo processamento pode ser considerada como
uma das etapas mais importantes das quais constituem um sistema de visão, no entanto, para
obter qualidade no ato da captura é necessário que haja uma câmera e uma boa fonte de luz
posicionada de tal modo que não deixe haver sombras nos objetos. De acordo com Gonzalez;
Woods (2010), o processo de aquisição de imagem é composto por um dispositivo físico
sensível a uma banda do espectro de energia eletromagnética, como por exemplo, raios-X,
ultravioleta ou banda infravermelha e que produza um sinal elétrico de saída proporcional a
um nível de energia percebida. Um digitalizador, que tem a função de converter a saída
elétrica de um dispositivo de sensoriamento físico para o formato digital, formando assim
uma matriz bidimensional cujos índices de linhas e colunas identificam um ponto da cena, tais
pontos são chamados de pixels e seu respectivo valor corresponde a um tom de cinza ou cor.
Sendo assim, pode se observar toda a faixa do espectro eletromagnético e o comprimento de
onda referente a cada banda do espectro eletromagnético na Ilustração 2.
Ilustração 2 - Espectro eletromagnético
FONTE: http://www.agr.feis.unesp.br/hrsilva/SERECAP1131.htm
Percebe-se que os sensores são classificados de acordo com a sua sensibilidade a uma
respectiva região do espectro eletromagnético, como por exemplo, câmeras fotográficas
convencionais abrangem o espectro visível ao olho humano com cumprimento de 400 até 750
Rev. Científica Eletrônica UNISEB, Ribeirão Preto, v.1, n.1, p.91-110, jan./jun.2013
96
nm e respectivamente sensores infravermelho podem ser distintos em três partes, sendo elas o
infravermelho próximo que se encaixa no domínio de 0,7 até 1,3 µm e infravermelho médio a
partir de 1,3 até 2,5 µm.
2.1.2. Processamento de imagens digitais
As principais etapas do processamento de imagem podem ser classificadas como: préprocessamento, segmentação dos objetos de interesse e extração de características (Sonka et
al. 2008). Embora o avanço da tecnologia proporcione melhores condições em termos de
qualidade para dispositivos de captura de imagem muitas vezes aspectos naturais do próprio
ambiente podem ocasionar diversificados tipos de ruídos ou até mesmo a falta de brilho no ato
da captura da imagem, assim variando significativamente a aparência dos objetos de interesse
que compõe a mesma. Em suma, utilizam-se métodos de processamento de imagens digitais a
fim de corrigir irregularidades que atingem suas características visuais, como por exemplo,
contraste, brilho e ruídos eletrônicos, no intuito de aperfeiçoar o processo de análise e
interpretação da cena (JAIN, 1989). A segmentação é responsável por reduzir as informações
contidas na imagem em subconjuntos de interesse chamados de regiões/objetos, onde cada
região deve ser homogênea com relação a algumas características da imagem como, por
exemplo, cor, borda ou textura. É necessário que cada região contraste claramente com as
regiões circunvizinhas. O processo de segmentação deve ser concluído quando os objetos de
interesse da aplicação estiverem visivelmente extraídos da imagem original (GONZALEZ;
WOODS, 2010). A extração de características é utilizada, normalmente, a fim de distinguir os
produtos existentes em uma determinada imagem.
Entretanto a classificação de cada objeto segmentado pode ser feita através de seus
valores de reflectância, sendo assim, necessário que o analista tenha conhecimento das formas
de representar as respectivas cores de um determinado tipo de fruto. A seguir serão
apresentados dois sistemas de cores que melhor representam as cores de frutas.
2.1.2.1.
Modelos de cores RGB e CIElab
Segundo Gonzalez; Woods (2010), “o objetivo dos modelos de cores é facilitar a
especificação das cores por meio de uma forma padronizada, sendo assim, pode se identificar
Rev. Científica Eletrônica UNISEB, Ribeirão Preto, v.1, n.1, p.91-110, jan./jun.2013
97
uma cor através de um ponto gerado por um conjunto de coordenadas existentes dentro de um
subespaço constituído pelo máximo de cores possíveis”.
O modelo RGB, é um modelo tridimensional considerado como um dos modelos mais
conhecidos, onde geralmente, é utilizado em sistemas do meio digital como, por exemplo,
TVs, monitores e câmeras digitais. De acordo com JORGE et al. (2011) o modelo RGB parte
do principio de que a cor preta é originada pela ausência de cor e a cor branca é originada pela
presença de todas as cores. Sendo assim, para representar diversas cores, adiciona-se ao preto
uma quantidade de cada cor primaria, sendo elas, vermelho, verde e azul. Entretanto pode se
observar na Ilustração 3 o modelo RGB em forma de cubo, onde as oito extremidades são
representadas pelas cores primarias, vermelha, verde, azul, e cores secundárias que são a
mistura das cores primarias como, ciano, amarelo e magenta e também a cor branca e preta.
Ilustração 3- Esquema do cubo de cores RGB. Os pontos ao longo da diagonal principal representam os
valores de uma escala de cinza, preto na origem e o branco no ponto (1,1,1)
FONTE: GONZALEZ; WOODS, 2010, p. 265.
Sendo o modelo mais utilizado na representação de frutas o modelo CIElab ou
também conhecido como CIE L a* b*, separa a cor em três variáveis: L, que representa a
iluminação (brilho) da imagem variando de 0 “preto” até 100 “branco”, a* que é a variação de
verde até vermelho; e b*, que representa a variação de amarelo para azul, onde ambos variam
de -120 até 120 (JORGE et al. 2011). Como o valor de uma cor varia aumentando a sua
tonalidade do centro para as bordas, é possível notar que a saturação será maior ao longo de
seu contorno. Logo, nota-se que o modelo CIELab consegue definir claramente todas a cores.
A Ilustração 4 ilustra graficamente um esquema tridimensional que representa o conjunto de
cores existentes no padrão CIELab.
Rev. Científica Eletrônica UNISEB, Ribeirão Preto, v.1, n.1, p.91-110, jan./jun.2013
98
Ilustração 4- Esquema tridimensional de representação do paradigma CIELab.
FONTE: GONZALEZ; WOODS, 2010, apud JORGE et al, 2011.
2.1.3. Análise da imagem
A cor é um elemento fundamental para os seres humanos, pois através dela o homem
pode adquirir conhecimento e respectivamente ser capaz de discriminar certos objetos a partir
de seus valores de reflectância.
No entanto, um sistema de visão consiste do mesmo paradigma da percepção visual
humana, onde o mesmo toma por base alguns exemplos para poder descriminar um objeto
contido em uma cena. A cor pode ser considerada como uma característica de extrema
importância para se determinar a qualidade de uma fruta, sendo assim, para um sistema de
inspeção a cor pode ser a característica relevante para permitir uma tomada de decisão, ou
seja, classificar produtos defeituosos de produtos sadios (MACDOUGALL, 2002). Contudo
para a descrição da cor, são utilizados vários padrões, como os já citados neste trabalho: RGB
e CIELab.
2.1.3.1. Classificação de imagens por cor
O processo de classificação de imagens multiespectrais consiste em analisar e
classificar cada objeto existente no domínio espacial de uma imagem como, por exemplo, em
um sistema de inspeção de frutas a cor é uma característica fortemente ligada à distinção de
seu estado para consumo como, boa ou defeituosa. Essa análise se baseia no reconhecimento
de padrões de cores presentes na fruta, onde áreas que apresentam certos defeitos se
caracterizam pela diferença de cor de uma área sadia, sendo geralmente mais escuras.
Rev. Científica Eletrônica UNISEB, Ribeirão Preto, v.1, n.1, p.91-110, jan./jun.2013
99
Sendo assim, cada pixel do objeto é rotulado a sua respectiva classe de acordo com as
suas propriedades espectrais. (RICHARDS; JIA, 2006). No entanto este trabalho utilizou o
conceito de classificação supervisionada, onde esta consiste em treinar a rede com um número
razoável de amostras de pixels conhecidos de cada classe, a fim de estimular a rede neural de
modo que seus pesos sinápticos sejam ajustados (MATHER, 2004).
2.2. Redes neurais artificiais
Baseadas no modelo biológico da interconexão entre neurônios e sua propagação de
sinal elétrico, as redes neurais artificiais, se constituem de uma topologia conexionista e
principalmente de unidades de processamento paralelo denominado de neurônio artificial,
onde o mesmo foi inspirado no modelo biológico por receber e propagar um respectivo sinal
de entrada, em alguns casos, para outras unidades de processamento. No entanto, o valor de
entrada é processado pelos respectivos neurônios artificiais a fim de obter um valor de saída
esperado, onde tal saída é automaticamente obtida por meio do reajuste de pesos de cada
neurônio da rede ao longo dos estímulos.
Em suma, neste trabalho foi utilizado um modelo de rede neural multicamadas
denominado Multilayer Perceptron (MLP), sendo este representado pela Ilustração 5.
Ilustração 5- RedeMultilayer Perceptron.
Fonte: http://www.icmc.usp.br/~andre/research/neural/
Segundo Silva et. al. (2010) as redes multicamadas são constituídas por pelo menos
uma camada intermediária de Perceptrons, alocada entre a camada de entrada e a camada de
saída da rede.
Rev. Científica Eletrônica UNISEB, Ribeirão Preto, v.1, n.1, p.91-110, jan./jun.2013
100
Quanto ao seu processo de treinamento e ajuste dos pesos sinápticos de cada neurônio,
é aplicado o algoritmo supervisionado da retropropagação do erro, onde o mesmo consiste de
duas etapas, sendo a primeira a propagação adiante (forward) a qual tem por objetivo
propagar camada a camada os valores previamente conhecidos de uma respectiva amostra do
conjunto de treinamento até seus neurônios de saída. A segunda etapa consiste da propagação
reversa (backward), onde o erro da camada de saída é utilizado para reajustar os pesos de seus
neurônios e também de suas conexões anteriores como, os neurônios das camadas
intermediárias e camada de entrada (SILVA et. al., 2010). No entanto, a seguir é descrito
segundo Braga et. al.(2007), Jorge (2001), cada passo que envolve as etapas forward e
backward do algoritmo backpropagation.
1)
Inicializar os pesos de cada neurônio da rede e os demais parâmetros de
treinamento;
2)
Apresentar à camada de entrada da rede um padrão do conjunto de
treinamento, calcular os NETs de cada neurônio e respectivamente processar a saída
deste padrão.
3)
Calcula-se o erro de cada neurônio da camada de saída através da equação
(1.1):
Onde “m” refere-se à camada de saída e F’(NET) é a derivada da função de ativação
dada pela equação (1.2):
(1.2)
E então ajusta-se o peso sináptico da mesma através da equação (1.3):
Onde k refere-se a ultima camada intermediária.
4)
Calcula-se o erro da ultima camada intermediária k através da equação (1.4):
Rev. Científica Eletrônica UNISEB, Ribeirão Preto, v.1, n.1, p.91-110, jan./jun.2013
101
5)
Atualizam-se os pesos sinápticos dos neurônios da camada intermediária k
através da equação (1.5).
6)
Calcula-se o erro da camada de entrada i através da equação (1.6):
7)
Atualizam-se os pesos sinápticos dos neurônios da camada de entrada i através
da equação (1.7):
Assim para as demais amostras de treinamento é repetido estes procedimentos
a partir da etapa 2.
3.
Arquitetura do sistema
O Diagrama de Fluxo de Dados (DFD) apresentado na Ilustração 6 demonstra os
principais processos que constituem o sistema implementado.
Ilustração 6- Diagrama de Fluxo de Dados projeto SisFrutas
O primeiro processo denominado “processamento da imagem” refere-se à abertura da
Rev. Científica Eletrônica UNISEB, Ribeirão Preto, v.1, n.1, p.91-110, jan./jun.2013
102
imagem, além de permitir, se necessário, o melhoramento da qualidade da imagem através dos
componentes de ajuste do brilho ou contraste. A Ilustração 7 refere-se a interface que
implementa este processo.
Ilustração 7- Interface de abertura da imagem.
Fonte: Elaboração própria.
O segundo processo “criar classes” refere-se à criação das classes, onde simplesmente
deve-se selecionar o item vazio do componente comboBox da interface “Criar Classes” e
respectivamente informar o nome da nova classe seguido da cor que a ela representa.
Por sua vez o terceiro processo “selecionar padrões” se resume na criação ou
manutenção das classes através da seleção de padrões. Toda classe possui um nome de
identificação e uma cor para sua representação. Em suma a Ilustração 8 demostra
graficamente a interface responsável por executar este procedimento.
Ilustração 8- Interface de seleção dos padrões de treinamento.
Fonte: Elaboração própria.
Rev. Científica Eletrônica UNISEB, Ribeirão Preto, v.1, n.1, p.91-110, jan./jun.2013
103
O quarto processo refere-se a criação da rede neural, onde é necessário selecionar cada
classe pelo componente comboBox e respectivamente clicar no botão Adicionar, assim
sucessivamente para as demais classes. Por fim, dá-se um nome para a rede e respectivamente
clica-se no botão Criar Rede. A Ilustração 9 refere-se a interface responsável por processar
está sequencia.
Ilustração 9- Interface de criação da rede neural.
Fonte: Elaboração própria.
E por fim o processo de classificação da imagem que só pode ser realizado após a
passagem de todas as outras etapas, pois se faz necessário definir algumas informações antes
deste processo como a área da imagem e a rede a ser usada na classificação. Como explicado
anteriormente o sistema utiliza a rede neural MLP onde, sua camada de entrada é constituída
por três neurônios referentes aos padrões de entrada R, G e B, uma camada intermediária e
por fim, sua camada de saída referente às classes predefinidas. O algoritmo adotado foi da
categoria dos supervisionados denominado BP, já descrito anteriormente. Contudo a partir da
Ilustração 10(a) pode ser observado que após a execução dos processos anteriores, o botão
“Classificar Imagem” foi habilitado, assim permitindo a classificação da imagem como pode
ser visto na Ilustração 10(b).
Rev. Científica Eletrônica UNISEB, Ribeirão Preto, v.1, n.1, p.91-110, jan./jun.2013
104
(a)
(b)
Ilustração 10(a) Imagem pronta para ser classificada, 10(b) imagem classificada e a porcentagem da
incidência de cada classe sobre a imagem.
4. Testes e Resultados obtidos
Nesta fase de testes foram utilizas imagens RBG para analisar o processo de
classificação e estudar os resultados apresentados em diferentes configurações do MLP.
Assim, para obtenção dos resultados foram criadas duas classes para classificação de
laranjas, “LaranjaFungo” para as características consideradas como parte não consumível da
fruta e “LaranjaSadia” para a parte consumível da mesma. Para segmentar a fruta do fundo da
imagem através da classificação foi criada a classe “LaranjaFundo”.
O conhecimento da rede neural com respeito às classes de saída citadas acima foi
medido através da análise da sua taxa de erro. Sendo assim, neste trabalho foram variados os
valores de ƞ e α, além da quantidade de épocas e a topologia da rede neural, a fim de se obter
o menor valor de erro na classificação.
A partir da Tabela 01, pode ser observada a variação do erro sob o tempo de
treinamento em uma rede com duas camadas intermediárias e com diferentes valores de
época, ƞ e α.
Rev. Científica Eletrônica UNISEB, Ribeirão Preto, v.1, n.1, p.91-110, jan./jun.2013
105
Tabela 1- Variação do erro para uma rede com duas camadas intermediárias e diferentes valores de época,
ƞ e α.
Gráfico 1- Variação do erro de treinamento para ƞ
= 0.9 e α = 0.3.
Gráfico 2- Variação do erro de treinamento para
ƞ = 0.7e α = 0.5.
A partir da Tabela 02, pode ser observada a variação do erro sob o tempo de
treinamento em uma rede com uma única camada intermediária e com diferentes valores de
época, ƞ e α.
Tabela 2- Variação do erro para uma rede com uma única camada intermediária e diferentes valores de
época, ƞ e α.
Gráfico 3- Variação do erro de treinamento para ƞ =
0.9 e α = 0.3.
Gráfico 4- Variação do erro de treinamento para ƞ =
0.7 e α = 0.5.
Rev. Científica Eletrônica UNISEB, Ribeirão Preto, v.1, n.1, p.91-110, jan./jun.2013
106
Gráfico 5- Variação do erro de treinamento para ƞ =
0.1 e α = 0.8.
Gráfico 6- Variação do erro de treinamento para ƞ =
05 e α = 0.5.
Contudo, a partir da comparação do erro obtido nos treinamentos demonstrados na
Tabela 01 e Tabela 02, nota-se que a rede composta por duas camadas intermediárias, ƞ = 0.7
e α = 0.5 resulta na convergência mais rápida em direção a Zero. Portanto o gráfico 09
demonstra que a mesma rede não corre o risco de reverter tal direção.
Gráfico 7 - Variação do erro de treinamento para 3.500 épocas, ƞ = 0.7 e α = 0.5.
Entretanto a Tabela 4 demonstra os resultados da classificação de laranjas com
respeito à rede que melhor atendeu as expectativas para esta aplicação, onde seus parâmetros
para ƞ e α são: 0,7 e 0,5.
Rev. Científica Eletrônica UNISEB, Ribeirão Preto, v.1, n.1, p.91-110, jan./jun.2013
107
Tabela 3- Resultados da classificação automática e manual de laranjas.
Imagem Original (
Imagem Classificada
Porcentagem da
Imagem
R,G e B)
pelo classificador
incidência das
Classificada pela
automático.
classes
percepção visual
humana.
LaranjaFungo:
21.3 %
LaranjaSadia:
78.7 %
LaranjaFungo:
58.1 %
LaranjaSadia:
41.9 %
LaranjaFungo:
0.3 %
LaranjaSadia:
99.7 %
LaranjaFungo:
92.5 %
LaranjaSadia:
7.5 %
A Tabela 3 demonstra os resultados obtidos através da classificação de frutas com base
nos valores de reflectância referentes ao arranjo das bandas R, G e IR, aonde IR representa a
imagem capturada no intervalo do espectro eletromagnético do infravermelho próximo.
Rev. Científica Eletrônica UNISEB, Ribeirão Preto, v.1, n.1, p.91-110, jan./jun.2013
108
Tabela 4- Resultados da classificação de frutas no arranjo das bandas R, G e NIR.
Imagem Original (R, G e
Imagem Classificada pelo
Imagem Classificada pela
NIR)
classificador automático.
percepção visual humana.
Os resultados obtidos na classificação do arranjo R,G e NIR, não apresentaram os
resultados esperados, mas pode-se observar que a mesma difere as características internas da
fruta como, por exemplo, o local com maior incidência de água. Assim podemos perceber que
neste local, o grau de maturação é maior do que os demais locais da fruta.
5.
Conclusões
O software demonstrou eficácia com relação à classificação de características não
proveitosas em frutas como, por exemplo, fungos, manchas ou podridões.
A rede neural MLP utilizada neste trabalho para classificação de imagens e seus
respectivos valores de reflectância referentes às características fisiológicas de frutas,
apresentou resultados similares ao método manual da percepção visual humana.
Através da apresentação das características de reflectância R, G e B à rede
Rev. Científica Eletrônica UNISEB, Ribeirão Preto, v.1, n.1, p.91-110, jan./jun.2013
109
previamente treinada, pode se analisar como resultado a incidência de características não
proveitosas da fruta em questão. Para imagens obtidas na faixa do espectro eletromagnético
do infravermelho próximo em conjunto com as bandas Red e Green, pode se identificar
características internas da fruta como, por exemplo, a incidência de água em determinados
locais da mesma, sendo assim possível medir seu grau de maturação.
No futuro, este sistema poderá ser acoplado a uma máquina de inspeção de qualidade,
onde a mesma utilizará os resultados referentes à incidência de características não proveitosas
da fruta para seu descarte.
Referências
BEE, S.C.; HONEYWOOD, M. J. Colour sorting for the bulk food industry. In: MacDougall,
D.B. (ED). Colour in food Improving quality. Cambridge: Woodhead publishing, 2002. p.
115 – 127.
BRAGA, A.P.; CARVALHO, A.P.L.;LURDEMIR, T.B. Redes neurais artificiais: teoria e
aplicações. 2. ed. Rio de Janeiro: LTC, 2007. P. 2 – 23.
GONZALEZ, R. C.; WOODS, R. E. Processamento digital de imagens. 3. ed. São Paulo:
Pearson, 2010. 624 p.
GUNASEKARAN, S. Computer Vision Systems. In: JHA, S.N. (ED). Nondestructive
Evaluation of Food Quality Theory and Practice. New York: Springer-Verlag Berlin
Heidelberg, 2010. p. 41 – 69.
JAIN, A. K. Fundamentals of digital image processing. Englewood Cliffs: Prentice-Hall
International Editions, 1989.
JORGE, L.A.C.; GONÇALVES, D.S.; OYAMA, P.I.C.; FERREIRA, M.D. Uso de Sistemas
de Imagem para Classificação de Frutas e Hortaliças. Em: Tecnologias Pós-Colheita em
Frutas e Hortaliças. São Carlos – SP, Embrapa Instrumentação, 2011. p. 127 – 153.
MACDOUGALL, D.B. Colour measurement of food: principles and practice. In:
MacDougall, D.B. (ED). Colour in food Improving quality. Cambridge: Woodhead
publishing, 2002. p. 33 - 57.
MATHER, P. M. Computer Processing of Remotely – Sensed Images: An Introduction.
Rev. Científica Eletrônica UNISEB, Ribeirão Preto, v.1, n.1, p.91-110, jan./jun.2013
110
3rd. ed. West Sussex: John Wiley & Sons Ltd, 2004. p. 201-220.
PANIGRAHI, S.; GUNASEKARAN, S. Computer vision. In: GUNASEKARAN, S. (Ed.).
Nondesctructive food evaluation: techniques to analyze properties and quality. New York:
Marcel Dekker, 2001. p. 39–98.
SANÁBIO, D; CAETANO, A. F.; FLÁVIA, A.; FERNANDO, E. M.; GUEDES, V. S.;
HOMEM, T. G.; EUGÊNIO, G., Frutas e Derivados. Instituto Brasileiro de Frutas, Edição
12, 2009. p. 10 – 12.
SILVA, I.N.; SPATTI, D.H.; FLAUZINO, R.A. Redes Neurais Artificiais para engenharia e
ciências aplicadas. São Paulo: Artliber, 2010. p. 33 – 111.
SONKA, M.; HLAVAC, V.; BOYLE, R.Image Processing, Analisys, and Machine Vision.
USA: Thomson Learning, 2008, p. 176 – 183.
TSO, B.; MATHER, P. M. Classification Methods For Remotely Sensed Data. 2.ed. New
York: Taylor & Francis Group. 2009. p. 54-61.
Rev. Científica Eletrônica UNISEB, Ribeirão Preto, v.1, n.1, p.91-110, jan./jun.2013