inteligência computacional aplicada à adaptação na modelagem

Transcrição

inteligência computacional aplicada à adaptação na modelagem
INTELIGÊNCIA COMPUTACIONAL APLICADA À
ADAPTAÇÃO NA MODELAGEM MATEMÁTICA DO
PROCESSO DE LAMINAÇÃO A FRIO DE AÇOS PLANOS
Antonio Luiz dos Santos Filho
[email protected]
Instituto Federal de Educação, Ciência e Tecnologia de São Paulo – Campus Cubatão – IF/SP
Francisco Javier Ramirez-Fernandez
[email protected]
Escola Politécnica da Universidade de São Paulo – POLI/USP
Abstract
Flat steel cold rolling control system obtains its setpoints from a mathematical model, responsible for
process optimization. Since not all variables needed by the model can be effectively measured, and
since a very accurate modeling would be unsuitable for real time application or unachievable at all, the
mathematical model must to be an adaptive one, that is, must have its key parameters continuously
adjusted on the basis of real process values. This work proposes the joint application of
Computational Intelligence techniques (in special Artificial Neural Networks, Fuzzy Logic and Genetic
Algorithms) to improve the adaptation of two hardly modeled steel rolling process variables, namely
the material flow stress and the friction coefficient between the work rolls and the strip. The text
describes the theoretical foundations, the development methodology and the preliminary results,
outlining the steps for implementing the proposed system in a real tandem cold mill.
Resumo
As referências necessárias para o sistema de controle do processo de laminação a frio de aços
planos são obtidas através de um modelo matemático, responsável pela otimização do sistema.
Uma vez que nem todas as variáveis utilizadas pelo modelo podem ser efetivamente medidas e que
um modelo muito acurado pode ser inadequado (ou mesmo inexeqüível) para aplicação em tempo
real, o modelo matemático deve ser adaptativo, ou seja, deve ter seus parâmetros continuamente
ajustados com base nos valores efetivamente obtidos durante o processo. Este trabalho propõe a
utilização de técnicas de Inteligência Computacional (especificamente Redes Neurais Artificiais) para
aperfeiçoar a adaptação de duas variáveis de modelagem especialmente complexa, a saber: o limite
de escoamento da tira laminada e o coeficiente de atrito entre a tira e o laminador. O texto apresenta
os fundamentos teóricos, a metodologia de desenvolvimento e os resultados preliminares, delineando
em seguida os passos necessários para a implantação da proposta num laminador real.
Palavras chaves: laminação a frio, controle de processos, inteligência computacional, modelagem
matemática.
1. Introdução
(1)
Segundo descreve Guo , a laminação a frio de aços planos é um processo industrial de
grande complexidade, executado num ambiente bastante agressivo, e que é caracterizado por
parâmetros incertos, grandes tempos de atraso, múltiplas entradas, múltiplas saídas e por forte
interação entre as diversas variáveis. Essa interação aumenta de forma significativa a complexidade
das equações que constituem os modelos capazes de descrever de modo aceitável o controle em
tempo real desse tipo de processo. A solução de tais equações requer o uso de métodos iterativos,
que mesmo em computadores modernos, demandam um razoável tempo de processamento, bem
superior aos milésimos de segundo a que se resume o tempo de resposta do processo. Além disso,
o escopo do controle de uma planta de laminação cobre um amplo leque de funções cujo tempo de
resposta pode chegar a horas ou mesmo dias (como, por exemplo, o manuseio de ordens de
produção). Tais diferenças no escopo e na escala de tempo das diversas funcionalidades exigem,
(2)
de acordo com Reeve, Macalister e Bilkhu , que a automação de uma tal planta seja dividida em
níveis hierárquicos.
(3)
Em conformidade com esse conceito, Cho, Cho e Yoon dividem a estratégia de controle de
um laminador tandem (de múltiplas cadeiras) em três fases distintas, a saber: cálculo prévio (ou fase
estática), controle em tempo real (ou fase dinâmica) e pós-cálculo. A Figura 1 esquematiza a
estratégia de controle tal como concebida por esses autores.
CÁLCULO
PRÉVIO
PÓS - CÁLCULO
Planejamento
da Produção
Geração
de
Referência
s
Ada ptação de
Parâmetros
Base de
Dados
- Controle autom ático de espessura
Aquisição
de Dados
- Controle de
planicidade
CONTROLE EM TEMPO
REAL
- Outros controles
- Controle de tensão
Figura 1. Diagrama da estratégia de controle de um laminador tamdem.
A fase de cálculo prévio é executada por meio de modelos matemáticos. Sua função é
obter, a partir das informações sobre o material de entrada, os valores ótimos para as diversas
variáveis (força de laminação, velocidade, tensão mecânica, coroamento dos cilindros, etc.) de modo
que se obtenham as características desejadas para o produto final. Esse cálculo precisa levar em
conta os limites mecânicos e elétricos dos equipamentos, dentro dos quais deve objetivar as máximas
qualidade e produtividade.
A fase de controle em tempo real, que se inicia com a laminação propriamente dita, tem como
objetivo a manutenção, em face dos distúrbios existentes, da espessura de saída, da forma e do
acabamento superficial, sem que ocorra uma sobrecarga da operação das cadeiras intermediárias.
Um cuidado especial deve ser tomado em relação à tensão entre as cadeiras, para evitar o
afrouxamento ou o rompimento da tira. Os rápidos tempos de resposta exigidos nessa fase requerem
que o processamento seja executado através de controladores especialmente apropriados,
conhecidos como Controles Digitais Diretos (DDC), que consistem de dispositivos baseados em
microprocessadores, nos quais a lógica de controle é realizada por software.
A fase de pós-cálculo consiste na adaptação dos parâmetros do modelo matemático, com
base nos valores reais das variáveis, medidos pelos sensores localizados no Nível 0 da pirâmide de
automação, durante a fase dinâmica e enviados para o Nível 2. Dessa forma, o pós-cálculo é uma
fase intermediária na estratégia de controle, na qual interagem os níveis 0, 1 e 2 da pirâmide de
automação.
A adaptação é de importância fundamental para o bom desempenho do modelo. Reeve,
(2)
MacAlister e Bilkhu afirmam que, sem ela, não seria possível que os laminadores atingissem o
elevado desempenho que os caracteriza. A adaptação se faz necessária, em primeiro lugar, porque
mesmo na improvável hipótese de se desenvolver um modelo fenomenológico capaz de refletir
perfeitamente o processo de laminação, tal modelo seria de aplicação prática inexeqüível, devido aos
recursos computacionais requeridos. Além disso, as propriedades do material processado não são
totalmente conhecidas e as medições fornecidas pelos sensores, além de não serem completas (nem
todas as variáveis requeridas pelo modelo são medidas – algumas são inferidas), estão sujeitas a
erros de várias categorias (ruídos, calibração, fundo de escala, etc.). Faz-se necessário, portanto,
um ajuste coerente dos parâmetros do modelo, que leve em conta os resultados efetivamente obtidos
durante o processamento do material. Em geral, a estratégia de adaptação é dividida em quatro
estágios distintos: aquisição de dados, identificação dos parâmetros do produto, identificação dos
parâmetros do processo e atuação sobre o modelo.
Como exemplos de grandezas de importância fundamental para o bom desempenho dos
modelos matemáticos para a laminação a frio, encontram-se a resistência do aço à deformação
(relacionada com o limite de escoamento) e o coeficiente de atrito entre os cilindros de trabalho e a
tira laminada. A modelagem de tais grandezas é extremamente complexa e ainda não foi
desenvolvida uma estratégia que seja ao mesmo tempo suficientemente precisa e adequada em
termos de tempo de computação. Dessa forma, é inevitável que os valores efetivamente obtidos
para as diversas variáveis durante o processamento do material sejam diferentes daqueles previstos
pelo modelo. Para minimizar com tais discrepâncias, os valores reais são armazenados numa base
de dados e usados para nortear a alteração dos coeficientes de diversas equações do modelo – são
os chamados coeficientes adaptativos.
No que se refere à base de tempo, existem duas modalidades de adaptação: a de curto
prazo e a de longo prazo. A adaptação de curto prazo utiliza os resultados obtidos durante o
processamento de uma tira para aperfeiçoar o cálculo das referências para a tira seguinte, desde que
ela possua características semelhantes às da atual. Mais recentemente, com o aumento da
capacidade dos processadores, a adaptação de curto prazo é usada para o recálculo das referências
utilizadas na parte final do processamento de uma tira com base nas informações coletadas no inicio
da laminação dessa própria tira. Essa técnica é mais freqüentemente empregada nos laminadores
reversíveis. Na adaptação de longo prazo, os resultados obtidos para um grupo de tiras de
características similares são armazenados e usados no processamento futuro desse tipo de material.
(4)
De acordo com Fechner, Neumerkel e Keller , embora na maior parte dos modelos
matemáticos de laminação sejam utilizados algoritmos de mínimas médias quadráticas (LMS), devido
à sua simplicidade, os algoritmos de mínimos quadrados recursivos (RLS) apresentam melhor
desempenho, tanto em termos de velocidade de convergência quanto em termos de erros médios.
(2)
Reeve, MacAlister e Bilkhu preconizam a utilização de filtros de Kalman para a obtenção dos
valores ótimos para os coeficientes adaptativos. Cada um desses algoritmos apresenta diversas
variações. Note-se que, embora tais técnicas sejam por vezes utilizadas também para melhorar o
desempenho do controle (fase dinâmica), elas são muito mais confortavelmente adequadas à fase do
(5)
(6)
pós-cálculo, devido aos requisitos de tempo menos estritos. Yao et al. e He e Liu descrevem
detalhadamente técnicas utilizadas para a adaptação de modelos matemáticos de laminação.
(7)
De acordo com Röscheisen, Hoffmanm e Tresp , o considerável interesse econômico no
aperfeiçoamento nos métodos de adaptação utilizados nos modelos matemáticos de laminação
deriva do fato de que a capacidade de produzir com tolerâncias de espessura cada vez menores temse tornado indispensável para a sobrevivência das indústrias e, já ao tempo em que foi publicado o
trabalho desses pesquisadores, os métodos convencionais vinham-se mostrando insuficientes para
atender a tal nível de exigência.
Nessa busca por maior eficiência, certas peculiaridades dos fenômenos envolvidos na
laminação e seu sistema de controle (complexidade, informações incompletas e sujeitas a ruídos,
abundância de dados históricos, influência da habilidade e experiência humana em determinadas
operações) preconizam a Inteligência Computacional como ferramenta especialmente promissora.
Prova dessa adequação é o número sempre crescente de trabalhos reportando a utilização bem
sucedida de técnicas de Inteligência Computacional, especialmente Redes Neurais Artificiais (RNA),
Lógica Nebulosa (LN) e Algoritmos Genéticos (AG), no aperfeiçoamento de várias das funções
relacionadas a esse processo produtivo.
Face à variedade de aplicações bem sucedidas da Inteligência Computacional como
ferramenta de apoio a diversos aspectos da automação do processo siderúrgico de laminação, este
trabalho se propõe a investigar sua adequação a um aspecto particular desse processo, a saber: a
adaptação de seus modelos matemáticos de otimização.
O texto está organizado da seguinte forma: a Seção 2 trata dos fundamentos da Inteligência
Computacional, apresentando de forma sucinta suas principais técnicas. Em seguida, a Seção 3
caracteriza o problema abordado, justificando o enfoque por meio de Redes Neurais Artificiais. A
Seção 4 descreve a metodologia de desenvolvimento da solução proposta. Na Seção 5 relatam-se os
testes e resultados preliminares da aplicação do sistema num laminador real. Finalmente, a Seção 6
propõe futuras linhas de pesquisa para extensão dos resultados e apresenta as considerações finais.
2. Fundamentos de Inteligência Computacional
A Inteligência Computacional pode ser entendida, de um modo simplista, como uma
especialização de uma área mais ampla de conhecimento, que é a Inteligência Artificial. Nas
(8)
palavras de Duch , definições de ramos da Ciência não são forjadas a priori, mas desenvolvem-se
aos poucos, num processo de compartilhamento e de agrupamento de interesses comuns.
Reconhecendo que o termo tem significados diferentes para diferentes pessoas, Duch formula uma
definição ampla para a Inteligência Computacional como sendo “um ramo da Ciência da Computação
que estuda problemas para os quais não existem algoritmos computacionais eficientes”. Em sua
pesquisa sobre publicações científicas na área de Inteligência Computacional, esse autor constatou
que são três as principais tecnologias abordadas: Redes Neurais Artificiais (RNA), Lógica Nebulosa
(LN) e Computação Evolucionária, em especial os Algoritmos Genéticos (AG).
As aplicações baseadas em RNA são, de longe, as mais comuns e as que abrangem o maior
(9)
leque de aspectos específicos da laminação. Trabalhos como os de Larkiola et al. e de Schlang et
(10)
al.
relatam o uso de RNA em conjunto com modelos matemáticos para aperfeiçoar a capacidade
de previsão dos valores de uma ou mais variáveis importantes. Em trabalhos como os de Hattori,
(11)
(12)
Nakajima e Katayama
e de Sbarbaro-Hofer, Neumerkel e Hunt , as RNA são utilizadas no
controle em tempo real. Essas são apenas algumas das muitas referências.
(13)
Seguem-se em quantidade as aplicações baseadas em Lógica Nebulosa. Sharma e Parfitt
(14)
utilizam essa ferramenta na fase de otimização, enquanto Janabi-Sharif e Fan
a empregam na
fase de controle.
Embora em menor número, aplicações de algoritmos genéticos na otimização do processo de
(15)
laminação também têm sido reportadas. Brezocnik, Balic e Kampus
relatam o uso dessa
ferramenta para a estimativa do limite de escoamento de materiais metálicos, que é uma variável
importante para os modelos matemáticos do processo, mas de difícil determinação. Wang, Tieu e
(16)
D’Alessio
propõem algoritmos genéticos para a obtenção do esquema ótimo para um laminador de
tiras a frio.
Além dos vários trabalhos registrando a utilização isolada de uma dessas ferramentas,
existem vários outros em que elas são aplicadas de forma conjunta, em todas as combinações
(17)
(18)
possíveis: Mendez et al.
estão entre os que desenvolveram sistemas neurofuzzy, Son et al.
(19)(20)
combinaram redes neurais e algoritmos genéticos e Janabi-Sharif e Liu
utilizaram tanto sistemas
fuzzyevolutivos como sistemas neurofuzzyevolutivos. Todas essas referências apresentam
aplicações diretamente relacionadas com o processo industrial de laminação.
Embora uma exposição detalhada dos aspectos relacionados com cada uma dessas
ferramentas fuja ao escopo deste trabalho, apresenta-se a seguir uma explanação sucinta sobre elas,
mostrando seu potencial como abordagem ao problema da adaptação de modelos matemáticos.
2.1 Redes Neurais Artificiais
Tratam-se de sistemas computacionais, implementados através de software ou hardware,
constituídos por diversas unidades processadoras ligadas entre si através de conexões ponderadas,
conhecidas como sinapses. Sua organização e modo de operação inspiram-se vagamente no
cérebro humano. Cada unidade processadora aplica uma função de transferência (em geral nãolinear) sobre a entrada que lhe é aplicada, que por sua vez é obtida pela soma ponderada das saídas
das unidades a ela conectadas. Através de um processo chamado de treinamento, os pesos das
conexões vão sendo ajustados de modo conveniente, a partir de um processo iterativo em que os
valores das saídas fornecidas pela rede são comparados com os valores conhecidos ou esperados
(treinamento supervisionado) ou passam a apresentar um padrão definido (treinamento não
supervisionado). A regra para a modificação dos pesos é conhecida como lei de aprendizado.
A arquitetura mais utilizada para as RNA é aquela conhecida como Perceptrons em Múltiplas
Camadas (Multilayers Perceptrons – MLP), que possui três ou mais camadas de unidades
processadoras que se ligam exclusivamente às unidades da camada imediatamente seguinte ( a
chamada protoalimentação ou feedforward). As unidades da primeira camada recebem as entradas
da rede e as unidades da última camada produzem as saídas. As demais camadas são conhecidas
como camadas ocultas ou camadas intermediárias. Em geral, uma única camada oculta é suficiente.
Na grande maioria das aplicações, utiliza-se uma unidade processadora adicional, cuja saída é
constante e igual a 1 e que se conecta a todas as demais unidades da rede, com exceção das que se
encontram na camada de entrada. Essa unidade é conhecida pelo nome de bias (viés). O
treinamento para esse tipo de rede tem que ser supervisionado, ou seja, exige o conhecimento prévio
dos valores das saídas para cada padrão aplicado à entrada. O algoritmo de treinamento mais
freqüentemente empregado é o conhecido como retropropagação dos erros (error backpropagation),
que possui diversas variantes em termos de leis de aprendizado.
Uma vez treinada, uma RNA é capaz de fornecer as saídas correspondentes a padrões de
entrada diferentes daqueles usados durante o seu treinamento, com grau de precisão arbitrário
(desde que se disponha de um número suficiente de unidades e de padrões de treinamento). Tal
característica, altamente desejável numa RNA, é conhecida como generalização. Para se
incrementar essa capacidade, as boas práticas de desenvolvimento de RNAs recomendam que os
dados disponíveis sejam divididos em conjuntos distintos para o treinamento, para o teste e para a
validação das redes.
A principal vantagem de uma RNA é, portanto, a possibilidade de modelar um problema real
primordialmente com base em um número adequado de observações, demandando pouco
conhecimento específico sobre o assunto em questão. No caso de sistemas com entradas e saídas
multidimensionais, com relacionamentos complexos ou desconhecidos e comportamento não linear,
esta é, por vezes, a única abordagem factível. A principal desvantagem reside na dificuldade de se
explicitar o conhecimento armazenado numa RNA.
A Figura 2 mostra a arquitetura de uma RNA do tipo MLP (não está representada a unidade
de bias) e a Figura 3 apresenta o fluxograma do seu algoritmo de treinamento.
Figura 2. Estrutura de uma RNA do tipo MLP com uma única camada oculta
Figura 3. Fluxograma do treinamento supervisionado de uma RNA
2.2 Lógica Nebulosa
(21)
O termo Lógica Nebulosa (Fuzzy Logic) foi cunhado por Zadeh
há quase meio século,
num trabalho em que procurou sistematizar um procedimento matemático para lidar com o chamado
raciocínio aproximado que, na visão desse autor, caracteriza a maior parte dos problemas com que o
ser humano se defronta. Conceitos como “quente”, “baixo” ou “longe” são facilmente compreensíveis
para as pessoas, sem que se exijam valores numéricos precisos. Enquanto a lógica clássica é
essencialmente binária (uma afirmação é falsa ou verdadeira, um elemento pertence ou não pertence
a um determinado conjunto), a Lógica Nebulosa admite a idéia de grau de pertinência de um
elemento em relação a um dado conjunto.
A importância da Lógica Nebulosa consiste em permitir a quantificação de conceitos ou
(22)
propriedades que o homem manipula semanticamente – isto é o que Zadeh
chama de
“computação com palavras”. Dessa forma, torna-se possível instruir um computador a executar um
algoritmo do tipo “se o nível do tanque estiver muito baixo, feche a válvula V1; se estiver um pouco
alto, abra a válvula V2”. Tal algoritmo, de evidente simplicidade para um operador humano,
apresenta notável complexidade para a computação convencional. A Lógica Nebulosa permite a um
processador saber o que significa “muito baixo” ou “um pouco alto”, questões que sequer chegam a
demandar “tempo de processamento” do cérebro humano.
A utilização de Lógica Nebulosa permite, portanto, que se projetem controladores cujo
funcionamento se baseie em regras semânticas, ao invés de em algoritmos puramente numéricos.
Isso dá ensejo à concepção de programas semelhantes aos sistemas especialistas, com a vantagem
de tomarem decisões de forma semelhante à que faria um ser humano, ao invés de se limitarem
simplesmente a dar sugestões que sejam seguidas a critério de um operador. Tais programas são
conhecidos como Sistemas de Inferência Nebulosa (Fuzzy Inference Systems – FIS), e se baseiam
em regras do tipo “SE... ENTÃO...”. A Figura 4 representa o diagrama em blocos de um Sistema de
Inferência Nebulosa.
Figura 4. Diagrama de blocos de um sistema de inferência nebulosa do tipo Mandani
2.3 Algoritmos Genéticos
Os Algoritmos Genéticos (AG) são métodos adaptativos de busca e otimização cuja operação
é baseada nos processos de seleção natural. Os seres vivos eventualmente experimentam
alterações genéticas e, quando estas acarretam uma descendência com maiores condições de
sobrevivência, acabam por se tornar dominantes entre a população. Caso contrário, a seleção
natural se encarregará de extinguir esse código genético. Esse mecanismo serviu de inspiração para
(23)
Holland no desenvolvimento dos AG. Seu objetivo era investigar os mecanismos de naturais de
adaptação e desenvolver métodos para utilizá-los em sistemas computacionais.
(24)
Mitchell afirma que, embora não exista uma definição universalmente aceita pelos
pesquisadores da área para diferenciar os AG de outros métodos de Computação Evolucionária,
existem alguns elementos comuns a todos os algoritmos denominados “genéticos”: populações de
cromossomos, seleção de acordo com a aptidão, cruzamento para produzir novas gerações e
(25)
mutação aleatória. A Figura 5, reproduzida do trabalho de Townsend , representa a estrutura básica
de um Algoritmo Genético. Nela podem ser vistos os elementos acima citados.
Figura 5. Fluxograma de um Algoritmo Genético elementar
A terminologia empregada em AG é, compreensivelmente, bastante similar à utilizada em
Genética. Cada uma das possíveis soluções para um problema é conhecida como um indivíduo ou
cromossomo, e a cada indivíduo é atribuído uma pontuação de acordo com a sua aptidão, ou seja,
seu grau de correção ou qualidade como solução do problema. O conjunto de indivíduos é
conhecido como população. Aos indivíduos com maior aptidão são dadas melhores condições para
a reprodução, ou seja, a interação com outros indivíduos para a combinação de seu código genético,
dando origem a um descendente cujas características são uma combinação daquelas apresentadas
por seus pais. Cada símbolo no código genético (que pode ser uma seqüência de bits binários, de
números inteiros ou de números em ponto flutuante) é conhecido como um gene. Os indivíduos com
menor aptidão terão menor probabilidade de se reproduzir e, ao longo de algumas gerações, seu
código genético acaba sendo extinto. Assim, cada nova geração tende a preservar as melhores
características das gerações anteriores, de modo que, se o AG tiver sido corretamente especificado,
ele convergirá para uma solução aceitável para o problema em questão.
(26)
Goldberg apresenta diversas peculiaridades que diferenciam os AG de outras técnicas de
busca, entre as quais: o fato de usarem regras de transição probabilísticas, ao invés de
determinísticas; serem inerentemente paralelos, residindo aí sua principal vantagem; necessitarem
apenas das informações sobre a função objetivo e o valor correspondente de aptidão para decidirem
a direção na busca da solução; e serem, em geral, de aplicação mais direta do que outros métodos.
(25)
No que se refere à aplicabilidade da ferramenta, Townsend relaciona algumas
características dos problemas para os quais os AG são especialmente recomendados:

Uma técnica de busca robusta é necessária;

Uma solução quase-ótima é aceitável;

O espaço de soluções é muito grande para ser percorrido por outros métodos;

Suas soluções potenciais são facilmente representáveis;

A avaliação de cada solução potencial é factível;

É possível definir uma função de aptidão para as soluções potenciais;

Essa função de aptidão é sujeita a ruídos;

É possível utilizar processamento paralelo na busca da solução.
(24)
Mitchell argumenta que ainda que o problema não tenha essas características, isso não
permite afirmar que um GA seja menos eficiente que outras técnicas na busca de sua solução.
Segundo ela, a eficiência de um GA está diretamente relacionada com a forma como ele é
desenvolvido, e a pesquisa teórica baseada meramente nas características do problema abordado
ainda não foi capaz de produzir prognósticos acurados quanto ao desempenho da ferramenta.
3. Caracterização do Problema Abordado
Para que os requisitos de qualidade sejam plenamente atingidos e o equipamento seja
operado dentro da máxima produtividade, é essencial que as referências (presets) sejam
corretamente calculadas; em outras palavras, é necessário que o modelo responsável pelo cálculo
dessas referências seja acurado. A Figura 6 mostra um gráfico de espessura típico de uma tira
produzida na planta estudada, ou seja, uma tira em cujo processamento o Nível 1 utilizou referências
corretamente calculadas pelo Nível 2. A linha verde representa o desvio percentual da espessura
em relação à objetivada, as linhas vermelhas representam os limites aceitáveis para tal desvio e a
linha azul representa a velocidade de laminação.
Figura 6. Desempenho típico do controle de espessura
Como se pode observar, a espessura real se afasta da objetivada apenas nas extremidades
da tira (nas quais o controle de espessura está fora das condições de regime) e nas regiões nas
vizinhanças das soldas, visto que uma tira laminada a frio é composta por duas ou três tiras
anteriormente laminadas a quente (as soldas são feitas na planta anterior, a decapagem). Para fins
de comparação, a Figura 7 mostra o gráfico relativo a uma tira processada com referências
inadequadas.
Figura 7. Desempenho do controle de espessura no caso de referências inadequadas
Conforme mostra a figura, as referências erroneamente calculadas praticamente
inviabilizaram a operação do controle em tempo real, resultando numa tira fora dos requisitos de
qualidade. Uma vez que não é possível reprocessar o material no próprio laminador (o que, por si
só, representaria uma perda por retrabalho), e que o processo posterior de laminação (executado no
Laminador de Encruamento) é capaz de realizar apenas pequenas variações na espessura do
material, o sucateamento da tira é virtualmente inevitável.
Ainda que o erro no cálculo das referências não seja de magnitude suficiente para causar
problemas de qualidade, pode influir também sobre a produtividade da planta. A Error! Reference
source not found. mostra as características dos motores principais do laminador estudado,
responsáveis pelo acionamento dos cilindros de trabalho. Entre as referências calculadas pelo
modelo se encontra a potência desenvolvida em cada cadeira, que obviamente deve respeitar os
limites dos seus motores. Quando o modelo verifica que a potência exigida numa determinada
cadeira é superior à permitida, sua estratégia consiste em reduzir a velocidade naquela cadeira de
modo a garantir o respeito aos limites. Se, no entanto, a potência em excesso não é real, mas
resultante de um erro de cálculo, a redução de velocidade (de fato, desnecessária) significa uma
perda de produtividade. Pode ocorrer o erro oposto (cálculo de uma potência inferior à realmente
exigida), o que acarreta o cálculo de uma velocidade superior à permitida. Nesse caso, os
controladores de Nível 1 garantem os limites seguros de operação.
Tabela 1.
Características dos motores principais do laminador estudado
A principal causa de imprecisões no cálculo das referências é a presença dos chamados
parâmetros incertos, que são aqueles cujos valores não podem ser diretamente medidos e cuja
modelagem apresenta significativa complexidade. O objetivo do emprego de técnicas adaptativas na
modelagem matemática do processo é lidar da melhor maneira possível com tais variáveis, de modo
a maximizar a qualidade e a produtividade do equipamento.
No caso específico da planta estudada (o Laminador de Tiras a Frio da Usina de Cubatão da
Usiminas), a produção anual é da ordem de 1.100.000 toneladas. Assim, um aumento de 0,1 % na
produtividade significa uma produção adicional de 1.100 toneladas por ano. Quantificando
financeiramente, dado o preço médio de US$ 661,00 para a tonelada da bobina laminada a frio no
ano de 2007 (usado como referência por não refletir os efeitos da crise econômica mundial do final da
década), tal acréscimo implica numa receita anual complementar de US$ 727.100,00, o que justifica
plenamente quaisquer iniciativas de otimização.
Dentre os diversos parâmetros incertos presentes no processo de laminação, os mais
importantes são o limite de escoamento do material e o coeficiente de atrito entre a tira e os cilindros
de trabalho. Esse trabalho focaliza sua atenção nessas duas grandezas, buscando sua modelá-las
através de redes neurais artificiais. Para cada uma das duas grandezas foram desenvolvidas quatro
redes neurais, para levar em conta as peculiaridades das cadeiras do laminador.
4. Desenvolvimento da Solução
O primeiro passo foi uma revisão bibliográfica para a determinação dos fatores de influência
sobre as duas grandezas, de forma a orientar a coleta dos dados necessários para a sua modelagem
por meio de redes neurais.
Com relação ao limite de escoamento, a pesquisa apontou como principais fatores
determinantes a deformação experimentada pelo material, a taxa em que essa deformação ocorre e a
composição química. Embora a temperatura também tenha influência sobre essa grandeza, no caso
específico da laminação a frio ocorre pouca variação de temperatura de uma bobina para outra, de
forma que a temperatura de processamento não é relevante numa modelagem por meio de redes
neurais. Mais importante é a temperatura em que a tira foi processada no laminador a quente, razão
pela qual a temperatura de bobinamento ao final desse processo foi incluída no conjunto de entradas
das redes neurais. A temperatura de acabamento a quente também seria relevante, mas não foi
incluída por não estar disponível na base de dados históricos da planta. Os elementos relevantes da
composição química são os teores de carbono, manganês, alumínio, silício, titânio e molibdênio, num
total de 12 entradas.
Com relação ao coeficiente de atrito, a pesquisa revelou que o limite de escoamento é um
fator de grande relevância. Além do limite de escoamento, as demais variáveis de entrada para as
redes neurais que modelam o coeficiente de atrito são: o diâmetro, a rugosidade, a coroa e a dureza
dos cilindros de trabalho, a tonelagem laminada pelos cilindros de trabalho desde a última troca (para
embutir a informação sobre o desgaste dos cilindros), a largura da tira, as espessuras de entrada e
de saída da tira, o valor da deformação real, a força de laminação, as tensões avante e à ré e a
velocidade da quarta cadeira, perfazendo um total de 14 variáveis.
4.1 Coleta de Dados
Dados são essenciais para o desenvolvimento de sistemas baseados em RNA. De acordo
(27)
com Zhang, Patuwo e Hu , RNA são adequadas para problemas que envolvam conhecimento de
explicitação complexa, mas para os quais existam suficientes dados ou observações. A quantidade
e a qualidade desses dados são determinantes na viabilidade da abordagem de um problema através
desse instrumento, bem como na escolha da topologia da RNA a ser empregada.
Os dados necessários para o desenvolvimento se dividem nas seguintes categorias:
•
•
•
•
Dados primários → Tratam-se de informações conhecidas a priori pelo nível corporativo.
Estão relacionados com as dimensões e composição química da matéria-prima e com as
dimensões e características de qualidade objetivadas para o produto. As espessuras de
entrada e saída, o tipo de aplainamento e o código de estampagem são exemplos de dados
primários.
Dados de operação → Tratam-se de diretivas para o processamento do material, que o
operador informa ao sistema de automação imediatamente antes da produção efetiva. O
nível corporativo não tem conhecimento prévio acerca desse tipo de dados. A força de
laminação imposta na última cadeira é um exemplo de dado de operação.
Dados de equipamento → Tratam-se de parâmetros próprios da planta, relativos a
dimensões, limites aceitáveis para certas grandezas, etc. Entre os dados de equipamento
incluem-se informações sobre os cilindros de laminação (diâmetro, coroa, dureza, etc.). Tais
dados são conhecidos antes do processamento do material.
Dados de modelo → Tratam-se basicamente das referências, ou seja, os valores calculados
pelo modelo matemático, levando em conta os dados primários, os dados de operação e as
características estáticas e dinâmicas da planta. Entre os dados de modelo incluem-se a
força de laminação nas diversas cadeiras e a velocidade linear da tira nos diversos vãos.
Dados de processo → Tratam-se dos valores efetivos das diversas variáveis relevantes para
o desenvolvimento das diversas redes neurais. Em geral, tais valores são obtidos pelos
sensores do Nível 0 de automação, e, através do Nível 1, chegam ao Nível 2, onde são
armazenados. Alguns desses dados, ao invés de medidos, são calculados.
Conforme exposto acima, a arquitetura de automação da planta inclui uma base relacional de
dados históricos, que armazena as informações referentes a até dois anos de produção. Essa base
de dados é formada por 58 tabelas. A utilização de um sistema de gerenciamento relacional de base
®
de dados, como o Oracle , facilita sobremaneira o pré-tratamento dos dados. Por meio da
formulação adequada do comando SQL de consulta à base, a exclusão de eventuais registros com
valores incoerentes ou fora da faixa permitida é feita automaticamente. Além disso, os comandos
SQL permitem a classificação dos dados, sua ordenação e a obtenção de informações secundárias
provenientes de operações entre duas ou mais informações primárias. Torna-se desnecessário,
portanto, o emprego de softwares especializados de pré-processamento.
De modo a garantir que os dados utilizados no treinamento das redes englobassem toda a
gama de materiais processados pela planta, a pesquisa à base de dados abrangeu um total de sete
meses de produção. Foram obtidos cerca de 12.000 registros válidos para as redes para a
•
modelagem do limite de escoamento e cerca de 15.000 registros válidos para as redes referentes ao
coeficiente de atrito.
4.2 Treinamento das Redes
Os dados foram exportados para planilhas Excel® e em seguida utilizados para o treinamento
das redes através da toolbox Automated Neural Networks do utilitário Statistica®. Embora a toolbox
de redes neurais do utilitário Matlab® também estivesse disponível, optou-se pelo Statistica® como
ferramenta para o treinamento das redes em virtude de suas características autônomas de operação.
Uma vez informado sobre o tipo de problema a ser abordado com a RNA (regressão,
classificação ou série temporal), sobre o tipo de rede a ser experimentado (MLP e/ou RBF) e sobre os
limites desejados para o número de unidades ocultas, esse utilitário treina automaticamente um
número arbitrário de redes-candidatas, salvando aquelas que apresentarem os melhores resultados.
Dessa forma, o processo de tentativa e erro que caracteriza o desenvolvimento de aplicações
envolvendo redes neurais é consideravelmente simplificado.
Outras características positivas deste utilitário são a geração de um código C de grande
portabilidade, a disponibilidade de ferramentas para a realização de uma minuciosa análise estatística
das variáveis, pré-processamento das variáveis de entrada e pós-processamento das variáveis de
saída de forma transparente ao usuário. Como desvantagem em relação à toolbox correspondente
do Matlab®, ele não oferece flexibilidade em relação ao número de camadas ocultas (admite apenas
uma), nem em relação a algoritmos de treinamento.
O utilitário foi configurado para treinar, para cada uma das duas grandezas e cada uma das
quatro cadeiras, 20 redes com a arquitetura MLP, com um mínimo de 10 e um máximo de 30
unidades na camada oculta, retendo as 5 melhores redes. Como funções de ativação das unidades
em cada camada foram pré-selecionadas as funções logística, tangente hiperbólica e identidade. Foi
descartada a opção de redes RBF, devido ao número elevado de centros propostos pelo utilitário de
treinamento. Os dados disponíveis foram divididos nos conjuntos de treinamento (78% dos dados),
de teste (17% dos dados) e de validação (5% dos dados).
A Tabela 2 apresenta as principais características (topologia, correlação entre os resultados e
os valores objetivados e erro) das melhores soluções obtidas para cada uma das redes treinadas. As
redes denominadas como “E” referem-se ao limite de escoamento e as chamadas “A” referem-se ao
coeficiente de atrito. Os números após as letras referem-se ao número da cadeira modelada pela
rede. Como exposto acima, as redes de limite de escoamento possuem 12 entradas e as de
coeficiente de atrito possuem 14 entradas. Em todos os casos, as redes possuem uma única saída.
R
E
D
E
Unidades
na
camada
oculta
Correlação
do conjunto
de
treinamento
Correlação
do conjunto
de teste
Erro do
conjunto de
treinamento
Erro do
conjunto
de teste
Algoritmo de
treinamento e
nº de épocas
Função de
ativação
na camada
oculta
Função de
ativação
na camada
de saída
E1
26
0,9636
0,9560
0,0006
0,0007
BFGS/361
logística
identidade
E2
19
0,9400
0,9285
0,0012
0,0012
BFGS/34
logística
tanh
E3
35
0,9604
0,9587
0,0005
0,0005
BFGS/362
tanh
logística
E4
16
0,9047
0,8780
0,0009
0,0012
BFGS/180
tanh
logística
A1
46
0,9612
0,9564
0,0006
0,0006
BFGS/276
tanh
tanh
A2
28
0,9581
0,9537
0,0006
0,0007
BFGS/317
tanh
tanh
A3
29
0,8969
0,8658
0,0010
0,0012
BFGS/194
logística
logística
A4
38
0,9630
0,9455
0,0018
0,0027
BFGS/257
logística
logística
Tabela 2.
Características e desempenho das redes treinadas
4.3 O Aplicativo Sigma_Mu_Calc
Obtidas as configurações ótimas para as oito redes neurais, o passo seguinte foi a sua
implementação na forma de um programa que pudesse ser facilmente incorporado ao sistema de
automação do laminador. Assim, foi criado um utilitário em linguagem C#, por meio da ferramenta de
desenvolvimento Microsoft® .Net Visual Studio®, a mesma usada no Nível 2 da automação da planta.
O aplicativo foi denominado como Sigma_Mu_Calc.
O programa foi desenvolvido de modo a interagir de modo off-line com o processo, ou seja,
seus resultados são usados pelo modelo apenas em condições de teste (que serão descritas no
próximo capítulo), e não durante a operação efetiva. Desse modo, ele foi dotado de uma interface
própria (independente das telas normais de operação), utilizada unicamente pelo analista de
processo, e não pelos operadores. A Figura 8 mostra essa interface.
Figura 8. Interface do utilitário Sigma_Mu_Calc
Na parte superior da interface (grupo “Dados Relevantes das Bobinas Disponíveis Para
Produção”) são visualizados os dados primários das bobinas prontas para o processamento na
planta. Esses dados são obtidos por meio de uma “view” (tabela virtual gerada a partir de uma
instrução SELECT) da base de dados de produção.
Logo abaixo, no lado esquerdo (grupo “Dados Relevantes dos Cilindros de Trabalho”),
visualizam-se os dados de equipamento necessários para as entradas das redes, todos eles
relacionados com os cilindros de trabalho. Esses dados são obtidos por meio de um comando
SELECT aplicado à base histórica de dados da planta.
À direita se encontra o grupo “Valores de Processo”, que reúne as estimativas sobre os
valores de modelo utilizados como entradas para as redes neurais, que, como explanado
anteriormente, só são determinados depois que o modelo matemático realiza os seus cálculos. Uma
vez, porém, que os valores de limite de escoamento e de coeficiente de atrito determinados pelo
aplicativo Sigma_Mu_Calc devem ser utilizados pelo modelo, eles precisam estar disponíveis antes
que este seja executado. Faz-se necessária, portanto, uma estimativa confiável dos valores de
processo para viabilizar a operação do sistema proposto.
A solução adotada foi incorporar o aplicativo NeuraLTF, desenvolvido por Santos Filho e
(28)
Ramirez-Fernandez . Esse aplicativo foi concebido originalmente como uma alternativa ao modelo
matemático (na ocorrência de falhas no servidor de Nível 2 que impossibilitem a sua operação) e
utiliza redes neurais para obter a totalidade das referências calculadas pelo modelo, utilizando como
entradas exclusivamente dados primários e um único dado de operação, a saber, a força imposta.
Os resultados obtidos por meio desse utilitário apresentam desvio inferior a 10% em relação
aos valores calculados pelo modelo matemático, constituindo, portanto, uma estimativa adequada
para os valores de processo requeridos pelo Sigma_Mu_Calc. Das quatro redes neurais que o
NeuraLTF utiliza, apenas a que calcula os valores de referência para a fase de laminação
propriamente dita foi incorporada ao Sigma_Mu_Calc para conseguir as variáveis importantes para
sua operação (força e velocidade nas cadeiras, espessura e tensão nos vãos).
Obtidos os dados primários, os dados dos cilindros e os valores de processo, resta apenas a
seleção da força de laminação imposta na quarta cadeira e executar o cálculo dos parâmetros limite
de escoamento e coeficiente de atrito para as quatro cadeiras do laminador (grupo “Valores de
Parâmetros Obtidos pelas RNA”, na parte inferior da interface). Digno de nota é o fato de que toda a
entrada de dados se faz sem a necessidade de digitação, sendo integralmente realizada através do
dispositivo apontador.
Os valores calculados pelo Sigma_Mu_Calc devem então substituir os valores
correspondentes utilizados pelo modelo matemático, avaliando-se em seguida o efeito dessa
substituição sobre as referências calculadas pelo modelo. Tal avaliação é apresentada na seção
seguinte.
5. Testes e Avaliação dos Resultados
Conforme exposto anteriormente, os testes do sistema foram realizados sem intervenção
direta no processo. A estratégia adotada foi realizar as intervenções no modelo matemático a partir
do servidor reserva de Nível 2. Foram selecionadas 84 bobinas, correspondentes a três programas
de produção e armazenados os valores das referências calculadas pelo modelo convencional para
estas bobinas. Em seguida, os dados primários, os dados de equipamento e os dados de operação
correspondentes foram transferidos para a base de dados do servidor reserva. De posse dessas
informações, o passo seguinte foi recalcular as referências, modificando previamente os valores de
limite de escoamento e de coeficiente de atrito por aqueles fornecidos pelo Sigma_Mu_Calc. A
Figura 9 apresenta a interface para inclusão de bobinas na entrada do laminador.
Figura 9. Interface da fila de entrada do laminador
Uma vez uma bobina tenha sido incluída na fila de entrada do laminador, o modelo executado
no servidor de Nível 2 pode calcular as referências que serão utilizadas em tempo real pelos
controladores do Nível 1. Visto que o Sigma_Mu_Calc não está incorporado ao Nível 2, são
necessárias operações manuais para que os valores dos parâmetros utilizados pelo modelo
matemático convencional sejam substituídos pelos obtidos através do aplicativo.
Foram realizadas três baterias de testes: a primeira utilizando tanto os valores de limite de
escoamento como os valores de coeficiente de atrito calculados pelo Sigma_Mu_Calc, a segunda
utilizando apenas os valores de limite de escoamento e a última usando exclusivamente os valores de
coeficiente de atrito. A Figura 10 mostra a interface de Nível 2 para o cálculo de referências.
Selecionando-se uma das bobinas presentes na fila de entrada, o cálculo é automaticamente
executado, sendo permitido ao operador modificar os dados primários ou de operação e solicitar o
recálculo sempre que julgar conveniente. No caso dos testes aqui descritos, uma vez que os valores
alterados foram de parâmetros internos do modelo, as modificações foram efetuadas através de
comandos REPLACE diretamente na base de dados, e não por meio da interface.
Figura 10. Interface para o cálculo de referências
Ao final de cada bateria de testes, os valores de referência obtidos após a modificação do(s)
parâmetro(s) eram recuperados da base de dados e transferidos para uma planilha eletrônica para
posterior comparação.
5.1 Avaliação dos Resultados
O modelo matemático calcula um total de 125 valores de referências, de forma que o exame
exaustivo de cada um desses valores seria inexeqüível. Por isso, a estratégia adotada foi uma
análise qualitativa geral, que foi realizada pelo simples exame da interface de cálculo de referências,
a qual, em caso de resultados fora dos limites aceitáveis pela planta, produz indicações visuais de
alarme e, em caso de processamento real, impede que as referências sejam carregadas nos
controladores de Nível 1.
Em seguida a essa análise qualitativa procedeu-se a uma análise quantitativa de duas
grandezas para cada uma das cadeiras: a força de laminação e a velocidade de laminação. A força
de laminação foi escolhida pela sua grande influência sobre a qualidade do produto e a velocidade
por estar ligada à produtividade da planta. Como exposto anteriormente, incrementos em qualquer
uma dessas características, ainda que da ordem de partes por mil, proporcionam consideráveis
ganhos financeiros.
Os valores medidos para essas grandezas durante o processamento efetivo das bobinas de
teste foram adotados como alvos e com eles foram comparados: os valores calculados pelo modelo
convencional, os valores calculados com alteração simultânea de limite de escoamento e coeficiente
de atrito, os valores calculados com alteração apenas de limite de escoamento e os valores
calculados com alteração apenas de coeficiente de atrito. Essa comparação foi feita num total de 84
bobinas, compreendendo três programas de produção.
Uma vez que os testes tiveram que ser realizados em modo off-line, ou seja, sem intervenção
efetiva sobre o processo, foi adotado o seguinte procedimento: após a produção efetiva das 84
bobinas, os valores de referências obtidas pelo modelo matemático convencional da planta foram
salvos. Depois os dados referentes àquelas bobinas foram carregados no servidor reserva de Nível
2, que em condições normais opera de forma stand-alone. Em seguida, solicitou-se o cálculo das
referências para as bobinas nas três condições explanadas acima: modificando-se tanto o limite de
escoamento como o coeficiente de atrito; modificando-se apenas o limite de escoamento e, por fim,
modificando-se apenas o coeficiente de atrito. Os resultados obtidos em cada uma dessas situações
foram salvos para posterior comparação com os calculados em condições normais. As tabelas
seguintes apresentam o erro percentual médio das grandezas comparadas em cada uma das
situações, sempre em relação ao valor medido, para as 84 bobinas testadas. A Tabela 3 refere-se à
força de laminação e a Tabela 4 refere-se à velocidade de laminação.
Método de
Cálculo
Força de
Laminação
da Cadeira 1
Força de
Laminação
da Cadeira 2
Força de
Laminação
da Cadeira 3
Força de
Laminação
da Cadeira 4
Modelo
Convencional
0,42%
0,76%
2,61%
-0,19%
Escoamento e
Atrito por RNA
5,06%
4,34%
2,57%
0,67%
1,88%
1,48%
2,57%
-1,19%
3,82%
2,46%
0,99%
0,12%
Só Escoamento
Por RNA
Só Atrito por
RNA
Tabela 3.
Valores percentuais de erro para as forças de laminação
Método de
Cálculo
Velocidade de
Laminação da
Cadeira 1
Velocidade de
Laminação da
Cadeira 2
Velocidade de
Laminação da
Cadeira 3
Velocidade de
Laminação da
Cadeira 4
Modelo
Convencional
-5,66%
-7,48%
-5,83%
-7,95%
Escoamento e
Atrito por RNA
-5,52%
-7,26%
-5,64%
-7,97%
2,06%
0,14%
1,66%
-0,70%
1,55%
0,11%
1,85%
-0,99%
Só Escoamento
por RNA
Só Atrito por
RNA
Tabela 4.
Valores percentuais de erro para as velocidades de laminação
A análise desses resultados permite concluir que, no estágio atual de desenvolvimento, o
sistema proposto provoca, em geral, queda do desempenho da determinação de força para as
cadeiras 1 e 2, ao mesmo tempo em que proporciona sensível melhora no desempenho do cálculo
das velocidades de todas as cadeiras (desde que a modelagem de limite de escoamento não seja
combinada com a de coeficiente de atrito). O mais significativo é que as velocidades calculadas pelo
sistema proposto tendem a ser maiores do que as calculadas pelo modelo convencional, o que se
reflete num ganho de produtividade.
Uma vez que um menor desempenho no cálculo de forças degrada a qualidade de produto (o
que não é aceitável) e que o sistema atua forçosamente sobre ambas as variáveis, mas permite a
seleção das cadeiras sobre as quais se dará tal atuação, a recomendação é que se utilize a
modelagem única do coeficiente de atrito, aplicada sobre as cadeiras 3 e 4. Dessa forma, será
proporcionada uma pequena melhoria no cálculo de força e uma significativa melhoria do cálculo de
velocidades, com valores maiores e mais próximos aos efetivamente medidos. A maior efetividade
da modelagem neural do coeficiente de atrito já era esperada, visto que essa variável possui
modelagem física mais complexa do que o limite de escoamento e, portanto, teria maior probabilidade
de se beneficiar de uma modelagem empírica.
6. Pesquisa Futura e Considerações Finais
Os seguintes passos são previstos para o aperfeiçoamento do trabalho e melhoria dos seus
resultados:
•
•
•
•
Aumentar o número de simulações off-line, com o objetivo de explicitar as classes de
materiais (dimensões, composições químicas) cujo processamento é mais favorecido pela
modelagem neural.
Com base nas informações obtidas no item anterior, desenvolver um sistema de inferência
nebulosa para selecionar o uso da modelagem neural apenas para os materiais adequados.
Incorporar o sistema desenvolvido à arquitetura de automação da planta, de modo a permitir
sua utilização em condições reais de produção.
Desenvolver uma estratégia baseada em Algoritmos Genéticos para o treinamento contínuo
das redes neurais que constituem o sistema, para permitir a melhoria contínua de seus
resultados.
Faz-se necessário observar que um sistema como o exposto neste trabalho só pode ser
aplicado a um laminador que já se encontre em operação por algum tempo e que, portanto, disponha
de uma base dados com tamanho suficiente para permitir uma modelagem neural. O uso da
Inteligência Computacional para melhoria da adaptação do modelo matemático não coloca em
dúvida, obviamente, que os métodos tradicionais de adaptação proporcionem bons resultados – os
níveis de qualidade e produtividade alcançados pelas unidades fabris são prova inconteste desse
fato. Não obstante, a própria variedade de técnicas indica que o ideal ainda não foi alcançado,
existindo espaço para a pesquisa de novos métodos que conduzam a resultados ainda melhores. É
exatamente a isto que se propõe o presente trabalho, e a consecução de tal objetivo é corroborada
pelos resultados até aqui obtidos.
Todo o processo de desenvolvimento do sistema, bem como os resultados obtidos, confirma
o extraordinário potencial de aplicação da Inteligência Computacional e, mais especificamente, das
Redes Neurais Artificiais, como abordagem alternativa a problemas complexos de Engenharia.
Referências Bibliográficas
(1)GUO, R.-M. Analysis of Dynamic Behaviors of Tandem Cold Mills Using Generalized Dynamics and Control
Equations. IEEE Transactions on Industry Applications, v.36, n.3, 2000, 842-853.
(2)REEVE, P. J.; MACALISTER, A. F.; BILKHU, T. S. Control, Automation and the Hot Rolling of Steel.
Philosophical Transactions of the Royal Society A, v. 357, 1999, 1549-1571.
(3), S.; CHO, Y.; YOON, S. Reliable Roll Force Prediction in Cold Mill Using Multiple Neural Networks. IEEE
Transactions on Neural Networks, v. 8, n.4, 1997, 874-882.
h
(4)FECHNER, T.; NEUMERKEL, D.; KELLER, I. Adaptive Neural Network Filter for Steel Rolling. Anais da 4t
IEEE International Conference On Computational Intelligence, Orlando, 1994, 915-3920. ELITE Foundation,
Aachen.
(5)YAO, L. ET AL. Design, Implementation and Testing of an Intelligent Knowledge-based System for the
Supervisory Control of a Hot Rolling Mill. Journal of Process Control, v. 15, 2005, 615-628.
(6)HE, H.-T.; LIU, H.-M. The Research on an Adaptive Rolling Load Prediction Model Based on Neural Networks.
th
Anais da 4 International Conference on Machine Learning and Cybernetics, Guangzhou, 2005, 4094-4099.
(7)RÖSCHEISEN, M.; HOFMANN, R.; TRESP, V. Neural Control for Rolling Mills: Incorporating Domain
th
Theories To Overcome Data Deficiency. Anais da 5 Conference On Neural Information Processing Systems
Conference, Denver, 1992, 659-666, Morgan Kaufman, 1993.
(8)DUCH, W. What Is Computational Intelligence and What Could It Become? Disponível em:
<cogprints.org/5358/01/06-CIdef.pdf>. Acesso em: 21 mai. 2008
(9)LARKIOLA, J. ET AL. Prediction of Rolling Force in Cold Rolling By Using Physical Models and Neural
Computing. Journal of Materials Processing Technology, v.60, 1996, 381-386.
(10)SCHLANG, M. ET AL. Current and Future Development In Neural Computation In Steel Processing. Control
Engineering Practice, v. 9, 2001, 975-986.
(11)HATTORI, S.; NAKAJIMA, M.; KATAYAMA, Y. Fuzzy Control and Neural Networks for Flatness Control of a
Cold Rolling Process. Hitachi Review, v.41, n.1, 1992, 31-38.
(12)SBARBARO-HOFER, D.; NEUMERKEL, D.; HUNT, K. Neural Control of a Steel Rolling Mill. IEEE Control
Systems Magazine, June, 1993, 69-75.
th
(13)SHARMA, U.; PARFITT, G.I. Fuzzy Logic Application in Cold Rolling. Anais da 8 Process Technology
Conference, Dearborn, USA, 1998, 703-708. The Iron and Steel Society, 1998.
th
(14)JANABI-SHARIF, F.; FAN, J. Self-Tuning Fuzzy Looper Control for Rolling Mills. Anais da 39 IEEE
Conference On Decision And Control, Sydney, Australia, 2000, 376-381. IEEE Press, v.1, 2000.
(15)BREZOCNIK, M.; BALIC, J.; KAMPUS, Z. Modeling of Forming Efficiency Using Genetic Programming.
Journal of Materials Processing Technology, v.109, 2001, 20-29.
(16)WANG, D.D.; TIEU, A.K.; D´ALESSIO, G. Computational Intelligence-Based Process Optimization for
Tandem Cold Rolling. Materials and Manufacturing Processes, v. 20, 2005, 479-496.
(17)MENDEZ, G.M. ET AL. Temperature Prediction in Hot Strip Mill Bars Using a Hybrid Type-2 Fuzzy Algorithm.
International Journal of Simulation, v. 6, n. 9, 2005, 33-43.
(18)SON, J.S. ET AL. A Study on Genetic Algorithm to Select the Architecture of a Optimal Neural Network in the
Hot Rolling Process. Journal of Materials Processing Technology, v.153-154, 2004, 643-648.
th
(19)JANABI-SHARIF, F.; LIU, J. Genetic Fuzzy Tension Controller for Tandem Rolling. Anais do 17 IEEE
International Symposium On Intelligent Control, Vancouver, Canada, 2002, 315-320. IEEE Press, v.1, 2002.
(20)JANABI-SHARIF, F.; LIU, J. Design of a Self-Adaptive Fuzzy Tension Controller for Tandem Rolling. IEEE
Transactions on Industrial Electronics, v. 52, n. 5, 2005, 1428-1438.
(21)ZADEH, L. Fuzzy Sets. Information and Control, v. 8, 1965, 338-353.
(22)ZADEH, L. Fuzzy Logic = Computing With Words. IEEE Transactions on Fuzzy Systems, v. 4, 1996, 103-111.
(23)HOLLAND, J.H. Adaptation in Natural and Artificial Systems. University of Michigan Press, Ann Harbor, 1975.
(24)MITCHELL, M. An Introduction to Genetic Algorithms. The MIT Press, Cambridge, Massachusetts, 1999.
(25)TOWNSEND, A.A.R. Genetic Algorithms – a Tutorial. Disponível em:
<www-course.cs.york.ac.uk/evo/SupportingDocs/TutorialGAs.pdf>. Acesso em: 5 fev. 2008.
(26)GOLDBERG, D.E. Genetic Algorithms in Optimization, Search and Machine Learning. Addison-Wesley
Longman Publishing Company, Boston, 1989.
(27)ZHANG, G.; PATUWO, B.E.; HU, M.Y. Forecasting With Artificial Neural Networks: The State of the Art.
International Journal of Forecasting, v.14, 1998, 35-62.
(28)SANTOS FILHO, A.L.; RAMIREZ-FERNANDEZ, F.J. Preset Generation for a Steel Tandem Cold Mill By
Means of a Neural Network Tool. Anais do IEEE Symposium Series on Computational Intelligence, Nashville,
USA, 2009. 1 CD-ROM.
Dados dos Autores
Antonio Luiz dos Santos Filho
IF/SP – Instituto Federal de Educação, Ciência e Tecnologia de São Paulo – Campus Cubatão
R. Maria Cristina, S/N – Cubatão – SP – CEP 11500-000 –Tel.: 13 4009 5100
E-mail: [email protected]; [email protected]
Francisco Javier Ramirez-Fernandez
USP – Universidade de São Paulo – Escola Politécnica – Laboratório de Sistemas Integráveis
Av. Prof. Luciano Gualberto, 158 – Travessa 3 – Cidade Universitária – São Paulo – SP – CEP 05580-900
Tel.: 11 3091 5310 – Fax: 11 3091 5665
E-mail: [email protected]

Documentos relacionados

. - Antonio Gorni On Line

. - Antonio Gorni On Line ao caso particular da laminação de tiras a quente, de aços C-Mn. Conceitos básicos sobre o passe de laminação são apontados. Fundamentos das redes neurais MFB, sua metodologia, coleta e seleção de ...

Leia mais