Félix Lélis da Silva Monitoramento da Fase de Filtraç - ppgme

Transcrição

Félix Lélis da Silva Monitoramento da Fase de Filtraç - ppgme
UNIVERSIDADE FEDERAL DO PARÁ
CENTRO DE CIÊNCIAS EXATAS E NATURAIS
PROGRAMA DE PÓS-GRADUAÇÃO EM MATEMÁTICA E ESTATÍSTICA
Félix Lélis da Silva
Monitoramento da Fase de Filtração e Secagem da Polpa de
Cristais de Hidrato no Processo de Extração da Alumina
Através de Abordagens Dinâmicas Multivariadas
Belém/PA
2007
UNIVERSIDADE FEDERAL DO PARÁ
CENTRO DE CIÊNCIAS EXATAS E NATURAIS
PROGRAMA DE PÓS-GRADUAÇÃO EM MATEMÁTICA E ESTATÍSTICA
Félix Lélis da Silva
Monitoramento da Fase de Filtração e Secagem da Polpa de
Cristais de Hidrato no Processo de Extração da Alumina
Através de Abordagens Dinâmicas Multivariadas
Dissertação de Conclusão de Curso apresentada
ao Programa de Pós-Graduação em Matemática e
Estatı́stica da Universidade Federal do Pará para
obtenção do Tı́tulo de Mestre em Matemática e
Estatı́stica.
Orientador: Prof. Dr. Joaquim Carlos Barbosa Queiroz
Belém/PA
2007
UNIVERSIDADE FEDERAL DO PARÁ
CENTRO DE CIÊNCIAS EXATAS E NATURAIS
PROGRAMA DE PÓS-GRADUAÇÃO EM MATEMÁTICA E ESTATÍSTICA
FÉLIX LÉLIS DA SILVA
Monitoramento da Fase de Filtração e Secagem da Polpa de
Cristais de Hidrato no Processo de Extração da Alumina
Através de Abordagens Dinâmicas Multivariadas
Prof. Dr. Marcus Pinto da Costa da Rocha
Coord. do Programa de Pós-Graduação em Matemática e Estatı́stica - UFPA
Banca Examinadora
Prof. Dr. Joaquim Carlos Barbosa Queiroz
Faculdade de Estatı́stica - UFPA
Orientador
Prof. Dr. Antônio Morais da Silveira
Faculdade de Ciência da Computação - UFPA
Co-Orientador
Prof. Dr. Heliton Ribeiro Tavares
Faculdade de Estatı́stica - UFPA
Examinador
Prof. Dr. Carlos Tavares Júnior
Faculdade de Engenharia Elétrica - UFPA
Examinador
DEDICATÓRIA
Este trabalho é fruto de um sonho que até alguns anos parecia estar tão longe, porém no
alto de minha persistência jamais deixei de sonhá-lo, do contrário, estaria fadado as angustias e a insignificância de um perdedor que tem como adversário a si próprio. Portanto,
o mesmo, em toda a sua extensão, é dedicado a mim e a minha famı́lia em especial a minha
esposa Andréa Pereira Lélis (AMOR) e meus filhos Gabriel Lélis (BIEL), Maria Eduarda Lélis (DUDA), Carolina M. Braga (CAROL) e aos amigos que de alguma forma
contribuı́ram para a construção deste apanhado.
AGRADECIMENTOS
À Universidade Federal do Pará;
À minha famı́lia Lélis, em especial a minha queridı́ssima mãe Maria Esmeni dos Santos Lélis
ao meu pai Manoel Farias pelos ensinamentos de valores e aos irmãos de grandes personalidades:
Flávio Lélis, Francisco Lélis e Franklin Lélis;
Ao amigo, professor e orientador Joaquim Carlos Barbosa Queiroz, pela busca incessante do
conhecimento e pelo incrı́vel dinamismo educacional do ensino superior contribuindo de forma
coerente, eficaz e eficiente no aprendizado de seus alunos;
Ao professor e co-orientador Antônio Morais pelos ensinamentos;
A todos os professores do Programa de Pós Graduação em Matemática e Estatı́stica;
Ao amigo Msc. e Doutorando em Engenharia Elétrica Vanilson Gomes Pereira, pelas idéias
na estruturação das Redes Neurais, as quais foram de grandiosa e excelente contribuição para
este trabalho;
Ao Departamento de Estatı́tica;
Ao Departamento de Matemática;
Ao Programa de Pós Graduação em Matemática e Estatı́stica - PPGME;
À Américo José Preto Borges da Albras pela cessão dos dados;
E a todos, os seres iluminados que de alguma forma, contribuiram para a realização deste
trabalho.
Algo que jamais um ser de fazer é desistir dos seus sonhos, pois estará assim desistindo
de si mesmo!
Félix Lélis
Resumo
SILVA F. L. Monitoramento da Fase de Filtração e Secagem da Polpa de Cristais de
Hidrato no Processo de Extração da Alumina Através de Abordagens Dinâmicas Multivariadas. Dissertação - 2007 - PPGME/UFPA, Belém - PA, Brasil.
As conseqüências do desenvolvimento industrial levam à aplicação de novas ou melhoradas tecnologias, as quais exigem avaliações criteriosas para que sejam implementadas
de forma adequada às necessidades da natureza do processo produtivo. Assim, através de
métodos de análise e diagnóstico, pretende-se estruturar processos cada vez mais eficientes
e até mesmo inteligentes, seja no controle ou monitoramento da produção.
É fato que, a evolução do processo produtivo está relacionada diretamente à evolução do
processo tecnológico, pois nas últimas décadas com o emergente crescimento da produção
de sistemas computacionais, houve a retomada de muitas pesquisas que haviam sido abandonadas por falta de máquinas capazes de processar algoritmos mais complexos. Sendo
assim, o crescimento do processo de industrialização trouxe consigo a necessidade da
implementação de sistemas inteligentes, caracterizando um processo de formulação da
inteligência artificial (I.A). Com isso, criou-se máquinas e equipamentos capazes de processar, avaliar e acompanhar tarefas antes somente gerenciadas por seres humanos.
Devido necessidades, estas tarefas de processar, avaliar e acompanhar processos, estendeuse do processo tecnológico as mais diversas áreas do conhecimento, como por exemplo:
Estudos de Fatores Climáticos, Geociências no auxı́lo do processo de perfuração de poços e Edificações, Saúde, Modelagens Estatı́sticas, Oceanografia,
Biologia, etc. Todo este processo teve como base a evolução dos sistemas tecnológicos
computacionais fruto do processo dinâmico da revolução industrial, pois a difusão das
tecnologias digitais de informação contribuiram com aparelhos eletrônicos cada vez mais
eficazes e com grande capacidade de processamento.
Portanto, na busca da otimização da Fase de Filtração e Secagem da Polpa de
Cristais de Hidrato no Processo de Extração da Alumina, neste trabalho se
ajustou e avaliou modelos inteligentes de Redes Neurais e de Modelos de Séries Temporais
Multivariadas com Função de Transferência, cujos apresentaram excelente capacidade
de monitorar e avaliar as respostas obtidas do processo. No entanto, com os resultados validados se concluiu que as RNA Multicamadas Diretas com algorı́tmo de
treinamento Levenberg Marquardt Backpropagation apresentam melhores resultados na identificação do padrão gerador das séries representativas das variáveis estudadas, em comparação aos resultados obtidos através dos Modelos Multivariados com
FT, caracterizando-as com maior capacidade de monitoramento e avaliação do processo.
Palavra-Chave: Redes Neurais, Funções de Transferência Multivariáveis, Alumina.
Abstract
SILVA F. L. Monitoring the filtration stage of the pulp of crystals hydrate in the process
of extraction of alumina through dynamic multivariate approaches. Dissertation - 2007 PPGME/UFPA, Belém - PA, Brazil.
The consequences of industrial development leading to implementation of new technologies, which require wise tests to be implemented adequately the needs of the nature of
the production process. Thus, through methods of review and diagnosis, it is intended
structuring processes increasingly efficients and even intelligent, either in the control or
monitoring of production.
It is a fact that, the evolution of the production process is linked directly to technological
developments of the process, because in the last decades with the emerging growth of the
production of computer systems, there was a resumption of many searches that were
forgotten for lack of machines capable of processing algorithms more complex. Thus, the
growth of the process of industrialization brought with the need for the implementation
of intelligent systems, featuring a process of formulation of artificial intelligence (A.I.).
In this way, It has been able machines and equipment to process, evaluate and monitor
tasks before only managed by humans. Due to needs, these tasks to process, evaluate and
monitor processes, extended the technological process the most diverse areas of knowledge, such as: studying of climatic factors, geoscience helping in the process
of drilling of wells and buildings, health, statistical modeling, oceanography,
biology, etc. This whole process was based on the evolution of technological computer
systems fruit of the process of industrial revolution, as the digital dissemination of information contributed with electronic devices increasingly effective and with great capacity
for processing.
Therefore, in search of the optimization of phase filtration and drying of the flesh
of crystals hydrate in the process of extraction of alumina, this work fit and
evaluated intelligent models of neural networks models and series of storms to monitor
and evaluate the responses obtained in the process. However, with the results validated,
It’s concluded that the RNA Multilayers with the training algorithm Levenberg
Marquadt Backpropagation show better results in the identification of the pattern
generator of the series representing variables studied, compared to the results obtained
through the models multivariate with FT, characterizing them with greater capacity for
monitoring and evaluation of the process
Key-words: Neural Networks, Functions of Multivariate Tranfer, Alumina.
Índice
Resumo
vii
Abstract
viii
Lista de Tabelas
xiii
Lista de Figuras
xv
1
Introdução
1.1 Principais Considerações . . . . . . . .
1.2 Problema do Trabalho . . . . . . . . . .
1.3 Definição do Objetivo . . . . . . . . . .
1.4 Objetivos Especificos . . . . . . . . . .
1.5 Justificativa e Importância do Trabalho
1.6 A Hipótese Básica da Tese . . . . . . .
1.7 Estrutura do Trabalho . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
2
5
5
5
6
6
7
2 Modelos Probabilı́sticos de Séries Temporais em Processos Dinâmicos
Univariados
2.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Processos Estocásticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2.1 Caracterı́sticas de um Processos Estocásticos . . . . . . . . . . . . . .
2.3 A estacionariedade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4 Processos Estacionários . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.5 Processos Não-Estacionários . . . . . . . . . . . . . . . . . . . . . . . . . .
2.5.1 Modelos ARIMA ( p,d,q ) de Box & Jenkins . . . . . . . . . . . . . .
2.5.2 Análises das Funções de Autocorrelações . . . . . . . . . . . . . . . .
2.5.3 Análise das Funções de Autocorrelações Parciais . . . . . . . . . . . .
2.5.4 Critérios de Seleção - AIC e SBC . . . . . . . . . . . . . . . . . . . .
8
8
9
9
12
12
13
13
17
18
18
3 Modelos Probabilı́sticos de Séries Temporais em Processos Dinâmicos
Multivariados
3.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Propriedades de Segunda Ordem de Séries Temporais Multivariada . . . . .
3.3 Modelamento com Processo AR Multivariado . . . . . . . . . . . . . . . . .
3.4 Modelamento com Processo MA Multivariado . . . . . . . . . . . . . . . . .
20
20
20
22
23
x
3.5
3.6
3.7
3.8
3.9
3.10
Processos ARMA Multivariados . . . . . . . . . . . . . . . . . . . . . . . .
Processos ARIMA Multivariados . . . . . . . . . . . . . . . . . . . . . . . .
Modelos de Função de Transferência (MFT)ou Modelos Causais . . . . . . .
Funções de Transferências de Única Entrada . . . . . . . . . . . . . . . . .
Algumas Funções Tı́picas da Resposta do Impulso . . . . . . . . . . . . . .
Funções de Correlação Cruzada e Modelos de Função de Transferência . . .
3.10.1 Funções de Correlação Cruzada - FCC . . . . . . . . . . . . . . . . .
3.10.2 Relação entre Função de Correlação Cruzada e Função de Transferência
3.11 Construção do Modelo de Função de Transferência . . . . . . . . . . . . .
3.11.1 Função de Correlação Cruzada Amostral . . . . . . . . . . . . . . . .
3.11.2 Identificação do Modelo de Função de Transferência . . . . . . . . . .
3.11.3 Identificação do Modelo de Ruı́do . . . . . . . . . . . . . . . . . . . .
3.11.4 Estimativas dos Parâmetros do Modelo de Função de Transferência .
3.11.5 Diagnóstico dos Modelos de Função de Transferência . . . . . . . . .
3.11.6 Estimação do Modelo de Função de Transferência . . . . . . . . . . .
3.12 Validação de Modelos de Função de Transferência . . . . . . . . . . . . . .
3.12.1 Erro Quadrático Médio de Séries de Entrada e Saı́da Estacionárias .
3.12.2 Resumo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
23
25
25
26
28
29
29
30
32
32
33
34
35
36
38
38
38
40
4 Sistemas de Implementações Inteligentes - Redes Neurais
4.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2 Redes Neurais Artificiais - RNA´s . . . . . . . . . . . . . . . . .
4.2.1 Funções de ativação . . . . . . . . . . . . . . . . . . . . .
4.3 Algumas Teorias Referentes a Algoritmos de Redes Neurais . . .
4.3.1 Modelos de Redes Neurais de Warrem McCulloch e Pitts .
4.3.2 Neurônios de Remmelhart, Hilton e Williams - RHW . . .
4.3.3 Modelos de Saı́da Binária - Binário . . . . . . . . . . . . .
4.3.4 RNA´s com Multicamadas de Neurônios . . . . . . . . . .
4.3.5 Propagação do erro . . . . . . . . . . . . . . . . . . . . . .
4.3.6 Retropropagação do erro . . . . . . . . . . . . . . . . . . .
4.3.7 Processo de Aprendizado por Correção de Erros . . . . . .
4.3.8 Redes Neurais: Pontos Fortes e Limitações . . . . . . . . .
4.4 A Estatı́stica do Processo de Aprendizagem . . . . . . . . . . . .
4.4.1 O Erro de Expectativa (²) . . . . . . . . . . . . . . . . . .
4.4.2 Verificação dos Termos ”Bias”e Variância . . . . . . . . .
4.5 Algoritmo de Levenberg Marquardt - LMA . . . . . . . . . . . .
4.6 Normalização dos Dados de Entrada . . . . . . . . . . . . . . . .
4.6.1 Normalização por Minı́mo e Máximo . . . . . . . . . . . .
4.6.2 Normalização por Desvio Padrão . . . . . . . . . . . . . . .
4.7 Desenvolvimento e Aplicações de Redes Neurais . . . . . . . . .
4.8 Redes Neurais em Sistemas de Controle . . . . . . . . . . . . . .
4.8.1 Sistemas de Controle Dinâmicos . . . . . . . . . . . . . . .
4.8.2 Identificação de Sistemas Dinâmicos . . . . . . . . . . . . .
4.8.3 Retropropagação Dinâmica ( Dynamic Back Propagation )
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
SILVA, F.L.
PPGME/UFPA
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
41
41
42
44
48
48
49
50
51
52
53
53
55
56
58
60
62
64
64
64
65
68
69
70
71
xi
4.8.4 Sistemas de Controle de Processos . . . . . . . . . . . . . . . . . . . . 71
4.8.5 Análise de Dados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
4.8.6 Previsões com Redes Neurais . . . . . . . . . . . . . . . . . . . . . . . 73
5 Análise de Dados
5.1 Processo de filtração dos cristais de hidrato . . . . . . . . . . . . . . . . . .
5.1.1 Filtros de discos rotativos . . . . . . . . . . . . . . . . . . . . . . . .
5.1.2 Critérios de Eventuais Paradas no Processo . . . . . . . . . . . . . . .
5.1.3 Eficiência do Processo . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2 Análise dos Dados Através de Modelo de Rede Neural . . . . . . . . . . . .
5.3 Estruturação e Treinamento da Rede - 1o Ensaio . . . . . . . . . . . . . . .
5.3.1 Simulação de Treinamento da Variável Nı́vel de Umidade- 1o Ensaio .
5.3.2 Simulação de Treinamento da Variável Nı́vel de Soda- 1o Ensaio . . .
5.3.3 Simulação de Validação da Variável Nı́vel de Umidade- 1o Ensaio . . .
5.3.4 Simulação de Validação da Variável Nı́vel de Soda- 1o Ensaio . . . . .
5.3.5 Simulação das Validações Desnormalizadas- 1o Ensaio . . . . . . . . .
5.4 Estruturação e Treinamento da Rede - 2o Ensaio . . . . . . . . . . . . . . .
5.4.1 Simulação de Treinamento da Rede - 2o Ensaio . . . . . . . . . . . . .
5.4.2 Simulação de Treinamento da Variável Nı́vel de Umidade - 2o Ensaio .
5.4.3 Simulação de Treinamento da Variável Nı́vel de Soda - 2o Ensaio . . .
5.4.4 Simulação de Validação da Variável Nı́vel de Umidade - 2o Ensaio . .
5.4.5 Simulação de Validação da Variável Nı́vel de Soda - 2o Ensaio . . . .
5.4.6 Simulação das Validações Desnormalizadas - 2o Ensaio . . . . . . . .
5.5 Estruturação e Treinamento da Rede - 3o Ensaio . . . . . . . . . . . . . . .
5.5.1 Treinamento da Rede - 3o Ensaio . . . . . . . . . . . . . . . . . . . .
5.5.2 Simulação de Treinamento da Variável Umidade - 3o Ensaio . . . . .
5.5.3 Simulação de Treinamento da Variável Soda - 3o Ensaio . . . . . . . .
5.5.4 Simulação de Validação da Variável Umidade - 3o Ensaio . . . . . . .
5.5.5 Simulação de Validação da Variável Soda - 3o Ensaio . . . . . . . . .
5.5.6 Simulação das Validações Desnormalizadas - 3o Ensaio . . . . . . . .
5.5.7 Sinteses dos Modelos de RNA Ajustados . . . . . . . . . . . . . . . .
5.6 Modelagem Multivariada com Função de Transferência . . . . . . . . . . . .
5.6.1 Modelagem para a Variável Nı́vel de Umidade . . . . . . . . . . . . .
5.6.2 Análise das FAC e FACP . . . . . . . . . . . . . . . . . . . . . . . .
5.7 Ajuste de Modelos ARIMA . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.7.1 Ajuste de Modelos ARIMA para a Variável X1 . . . . . . . . . . . . .
5.7.2 Ajuste de Modelos ARIMA para a Variável X2 . . . . . . . . . . . .
5.7.3 Ajuste de Modelos ARIMA para a Variável X3 . . . . . . . . . . . . .
5.8 Correlações Cruzadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.8.1 Análise da Correlação Cruzada entre Y1 vs X1 . . . . . . . . . . . . .
5.8.2 Análise da Correlação Cruzada entre Y1 vs X2 . . . . . . . . . . . . .
5.8.3 Análise da Correlação Cruzada entre Y1 vs X3 . . . . . . . . . . . . .
5.8.4 Ajuste dos Modelos de Função de Tranferência . . . . . . . . . . . . .
5.8.5 Estimativas para a Estruturação do Modelo 1 em 5.7 . . . . . . . . .
5.8.6 Análise Resı́dual para o Modelo de F.T em 5.7 . . . . . . . . . . . . .
SILVA, F.L.
74
74
76
77
77
78
79
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
103
103
105
105
106
107
108
108
109
109
109
110
111
PPGME/UFPA
xii
5.8.7 Estimativas para a Estruturação do Modelo 2 . . . . . .
5.8.8 Análise Resı́dual para o Modelo de F.T em 5.8 . . . . . .
5.8.9 Estimativas para a Estruturação do Modelo 3 em 5.9 . .
5.8.10 Análise Resı́dual para o Modelo 3 de F.T em 5.9 . . . . .
5.8.11 Seleção do Melhor Modelo para o Nı́vel de Umidade . . .
5.8.12 Teste de Validação para os Modelos do Nı́vel de Umidade
5.9 Modelagem para a Variável Nı́vel de Soda . . . . . . . . . . . .
5.9.1 Análise das FAC e FACP . . . . . . . . . . . . . . . . .
5.9.2 Ajuste do Modelo de Função de Tranferência - Soda . . .
5.9.3 Estimativas para a Estruturação do Modelo 1 em 5.13 . .
5.9.4 Análise Resı́dual para o Modelo de F.T em 5.15 . . . . .
5.9.5 Estimativas para a Estruturação do Modelo 2 em 5.14 . .
5.9.6 Análise Resı́dual para o Modelo de F.T em 5.16 . . . . .
5.9.7 Seleção do Melhor Modelo para o Nı́vel de Soda . . . . .
5.9.8 Teste de Validação para os Modelos do Nı́vel de Soda . .
5.10 Conclusões . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
6 Considerações Finais
126
A ANEXO
A.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.1.1 Algoritmo para Obtenção de Rede Neural - MATLAB 7.0 . . . . .
A.1.2 Algoritmo para Obtenção do Modelo de Séries Temporais - SAS-9
A.1.3 Tabela do Banco de Dados . . . . . . . . . . . . . . . . . . . . . .
Bibliografia
SILVA, F.L.
112
112
113
114
115
116
118
118
119
119
120
121
122
123
124
125
.
.
.
.
.
.
.
.
128
128
128
137
148
155
PPGME/UFPA
Lista de Tabelas
5.1
5.2
5.3
5.4
5.5
5.6
5.7
5.8
5.9
5.10
5.11
5.12
5.13
5.14
5.15
5.16
5.17
5.18
5.19
5.20
5.21
5.22
5.23
5.24
5.25
5.26
5.27
5.28
5.29
5.30
5.31
5.32
Comparativo para Decisão entre as Três Redes Neurais Propostas
Cálculo e Avaliação dos Parâmetros da Variável X1 . . . . . . . .
Estudo das Auto correlações dos Resı́duos . . . . . . . . . . . . .
Cálculo e Avaliação dos Parâmetros da Variável X2 . . . . . . . .
Estudo das Auto correlações dos Resı́duos . . . . . . . . . . . . .
Cálculo e Avaliação dos Parâmetros da Variável X3 . . . . . . . .
Estudo das Auto correlações dos Resı́duos . . . . . . . . . . . . .
Cálculo dos Parâmetros Estimados para o Modelo de F.T. . . . .
Estudo das Auto correlações dos Resı́duos . . . . . . . . . . . . .
Estudo das Correlação Cruzada dos Resı́duos vs X1 . . . . . . . .
Estudo das Correlação Cruzada dos Resı́duos vs X2 . . . . . . . .
Estudo das Correlação Cruzada dos Resı́duos vs X3 . . . . . . . .
Cálculo dos Parâmetros Estimados para o Modelo de F.T. . . . .
Estudo das Auto correlações dos Resı́duos . . . . . . . . . . . . .
Estudo das Correlação Cruzada dos Resı́duos vs X1 . . . . . . . .
Estudo das Correlação Cruzada dos Resı́duos vs X3 . . . . . . . .
Cálculo dos Parâmetros Estimados para o Modelo de F.T. . . . .
Estudo das Auto correlações dos Resı́duos . . . . . . . . . . . . .
Estudo das Correlação Cruzada dos Resı́duos vs X1 . . . . . . . .
Estudo das Correlação Cruzada dos Resı́duos vs X3 . . . . . . . .
Critérios para Seleção do Melhor Modelo em Ajuste Ajustado . .
Critérios para Seleção do Melhor Modelo em Validação . . . . . .
Cálculo dos Parâmetros Estimados para o Modelo de F.T. . . . .
Estudo das Autocorrelação dos Resı́duos do Modelo . . . . . . . .
Estudo das Correlação Cruzada dos Resı́duos vs X2 . . . . . . . .
Estudo das Correlação Cruzada dos Resı́duos vs X3 . . . . . . . .
Cálculo dos Parâmetros Estimados para o Modelo de F.T. . . . .
Estudo das Autocorrelação dos Resı́duos do Modelo . . . . . . . .
Estudo das Correlação Cruzada dos Resı́duos vs X2 . . . . . . . .
Estudo das Correlação Cruzada dos Resı́duos vs X3 . . . . . . . .
Critérios para Seleção do Melhor Modelo Ajustado . . . . . . . .
Critérios para Seleção do Melhor Modelo Validado . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
100
105
105
106
106
107
107
110
111
111
111
111
112
112
113
113
113
114
114
114
116
117
119
120
120
120
121
122
122
122
123
124
A.1 Valores Fornecidos pelo Processo . . . . . . . . . . . . . . . . . . . . . . . 148
A.2 Continuação da Tabela A.1 . . . . . . . . . . . . . . . . . . . . . . . . . . 149
A.3 Continuação da Tabela A.2 . . . . . . . . . . . . . . . . . . . . . . . . . . 150
xiv
A.4
A.5
A.6
A.7
Continuação
Continuação
Continuação
Continuação
SILVA, F.L.
da
da
da
da
Tabela
Tabela
Tabela
Tabela
A.3
A.4
A.5
A.6
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
151
152
153
154
PPGME/UFPA
Lista de Figuras
2.1
Estrutura de Modelos Univariados . . . . . . . . . . . . . . . . . . . . . . .
3.1
3.2
Estrutura de Modelos de Função de Transferência . . . . . . . . . . . . . . 26
Sistema de Função de Transferência Dinâmico . . . . . . . . . . . . . . . . 27
4.1
4.2
4.3
4.4
4.5
4.6
4.7
4.8
4.9
4.10
4.11
4.12
4.13
4.14
4.15
4.16
4.17
4.18
4.19
4.20
4.21
Estrutura de Neurônio Biológico . . . . . . . . . . . . . . . .
Neurônios Artificial apresentado por McCulloch . . . . . . .
Função de ativação linear . . . . . . . . . . . . . . . . . . . .
Função de ativação degrau . . . . . . . . . . . . . . . . . .
Função de ativação rampa . . . . . . . . . . . . . . . . . . .
Função de ativação sigmóide -(logsig) . . . . . . . . . . . . .
Função de ativação tangente hiperbólica -(tansig) . . . . . .
Rede com neurônio (RHW ) . . . . . . . . . . . . . . . . . .
Erro de aproximação do (RHW ) . . . . . . . . . . . . . . . .
Neorônio artificial do tipo (Adaline) . . . . . . . . . . . . . .
Estrutura de uma Rede com Multicamadas ou Redes Neurais
Propagação do erro na rede . . . . . . . . . . . . . . . . . .
Retropropagação do erro na rede . . . . . . . . . . . . . . .
Superfı́cie de erro com mı́nimos locais e o mı́nimo global . .
Modelo Matemático Regressivo . . . . . . . . . . . . . . . .
Modelo Fı́sico de Rede Neural . . . . . . . . . . . . . . . . .
Efeito da normalização dos dados de entrada . . . . . . . . .
Esquema de um sistema de controle dinâmico . . . . . . . .
Identificação de um sistema dinâmico . . . . . . . . . . . . .
Treinamento de uma rede neural para diagnóstico de falhas .
Valores Previstos . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
Complexas
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
43
44
44
45
45
47
47
49
49
50
51
52
53
54
57
58
65
69
70
72
73
5.1
5.2
5.3
5.4
5.5
5.6
5.7
5.8
5.9
Processo de lavagem e filtração da polpa de hidrato
Emissões de Gases por Indústrias . . . . . . . . . .
Emissões de Gases por Queimadas . . . . . . . . . .
Filtro de disco rotativo . . . . . . . . . . . . . . . .
Substituição do Tecido Filtrante . . . . . . . . . . .
Comportamentos das Variáveis do processo . . . . .
Evolução da Função Erro E(W) . . . . . . . . . . .
Treinamento da Variável Umidade . . . . . . . . . .
Erro de Treinamento da Variável Umidade . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
74
76
76
77
77
78
80
81
81
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
8
xvi
5.10
5.11
5.12
5.13
5.14
5.15
5.16
5.17
5.18
5.19
5.20
5.21
5.22
5.23
5.24
5.25
5.26
5.27
5.28
5.29
5.30
5.31
5.32
5.33
5.34
5.35
5.36
5.37
5.38
5.39
5.40
5.41
5.42
5.43
5.44
5.45
5.46
5.47
5.48
5.49
5.50
5.51
5.52
5.53
Treinamento da Variável Soda . . . . . . . . . .
Erro de Treinamento da Variável Soda . . . . .
Validação da Variável Nı́vel de Umidade . . . .
Erro de Validação da Variável Nı́vel de Umidade
Validação da Variável Nı́vel de Soda . . . . . . .
Erro de Validação da Variável Nı́vel de Soda . .
Validação Desnormalizada da Variável Umidade
Validação Desnormalizada Variável Soda . . . .
Evolução da Função Erro E(W) . . . . . . . . .
Treinamento da Variável Umidade . . . . . . . .
Erro de Treinamento da Variável Umidade . . .
Treinamento da Variável Soda . . . . . . . . . .
Erro de Treinamento da Variável Soda . . . . .
Validação da Variável Nı́vel de Umidade . . . .
Erro de Validação da Variável Nı́vel de Umidade
Validação da Variável Nı́vel de Soda . . . . . . .
Erro de Validação da Variável Nı́vel de Soda . .
Validação Desnormalizada Variável Umidade . .
Validação Desnormalizada Variável Soda . . . .
Evolução da Função Erro E(W) . . . . . . . . .
Treinamento da Variável Umidade . . . . . . . .
Erro de Treinamento da Variável Umidade . . .
Treinamento da Variável Nı́vel de Soda . . . . .
Erro de Treinamento da Variável Soda . . . . .
Validação da Variável Nı́vel de Umidade . . . .
Validação da Variável Nı́vel de Soda . . . . . . .
Erro de Validação da Variável Nı́vel de Umidade
Erro de Validação da Variável Nı́vel de Soda . .
Validação Desnormalizada Variável Umidade . .
Validação Desnormalizada Variável Soda . . . .
Nı́veis de Umidade na Torta Y1 . . . . . . . . .
Nı́veis de Soda na Torta Y2 . . . . . . . . . . . .
Vazão de Condensado X1 . . . . . . . . . . . . .
Vazão de Vapor X2 . . . . . . . . . . . . . . . .
Rotação do Tambor X3 . . . . . . . . . . . . . .
FAC para a Variáve X1 . . . . . . . . . . . . . .
FACP para a Variáve X1 . . . . . . . . . . . . .
FAC para a Variáve X2 . . . . . . . . . . . . . .
FACP para a Variáve X2 . . . . . . . . . . . . .
FAC para a Variáve X3 . . . . . . . . . . . . . .
FACP para a Variáve X3 . . . . . . . . . . . . .
Função de Correlação Cruzada Y1 vs X1 . . . .
Função de Correlação Cruzada Y1 vs X2 . . . .
Função de Correlação Cruzada Y1 vs X3 . . . .
SILVA, F.L.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
82
82
83
83
84
84
85
85
87
88
88
89
89
90
90
91
91
92
92
94
95
95
96
96
97
97
98
98
99
99
102
102
102
102
102
103
103
103
103
104
104
108
108
108
PPGME/UFPA
xvii
5.54
5.55
5.56
5.57
5.58
5.59
5.60
5.61
5.62
5.63
5.64
5.65
5.66
Ajuste do Modelo 5.10 de Função de Tranferência
Ajuste do Modelo 5.11 de Função de Tranferência
Ajuste do Modelo 5.12 de Função de Tranferência
Teste de Validação do 1o Modelo . . . . . . . . .
Teste de Validação do 2o Modelo . . . . . . . . .
Teste de Validação do 3o Modelo . . . . . . . . .
Função de Correlação Cruzada Y2 vs X1 . . . . .
Função de Correlação Cruzada Y2 vs X2 . . . . .
Função de Correlação Cruzada Y2 vs X3 . . . . .
Ajuste do Modelo 5.15 de Função de Tranferência
Ajuste do Modelo 5.16 de Função de Tranferência
Teste de Validação do 1o Modelo . . . . . . . . .
Teste de Validação do 2o Modelo . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
115
115
115
116
116
117
118
118
118
123
123
124
124
A.1 Gera a Normalização por Desvio Padrão . . . . . . . . . .
A.2 Padrões apresentados a rede . . . . . . . . . . . . . . . . .
A.3 Função e parâmetros de treinamento apresentados a rede .
A.4 Gera a Normalização no Espaço (-1, 1) . . . . . . . . . . .
A.5 Gera a Análise Gráfica de Treinamento . . . . . . . . . . .
A.6 Gera a Análise Gráfica de Validação . . . . . . . . . . . . .
A.7 Gera a Análise Gráfica da Validação Desnormalizada . . .
A.8 Algorı́tmo para iniciar o treinamento e validação . . . . . .
A.9 Projeto para seleção dos dados de treinamento e validação
A.10 Gera as Séries das Variáveis . . . . . . . . . . . . . . . . .
A.11 Gera a FAC e FACP das Séries . . . . . . . . . . . . . . .
A.12 Gera os Modelos ARIMA . . . . . . . . . . . . . . . . . . .
A.13 Gera os Testes dos Modelos ARIMA . . . . . . . . . . . .
A.14 Gera as Funções de Correlação Cruzada . . . . . . . . . .
A.15 Teste do Modelo 1 de F.T - Umidade . . . . . . . . . . . .
A.16 Teste do Modelo 2 de F.T - Umidade . . . . . . . . . . . .
A.17 Teste do Modelo 3 de F.T - Umidade . . . . . . . . . . . .
A.18 Gera Modelo de F.T - Soda . . . . . . . . . . . . . . . . .
A.19 Teste do Modelo 1 de F.T - Soda . . . . . . . . . . . . . .
A.20 Teste do Modelo 2 de F.T - Soda . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
SILVA, F.L.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
PPGME/UFPA
Capı́tulo 1
Introdução
O grande interesse neste trabalho está em realizar uma descrição de algumas técnicas
mais empregada na atualidade para análise de séries temporais, identificação, monitoramento e controle industrial. Serão mostradas diferentes abordagens e suas particularidades no tratamento das séries temporais multivariadas. Entre essas técnicas se destaca
a aplicação de Redes Neurais Artificiais do Tipo Bacpropagation e a modelagem por
Função de Transferência baseada na metodologia de Box e Jenkins. Especificamente, essas abordagens serão aplicadas no ajuste de séries temporais multivariadas fornecidas pelo
processo industrial responsável pela filtração e secagem da polpa de cristais de hidrato na
fase de extração da alumina. Onde os resultados serão utilizados para verificar a melhor
adequação em relação ao problema e objetivos vinculado ao estudo, ou seja, identificação
e monitoramento do processo.
As técnicas de Redes Neurais, estão sendo cada vez mais empregadas, principalmente
quando se pretende modelar memórias associativas, reconhecimento de padrões, representação de funções Booleanas e representação de funções contı́nuas. Esta técnica é constantemente aplicada com o objetivo de Construção de Modelos, Projeções e Controle
nas mais variadas áreas das ciências médicas, biomédicqas, da robática, das telecomunicações, da indústria de transporte, da indústria de prospecção petrolı́fera, dentre outras
relacionada ao conhecimento Humano.
Considerada uma das ferramentas mais eficientes para o estudo referente à modelagem
de séries de tempo e com maior utilização pela comunidade cientı́fica, a metodologia de
Box e Jenkins será aplicada neste trabalho com a finalidade de se construir um modelo
que auxilie no processo de comparação entre as técnicas apresentadas. A idéia não é
a de dispor as técnicas como antagônicas, mas apresentar como elas podem ser usadas
1.1 Principais Considerações
2
alternativamente ou conjuntamente para as análises de séries temporais e o controle de
processos industriais.
1.1 Principais Considerações
Pode-se considerar que os modelos de Box e Jenkins foram uma grande descoberta em
relação ao estudo de séries de tempo. Segundo Morettin e Toloi (2004), determinada série
descrita nos instantes t1 , ...., tn pode fornecer diversas caracterı́sticas do processo que o
gerou, tais como:
a - Investigação do processo gerador da série;
b - Realização de previsões de valores futuros da série;
c - Descrição do comportamento da série;
d - Procura periódica de relevância nos dados.
Conforme Ajoy K. Palit e Dobrivoje Popovic, eu seu livro, “Computational Intelligence in Time Series Forecasting Theory and Engineering Applications”),
uma série temporal é uma seqüência ordenada no tempo de observação (valores) de natureza fı́sica ou financeira variável feitas em intervalos igualmente espaçados tempo delta t,
representado como um conjunto de valores discretos x1, x2, x3 ,..., etc. Na engenharia p.e:
a seqüência de valores é obtidos a partir de sensores por amostragem relacionada aos sinais
contı́nuos, sendo baseados em valores medidos são normalmente comprometidos ruı́do, em
séries temporais sempre é incluı́do componentes determinı́sticas, ou seja, um sinal e uma
componente estocástica representando o ruı́do (resı́duos) que provocam interferências estatı́sticas (flutuações) em torno do valores previamente determinados.(tradução do autor )
Aduz ainda que, a análise da série em um determinado momento é essencialmente
necessário verificar a ocorrência na estrutura da séria das componentes (autocorrelação,
tendência, sazonalidade, etc), para um possı́vel entendimento do processo dinâmico o
qual gerou a mesma no tempo t. No processo Controle de processos ou simplesmente
monitoramentos ou avaliações, o tempo previsto a análise de séries temporais é essencial
SILVA, F.L.
PPGME/UFPA
1.1 Principais Considerações
3
para ajuste e tomada de decisão e consequentemente direcionam as ações a serem tomadas.
A análise de séries temporais abrange atividades como:
• definição, classificação, e descrição de séries temporais;
• modelagem com base na utilização de valores seleciuonados da própria série temporal
em estudo;
• previsão de valores futuros.
onde, basicamente, existem duas abordagens da metodologia da análise de séries temporais, são elas:
• abordagem do domı́nio do tempo, principalmente baseado no uso da função covariância da série cronológica;
• abordagem no domı́nio da frequência, baseada principalmente na análise espectral
de potência ou transformada de Fourier da função autocorrelação.
Para os modelos de função de tranferências (F.T ), segundo os comentários de José
Renes Pinheiro, quando se trata de um sistema é uma propriedade que independende
da natureza e da magnitude da entrada; além de possibilitar um sistema dinâmico ser
representado por expressões algébricas da variável complexa “S ”. Um detalhe importante
é que a FT não fornecem informações a respeito da estrutura fı́sica do sistema. As mesmas
podem ser identicas quando forem de sistemas fisicamente diferentes, se a FT de um
sistema é conhecida, a resposta do mesmo pode ser analisada para diferentes formas de
excitação (entrada), com a finalidade de compreender a natureza e o comportamento
do sistema, caso a FT possa ser obtida experimentalmente pela introdução de sinais de
entrada conhecidos e estudando-se as respostas obtidas, portanto a função de tranferência
fornece ou pode fornecer uma descrição completa das caracterı́sticas dinâmicas do sistema.
Já as redes neurais (RNA), segundo Dahmer (1998), apresentam inúmeras caracterı́sticas que estimulam a sua utilização nas mais diversas pesquisas. Entre elas pode-se
citar:
• Processamento altamente paralelo e distribuı́do;
SILVA, F.L.
PPGME/UFPA
1.1 Principais Considerações
4
• Capacidade de aprendizagem através da observação de um conjunto de exemplos,
sendo esses, com ou sem informação de respostas desejadas a cada estı́mulo;
• Robustez, isto é, a queda do desempenho gradual no eventual funcionamento irregular ou, até mesmo, inutilização de parte da rede;
• Manuntenção do desempenho na presença de ruı́do e capacidade de lidar com dados
incompletos.
Segundo Hecht-Nielsen(1990), uma RNA é uma estrutura que processa informações
de forma paralela e distribuı́da e que consiste de unidades computacionais, as quais podem possuir uma memória local e podem executar operações locais, interconectadas por
canais unidirecionais chamadas de sinapses, em que cada unidade computacional possui uma única conexão de saı́da que pode ser dividida em quantas conexões laterais se
fizer necessário, sendo que cada uma delas transporta o mesmo sinal (HECHT-NIELSEN,
1990).
O sinal de saı́da pode ser contı́nuo ou discreto e o processo executado por cada unidade
pode ser definido arbitrariamente com a restrição de que ele deve ser completamente local,
isto é, deve depender somente dos valores atuais dos sinais de entrada que chegam até a
unidade através das conexões e dos valores armazenados na memória local.
Para De Azevedo (1993), uma rede neural artificial pode ser especificada como um
sistema complexo, representado por um grafo arco-rotulado, na qual, cada vértice é um
neurônio artificial com estrutura dinâmica e, o grafo apresenta um conjunto finito, não
vazio, de vértices juntos com um conjunto, não ordenado, de arcos conectando pares de
vértices.
Conforme Campelo, (2005), os sistemas inteligentes vêm sendo aplicados nas mais diversas áreas do conhecimento, tais como, reconhecimento de padrões, mineração de dados,
tomada de decisão, identificação, mapeamento e controle de processos dinâmicos, etc.
Entre os sistemas inteligentes pode-se destacar dois modelos não lineares: os Modelos
Fuzzy e Modelos de Redes Neurais. Ambos apresentam uma propriedade fundamental
que impulsionou seu desenvolvimento: são aproximadores universais. Em se tratando de
mapeamento Souza et al (1999), descreve que, as redes neurais artificiais (RNA) Multi
SILVA, F.L.
PPGME/UFPA
1.2 Problema do Trabalho
5
Layer Perceptron - MLP podem ser utilizadas para mapear os relacionamentos entre
as diversas variáveis associadas com o processo de especificação (identificação).
Fernandes et al, (1995), cita que a principal dificuldade na utilização de redes neurais
artificiais na previsão de séries temporais, ainda é a determinação da arquitetura ótima
da rede, pois ainda não se possui uma metodologia consistente que apresente a melhor
configuração da rede para cada série proposta. Baseando-se nessa pespectiva, este trabalho
propõe um modelo que otimiza o processo de filtração e secagem da polpa de cristais de
hidrato, sendo este, passı́vel de controle através de sistemas inteligentes de Redes Neurais
Artificiais.
1.2 Problema do Trabalho
O alto nı́vel de umidade e o alto percentual de soda na polpa de cristais de hidrato,
no processo de fabricação da alumina, é um fator culminante no elevado consumo de
combustı́vel, energia elétrica e na redução da qualidade final do produto.
1.3 Definição do Objetivo
Neste trabalho, pretende-se apresentar modelos dinâmicos de Redes Neurais e de Séries
Temporais para mapear e monitorar as multivariáveis que influenciam diretamente no
processo industrial de Filtração e Secagem da Polpa de Cristais de Hidrato no Processo
de Extração da Alumina. E, dentre os modelos apresentados, realizar uma avaliação da
robustez, considerando suas caracterı́sticas relacionadas à descrição, controle e otmização
de processos.
1.4 Objetivos Especificos
1. Construir um modelo dinâmico não linear de Rede Neural Artificial Multicamada
Direta com treinamento supervisionado utilizando o algoritmo Backpropagation
para monitorar o processo de filtração e secagem da polpa de cristais de hidrato, que
apresente a melhor aproximação (reconhecimento do padrão do processo) possı́vel.
2. Construir um modelo dinâmico linear com base na metodologia de Box e Jenkins
SILVA, F.L.
PPGME/UFPA
1.5 Justificativa e Importância do Trabalho
6
para Séries Temporais Multivariadas, utilizando Função de Transferência,
para ajustar da forma mais aproximada possı́vel o processo de filtração e secagem
da polpa de cristais de hidrato. Apresentando assim, capacidade de minitoramento
do processo.
3. Avaliar, através do teste de validação, o modelo mais representativo para o monitoramento do processo de extração da alumina.
1.5 Justificativa e Importância do Trabalho
No decorrer dos anos foram implementados e apresentados no meio cientı́fico, vários
estudos sobre novas técnicas de modelagem de séries de temporais, cujas finalidades são
estudar periodicidades e descrever comportamentos, objetivando melhorar as investigações
e suposições feitas sobre as mesmas. Isto é, através da formulação de modelos que apresentem projeções com menor variabilidade possı́vel, para poder explicar a real evolução
da série no decorrer do tempo t.
Este trabalho possui sua relevância por mostrar que apesar da grande distinção entre os
métodos de RNA’s e a metodologia de Box e Jenkins, os mesmos apresentam excelentes
resultados, quando estão direcionados à um objetivo comum, como por exemplo, avaliar
e controlar processos através de análises prévias de ajuste do modelo. Destaque-se que,
dependendo das situações, é mais favorável a aplicação de determinada metodologia de
forma conjugada do que individualizada para se obter melhores resultados.
1.6 A Hipótese Básica da Tese
Será que as respostas obtidas através da modelagem de Redes Neurais Artificiais RNA’s, para o controle de umidade e do nı́vel de soda cáustica presente na polpa de cristais
de hidrato no processo de fabricação de alumina são mais significativas, que as obtidas
por Modelos de Séries Temporais Multivariados, devido a sua alta capacidade de
reconhecimento de padrões.
SILVA, F.L.
PPGME/UFPA
1.7 Estrutura do Trabalho
7
1.7 Estrutura do Trabalho
Este trabalho encontra-se dividido em seis capı́tulos e um anexo, com o seguinte
conteúdo:
• Capı́tulo 1: Neste capı́tulo, estão as idéias iniciais referentes ao projeto, onde são
englobadas as principais considerações, as justificativas e a relevância do trabalho,
a hipótese básica da dissertação e os objetivos;
• Capı́tulo 2 : Neste capı́tulo, inicia-se uma introdução aos conceitos básicos dos modelos probabilı́sticos de séries temporais univariados, dando mais ênfase aos modelos
referentes à metodologia de Box e Jenkins;
• Capı́tulo 3 : Neste capı́tulo, faz-se referência aos modelos probabilı́sticos de séries
temporais multivariados ressaltando as funções de transferência, modelos multivariados e função de correlação cruzada;
• Capı́tulo 4 : Neste capı́tulo, são apresentados os Sistemas Inteligentes, mais especificamente os sistemas de Redes Neurais Artificiais. São demostradas algumas
contribuições referentes a algoritmos de redes neurais, pontos fortes e limitações,
além da utilização de funções de tranferências (funções de ativação).
• Capı́tulo 5 : Neste capı́tulo, são apresentados os resultados obtidos através dos
modelos de Redes Neurais e de Função de Tranferência, ambos ajustados para as
multivariáveis representativas do processo;
• Capı́tulo 6 : Neste capı́tulo, é desemvolvido e apresentado o estudo referente a
aplicação das teorias citadas nos capı́tulos anteriores, na avaliação do controle de
filtração da polpa de cristais de hidrato no processo de fabricação de alumina;
• Capı́tulo 7 : Neste capı́tulo, são ralatadas as considerações finais e recomendações
para futuros trabalhos.
• Anexos: Neste, são apresentados as tabelas que contém todos os algorı́tmos utilizados para a construção das Redes Neurais Artificiais e para a contrução do Modelo
Multivariado com auxı́lio de Função de Tranferência, e o banco de dados utilizado.
SILVA, F.L.
PPGME/UFPA
Capı́tulo 2
Modelos Probabilı́sticos de Séries Temporais
em Processos Dinâmicos Univariados
2.1 Introdução
A classe dos Modelos Univariados limita-se a estudar uma única série histórica cujas
caracterı́sticas de interese são explicadas exclusivamente a partir do seu próprio comportamento de evolução, ou seja, os valores futuros de uma série são explicados a partir de
seus valores passados. Estes modelos supõem que a série é gerada através de um filtro
linear, cuja entrada é ruı́do branco (Moretin e Toloi, 2004), apresentado por Figura 2.1,
MODELO
UNIVARIADO
ZT
ZT ( j )
Informações Relevantes
Figura 2.1 Estrutura de Modelos Univariados
Onde a composição da estrutura do modelo, é definida da seguinte forma:
• Z t → entrada com caracterı́stica de ruı́do branco. Portanto, Z t = at
• Modelo Univariado → Processo de filtro linear univariado, também considerado como
uma função de transferência ψ(B),
• Zt (j) → Série de saı́da que descreve um processo linear (discreto), onde pode-se
escrever:
Zt = µ + at + ψ1 at−1 + ψ2 at−2 + ... = µ + ψ(B)at ,
(2.1)
ψ(B) = 1 + ψ1 B + ψ2 B 2 + ...,
(2.2)
em que
2.2 Processos Estocásticos
9
• B é o operador deslocamento unitário discreto;
• e µ será um parâmetro de determinação do nı́vel da série, caso a seqüência de pesos
{ψj , j ≥ 1} for infinita e convergente, onde o filtro sérá estável (somável) e Zt é
estacionária. Sendo assim,
E(at ) = 0 para todo t;
V ar(at ) = σa2 ,
para todo t;
E(at as ) = 0 s 6= t.
Considerando, Z̃ = Zt − µ, temos que:
Z̃ = ψ(B)at
(2.3)
Dentro desta classe de modelos pode-se citar:
• Os métodos de decomposição e os métodos de amortecimento exponencial;
• Os modelos automáticos que incorporam modelos de regressão e o modelos de ajustamento sazonal;
• E os modelos univariados de Box & Jenkins. Esta classe de modelos foi implementada por Box & Jenkins (1970), e consiste de uma classe geral de modelos
dinâmicos lineares conhecidos como Autoregressivo Integrado Médias Móveis ou
modelos ARIMA.
2.2 Processos Estocásticos
Definição 2.1: Seja T um conjunto arbitrário. Um processo estocástico é uma famı́lia
Z = {Z(t) , t ∈ T }, tal que, para cada t ∈ T , Zt é uma variável aleatória (v.a).
2.2.1 Caracterı́sticas de um Processos Estocásticos
Sejam t1 , t2 , ...., tn elementos quaisquer de T e consideremos,
F (z1 , ...., zn ; t1 , ....., tn ) = P {Z(t1 ) ≤ x1 , ...., Z(tn ) ≤ zn }
(2.4)
O processo estocástico X = {Z(t), t ∈ T } estará especificado se conhecermos as distribuições finito-dimensionais em 2.4, para todo n ≥ 1 onde:
SILVA, F.L.
PPGME/UFPA
2.2 Processos Estocásticos
10
• Para n=1, se conhece as distribuições unidimensionais da v.a Z(t1 ), t ∈ T ;
• Para n=2, se conhece as distribuições unidimensionais da v.a (Z(t1 ), Z(t2 )), t1 , t2 ∈
T , e assim por diante.
Conforme Moretin e Toloi, (2004) algumas condições devem serem satisfeitas pela função
de distribuição (fd ) descrita em 2.4, são elas :
1. Condição de Simetria: para qualquer permutação ji , ...., jn , dos ı́ndices 1,2,....,n,
temos:
F (xj1 , ...., xjn ; tj1 , ....., tjn ) = F (z1 , ...., zn ; t1 , ..., tn )
(2.5)
2. Condição de Compatibilidade: para m < n,
F (x1 , ...., xm , ...., +∞; t1 , ....., tm , tm+1 , ....., tn ) = F (z1 , ...., zm ; t1 , ..., tm )
(2.6)
observe que o membro esquerdo da Equação (2.6), deve ser entendido como:
limF (x1 , ...., xm ; xm+1 , ...., xn ; t1 , ....., tn ),
(2.7)
para xm+1 → +∞, ..., xn → +∞.
Um processo estocástico Xt ; t ∈ T é dito ser estacionário de segunda ordem ou fracamente estacionário se a sua função média é constante e sua função de autocovariância
depende apenas da defasagem. Por definição temos:
Definição 2.2: Seja T um conjunto arbitrário. Um processo estocástico é uma famı́lia
X = {X(t), t ∈ T }, tal que, para cada t ∈ T, X(t) é uma variável aleatória. Deste modo,
um processo estocástico é uma familia de variáveis aleatórias (v.a). Por suposição, estão
definidas em um espaço de probabilidade, do tipo (Ω, A, P), e onde o conjunto T é normalmente tomado como o conjunto dos inteiros T = 0, ±1, ±2, ..., no caso discreto, ou o
conjunto dos reais R, no caso contı́nuo. Observe que, para todo t ∈ T, Z(t) é uma variável
aleatória definida sobre o espaço Ω, e na realidade Z(t) é uma função de dois argumentos,
Z(t, ω), t ∈ T e ω ∈ Ω.
SILVA, F.L.
PPGME/UFPA
2.2 Processos Estocásticos
11
Alguns estudos podem ser restritos a momentos de baixa ordem e, em particular, para
uma classe de processos os quais interessarão a este trabalho, os chamados processos
estacionários de segunda ordem, onde será considerado os momentos de primeira e segunda
ordem, onde: A função média, ou simplesmente média, de X é:
Z
∞
µ(1, t) = µ(t) = E[X(t)] =
(2.8)
zf (z, t)dz
−∞
E a função de autocovariância (facv) de X é:
µ(1, 1; t1 t2 ) − µ(1; t1 )(1; t2 ) = γ(t1 , t2 ) = γ(τ )
γ(t1 , t2 ) = E{X(t1 )X(t2 )} − E{X(t1 }E{X(t2 )},
t1 , t 2 , ∈ T
(2.9)
(2.10)
Observe que µ(t) é uma função de t ∈ T e que γ(t1 , t2 ) depende de dois argumentos, t1 e t2
e em particaluar t1 = t2 = t, a função (2.9) nos dará:
γ(t, t) = V ar{X(t)} = E{X 2 (t)} − E 2 {X(t)}
(2.11)
especificada como a função variância do processo X e será indicada por V (t). Então:
E[X(t)] = µ(t)
(2.12)
Cov[X(t1 ); X(t2 )] = γ(t1 , t2 )
(2.13)
Nenhuma outra suposição é feita a respeito dos momentos de ordem mais alta. Além
disso, fazendo τ = 0 segue que V ar[Xt ] = 0, ou seja, a variância do processo assim como
a média também é constante. Note também que tanto a média quanto a variância precisam
ser finitos. Esta definição mais fraca de estacionariedade será utilizada daqui em diante
já que muitas propriedades dos processos estacionários dependem apenas da estrutura
especificada pelo primeiro e segundo momentos. Uma classe importante de processos em
que isto se verifica é a classe dos processos normais ou Gaussianos cuja a distribuição conjunta de X(t1 ), ...., (tk ) é normal multivariada para todo conjunto t1 , ...., tk . A distribuição
normal multivariada fica completamente caracterizada pelo primeiro e segundo momentos,
i.e. por µ(t) e γ(t1 ; t2 ). Assim, estacionariedade fraca implica em estacionariedade estrita
para processos normais. Por outro lado, µ e γ(τ ) podem não descrever adequadamente
processos que sejam muito ”não-normais”(Wei, 1990).
SILVA, F.L.
PPGME/UFPA
2.3 A estacionariedade
12
2.3 A estacionariedade
A estacionariedade numa série temporal significa que os dados oscilam sobre uma
média constante, independente do tempo, com a variância das flutuações permanecendo
essencialmente a mesma. Diniz (1998), afirma que uma série temporal é estacionária se
o processo aleatório oscilar em torno de um nı́vel médio constante. Séries temporais com
tendência linear ou exponencial são exemplos de séries temporais com comportamento
não estacionário. A condição de estacionariedade de 2a ordem implica que tanto a média
do processo, como a variância são constantes.
2.4 Processos Estacionários
Definição 2.3: Um processo estocástico X = {Z(t), t ∈ T } é dito estritamente estacionário se todas as distribuições finito-dimensionais:
F (z1 , ..., zn ; t1 , ..., tn ) = P [Z(t1 ≤ z1 , ..., Z(tn ) ≤ zn ].
(2.14)
permanecem as mesmas sob tranlações no tempo,(Moretin e Toloi, 2004), ou seja:
F (x1 , ..., xn ; t1 + τ, ..., tn + τ ) = F (x1 , ..., xn ; t1 , ..., tn ),
(2.15)
para quaisquer t1 , ..., tn , τ de T.
Uma série temporal é dita estritamente estacionária se a distribuição de probabilidade
conjunta de X(t1 ), ....., X(tk ) é a mesma de X(t1 + τ ), ....., X(tk + τ ). Ou seja, o deslocamento da origem dos tempos por uma quantidade τ não tem efeito na distribuição
conjunta que portanto depende apenas dos intervalos entre t1 , .....tk . Em particular, para
k = 1 a estacionariedade estrita implica que a distribuição de Xt é a mesma para todo
t de modo que, se os dois primeiros momentos forem finitos, temos que:
µ(t) = µ
(2.16)
v(t) = σ 2
(2.17)
são constantes e não dependem de t. Para k = 2 a distribuição conjunta de X(t1 )eX(t2 )
depende apenas da distância t2 − t1 , chamada defasagem. A função de autocovariância
γ(t1 ; t2 ) também depende apenas de t2 −t1 e pode ser escrita como γ(τ ) onde, o coeficiente
de autocovariância na defasagem τ é dada por:
SILVA, F.L.
PPGME/UFPA
2.5 Processos Não-Estacionários
13
γ(τ ) = E[X(t) − µ][X(t + τ ) − µ]
(2.18)
γ(τ ) = Cov[X(t), X(t + τ )]
(2.19)
Observe, que para melhor interpretação, pode-se denominar a Equação (2.19) de autocovariância, e assim, dando origem a função de autocorrelação ρ(τ ) :
ρ(τ ) =
γ(τ )
γ(0)
(2.20)
Essa função explica o nı́vel de correlação existente entre X(t) e X(t + τ ).
2.5 Processos Não-Estacionários
2.5.1 Modelos ARIMA ( p,d,q ) de Box & Jenkins
Estes modelos foram propostos no decorrer da década de 1960, pelos professores George
E. P. Box e Gwilym M. Jenkins e a partir de 1970 foi publicado na literatura Time
Series Analysis, forecasting and control (MORETTIN e TOLOI, 2004). Esta é a
metodologia mais utilizada pela comunidade cientifica para a análise de séries temporais
e formulação de modelos com maior capacidade de gerar previsões significativas.
Segundo Box e Jenkins ( 1976 ); Souza e Camargo ( 1996 ) uma série temporal é um
conjunto de observações de uma dada variável ordenada segundo o parâmetro tempo em
intervalos iguais. Se o processo estocástico que gerou a série de observações é invariante
com respeito ao tempo, diz-se que o processo é estacionário. Se as caracterı́sticas do
processo se alteram no decorrer do tempo, o mesmo é caracterizado como não estacionário.
A importância do conhecimento da série, ser ou não estacionária, reside no fato de
que quando se trabalha com uma série estacionária, se está em presença de uma função
amostral do processo que tem a mesma forma em todos os instantes do tempo t²N , onde N
é o número de observações existentes, acarretando na facilidade de obtenção de estimativas
do processo.
SILVA, F.L.
PPGME/UFPA
2.5 Processos Não-Estacionários
14
Segundo Morettin e Toloi (2004), uma série temporal Wt = 4d Zt apresenta as caracteristicas de estacionariedade, este fato, se deve ao operador diferença 4d . Então podemos
escrever Wt por um modelo ARMA(p,q ), da forma:
φ(B)Wt = θ(B)at .
(2.21)
onde, φ(B) = 1 − φ1 (B) − .... e θ(B) = 1 − θ1 (B) − ....
sendo:
B : Operador Atraso, tal que, B K Xt = Xt−k
θ(B) : Polinômio médias móveis (MA)
φ(B) : Polinômio auto regressivo (AR)
4 : Operador diferença simples, tal que, 4Zt = Zt − Zt−1
No entanto, se Wt for uma diferença de Zt , conseqüêntemente Zt é uma integral de Wt ,
daı́ diz-se que Zt apresenta caracterı́stica de um modelo auto-regressivo, integrado, médias
móveis ou simplesmente modelo ARIMA. Os termos auto-regressivos correspondem a
defasagens da série transformada, ou seja, a série estacionária obtida por intermédio de
diferenciações e as médias móveis a defasagens dos erros aleatórios e o termo integrado
refere-se a ordem de diferenciações sofridas pela série para tornar-se estacionária.
Esta metodologia tem como premissa fundamental que as séries temporais são geradas por processos estocásticos cuja natureza pode ser representada por um modelo
matemático, com a seguinte estrutura.
φ(B)4d Zt = θ(B)at .
(2.22)
de ordem (p,d,q) e escrevemos ARIMA(p,d,q), onde p e q são as ordens do parâmetro
autoregressivo φ(B) e do parâmetro média móvel θ(B), respectivamente.
Portanto, Segundo Morettin & Toloi (2004) o modelo especificado em (2.22), supõe
que a d-ésima diferença da série Zt pode ser representado por um modelo ARMA,
estacionário e inversı́vel. Na maioria dos casos usuais , d = 1 ou d = 2, que correspondem
a dois casos interressantes e comuns de não estacionariedade homogênea, são eles:
SILVA, F.L.
PPGME/UFPA
2.5 Processos Não-Estacionários
15
a) Séries não-estacionárias quanto ao nı́vel: oscilam ao redor de um nı́vel médio durante algum tempo e depois saltam para outro nı́vel temporário. Para torná-las estacionárias
é suficiente tomar uma única diferença; este é o caso tipico de séries econômicas.
φ(B)41 Zt = θ(B)at .
b) Séries não-estacionárias quanto a inclinação: oscilam numa direção por algum tempo
e depois mudam para outra direção temporária. Para torná-las estacionárias é suficiente tomar a segunda diferença.
φ(B)42 Zt = θ(B)at .
O modelo ARIMA(p,d,q) é um caso especial de um processo integrado. Em geral, dizse que Xt é integrável de ordem d se ∆d Xt for estacionário, e escrevemos Xt ∼ I(d). Se
d=0, conseqüêntemente Xt será considerado estacionário.
A análise no domı́nio do tempo é baseada em um modelo paramétrico, utilizando-se
as funções de autocovariância e autocorrelação. A autocorrelação é a autocovariância
padronizada, que serve para medir a extensão de um processo para o qual o valor tomado
no tempo t, depende daquele tomado no tempo t-k. Define-se a autocorrelação de ordem
k como:
ρkk =
Cov[Zt , Zt+k ]
γk
=p
γo
V ar(Zt )V ar(Zt+k )
(2.23)
Onde: V ar(Zt ) = V ar(Zt=k ) = 0 o que é igual a variância do processo ρ0 = 1 e ρk = ρ−k
A autocorrelação pode ser estendida. Se for medida a correlação entre duas observações
seriais Zt e Zt+k , eliminando-se a dependência dos termos intermediários, Zt+1 , Zt+k−1 ,
tem-se a autocorrelação parcial, representada por:
Cor
Zt , Zt+k
Zt+1 , .........., Zt+k−1
(2.24)
A função de autocorrelação pode ser obtida considerando-se um modelo de regressão
para um processo estacionário com média zero. A variável dependente Zt+k dependente
das variáveis; Zt+k−1 , Zt+k−2 , ........, Zt+k−n . Deste modo; temos:
SILVA, F.L.
PPGME/UFPA
2.5 Processos Não-Estacionários
16
Zt−k = φk1 Zt+k−1 + φk2 Zt+k−2 + .... + φKK Zt + at−k
(2.25)
Onde: φki - i - ésimo parâmetro da regressão
at+k - é o termo de erro descorrelatado com Zt+k−j para j ≥ 1
De acordo com Moretin e Toloi (2004), os Modelos Autoregressivos Puros AR(p,0) são
aqueles cujo polinômio φ(B) = 1, e onde as estimativas de Z para um tempo t dependem
de uma combinação linear de p termos da série observada, incluindo o termo aleatório a(t)
de ruı́do branco (erros de estimação com distribuição normal de média zero e variância
constante e não correlacionadas). Deste modo tem-se:
Zt =
p
X
φi Z(t − i) + at
(2.26)
Zt = φ1 Zt−1 + φ2 Zt−2 + ... + φp Zt−p + at
(2.27)
i=1
onde φi são parâmetros que ponderam os valores de Zt , do instante imediatamente anterior
t-1 até o mais distante t-p, sendo determinados através de técnicas de minimização de
erros.
Os Modelos Médias Móveis puros MA(0,q) são aqueles cujo polinômio θ(B) = 1, este
modelo assume que a série modelada é gerada através de uma combinação linear de q
sinais de ruı́do a(t-i), aleatórios e independentes entre si. Assim temos:
q
X
Zt = −
θi a(t − i) + at
(2.28)
i=1
Zt = at − θ1 at−1−2 at−2 − ..... − θP at−q
(2.29)
Os Modelos Autoregressivos-Médias-Móveis Puros ARMA, com AR( p,0 ) e MA( 0,q )
são aqueles cujo polinômio φ(B) = 1 e θ(B) = 1. Deste modo temos:
Zt = −
p
X
q
X
θi a(t − i) + at
(2.30)
Zt = φ1 Zt−1 + φ2 Zt−2 + ... + φp Zt−p + at − θ1 at−1 − θ2 at−2 − ... − θp at−q
(2.31)
i=1
φi Z(t − i) −
i=1
Para que o polinômio φ(B) seja estacionário, suas raı́zes têm de estar fora do cı́rculo
unitário, e para que θ(B) seja inversı́vel, suas raı́zes devem se encontrar fora do cı́rculo
unitário.
SILVA, F.L.
PPGME/UFPA
2.5 Processos Não-Estacionários
17
Para se fazer uma previsão de uma série temporal através dos modelos ARIMA, torna-se
necessário identificar a ordem dos perâmetros p,d,q. Sendo assim,o primeiro parâmetro a
ser identificado é o grau de diferenciação d necessário à estabilização dos dados. Isto é feito
através de um exame de correlograma, ou seja, do diagrama da função de autocorrelação
(FAC), no qual são apresentados os valores das autocorrelações em ralação aos lags k.
Se as autocorrelações decrescem de forma linear, realizam-se diferenciação na série, até
que o diagrama apresente um corte abrupto para um valor qualquer de autocorrelação,
a partir daı́ a série será considerada estacionária. A ordem autoregressiva p é determinada pela verificação da função de autocorrelação parcial (FACP) φkk da série que está
sendo analisada. Se a série for unicamente autoregressiva ARIMA (p,d,0), sua função de
autocorrelação parcial apresentará uma queda rápida após o lag k.
Segundo (Bartlet, 1946; Box & Jenkins, 1976) caso não utilise a FACP, deve-se efetuar uma análise dos estimadores φkk para verificar até que ordem de defasagem do
correlograma desta função ele é estatisticamente significativo. Após indentificá-la ela será
considerada autoregressiva.
2.5.2 Análises das Funções de Autocorrelações
Os processos AR(p), MA(q) e ARMA(p,q) apresentam as funções de autocorrelações
com as seguintes caracterı́sticas:
• Um processo AR(p) apresenta fac com decaimento de acordo com exponenciais e
/ou senóides amortecidas, infinitas em extensão;
• Um processo MA(q) apresenta fac finita, no sentido que ela apresenta um corte após
o lag q;
• Um processo ARMA(p,q) apresenta fac infinita em extensão, a qual decai de acordo
com exponenciais e/ou senóides amortecidas após o lag q - p.
SILVA, F.L.
PPGME/UFPA
2.5 Processos Não-Estacionários
18
2.5.3 Análise das Funções de Autocorrelações Parciais
Os processos AR(p), MA(q) e ARMA(p,q) apresentam as funções de autocorrelações
parciais com as seguintes caracterı́sticas:
• Um processo AR(p) apresenta facp φkk 6= 0, para k ≤ p e φkk = 0 para k > p;
• Um processo MA(q) apresenta facp de maneira similar à fac de um processo AR(p):
com exponenciais e/ou senóides amortecidas;
• Um processo ARMA(p,q) apresenta facp com as caracterı́sticas da fac de um processo
MA puro e/ou senóides amortecidas após o lag q - p.
2.5.4 Critérios de Seleção - AIC e SBC
Existem vários critérios que permitem identificar modelos ARMA, sugeridos a partir de
1970, cuja idéia era escolher as ordens p e q que fossem capazes de minimizar a expressão:
C(N )
(2.32)
N
2
em que σ̂p,q
é uma estimativa da variância residual obtida ajustando um modelo ARMA(p,q)
2
P (p, q) = lnσ̂p,q
+ (p, q)
às N observações da série e C(N) é uma função do tamanho da série.
• Critério de Informação de Akaike - AIC.
Akaike (1973 e 1974) afirma que a escolha de modelos mais significativos, implica na
escolha de modelos, cujas as estimativas para os parâmetros (p,q), venham minimizar
a expressão.
AIC(p, d, q) = lnσ̂a2 +
N
· 2(p + q + 1 + δd0 ) + N · ln2π + N
N −d
(2.33)
em que:
½
δd0 =
1, d = 0
0, d =
6 0
(2.34)
e σ̂a2 é o estimador de máxima verossimilhança de σa2 .
Uma forma mais simples de se calcular este critério é:
AIC = N.ln( n1
SILVA, F.L.
Pn
j=1 (yj
− ŷj )2 ) + 2.ω.
PPGME/UFPA
2.5 Processos Não-Estacionários
19
• Critério de Informação Bayesiano - BIC ou SBC
Sugerido por Akaike(1977), Rissanem (1978) e Schwartz (1978), este critério, para o caso
de um modelo ARMA(p,q), implica em minimizar a expressão:
2
+ (k + l)
SBC(p, q) = lnσ̂p,q
logN
N
(2.35)
2
onde, σ̂p,q
é o estimativa de máxima verossimilhança da variância residual do modelo
ARMA(p,q). Uma forma mais simples de se calcular este critério é:
SBC = N.ln n1
Pn
j=1 (yj
− ŷj )2 + ω.ln(N )
Onde, ω = número de parâmetros estimados; N = número de observações utilizadas.
SILVA, F.L.
PPGME/UFPA
Capı́tulo 3
Modelos Probabilı́sticos de Séries Temporais
em Processos Dinâmicos Multivariados
3.1 Introdução
Para Souza(1989), os Modelos Multivariados são modelos capazes de realizar várias
previsões ao mesmo tempo, onde as séries de interesse são explicadas em função não
apenas do comportamento da própria série mas também de outras séries, permitindo,
desta forma, relações de interdependência e causalidade. Esses modelos apresentam uma
estrutura capaz de estimar a curto, médio e longo prazo diversas séries simultâneamente.
Na prática, muitas das séries temporais são avaliadas melhor como uma componente de
algum vetor multivariado de uma série de tempo Xt com dependência existente dentro de
cada componennte Xtj , mas também deve-se avaliar a interdependência entre as diferentes
componentes Xtj e Xti . Deve-se observar que muitas das teorias e suposições levantadas
na análise univariada de série de tempo estende-se de forma similar para a análise de séries
de tempo multivariada (Wylomanska, 2005).
3.2 Propriedades de Segunda Ordem de Séries Temporais Multivariada
Considere m séries de tempo Xti , t = 0, ±1, ±2, ..., i = 1, 2,..., m com E(Xti2 ) <
∞ para todo i. Se todas as distribuições finitas dimensionais das variáveis aleatórias Xti
forem do tipo normal multivariada, as distribuições de Xti serão completamente determinada pelas médias.
µti = E(Xi )
e as covariâncias por:
γij (t + h, t) = E[(Xt+h , i − µti )(Xtj − µtj )]
(3.1)
(3.2)
3.2 Propriedades de Segunda Ordem de Séries Temporais Multivariada
21
Caso as observações Xt não apresentem uma distribuição normal, as quantidades µti e
µij (t + h, t) especificam a propriedade de segunda ordem, e a covariância é uma medida de dependência, não somente entre as observações da mesma série, mas também em
observações de séries diferentes.
Quando se trata de m séries, costuma-se utilizar a notação de vetor, definido da seguinte
forma:
Xt = [Xt1 , ...., Xtm ]0 ,
t = 0, ±1, ±2, ....
(3.3)
As propriedades de segunda ordem das séries de tempo multivariada Xt são especificadas
pelos vetores de médias, na forma:
µt = [µt1 , ...., µtm ]0
(3.4)
Definição 1 : Uma série m-variada Xt é dita fracamente estacionária se µt for independente de t e Γ(t + h, t) for independente de t, para todo h. Para séries estacionárias
temos:
µ = E(Xt Γ(h)) = E[(Xt+h
− µ )(Xt
− µ)].
(3.5)
Definição 2 : A série temporal m-variada Zt é definida como (White Noise) ou ruı́do
P
branco com média 0 e matriz de covariância (Zt ∼ W N (0, Σ)) se Zt é estacionária
com média d vetor igual a zero e a função de matriz de covariância dada por:
½
Γ(h) =
Σ, h = 0
0, caso contrário
(3.6)
Definição 3 : Uma série m-variada Zt é dita série de ruı́do branco Independente e IdenP
ticamente Distribuı́do - IID com média 0 e matriz de covariância (Zt ∼ IID(0, Σ)) se
o vetor aleatório Zt for independente e identicamente distribuido com média 0 e matriz
de covariância σ 2 .
SILVA, F.L.
PPGME/UFPA
3.3 Modelamento com Processo AR Multivariado
22
Definição 4 : Uma série m-variada Xt é um processo linear, se apresentar a seguinte
representação.
Xt =
∞
X
Cj Zt−j ,
Zt ∼ WN(0, Σ)
(3.7)
j=−∞
Onde Cj é uma sequência de matrizes m × m com componentes absolutamente somável.
Observação 1:
Um processo da forma descrita em (3.7) é estacionário com média 0
e função de covariância
Γ(h) =
∞
X
Cj+h ΣCj0 ,
h = 0, ±1, ±2, ...
(3.8)
j=−∞
3.3 Modelamento com Processo AR Multivariado
Segundo Wilomanska(2005), se Xt é um processo AR(p) multivariado causal definido
pela equação diferença:
Xt = φ1 Xt−1 + ... + φp Xt−p + Zt ,
WN (0, Σ),
(3.9)
ou ainda:
Xt = µ + φ1 Xt−1 + ... + φp Xt−p + ²t
(3.10)
φ(L)Xt = µ + ²t
(3.11)
onde, ²t ∼ W N (0, σ²2 ) (Ruı́do Branco), isto é:
E(²t ) = 0,
½
E(²t ²s ) =
σ²2 , t = s
0 , c.c
(3.12)
com, 1 − φ1 L − φ2 L2 − ... − φp Lp Lag polinomial de ordem p, então:
SILVA, F.L.
PPGME/UFPA
3.4 Modelamento com Processo MA Multivariado
23
Lk Xt = yt−k
(3.13)
com operador Lag (L0 yt = yt ).
Com a condição de estacionariedade satisfeita, tem-se:
φ(L) = 0 ,
(3.14)
Com as raizes fora do circulo unitário, desta forma;
z p − φ1 z p−1 − ... − φp−1 z − φp = 0
(3.15)
3.4 Modelamento com Processo MA Multivariado
Segundo Wilomanska(2005), se Xt é um processo MA(q) multivariado é definido:
Xt = µ + ²t + θ1 ²t−1 + ... + θq ²t−q = µ + θ (L).²t ,
(3.16)
com, θ(L) = 1 + θ1 L + θ2 L2 + ... + θq Lq Lag polinomial de ordem q, com:
²t ∼ W N (0, σ²2 ),
(3.17)
Um processo MA estacionário e com as condições de invertibilidade satisfeita, apresenta
a caracterı́stica polinomial θ(L) = 0, com raizes fora do cı́rculo unitário.
3.5 Processos ARMA Multivariados
Como definido no processo univariado, pode-se definir uma classe útil de processos
estacionários multivariados Xt . Desta forma, Xt deve satisfazer uma classe de equações
de diferenças lineares com coeficientes constantes. Zt é uma série multivariada de ruı́do
branco, fundamental para a construção de processos ARMA.
SILVA, F.L.
PPGME/UFPA
3.5 Processos ARMA Multivariados
24
Definião 5 : As séries são caracterizadas como um processo ARMA(p,q) se Xt é estacionária e para cada t, ocorrer.
φ(B)Xt = θ(B)Zt ,
Zt ∼ W M (0, Σ),
(3.18)
onde φ(z) I −φ1 −...−φp z p , θz = I +θ1 +...+θq zq são matrizes com valores polinomiais,
I é uma matriz identidade m x m.
Definição 6 : Um processo ARMA(p,q) para uma série Xt é causal ou uma função
causal de Zt , se existirem matrizes ψj com componentes absolutamente somável, de tal
modo que:
φ(L)Yt = µ + θ(L)²t ,
(3.19)
ou
Xt =
∞
X
ψ j Zt−j
(3.20)
J=0
que é equivalente à condição detφ(z) 6= 0, para todo z ∈ C, de tal modo que, |z| ≤ 1 .
A matriz ψj é encontrada através da equação.
ψj = θ j +
∞
X
(3.21)
k=1
k
phi ψj−k ,
j = 0, 1, , ...,
(3.22)
onde θ0 = I, θj = 0 para j > q, φj = 0 para j > p e ψj = 0 para j < 0.
Definição 7 : Um processo ARMA(p,q) para uma série Xt é invertı́vel se existirem
matrizes Πj com componentes absolutamente somáveis, de tal modo que:
Πj = −φj −
∞
X
k=1
θk Πj−k ,
j = 0, 1, ....,
∞
X
ψ j Zt−j
(3.23)
J=0
onde φ0 = −I, φj = 0 para j > p , θj = 0 e Πj = 0 para j > 0.
SILVA, F.L.
PPGME/UFPA
3.6 Processos ARIMA Multivariados
25
Para um processo AR(1) multivariado com o auxı́lio da equação (3.23) dada na definição
de causalidade, tem-se:
ψ0 = I
ψ1 = φψ0 = φ
ψ2 = φψ1 = φ2
:
.
ψj = φψj−1 = φj ,
j≥ 3
3.6 Processos ARIMA Multivariados
Definião 8 : Uma série é definida integrada de ordem (d), ou seja, Xt v I(d), se
tornando estacionário após d diferenciação. Portanto o processo ARIMA(p,d,q) para uma
série Xt é definido, da seguinte forma:
(1 − L)d Xt v ARM A(p, q) ,
(3.24)
Diz-se que Xt v ARIM A(p, d, q), onde p, denota a ordem dos AR-lags e q , denota a
ordem dos MA-lags e d as diferenciações.
3.7 Modelos de Função de Transferência (MFT)ou Modelos Causais
Nos Modelos de Função de Tranferência uma série de saı́da é relacionada a uma ou
mais séries da entrada, ou seja, o interesse agora é estudar uma única saı́da em um sistema
linear de entrada múltipla. Nestes tipos de modelos os valores futuros de uma série são
explicados não somente pelos valores passados da mesma, mas também por séries que de
alguma forma possuam relação entre si,(Fig. 3.1).
onde:
Z1,T , ..., Zk−1,T são séries de entrada;
ZK,T séries de saı́da, pós modelo de função de tranferência; Por exemplo, vendas podem
estar relacionadas a gastos com propaganda; consumo diário de eletricidade podem estar relacionados a certas variáveis ambientais tais como máxima temperatura externa
SILVA, F.L.
PPGME/UFPA
3.8 Funções de Transferências de Única Entrada
26
Z1, T
Z2, T
:
:
ZK-1, T
MODELO DE
FUNÇÃO DE
TRANSFERÊNCIA
ZK, T( )
Informações Relevantes
Figura 3.1 Estrutura de Modelos de Função de Transferência
e umidade relativa. Serão vistos modelos lineares com saı́da simples com entrada simples e múltipla. Depois do estudo das caracterı́sticas básicas dos modelos de função de
transferência serão discutidas a identificação, estimação e checagem do diagnóstico desses
modelos e ainda previsões para modelos com função de transferência.
3.8 Funções de Transferências de Única Entrada
Assumindo que Xt e Yt são séries corretamente transformadas, de modo que, ambas
são estacionárias. Em um sistema linear com entrada e saı́da única, a série de entrada Xt
e de saı́da Yt são relacionadas através do seguinte filtro linear:
Yt = v(B)Xt + Nt
Onde:
v(B) =
P∞
j=−∞
(3.25)
vj B j se refere a um filtro de função de transferência descrito por Box
e Jenkins (1976), e Nt é uma série de ruı́do do sistema que é independente da série de
entrada Xt .
Box e Jenkins descreveu a função (3.25), como um modelo de função de transferência
que apresenta a capacidade de descrever funções resposta de frequência. Quando Xt e Yt
seguem um modelo ARMA, esta Função (3.25) também é conhecida como um modelo,
AutoRegressive Moving Average with exogenous signal ARMAX, ou seja, Autoregressivo com Média Móvel e Entradas Exogenas.
SILVA, F.L.
PPGME/UFPA
3.8 Funções de Transferências de Única Entrada
27
Os coeficientes do modelos de função de transferência em (3.25) são geralmente conhecidos como pesos de resposta do impulso. Em função de j, vj também é conhecida como
função de resposta de impulsos. O modelo de função de transferência é dito ser estável se
a sequência desses pesos puder assumir a seguinte função:
X
|vj | < ∞
(3.26)
Para Wei(1990), um sistema estável com uma entrada limitada sempre produz uma saı́da
limitada. O modelo de função de tranferência é dito ser causal se vj = 0 para j < 0 .
Assim, em um modelo causal, o sistema não funciona para a série de entrada até que as
mesmas tenham sido realmente aplicadas no sistema.
Um modelo casual e estável é geralmente descrito como sendo da seguinte forma racional:
onde; v(B) =
P∞
j=0
Yt = v0 Xt + v1 Xt−1 + v2 Xt−2 + .... + Nt
(3.27)
Yt = v(B)Xt + Nt
(3.28)
vj B j ,
P∞
j=0
|vj | < ∞ , onde Xt e Nt são independentes.
Segundo Wei(1990), um sistema de função de tranferência dinâmico pode ser escrito
esquematicamente da seguinte forma:
xt
Função de
Transferência v(B)
t
yt
v0 v1 v3 v4 v5 v6
nt
t
t
Figura 3.2 Sistema de Função de Transferência Dinâmico
SILVA, F.L.
PPGME/UFPA
3.9 Algumas Funções Tı́picas da Resposta do Impulso
28
O grande objetivo da modelagem com funções de transferência e o de identificar e
estimar a função de transferência v(B) e modelar o ruı́do Nt , baseado na informação
disponı́vel das séries de entrada
Xt
e da série de saı́da
Yt . A maior dificuldade
encontrada ao se trabalhar os MFT é que a informação sobre Xt e de Yt é finita e como
a função de trasnferência v(B) em (3.27) pode conter um número infinito de coeficientes,
isto muitas vezes torna-se não trivial.
Para reduzir estas dificuldades pode-se representar a função de transferência v(B), descrita na Figura 3.2, através da seguinte equação:
v(B) =
ws (B)
· Bb
δr (B)
(3.29)
onde; ws (B) = w0 − w1 (B) − ... − ws B s , δr (B) = 1 − δ1 (B) − ... − δr B r e b é um
parâmetro de defasagem que representa o lag do tempo presente que decorre antes que
o impulso da variável de entrada produza um efeito sobre a variável de saı́da. Para um
sistema estável, é assumido que as raı́zes δr (B) encontram-se dentro do cı́rculo unitário.
Uma vez que Ws (B) , 4r (B) e b são definidos, o peso vj da resposta do impulso pode
ser obtido igualando-se os coeficientes de B j em ambos os lados da seguinte equação:
δr (B)v(B) = ws (B) · B b
(3.30)
então tem-se:
[1 − δ1 (B) − .. − δr (B)r ][v0 + v1 (B) + v2 (B)2 + ..] = [w0 − w1 (B) − .. − ws B s ]B b (3.31)
3.9 Algumas Funções Tı́picas da Resposta do Impulso
Na prática, os valores de r e s na Equação (3.31), raramente excedem 2. Por este fato,
será descrito o comportamento de três tipo de funções tı́picas de tranferência:
tipo 1 : r = 0, neste caso, a função de transferência contém somente um número finito
dos pesos de resposta do impulso que começam em vb = w0 e que terminam em vb+s = −ws
SILVA, F.L.
PPGME/UFPA
3.10 Funções de Correlação Cruzada e Modelos de Função de Transferência
29
tipo 2 : r = 1, neste caso, os pesos da resposta de impulso exibe um decaimento
exponencial que inicia em, vb
se s = 0, para um vb+1 se s = 1, e de vb+2 se s = 2.
Portanto, só irá acontecer se as raizes estiverem dentro do cı́rculo unitário.
tipo 3 : r = 2, neste caso, os pesos da resposta de impulso exibem uma onda exponencial ou um senóide amortecido (seno), dependendo da natureza das raizes do polinômio
δ2 (B) = (1 − δ1 (B) − δ2 (B 2 )) = 0, este segue um decaimento exponencial, se as raizes
forem do tipo reais, ou seja, se δ12 − 4δ2 ≥ 0. Caso as raizes sejam complexas, ou seja, se
apresentarem δ12 − 4δ2 < 0, então o valor de s é descrito similar ao descrito anteriormente.
Se as raizes de δr (B) estiverem dentro do cı́rculo unitário.
3.10
Funções de Correlação Cruzada e Modelos de Função de
Transferência
3.10.1 Funções de Correlação Cruzada - FCC
Wei 1990, descreve que a função de correlação cruzada é utilizada para medir a relação
existente entre duas variáveis aleatórias. Dado dois processos estocáticos Xt e Yt para
t = 0, ±1, ±2, ..., diz-se que xt e yt são conjuntamente estacionárias se xt e yt são processos
estacionários univariados com covariancia cruzada entre Xt e Yt , ou seja, Cov(Xt , Yt ), é
uma função somente da diferença de tempo (x-t). Neste caso, tem-se a seguinte covariância
cruzada entre Xt e Yt :
γXY (k) = E[(Xt − µx )][(Yt+k
− µy )]
(3.32)
para k = 0, ±1, ±2, ..... , onde padronizando a equação (3.32), tem-se a seguinte função
de correlação cruzada:
ρxy(k) =
para k = 0, ±1, ±2, ..... , onde σx e σy
γxy (k)
σx · σy
(3.33)
são os desvios padrões de Xt , Y
t
respecti-
vamente. É importante observar que a função de covariância cruzada γxy (k) e a função
de correlação cruzada ρxy (k) são generalização das funções de auto-covariâncias e autocorrelações devido γxx (k) = γx (k) e ρxx (k) = ρx (k).
SILVA, F.L.
PPGME/UFPA
3.10 Funções de Correlação Cruzada e Modelos de Função de Transferência
30
Observa-se que, ao contrário da função de autocorrelação ρx (k), que é simétrica em
torno da origem, isto é, ρx (k) = ρx (−k) a função de correlação cruzada não é simétrica,
ou seja, ρxy (k) 6= ρxy (−k). Por outro lado, devido E(xt − µx )(yt+k
− µy )
= E(yt+k −
µy )(xt − µx ) = γxy (−k), tem-se ρxy (k) = ρyx (−k). Portanto, a função de correlação
cruzada, FCC, mede não somente a intensidade de uma associação mas também sua
direção. Para se ver a figura inteira da relação entre as séries Xt e Yt , é importante
examinar a FCC, ρxy (k) , para ambos os lags positivos e negativos, k > 0 e k < 0. O
gráfico da FCC é conhecido como correlograma cruzado.
3.10.2 Relação entre Função de Correlação Cruzada e Função de Transferência
O Modelo de função de tranferência em (3.27), supondo um tempo t+k, pode ser escrito
como:
Yt+k = v0 Xt+k + v1 Xt+k−1 + v2 Xt+k−2 + .... + Nt+k
(3.34)
Sem perda de generalidades pode-se assumir que µx = 0 e µy = 0. Multiplicando ambos
os termos em (3.32) por Xt , e calculando a esperança tem-se:
γxy (k) = v0 γxx (k) + v1 γxx (k − 1) + v2 γxx (k − 2) + ...
(3.35)
Lembre-se que ao adotar γxn (k) = 0, para todo K, tem-se:
ρxy (k) =
σx
[v0 ρx (k) + v1 ρx (k − 1) + v2 ρx (k − 2) + ...].
ρy
(3.36)
A relação entre a função de correlação cruzada ρxy (k) e a função resposta de impulso
vj é claramente influenciada pela autocorrelação existente nas séries de entrada Xt .
Mesmo se r =0 em (3.29) e a função de tranferência vB conter um número finito de pesos
de resposta do impulso, então o uso da equação (3.36) na construção de um sistema de
equações para resolver vj em função de ρxy (k) e ρx (k) é difı́cil.
A variância e a covariância das estimativas da amostra de ρxy (k) são claramente influenciadas pela autocorrelação existente na série de saı́de xt . Como mostra a equação (3.36),
é dificil realizar os testes de ρxy (k) e de v (B).
SILVA, F.L.
PPGME/UFPA
3.10 Funções de Correlação Cruzada e Modelos de Função de Transferência
31
A variância e covariância da estimativa amostral de ρxy (k) são claramente contaminadas
pela estrutura de auto-correlação das séries de entrada xt como mostra a equação (3.36),
tornando os testes de ambos ρxy (k) e vk difı́ceis. Entretanto, se a série de entrada for um
ruı́do branco, isto é, ρx (k) = 0 para k 6= 0, a equação em (3.38), reduz-se a:
vk =
σy
.ρxy (k)
σx
(3.37)
Portanto, a função de resposta de impulso vk é diretamente proporcional a função de
correlação cruzada ρxy (k).
Algumas observações importantes:
1. A função de correlação cruzada ρXY (K) é definida somente quando Xt e Yt são
processos bivariados conjuntamente estacionários. Caso o processo não seja do tipo
estacionário, deve-se aplicar um processo de diferenciações para se obter a estacionariedade desejada, ou aplicar transformações para se estabilizar a variância.
Deste modo, a menos que seja mencionado, os processos Xt e Yt serão assumidos
conjuntamente estacionários.
2. No modelo geral de função de transferência
Xt = v(B)Xt + Nt ,
(3.38)
Pode-se assumir que a série de entrada Xt segue um processo ARMA, ou seja:
φx (B)Xt = θx (B)αt
(3.39)
onde αt é ruı́do branco. A série αt , definida como do tipo,
αt =
φx (B)
.Xt
θx (B)
(3.40)
é chamada freqüentemente de série de entrada pré ajustada (prewhitened). E aplicando à mesma um processo de transformação de pré ajustamento na série de saı́da
Yt , obtém-se a série de saı́da filtrada.
SILVA, F.L.
PPGME/UFPA
3.11 Construção do Modelo de Função de Transferência
βt =
32
φx (B)
.Yt
θx (B)
(3.41)
fazendo, ²t = θx−1 (B) · φx (B)nt , o modelo de função de tranferência em (3.39)( substituindo (3.40) e (3.41) em (3.42), torna-se :
βt = v(B)αt + ²t ,
(3.42)
Daı́, os pesos de resposta de impulso vj , para a função de transferência podem,
conseqüentemente ser encontrados como (ver eq. (3.37)),
vk =
σβ
ραβ (k)
σα
(3.43)
onde a partir de então, as etapas fundamentais de identificação dos modelos de função
de transferência podem ser conduzidas.
3.11 Construção do Modelo de Função de Transferência
3.11.1 Função de Correlação Cruzada Amostral
Para um conjunto de dados das séries Xt e Yt , 1 ≤ t ≤ n, a função de correlação cruzada;
ρxy (k) =
γxy (k)
,
σx σy
k = 0, ±1, ±2, ...,
(3.44)
Passa a ser estimada pela seguinte função de correlação cruzada amostral,
ρ̂xy (k) =
γ̂xy (k)
,
Sx Sy
k = 0, ±1, ±2, ...,
(3.45)
onde;


γ̂xy (k) =
com,
Sx =
p
γ̂xx (0)

e
1
n
1
n
Pn−k
t=1
(Xt − x̄)(Yt+k − ȳ),
Pn
t=1−k (Xt
Sy =
k ≥ 0,
(3.46)
− x̄)(Yt+k − ȳ), k < 0
p
γ̂yy (0), e ȳ e ȳ são as médias amostrais das séries
Xt e Yt respectivamente.
SILVA, F.L.
PPGME/UFPA
3.11 Construção do Modelo de Função de Transferência
33
3.11.2 Identificação do Modelo de Função de Transferência
A partir de então, a Função de Tranferência v (B) pode ser obtida procedendo da seguinte
forma:
1. Pré ajustando as séries de entrada,
φx (B)Xt = θx (B)αt ,
(3.47)
isto é,
αt =
φx (B)
Xt ,
θx (B)
(3.48)
onde, αt é uma série de ruı́do branco, com média zero e variância δa2
2. Calcular a série de saı́da filtrada. Isto é, transformar a série de saı́da Yt utilizando o
modelo pré ajustado, no item 1, para gerar a série:
βt =
φx (B)
Yt ,
θx (B)
(3.49)
3. Calcular a função de autocorrelação cruzada amostral ρ̂αβ (k) entre α e β para estimar
vk ,
v̂k =
σ̂β
ρ̂αβ (k),
σ̂α
(3.50)
O significância da função de correlação cruzada é equivalente a v̂k , para esta veri1
ficação basta analisar seu desvio padrão (n − k)− 2 .
4. Identificar b, δr (B) = (1 − δ1 B − ... − δr B r ),
eWs (B) = (ω0 − ω1 (B) − ... −
ωs B s ) pelo ajuste padrão de v̂k com o de vk , discutidos em 3.11.1 e 3.11.2. Uma vez
escolhidos b, r e s, as estimativas preliminares ω̂j e δˆj relacionadas com vk podem
ser estimadas, como mostrado em (3.29). Portanto, tem-se uma estimativa da função
de transferência v (B) como:
v̂t =
SILVA, F.L.
ω̂s (B)
δ̂r (B)
Bb.
(3.51)
PPGME/UFPA
3.11 Construção do Modelo de Função de Transferência
34
3.11.3 Identificação do Modelo de Ruı́do
Uma vez obtido o modelo preliminar da função de transferência, pode-se calcular a série
de ruı́dos estimada,
N̂t = Yt − v̂(B)Xt
N̂t = Yt −
ŵ(B)
δ̂(B)
B b Xt
(3.52)
O modelo apropriado para o ruı́do pode ser identificado examinando-se sua FAC e
FACP ou por outra ferramenta de identificação de séries univariadas de tempo. Então,
φ(B)nt = θ(B)at
(3.53)
• Observações sobre a identificação do Modelo de Função de Transferência.
Combinando (3.52) e (3.53) temos o seguinte modelo de função de transferência:
Yt =
ω(B)
θ(B)
Xt−b +
at
δ(B)
φ(B)
(3.54)
• Alguns pontos importantes na construção do modelo de função de transferência:
1. Na construção do modelo é assumido que as variáveis Xt , Yt e Nt são todas
estacionárias. Portanto, para series não estacionárias alguma estabilização da
variância e diferenciação podem ser necessárias.
2. No processo de identificação acima, da função de transferência v(B), a serie
de entrada deve ser pré-ajustada. O modelo pré-ajustado é usado para filtrar
a serie de saı́da, mas não necessariamente para ajustá-lo. Este é um método
normal e simples para a construção de um modelo de função de transferência
causal. Entretanto, para a construção de um possı́vel sistema não causal com
fenômeno de feedback, onde Yt é influenciado por Xt e Xt também é influenciado
por Yt , ambas as séries de entrada e saı́da deveriam ser pré-ajustadas antes
SILVA, F.L.
PPGME/UFPA
3.11 Construção do Modelo de Função de Transferência
35
de se examinar sua FCC. Isso é freqüentemente referido como um duplo préajustamento. Entretanto, é geralmente mais vantajoso modelar um sistema não
causal por meio de um processo de vetor (VAR).
3.11.4 Estimativas dos Parâmetros do Modelo de Função de Transferência
Após identificação do modelo de função de transferência preliminar,
Yt =
ω(B)
θ(B)
Xt−b +
at
δ(B)
φ(B)
(3.55)
0
0
é necessário a realização da estimação dos parâmetros φ = (φ1 , ..., φp ) , θ = (θ1 , ..., θq )
e σa2 . Pode-se escrever a equação em (3.55) da seguinte forma:
δ(B)φ(B)Yt = φ(B)ω(B)Xt−b + δ(B)θ(B)at
(3.56)
ou ainda, de forma equivalente;
c(B)yt = d(B)xt−b + e(B)at
(3.57)
onde:
c(B) = δ(B)φ(B) = (1 − δ1B − ... − θr B r )(1 − phi1 B − ... − φp B p )
= (1 − c1B − c2B 2 − ... − cp+r B p+r ),
d(B) = φ(B)ω(B) = (1 − φ1B − ... − φp B p )(ω0 − ω1 B − ..., −ωs B s )
= d0 − d1B − d2B 2 − ... − dp+s B p+s ),
e e(B) = δ(B)φ(B) = (1 − δ1B − ... − θr B r )(1 − θ1 B − ... − θq B q )
= (1 − e1 B − e2 B 2 − ... − er+q B r+q ).
Assim,
at = yt − c1 yt−1 − ... − cp+r y t−p−r − d0 xt−b + d1 xt−b−1
+... + dp+s xt−b−p−s + e1 at−1 + ... + er+q at−r−q
SILVA, F.L.
(3.58)
PPGME/UFPA
3.11 Construção do Modelo de Função de Transferência
36
onde, ci , dj e ek , são funções de δi , ωj , φk e θl . Sob a suposição de que os at são ruı́dos da
série com as seguintes caracterı́sticas N (0, δk2 ). Daı́, tem-se a seguinte função condicional
de verossimilhança:
L(δ, ω, φ, θ, σa2 |b, x, y, x0 , y0 , a0 )
=
−n
(2πσa2 ) 2 exp
n
1 X 2
[− 2
a]
2σa t=1 t
(3.59)
onde, x0 , y0 , a0 são valores apropriados para começar a computar os resı́duos at em
(3.64) e se comporta similar aos valores necessários para estimar os modelos ARIMA, descritos no Capı́tulo 2.
3.11.5 Diagnóstico dos Modelos de Função de Transferência
A partir do modelo identificado e seus parâmetros estimados, é necessário realizar a
verificação da adequação do mesmo, pois só a partir desta adequação é que o mesmo pode
ser utilizado para gerar previsões, controle, assim como, outras finalidades.
No modelo de função de transferência é assumido que at são ruı́do branco e independente
da serie de entrada Xt e, portanto, também independente da série de entrada pré-ajustada
αt . Deste modo, a checagem do diagnóstico de um modelo de função de transferência devese examinar os resı́duos ât do modelo de ruı́do assim como os resı́duos αt do modelo de
entrada pré-ajustado para se ver melhor se as considerações se mantêm.
No modelo de função de transferência, supõe-se que são ruı́dos brancos independentes
da série de entrada , assim como, os pesos αt . Assim, quando se realiza diagnóstico de um
modelo de função de tranferência, tem-se antes que examinar os resı́duos ât do modelo
realizado dos resı́duos αt .
Para verificar se as suposições são satisfeitas deve-se:
1. Checagem da Correlação Cruzada: Deve-se verificar se os resı́duos at de uma
série de entrada são independentes. Para que o modelo seja adequado, a função
de autocorrelação amostral ρα̂â (k), entre ât e αt do modelo de entrada não deve
1
apresentar nenhuma correlação fora do limite de 2(n − k)− 2 . Usa-se o seguinte teste
de probabilidade.
k
X
Q0 = m(m + 2)
(m − j)−1 ρ̂αâ (j),
(3.60)
j=0
SILVA, F.L.
PPGME/UFPA
3.11 Construção do Modelo de Função de Transferência
37
Com uma distribuição aproximada χ2 com (K+1 )-m graus de liberdade, onde m =
(n − t0 + 1), que é o número de resı́duos ât calculados e m é o número de parâmetros
estimados da função de transferência v(B) =
ω(B)
.
δ(B)
2. Checagem da Auto-correlação: Para verificar se o modelo dos resı́duos encontrase adequado basta analisar a FAC e a FACP de ât , caso o modelo seja adequado, a
FAC e a FACP da amostra de ât não deve mostrar nenhum padrão.
k
X
Q1 = m(m + 2)
(m − j)−1 ρ̂â (j).
(3.61)
j=1
Q1 é uma estatı́stica aproximada baseada na distribuição χ2 com (k-p-q) graus de
liberdade. Isto dependerá do número de observações utilizadas para a construção do
modelo de resı́duos.
Caso o modelo seja inadequado, deve-se levantar duas hipóteses:
• A função de transferência v (B) é incorreta, neste caso, de qualquer maneira se o
modelo proposto para o ruı́do é adequado, tem-se ραa (k) 6= 0 e ρa (k) 6= 0 para
algum k. Para se observar isto, basta supor que o modelo correto é:
Yt = v(B)Xt + ψ(B)at ,
(3.62)
Se o termo da função de tranferência v (B) for escolhido de forma incorreta, então
seremos conduzido a um erro do termo bt .
Yt = v0 (B)Xi + ψ0 (B)at
(3.63)
bt = ψ0−1 (B)[v(B) − v0 (B)]Xt + ψ0−1 (B)ψ(B)at
(3.64)
Então,
Assim, bt será não somente uma função de correlação cruzada de Xt com αt , mas
ambas serão autocorrelacionadas. Isto é verdade, mesmo quando ψ0 (B) = ψ(B),
isto é, quando o modelo do ruı́do está correto. Então, a solução é primeiramente
reidentificar a função de tranferência v (B) para só assim, modificar o modelo de
ruı́do.
SILVA, F.L.
PPGME/UFPA
3.12 Validação de Modelos de Função de Transferência
38
• A função de transferência está correta, e apenas o modelo do ruı́do é inadequado.
Neste caso, ραa (k) = 0 para algum k. O teste padrão para ρ̂â (k) = 0 pode ser usado
para modificar o modelo de ruı́do [θ(B)/φ(B)]at .
Em resumo, para que um modelo de função de transferência seja adequado ambos
ρ̂a â(k) = 0 e ρ̂â (k) = 0 devem ser estatisticamente não significantes e não mostrar nenhum
padrão, uma vez que o modelo de ruı́do seria contaminado por uma função de transferencia
incorreta, na checagem do diagnóstico de modelos de função de transferência. É prudente
realizar primeiro o cheque da correlação cruzada. Em essência, é similar a um modelo de
análise de variância com um termo de interação onde o teste de um efeito de interação
deveria ser realizado antes do teste dos efeitos principais.
3.11.6 Estimação do Modelo de Função de Transferência
Para a estimação dos modelos de função de transferência, pode-se utilizar as seguintes
expressões:
(1 − B)Yt =
1
w0
(1 − B)Xt +
at
(1 − δ1 B)
(1 − φ1 B)
(3.65)
3.12 Validação de Modelos de Função de Transferência
Os modelos de função de Tranferência são apropriados para melhorar as previsões da
série de saı́da yt utilizando sua história passada, associada à série de entrada xt . Isto é
válido se a série de entrada for o indicador principal.
3.12.1 Erro Quadrático Médio de Séries de Entrada e Saı́da Estacionárias
Dadas duas séries Xt e Yt estacionárias e relacionadas no seguinte modelo de função
de transferência.
Yt =
θ(B)
ω(B) b
B Xt +
at ,
δ(B)
φ(B)
(3.66)
e
φx (B)Xt = θx (B)αt ,
(3.67)
onde,ω(B), δ(B), θ(B), φ(B), φx (B) e θx (B) são polinômios de B de ordem finita;
as raizes de ω(B) = 0, δ(B) = 0, θ(B) = 0, φ(B) = 0, φx (B) = 0 e θx (B) = 0 estão
SILVA, F.L.
PPGME/UFPA
3.12 Validação de Modelos de Função de Transferência
39
fora do cı́rculo unitário. E at e αt são resı́duos independentes com média zero e variância
σa2 e σα2 , respectivamente.
u(B) =
ω(B)B b θx (B)
= u0 + u1 + u2 B 2 + ...,
θ(B)φx (B)
(3.68)
θ(B)
= 1 + ψ1 B + ψ2 B 2
φ(B)
(3.69)
e
ψ(B) =
A qual pode ser escrita, ainda da seguinte forma:
yt = u(B)αt + ψ(B)at
yt =
∞
X
uj αt−j +
∞
X
j=0
ψat−j
(3.70)
j=o
P
P∞
onde, ψ0 = 1. Assim, Yt+1 = ∞
j=0 uj · αt+l−j +
j=0 ψj · at+l−j . Deixando, Ŷt (l) =
P∞ ∗
P∞ ∗
j=0 ul+j · αt−j +
j=0 ψl+j · at−j , realizar previsões um passo a frente de Yt+l . Então o
erro de previsão torna-se:
Yt+l − Ŷt (l) =
−
∞
X
[u∗l+j
Pl−1
j=0
− ul+j ] · αt−j
[uj · αt+l−j + ψt+l−j ]
∞
X
∗
−
(ψl+j
− ψl+j ) · at−j ,
j=0
(3.71)
j=0
O erro quadrático médio EQM das previsões E[Yt+l Ŷt (l)]2 é dado por:
l−1
∞
∞
X
X
X
2 2
2 2
2
∗
2
∗
E[Yt+l − Ŷt (l)] =
(σα uj + σa ψj ) +
σα (ul+j − ul+j ) +
σa2 (ψl+j
− ψl+j )2 (3.72)
2
j=0
j=0
j=0
∗
Observa-se que este erro é minimizado quando, u∗l+j = ul+j e ψl+j
= ψl+j . Ou seja, o
erro quadrático médio de previsão mı́nimo entre Ŷt eYt+l no tempo t é dado pela esperança
condicional de Yt+l no tempo t. Isto deve-se pelo fato, que E[Yt+l − Ŷt (l)] = 0, e a variância
de previsão ser dada por:
V(l) = E[Yt+l − Ŷt (l)]2 = σα2
l−1
X
j=0
SILVA, F.L.
u2j + σa2
l−1
X
ψj2 .
(3.73)
j=0
PPGME/UFPA
3.12 Validação de Modelos de Função de Transferência
40
3.12.2 Resumo
Com o objetivo de se identificar o modelo e as componentes pertencentes da função de
tranferência, é necessário a utilização das Funções de Auto-Correlações Cruzadas FCC,
as quais proporcionam a identificação de existência de lags negativos.
Para modelagem e previsão válidas a partir de modelos de funções de tranferência,
é importante observar que nenhum lag negativo deve ter spikes significativos. Caso isto
aconteça, então ocorre um chamado modelo com feedback. Neste caso, modelos do tipo Autorregressivo Vetorial (VAR) são mais adequados. Em seguida, deve-se checar os seguintes
itens:
• A quantidade de defasagens no modelo
• Se há spike no lag zero o modelo então não apresenta defasagem;
• O modelo terá um perı́odo de defasagens n se não há spikes no gráfico de correlação
cruzada no lag 0;
• Depois do perı́odo de defasagem deve haver um spike no gráfico de correlação cruzada
• O número de spikes depois do primeiro spike corresponde ao número de parâmetros
do numerador na função de transferência do modelo
• Se não existem spikes depois do primeiro spike, então o processo é provavelmente
ruı́do branco;
• Seguindo os spikes, o gráfico de correlação cruzada pode ter um dos seguintes padrões:
1. Ele pode decair exponencialmente, o que indica a necessidade de um parâmetro
no denominador na função de transferência do modelo;
2. Decair exponencialmente com padrão senoidal, que indica a necessidade de dois
ou mais parâmetros no denominador na função de transferência do modelo;
3. Cair imediatamente para zero, que indica que não é necessário nenhum parâmetro
no denominador no modelo.
SILVA, F.L.
PPGME/UFPA
Capı́tulo 4
Sistemas de Implementações Inteligentes Redes Neurais
4.1 Introdução
As Redes Neurais Artificiais estão embasadas diretamente nos estudos realizados sobre
a estrutura fisiológica do cérebro humano para tentar comportar-se como um programa
de forma inteligente no processamento de informações. Alguns estudos realizados consideram que a riqueza computacional do cérebro humano está associada ao grande número
de neurônios, interconectados por uma rede complexa de sinapses. Estima-se que a quantidade de neurônios existentes no cérebro humano esteja na casa dos bilhões. Contudo,
a velocidade de processamento destes componentes é relativamente baixa, quando comparada aos computadores tradicionais. Esta deficiência na velocidade de processamento
dos neurônios é superada pela imensa quantidade de neurônios existentes operando de
forma paralela (PORTUGAL e FERNANDES, 1995).
Estudos demonstram que nem sempre quando se trabalha com alguma ferramenta ou
técnica da Inteligência Artificial - IA de forma individualizada, obtém-se os resultados desejados. Muitos pesquisadores recentemente vêem utilizando as mais variadas estratégias
e técnicas referentes à Inteligência Computacional para implementação de modelos
mais eficazes, ou seja, modelos que apresentem melhores ajustes às variáveis em questão
e assim, representem de forma mais adequada a ocorrência do fenômeno estudado. Esta
implementação conjugada de diferentes técnicas são de grandes importância, principalmente quando se trata de funções complexas, pois tendem a proporcionar ao pesquisador
melhores resultados em comparação com aqueles obtidos quando aplicado metodologias
de forma individualizadas.
4.2 Redes Neurais Artificiais - RNA´s
42
Atualmente busca-se implementações utilizando mais de uma técnica do grupo da
I.A para a melhoria de resultados, como por exemplo, a utilização de forma conjugada
de Redes Neurais e Algorı́tmos Genéticos na busca da otimização de um mesmo
problema, assim como o uso de Redes Neurais e Lógica Fuzzy para ajustar modelos
mais robustos. Essas conjugações são conhecidas como Soluções Hı́bridas.
Muitas são as técnicas empregadas como estratégias para formulação de implementações;
as mais utilizadas são:
• Redes Neurais
• Lógica Fuzzy
• Computação Evolutiva
• Metodologias Estatı́sticas em Geral, etc....
4.2 Redes Neurais Artificiais - RNA´s
As pesquisas sobre redes neurais iniciaram em 1943, quando Warrem McCulloch e
Walter Pitts estabeleceram as bases da neurocomputação, concebendo procedimentos
matemáticos análogos ao funcionamento do cerebro biológico. Porém estes procedimentos
jamais foram testados pelos seus criadores em situações práticas. No entanto, o passo mais
importante quando se trata de estudar redes neurais, foi dado por Donald Hebb em 1949,
quando ele propôs um modo de condicionar as redes neurais à capacidade de aprendizado.
A partir de então, cada vez mais a comunidade cientı́fica vem implementando estruturas
de RNA´s mais eficazes. Este fato, se deve à evolução da tecnologia computacional que
contribuiu com computadores cada vez mais modernos e velozes em processamento.
Segundo Dahmer(1998), quando se trata das RNA´s, inúmeras caracterı́sticas podem
ser citadas sobre sua utilização no meio cientifico:
• Controle altamente paralelo e distribuido;
• Capacidade de aprendizagem através da observação de um conjunto de exemplos,
sendo estes com ou sem informação de resposta desejadas a cada estı́mulo;
SILVA, F.L.
PPGME/UFPA
4.2 Redes Neurais Artificiais - RNA´s
43
• Robustez, isto é, uma queda de desempenho gradual no eventual funcionamento
irregular ou até inutilização de parte da rede;
• Manuntenção do desempenho na presença de ruı́do e capacidade de lidar com dados
incompletos.
Segundo Hernandez(2005), as Redes Neurais ou Redes de Neurônios Artificiais são sistemas de computação adaptativos inspirados nas caracterı́sticas de processamento de informação encontradas nos neurônios biológicos e nas caracterı́sticas de suas interconexões,
(Fig. 4.1).
Figura 4.1 Estrutura de Neurônio Biológico
O neurônio biológico pode ser visto como o dispositivo computacional elementar do
sistema nervoso, composto de muitas entradas e uma saı́da. As entradas são formadas
através das conexões sinápticas que conectam os dentritos aos axônios de outras células
nervosas. Os sinais que chegam por estes axônios são pulsos elétricos conhecidos como impulsos nervosos ou potenciais de ação e, constituem a informação que o neurônio processa
para produzir como saı́da um impulso nervoso no seu axônio (Kovacs, 1996).
Estes sistemas, podem ser vistos como sistemas massivamente paralelos que podem
ser implementados tanto em Hardware quanto em Software, sendo que os elementos de
processamento individualmente têm capacidade relativamente limitados. Tais elementos
de processamento básicos são os chamados neurônios artificiais, (Fig. 4.2).
SILVA, F.L.
PPGME/UFPA
4.2 Redes Neurais Artificiais - RNA´s
44
Figura 4.2 Neurônios Artificial apresentado por McCulloch
As redes neurais apresentam estratégias na pretensão de igualar ou até mesmo superar alguns aspectos da inteligência humana. Baseia-se no entendimento das estruturas
de armazenamento e de processamento de informações realizados pelo sistema nervoso. A
forma especı́fica na qual a atividade neural é representada no modelo contextualizado de
forma matemática pode assumir diversas simplificações. Todo este processo dependerá do
grau de refinamento na representação de fenômeno biológico que se tem em mente, e varia
conforme a ênfase do trabalho a ser realizado.
4.2.1 Funções de ativação
As funções de transferência (ou de ativação), f, utilizadas na construção de redes neurais
artificiais têm sido, entre outras: funções degrau e funções lineares do tipo (Fig. 4.3 e 4.4):
• Função de ativação linear
f (x) = a.x
(4.1)
g(v)
gmax
gmax
gmim
vmax
v
Figura 4.3 Função de ativação linear
SILVA, F.L.
PPGME/UFPA
4.2 Redes Neurais Artificiais - RNA´s
45
• Função de ativação degrau
g(v)
gmáx
v
Figura 4.4 Função de ativação degrau
½
g(v) =
a,
v≥θ
−a, v < θ
(4.2)
• Função de ativação rampa
São funções do tipo anterior mas com um contradomı́nio igual a um intervalo fechado
(Fig. 4.5)
g(v)
gmáx
β
α
vmín
vmáx
Figura 4.5 Função de ativação rampa

v>θ
 a,
a,
v≥θ
g(v) =
 −a, v < θ
(4.3)
Também são muito utilizadas as funções crescentes de classe C∞ cujo contradomı́nio
se encontra contido num certo intervalo aberto e limitado, essas funções de tranferência
quando crescente e cujo contradomı́nio se encontra no intervalo [0, 1] ou [-1, -1] e tais que
os limites são da forma:
SILVA, F.L.
PPGME/UFPA
4.2 Redes Neurais Artificiais - RNA´s
46
limx−→+∞ = f (x) = 1
(4.4)
limx−→−∞ = f (x) = 0
(4.5)
limx−→−∞ = f (x) = −1
(4.6)
são conhecidas como funções sigmodais, dessa classe, as mais utilizadas são as funções
tangente hiperbólica e as funções de Fermi caracterizada por:
F ermi −→ f (x) =
1
1 + e−x
(4.7)
Dentre os vários modelos de redes neurais artificiais que serão apresentados, cumpre
definir a função de ativação do neurônio, g(v) que, tem sido aproximada por meio de
inúmeras funções monotônicas que procuram preservar essas caracterı́stica mediante a
constância de propósitos. A partir daı́ procede-se das seguintes formulações matemáticas:
• Função 1: Integração espaço temporal das atividades de entrada de uma árvore
dentrital.
Z X
fT = g[ ·
αi (t)xi (t)dt]
T
(4.8)
i
em que os αi (t) representam os ganhos sinápticos, e os xi (t) as entradas dos neurônios.
Por outro lado, a função g(v) possui as conexões sinápticas excitatória e inibitória.
• Função 2: Modelo matemático do perceptron de Seebert.
g(v) =
vk
vk + α
(4.9)
A aproximação de Seebert permite, ajustar o ganho médio nessa faixa em que
apareceu o parâmetro K . Normalmente, as funções de ativação mais utilizados são
a sigmóide e a tangente hiperbólica, abaixo representados com as suas respectivas
derivadas.
SILVA, F.L.
PPGME/UFPA
4.2 Redes Neurais Artificiais - RNA´s
47
• Função 3: Função matemática sigmóide utilizada em redes neurais, Fig (4.6).
g(v) = [1 + exp(−2β) ]−1 = g(v) =
1
1 + e(av)
(4.10)
g(v)
g
g
v
Figura 4.6 Função de ativação sigmóide -(logsig)
• Função 4: Função Tangente hiperbólica utilizada em redes neurais, Fig. (4.7).
g(v)
+1
vmín -1
vmáx
Figura 4.7 Função de ativação tangente hiperbólica -(tansig)
g(v) = tanh(βv)
(4.11)
• Função 5: Exemplo de utilização de derivadas nas equações de redes neurais.
d
= ((1 + exp(−2βv))−1
dv
d
= 2β(1 − g(v)) · g(v)
dv
SILVA, F.L.
(4.12)
(4.13)
PPGME/UFPA
4.3 Algumas Teorias Referentes a Algoritmos de Redes Neurais
48
• Função 6: A derivada da função 5 em relação a v fornece,
d
= (tanh(βv)) = β(1 − g(v))2
dv
(4.14)
A partir dessas equações pode-se implementar alguns importantes algoritmos ligados às
redes neurais. Estes algoritmos estão abaixo relacionados:
1. Algoritmo Booleano de Warrem McCulloch e Pitts
2. Algoritmo de Hebb
3. Algoritmo de Widrow Stanford
4. Algoritmo de Multicamadas de Rammelhart, Hinton e Willians
4.3 Algumas Teorias Referentes a Algoritmos de Redes Neurais
4.3.1 Modelos de Redes Neurais de Warrem McCulloch e Pitts
Uma das grandes contribuições referentes ao estudo de redes neurais, deu-se com estudos realizados por Warrem McCulloch. Nesses estudos procurou-se implementar algumas funções do tipo Booleanas.
Segundo (McCulloch e Pitts) em publicação de seu primeiro artigo referente a
redes neurais, ”a inteligência é equivalente a cálculo proporcional, que por sua vez pode
ser implementado por funções boolenas. Por outro lado, o sistema nervoso é composto
de rede de neurônios que, com as devidas simplificações, apresentam a capacidade básica
de implementar essas funções”. Esses autores foram os primeiros a proporem um modelo
computacional para o neurônio biológico, o qual abriu caminho para a definição correta
da inteligência artificial e a modulação de redes neurais, abrangendo o conceito de taxa
de aprendizado, de retenção e de treinamento, (Haikin, 2001).
A partir de uma minimização dos erros e de uma maximização das taxas de retenção
através de modelos de redes neurais, talvez se chegue a uma das possı́veis soluções para o
treinamento e desenvolvimento integrado, de forma a fornecer uma melhor visão sistêmica
que venha lançar as bases do futuro conhecimento e toda uma cadeia integrada de suprimentos.
SILVA, F.L.
PPGME/UFPA
4.3 Algumas Teorias Referentes a Algoritmos de Redes Neurais
49
A taxa de aprendizado reflete a taxa com que os ganhos se alteram em conseqüência
dos erros. Trata-se de uma regra local que visa a atualização dos parâmetros do sistema,
ou seja, este algoritmo nos mostra a taxa de retenção dos conhecimentos e minimização
dos erros, com uma conseqüente maximização dos resultados obtidos.
4.3.2 Neurônios de Remmelhart, Hilton e Williams - RHW
O algoritmo de retropropagação para redes de neurônios de múltiplas camadas conhecido por Remmelhart, Hilton e Williams (1986), Figura (4.8), permitiu superar
uma das grandes limitações fundamentais para o treinamento em redes complexas, usando
funções de ativação sempre lineares, consistindo num diagrama de blocos e neurônios conhecidos como RHW , composto basicamente de um Adaline de Windrow , seguido de
uma função de ativação g(v), (HAIKIN, 2001).
X1
N1
b1
= amostras (x, f(x)) + ruído
Y1
N2
X2
b1
N3
X3
Y2
b1
Figura 4.8 Rede com neurônio ( RHW)
Figura 4.9 Erro de aproximação do ( RHW)
Este neurônio gera uma função saı́da que depende de uma série de entradas convergentes no ponto conhecido como mı́nimo de erro, a fim de que se obtenha os resultados
esperados. Consequentemente, a ocorrência será a minimização das distâncias entre o
previsto e o real da função de treinamento, ver Figura (4.9).
SILVA, F.L.
PPGME/UFPA
4.3 Algumas Teorias Referentes a Algoritmos de Redes Neurais
50
4.3.3 Modelos de Saı́da Binária - Binário
Esta classe de modelos, também conhecida como Adaline assume que modelos neurais
com saı́da binária são suficientemente poderosos para representar uma classe bastante ampla de problemas computacionais, devido ser incorporada ao modelo neural uma função
que permitirá a viabilização das funcionalidades não linear. Esta função é comumente
conhecida como função de transferência. Estes modelos apresentam uma grande vantagem em relação aos demais, pois apresentam uma simplicidade estrutural e com isso
permitem a formalização matemática em um grau não possı́vel para os modelos mais
complexos, (Haikin, 2001).
A forma mais simples desta função de transferência f pode adotar valores (binários)
discretos. Esta adoção permite que o modelo apresente saı́da binária, permitindo assim,
a representação funcional de caracteristica lógica realizadas pelos neurônios biológicos.
X0
Função de Soma
W0
W1
Entradas
ƒ
X1
Saída
W2
X2
Função de transferência ƒ
Pesos
Figura 4.10 Neorônio artificial do tipo ( Adaline)
Todos os tipos de redes neurais apresentam basicamente a mesma unidade de processamento, caracterizando-se desta forma como um neurônio artificial e simulando, deste
modo, um neurônio biológico com uma estrutura com varias entradas, que correspondem
às conexões sinápticas com outras unidades similares a ele próprio, e uma saı́da cujo valor
é influenciado diretamentre pela soma ponderada de todas as saı́das dos demais neurônios
a ele conectado. No cálculo de integração dos estı́mulos das várias entradas, a ponderação
é dada por pesos que cada conexão possui e sua saı́da corresponde a soma, como:
n
X
X
= w1 x1 + w2 x2 + ... + wn xn + b =
wi xi + b
(4.15)
i=1
quando;
SILVA, F.L.
PPGME/UFPA
4.3 Algumas Teorias Referentes a Algoritmos de Redes Neurais
f −→ função de ativação, ou seja, pode ser uma sigmoidal g(v) =
51
1
.
1+e(av)
xi −→ estimulo proveniente do neurônio vizinho i .
wi −→ constantes de ponderação das conexões sinápticas que intermediam a interação
entre neurônios vizinhos.
P
−→ estı́mulo global com as devidas ponderações relativas, recebido pelos neurônios
P P
de todos os seus vizinhos −→
=
xi wi + b
e −→ sinal erro da rede, utilizado para computar os valores dos erros das camadas
anteriores e nas correções dos pesos −→ e = dj − Oj , ou seja, valor desejado menos o valor
observado.
4.3.4 RNA´s com Multicamadas de Neurônios
Através da Figura 4.11, fica evidente que a estrutura de formação dos neurônios em
redes com multicamadas é muito mais complexa, em sua essência do que os sistemas de
produção industrial. Entretanto é possı́vel estabelecer entre eles uma analogia e aplicá-la a
esse ramo do conhecimento. O que se pretende é apresentar, de forma objetiva as principais
definições pertinentes no ramo do conhecimento cognominado (teoria das redes neurais)
bem como algumas propriedades consideradas essenciais para a boa compreensão dos
fatos pertinentes ao aprendizado humano a aos modelos de pré-treinamento, treinamento,
pós-treinamento, pré-desenvolvimento, desenvolvimento e pós-desenvolvimento, os quais
devem ser utilizados com base nesta técnica, a fim de se obter ganhos substanciais de
produtividade e qualidade, (Haikin, 2001).
P1(1)
X1
1
Y11
P3(1)
3
Y21
P5(1)
δ11
P1(2)
δ21
5
P3(2)
δ12
P1(1)
δ22
P4(1)
Y31
δ31
P5(2)
X2
P2(2)
2
Y12
P4(2)
4
Y22
Figura 4.11 Estrutura de uma Rede com Multicamadas ou Redes Neurais Complexas
SILVA, F.L.
PPGME/UFPA
4.3 Algumas Teorias Referentes a Algoritmos de Redes Neurais
52
Este modelo de redes neurais multicamadas pode também ser considerado como
Adaline de Widrow de uma função de ativação do tipo g(v). Sempre que se
trabalha com este tipo de algoritmo deve-se escolher um conjunto de parâmetros iniciais
e uma taxa de aprendizado, estabelecendo assim um critério de parada que representa o
número máximo de interações, (Haikin, 2001).
4.3.5 Propagação do erro
Depois de apresentado o padrão de entrada para a rede, a resposta de uma unidade é
propagada como entrada para as unidades na camada seguinte (ocultas), até a camada
de saı́da, onde é obtida a resposta da rede, e onde, o erro é calculado. Como o objetivo
principal é a busca do erro mı́nimo, caso este, não seja o ótimo a rede retropropaga o erro,
e o processo recomeça até que o erro mı́nimo seja obtido Fig.(4.12), (Haikin, 2001).
iw
X1
N1
Resposta da rede
e calculo do erro
lw
b1
N2
Y1
b2
X2
b1
Y2
N3
b2
X3
b1
Figura 4.12 Propagação do erro na rede
Xi −→ variáveis de entrada apresentada a rede;
iw −→ pesos de entrada;
lw −→ pesos de saı́da;
N 0 s neurônios de composição da rede;
B 0 s bias;
Y1 eY2 −→ resposta na saı́da da rede.
SILVA, F.L.
PPGME/UFPA
4.3 Algumas Teorias Referentes a Algoritmos de Redes Neurais
53
4.3.6 Retropropagação do erro
O ”Backpropagation”é um algoritmo criado com a finalidade de obter treinamento de
redes Multi-Camadas, e é comumente o mais utilizado no meio acadêmico. Este algoritmo
baseia-se no Aprendizado Supervisionado por Correção de Erros gerados pela saı́da da
rede, ou seja, este algoritmo calcula os erros locais, para cada unidade, desde a camada
de saı́da até a de entrada. Também referenciado de Computação para Trás ou (Retropropagação) Fig (4.13):
Ajuste dos pesos a partir da
saída até a camada de entrada
iw
X1
N1
lw
b1
N2
Y1
b2
X2
b1
Y2
N3
b2
X3
b1
Figura 4.13 Retropropagação do erro na rede
δj (n) = ej (n)Oj (n)(1 − Oj (n)) −→ erro local para a unidade da camada de saı́da.
P
δj (n) = Oj (n)(1 − Oj (n)) δk wjk −→ erro local para as unidades das demais camadas.
Oj (1 − Oj ) −→ função de ativação diferenciada em função do argumento -(valor de
ativação).
δk −→ é o erro das unidades da camada anterior conectadas a unidade j.
Wjk −→ são os pesos das conecções com a camada anterior.
4.3.7 Processo de Aprendizado por Correção de Erros
O Processo de Aprendizado por Correção de Erros é inteiramente baseado no processo
de aprendizado por supervisão (Aprendizado Supervisionado). Para que determinada
Rede Neural Artificial possa fornecer resultados convenientes, é necessário que passe por
SILVA, F.L.
PPGME/UFPA
4.3 Algumas Teorias Referentes a Algoritmos de Redes Neurais
54
uma fase de treinamento, onde seus pesos são ajustados de forma que ela se adapte aos
diferentes estı́mulos de entrada pois, no decorrer deste processo de treinamento é que
ocorre o seu aprendizado.
e = dj − Oj
(4.16)
O erro de uma Rede Neural pode ser calculado como a diferença entre a saı́da desejada
e a saı́da real gerada pela rede, fornecida em um ensino supervisionado.
Para um estı́mulo k, tem-se:
e - sinal de erro;
dj - saida desejada apresentada durante o treinamento;
Oj - saida real da rede após a apresentação do estı́mulo de entrada.
Durante o aprendizado supervisionado, os erros vão sendo calculados sucessivamente,
até que cheguem a um valor satisfatório, definido a priori. Sendo assim, surge uma curva
de erros, a qual está diretamente relacionada à natureza do modelo de neurônio utilizado.
Se a rede é formada por unidades lineares, como no modelo de McCulloch e Pits, na
superfı́cie de erro será encontrado um único valor mı́nimo. Por outro lado, se a rede é
constituı́da por unidades não-lineares, podem ser encontrados diversos valores mı́nimos
chamados de mı́nimos locais, além do mı́nimo global.
O processo de Aprendizado por Correção de Erros utiliza algoritmos para caminhar
sobre a curva de erros, com o intuito de alcançar o menor valor de erro possı́vel, o
mı́nimo global, ver Figura 4.14. Muitas vezes, o algoritmo não alcança este mı́nimo global,
atingindo o que chamamos de mı́nimo local. Caso este erro alcançado seja desfavorável, é
necessário recomeçar processo de aprendizado, (Haikin, 2001).
Figura 4.14 Superfı́cie de erro com mı́nimos locais e o mı́nimo global
SILVA, F.L.
PPGME/UFPA
4.3 Algumas Teorias Referentes a Algoritmos de Redes Neurais
55
Para a correção do erro, os pesos da rede devem ser ajustados, de forma a aproximar a
saı́da real à desejada. Tal ajuste dependerá do próprio erro calculado; do valor do estı́mulo
de entrada que é ”transmitido”pelo peso a ser ajustado; e também da taxa de aprendizado,
a qual relaciona-se à cautela com que a curva de erros é percorrida. Para um dado estı́mulo
k, no passo de treinamento n:
4Wij = ηek (n)xj (n)
(4.17)
∆w(n) - valor de ajuste a ser acrescido ao peso wij ;
η - taxa de aprendizado;
e(n) - valor do erro;
xj (n) - valor do estı́mulo.
O valor atualizado do peso será dado pela expressão:
W (n + 1) = W (n) + 4Wkj (n)
(4.18)
Portanto, podemos utilizar a Regra Delta para corrigir os valores dos pesos, minimizando
a função de erro ε, também conhecida como ”função de custo”:
1
ε(n) = e2 (n)
2
(4.19)
Onde:
e(n) - erro da rede no passo n do treinamento;
ε(n) - valor da função de custo no passo n do treinamento.
4.3.8 Redes Neurais: Pontos Fortes e Limitações
Conforme Simões e Shaw(1999), as redes neurais oferecem caracteristicas inteligentes
muito interessantes, tais como: aprendizagem, adaptação, tolerância à falhas e generalização. Assim, o ponto forte de aplicação de redes neurais está no reconhecimento de padrões,
reconhecimento de caracteres e formas, estimação de funções não lineares, previsões financeiras, e controle de processsos. O controle de processos também pode ser considerado uma
tarefa de reconhecimento de padrões quando a rede neural puder reconstruir modelos de
SILVA, F.L.
PPGME/UFPA
4.4 A Estatı́stica do Processo de Aprendizagem
56
conjuntos de dados. Na ausência de modelos matemáticos de processos, as redes neurais
podem utilizar um histórico de dados para se construir modelos preditivos. Depois de
treinada, a rede neural pode se tornar um equipamento eletrônico equivalente, ou seja,
um modelo que pode então predizer as reações do processo às novas condições. Entretanto
as redes neurais têm certas limitações que devem ser consideradas:
• Não é possı́vel traçar a maneira pela qual uma rede neural chegou à uma determinada
solução.
• É impossı́vel se interpretar as causas de um comportamento particular, uma vez que
não se pode olhar para o sentido dos pesos e conexões de uma rede neural; além de
ser impossı́vel alterar manualmente a estrutura de uma rede neural para se obter o
resultado desejado.
• A maioria dos métodos de treinamento não são completamente compreendidos, pois
alem de depender de um enfoque de tentativa de erro, há poucas regras de projeto
a serem seguidas. Por exemplo, a definição do número de neurônios, ou o estabelecimento de uma determinada faixa de convergência depende de experimentação com
os dados.
• O tempo de treinamento não é previsı́vel, podendo em alguns casos ser muito longo.
• O tempo de execução depende do número de conexões, sendo aproximadamente
proporcional ao quadrado do número de neurônios utilizados, onde a introdução de
alguns nós a mais na rede pode aumentar consideravelmente o tempo de execução.
4.4 A Estatı́stica do Processo de Aprendizagem
Nesta seção, retrata-se os aspectos estatı́sticos de aprendizagem. Segundo (Haikin, 2001),
neste processo o interesse não está somente na evolução do vetor de pesos w enquanto a
rede neural passa por um algoritmo de aprendizagem, e sim no desvio entre uma função
alvo f(x) e a função real F(x,w) realizada pela rede neural, sendo que o vetor x representa o sinal de entrada e o desvio é expresso em termos estatı́sticos. Lembre-se, que uma
rede neural é meramente uma forma pela qual um conjunto de medidas que caracterizam determinado fenomêno pode ser explicado, denominado de conhecimento empı́rico e
SILVA, F.L.
PPGME/UFPA
4.4 A Estatı́stica do Processo de Aprendizagem
57
este fenômeno fı́sico ou ambiente de interesse pode ser codificado através de treinamento,
um fenômeno estocástico descrito por um vetor aleatório X formado por um conjunto
de variáveis independentes, e um escalar D na qual caracteriza uma variável dependente,
onde o vetor aleatório X pode apresentar os mais diversos significados fı́sicos particulares,
diferentes entre si.
Nesta situação adota-se que a variável dependente D é do tipo escalar e que foi formulada simplesmente para facilitar a exposição, sem ocasionar perda de generalidade.
Portanto, caso se adote um vetor aleatório constituido de N realizações, uma amostra de
treinamento pode ser representada da seguinte forma:
τ = (xi .di )N
i=1
(4.20)
onde;
(xi )N
i=1 representação do vetor aletório X com N realizações;
(di )N
i=1 conjunto correspondente de realizações do escalar aleatório D.
Observe que normalmente não se conhece a relação funcional exata entre X e D, por este
fato normalmente, é utilizado o seguinte modelo estatı́stico proposto por (White, 1989);
D = f (X) + ²
(4.21)
com;
f (.) é uma função determinı́stica do seu argumento vetorial;
² é um erro de expectativa aleatório que representa a nossa falta de conhecimento sobre
a dependência de D e X .
O modelo estatı́stico descrito por White representado na função (4.21) é denominado
como um modelo regressivo com o erro ² caracterizado como variavel aleatória com média
zero e probabilidade de ocorrência positiva, cuja representação é mostrada na Fig. 4.15.
x
F(⋅ )
d
ε
Figura 4.15 Modelo Matemático Regressivo
SILVA, F.L.
PPGME/UFPA
4.4 A Estatı́stica do Processo de Aprendizagem
58
4.4.1 O Erro de Expectativa (²)
O valor médio do erro de expectativa (²), dada qualquer realização x, é zero, isto é,
E = [²/x] = 0
(4.22)
onde E é o operador estatı́stico do valor esperado (esperança matemática). Deste modo,
podemos afirmar que a função de regressão f (X) é a média condicional da saı́da do modelo
D, dado que a entrada X=x, que segue diretamente da equação (4.21), considerando a
esperança E na equação (4.22) assim;
f (x) = E[D|x]
(4.23)
É muito importante observar que o erro de expectativa (²) não é correlacionado com a
função de regressão f (X), isto é;
E[²f (X)] = 0
(4.24)
O modelo regressivo da Fig. 4.15 é uma descrição ”matemática”de um ambiente estocástico. O seu propósito é utilizar o vetor X para explicar ou prever a variável dependente D. A Figura (4.16) é o modelo ”fisico”correspondente do ambiente.
x
F(⋅,w)
y -
+
d
e
Figura 4.16 Modelo Fı́sico de Rede Neural
O propósito deste segundo modelo é baseado em uma rede neural, e tem por caracterı́stica codificar o conhecimento empı́rico, representado pela amostra de treinamento =
em um conjunto correspondente de vetores de pesos sinápticos, w, como mostrado por:
τ → w
SILVA, F.L.
(4.25)
PPGME/UFPA
4.4 A Estatı́stica do Processo de Aprendizagem
59
Na verdade, a rede neural fornece uma ”aproximação”para o modelo regressivo da
(Fig. 4.16). Suponha que a resposta real da rede neural, produzida em resposta ao vetor
de entrada x, seja representada pela variável aleatória do tipo;
Y = F (X, w)
(4.26)
onde, F(.,w) é a função de entrada-saı́da realizada pela rede neural =. Observa-se
que préviamente conhecidos os dados de treinamento o vetor de peso w é obtido pela
minimização da função de custo dado por;
N
1X
ξ(w) =
(di − F (xi , w))2
2 i=1
(4.27)
onde 1/2 é um fator de consistência;
ξ(w) é a diferença quadrática entre a resposta desejada d e a resposta real y da rede
neural, calculada como a média sobre todo o conjunto de dados de treinamento =. Observe
que caso adote-se um operador média E= tomado sobre todo o conjunto de treinamento
= é representado por x e d, onde os pares formados (x,d ) caracterizam uma amostra
de treinamento de =. Por outro lado, o operador estatı́stico do valor esperado E atua
sobre todo o algoritmo de variáveis aleatórias X e D, incluindo desta forma = como um
subconjunto.
Considerando-se a transformação descrita pela Eq. (4.27), podemos usar alternativamente F(x, w) e F(x,=)e assim rescrever:
1
ξ(w) = E= [(d − F (x, =))2 ]
2
(4.28)
Adicionando e subtraindo f x) ao argumento (d - F(x,=) e então utilizando a Eq. (4.28),
podemos escrever;
d − F (x, =) = (d − f (x)) + (f (x) − F (x, =)) = ² + (f (x) − F (x, =))
(4.29)
Observe que esta expressão pode ser reescrita quando substituida na Eq. (4.28) e então
expandindo os termos, pode- se reformular a função de custo ξ(w)na forma equivalente;
ξ(w) =
SILVA, F.L.
1
1
E= [²2 ] +
E= [f (x) − F (x, =)2 ] + E= [²(f (x) − F (x, =))]
2
2
(4.30)
PPGME/UFPA
4.4 A Estatı́stica do Processo de Aprendizagem
60
Observe, entretanto, que o último termo do valor esperado no lado direito da Eq. (4.30)
é zero por duas razões:
• O erro de expectativa é não-correlacionado com a função de regressão f (x) devido
à Eq.(4.40), interpretada em termos do operador E= .
• O erro de expectativa ² é relativo ao modelo de regressão da Fig.(4.19), enquanto que
a função aproximativa F(x, w) é relativa ao modelo de rede neural da Fig. (4.20).
Conseqüentemente, a Eq. (4.49) se reduz a:
ξ(w) =
1
1
E= [²2 ] +
E= [f (x) − F (x, =)2 ]
2
2
(4.31)
O primeiro termo no lado direito da Eq. (4.31) é a variância do erro de expectativa (do
modelo regressivo) ², calculado sobre o conjunto de treinamento =. Este termo representa
o erro intrı́nseco,porque ele é independente do vetor de pesos w. Ele pode ser ignorado,
na medida em que seja considerada a minimização da função de custo ξ(w) em relação a
w. Assim, o valor particular do vetor de pesos w* que minimiza a função de custo ξ(w)
também irá minimizar a média de ”ensemble”da distância quadrática entre a função de
regressão f x) e a função aproximativa F(x, w). Em outras palavras, a medida natural
da eficiência de F(x, w) em prever a resposta desejada d é definida por:
Lmed = (f (x), F (x, w)) = E= [(f (x) − F (x, =))2 ]
(4.32)
4.4.2 Verificação dos Termos ”Bias”e Variância
Fazendo uso da Eq.(4.32), pode-se redefinar a distância quadrática entre f(x) e F(x,w)
como:
Lmed = (f (x), F (x, w)) = E= [(E[D|X = x] − F (x, =))2 ]
(4.33)
Esta expressão pode também ser vista como o valor médio do erro estimativo entre a
função de regressão f(x)=E[D—X=x] e a função aproximativa F(x,w), calculada sobre toda
a amostra de treinamento =. Observa-se que a média condicional E[D—X=x] apresenta
SILVA, F.L.
PPGME/UFPA
4.4 A Estatı́stica do Processo de Aprendizagem
61
um valor esperado constante em relação a todo o conjunto de dados de treinamento =.
Devido este fator pode-se constatar que:
E[D|X = x] − F (x, =) = (E[D|X = x] − E=[F (x, =)]) + (E= [F (x, =)] − F (x, =))(4.34)
onde simplesmente adicionamos e subtraı́mos a média E= [F (x, =)]. A Equação (4.34)
pode ser reformulada como soma de dois termos:
Lmed = (f (x), F (x, =)) = B 2 (w) + V (w)
(4.35)
onde B(w) e V(w) são, definidos da seguinte forma:
B(w) = E= [F (x, =)] − E[D|X = x]
(4.36)
sendo:
B(w) o termo representativo do ”bias”do valor médio da função aproximativa F (x, =),
medido em relação à função de regressão f(x)=E [D—X=x ]. O fator mais importante
referente a este termo é que o mesmo representa a incapaciadade da rede neural definida
pela função F(x,w) de aproximar com precisão a função de regressão f(x)=E [D—X=x ].
Portanto, pode-se analizar o bias B(w) como um erro aproximativo.
V (w) = E= [(F (x, =) − E= [F (x, =)])2 ]
(4.37)
V(w) é o termo representativo da variância da função aproximativa F(x, w), medida
sobre toda a amostra de treinamento =. Este referido termo representa a não-adequação
da informação contida na amostra de treinamento = acerca da função de regressão f(x).
Pode-se ,portanto, avaliar a variância V(w) como a manifestação de um erro estimativo.
SILVA, F.L.
PPGME/UFPA
4.5 Algoritmo de Levenberg Marquardt - LMA
62
4.5 Algoritmo de Levenberg Marquardt - LMA
Algoritmo Levenberg Marquardt (LM) se basea no método dos minı́mos quadrados para
ajustar funções com comportamento não linear, procurando encontrar o melhor ajustamento para um conjunto de informações na busca de minimizar a soma dos quadrados
das diferenças entre a curva ajustada, tais diferença são caracterizadas de resı́duos. O LM
é uma interpolação entre o Algoritmo de Gauss-Newton (GN) e o método do Gradiente
Descendente, o LM é mais eficiente na maioria dos casos por atingir com maior rapidez
a convergência (objetivo). Para um conjunto de dados cujas as variáveis dependentes e
independentes (xi , yi ), onde o objetivo é otimizar o parâmetro β da função f (x, β), de
forma que seus resı́duos (erros), e(w) sejam mı́nimos.
m
1 X
e(w) = .
[(y − yi )]2
n i=1
(4.38)
E com base em função dos pesos, podemos reescreve-la da seguinte forma:
E(W ) =
m
X
[(f (W T , β)) − yi ],
(4.39)
i=1
e com a utilização da matriz J jacobiana da função f em β, cuja matriz é dada por:
J=
ϑe(w)
,
ϑw
(4.40)
utilizada para se obter a aproximação da matriz H hessiana :
H=
ϑ2 ER (W )
,
ϑ(w)2
(4.41)
Observe que agora para a atualização de uma camada de pesos Wk+1 na rede:
Wk+1 = Wk + δwk ,
(4.42)
δwk = −H −1 .ρ(k)
(4.43)
com:
SILVA, F.L.
PPGME/UFPA
4.5 Algoritmo de Levenberg Marquardt - LMA
63
onde, ρ(k) é definido como:
ρ(k) = 2J T (w).E(w)
(4.44)
E com as respectivas atualizações dos pesos no processo de retropropagação da rede,
tem-se:
Wk+1 = Wk − [J T (w).J(w) + λI]−1 .J T (w).E(w)
(4.45)
sendo J T o jacobiano de ρ(k) , gerada a partir da primeira derivada de ρ(k) , I a matriz
identidade e λ é a constante do método de Levenberg-Marquardt. Ou ainda:
ρ(k) = −[JkT .ρ(Wk ) ].[JkT Jk + λI]−1 ]
SILVA, F.L.
(4.46)
PPGME/UFPA
4.6 Normalização dos Dados de Entrada
64
4.6 Normalização dos Dados de Entrada
Segundo Palit e Popovic (2005), o processo de normalização de dados é um processo
de preparação final dos dados antes que os mesmos sejam apresentados ao processo de
treinamento da rede neural. Ele inclui a normalização dos dados processados e de seus
intervalos naturais, a fim de que, os dados estejam normalizados de forma adequada a
satisfazer as exigências da camada de entrada da rede e são adaptados à não linearidade
dos neurônios, de modo que seus resultados não devam ultrapassar o limite de saturação.
4.6.1 Normalização por Minı́mo e Máximo
A normalização obtida por minı́mo e máximo são de grande utilidade para normalizar
dados de um forma não linear, utilizando a função tangente hiperbólica descrita no espaço
(-1,1) ou no caso da função Tansig descrita no espaço (0,1). Na prática, a normalização
mais simples é dada por:
xni =
xi
(4.47)
xmax
E a normalização linear, se dá da seguinte forma:
xni =
xi − xmin
xmax − xmin
(4.48)
4.6.2 Normalização por Desvio Padrão
Widrow (1962), demostrou que se os padrões de treino apresentarem as caracterı́stica
baseadas em uma distribuição normal padrão, ou seja, apresentarem média zero e variância
unitária x0k ∼ N (0, 1). Portanto, cada entrada xk é transformada em x0k por:
x0k =
xk − x̄
σx
(4.49)
onde x̄ e σ representam respectivamente o valor médio das entradas xk e o desvio
padrão associado ; e k é o ı́ndice de padrão.
SILVA, F.L.
PPGME/UFPA
4.7 Desenvolvimento e Aplicações de Redes Neurais
w1
v1
w1
v2
w2
65
w1
v1 = v2
w2
v1 < v2
w2
Figura 4.17 Efeito da normalização dos dados de entrada
Através da Figura 4.17, nota-se que quando as variáveis são v1 = v2 , existe uma
constância na direção do gradiente, enquanto que, para um comportamento v1 6= v2 ,
esta direção é alterada em cada passo.
Estas normalizações são as mais freqüentemente utilizadas. Além da utilização da normalização linear e logarı́tmica para um melhor dimensionamento dos sinais de entrada
da rede, outros tipos de normalização são utilizadas para moderar possı́veis problemas de
não linearidade durante a fase de treinamento, são elas: transformações logarı́tmicas
utilizadas para comprimir as regiões onde são observadas grandes variações nos valores
observados, e tranformações exponenciais, a qual pode ampliar a escala na região de
pequenos valores observados, etc. No entanto, existe falhas a serem encontradas neste processo, p.e, pode-se na preparação destes dados se ter uma eventual perda de informações
nos novos dados adquiridos.
4.7 Desenvolvimento e Aplicações de Redes Neurais
Para Kovács (1998), quando se utiliza redes neurais no estudo dos mais variados tipos
de problemas, deve-se sempre seguir alguns passos para o desenvolvimento de aplicações
dessas redes.
• Coleta de Dados
• Separação em Conjuntos
• Configuração de Rede
• Treinamento
• Teste
• Integração
SILVA, F.L.
PPGME/UFPA
4.7 Desenvolvimento e Aplicações de Redes Neurais
66
1. Coleta de Dados e Separação em Conjuntos
Esta tarefa requer uma análise cuidadosa sobre o problema em si, para haver uma
minimização de ambiguidades e erros nos dados. Outro fator muitı́ssimo importante
é que os dados coletados devem apresentar de forma bastante significativa e cobrir
amplamente o domı́nio do problema; não devendo cobrir somente as operações normais ou rotineiras, mas também as exceções e as condições nos limites do domı́nio
do problema.
Normalmente, os dados coletados são separados em duas cotegorias : Dados de
Treinamento, que serão utilizados para o treinamento da rede e Dados de Teste,
os quais serão utilizados para verificar a robustez sob a condição real de utilização
da rede. Além do mais, pode-se usar também uma subdivisão do conjunto de treinamento, criando um conjunto de validação. Este, será utilizado para verificar a eficiência
da rede quanto a sua capacidade de generalização durante o treinamento, podendo
ser empregado como critério de parada do treinamento.
Após a ocorrência do treinamento desses conjuntos, eles geralmente são dispostos
em ordem de forma aleatória para prevenção de tendências associadas à ordem de
apresentação dos dados. Em muitas situações pode ser necessário pré-processar estes
dados, através de normalizações, escalonamento e conversões de formato para tornálos mais apropriados à sua utilização na rede.
2. Configuração de Rede
Este passo é caracterizado pela definição da configuração da rede, encontra-se
dividido em três etapas:
• Seleção do paradigma neural apropriado à aplicação
• Determinação da topologia da rede a ser utilizada, assim como, o número de
camadas, o número de unidades em cada camada, etc.
• Determinação de parâmetros do algoritmo de treinamento e funções de ativação.
Esta etapa apresenta um grande impacto na eficácia do sistema resultante. Além
dessas etapas não se deve deixar de resaltar que as definições de configuração
de redes neurais exige muito da capacidade e experiências anteriores dos seus
implementadores.
SILVA, F.L.
PPGME/UFPA
4.7 Desenvolvimento e Aplicações de Redes Neurais
67
3. Treinamento
Após a escolha do algoritmo de treinamento, deve-se ajustar os pesos das conexões.
Observa-se que, nesta etapa é muito importante considerar alguns aspectos tais como:
a inicialização da rede, o modo adotado para o treinamento e o tempo
de treinamento. Esta etapa é considerada uma das mais importantes, pois uma excelente escolha dos valores iniciais dos pesos da rede pode ocasionar uma expressiva
diminuição do tempo de treinamento. Esses pesos iniciais apresentam-se na forma
de uma distribuição uniforme, ou seja, os mesmos tem caracterı́sticas de números
aleatórios uniformemente distribuidos. Quando refere-se ao modo de treinamento
o mais adotado é o modo padrão, pois este apresenta um menor armazenamento
de dados, além de apresentar menos problemas de mı́nimos locais, motivado pela
utilização de processos estocásticos.
O outro método utilizado é o de Batch, que também apresenta uma grande
eficiência das estimativas do vetor gradiente, tornando o treinamento mais estável.
A escolha do modo a ser utilizado dependerá em muito do problema que está se
tratando. O treinamento deve ser interompido sempre que a rede encontrar-se com
uma boa capacidade de generalização e quando a taxa de erro for bastante pequena,
encontrando assim, um ponto ótimo de parada com erro mı́nimo e capacidade de
generalização máxima.
4. Teste ou Validação
Nesta tarefa o pesquisador fará testes para verificação da confiabilidade e adequação da rede aos dados que foram anteriormente utilizados, verificando assim, a
capacidade da rede trabalhar em situações reais do próprio problema que está sendo
verificado. Alguns outros testes podem ser adotados para a verificação da existência
de valores muitos pequenos, visto que, caso estes valores existam, as conexões associadas podem ser consideradas insignificantes e assim ser eliminadas (prunning ), e
por outro lado, caso haja, valores muito grandes que os demais é um indicativo de
que houve um over-traning da rede. No entanto, é importante ressaltar que testes
utilizados em modelos lineares, como por exemplo, em modelos de Box e Jenkins,
onde utiliza-se testes de Ljung-Box-Pierce para validação e escolha do melhor modelo
entre os ajustados, o mesmo não é válido quando se trata de modelos não lineares
(LIMÃO, 1999).
SILVA, F.L.
PPGME/UFPA
4.8 Redes Neurais em Sistemas de Controle
68
5. Integração
Já com a rede treinada e avaliada, pode-se integrá-la em um sistema do ambiente
operacional da aplicação para melhor facilidade de aquisições de dados. Esta integração deve, de preferência, ser aplicada em sistemas que apresentem facilidade de
utilização, não esquecendo de realizar um processo de treinamento dos usuários para
que assim, haja um sucesso imediato do processo.
Uma estrutura significativa de redes neurais apresenta uma enorme capacidade de
adaptação e aprendizagem. Esta capacidade de adaptação e aprendizagem pelo ambiente significa que modelos de redes neurais podem lidar com dados imprecisos e
situações não totalmente definidas, ou seja, caso seja apresentado a determinada
rede entradas que ainda não lhe foram apresentadas, ela tem a capacidade de generalizar com os dados existentes. As Redes Neurais apresentam uma grande capacidade
de aproximar qualquer função contı́nua do tipo não linear de um grau de correção
desejado.
4.8 Redes Neurais em Sistemas de Controle
Segundo Kováks (2002), os sistemas de controle são baseados em estruturas fı́sicas
claramente definidas, e por isso, constituem uma área que permite uma aplicação eficiente
das técnicas de redes neurais. Os sistemas de controle podem ser distinguidos em duas
categorias distintas: os sistemas de controle dinâmicos e os sistemas de controle
de processos que, embora exista uma relação entre ambos, podem ser aplicados em
classes diferentes de problemas e com abordagens próprias.
Os sistemas de controle dinâmicos sempre envolvem o controle de uma planta cujas
variáveis evoluem de acordo com um sistema de equações diferenciais especificadas pelas
leis fı́sicas que as governam. Os objetivos do controle dinâmico neste caso, é disciplinar a
evolução destas variáveis, conforme critérios previamente descritos, ou seja, propor estabilização ou, até mesmo, impor trajetória de referência que expliquem o mesmo.
SILVA, F.L.
PPGME/UFPA
4.8 Redes Neurais em Sistemas de Controle
69
4.8.1 Sistemas de Controle Dinâmicos
Com estudos no decorrer dos últimos anos, os sistemas de controle dinâmicos, particularmente os que envolvem modelos lineares, estão sendo aplicados em vários conjuntos de
problemas, assim como, as suas respectivas análises, (KOVÁCS, 2002).
entrada
saída
v(t)
+
+
Planta
H(v,t)
y(t)
-
+
e(t)
Controlador
+
-
yref (t)
referência
Figura 4.18 Esquema de um sistema de controle dinâmico
A representação do sistema de controle dinâmico, descrita na Figura 4.18, é definida da
seguinte forma:
• u(t) → caracteriza a excitação, ou entrada do sistema, a qual é composta pelos sinais
recebidos pela planta;
• y(t) → caracteriza a saı́da, caracterizada pela resposta, ou projeção que serve de
base para a comparação com a trajetória de referência;
• e(t) → é o erro produzido pelo afastamento da saı́da em relação a trajetória de
referência. Este se caracteriza por definir como uma importante medida utilizada
pelo controlador para determinar uma ação de controle o mais eficiente possı́vel que,
ao ser aplicada à entrada da planta, produza um menor erro possı́vel, ou até mesmo
o elimine.
• H(v,t) → operador ou função de transferência da planta, responsável por sintetizar
a relação entre a entrada e a saı́da.
Observa-se que, uma vez especificado o objetivo de controle e caracterizada a dinâmica
da planta, considerando-a na forma de equações diferenciais ou funções de tranferências,
é necessario determinar um controlador que atenda as especificações prévias definidas.
SILVA, F.L.
PPGME/UFPA
4.8 Redes Neurais em Sistemas de Controle
70
É muito importante observar que a dinâmica de um determinado sistema pode ser
descrita por um sistema multivariável de equãções diferenciais lineares de parâmetros
fixos, e para um outro sistema pode ser descrito por função de tranferência linear variante
no tempo. Consequentemente, as abordagem adotadas para o projeto de controladores em
ambos os casos são completamente diferentes.
4.8.2 Identificação de Sistemas Dinâmicos
Levando em consideração uma planta de tempo discreto que apresente como entrada
e saı́da as seguintes sequências u(k) e y(k) com dinâmica desconhecida. E, assumindo
como primeiro passo a definição de uma classe parametrizada P(W)de modelos de identificação e, dentro desta classe mediante algum algoritmo apropriado, procurar identificar a
parametrização que de forma mais adequada represente a dinâmica da planta (Fig 4.19).
y(k)
Planta
+
u(k)
e(k)
+
Modelo de
identificação
W
ŷ (k)
Figura 4.19 Identificação de um sistema dinâmico
A medida de adequação que melhor ajuste o sistema é definida através da minimização de erro e(k) de reconstrução da saı́da, também utilizado para reajustar os parâmetros
do modelo de identificação.
ky(k) − ŷ(k)k = ky(k) − P (Ŵ ; u(k))k < ε
(4.50)
para k ≥ K e para todo u(k) ∈ U .
SILVA, F.L.
PPGME/UFPA
4.8 Redes Neurais em Sistemas de Controle
71
4.8.3 Retropropagação Dinâmica ( Dynamic Back Propagation )
Como já anteriormente definido na equação 4.21, em que o algoritmo de retropropagação
estática, cujo resultado de um método do gradiente para minimizar uma função de erro
quadrático pelo qual um parâmetro arbitrário w é ajustado, apresenta a seguinte caracterı́stica.
W (K + 1) = W (k) − ηgrad(E(W (k)))
(4.51)
onde k é o ı́ndice dos exemplos da tabela de treinamento.
A partir de então, considera-se um modelo de identificação não linear parametrizado
por W = [w1 , w2 , ..., wn ]:
x(K + 1) = φ(x(k)), u(k), W )
(4.52)
ŷ(k) = ψ(x(k))
onde o erro quadrático E(W) é definido como:
E(W ) = ky(k) − ŷ(k)k
(4.53)
e como gradiente do erro E(W) em relacionado ao parâmentro wi , implica em:
δE(W )
δ ŷ(k)
= −2(y(k) − ŷ(k)).
= −2∂y (k).ŷwi (k)
δwi
δwi
(4.54)
4.8.4 Sistemas de Controle de Processos
Com utilização nas mais variadas especialidades, entre elas a Engenharia Elétrica,
Engenharia Mecânica, Biomedicina, Engenharia de Trafêgo, os sistemas de controle de
processos em qualquer situação apresentam funções essenciais voltadas ao processo em
si: a temporização, o sequenciamento, a sincronização e o intertravamento de eventos.
E os voltados especialmente ao operador: monitoração, supervisão, detecção de falhas e
processamento de alarme.
SILVA, F.L.
PPGME/UFPA
4.8 Redes Neurais em Sistemas de Controle
72
Diagnóstico de falhas na operação de sistemas pode ser reduzido a um problema de
detecção de padrões, no caso padrões anômalos, e já se sabe que as redes neurais são
eficientes detetores de padrões (KOVÁCS, 2002).
Modos de
falhas
y1
Tabela de
Modelo de
simulação
u2
treinamento
Ψ = {ul , yl }l =1
L
N(W)
Figura 4.20 Treinamento de uma rede neural para diagnóstico de falhas
4.8.5 Análise de Dados
Embora na função objetivo do modelo de Redes Neurais Artificiais (RNA) tenha sido
adotado a função de minimização do erro quadrático médio, o desempenho dos modelos de previsão será avaliado através de um conjunto maior de indicadores estatisticos.
Assim, além do erro quadrático médio (EQM ), serão calculados e analisados o erro absoluto médio (EAM ), erro relativo percentual médio (ERPM ) o erro relativo percentual
máximo (ERPmax ). Todos estes testes de avaliação dos erros para projeções futuras são
descritos abaixo:
n
1X
EQM =
(yj − ŷj )2
n j=1
(4.55)
n
EAM =
1X
|yj − ŷj |
n j=1
(4.56)
n
100 X |yj − ŷj |
ERP M =
n j=1
yj
SILVA, F.L.
(4.57)
PPGME/UFPA
4.8 Redes Neurais em Sistemas de Controle
ERP max = max · 100|
73
yj − ŷj
|
yj
(4.58)
onde: n = 1,.....,N, com N o número de padrões analisados; Yj = são caracterizados
como os valores reais observados; ŷj são caracterizados como os valores previstos, ou seja,
valores obtidos após modelagem, também conhecidos como previsões, ver Figura (4.21).
4.8.6 Previsões com Redes Neurais
Devido a grande complexidade dinâmica de determinados processos ou eventos não
lineares no decorrer de um intervalo de tempo t, torna-se muito difı́cil a obtenção de
previsões com grau de confiabilidade significativos. Com isso, em determinadas situações,
os modelos baseados em inferência estatı́stica não são adequados para este fim.
Figura 4.21 Valores Previstos
y(t1 ), y(tj ), ...., y(tz ) → y(tk+1 )
(4.59)
y(ti ), y(ti+1 ), ...., y(tk ) → y(tk+1 ) → um passo a f rente.
(4.60)
y(ti ), y(tj ), ...., y(tz ) → y(tk+h ) → k passo a f rente.
(4.61)
Portanto, nestes casos, modelos baseados em redes neurais suprem estas necessidades
com excelentes resultados. Como um exemplo de processo que apresenta esta caracterı́stica
pode-se citar, o mercado financeiro onde a movimentação das ações por apresentar algumas
relações não lineares, não é possı́vel modelar utilizando modelos estruturais, regressão e
ARIMA.
SILVA, F.L.
PPGME/UFPA
Capı́tulo 5
Análise de Dados
5.1 Processo de filtração dos cristais de hidrato
Para a produção de alumina, a bauxita após minerada é transportada para a fábrica
onde sofre a intervenção das principais fases do processo de sua obtenção: a moagem,
digestão, filtração/evaporação, precipitação e calcinação.
A bauxita após moı́da com solução cáustica e cal em moinhos conjugados, forma uma
polpa de cristais de hidrato. A polpa em solução pré-aquecida de soda cáustica é transferida aos digestores, onde é realizado a primeira separação de impurezas como o Ferro
e o Sı́lica pois, estes são fatores que são prejudiciais à qualidade final do alumı́nio. A
partir de então, o hidrato de alumina é dissolvido, formando o licor de aluminato de sódio
e outras impurezas. A solução que contém o aluminato de sódio e os resı́duos de bauxita
em suspensão é transferida aos espessadores, onde, com auxı́lio de agentes floculantes,
os resı́duos são separados por sedimentação, formando uma lama densa, a “lama vermelha”, que é lavada e filtrada para recuperar o residual de soda, sendo transferida com
baixo teor de umidade para o depósito de rejeitos, (http://www.serteq.com.br/) Fig.(5.1).
Condensado (X1)
Vapor (X2)
Rotação do Tambor (X3)
Resposta (Y): Polpa de Hidrato Lavada
Caracterítica da Qualidade
Polpa de Hidrato
- Baixa umidade (Y1)
- Baixo percentual de soda na polpa de
hidrato (Y2)
Figura 5.1 Processo de lavagem e filtração da polpa de hidrato
5.1 Processo de filtração dos cristais de hidrato
75
A polpa de cristais de hidrato é bombeada dos tanques de precipitação para filtros
rotativos de discos ou de tambor horizontal, cuja finalidade é a máxima remoção da
umidade e dos resı́duos de soda presentes na torta filtrada.
No processo é utilizado condensado, cuja finalidade é lavar a torta formada sobre
o tambor removendo resı́duos de soda cáustica, e após esta lavagem com a ajuda de
calcinadores, movidos a queima de oléo BTF (Baixo Teor de Fluidez). O óleo BTF
tem como função produzir calor e é utilizado em equipamentos destinados à geração
de energia térmica. Os calcinadores trabalham em temperaturas equivalentes a 600 e 700
graus centı́grados. É aplicado um vapor que tem como finalidade a aceleração da secagem
da torta, removendo assim os vestı́gios da água não combinada (livre) molecularmente com
a alumina. Deste modo é obtido o primeiro produto do processo de produção de alumı́nio:
A alumı́na com caracterı́sticas de um pó branco e refinado de consistência semelhante
ao açúcar, (SANTOS, 2007 e http://www.abralatas.org.br).
Os altos números de ocorrências de queimadas e a utilização pela indústria de produtos derivados de petróleo como conbustı́vel, entre eles o óleo BTF, são os grandes
responsáveis pelos elevados ı́ndices de emissões de gases na atmosfera contribuindo com
o aumento do efeito estufa e ocorrência de chuvas ácidas. Pois com a combustão do óleo
BTF, devido a alta concentração de enxofre em sua composição, são liberados na atmosfera dióxidos de enxofre (SO2 ) e ionizado na atmosfera forma o ( SO4−2 ). Portanto, na
atmosfera estes dióxidos reagem com as gotı́culas de água em suspensão resultando em
H2 SO4 , ácido sulfúrico, provocando por conseqüência chuva ácida, (www.sbrt.ibict.br).
DEste modo, a queima excessiva de óleo BTF, representa uma ameaça ao meio ambiente
e consequentemente à saúde da população.
SILVA, F.L.
PPGME/UFPA
5.1 Processo de filtração dos cristais de hidrato
Figura 5.2 Emissões de Gases por Indústrias
76
Figura 5.3 Emissões de Gases por
Queimadas
Responsáveis pela emissões no perı́odo de 1971 e 2004, de cerca de 36% do principal
gás causador do efeito estufa o CO2 , as industrias mundiais dentre elas a de produção
e beneficiamento de alumı́nio, apresentou um aumento de 61% no consumo de energia,
principalmente em alguns paı́ses emergentes importantes, o que aumenta ainda mais a
quantidade de CO2 lançada à atmosfera, (http://noticias.terra.com.br/).
5.1.1 Filtros de discos rotativos
Um fator de grande importância na cadeia produtiva do alumı́nio é a energia elétrica
onde somente no Brasil, segundo Dr. Célio Berman 50% de toda energia produzida é consumida por industrias, sendo que 30% se restringe a seis setores: Cimento, Aço, Alumı́nio,
Ferro-Ligas, Petroquı́mica e Papel e Celulose. Onde 8% particularmente é consumida
na industria de produção de alumı́nio em movimentação de filtros rotativos, fornos etc.
(www.socioambiental.org)
Os filtros de discos rotativos (Fig 5.4), pertencem ao grupo com alimentação lateral e
já estão disponı́veis há muitos anos. São usados geralmente em aplicações resistentes tais
como enxugamento do taconito do minério de ferro, da hematita, do hidrato de carvão, de
alumı́nio, do concentrado de cobre, dos concentrados da flutuação de pirita e de outros
processos de beneficiamento. Pode-se destacar que uma das maiores finalidades dos filtros
rotativos no processo é a de filtração de impurezas e seleção de materias.
SILVA, F.L.
PPGME/UFPA
5.1 Processo de filtração dos cristais de hidrato
Figura 5.4 Filtro de disco rotativo
77
Figura 5.5 Substituição do Tecido Filtrante
5.1.2 Critérios de Eventuais Paradas no Processo
No decorrer da filtração da polpa de cristais de hidrato, alguns fatores contribuem
para a ocorrência de eventuais e indispensáveis interrupções no processo. Estes fatores
influenciam diretamente na qualidade do produto e conseqüêntemente na não otimização
dos resultados. Dentre estes fatores, destaca-se a substituição do tecido filtrante (Fig
5.5) dos filtros rotativos. Esta substituição é realizada a cada 1.500h de trabalho, e a
finalidade é evitar a não eficiência do enxugamento da polpa e a não retenção correta
das impurezas. Para uma eficiente lavagem da polpa é necessário a realização da limpeza
cáustica, intervenção necessária à cada 200 horas ininteruptas do processo.
5.1.3 Eficiência do Processo
Para a máxima eficiência no processo de lavagem e secagem da polpa de cristais de
hidrato é extremamente necessário que as variáveis vapor e condensado, sejam combinadas
e controladas com a rotação do tambor, proporcionando assim, o tempo de residência
adequado para que a lavagem e a secagem possam agir na máxima remoção da água livre
e da soda residual.
SILVA, F.L.
PPGME/UFPA
5.2 Análise dos Dados Através de Modelo de Rede Neural
78
5.2 Análise dos Dados Através de Modelo de Rede Neural
Para o desenvolvimento do ajuste e controle do processo por sistema inteligente de redes neurais artificiais, são utilizadas as informações coletadas a cada 8 horas do processo
ininterrupto. No entanto, não existe as informações ocorridas nos finais de semana e, em
determinadas situações as amostras das variáveis foram retiradas em apenas um horário
ou em apenas uma semana de eventuais meses. As variáveis utilizadas foram: Condensado,
rotação do tambor e vapor. No entanto, essas informações de coleta de dados são consideradas irrelevantes quando se trabalha com modelagens via sistemas de aprendizagem
inteligentes. Pois para o treinamento da rede, as informações devem ser selecionadas de
forma que se torne a mais representativa possı́vel do evento a ser estudado, dispensando
assim, a ordem de ocorrência das observações em cada variável.
As amostras são referentes ao perı́odo de 12 de julho de 2005 a 22 de junho de
2006, correspondendo um total de 498 informações. No entanto, na fase de treinamento e
validação da rede foram utilizados somente um conjunto de 350 observações, das quais 57%
foram para treinamento o correspondente a 200 observações e para validação utilizou-se
o correspondente a 43% dessa amostra o que equivale a 150 observações (Fig 5.6).
80
60
40
0
50
100
150
200
250
300
350
400
450
500
0
50
100
150
200
250
300
350
400
450
500
0
50
100
150
200
250
300
350
400
450
500
0
50
100
150
200
250
300
350
400
450
500
50
100
150
200
250
300
350
400
450
500
2
1
0
39
38.5
38
37.5
10
5
0
0.4
0.2
0
0
Figura 5.6 Comportamentos das Variáveis do processo
SILVA, F.L.
PPGME/UFPA
5.3 Estruturação e Treinamento da Rede - 1o Ensaio
79
Na busca de uma modelagem de aproximação, ou seja, de uma modelagem que
caracterize da forma mais significativa possı́vel o processo estudado, que seja capaz de
acompanhar o padrão gerado, realizou-se vários ensaios de simulações utilizando alguns
fatores, como por exemplo: normalização dos dados de entrada da rede por Desvio Padrão
e normalização no espaço (-1, 1), além de alteração na estrutura da própria rede, através
de mudanças nos seguintes parâmetros: número de camadas escondidas de neurônios,
alterações das taxas de aprendizagem e de momento e os tipos de funções de ativação
para cada camada.
No entanto, após a realização de vários ensaios, foram selecionados três situações, onde
utilizou-se como método de treinamento o algorı́timo alternativo ao Backpropagation
padrão porém bastante eficiente, ou seja, uma variação do algoritmo Backpropagation
com o método Levenberg Marquardt, também conhecido como Levenberg Marquardt Backpropagation. Na escolha deste algoritmo levou-se em consideração o fato,
do mesmo ser considerado como um dos mais rápidos e eficiente para se obter a convergência em treinamento (Hagan e Menhaj, 1994).
5.3 Estruturação e Treinamento da Rede - 1o Ensaio
Neste primeiro ensaio de simulação, a fase de treinamento foi realizada em 10.000 interações, com as variáveis normalizadas por desvio padrão, ver Função 4.39. O parâmetro
de atualização de tela adotado foi de 50 em 50 épocas, com uma taxa de aprendizagem
de 0,07, taxa de momento de 0,8 e um erro final de treinamento equivalente E(W)=0 .
Topologia
∗
da Rede:
• 1a Camada: Camada de entrada da rede, representada pelas variáveis independentes
(condensado, rotação e vapor).
• 2a Camada: Formada por 14 neurônios com função de ativação identidade, significando neurônios estáticos e com a saı́da sendo representada por uma função do tipo
Logı́stica (logsig).
∗ Na matemática, a topologia é a área em que se estudam os espaços topológicos. Em engenharias, está
associada à disposição lógica de elementos. Em informática, topologia de rede é a forma por meio da
qual ela se apresenta fisicamente, ou seja, como os elementos de rede (network nodes) estão dispostos.
Obtido em “http://pt.wikipedia.org/wiki/Topologia”
SILVA, F.L.
PPGME/UFPA
5.3 Estruturação e Treinamento da Rede - 1o Ensaio
80
• 3a Camada: Formada por 12 neurônios com função de ativação identidade, significando neurônios estáticos e com a saı́da sendo representada por uma função do tipo
Logı́stica (logsig).
• 4a Camada: Camada de saı́da da rede, formada por apenas dois neurônio, cuja entrada apresenta uma função de ativação identidade, com neurônios estáticos e com
as saı́das representadas por uma função do tipo linear (purelin).
Com esta configuração de rede foi obtido o respectivo erro de treinamento M SE =
2 × 10−2 , Figura 5.7.
! "" # $%&
1
10
0
10
-1
10
-2
10
0
1000
2000
3000
4000
5000
6000
7000
8000
9000
10000
Figura 5.7 Evolução da Função Erro E(W)
SILVA, F.L.
PPGME/UFPA
5.3 Estruturação e Treinamento da Rede - 1o Ensaio
81
5.3.1 Simulação de Treinamento da Variável Nı́vel de Umidade- 1o Ensaio
5
4
3
2
1
0
-1
-2
-3
0
20
40
60
80
100
120
140
160
180
200
160
180
200
Figura 5.8 Treinamento da Variável Umidade
0.5
!
0.4
0.3
0.2
0.1
0
-0.1
-0.2
-0.3
0
20
40
60
80
100
120
140
"
Figura 5.9 Erro de Treinamento da Variável Umidade
Pode-se observar na Figura 5.8, que o ajuste de treinamento para a variável nı́vel de
umidade, obtido através da simulação do modelo de RNA com apenas duas camadas foi de
razoável significância, pois um grande número de observações não acompanhou o padrão
do processo. Esta afirmação pode ser comprovada através das Figura 5.9, gerada a partir
dos erros quadráticos médios de treinamento para a variável dependente em questão.
SILVA, F.L.
PPGME/UFPA
5.3 Estruturação e Treinamento da Rede - 1o Ensaio
82
5.3.2 Simulação de Treinamento da Variável Nı́vel de Soda- 1o Ensaio
12
10
8
6
4
2
0
-2
0
20
40
60
80
100
120
140
160
180
200
160
180
200
Figura 5.10 Treinamento da Variável Soda
2
1.5
1
0.5
0
-0.5
0
20
40
60
80
100
120
140
!
Figura 5.11 Erro de Treinamento da Variável Soda
Pode-se observar através da Figura 5.10, que o ajuste de treinamento para a variável
nı́vel de Soda presente na Polpa de cristais de hidrato, semelhante ao treinamento da umidade, também se caracterizou como de razoável significância, devido uma grande parte das
observações não ter acompanhado o padrão do processo. Esta afirmação pode ser comprovada através da Figura 5.11, correspondente aos erros quadráticos médios de treinamento
desta varı́avel.
SILVA, F.L.
PPGME/UFPA
5.3 Estruturação e Treinamento da Rede - 1o Ensaio
83
5.3.3 Simulação de Validação da Variável Nı́vel de Umidade- 1o Ensaio
3
2
1
0
-1
-2
-3
0
50
100
150
Figura 5.12 Validação da Variável Nı́vel de Umidade
2
1.5
1
0.5
0
-0.5
-1
-1.5
-2
0
50
100
150
Figura 5.13 Erro de Validação da Variável Nı́vel de Umidade
Pode-se observar através da Figura 5.12, que quando passou-se para a fase de ajuste
de validação da variável nı́vel de umidade, para o modelo de RNA com apenas duas
camadas, as respostas obtidas pela rede não apresentaram respostas significativas. Podese observar uma grande variação entre os valores reais e os valores gerados pela rede. Para
esta verificação é suficiente a análise da Figura 5.13, gerada a partir dos erros quadráticos
médios M SE = 5 × 10−2 de validação desta variável.
SILVA, F.L.
PPGME/UFPA
5.3 Estruturação e Treinamento da Rede - 1o Ensaio
84
5.3.4 Simulação de Validação da Variável Nı́vel de Soda- 1o Ensaio
10
8
6
4
2
0
-2
0
50
100
150
Figura 5.14 Validação da Variável Nı́vel de Soda
0.5
0.4
0.3
0.2
0.1
0
-0.1
-0.2
-0.3
-0.4
-0.5
0
50
100
150
Figura 5.15 Erro de Validação da Variável Nı́vel de Soda
Observa-se através da Figura 5.14, que o mesmo ocorreu quando se validou a variável
nı́vel de soda, ou seja, a rede não conseguiu de forma robusta, acompanhar o padrão
gerado pelo processo. E, através da Figura 5.15, formada pelos erros quadráticos médios
fornecidos pelo processo, verifica-se com mais clareza a grande variabilidade entre o padrão
do processo real e o padrão gerado pela rede neural.
SILVA, F.L.
PPGME/UFPA
5.3 Estruturação e Treinamento da Rede - 1o Ensaio
85
5.3.5 Simulação das Validações Desnormalizadas- 1o Ensaio
10
9
8
7
6
5
4
3
2
0
50
100
150
Figura 5.16 Validação Desnormalizada da Variável Umidade
Para uma melhor visualização das abservações geradas pela rede em relação as obsevações originais do processo, ver Figuras 5.16 e 5.17, que foram construidas a partir do
processo de desnormalização dos resultados. Através destas, pode-se verificar que a rede
proposta neste ensaio não obteve resultados satisfatórios, ou seja, a mesma não conseguiu
monitorar de forma desejada o padrão gerador do processo.
0.3
0.25
0.2
0.15
0.1
0.05
0
-0.05
0
50
100
150
Figura 5.17 Validação Desnormalizada Variável Soda
SILVA, F.L.
PPGME/UFPA
5.4 Estruturação e Treinamento da Rede - 2o Ensaio
86
5.4 Estruturação e Treinamento da Rede - 2o Ensaio
Na busca de melhores resultados, houve a necessidade de num segundo momento ajustar nova rede com duas camadas internas. Porém, para esta nova rede aplicou-se aos dados
uma normalização no espaço (-1, 1). Esta escolha se justifica pela definição da função de
ativação Tangente Hipebólica (Tansig), definida na Função 4.11. Para esta RNA convergir, foi suficiente a utilização de apenas 2 camadas de neurônios, com as seguintes
configurações:
Topologia da Rede:
• 1a Camada: Camada de entrada da rede, representada pelas variáveis independentes
(condensado, rotação e vapor).
• 2a Camada: Formada por 12 neurônios com função de ativação identidade, significando neurônios estáticos e com a saı́da sendo representada por uma função do
tangente hiperbólica (tansig).
• 3a Camada: Formada por 10 neurônios com função de ativação identidade, significando neurônios estáticos e com a saı́da sendo representada por uma função do
tangente hiperbólica (tansig).
• 4a Camada: Camada de saı́da da rede, formada por apenas dois neurônios, cuja
entrada apresenta uma função de ativação identidade com neurônios estáticos e com
as saı́das representadas por duas funções do tipo linear (purelin).
SILVA, F.L.
PPGME/UFPA
5.4 Estruturação e Treinamento da Rede - 2o Ensaio
87
5.4.1 Simulação de Treinamento da Rede - 2o Ensaio
A fase do treinamento foi realizada em 15.000 interações (= épocas), sendo utilizado
um parâmetro de atualização da tela de 50 em 50 épocas. Adotou-se uma taxa de aprendizagem de 0,03, taxa de momento de 0,7 e pré determinou-se um erro final de treinamento
equivalente E(W)=10e−4 .
! "# #$ %&'
1
10
0
10
-1
10
-2
10
-3
10
-4
10
0
5000
10000
15000
Figura 5.18 Evolução da Função Erro E(W)
Com esta configuração de rede neste ensaio se obteve um erro de treinamento equivalente a M SE = 8 × 10−3 , ver Figura (5.18), na qual o erro pode ser considerar bastante
eficiente e um tempo de convergência significativo.
SILVA, F.L.
PPGME/UFPA
5.4 Estruturação e Treinamento da Rede - 2o Ensaio
88
5.4.2 Simulação de Treinamento da Variável Nı́vel de Umidade - 2o Ensaio
1
0.8
0.6
0.4
0.2
0
-0.2
-0.4
-0.6
-0.8
-1
0
20
40
60
80
100
120
140
160
180
200
160
180
200
Figura 5.19 Treinamento da Variável Umidade
!
1
0.5
0
-0.5
0
20
40
60
80
100
120
140
"
Figura 5.20 Erro de Treinamento da Variável Umidade
Pode-se observar através da Figura 5.19, que o ajuste de treinamento para o modelo
de RNA com apenas duas camadas, apresentou boa significância. Entretanto, algumas
observações não acompanharam o padrão gerado pelo processo. Isto é confirmado através
da Figura, 5.20 dos erros quadráticos médios do treinamento para esta variável.
SILVA, F.L.
PPGME/UFPA
5.4 Estruturação e Treinamento da Rede - 2o Ensaio
89
5.4.3 Simulação de Treinamento da Variável Nı́vel de Soda - 2o Ensaio
1
0.5
0
-0.5
-1
-1.5
0
20
40
60
80
100
120
140
160
180
200
160
180
200
Figura 5.21 Treinamento da Variável Soda
0.5
0.4
0.3
0.2
0.1
0
-0.1
-0.2
-0.3
0
20
40
60
80
100
120
140
!
Figura 5.22 Erro de Treinamento da Variável Soda
A Figura 5.21, mostra que a simulação do treinamento para a variável nı́vel de soda,
através do modelo de RNA com apenas duas camadas, apresentou boa robustez . No
entanto, ainda se detecta que algumas observações não acompanham o padrão do processo,
isto é confirmado através da Figura 5.22 dos erros quadráticos médios de treinamento para
a variável em análise.
SILVA, F.L.
PPGME/UFPA
5.4 Estruturação e Treinamento da Rede - 2o Ensaio
90
5.4.4 Simulação de Validação da Variável Nı́vel de Umidade - 2o Ensaio
1
0.8
0.6
0.4
0.2
0
-0.2
-0.4
-0.6
-0.8
-1
0
50
100
150
Figura 5.23 Validação da Variável Nı́vel de Umidade
0.8
0.6
0.4
0.2
0
-0.2
-0.4
-0.6
-0.8
0
50
100
150
Figura 5.24 Erro de Validação da Variável Nı́vel de Umidade
Ao analisar a Figura 5.23, observa-se que o ajuste de validação para o modelo da
RNA com apenas duas camadas para a variável nı́veis de umidade, apresentou significativa melhora. No entanto, os resultados obtidos não acompanharam em maioria o
padrão gerado pelo processo. Isto é confirmado através das Figura 5.24, gerada pelos erros quadráticos médios de treinamento, onde se observou um erro de validação equivalente
a M SE = 7 × 10−2 .
SILVA, F.L.
PPGME/UFPA
5.4 Estruturação e Treinamento da Rede - 2o Ensaio
91
5.4.5 Simulação de Validação da Variável Nı́vel de Soda - 2o Ensaio
1
0.5
0
-0.5
-1
-1.5
0
50
100
150
Figura 5.25 Validação da Variável Nı́vel de Soda
2
1.5
1
0.5
0
-0.5
0
50
100
150
Figura 5.26 Erro de Validação da Variável Nı́vel de Soda
Pode-se observar através da Figura 5.25, que o ajuste do modelo de RNA para a
validação da variável nı́veis de soda foi bastante significativo. No entanto, com as mesmas
caracterı́sticas do ajuste da variável nı́veis de umidade, algumas observações não conseguiram acompanhar o padrão do processo. Isto é confirmado através da Figura 5.26,
correspondente aos erros quadráticos médios de validação para esta variável.
SILVA, F.L.
PPGME/UFPA
5.4 Estruturação e Treinamento da Rede - 2o Ensaio
92
5.4.6 Simulação das Validações Desnormalizadas - 2o Ensaio
10
9
8
7
6
5
4
3
2
0
50
100
150
Figura 5.27 Validação Desnormalizada Variável Umidade
0.35
0.3
0.25
0.2
0.15
0.1
0.05
0
0
50
100
150
Figura 5.28 Validação Desnormalizada Variável Soda
Para uma melhor visualização das absevações geradas pela rede em relação as obsevações originais do processo, ver Figuras 5.27 e 5.28, que foram construidas a partir do
processo de desnormalização dos resultados.
SILVA, F.L.
PPGME/UFPA
5.5 Estruturação e Treinamento da Rede - 3o Ensaio
93
5.5 Estruturação e Treinamento da Rede - 3o Ensaio
Na busca por melhores aproximações, num terceiro momento, a rede foi treinada, com
as variáveis de entrada normalizadas no espaço (-1, 1) e, com três camadas internas de
neurônios, com as seguintes caracterı́sticas:
Topologia da Rede:
• 1a Camada: Camada de entrada da rede, representada pelas variáveis independentes
(condensado, rotação e vapor).
• 2a Camada: Formada por 12 neurônios com função de ativação identidade e com
saı́da apresentando uma função do tipo tangente hiperbólica (tansig).
• 3a Camada: Formada por 10 neurônios com função de ativação identidade e com
saı́da apresentando uma função do tipo tangente hiperbólica (tansig).
• 4a Camada: Formada por 8 neurônios com função de ativação identidade e com saı́da
apresentando uma função do tipo tangente hiperbólica (tansig).
• 5a Camada: Definida como camada de saı́da da rede, formada por apenas dois
neurônio, cuja a entrada apresenta uma função de ativação identidade e com a de
saı́das do tipo linear (purelin).
SILVA, F.L.
PPGME/UFPA
5.5 Estruturação e Treinamento da Rede - 3o Ensaio
94
5.5.1 Treinamento da Rede - 3o Ensaio
A Figura 5.29, mostra a evolução da função E(W), que se caracteriza por definir o
valor do Erro Quadrático Médio (EQM ) em cada interação de ajuste dos parâmetros do
modelo de rede neural proposto.
Evolução da Função E(W) = 0.000943019, Objetivo é 0
1
10
0
Erro Quadrático Médio
10
−1
10
−2
10
−3
10
−4
10
0
50
100
150
200
250
300
350
400
450
500
500 Interações
Figura 5.29 Evolução da Função Erro E(W)
Para esta rede foi estipulado inicialmente um número pré definido de interações,
equivalente a 2000 interações.
No entanto, a mesma obteve convergência para um erro mı́nimo no treinamento em
apenas 500 interações. Os parâmetros utilizados foram os seguintes: atualização da tela
foi adotado de 50 em 50 épocas, taxa de aprendizagem de 0,07 e taxa de momento de 0,8
e pré determinou-se um erro final de treinamento equivalente E(W)=0 (zero). Esta configuração de rede, proporcionou um erro de treinamento bstante significativo, equivalente
a M SE = 9 × 10−4 .
SILVA, F.L.
PPGME/UFPA
5.5 Estruturação e Treinamento da Rede - 3o Ensaio
95
5.5.2 Simulação de Treinamento da Variável Umidade - 3o Ensaio
1
0.8
0.6
0.4
0.2
0
-0.2
-0.4
-0.6
-0.8
-1
0
20
40
60
80
100
120
140
160
180
200
160
180
200
Figura 5.30 Treinamento da Variável Umidade
!
0.2
0.15
0.1
0.05
0
-0.05
-0.1
-0.15
-0.2
0
20
40
60
80
100
120
140
"
Figura 5.31 Erro de Treinamento da Variável Umidade
Pode-se observar através da Figura 5.30, que o ajuste do modelo de RNA para o
treinamento da variável nı́veis de umidade foi bastante significativo, conseguindo acompanhar o comportamento do processo na grande maioria das observação da amostra selecionada. Isto é confirmado através das Figura 5.31, gerada a partir dos erros de treinamento cometidos para esta variável.
SILVA, F.L.
PPGME/UFPA
5.5 Estruturação e Treinamento da Rede - 3o Ensaio
96
5.5.3 Simulação de Treinamento da Variável Soda - 3o Ensaio
1
0.5
0
-0.5
-1
-1.5
0
20
40
60
80
100
120
140
160
180
200
Figura 5.32 Treinamento da Variável Nı́vel de Soda
0.3
0.25
0.2
0.15
0.1
0.05
0
-0.05
-0.1
-0.15
0
20
40
60
80
100
120
140
160
180
200
!
Figura 5.33 Erro de Treinamento da Variável Soda
Pode-se observar através da Figura 5.32, que o ajuste de treinamento para o modelo
de RNA conseguiu acompanhar o comportamento do processo na grande maioria das
observação da amostra da variável Soda selecionada para treinamento. Isto é confirmado
através da Figura 5.33, gerada a partir dos erros de treinamento fornecidos por esta
variável.
SILVA, F.L.
PPGME/UFPA
5.5 Estruturação e Treinamento da Rede - 3o Ensaio
97
5.5.4 Simulação de Validação da Variável Umidade - 3o Ensaio
1
0.8
0.6
0.4
0.2
0
-0.2
-0.4
-0.6
-0.8
-1
0
50
100
150
Figura 5.34 Validação da Variável Nı́vel de Umidade
1
0.5
0
-0.5
-1
-1.5
0
50
100
150
Figura 5.35 Validação da Variável Nı́vel de Soda
Pode-se observar através das Figuras 5.34 e 5.35 que o ajuste de validação para o
modelo de RNA proposto quando comparado com as informações das variáveis nı́veis de
umidade e nı́veis de soda do processo real respectivamente, apresentam um comportamento preciso na grande maioria das observação da amostra de validação.
SILVA, F.L.
PPGME/UFPA
5.5 Estruturação e Treinamento da Rede - 3o Ensaio
98
5.5.5 Simulação de Validação da Variável Soda - 3o Ensaio
0.8
0.6
0.4
0.2
0
-0.2
-0.4
-0.6
-0.8
0
50
100
150
Figura 5.36 Erro de Validação da Variável Nı́vel de Umidade
0.1
0.08
0.06
0.04
0.02
0
-0.02
-0.04
-0.06
-0.08
-0.1
0
50
100
150
Figura 5.37 Erro de Validação da Variável Nı́vel de Soda
A afirmação anterior, é de fácil comprovação ao se analizar as Figuras, 5.36 e 5.37,
correspondentes ao erro de validação do nı́vel de umidade e ao erro de validação do nı́vel
de soda presente na polpa. Estes gráficos apresentam erros bastante significativos em
torno de M SE = 6 × 10−3 e conseqüêntemente, espera-se que esta rede após instalada e
adequada à planta, venha a fornecer excelentes resultados de mapeamento e controle do
processo.
SILVA, F.L.
PPGME/UFPA
5.5 Estruturação e Treinamento da Rede - 3o Ensaio
99
5.5.6 Simulação das Validações Desnormalizadas - 3o Ensaio
10
9
8
7
6
5
4
3
2
0
50
100
150
Figura 5.38 Validação Desnormalizada Variável Umidade
0.35
0.3
0.25
0.2
0.15
0.1
0.05
0
0
50
100
150
Figura 5.39 Validação Desnormalizada Variável Soda
Através das análises gráficas, realizadas com auxı́lio das Figuras 5.38 e 5.39, pode-se
verificar que esta estrutura de rede foi a que melhor conseguiu se aproximar da verdadeira
ocorrência do processo.
SILVA, F.L.
PPGME/UFPA
5.5 Estruturação e Treinamento da Rede - 3o Ensaio
100
5.5.7 Sinteses dos Modelos de RNA Ajustados
Com o objetivo de melhor visualização e entendimento dos momentos de ajuste do
modelo de rede neural, proposto neste trabalho, na Tabela 5.1 apresentamos todas as configurações adotadas nos três momentos dos ensaios realizados. Pelos dados, fica evidente
os motivos que levaram à escolha da rede estruturada no terceiro momento.
Tabela 5.1 Comparativo para Decisão entre as Três Redes Neurais Propostas
Ensaio
o
1
2o
3o
Neurônios
(14-12-2)
(12-10-2)
(12-10-8-2)
Cam. Inter.
2
2
3
1a Camada
logsig
tansig
tansig
2a Camada
logsig
tansig
tansig
3a Camada
—
—
tansig
Normalização
Desvio Padrão
(-1, 1)
(-1, 1)
Algoritmo
Trainlm
Trainlm
Trainlm
MSE-t
−2
2 × 10
8 × 10−3
9 × 10−4
MSE-v.
5 × 10−2
7 × 10−2
2 × 10−3
Os sistemas inteligentes de Redes Neurais Artificiais mostram-se bastante eficientes
quando são utilizadas com o objetivo de monitoramento de processos industriais complexos. Especificamente neste trabalho, onde a preocupação foi estudar o padrão do processo estabelecendo a relação de influência das variáveis de entrada (variáveis independentes) nas variáveis de saı́da (variáveis dependentes), permitindo assim, um melhor controle e compreenção do processo produtivo e, conseqüêntemente sua otimização.
Portanto, o modelo de RNA descrito no terceiro momento, é o que apresenta melhor
capacidade de acompanhar o padrão do processo de monitoramento da filtração e secagem
da polpa de cristais de hidrato. Pois apresentou um excelente ajuste no treinamento e
na validação, mostrando-se bastante eficiente. Assim, considera-se o objetivo especifico
relacionado a esta metodologia de estruturar uma Rede Neural Artificial que reconhecesse
de forma robusta o padrão gerador do processo e que auxilie na avaliação comparativa
entre as metodologias estudadas, alcançado.
SILVA, F.L.
PPGME/UFPA
5.6 Modelagem Multivariada com Função de Transferência
101
5.6 Modelagem Multivariada com Função de Transferência
Sabe-se que qualquer série que descreva algum fenômeno fı́sico, em geral, pode apresentar pelo menos duas componentes: uma relacionada ao sinal ou informação desejada
daquele fenômeno e outra relacionada a um ruı́do que é caracterizado por apresentar os
dados independentes e identicamente distribuı́dos (iid). Se uma série carrega alguma informação na metodologia de séries temporais, isso é caracterizado pela presença de um
padrão não aleatório na série. Esse padrão não aleatório é, em geral, associado à ocorrência
de correlação entre as observações da(s) série(s) em tempos diferentes. A determinação de
quais são as observações que contribuem para a formação do padrão da série é fornecida
pela função de auto-correlação, auto-correlação parcial e a correlação cruzada, no caso
das séries temporais multivariadas. Deste modo, o objetivo da construção de um modelo
em séries temporais é, em resumo, separar a informação do ruı́do, ou seja, capturar a
informação presente na série.
Para a modelagem multivariada com função de tranferência, foram utilizadas 200 observações de cada variável e 53 observações foram separadas para a validação dos modelos. Inicialmente para a modelagem foram consideradas as variáveis umidade na torta de
hidrato como resposta, vazão de condensado, vazão de vapor e rotação do tambor como
variáveis de controle. Em um segundo momento considerou-se as variáveis nı́veis de soda
cáustica como a variável resposta, vazão de condensado, vazão de vapor e rotação do
tambor novamente como variáveis de controle.
Os gráficos das séries são apresentados nas Figuras 5.40 a 5.44, onde pode-se observar que todas as séries são estacionárias e não há indı́cios de sazonalidade, não sendo
assim, necessário diferenciações ou tranformações. Entretanto, observa-se uma acentuada
variabilidade relativa presente em todas elas.
SILVA, F.L.
PPGME/UFPA
5.6 Modelagem Multivariada com Função de Transferência
102
Figura 5.40 Nı́veis de Umidade na Torta Y1
Figura 5.41 Nı́veis de Soda na Torta Y2
Figura 5.42 Vazão de Condensado X1
Figura 5.43 Vazão de Vapor X2
Figura 5.44 Rotação do Tambor X3
SILVA, F.L.
PPGME/UFPA
5.6 Modelagem Multivariada com Função de Transferência
103
5.6.1 Modelagem para a Variável Nı́vel de Umidade
5.6.2 Análise das FAC e FACP
Na tentativa de se ajustar modelos mais significativos para as variáveis explicativas,
diversos modelos ARIMA são ajustados até que se encontre aquele que se ajuste mais adequadamente aos dados. A escolha dos modelos a serem ajustados são baseados na análise
das funções de auto-correlação (FAC) e auto-correlação parcial (FACP), Figuras 5.45 a 5.50.
Figura 5.45 FAC para a Variáve X1
Figura 5.46 FACP para a Variáve X1
Figura 5.47 FAC para a Variáve X2
Figura 5.48 FACP para a Variáve X2
SILVA, F.L.
PPGME/UFPA
5.6 Modelagem Multivariada com Função de Transferência
Figura 5.49 FAC para a Variáve X3
104
Figura 5.50 FACP para a Variáve X3
Pode-se verificar analisando os gráficos das Funções de Autocorrelações e de Autocorrelações Parciais das variáveis de controle que, os intervalos de confiança para os lag´s
ficaram entre ±2 desvio padrão. E, para este intervalo observou-se que em todas as séries
há evidências de autocorrelações até o lag 2, com as autocorrelações parciais descrevendo
seu comportamento como senóides amortecidas, implicando em possı́veis modelos com
parâmetros autorregressivos e médias móveis.
Portanto, as função de auto-correlação e função de auto-correlação parcial das variáveis
de controle conduziram a três modelos para as variáveis condensado (X1), vazão de vapor
(X2) e rotação (X3):
• Um modelo auto-regressivo de ordem 2 (AR(2));
• um modelo de médias móveis de ordem 2 (MA(2));
• E um modelo de médias móveis de ordem 1 (MA(1))
SILVA, F.L.
X1t = φ1 X1t−1 − φ2 X1t−2 + at
(5.1)
X2t = θ1 at−1 − θ2 at−2 + at
(5.2)
X3t = θ1 at−1 + at
(5.3)
PPGME/UFPA
5.7 Ajuste de Modelos ARIMA
105
5.7 Ajuste de Modelos ARIMA
Para se ajustar modelos de função de tranferência, deve-se previamente ajustar as
séries modelos ARIMA do tipo descrito em 2.22, pois estes terão como finalidade sua
utilização como filtros de pré-filtragens.
5.7.1 Ajuste de Modelos ARIMA para a Variável X1
Tabela 5.2 Cálculo e Avaliação dos Parâmetros da Variável X1
Parâmetros
Estimativas
Erro Padrão
t-valor
approxP r > |t|
Lag
MU
AR1,1
AR1,2
64.607
0.669
-0.208
0.929
0.069
0.069
68.43
9.62
-2.99
< .0001
< .0001
< .0028
0
1
2
Tabela 5.3 Estudo das Auto correlações dos Resı́duos
Lag
χ2
Grau de Liberdade
P r > χ2
Auto correlações
6
12
18
24
6.71
13.99
16.88
31.04
4
10
16
22
0.1520
0.1733
0.3932
0.0953
0.018 -0.031 -0.004 0.146 -0.090 -0.044
0.051 0.040 -0.009 0.011 0.119 -0.125
0.006 -0.013 0.043 -0.016 0.092 -0.049
-0.142 0.092 0.025 -0.069 -0.043 0.163
A partir das avaliações dos parâmetros na Tabela 5.2, verificou-se que as estimativas
dos parâmetros estimados foram significativos a um nı́vel descritivo de 5%. E, com auxı́lio
da Tabela 5.3, verificou-se que os resı́duos apresentaram auto-correlações não significativas,
o que caracteriza ajuste aceitável, ou seja, o modelo conseguiu capturar o padrão da série.
Portanto, tem-se um modelo proposto ARIMA(2,0,0) ou AR(2) da seguinte forma:
X1t = 0, 667X1t−1 − 0, 208X1t−2 + at
SILVA, F.L.
(5.4)
PPGME/UFPA
5.7 Ajuste de Modelos ARIMA
106
5.7.2 Ajuste de Modelos ARIMA para a Variável X2
Tabela 5.4 Cálculo e Avaliação dos Parâmetros da Variável X2
Parâmetros
Estimativas
Erro Padrão
t-valor
approxP r > |t|
Lag
MU
MA1,1
MA1,2
1.104
-0.574
-0.152
0.032
0.070
0.070
34.39
-8.16
-2.17
< .0001
< .0001
.030
0
1
2
Tabela 5.5 Estudo das Auto correlações dos Resı́duos
Lag
χ2
Grau de Liberdade
P r > χ2
Auto correlações
6
12
18
24
3.01
10.81
23.31
29.18
4
10
16
22
0.5567
0.3729
0.1058
0.1397
-0.011 -0.040 -0.065 0.014 -0.079 0.046
0.026 0.057 -0.116 0.042 0.049 -0.122
-0.090 0.097 0.030 -0.128 0.115 0.095
0.128 -0.057 -0.003 -0.058 -0.048 -0.028
Para a variável X2 ajustou-se um modelo, onde os resultados das estimativas dos
parâmetros estão dispostos na Tabela 5.4, onde pode-se observar que todos os parâmetros
estimados foram significativos a um nı́vel descritivo de 5%. As análises dos resı́duos descritos na Tabela 5.5, apresentaram auto-correlações não significativas, ou seja, os mesmos
não são autocorrelacionados o que caracteriza ajuste aceitável do modelo. Portanto, tem-se
um modelo ARIMA(0,0,2) ou MA(2), com a seguinte estrutura funcional:
X2t = 0.574at−1 − 0.152at−2 + at
SILVA, F.L.
(5.5)
PPGME/UFPA
5.7 Ajuste de Modelos ARIMA
107
5.7.3 Ajuste de Modelos ARIMA para a Variável X3
Tabela 5.6 Cálculo e Avaliação dos Parâmetros da Variável X3
Parâmetros
Estimativas
Erro Padrão
t-valor
approxP r > |t|
Lag
MU
MA1,1
37.673
-0.286
0.298
0.068
126.28
-4.20
< .0001
< .0001
0
1
Tabela 5.7 Estudo das Auto correlações dos Resı́duos
Lag
χ2
Grau de Liberdade
P r > χ2
6
12
18
24
1.51
2.23
17.71
22.46
5
11
17
23
0.912
0.997
0.407
0.492
Auto correlações
0.021
-0.026
-0.028
0.059
0.062 -0.035
-0.025 -0.027
-0.005 -0.015
-0.044 -0.042
-0.038
-0.021
-0.079
-0.061
-0.008
-0.024
0.170
0.013
-0.018
-0.018
0.184
0.099
Para a variável X3 ajustou-se um modelo preliminar, onde os resultado da estimativa
do parâmetro, estão dispostos na Tabela 5.6, onde observa-se que o parâmetro estimado
de média móvel foi significativo a um nı́vel descritivo de 5%. E, no estudo realizado
nos resı́duos do modelo verificou-se que os mesmos, apresentaram auto-correlações não
significativas, ou seja, os mesmos não são autocorrelacionados o que caracteriza ajuste
aceitável do modelo. Portanto, tem-se um modelo MA(0,0,1) ou MA(1), o qual será
utilizado como filtro para pré-filtragem para a modelagem de função de transferência,
apresentando a seguinte estrutura funcional:
X3t = 0.286at−1 + at
SILVA, F.L.
(5.6)
PPGME/UFPA
5.8 Correlações Cruzadas
108
5.8 Correlações Cruzadas
Com o objetivo de se verificar a relação de influência das variáveis explicativas nas
variáveis dependentes, foram construı́das e analisadas as funções de auto-correlações cruzadas
entre estas variáveis. As mesmas, são apresentadas a seguir.
Figura 5.51 Função de Correlação Cruzada
Y1 vs X1
Figura 5.52 Função de Correlação Cruzada
Y1 vs X2
Figura 5.53 Função de Correlação Cruzada Y1 vs X3
5.8.1 Análise da Correlação Cruzada entre Y1 vs X1
Observa-se na Figura 5.51, correspondente a Correlação Cruzada entre Y e X1 que
não existe spike no lag 0. Logo o modelo pode apresentar defasagem de 1 lag, percebe-se
também que os lag’s 1 e 2 apresentam correlação significativa e após este spike o gráfico
apresenta um decaimento imediatamente para zero, indicando que não há necessidade de
parâmetro no denominador para o modelo de função de transferência.
SILVA, F.L.
PPGME/UFPA
5.8 Correlações Cruzadas
109
5.8.2 Análise da Correlação Cruzada entre Y1 vs X2
Observa-se na Figura 5.52, correspondente a Correlação Cruzada entre Y e X2 que
não há presença de spike significativo no lag 0, porém observa-se que existe correlação
nos lag’s -3 e -6 caracterizando um modelo com feedback. Portanto, será necessário préajustar também a série de saı́da Y1.
5.8.3 Análise da Correlação Cruzada entre Y1 vs X3
A Correlação cruzada entre Y e X3 representada na Figura 5.53, mostra que não
há spike no lag 0, nem nos lag’s positivos, e verifica-se que há presença de correlação
significativa no lag -2. Este comportamento é um indicativo de modelo com feedback.
Sendo assim, é necessário pré-ajustar também a série de entrada Y1. A FCC apresenta
um decaimento exponencial a partir do lag 5, indicando possivelmente a necessidade de
parâmetros no denominador do modelo de função de transferência.
5.8.4 Ajuste dos Modelos de Função de Tranferência
A partir das análises feitas sobre as funções de correlação cruzada, testou-se vários
modelos de função de transferência, sendo que, em todos os modelos houve a necessidade
de se fazer o ajuste da componente de erro ou ruı́do no modelo final da função de transferência. Alguns desses modelos, apresentados na forma de operador atraso B, cujos os
respectivos resultados e análises, estão apresentados a seguir:
M odelo1 :
Y1t = ($01 − $11 B)X1t−1 + $02 X2t + ($03 − $13 B 5 )X3t + (1 − θB)at (5.7)
M odelo 2 :
M odelo3 :
SILVA, F.L.
Y1t = ($01 − $11 B)X1t−1 + ($03 − $13 B 5 )X3t + (1 − θB)at
Y1t =
($01 − $11 B)
X1t + ($03 − $13 B 5 )X3t + (1 − θB)at
(1 − δ11 B)
(5.8)
(5.9)
PPGME/UFPA
5.8 Correlações Cruzadas
110
5.8.5 Estimativas para a Estruturação do Modelo 1 em 5.7
Tabela 5.8 Cálculo dos Parâmetros Estimados para o Modelo de F.T.
Parâmetros
Estimativas
E.P
t-valor
aproxP r > |t|
Lag
Variável
Deslocamento
MU
MA1,1 (θ)
NUM1 ($01 )
NUM1,1 ($11 )
NUM2 ($02 )
NUM3 ($03 )
NUM1,1 ($13 )
3.026
-0.363
-0.024
-0.023
-0.411
0.013
-0.052
1.412
0.070
0.011
0.011
0.316
0.026
0.023
2.14
-5.21
-2.17
-2.18
-1.30
0.50
-2.28
0.032
< 0.000
0.029
0.029
0.194
0.618
0.023
0
1
0
1
0
0
5
Y1
Y1
X1
X1
X2
X3
X3
0
0
1
1
0
0
0
Através das Tabela 5.8, pode-se observar que as estimativas dos parâmetros $01 e
$11 , correspondente à variável X1, e à estimativa $13 correspondente à variável X3 e a
estimativa do parâmetro média móvel θ apresentam estatı́sticas t significativas a 5%. E,
portanto serão utilizadas para a formulação do modelo de função de tranferência Equação
5.10.
Y1t = (−0, 024+0, 023B)X1t−1 −1, 30X2t +(0, 013+0, 015B 5 )X3t +(1+0, 362B)at (5.10)
Os números em destaque na tabela 5.8, referem-se à estatı́stica t. Onde, para valores
de |t| > 2, 00 as estimativas dos parâmetros para o modelo são consideradas significativas
ao nı́vel de 5
SILVA, F.L.
PPGME/UFPA
5.8 Correlações Cruzadas
111
5.8.6 Análise Resı́dual para o Modelo de F.T em 5.7
Tabela 5.9 Estudo das Auto correlações dos Resı́duos
Lag
χ2
Grau de Liberdade
P r > χ2
6
12
18
24
7.70
14.64
16.91
20.24
5
11
17
23
0.173
0.199
0.461
0.627
Auto correlações
0.035
0.134
-0.064
-0.013
0.048 -0.162 -0.065 -0.025 -0.063
-0.004 0.019 -0.114 0.030 -0.039
-0.026 -0.056 0.025 -0.013 0.044
-0.010 -0.041 -0.089 0.065 0.030
Tabela 5.10 Estudo das Correlação Cruzada dos Resı́duos vs X1
Lag
χ2
Grau de Liberdade
P r > χ2
5
11
17
23
0.90
7.89
11.95
18.25
5
11
17
23
0.970
0.723
0.803
0.744
Correlação Cruzada
0.009
-0.003
-0.022
0.101
0.023 -0.032 -0.009 0.054 -0.007
-0.066 0.072 0.055 0.072 -0.133
-0.057 0.068 0.000 0.047 0.102
-0.065 -0.054 -0.010 -0.120 -0.023
Tabela 5.11 Estudo das Correlação Cruzada dos Resı́duos vs X2
Lag
χ2
Grau de Liberdade
P r > χ2
Correlação Cruzada
5
11
17
23
3.31
7.05
13.49
20.46
6
12
18
24
0.769
0.855
0.761
0.670
0.013 -0.014 -0.078 0.080 -0.064 -0.007
0.023 -0.015 0.057 0.011 0.076 0.097
-0.097 -0.020 -0.067 0.082 0.040 0.102
0.010 0.102 -0.115 0.004 0.094 -0.056
Tabela 5.12 Estudo das Correlação Cruzada dos Resı́duos vs X3
Lag
χ2
Grau de Liberdade
P r > χ2
Correlação Cruzada
5
11
17
23
2.01
8.04
13.30
19.85
5
11
17
23
0.848
0.709
0.716
0.651
0.004 0.072 -0.011 -0.038 0.059 0.010
0.093 -0.094 0.081 0.006 0.021 0.081
-0.060 0.073 -0.094 -0.075 0.051 0.033
0.132 0.040 -0.071 -0.086 0.022 -0.041
Para o modelo 1 proposto em 5.10, observa-se que a avaliação das auto-correlações dos
resı́duos Tabela 5.9, têm estatı́sticas Q não significativas o que indica que os resı́duos desse
modelo preliminar de função de transferência são ruı́dos brancos. Deste modo, o modelo
se ajustou adequadamente aos dados. Além do mais, o cheque da correlação cruzada
dos resı́duos com as variáveis X1, X2 e X3 na entrada Tabela 5.10 a 5.11, apresentam correlações cruzadas dos resı́duos não significativas, evidenciando que as funções de
transferência relacionadas a essas variáveis são adequadas.
SILVA, F.L.
PPGME/UFPA
5.8 Correlações Cruzadas
112
5.8.7 Estimativas para a Estruturação do Modelo 2
Tabela 5.13 Cálculo dos Parâmetros Estimados para o Modelo de F.T.
Parâmetros
Estimativas
E.P
t-valor
aproxP r > |t|
Lag
Variável
Deslocamento
MU
MA1,1 (θ)
NUM1 ($01 )
NUM1,1 ($11 )
NUM3 ($03 )
NUM1,1 ($13 )
3.257
-0.372
-0.026
-0.023
-0.002
-0.052
1.408
0.069
0.011
0.011
0.023
0.023
2.31
-5.40
-2.40
-2.19
-0.07
-2.27
0.021
< 0.0001
0.016
0.029
0.947
0.024
0
1
0
1
0
5
Y1
Y1
X1
X1
X3
X3
0
0
1
1
0
0
Através das Tabela 5.13, pode-se observar que as estimativas dos parâmetros $01 , $11 ,
correspondente à variável X1, e à estimativa
timativa do parâmetro média móvel θ
$13 correspondente à variável X3 e à es-
apresentam estatı́sticas t significativas a 5%.
E, portanto serão utilizadas para a formulação do modelo de função de tranferência (Eq.
5.11).
Y1t = (−0, 026 + 0, 023B)X1t−1 + (0, 002 + 0, 052B 5 )X3t + (1 + 0, 372B)at
(5.11)
5.8.8 Análise Resı́dual para o Modelo de F.T em 5.8
Tabela 5.14 Estudo das Auto correlações dos Resı́duos
Lag
χ2
Grau de Liberdade
P r > χ2
6
12
18
24
7.45
15.16
18.39
22.08
5
11
17
23
0.189
0.175
0.365
0.516
Auto correlações
0.037
0.132
-0.055
-0.010
0.053 -0.154 -0.059 -0.027 -0.071
-0.018 0.017 -0.132 0.025 -0.039
-0.025 -0.081 0.021 -0.022 0.062
-0.008 -0.040 -0.096 0.070 0.026
Para o modelo proposto em 5.11, observa-se que a avaliação das auto-correlações dos
resı́duos Tabela 5.14, têm estatı́sticas Q não significativas o que indica que os resı́duos
desse modelo de função de transferência são ruı́dos brancos. Deste modo, o modelo se
ajustou adequadamente aos dados.
SILVA, F.L.
PPGME/UFPA
5.8 Correlações Cruzadas
113
Tabela 5.15 Estudo das Correlação Cruzada dos Resı́duos vs X1
Lag
χ2
Grau de Liberdade
P r > χ2
5
11
17
23
0.93
6.95
10.50
16.19
5
11
17
23
0.968
0.803
0.881
0.847
Correlação Cruzada
0.009 0.023 -0.031 -0.013
-0.003 -0.064 0.073 0.046
-0.017 -0.055 0.062 0.010
0.088 -0.061 -0.061 -0.007
0.055 -0.006
0.056 -0.125
0.049 0.092
-0.116 -0.022
Tabela 5.16 Estudo das Correlação Cruzada dos Resı́duos vs X3
Lag
χ2
Grau de Liberdade
P r > χ2
Correlação Cruzada
5
11
17
23
1.82
7.59
12.62
18.65
5
11
17
23
0.873
0.749
0.762
0.721
0.003 -0.058 -0.020 -0.045 0.058 0.011
0.093 -0.096 0.087 0.002 0.019 0.062
-0.049 0.073 -0.096 -0.069 0.059 0.023
0.121 0.033 -0.070 -0.089 0.028 -0.039
Através do cheque da correlação cruzada dos resı́duos com as variáveis X1, e X3
na entrada Tabelas 5.15 e 5.16, apresentam correlações cruzadas dos resı́duos não significativas, evidenciando que as funções de transferência relacionadas a essas variáveis são
adequadas.
5.8.9 Estimativas para a Estruturação do Modelo 3 em 5.9
Tabela 5.17 Cálculo dos Parâmetros Estimados para o Modelo de F.T.
Parâmetros
Estimativas
E.P
t-valor
aproxP r > |t|
Lag
Variável
Deslocamento
MU
MA1,1 (θ)
NUM1 ($01 )
NUM1,1 ($11 )
DEM1,1 (δ11 )
NUM3 ($03 )
NUM1,1 ($13 )
4.176
-0.372
-0.003
-0.027
-0.0525
0.0004
-0.053
1.316
0.069
0.012
0.011
0.296
0.026
0.023
3.17
-5.38
-0.21
2.34
-1.77
0.01
-2.31
0.002
< 0.0001
0.834
0.019
0.077
0.988
0.021
0
1
0
1
1
0
5
Y1
Y1
X1
X1
X1
X3
X3
0
0
1
1
1
0
0
Através das Tabela 5.17, pode-se observar que as estimativas dos parâmetros $11 , δ11 ,
correspondente à variável X1, e à estimativa $13 correspondente à variável X3 e à estimativa do parâmetro média móvel θ apresentam estatı́sticas t significativas a 5%. E,
portanto serão utilizadas para a formulação do modelo de função de tranferência (Eq.
5.12).
Y1t =
(−0, 003 − 0, 027B)
X1t + (0, 0004 + 0, 053B 5 )X3t + (1 + 0, 372B)at
(1 − 0, 525B)
SILVA, F.L.
(5.12)
PPGME/UFPA
5.8 Correlações Cruzadas
114
5.8.10 Análise Resı́dual para o Modelo 3 de F.T em 5.9
Tabela 5.18 Estudo das Auto correlações dos Resı́duos
Lag
χ2
Grau de Liberdade
P r > χ2
6
12
18
24
8.09
16.22
18.33
22.39
5
11
17
23
0.152
0.133
0.369
0.497
Auto correlações
0.040
0.137
-0.041
-0.005
0.059 -0.151 -0.057 -0.040 -0.086
-0.003 0.016 -0.133 0.022 -0.048
-0.015 -0.060 0.034 -0.012 0.054
-0.014 -0.045 -0.105 0.066 0.027
Tabela 5.19 Estudo das Correlação Cruzada dos Resı́duos vs X1
Lag
χ2
Grau de Liberdade
P r > χ2
Correlação Cruzada
5
11
17
23
2.53
5.98
10.82
18.11
4
10
16
22
0.640
0.817
0.820
0.699
-0.008 -0.009 0.088 0.036 -0.016 0.059
-0.006 -0.017 -0.075 0.075 0.050 0.061
-0.126 -0.007 -0.056 0.055 0.011 0.050
0.095 0.090 -0.055 -0.073 -0.010 -0.109
Tabela 5.20 Estudo das Correlação Cruzada dos Resı́duos vs X3
Lag
χ2
Grau de Liberdade
P r > χ2
Correlação Cruzada
5
11
17
23
2.90
8.50
14.04
19.56
5
11
17
23
0.715
0.668
0.664
0.668
0.004 0.079 0.065 -0.005 0.065 0.012
0.093 -0.096 0.083 0.008 0.023 0.058
-0.048 0.074 -0.101 -0.074 0.064 0.028
0.124 0.049 -0.033 -0.088 0.022 -0.037
Para o modelo proposto em 5.12, observa-se que a avaliação das auto-correlações dos
resı́duos Tabela 5.18, apresenta estatı́sticas Q não significativas, o que indica que os
resı́duos desse modelo de função de transferência são ruı́dos brancos. Deste modo, o modelo se ajustou adequadamente aos dados. Além do mais, o cheque da correlação cruzada dos
resı́duos com as variáveis X1, e X3 na entrada Tabela 5.19 e 5.20, apresentam correlações
cruzadas dos resı́duos não significativas evidenciando que as funções de transferência relacionadas a essas variáveis são adequadas.
SILVA, F.L.
PPGME/UFPA
5.8 Correlações Cruzadas
115
5.8.11 Seleção do Melhor Modelo para o Nı́vel de Umidade
Ao comparar os ajustes fornecidos pelos três modelos Figuras 5.54 a 5.56, verifica-se
que a Figura 5.54, gerada a partir do teste de ajuste, foi o que produziu menor erro
quadrático médio equivalente à MSE = 1,049.
Figura 5.54 Ajuste do Modelo 5.10 de Função
de Tranferência
Figura 5.55 Ajuste do Modelo 5.11 de Função
de Tranferência
Figura 5.56 Ajuste do Modelo 5.12 de Função de Tranferência
Um outro método de comparação para se verificar e selecionar o modelo que melhor
se ajustou aos dados é utilizando os critérios de Akaike e SBC , onde o modelo que
apresentar menores valores nessas estatı́sticas é considerado o que apresenta melhor ajuste.
Portanto, através da Tabela 5.21, pode-se verificar que o segundo modelo descrito em 5.11
é o que apresenta melhores resultados ao descrever o padrão do processo, ou seja, é o que
melhor explica a dinâmica da série gerada pela variável nı́vel de umidade do processo.
SILVA, F.L.
PPGME/UFPA
5.8 Correlações Cruzadas
116
Tabela 5.21 Critérios para Seleção do Melhor Modelo em Ajuste Ajustado
Critério
Modelo 1
Modelo 2
Modelo 3
AIC
SBC
MSE
RMSE
580.482
603.393
1.049
1.024
580.223
599.861
1.063
1.036
583.692
606.603
1.073
1.036
5.8.12 Teste de Validação para os Modelos do Nı́vel de Umidade
Esses modelos foram avaliados e validados com a aplicação de um conjunto de 53
observações separadas do banco de dados. Em todos os casos as funções de transferência
relacionadas foram adequadas, isto é, os resı́duos apresentaram-se não correlacionados e as
correlações cruzadas entre os resı́duos e as variáveis de controle foram não significativas.
Nas Figuras 5.57, 5.58 e 5.59 são apresentados os resultados de cada modelo e, na Tabela
5.22, são apresentados os critérios de comparação.
Figura 5.57 Teste de Validação do 1o Modelo
SILVA, F.L.
Figura 5.58 Teste de Validação do 2o Modelo
PPGME/UFPA
5.8 Correlações Cruzadas
117
Figura 5.59 Teste de Validação do 3o Modelo
Tabela 5.22 Critérios para Seleção do Melhor Modelo em Validação
Critério
Modelo 1
Modelo 2
Modelo 3
AIC
SBC
MSE
RMSE
160.524
173.622
1.292
1.136
158.528
169.755
1.292
1.136
153.057
166.155
1.074
1.036
Para o ajuste em validação pode-se observar que o modelo descrito na equação 5.12 e
representado na Figura (5.59) apresentou melhores resultados. Portanto, este modelo será
utilizado na comparação entre as duas classes de modelos dinâmicos.
SILVA, F.L.
PPGME/UFPA
5.9 Modelagem para a Variável Nı́vel de Soda
118
5.9 Modelagem para a Variável Nı́vel de Soda
5.9.1 Análise das FAC e FACP
As correlações cruzadas entre a variável Y2 (soda) e as variáveis de controle são
apresentadas nas Figuras 5.60 a 5.62.
Figura 5.60 Função de Correlação Cruzada
Y2 vs X1
Figura 5.61 Função de Correlação Cruzada
Y2 vs X2
Figura 5.62 Função de Correlação Cruzada Y2 vs X3
Através de análise nas Funções de autocorrelação Cruzada, verificou-se os seguintes
fatores:
• As variáveis resposta Y2 (soda) e X1 (condensado) não apresentam correlação entre
si. Deste modo, essa variável pode ser descartada do modelo.
• Quanto às variáveis X2 (vapor) e X3 (rotação), nota-se que não apresentam correlação significativa no lag zero, indicando talvez a ocorrência de defasagem e a
possı́vel presença de modelo com feedback devido a presença de lags negativos com
correlações significativas.
SILVA, F.L.
PPGME/UFPA
5.9 Modelagem para a Variável Nı́vel de Soda
119
5.9.2 Ajuste do Modelo de Função de Tranferência - Soda
Sabe-se que, devido os fatores observados em 5.10.1, torna-se difı́cil encontrar modelos
de funções de transferência. Porém, foram testados vários modelos de função de transferência, sendo que, em todos os modelos houve a necessidade de se fazer o ajuste da
componente de erro ou ruı́do no modelo final da função de transferência. Esses modelos foram apresentados na forma de operador atraso B, com as respectivas estruturas
funcionais.
M odelo 1 :
M odelo 2 :
Y2t =
$01
X2t−2 + $03 X3t + (1 − θB)at
(1 − δ11 B)
(5.13)
Y2t = ($01 − $11 B)X2t−1 + ($03 − $13 B 5 )X3t + (1 − θB)at
(5.14)
5.9.3 Estimativas para a Estruturação do Modelo 1 em 5.13
Tabela 5.23 Cálculo dos Parâmetros Estimados para o Modelo de F.T.
Parâmetros
Estimativas
E.P
t-valor
aproxP r > |t|
Lag
Variável
Deslocamento
MU
MA1,1 (θ)
NUM1 ($01 )
NUM1,1 ($11 )
NUM2 ($02 )
0.050
-0.551
-0.004
0.756
-0.0005
0.018
0.064
0.003
0.233
0.0003
2.82
-8.65
-1.50
3.24
-1.84
0.0047
< 0.0001
0.1339
0.0012
0.0664
0
1
0
1
0
Y2
Y2
X2
X2
X3
0
0
2
2
0
Através das Tabela 5.23, pode-se observar que as estimativas dos parâmetros $11 , δ11 ,
correspondente à variável X2, e à estimativa
timativa do parâmetro média móvel θ
$13 correspondente à variável X3 e à es-
apresentam estatı́sticas t significativas a 5%. E,
portanto, serão utilizadas para a formulação do modelo 1 de função de tranferência em
5.13. Portanto, as seguintes estimativas foram obtidas para o modelo 1:
M odelo 1 :
SILVA, F.L.
Y2t =
(−0, 004
X2t−2 − 0, 005X3t + (1 + 0, 551B)at
(1 − 0, 756B)
(5.15)
PPGME/UFPA
5.9 Modelagem para a Variável Nı́vel de Soda
120
5.9.4 Análise Resı́dual para o Modelo de F.T em 5.15
Tabela 5.24 Estudo das Autocorrelação dos Resı́duos do Modelo
Lag
χ2
Grau de Liberdade
P r > χ2
6
12
18
24
3.93
7.26
8.41
10.89
5
11
17
23
0.560
0.778
0.957
0.984
Autocorrelações
-0.024
-0.034
0.020
-0.021
-0.103 -0.068 0.032 -0.047 -0.023
-0.048 -0.015 -0.049 0.076 -0.063
-0.026 0.048 0.038 -0.020 0.010
-0.041 0.070 0.046 0.004 0.044
Tabela 5.25 Estudo das Correlação Cruzada dos Resı́duos vs X2
Lag
χ2
Grau de Liberdade
P r > χ2
5
11
17
23
4.18
7.33
9.66
12.37
5
11
17
23
0.523
0.772
0.917
0.964
Correlação Cruzada
0.018
-0.049
0.032
0.084
-0.036 0.058 -0.117 0.036 0.039
-0.007 0.062 0.035 0.021 -0.091
-0.063 0.022 -0.005 0.004 -0.080
-0.009 0.068 -0.041 0.010 0.020
Tabela 5.26 Estudo das Correlação Cruzada dos Resı́duos vs X3
Lag
χ2
Grau de Liberdade
P r > χ2
5
11
17
23
1.57
5.14
7.30
8.35
6
12
18
24
0.955
0.953
0.987
0.999
Correlação Cruzada
0.006 0.019 0.038 0.071 -0.006
0.027 0.017 0.013 -0.092 0.088
0.029 -0.024 0.043 -0.059 0.057
0.044 0.018 0.024 0.032 -0.014
0.033
-0.026
0.031
-0.036
Para o modelo proposto em 5.15, observa-se que a avaliação das auto-correlações dos
resı́duos apresentam estatı́sticas Q não significativas (Tabela 5.24), o que indica que os
resı́duos desse modelo de função de transferência são ruı́dos brancos. Deste modo, o modelo
se ajustou adequadamente aos dados. Além do mais, o cheque da correlação cruzada dos
resı́duos com as variáveis X1, e X3 na entrada Tabelas 5.25 e 5.26, apresentam correlações
cruzadas dos resı́duos não significativas, evidenciando que as funções de transferência
relacionadas a essas variáveis são adequadas.
SILVA, F.L.
PPGME/UFPA
5.9 Modelagem para a Variável Nı́vel de Soda
121
5.9.5 Estimativas para a Estruturação do Modelo 2 em 5.14
Tabela 5.27 Cálculo dos Parâmetros Estimados para o Modelo de F.T.
Parâmetros
Estimativas
E.P
t-valor
aproxP r > |t|
Lag
Variável
Deslocamento
MU
MA1,1 (θ)
NUM1 ($01 )
NUM1,1 ($11 )
NUM2 ($02 )
0.044
-0.5663
-0.0024
0.0054
-0.0006
0.012
0.064
0.003
0.003
0.0003
3.69
-8.86
-0.73
1.64
-2.08
0.0002
< 0.0001
0.4633
0.1014
0.0377
0
1
0
1
0
Y2
Y2
X2
X2
X3
0
0
2
2
0
Através das Tabela 5.27, pode-se observar que as estimativas do parâmetro $11 da
variável X2 é significativo a 10% e a estimativa
$13 correspondente à variável X3 e à
estimativa do parâmetro média móvel θ apresentam estatı́sticas t significativas a menos
5% e menos de 0,001%, respectivamente. E, portanto serão utilizadas para a formulação do
modelo 2 de função de tranferência, descrito em 5.14. Portanto, as seguintes estimativas
foram obtidas para o modelo 2:
M odelo 2 :
SILVA, F.L.
Y2t = (−0, 0024 + 0, 0054B)X2t−1 − 0, 0006X3t + (1 + 0, 5663B)at (5.16)
PPGME/UFPA
5.9 Modelagem para a Variável Nı́vel de Soda
122
5.9.6 Análise Resı́dual para o Modelo de F.T em 5.16
Tabela 5.28 Estudo das Autocorrelação dos Resı́duos do Modelo
Lag
χ2
Grau de Liberdade
P r > χ2
Autocorrelações
6
12
18
24
5.00
8.22
9.17
12.12
5
11
17
23
0.416
0.694
0.935
0.969
-0.022 -0.110 -0.063 0.0574 -0.072 -0.011
-0.019 -0.045 0.008 -0.049 0.078 -0.067
0.021 -0.026 0.054 0.014 -0.013 0.008
-0.020 0.024 0.088 0.041 -0.005 0.052
Tabela 5.29 Estudo das Correlação Cruzada dos Resı́duos vs X2
Lag
χ2
Grau de Liberdade
P r > χ2
Correlação Cruzada
5
11
17
23
4.35
7.71
10.72
14.19
5
11
17
23
0.500
0.739
0.871
0.921
-0.012 0.020 0.012 -0.145 0.002 0.027
-0.070 -0.010 0.051 0.036 0.005 -0.091
0.039 -0.073 0.017 0.003 0.012 -0.091
0.093 -0.014 0.074 -0.058 0.010 0.012
Tabela 5.30 Estudo das Correlação Cruzada dos Resı́duos vs X3
Lag
χ2
Grau de Liberdade
P r > χ2
5
11
17
23
2.10
5.84
8.7
10.50
6
12
18
24
0.910
0.924
0.960
0.992
Correlação Cruzada
0.012 0.022 0.023 0.094 -0.024
0.014 0.003 0.002 -0.100 0.087
0.031 -0.033 0.056 -0.079 0.058
0.049 0.008 0.034 0.032 -0.020
0.012
-0.035
0.033
-0.052
Para o modelo proposto na (Eq. 5.16), observa-se que a avaliação das auto-correlações
dos resı́duos apresentam estatı́sticas Q não significativas o que indica que os resı́duos desse
modelo de função de transferência são ruı́dos brancos Tabela 5.28. Deste modo, o modelo
se ajustou adequadamente aos dados. Além do mais, o cheque da correlação cruzada dos
resı́duos com as variáveis X1, e X3 na entrada Tabela 5.29 e 5.30, apresentam correlações
cruzadas dos resı́duos não significativas evidenciando que as funções de transferências
relacionadas a essas variáveis são adequadas.
SILVA, F.L.
PPGME/UFPA
5.9 Modelagem para a Variável Nı́vel de Soda
123
5.9.7 Seleção do Melhor Modelo para o Nı́vel de Soda
Ao comparar os ajustes fornescidos pelos dois modelos Figuras 5.63 e 5.64, verificase que praticamente não existe distinção entre os mesmos, ou seja, ambos apresentam a
mesma capacidade de explicar a dinâmica da variável nı́vel de soda no processo.
Figura 5.63 Ajuste do Modelo 5.15 de Função
de Tranferência
Figura 5.64 Ajuste do Modelo 5.16 de Função
de Tranferência
A mesma conclusão é verificada quando compara-se os critérios de Akaike e SBC ,
apresentados na Tabela 5.31.
Tabela 5.31 Critérios para Seleção do Melhor Modelo Ajustado
SILVA, F.L.
Critério
Modelo 1
Modelo 2
AIC
SBC
MSE
RMSE
-1165.60
-1149.18
0.00015
0.01221
-1165.46
-1149.05
0.00015
0.01221
PPGME/UFPA
5.9 Modelagem para a Variável Nı́vel de Soda
124
5.9.8 Teste de Validação para os Modelos do Nı́vel de Soda
Para a avaliação desses modelos, ou seja, para a validação, foi aplicado os mesmos
critérios utilizados no processo de validação do modelo para a variável nı́vel de umidade.
Constatou-se que em todos os casos as funções de transferências relacionadas foram adequadas, isto é, os resı́duos apresentaram-se não correlacionados e as correlações cruzadas
entre os resı́duos e as variáveis de controle foram não significativas. Nas Figuras 5.65 e
5.66, são apresentados os resultados de cada modelo e na Tabela 5.32 estão disponı́veis os
critérios utilizados na seleção.
Figura 5.65 Teste de Validação do 1o Modelo
Figura 5.66 Teste de Validação do 2o Modelo
Tabela 5.32 Critérios para Seleção do Melhor Modelo Validado
Critério
Modelo 1
Modelo 2
AIC
SBC
MSE
RMSE
-360.878
-349.406
0.00003
0.00550
-366.857
-357.397
0.000027
0.005192
Para o ajuste em validação, pode-se observar que o modelo 2 descrito em 5.16, apresentou melhores resultados.
SILVA, F.L.
PPGME/UFPA
5.10 Conclusões
125
5.10 Conclusões
Levando em consideração todos os testes de ajuste e validação realizados para os modelos, assim como, os critérios de seleção, pode-se concluir em relação aos modelos de função
de tranferência ajustados que:
• O modelo que melhor representa o real comportamento do padrão da variável nı́vel de
umidade presente na polpa de cristais de hidrato no processo em estudo é o modelo
descrito na (Eq. 5.12).
Y1t =
(−0, 003 − 0, 027B)
X1t + (0, 0004 + 0, 053B 5 )X3t + (1 + 0, 372B)at (5.17)
(1 − 0, 525B)
• Já para a variável controle do nı́vel de soda cáustica presente na polpa de cristais
de hidrato, constatou-se que qualquer modelo dentre os ajustados pode representar
o comportamento desta variável dentro do processo, pois devido os critérios AIC e
BIC ambos conseguiram capturar o padrão gerador do processo. São eles:
Y2t =
−0, 004
X2t−2 − 0, 005X3t + (1 + 0, 551B)at
(1 − 0, 756B)
Y2t = (−0, 0024 + 0, 0054B)X2t−1 − 0, 0006X3t + (1 + 0, 5663B)at
(5.18)
(5.19)
No entanto, o modelo descrito na (Eq. 5.19) apresentou melhores respostas em validação. Assim, este modelo será utilizado na avaliação comparativa de resultados
entre as classes de modelos dinâmicos dentro das metodologias estudadas.
Portanto, baseado nos ajustes de validação dos modelos estudados, conclui-se que o
modelo dinâmico multivariado que melhor capturou o padrão gerador do processo
de filtração e secagem da polpa de cristais de hidrato foi o modelo de Rede Neural
Multicamada Direta com algoritmo de treinamento Backpropagation. No entanto, é
importante resaltar que ambos os modelos foram significativos em relação ao objetivo
do trabalho, e para a futura implementação de um desses modelos no controle do
processo na planta, é de muitı́ssima importância levar em consideração o estudo de
viabilidade de ambas as situações.
SILVA, F.L.
PPGME/UFPA
Capı́tulo 6
Considerações Finais
O referente trabalho cumpriu com o próposito inicial especificado em seu objetivo, ou
seja, propor modelos dinâmicos multivariados relacionando a sua viabilidade no monitoramento da filtração e secagem da polpa de cristais de hidrato no processo de fabricação
da alumina e dentre estes, selecionar o mais significativo. Para tal, foram avaliadas as
aproximações entre as respostas originais do processo e as fornecidas através da utilização
das metodologias de modelagem: Rede Neural Artificial e Modelos ARIMA Multivariado
com auxı́lio de Função de Tranferência.
É muito importante ressaltar que as metodologias de séries temporais e redes neurais são
bem diferentes, no sentido de que, em redes neurais, procura-se recuperar a série em estudo
sem a preocupação de separar o sinal do ruı́do. Assim, em redes neurais praticamente toda
a série, incluindo a informação e o ruı́do, é recuperada enquanto na metodologia de séries
temporais procura-se recuperar somente o sinal ou a informação. Neste sentido, o erro
quadrático médio pode não ser adequado para comparação dos métodos, uma vez que ele
é resultado da diferença média entre o modelo ajustado e a série observada.
Além deste fato, em Modelos de Séries Temporais com Função de Transferência, deve-se
levar em consideração a elevada variabilidade presente nas séries. Nesse caso, para trabalhos futuros talvez fosse interessante a aplicação de modelos que capturem, além do
nı́vel da série, também a sua variabilidade, ou seja, recomenda-se a aplicação de modelos
da classe dos ARCH, ou seja, modelos Auto-regressivos com heterocedásticidade
condicional generalizado GARCH multivariados. E, devido a ocorrência de modelos tipo feedback, talvez sejam obtidos melhores resultados com a aplicação aos dados
de modelos da classe dos modelos Auto-regressivo vetorial VAR. No entanto, não
se trabalhou estes tipos de modelos devido à proposta inicial do trabalho, em explorar
modelos com funções de transferência.
127
Finalizando, é muito importante deixar claro que, isso não implica que a estrutura de
rede neural proposta, assim como, o modelo de função de transferência ajustados são os
melhores e mais adequados para controle deste processo pois, pode-se para os mesmos
dados, ajustar redes com estruturas ainda mais significativas porém com outros padrões e
parâmetros de treinamento e validação, ou ainda com outras dinâmicas, não se encaixando
mais a este tipo de Rede Neural.
SILVA, F.L.
PPGME/UFPA
Apêndice A
ANEXO
A.1 Introdução
Neste apêndice, será apresentado, além das tabelas referentes ao banco de dados os
algoritmos implementados para a obtenção das redes neurais e do modelo de séries temporais multivariado.
A.1.1 Algoritmo para Obtenção de Rede Neural - MATLAB 7.0
4
%%%%%% %%%%%%%%%%%%%%%%%%%%%%%%%%%%%% %%%%%%
NORMALIZAÇÃO DAS VARIAVEIS POR DESVIO PADRÃO
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
condnorm=(cond-mean(cond))/(std(cond));
vapnorm=(vap-mean(vap))/(std(vap));
rotnorm=(rot-mean(rot))/(std(rot));
umidnorm=(umid-mean(umid))/(std(umid));
sodnorm=(sod-mean(sod))/(std(sod));
condnormv=(condv-mean(condv))/(std(condv));
vapnormv=(vapv-mean(vapv))/(std(vapv));
rotnormv=(rotv-mean(rotv))/(std(rotv));
umidnormv=(umidv-mean(umidv))/(std(umidv));
sodnormv=(sodv-mean(sodv))/(std(sodv));
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
DESNORMALIZAÇÃO DO DESVIO
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
umid_desnorpad=(Umidade_sai_rede_teste*std(umidv))+ mean(umidv);
sod_desnorpad= (soda_sai_rede_teste*std(sodv))+ mean(sodv);
Figura A.1 Gera a Normalização por Desvio Padrão
A.1 Introdução
129
clc
clear
load filtro_mod
pa1=now;
N=498;
Inicio=datestr(now)
obj = findobj(gcf, 'Tag', 'epochs');
epochs = str2double(get(obj,'String'));
obj = findobj(gcf, 'Tag', 'goal');
goal = str2double(get(obj,'String'));
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% %%%%
ESCOLHA DOS PADROES APRESENTADOS A REDE
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
1
obj = findobj(gcf, 'Tag', 'nap');
nap = str2double(get(obj,'String'));
obj = findobj(gcf, 'Tag', 'ndp');
ndp = str2double(get(obj,'String'));
obj = findobj(gcf, 'Tag', 'nav');
nav = str2double(get(obj,'String'));
obj = findobj(gcf, 'Tag', 'ndv');
ndv = str2double(get(obj,'String'));
space = 1; % índice que regula os valores que serão apresentados no treinamento na rede
i = [1:space:(ndp-nap)];
iv = [1:space:(ndv-nav)];
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
VARIÁVEIS DO PROCESSO
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
cond=condensado(nap:ndp);
vap=vapor(nap:ndp);
rot=rotacao(nap:ndp);
umid=umidade(nap:ndp);
sod=soda(nap:ndp);
[m,n] = size(cond);
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%ENTRADAS PARA VALIDAÇÃO.
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
condv=condensado(nav:ndv);
vapv=vapor(nav:ndv);
rotv=rotacao(nav:ndv);
umidv=umidade(nav:ndv);
sodv=soda(nav:ndv);
%%%%%% %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
TESTE PARA VERIFICAR SE O TREINO ESTA SENDO EXECUTADO
%%%%%%%%%%%%%%%%%%%%%%%%%%% %%%%%%%%%%%%%
cond = cond(i);
vap = vap(i);
rot = rot(i);
umid = umid(i);
sod = sod(i);
condv = condv(iv);
vapv = vapv(iv);
rotv = rotv(iv);
umidv = umidv(iv);
sodv = sodv(iv);
Figura A.2 Padrões apresentados a rede
SILVA, F.L.
PPGME/UFPA
A.1 Introdução
130
2
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
VETORES A SEREM APRESENTADOS A REDE
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
P = [condnorm;vapnorm;rotnorm];
T = [umidnorm;sodnorm];
v.P = [condnormv;vapnormv;rotnormv];
v.T = [umidnormv;sodnormv];
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% %%%%%%%%
FUNCÃO DE TREINAMENTO DA REDE
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
net = newff([-1 1;-1 1;-1 1],[14 12 2],{'logsig' 'logsig' 'purelin'},'trainlm');
% 1ª Rede 1º momento
net = newff([-1 1;-1 1;-1 1],[12 10 2],{'tansig' 'tansig' 'purelin'},'trainlm');
% 2ª Rede 2º momento
net = newff([-1 1;-1 1;-1 1],[12 10 8 2],{'tansig' 'tansig' 'tansig' 'purelin'},'trainlm'); % 3ª Rede 3º momento
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
PARAMETROS DE TREINAMENTO - 3ª REDE
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
net.trainParam.show = 50;
net.trainParam.epochs = epochs;
net.trainParam.goal = goal;
net.trainParam.lr = 0.07;
net.trainParam.mc = 0.8;
%
%
%
%
%
% net.trainParam.lr_inc = 1.05;
% net.trainParam.lr_dec = 0.7;
% net.trainParam.max_perf_inc = 1.05;
%net.performFcn = 'msereg';
% net.performParam.ratio = 0.5;
%
%
%
%
%
Resposta da rede de 50 em 50 épocas
Nº de épocas para o treinamento e validação
Objetivo do erro a ser alcançado pela rede
Taxa de aprendizagem (0.01 a 1.5)
Taxa de momentum (0.7 a 0.9)
Taxa de Incremento da lr
Taxa de decremento lr
Incremento máximo do erro
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
EXECUTA O TREINAMENTO
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%[net,tr]=train(net,p,t,[ ],[ ],v);
[net,tr]=train(net,p,t);
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
SALVA OS PESOS
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
peso_entrada = net.IW;
peso_intermed = net.LW;
peso_bias = net.b;
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
EXECUTA TESTE E VALIDACÃO
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
sai_rede=sim(net,p);
sai_rede_testev=sim(net,v.P);
Figura A.3 Função e parâmetros de treinamento apresentados a rede
SILVA, F.L.
PPGME/UFPA
A.1 Introdução
131
3
%%%%%% %%%%%%%%%%%%%%%%%%%%%%%%%%%%%% %%%%%%
NORMALIZAÇÃO DAS VARIAVEIS NO ESPAÇO (-1, 1 )
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
ymax = 1;
ymin = -1;
% variável condensado
condmax=max(cond);
condmin=min(cond);
condmaxv=max(condv);
condminv=min(condv);
condnorm=((ymax-ymin)*(cond-condmin)/(condmax-condmin))+ymin;
condnormv=((ymax-ymin)*(condv-condminv)/(condmaxv-condminv))+ymin;
%
variável vapor
vapmax=max(vap);
vapmin=min(vap);
vapmaxv=max(vapv);
vapminv=min(vapv);
vapnorm=((ymax-ymin)*(vap-vapmin)/(vapmax-vapmin))+ymin;
vapnormv=((ymax-ymin)*(vapv-vapminv)/(vapmaxv-vapminv))+ymin;
%
variável rotação
rotmax=max(rot);
rotmin=min(rot);
rotmaxv=max(rotv);
rotminv=min(rotv);
rotnorm=((ymax-ymin)*(rot-rotmin)/(rotmax-rotmin))+ymin;
rotnormv=((ymax-ymin)*(rotv-rotminv)/(rotmaxv-rotminv))+ymin;
%
variável umidade
umidmax=max(umid);
umidmin=min(umid);
umidmaxv=max(umidv);
umidminv=min(umidv);
umidnorm=((ymax-ymin)*(umid-umidmin)/(umidmax-umidmin))+ymin;
umidnormv=((ymax-ymin)*(umidv-umidminv)/(umidmaxv-umidminv))+ymin;
%
variável soda
sodmax=max(sod);
sodmin=min(sod);
sodmaxv=max(sodv);
sodminv=min(sodv);
sodnorm=((ymax-ymin)*(sod-sodmin)/(sodmax-sodmin))+ymin;
sodnormv=((ymax-ymin)*(sodv-sodminv)/(sodmaxv-sodminv))+ymin;
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
DESNORMALIZAÇÃO DO NO ESPAÇO (-1, 1 )
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
umid1=(((Umidade_sai_rede_teste + 1)*(umidmax-umidmin))+2*umidmin)/2;
sod1=(((soda_sai_rede_teste + 1)*(sodmax-sodmin))+2*sodmin)/2;
Figura A.4 Gera a Normalização no Espaço (-1, 1)
SILVA, F.L.
PPGME/UFPA
A.1 Introdução
132
5
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
AGORA COMECA A ANÁLISE GRÁFICA DE TREINAMENTO
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
pa2=now;
Fim=datestr(now)
Figure
% Plota todos as variáveis
subplot(5,1,1), plot(condensado)
title('Condensado')
subplot(5,1,2), plot(vapor)
title('Vapor')
subplot(5,1,3), plot(rotacao)
title('Rotaçao')
subplot(5,1,4), plot(umidade)
title('Umidade')
subplot(5,1,5), plot(soda)
title('Soda')
% % %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
figure(1)
% Saída do nível de umidade
Umidade_desej=(t(1,:));
plot(Umidade_desej,'r')
hold on
%saida=(std(umid)*(saida))+mean(umid)%desnormalizaçao
Umidade_rede=(sai_rede(1,:));
plot(Umidade_rede,'k*-')
xlabel('Amostra de Treinamento')
ylabel('Nível de Umidade da Torta de Hidrato (%)')
title('SAIDA DESEJADA(Vermelho) E SAIDA DA REDE ESTIMADA (Preto)')
grid on
%% %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
figure(2)
% Erro obtido na saida do nível de umidade
erro_saida_umidade=(Umidade_desej-Umidade_rede);
plot(erro_saida_umidade,'r-')
grid on
title('ERRO DE TREINAMENTO (SAÍDA DESEJADA - SAÍDA OBTIDA PELA RNA)')
ylabel('Erro de Treinamento para o Nível de Umidade')
xlabel('Amostra de Treinamento')
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
figure(3)
% Saida do nível de soda
soda_desej=(t(2,:));
plot(soda_desej,'r-')
hold on
soda_rede=(sai_rede(2,:));
plot(soda_rede,'k*-')
xlabel('Amostra de Treinamento')
ylabel('Nível de Soda na Torta de Hidrato (%)')
title('SAIDA DESEJADA(Vermelho) E SAIDA DA REDE ESTIMADA(Preto)')
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
figure(4)
% Erro obtido na saída do nível de soda soda
erro_saida_soda=(soda_desej-soda_rede);
plot(erro_saida_soda,'r-')
grid on
title('ERRO DE TREINAMNETO (SAÍDA DESEJADA - SAÍDA OBTIDA PELA RNA)')
ylabel('Erro de Treinamento para o Nível de Soda')
Figura A.5 Gera a Análise Gráfica de Treinamento
SILVA, F.L.
PPGME/UFPA
A.1 Introdução
133
6
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
AGORA COMECA A ANÁLISE GRÁFICA DE VALIDAÇÃO
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
figure(5)
Umidade_desejv=(umidnormv);
plot(Umidade_desejv,'r')
hold on
Umidade_sai_rede_teste=(sai_rede_testev(1,:));
plot(Umidade_sai_rede_teste,'k')
xlabel('Amostra para validacao do nível de umidade')
ylabel('Saída de Validação')
title('SAIDA DESEJADA(Vermelho) E SAIDA DA REDE(Preto)')
grid on
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
figure(6)
erro_saida_umidadev=(Umidade_desejv-Umidade_sai_rede_teste);
plot(erro_saida_umidadev,'m')
grid on
title('SAIDA DE VAL. REDE - SAIDA DE VAL. DESEJADA')
ylabel('Erro Quadrático Médio de Validação ')
xlabel('Amostra de Umidade')
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
figure(7)
soda_desejv=(sodnormv);
plot(soda_desejv,'r')
hold on
soda_sai_rede_teste=(sai_rede_testev(2,:));
plot(soda_sai_rede_teste,'k')
xlabel('Amostra para validacao do nível de soda')
ylabel('Saída de Validação')
title('SAIDA DESEJADA(Vermelho) E SAIDA DA REDE(preto)')
grid on
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
figure(8)
erro_saida_soda2=(soda_desejv-soda_sai_rede_teste);
plot(erro_saida_soda2,'m')
grid on
title('SAIDA DE VAL. REDE - SAIDA DE VAL. DESEJADA')
ylabel('Erro de Validação E(W)')
xlabel('Amostra de Soda')
grid on
Figura A.6 Gera a Análise Gráfica de Validação
SILVA, F.L.
PPGME/UFPA
A.1 Introdução
134
7
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
AGORA COMECA A ANÁLISE GRÁFICA DE VALIDAÇÃO DESNORMALIZADA
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
figure (9)
plot(umid,'r')
hold on
plot(umid1,'k');
xlabel('Amostra para validacao do nível de umidade')
ylabel('Saída de Validação Desnormalizada')
title('SAIDA DESEJADA(Vermelho) E SAIDA DA REDE(preto)')
grid on
figure (10)
plot(sod,'r')
hold on
plot(sod1,'k');
xlabel('Amostra para validacao do nível de soda')
ylabel('Saída de Validação Desnormalizada')
title('SAIDA DESEJADA(Vermelho) E SAIDA DA REDE(preto)')
grid on
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
GERA OS RESUILTADOS DE VALIDAÇÃO (Nínel de Umidae e Nível de Soda)
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
a = umid1
b = sod1
Figura A.7 Gera a Análise Gráfica da Validação Desnormalizada
SILVA, F.L.
PPGME/UFPA
A.1 Introdução
135
8
function varargout = indexcaustico(varargin)
gui_Singleton = 1;
gui_State = struct('gui_Name',
mfilename, ...
'gui_Singleton', gui_Singleton, ...
'gui_OpeningFcn', @indexcaustico_OpeningFcn, ...
'gui_OutputFcn', @indexcaustico_OutputFcn, ...
'gui_LayoutFcn', [ ], ...
'gui_Callback', [ ]);
if nargin & isstr(varargin{1})
gui_State.gui_Callback = str2func(varargin{1});
end
if nargout
[varargout{1:nargout}] = gui_mainfcn(gui_State, varargin{:});
else
gui_mainfcn(gui_State, varargin{:});
end
function indexcaustico_OpeningFcn(hObject, eventdata, handles, varargin)
handles.output = hObject;
guidata(hObject, handles);
function varargout = indexcaustico_OutputFcn(hObject, eventdata, handles)
varargout{1} = handles.output;
function epochs_CreateFcn(hObject, eventdata, handles)
if ispc
set(hObject,'BackgroundColor','white');
else
set(hObject,'BackgroundColor',get(0,'defaultUicontrolBackgroundColor'));
end
function goal_CreateFcn(hObject, eventdata, handles)
if ispc
set(hObject,'BackgroundColor','white');
else
set(hObject,'BackgroundColor',get(0,'defaultUicontrolBackgroundColor'));
end
function nap_CreateFcn(hObject, eventdata, handles)
if ispc
set(hObject,'BackgroundColor','white');
else
set(hObject,'BackgroundColor',get(0,'defaultUicontrolBackgroundColor'));
end
function ndp_CreateFcn(hObject, eventdata, handles)
if ispc
set(hObject,'BackgroundColor','white');
else
set(hObject,'BackgroundColor',get(0,'defaultUicontrolBackgroundColor'));
end
function nav_CreateFcn(hObject, eventdata, handles)
if ispc
set(hObject,'BackgroundColor','white');
else
set(hObject,'BackgroundColor',get(0,'defaultUicontrolBackgroundColor'));
end
function ndv_CreateFcn(hObject, eventdata, handles)
if ispc
set(hObject,'BackgroundColor','white');
else
set(hObject,'BackgroundColor',get(0,'defaultUicontrolBackgroundColor'));
end
Figura A.8 Algorı́tmo para iniciar o treinamento e validação
SILVA, F.L.
PPGME/UFPA
A.1 Introdução
136
Figura A.9 Projeto para seleção dos dados de treinamento e validação
SILVA, F.L.
PPGME/UFPA
A.1 Introdução
137
A.1.2 Algoritmo para Obtenção do Modelo de Séries Temporais - SAS-9
data albras;
infile "e:\felix\albras100\hidrato100.txt" expandtabs;
input t y x1 x2 x3 x31;
*
format date date7.;
datalines;
ods html file='albras';
ods graphics on;
proc arima ;
i var=x1 nlag=12 outcov=x1out;
e q=1 p=1 method=ml plot;
i var=x2 nlag=12 outcov=x2out;
e q=1 p=1 method=ml plot;
i var=x31 nlag=12 outcov=x3out;
e q=1 p=(1)(3) method=ml plot;
run;
ods html close;
quit;
Figura A.10 Gera as Séries das Variáveis
SILVA, F.L.
PPGME/UFPA
A.1 Introdução
138
data albras;
infile "g:\felix\hidsod\hidsod200.txt"
expandtabs;
input t y1 y2 x1 x2 x3 @@ ;
label t
='tempo em horas'
y1
='Umidade'
y2
='soda'
x1
='condensado'
x2
='vapor'
x3
='rotacao';
run;
ods html file='albras';
ods graphics on;
proc arima ;
i var=y1 nlag=15 outcov=yresp;
i var=x1 nlag=15 outcov=x1out;
i var=x2 nlag=15 outcov=x2out;
i var=x3 nlag=15 outcov=x3out;
run;
data acf1;
set yresp;
lcl=-2*stderr;
ucl=2*stderr;
run;
proc gplot data=acf1;
plot corr*lag=1
lcl*lag=2
ucl*lag=2/overlay vminor=4 vaxis=axis1
haxis=axis2 ;
axis1 order=(-1.0 to 1.0 by 0.5)
label=(angle=90 'FAC Umidade') ;
axis2 order=(1.0 to 15 by 1.0) label=('lag
(k)');
symbol1 color=black interpol=needle
value=none width=4;
symbol2 color=black interpol=join value=none
width=1;
*title h=2 "FAC da resposta umidade";
run;
proc gplot data=acf1;
plot partcorr*lag=1
lcl*lag=2
ucl*lag=2/overlay vminor=4 vaxis=axis1
haxis=axis2 ;
axis1 order=(-1.0 to 1.0 by 0.5)
label=(angle=90 'FACP Umidade') ;
axis2 order=(1.0 to 15 by 1.0) label=('lag
(k)');
symbol1 color=black interpol=needle
value=none width=4;
symbol2 color=black interpol=join value=none
width=1;
*title h=2 "FACP da resposta umidade";
run;
data acf2;
set x1out;
lcl=-2*stderr;
ucl=2*stderr;
run;
proc gplot data=acf2;
plot corr*lag=1
lcl*lag=2
ucl*lag=2/overlay vminor=4 vaxis=axis1
haxis=axis2 ;
axis1 order=(-1.0 to 1.0 by 0.5)
label=(angle=90 'FAC X1') ;
axis2 order=(1.0 to 15 by 1.0) label=('lag
(k)');
symbol1 color=black interpol=needle
value=none width=4;
symbol2 color=black interpol=join value=none
width=1;
*title h=2 "FAC de X1";
run;
proc gplot data=acf2;
plot partcorr*lag=1
lcl*lag=2
ucl*lag=2/overlay vminor=4 vaxis=axis1
haxis=axis2 ;
axis1 order=(-1.0 to 1.0 by 0.5)
label=(angle=90 'FACP X1') ;
axis2 order=(1.0 to 15 by 1.0) label=('lag
(k)');
symbol1 color=black interpol=needle
value=none width=4;
symbol2 color=black interpol=join value=none
width=1;
*title h=2 "FACP de X1";
run;
data acf3;
set x2out;
lcl=-2*stderr;
ucl=2*stderr;
run;
proc gplot data=acf3;
plot corr*lag=1
lcl*lag=2
ucl*lag=2/overlay vminor=4 vaxis=axis1
haxis=axis2 ;
axis1 order=(-1.0 to 1.0 by 0.5)
label=(angle=90 'FAC X2') ;
axis2 order=(1.0 to 15 by 1.0) label=('lag
(k)');
symbol1 color=black interpol=needle
value=none width=4;
symbol2 color=black interpol=join value=none
width=1;
*title h=2 "FAC de X2";
run;
proc gplot data=acf3;
plot partcorr*lag=1
lcl*lag=2
ucl*lag=2/overlay vminor=4 vaxis=axis1
haxis=axis2 ;
axis1 order=(-1.0 to 1.0 by 0.5)
label=(angle=90 'FACP X2') ;
axis2 order=(1.0 to 15 by 1.0) label=('lag
(k)');
symbol1 color=black interpol=needle
value=none width=4;
symbol2 color=black interpol=join value=none
width=1;
*title h=2 "FACP de X2";
run;
data acf4;
set x3out;
lcl=-2*stderr;
ucl=2*stderr;
run;
proc gplot data=acf4;
plot corr*lag=1
lcl*lag=2
ucl*lag=2/overlay vminor=4 vaxis=axis1
haxis=axis2 ;
axis1 order=(-1.0 to 1.0 by 0.5)
label=(angle=90 'FAC X3') ;
axis2 order=(1.0 to 15 by 1.0) label=('lag
(k)');
symbol1 color=black interpol=needle
value=none width=4;
symbol2 color=black interpol=join value=none
width=1;
*title h=2 "FAC de X3";
run;
proc gplot data=acf4;
plot partcorr*lag=1
lcl*lag=2
ucl*lag=2/overlay vminor=4 vaxis=axis1
haxis=axis2 ;
axis1 order=(-1.0 to 1.0 by 0.5)
label=(angle=90 'FACP X3');
axis2 order=(1.0 to 15 by 1.0) label=('lag
(k)');
symbol1 color=black interpol=needle
value=none width=4;
symbol2 color=black interpol=join value=none
width=1;
*title h=2 "FACP de X3";
run;
ods html close;
quit;
Figura A.11 Gera a FAC e FACP das Séries
SILVA, F.L.
PPGME/UFPA
A.1 Introdução
139
data albras;
infile "c:\pendrive\felix\hidsod\hidsod200.txt" expandtabs;
input t y1 y2 x1 x2 x3 @@ ;
label t
='tempo em horas'
y1
='Umidade'
y2
='soda'
x1
='condensado'
x2
='vapor'
x3
='rotacao';
datalines;
run;
ods html file='albras2';
ods graphics on;
goptions cback=white colors=(black) border reset=(axis symbol);
axis1 offset=(1 cm)
label=('Periodo') minor=none;
axis2 label=(angle=90 'Umidade');
symbol1 i=join;
proc gplot ;
plot y1*t / haxis=axis1
vaxis=axis2
vminor=1;
title 'Umidade na torta de hidrato - Y1';
axis2 label=(angle=90 'Resposta');
run;
proc gplot ;
plot y2*t / haxis=axis1
vaxis=axis2
vminor=1;
title 'Soda caustica - Y2';
axis2 label=(angle=90 'Resposta');
run;
proc gplot ;
*
format date date7.;
plot x1*t / haxis=axis1
vaxis=axis2
vminor=1;
title 'Vazao de condensado - X1';
axis2 label=(angle=90 'X1');
run;
proc gplot ;
*
format date date7.;
plot x2*t / haxis=axis1
vaxis=axis2
vminor=1;
title 'Vazao de vapor - X2';
axis2 label=(angle=90 'X2');
run;
proc gplot ;
*
format date date7.;
plot x3*t / haxis=axis1
vaxis=axis2
vminor=1;
title 'Rotacao do tambor - X3';
axis2 label=(angle=90 'X3');
run;
ods html close;
quit;
Figura A.12 Gera os Modelos ARIMA
SILVA, F.L.
PPGME/UFPA
A.1 Introdução
140
data albras;
infile "c:\pendrive\felix\hidsod\hidsod052.txt" expandtabs;
input t y1 y2 x1 x2 x3 @@ ;
label t
='tempo em horas'
y1
='Umidade'
y2
='soda'
x1
='condensado'
x2
='vapor'
x3
='rotacao';
ods html file='albras';
ods graphics on;
proc arima ;
*
i var=x1 outcov=x1out ;
*
e p=2 method=ml noprint ;
i var=x2 outcov=x2out ;
e q=2 method=ml noprint;
i var=x3 outcov=x3out ;
e q=1 method=ml noprint;
run;
i var=y2 crosscor=(x2 x3) nlag=12 ;
run;
e input=( 2$/(1) x2 2$ x3) q=1
method=ml ;
forecast lead=0 out=saida;
run;
proc forecast data=saida outest=estim;
run;
proc print data=estim;
title 'parametros de saida';
run;
data b;
merge albras saida;
keep t x1 x2 x3 y2 forecast l95 u95;
run;
proc print data=b;
goptions reset=global gunit=pct border cback=white
colors=(white yellow) ctext=black
ftitle=swissb ftext=swiss htitle=4 htext=4;
proc gplot data=b;
plot
l95*t
=3
u95*t
=3
y2*t
=1
forecast*t=2/overlay
haxis=axis1
hminor=4
vaxis=axis2
vminor=1
caxis=black
areas=2;
axis1 label=('Data') ;
axis2 label=(angle=90 'Soda caustica');
symbol1 l=2 w=2.5 color=black i=join ;
symbol2 w=2 i=join c=blue;
symbol3 l=20 i=join c=green;
footnote1 c=black f=centx
c=b f=centx
c=orange f=centx'
run;
ods html close;
quit;
' .... Observado'
'
- Modelo'
(95% IC)';
Figura A.13 Gera os Testes dos Modelos ARIMA
SILVA, F.L.
PPGME/UFPA
A.1 Introdução
141
data albras;
infile "c:\pendrive\felix\hidsod\hidsod200.txt" expandtabs;
input t y1 y2 x1 x2 x3 @@ ;
label t
='tempo em horas'
y1
='Umidade'
y2
='soda'
x1
='condensado'
x2
='vapor'
x3
='rotacao';
ods html file='albras';
ods graphics on;
proc arima ;
i var=y1;
e q=1 method=ml;
i var=x1;
e p=2 method=ml;
i var=x2;
e q=2 method=ml;
i var=x3;
e q=1 method=ml;
run;
i var=y1 crosscor=(x1) nlag=12 outcov=cross1;
i var=y1 crosscor=(x2) nlag=12 outcov=cross2;
i var=y1 crosscor=(x3) nlag=12 outcov=cross3;
run;
data crosscorr1;
set cross1;
keep obs crossvar stderr corr partcorr lag;
if invcorr=.;
lcl=-1.96*stderr;
ucl=1.96*stderr;
keep lcl ucl ;
run;
proc gplot;
axis1 label=(angle=90 'Correlacao Cruzada') order=-1 to 1
axis2 length=5 in order=-12 to 12 by 2;
plot (corr ucl lcl)*lag / overlay vaxis=axis1 haxis=axis2
symbol1 i=needle color=black;
symbol2 v=none l=21 i=join color=red;
symbol3 v=none l=21 i=join color=red;
title 'Correlacao Cruzada Y1 vs. X1';
run;
data crosscorr2;
set cross2;
keep obs crossvar stderr corr partcorr lag;
if invcorr=.;
lcl=-1.96*stderr;
ucl=1.96*stderr;
keep lcl ucl ;
run;
proc gplot;
axis1 label=(angle=90 'Correlacao Cruzada') order=-1 to 1
axis2 length=5 in order=-12 to 12 by 2;
plot (corr ucl lcl)*lag / overlay vaxis=axis1 haxis=axis2
symbol1 i=needle color=black;
symbol2 v=none l=21 i=join color=red;
symbol3 v=none l=21 i=join color=red;
title 'Correlacao Cruzada Y1 vs. X2';
run;
data crosscorr3;
set cross3;
keep obs crossvar stderr corr partcorr lag;
if invcorr=.;
lcl=-1.96*stderr;
ucl=1.96*stderr;
keep lcl ucl ;
run;
proc gplot;
axis1 label=(angle=90 'Correlacao Cruzada') order=-1 to 1
axis2 length=5 in order=-12 to 12 by 2;
plot (corr ucl lcl)*lag / overlay vaxis=axis1 haxis=axis2
symbol1 i=needle color=black;
symbol2 v=none l=21 i=join color=red;
symbol3 v=none l=21 i=join color=red;
title 'Correlacao Cruzada Y1 vs. X3';
run;
ods html close;
quit;
by 0.2 length=3 in;
vref=0;
by 0.2 length=3 in;
vref=0;
by 0.2 length=3 in;
vref=0;
Figura A.14 Gera as Funções de Correlação Cruzada
SILVA, F.L.
PPGME/UFPA
A.1 Introdução
142
data albras;
infile "c:\pendrive\felix\hidsod\hidsod200.txt" expandtabs;
input t y1 y2 x1 x2 x3 @@ ;
label t
='tempo em horas'
y1
='Umidade'
y2
='soda'
x1
='condensado'
x2
='vapor'
x3
='rotacao';
ods html file='albras';
ods graphics on;
proc arima ;
i var=y1 outcov=y1out ;
e q=1 method=ml noprint ;
i var=x1 outcov=x1out ;
e p=2 method=ml noprint ;
i var=x2 outcov=x2out ;
e q=2 method=ml noprint;
i var=x3 outcov=x3out ;
e q=1 method=ml noprint;
run;
i var=y1 crosscor=(x1 x2 x3) nlag=12 ;
run;
e input=(1$(1) x1 x2 (5) x3) q=1
method=ml plot;
forecast lead=0 out=saida;
run;
proc forecast data=saida outest=estim;
run;
proc print data=estim;
title 'parametros de saida';
run;
data b;
merge albras saida;
keep t x1 x2 x3 y1 forecast l95 u95;
run;
proc print data=b;
goptions reset=global gunit=pct border cback=white
colors=(white yellow) ctext=black
ftitle=swissb ftext=swiss htitle=4 htext=4;
proc gplot data=b;
plot
l95*t
=3
u95*t
=3
y1*t
=1
forecast*t=2/overlay
haxis=axis1
hminor=4
vaxis=axis2
vminor=1
caxis=black
areas=2;
axis1 label=('Data') ;
axis2 label=(angle=90 'Umidade');
symbol1 l=2 w=2.5 color=black i=join ;
symbol2 w=2 i=join c=blue;
symbol3 l=20 i=join c=green;
footnote1 c=black f=centx
c=b f=centx
c=orange f=centx'
run;
ods html close;
quit;
' .... Observado'
'
- Modelo'
(95% IC)';
Figura A.15 Teste do Modelo 1 de F.T - Umidade
SILVA, F.L.
PPGME/UFPA
A.1 Introdução
143
data albras;
infile "g:\felix\hidsod\hidsod200.txt" expandtabs;
input t y1 y2 x1 x2 x3 @@ ;
label t
='tempo em horas'
y1
='Umidade'
y2
='soda'
x1
='condensado'
x2
='vapor'
x3
='rotacao';
ods html file='albras';
ods graphics on;
proc arima ;
i var=x1 outcov=x1out ;
e p=2 method=ml noprint ;
i var=x2 outcov=x2out ;
e q=2 method=ml noprint;
i var=x3 outcov=x3out ;
e q=1 method=ml noprint;
run;
i var=y1 crosscor=(x1 x3) nlag=12 ;
run;
e input=((1)/(1) x1 (5) x3) q=1
method=ml plot;
forecast lead=0 out=saida;
run;
proc forecast data=saida outest=estim;
run;
proc print data=estim;
title 'parametros de saida';
run;
data b;
merge albras saida;
keep t x1 x2 x3 y1 forecast l95 u95;
run;
proc print data=b;
goptions reset=global gunit=pct border cback=white
colors=(white yellow) ctext=black
ftitle=swissb ftext=swiss htitle=4 htext=4;
proc gplot data=b;
plot
l95*t
=3
u95*t
=3
y1*t
=1
forecast*t=2/overlay
haxis=axis1
hminor=4
vaxis=axis2
vminor=1
caxis=black
areas=2;
*title 'Albras Data';
axis1 label=('Data') ;
axis2 label=(angle=90 'Umidade');
symbol1 l=2 w=2.5 color=red i=join ;
symbol2 w=2 i=join c=blue;
symbol3 l=20 i=join c=green;
footnote1 c=r f=centx
' ... Observado'
c=b f=centx
' - Previsao'
c=yellow f=centx'
(95% IC)';
run;
ods html close;
quit;
Figura A.16 Teste do Modelo 2 de F.T - Umidade
SILVA, F.L.
PPGME/UFPA
A.1 Introdução
144
data albras;
infile "g:\felix\hidsod\hidsod200.txt" expandtabs;
input t y1 y2 x1 x2 x3 @@ ;
label t
='tempo em horas'
y1
='Umidade'
y2
='soda'
x1
='condensado'
x2
='vapor'
x3
='rotacao';
ods html file='albras';
ods graphics on;
proc arima ;
i var=y1 outcov=y1out ;
e q=1 method=ml noprint ;
i var=x1 outcov=x1out ;
e p=2 method=ml noprint ;
i var=x2 outcov=x2out ;
e q=2 method=ml noprint;
i var=x3 outcov=x3out ;
e q=1 method=ml noprint;
run;
i var=y1 crosscor=(x1 x3) nlag=12 ;
run;
e input=(1$(1) x1 (5) x3) q=1
method=ml plot;
forecast lead=0 out=saida;
run;
proc forecast data=saida outest=estim;
run;
proc print data=estim;
title 'parametros de saida';
run;
data b;
merge albras saida;
keep t x1 x2 x3 y1 forecast l95 u95;
run;
proc print data=b;
goptions reset=global gunit=pct border cback=white
colors=(white yellow) ctext=black
ftitle=swissb ftext=swiss htitle=4 htext=4;
proc gplot data=b;
plot
l95*t
=3
u95*t
=3
y1*t
=1
forecast*t=2/overlay
haxis=axis1
hminor=4
vaxis=axis2
vminor=1
caxis=black
areas=2;
axis1 label=('Data') ;
axis2 label=(angle=90 'Umidade');
symbol1 l=2 w=2.5 color=black i=join ;
symbol2 w=2 i=join c=blue;
symbol3 l=20 i=join c=green;
footnote1 c=black f=centx
c=b f=centx
c=orange f=centx'
run;
ods html close;
quit;
' .... Observado'
'
- Modelo'
(95% IC)';
Figura A.17 Teste do Modelo 3 de F.T - Umidade
SILVA, F.L.
PPGME/UFPA
A.1 Introdução
145
data albras;
infile "c:\pendrive\felix\hidsod\hidsod200.txt" expandtabs;
input t y1 y2 x1 x2 x3 @@ ;
label t
='tempo em horas'
y1
='Umidade'
y2
='soda'
x1
='condensado'
x2
='vapor'
x3
='rotacao';
ods html file='albras';
ods graphics on;
proc arima ;
i var=y2 outcov=x1out ;
e q=1 method=ml noprint ;
i var=x2 outcov=x2out ;
e q=2 method=ml noprint;
i var=x3 outcov=x3out ;
e q=1 method=ml noprint;
run;
i var=y2 crosscor=(x2 x3) nlag=12 ;
run;
e input=( 2$/(1) x2 1$ x3) q=1
method=ml plot;
forecast lead=0 out=saida;
run;
proc forecast data=saida outest=estim;
run;
proc print data=estim;
title 'parametros de saida';
run;
data b;
merge albras saida;
keep t x1 x2 x3 y2 forecast l95 u95;
run;
proc print data=b;
goptions reset=global gunit=pct border cback=white
colors=(white yellow) ctext=black
ftitle=swissb ftext=swiss htitle=4 htext=4;
proc gplot data=b;
plot
l95*t
=3
u95*t
=3
y2*t
=1
forecast*t=2/overlay
haxis=axis1
hminor=4
vaxis=axis2
vminor=1
caxis=black
areas=2;
axis1 label=('Data') ;
axis2 label=(angle=90 'Soda caustica');
symbol1 l=2 w=2.5 color=black i=join ;
symbol2 w=2 i=join c=blue;
symbol3 l=20 i=join c=green;
footnote1 c=black f=centx
c=b f=centx
c=orange f=centx'
run;
ods html close;
quit;
' .... Observado'
'
- Modelo'
(95% IC)';
Figura A.18 Gera Modelo de F.T - Soda
SILVA, F.L.
PPGME/UFPA
A.1 Introdução
146
data albras;
infile "c:\pendrive\felix\hidsod\hidsod200.txt" expandtabs;
input t y1 y2 x1 x2 x3 @@ ;
label t
='tempo em horas'
y1
='Umidade'
y2
='soda'
x1
='condensado'
x2
='vapor'
x3
='rotacao';
ods html file='albras';
ods graphics on;
proc arima ;
i var=Y2 outcov=Y2out ;
e Q=1 method=ml noprint ;
i var=x2 outcov=x2out ;
e q=2 method=ml noprint;
i var=x3 outcov=x3out ;
e q=1 method=ml noprint;
run;
i var=y2 crosscor=(x2 x3) nlag=12 ;
run;
e input=(2$ (2) x2 x3) q=1
method=ml ;
forecast lead=0 out=saida;
run;
proc forecast data=saida outest=estim;
run;
proc print data=estim;
title 'parametros de saida';
run;
data b;
merge albras saida;
keep t x1 x2 x3 y2 forecast l95 u95;
run;
proc print data=b;
goptions reset=global gunit=pct border cback=white
colors=(white yellow) ctext=black
ftitle=swissb ftext=swiss htitle=4 htext=4;
proc gplot data=b;
plot
l95*t
=3
u95*t
=3
y2*t
=1
forecast*t=2/overlay
haxis=axis1
hminor=4
vaxis=axis2
vminor=1
caxis=black
areas=2;
axis1 label=('Data') ;
axis2 label=(angle=90 'Soda caustica');
symbol1 l=2 w=2.5 color=black i=join ;
symbol2 w=2 i=join c=blue;
symbol3 l=20 i=join c=green;
footnote1 c=black f=centx
c=b f=centx
c=orange f=centx'
run;
ods html close;
quit;
' .... Observado'
'
- Modelo'
(95% IC)';
Figura A.19 Teste do Modelo 1 de F.T - Soda
SILVA, F.L.
PPGME/UFPA
A.1 Introdução
147
data albras;
infile "c:\pendrive\felix\hidsod\hidsod052.txt" expandtabs;
input t y1 y2 x1 x2 x3 @@ ;
label t
='tempo em horas'
y1
='Umidade'
y2
='soda'
x1
='condensado'
x2
='vapor'
x3
='rotacao';
ods html file='albras';
ods graphics on;
proc arima ;
i var=Y2 outcov=Y2out ;
e Q=1 method=ml noprint ;
i var=x2 outcov=x2out ;
e q=2 method=ml noprint;
i var=x3 outcov=x3out ;
e q=1 method=ml noprint;
run;
i var=y2 crosscor=(x2 x3) nlag=12 ;
run;
e input=(2$ (3) x2 x3) q=1
method=ml ;
forecast lead=0 out=saida;
run;
proc forecast data=saida outest=estim;
run;
proc print data=estim;
title 'parametros de saida';
run;
data b;
merge albras saida;
keep t x1 x2 x3 y2 forecast l95 u95;
run;
proc print data=b;
goptions reset=global gunit=pct border cback=white
colors=(white yellow) ctext=black
ftitle=swissb ftext=swiss htitle=4 htext=4;
proc gplot data=b;
plot
l95*t
=3
u95*t
=3
y2*t
=1
forecast*t=2/overlay
haxis=axis1
hminor=4
vaxis=axis2
vminor=1
caxis=black
areas=2;
axis1 label=('Data') ;
axis2 label=(angle=90 'Soda caustica');
symbol1 l=2 w=2.5 color=black i=join ;
symbol2 w=2 i=join c=blue;
symbol3 l=20 i=join c=green;
footnote1 c=black f=centx
c=b f=centx
c=orange f=centx'
run;
ods html close;
quit;
' .... Observado'
'
- Modelo'
(95% IC)';
Figura A.20 Teste do Modelo 2 de F.T - Soda
SILVA, F.L.
PPGME/UFPA
A.1 Introdução
148
A.1.3 Tabela do Banco de Dados
Estes dados faram adqueridos junta a empresa de fabricação de aluminio do Norte
do Paı́s. Esta empresa destaca-se por ser a maior beneficiadora de minério de Bauxita
extraı́do no munı́cipio de Paragominas, este também pertencente ao Estado do Pará.
Tabela A.1 Valores Fornecidos pelo Processo
SILVA, F.L.
Y1
Y2
X1
X2
X3
Nivel de Umidade
(%)
Soda
(%)
Vazão de Condensado
(m3 /h)
Vazão de Vapor
(t/h)
Rotação
(%)
6,390
4,690
4,630
4,960
3,160
4,920
5,930
4,440
4,510
3,740
4,960
3,700
3,430
4,110
3,870
4,260
3,900
4,460
4,620
2,840
4,490
5,900
5,860
8,180
4,160
3,770
3,430
5,100
5,270
4,500
6,100
4,670
5,430
4,810
5,860
4,200
5,030
6,490
4,970
3,850
5,340
6,160
5,510
4,400
4,720
4,780
6,100
4,940
3,560
4,390
8,620
6,680
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,050
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,020
0,010
0,010
0,010
0,010
0,040
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,020
0,010
0,010
0,010
0,010
0,010
0,010
0,020
0,010
0,010
0,010
0,010
0,030
0,020
0,020
0,010
0,010
0,010
0,010
0,010
0,010
0,010
65,052
65,169
52,032
64,925
65,697
64,708
64,418
65,277
68,478
65,119
64,730
65,025
65,167
65,758
65,146
64,793
64,921
65,203
62,973
65,094
65,622
64,727
65,052
69,184
64,985
65,215
57,065
62,998
65,122
64,963
64,995
66,153
64,724
65,535
65,340
72,268
60,431
64,995
64,936
64,769
65,296
64,746
64,878
49,254
65,614
64,936
64,756
64,919
65,190
64,927
64,949
65,132
1,210
1,208
1,195
1,200
1,200
0,256
0,228
1,201
1,204
1,303
1,195
1,204
1,195
1,163
1,195
1,328
1,209
0,260
1,224
1,203
1,192
1,206
1,326
0,593
1,212
1,182
1,187
1,223
1,215
1,197
1,198
1,190
1,195
1,173
0,358
1,197
1,189
1,203
1,191
1,201
1,195
1,195
1,389
0,147
1,195
1,227
1,190
1,206
1,289
1,204
1,203
1,206
38,282
38,268
38,259
38,232
38,390
38,252
38,218
38,249
38,263
38,190
38,249
38,249
38,115
38,176
38,190
38,241
38,153
38,249
38,282
38,282
38,365
38,301
38,232
38,195
38,263
38,282
38,209
38,249
38,467
38,365
38,398
38,249
38,256
38,240
38,085
38,511
38,282
38,282
38,249
38,136
38,136
38,398
30,438
38,212
38,558
38,224
38,310
38,234
38,136
38,482
38,224
38,249
PPGME/UFPA
A.1 Introdução
149
Tabela A.2 Continuação da Tabela A.1
SILVA, F.L.
Y1
Y2
X1
X2
X3
Nivel de Umidade
(%)
Soda
(%)
Vazão de Condensado
(m3 /h)
Vazão de Vapor
(t/h)
Rotação
(%)
3,900
4,770
4,290
5,290
5,080
3,960
5,420
5,410
5,590
4,540
6,570
5,110
5,520
4,500
7,170
2,810
6,740
5,380
5,380
5,470
5,070
3,510
6,090
6,100
4,840
4,660
5,180
5,980
7,340
5,480
3,950
3,950
4,010
5,090
4,690
3,240
4,850
3,360
4,700
6,260
5,050
4,590
4,580
7,240
4,160
4,860
5,130
4,350
3,620
5,850
5,090
5,070
3,330
6,170
4,990
5,290
3,250
5,300
3,620
4,510
3,520
5,160
6,240
4,150
7,490
5,410
6,510
5,710
5,040
5,770
0,010
0,020
0,020
0,010
0,020
0,010
0,010
0,010
0,010
0,030
0,010
0,010
0,010
0,020
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,020
0,010
0,010
0,010
0,010
0,010
0,010
0,120
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,030
0,010
0,010
0,010
0,020
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,030
0,010
0,010
0,010
0,020
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,040
0,010
0,010
0,030
0,010
65,082
64,890
64,622
65,329
66,112
64,646
64,994
64,904
65,281
66,557
64,754
70,094
64,949
65,024
69,465
69,893
69,999
70,039
64,082
65,190
65,445
65,545
65,177
65,207
65,134
63,654
65,119
64,963
64,905
66,259
64,861
65,741
64,815
64,949
64,965
64,923
61,610
64,935
64,825
65,039
67,398
76,500
65,087
65,081
65,265
7,260
64,711
65,039
65,193
55,623
65,007
66,235
53,755
64,936
64,840
64,579
64,963
58,401
48,163
64,637
64,020
65,088
60,015
64,739
64,878
59,608
32,878
47,037
59,875
60,179
1,194
1,205
1,209
1,200
1,209
1,196
1,223
1,205
1,208
0,988
1,178
1,253
1,260
1,193
1,176
1,187
1,219
1,197
1,327
1,211
1,313
1,192
1,198
1,206
1,202
1,207
1,220
1,209
1,194
1,205
0,297
1,194
1,610
1,206
1,191
1,187
1,198
1,197
1,198
1,183
0,462
1,185
1,208
1,198
1,285
0,068
1,180
1,200
1,203
1,220
1,202
1,205
0,253
1,197
1,202
1,179
1,202
1,100
1,221
1,204
0,099
1,211
0,658
1,205
1,183
1,332
0,175
0,182
1,209
1,317
38,217
38,518
38,325
38,176
38,365
38,249
38,151
38,282
38,209
38,282
38,241
38,318
38,375
38,209
38,252
38,291
38,086
38,325
38,392
38,282
38,282
38,384
38,325
38,371
38,317
38,282
38,282
38,492
38,465
38,398
7,684
38,421
38,302
38,372
38,489
38,282
38,282
38,276
38,434
38,282
38,342
38,365
38,372
38,232
38,282
20,280
38,392
38,503
38,472
38,365
38,328
38,365
38,249
38,365
38,282
38,279
38,358
38,368
38,372
38,392
38,459
38,398
38,220
38,352
38,472
38,272
20,206
38,209
38,328
38,333
PPGME/UFPA
A.1 Introdução
150
Tabela A.3 Continuação da Tabela A.2
SILVA, F.L.
Y1
Y2
X1
X2
X3
Nivel de Umidade
(%)
Soda
(%)
Vazão de Condensado
(m3 /h)
Vazão de Vapor
(t/h)
Rotação
(%)
5,130
4,240
5,740
5,810
4,990
5,570
4,490
5,350
6,560
4,770
6,290
4,230
4,620
6,280
4,310
3,480
4,780
8,540
4,870
5,090
4,570
3,970
4,690
4,600
6,120
5,810
5,400
4,520
5,510
4,630
4,890
5,070
5,160
3,620
6,320
5,080
4,590
5,980
5,720
6,150
4,810
7,100
7,020
4,400
6,390
4,730
9,330
6,490
5,850
5,270
5,140
6,320
4,900
6,800
5,250
5,030
5,120
4,090
6,300
4,430
4,110
9,680
4,410
5,460
5,270
4,450
4,940
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,040
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,020
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,030
0,010
0,010
0,010
0,050
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
65,370
64,646
64,715
53,393
64,423
64,784
64,971
64,949
64,910
65,161
64,815
66,708
65,043
65,569
64,548
106,356
64,324
65,319
62,625
66,317
65,417
64,920
65,213
63,009
65,326
57,120
65,084
65,192
65,088
63,874
64,742
64,955
64,414
65,342
64,967
69,789
64,800
65,079
68,854
65,060
65,013
65,027
64,969
65,028
64,676
64,578
64,719
65,035
57,403
65,139
67,107
64,566
65,108
31,500
63,790
58,216
65,192
64,441
65,119
64,666
64,285
65,602
64,991
65,465
64,432
64,963
65,719
1,223
1,211
1,206
0,953
1,186
1,176
1,038
1,173
1,206
1,211
1,205
1,197
1,278
1,204
1,231
1,287
1,193
1,003
1,162
1,198
1,205
1,146
1,177
1,201
1,193
1,330
1,199
1,204
1,194
1,138
1,205
1,204
1,222
1,238
1,209
0,234
1,172
1,194
1,206
1,221
0,106
1,266
1,195
1,235
1,190
1,202
1,204
1,429
1,195
1,200
1,195
1,201
1,199
0,291
1,195
1,341
1,204
1,195
1,195
1,204
1,217
1,194
1,201
1,460
1,179
1,222
1,131
38,317
38,151
38,282
38,306
38,335
38,282
38,255
38,282
38,143
38,342
38,594
38,328
38,226
38,209
38,231
38,115
38,384
38,348
38,457
38,291
38,176
38,205
38,375
38,209
38,282
38,392
38,282
38,348
38,249
38,121
38,255
38,136
38,325
38,127
38,303
38,217
38,282
37,950
38,274
38,282
38,302
38,176
38,545
38,452
38,457
38,260
38,282
38,282
38,220
38,314
38,273
38,325
38,209
38,063
38,365
38,209
38,472
38,282
38,209
38,282
38,176
38,308
38,330
38,260
38,282
38,282
38,325
PPGME/UFPA
A.1 Introdução
151
Tabela A.4 Continuação da Tabela A.3
SILVA, F.L.
Y1
Y2
X1
X2
X3
Nivel de Umidade
(%)
Soda
(%)
Vazão de Condensado
(m3 /h)
Vazão de Vapor
(t/h)
Rotação
(%)
6,000
5,480
7,910
5,010
5,610
5,450
5,590
6,220
4,280
6,150
5,690
6,650
5,400
9,310
5,030
5,280
9,420
5,710
7,350
6,190
5,810
5,240
3,880
4,720
6,410
6,760
7,050
6,340
7,330
5,210
6,260
7,120
5,420
6,550
6,870
5,330
6,230
4,200
5,690
6,700
4,930
6,480
7,340
4,800
5,470
7,050
4,930
4,760
5,160
4,030
3,800
7,000
4,420
4,640
9,190
6,570
4,760
4,970
4,740
6,520
5,480
5,100
6,200
5,870
4,120
6,390
7,560
4,610
0,010
0,150
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,050
0,010
0,010
0,010
0,010
0,020
0,010
0,010
0,010
0,010
0,020
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,020
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,020
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,110
0,020
0,010
0,010
0,010
0,020
0,010
0,010
0,010
0,010
0,010
0,090
0,010
0,010
0,140
0,010
64,604
55,811
59,889
65,180
57,350
65,170
62,143
63,662
68,176
65,507
60,966
51,049
66,432
62,475
54,858
59,946
49,604
64,666
65,381
65,038
65,230
69,913
64,671
68,363
63,314
65,560
64,592
65,330
64,967
65,054
67,462
65,598
64,890
64,370
64,266
65,686
64,846
64,212
62,608
66,417
65,477
61,602
65,416
63,768
64,285
52,664
0,133
0,133
65,890
58,402
62,645
51,349
64,274
67,367
67,367
70,406
69,762
55,557
64,273
65,143
65,165
66,271
66,547
64,246
64,991
63,421
65,829
65,212
1,303
1,190
1,169
1,196
1,204
1,320
1,272
1,296
1,276
1,202
1,199
0,790
1,213
1,195
1,257
1,195
0,786
1,204
1,211
1,200
1,193
1,499
1,195
1,207
1,257
1,179
1,199
1,206
1,206
0,664
1,202
0,681
1,202
1,186
1,210
1,250
1,199
1,204
1,186
0,178
1,210
1,198
1,172
1,211
1,497
1,213
0,023
0,023
1,322
1,284
1,294
1,474
1,803
1,502
1,502
1,309
0,886
0,801
1,189
1,176
1,179
1,292
1,362
1,284
1,214
1,023
1,143
1,484
38,393
38,672
38,511
38,472
38,624
38,438
38,295
38,438
38,421
38,472
40,366
40,352
38,399
38,245
38,324
38,344
40,258
40,556
40,309
40,444
40,294
40,405
40,425
38,844
38,528
38,560
38,171
38,230
38,125
38,097
38,317
38,282
38,136
38,282
38,563
38,588
38,249
38,398
38,272
38,238
38,398
38,368
38,249
38,465
38,513
38,282
37,950
37,950
38,282
38,263
38,278
38,231
38,115
38,545
38,545
38,230
38,166
38,009
38,422
38,325
38,219
38,026
38,196
38,332
38,282
38,398
38,369
38,261
PPGME/UFPA
A.1 Introdução
152
Tabela A.5 Continuação da Tabela A.4
SILVA, F.L.
Y1
Y2
X1
X2
X3
Nivel de Umidade
(%)
Soda
(%)
Vazão de Condensado
(m3 /h)
Vazão de Vapor
(t/h)
Rotação
(%)
6,380
6,630
4,860
5,150
5,260
7,010
6,370
4,600
6,200
6,210
5,480
7,410
4,160
4,880
5,900
4,640
3,090
3,080
4,430
8,630
4,410
5,990
5,200
3,180
6,140
5,940
3,650
4,460
7,200
4,360
5,180
5,900
7,570
4,420
5,930
5,700
5,420
5,760
5,240
6,630
6,460
5,000
4,850
6,750
6,040
4,560
6,480
6,160
5,880
5,150
5,740
8,060
7,830
3,940
4,210
3,970
7,690
4,290
5,880
5,600
6,200
4,980
8,340
2,490
4,150
4,270
5,020
4,850
5,100
7,360
4,720
5,890
3,930
3,900
3,900
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,040
0,010
0,010
0,010
0,010
0,080
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,020
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,020
0,010
0,010
0,010
0,010
0,010
0,010
0,260
0,010
0,020
0,010
0,010
0,010
0,010
0,010
63,514
60,801
62,568
65,089
72,932
57,791
65,011
67,268
51,745
60,960
64,730
65,665
65,309
65,235
67,225
68,969
64,840
66,742
65,378
68,291
65,141
65,671
64,350
50,947
66,251
66,021
64,771
66,025
64,347
66,531
67,157
64,975
66,340
62,569
65,263
59,164
60,412
64,744
65,205
66,752
65,169
65,064
64,753
64,493
65,208
64,332
60,176
64,588
64,660
65,392
64,873
65,165
65,137
65,466
65,135
66,132
66,002
64,183
65,192
64,441
64,410
64,326
64,627
54,180
61,016
64,986
61,695
65,099
64,400
65,807
64,551
64,930
64,192
65,802
64,675
1,287
1,320
1,323
1,175
1,280
1,175
1,226
1,616
1,300
1,194
1,402
1,189
1,202
1,296
1,195
1,204
1,187
1,502
0,626
1,344
1,206
1,195
1,196
1,199
1,201
1,296
1,291
1,503
1,195
1,193
1,190
1,200
1,199
0,502
1,226
1,199
1,218
1,176
1,179
1,198
1,209
1,215
1,235
1,261
1,194
1,195
1,161
1,200
1,292
1,289
1,204
1,190
1,282
1,183
1,156
1,315
1,015
1,234
0,970
0,986
1,305
1,332
1,502
1,341
0,212
1,217
1,213
1,212
1,196
1,061
1,314
1,303
1,190
1,199
1,195
38,209
38,381
38,188
38,252
38,249
38,329
38,372
38,398
38,391
38,260
38,208
38,184
38,198
38,498
38,249
38,187
38,325
38,200
38,397
37,983
38,249
37,997
38,257
38,249
38,209
38,236
38,613
38,236
38,282
38,398
38,198
38,249
30,502
30,584
30,256
38,207
38,282
38,282
38,164
38,221
38,167
38,230
38,249
38,282
38,176
38,220
38,249
38,200
38,282
38,335
38,282
38,365
38,408
38,209
38,282
38,176
38,327
38,063
38,282
38,282
38,080
38,249
38,365
38,367
37,420
38,289
38,282
38,209
38,014
38,063
38,511
38,176
38,141
38,281
38,345
PPGME/UFPA
A.1 Introdução
153
Tabela A.6 Continuação da Tabela A.5
SILVA, F.L.
Y1
Y2
X1
X2
X3
Nivel de Umidade
(%)
Soda
(%)
Vazão de Condensado
(m3 /h)
Vazão de Vapor
(t/h)
Rotação
(%)
4,980
3,810
5,170
6,240
7,180
5,700
4,070
7,040
5,950
5,530
5,430
3,500
6,450
5,410
5,640
2,570
6,450
4,980
3,400
6,430
7,040
5,870
3,340
5,060
6,410
7,400
4,370
7,390
3,420
4,500
3,360
3,450
4,530
3,630
3,780
6,150
4,070
7,150
3,910
7,500
5,900
3,400
6,330
4,300
6,500
3,290
3,390
6,030
4,500
5,250
5,500
3,140
5,200
3,530
6,250
4,770
2,810
4,300
5,190
3,860
4,270
4,560
4,980
2,700
4,200
4,430
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,020
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,030
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
64,840
65,101
64,903
65,949
64,730
64,298
65,453
60,978
60,896
58,298
65,497
65,222
60,614
67,048
60,628
60,032
57,116
59,561
59,777
60,476
59,949
59,836
54,300
49,408
56,111
55,027
54,540
54,672
65,675
64,726
58,847
59,861
66,604
59,229
64,963
59,504
58,664
64,666
47,558
64,832
64,955
65,406
63,444
66,684
58,684
64,520
64,960
55,952
61,659
64,931
64,964
60,019
60,086
60,387
60,683
60,320
59,869
55,385
60,301
59,571
64,343
59,149
60,000
60,088
60,682
64,910
1,204
1,204
1,026
1,208
1,205
1,219
1,204
1,201
0,312
1,320
1,196
1,184
1,300
1,197
1,318
1,225
1,234
0,339
1,225
1,152
1,238
1,196
1,204
1,210
1,204
1,203
1,396
1,296
1,177
1,378
1,369
1,195
0,390
1,168
1,195
1,497
1,355
1,209
1,413
1,208
1,204
1,191
1,199
1,213
1,190
1,236
1,204
0,335
1,360
1,209
1,177
1,226
1,314
1,208
1,492
1,195
0,655
1,195
1,190
1,204
1,204
1,300
0,677
1,213
1,208
1,309
38,233
38,022
38,099
38,203
38,116
38,136
38,136
38,017
38,218
38,379
38,201
38,223
38,277
38,514
38,176
38,120
38,282
37,983
38,282
37,950
38,168
38,148
38,063
38,043
37,983
38,176
37,988
38,026
38,136
37,993
38,142
38,136
38,064
38,356
38,026
37,983
38,063
37,950
37,875
38,176
38,175
38,180
37,983
38,209
38,137
38,249
38,282
38,136
38,249
37,983
38,282
38,209
38,282
38,142
38,176
37,983
38,802
38,282
38,249
38,176
38,279
38,249
38,282
38,209
38,141
38,249
PPGME/UFPA
A.1 Introdução
154
Tabela A.7 Continuação da Tabela A.6
SILVA, F.L.
Y1
Y2
X1
X2
X3
Nivel de Umidade
(%)
Soda
(%)
Vazão de Condensado
(m3 /h)
Vazão de Vapor
(t/h)
Rotação
(%)
2,760
4,530
4,880
4,870
4,970
4,140
4,860
4,960
7,590
4,080
4,080
5,770
6,120
5,190
4,670
5,860
4,740
4,000
8,110
6,670
6,040
8,600
5,840
5,580
3,940
6,050
5,810
4,090
3,880
4,610
5,850
5,670
5,730
6,350
5,760
5,120
6,560
4,630
6,690
4,380
4,340
7,180
6,910
5,600
5,910
4,630
6,470
4,540
5,410
4,070
3,130
5,850
5,670
5,730
6,350
5,760
5,120
6,560
4,630
6,690
4,380
4,340
7,180
6,910
5,600
5,910
4,630
6,470
4,540
5,410
4,070
3,130
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,030
0,010
0,010
0,010
0,050
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,190
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,300
0,010
0,010
0,030
0,010
0,010
0,160
0,010
0,030
0,080
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,300
0,010
0,010
0,030
0,010
0,010
0,160
0,010
0,030
0,080
0,010
0,010
0,010
0,010
0,010
0,010
0,010
0,010
65,119
60,395
59,017
60,383
54,759
60,239
59,941
64,739
64,472
61,365
58,325
59,415
60,239
59,941
60,353
69,019
59,746
59,264
60,541
14,532
59,360
65,053
64,324
64,817
55,364
65,343
64,792
65,389
65,228
65,490
65,325
64,922
65,157
65,119
64,592
64,963
61,814
64,925
64,739
66,709
64,817
64,331
64,212
65,202
65,192
63,065
29,435
29,435
29,435
65,179
64,890
65,325
64,922
65,157
65,119
64,592
64,963
61,814
64,925
64,739
66,709
64,817
64,331
64,212
65,202
65,192
63,065
29,435
29,435
29,435
65,179
64,890
1,190
0,275
0,333
1,172
1,254
1,254
1,172
1,186
1,182
1,176
1,218
1,195
1,176
1,195
1,296
1,227
1,221
1,176
1,479
0,218
1,276
1,227
1,182
1,350
1,190
1,341
1,172
1,204
1,189
1,209
1,190
1,188
1,223
1,373
1,218
1,227
1,332
1,178
1,204
1,006
1,218
1,474
1,314
1,176
1,222
1,211
1,373
1,373
1,373
1,222
1,190
1,190
1,188
1,223
1,373
1,218
1,227
1,332
1,178
1,204
1,006
1,218
1,474
1,314
1,176
1,222
1,211
1,373
1,373
1,373
1,222
1,190
38,249
38,026
38,065
38,173
38,136
38,209
38,063
38,209
38,267
38,365
38,282
38,365
38,282
38,176
38,282
38,209
38,206
38,249
38,249
38,046
38,249
38,171
38,218
38,176
38,209
38,472
38,249
38,295
39,448
39,335
39,189
39,290
38,219
38,176
38,136
38,209
37,983
38,141
38,624
38,795
38,209
38,398
38,282
39,262
39,750
38,365
38,136
38,136
38,136
38,484
39,372
39,189
39,290
38,219
38,176
38,136
38,209
37,983
38,141
38,624
38,795
38,209
38,398
38,282
39,262
39,750
38,365
38,136
38,136
38,136
38,484
39,372
PPGME/UFPA
Bibliografia
ABRALATAS. Fluxo de Produção de Alunı́nio. Disponı́vel em http
:
//www.abralatas.org.br/f lash/F luxo− prod− aluminio.swf. Acesso em: 15 de Março
de 2007.
AKAIKE, H. Maximum Likelihood Identification of Gaussian Autoregressive Moving
Average Models. Biometrika, 1973, 60, 255-265
AKAIKE, H. A New Look at The Statistical Model Identification. IEEE, Transactions
an Automatic Control, 1974, AC-19, 716-723
AKAIKE, H. On Entropy Maximization Principle. In Aplications of Statistics.(P.R.
Krishnariah, Ed.), 27-41. Amsterdam: North-Hollend, 1977.
BERMAM, C. Consumo
de
Energia
Elétrica. Disponı́vel em http
//www.socioambiental.org/manchetes/indexh tml. Acesso em: 7 de Agosto de 2007.
:
BERTASI, D. e SIQUEIRA, M. L. Reconhecimento de Caracteres Utilizando Redes Neurais Artificiais, Porto Algre, Dezembro 1999
BOX, G. E. P. and JENKINS, G.M. Time Series Analysis: Forecasting and Control
Third Edition. Englewood Cliffs: Prentice Hall, 1994.
BROCKLEBANK, J. C. and DICKEY, D. A. SAS System for Forecasting Time Series.
SAS Institute Inc, Cary, NC, USA, 1986.
CERQUEIRA, E. O. ANDRADE, J. C. e POPPI, R, J Redes Neurais e suas Aplicações
em Calibração Multivariada, São Paulo, 2001.
DAHMER, A. Segmentação de Imagens Ecocardiográficas Utilizando Redes Neurais
e Medidas de Textura, Porto Alegre: CPGCC, 1998. Dissertação de Mestrado.
Estudo
Sobre
Inteligência
Artificial,
2006.Disponivel
www.citi.pt/educacao− f inal/trab− f inal
− inteligencia− artif icial/ia.html. Acesso em: 17 de Outubro de 2006
em:
Efeito
Estufa
e
Aquecimento
Global.
Disponivel
em:
http
:
//paginas.terra.com.br/lazer/staruck/ef eitoestuf a.htm. Acesso em: 22 de Novembro
de 2007.
FERNANDES, L. G. L. PORTUGAL, M. S. e NAVAUX, P. O. A Previsão de Séries de
Tempo: Redes Neurais Artificiais e Modelos Estruturais, Rio Grande do Sul, 1995
156
FERNANDES, L. G. L. Utilização de Redes Neurais na Análise de Séries Temporais,
Porto Alegre: CPGCC, 1995. Dissertação de Mestrado.
GUIMARÃES, B. B. e NETO, F. R. Redes Neurais para a Previsão de Índices do Mercado de Ações: uma análise do trabalho de Amol S. Kulkarni,Artigo, UFBA - Salvador - Bahia.
HECHT - NIELSEN, R. Neurocomputing: Addison Wesley Publ. Co., New York, 1990.
HAGAN, Martin T. e MENHAJ, Mohammed B. (1994). Training Feedforward Networks
with the Marquardt Algorithm . IEEE Transactions on Neural Networks, v.5, n.6.
HAIKIN, S. Redes Neurais - Princı́pios e Prática, Porto Alegre: Editora Bookman, 2001.
HAMILTON, J. D. Time Series Analysis Princeton University Press, Princeton New Jersey,
1994.
HERNANDEZ, E. D. L. Inteligência Computacional e Redes Neurais em Engenharia
Elétrica, São Paulo: PSI-EPUSP, 2005.
HINES, J. W. MATLAB Supplement to Fuzzy and Neural Approaches in Engineering
LIMÃO, R. C.Rede Neural com Dinâmica Interna Aplicada a Problemas de Identificação e Controle Não-Linear, Santa Catarina: UFSC, 1999.
MORETTIN, P. A. e TOLOI, C. M. C. Análise de Séries Temporais, Edgard Blücher, São
Paulo, 2004.
MORETTIN, P. A. e TOLOI, C. M. C. Previsão de Séries Temporais. São Paulo: Editora
Atual. 1987.
PALIT, A. K. and POPOVIC, D. Computational Intelligence in Time Series Forecasting
Theory and Engineering Applications - Advances in Industrial Control. SpringerVerlag, 20053, p.1-142
PINHEIRO, J. R Funções de Tranferências - Notas - Disponı́vel em
http://www.ufsm.br/gepoc/renes/Templates/arquivos/elc1031/ELC1031.L2.4.pdf - acesso
em 27 de Setembro de 2007.
PORTUGAL, M. S. e FERNANDES, L. G. L. Redes Neurais Artificiais e Previsão de
Séries Econômicas: Uma Introdução, p. 22, 1994.
PLANTULLO, V. L. Teoria Geral da Administração: De Taylor às Redes Neurais,
p.172, Rio de Janeiro, 2001.
RISSANEM, J. Modelling by Shortest data Description. Automatic, 14, 465-471, 1978.
RICK, E. e KNIGHT, K. Inteligência Artificial, São Paulo - 2a edição: Makron Books do
Brasil Editora Ltda, 2003.
SANTOS, J. O Alumı́nio. 21-23 de maio de 2007. Disponı́vel em http://w3.ualg.pt/∼
ealmeida/Semin%C3%A1rios/U.algarve-%20EST-EXTRUSAL.pdf. Acesso em: 22 de
SILVA, F.L.
PPGME/UFPA
157
Fevereiro de 2007.
SERTEC. Alumı́nio - o que é?. Disponı́vel em http://www.serteq.com.br/noticia.asp?codigo=146
&COD− MENU=50. Acesso em: 02 de Março de 2007.
SCHWARTZ, G. Estimating the Dimension of a Model, Annals of Statistics, 6, 461464, 1978.
SIMÕES, M. G. e SHAW, I. S. Controle e Modelagem Fuzzy, p. 165, São Paulo, 1999.
SOUZA R. C. Modelos Estruturais para Previsão de Séries Temporais,IMPA-CNPQ Rio de Janeiro, 1989, 17o Colóquio Brasileiro de Matemática.
SOUZA, A. N. SILVA, I. N e BORDON, M. E. Identificação de Processos de Ensaios de
Alta Tensão Através de Redes Neurais Artificiais, São Paulo, 1999, IV Congresso
Brasileiro de Redes Neurais, pag. 072-077.
WEI, W. W. S Time Series Analysis - Univariate and Multivariate Methods, Departament of Statistics Temple University, 1989
WILOMAŃ SKA, A. Multivariate Time Series, Hugo Steinhaus Center Wroclaw University
of Technology. Berlin, 2005.
WYLOMANSKA, A. Multivariate Time Series, Hugo Steinhaus Center, Wroclaw University
of Tecnology, Berlin, july 2005
KOIVO, H. N. Neural Networks: Basics Using MATLAB Neural Network Toolbox,
February 2000
KOVÁCS, K. L. Redes Neurais Artificiais - Fundamentos e aplicaçães, Editora
Acadêmica. São Paulo, 1996.
SILVA, F.L.
PPGME/UFPA

Documentos relacionados