Félix Lélis da Silva Monitoramento da Fase de Filtraç - ppgme
Transcrição
Félix Lélis da Silva Monitoramento da Fase de Filtraç - ppgme
UNIVERSIDADE FEDERAL DO PARÁ CENTRO DE CIÊNCIAS EXATAS E NATURAIS PROGRAMA DE PÓS-GRADUAÇÃO EM MATEMÁTICA E ESTATÍSTICA Félix Lélis da Silva Monitoramento da Fase de Filtração e Secagem da Polpa de Cristais de Hidrato no Processo de Extração da Alumina Através de Abordagens Dinâmicas Multivariadas Belém/PA 2007 UNIVERSIDADE FEDERAL DO PARÁ CENTRO DE CIÊNCIAS EXATAS E NATURAIS PROGRAMA DE PÓS-GRADUAÇÃO EM MATEMÁTICA E ESTATÍSTICA Félix Lélis da Silva Monitoramento da Fase de Filtração e Secagem da Polpa de Cristais de Hidrato no Processo de Extração da Alumina Através de Abordagens Dinâmicas Multivariadas Dissertação de Conclusão de Curso apresentada ao Programa de Pós-Graduação em Matemática e Estatı́stica da Universidade Federal do Pará para obtenção do Tı́tulo de Mestre em Matemática e Estatı́stica. Orientador: Prof. Dr. Joaquim Carlos Barbosa Queiroz Belém/PA 2007 UNIVERSIDADE FEDERAL DO PARÁ CENTRO DE CIÊNCIAS EXATAS E NATURAIS PROGRAMA DE PÓS-GRADUAÇÃO EM MATEMÁTICA E ESTATÍSTICA FÉLIX LÉLIS DA SILVA Monitoramento da Fase de Filtração e Secagem da Polpa de Cristais de Hidrato no Processo de Extração da Alumina Através de Abordagens Dinâmicas Multivariadas Prof. Dr. Marcus Pinto da Costa da Rocha Coord. do Programa de Pós-Graduação em Matemática e Estatı́stica - UFPA Banca Examinadora Prof. Dr. Joaquim Carlos Barbosa Queiroz Faculdade de Estatı́stica - UFPA Orientador Prof. Dr. Antônio Morais da Silveira Faculdade de Ciência da Computação - UFPA Co-Orientador Prof. Dr. Heliton Ribeiro Tavares Faculdade de Estatı́stica - UFPA Examinador Prof. Dr. Carlos Tavares Júnior Faculdade de Engenharia Elétrica - UFPA Examinador DEDICATÓRIA Este trabalho é fruto de um sonho que até alguns anos parecia estar tão longe, porém no alto de minha persistência jamais deixei de sonhá-lo, do contrário, estaria fadado as angustias e a insignificância de um perdedor que tem como adversário a si próprio. Portanto, o mesmo, em toda a sua extensão, é dedicado a mim e a minha famı́lia em especial a minha esposa Andréa Pereira Lélis (AMOR) e meus filhos Gabriel Lélis (BIEL), Maria Eduarda Lélis (DUDA), Carolina M. Braga (CAROL) e aos amigos que de alguma forma contribuı́ram para a construção deste apanhado. AGRADECIMENTOS À Universidade Federal do Pará; À minha famı́lia Lélis, em especial a minha queridı́ssima mãe Maria Esmeni dos Santos Lélis ao meu pai Manoel Farias pelos ensinamentos de valores e aos irmãos de grandes personalidades: Flávio Lélis, Francisco Lélis e Franklin Lélis; Ao amigo, professor e orientador Joaquim Carlos Barbosa Queiroz, pela busca incessante do conhecimento e pelo incrı́vel dinamismo educacional do ensino superior contribuindo de forma coerente, eficaz e eficiente no aprendizado de seus alunos; Ao professor e co-orientador Antônio Morais pelos ensinamentos; A todos os professores do Programa de Pós Graduação em Matemática e Estatı́stica; Ao amigo Msc. e Doutorando em Engenharia Elétrica Vanilson Gomes Pereira, pelas idéias na estruturação das Redes Neurais, as quais foram de grandiosa e excelente contribuição para este trabalho; Ao Departamento de Estatı́tica; Ao Departamento de Matemática; Ao Programa de Pós Graduação em Matemática e Estatı́stica - PPGME; À Américo José Preto Borges da Albras pela cessão dos dados; E a todos, os seres iluminados que de alguma forma, contribuiram para a realização deste trabalho. Algo que jamais um ser de fazer é desistir dos seus sonhos, pois estará assim desistindo de si mesmo! Félix Lélis Resumo SILVA F. L. Monitoramento da Fase de Filtração e Secagem da Polpa de Cristais de Hidrato no Processo de Extração da Alumina Através de Abordagens Dinâmicas Multivariadas. Dissertação - 2007 - PPGME/UFPA, Belém - PA, Brasil. As conseqüências do desenvolvimento industrial levam à aplicação de novas ou melhoradas tecnologias, as quais exigem avaliações criteriosas para que sejam implementadas de forma adequada às necessidades da natureza do processo produtivo. Assim, através de métodos de análise e diagnóstico, pretende-se estruturar processos cada vez mais eficientes e até mesmo inteligentes, seja no controle ou monitoramento da produção. É fato que, a evolução do processo produtivo está relacionada diretamente à evolução do processo tecnológico, pois nas últimas décadas com o emergente crescimento da produção de sistemas computacionais, houve a retomada de muitas pesquisas que haviam sido abandonadas por falta de máquinas capazes de processar algoritmos mais complexos. Sendo assim, o crescimento do processo de industrialização trouxe consigo a necessidade da implementação de sistemas inteligentes, caracterizando um processo de formulação da inteligência artificial (I.A). Com isso, criou-se máquinas e equipamentos capazes de processar, avaliar e acompanhar tarefas antes somente gerenciadas por seres humanos. Devido necessidades, estas tarefas de processar, avaliar e acompanhar processos, estendeuse do processo tecnológico as mais diversas áreas do conhecimento, como por exemplo: Estudos de Fatores Climáticos, Geociências no auxı́lo do processo de perfuração de poços e Edificações, Saúde, Modelagens Estatı́sticas, Oceanografia, Biologia, etc. Todo este processo teve como base a evolução dos sistemas tecnológicos computacionais fruto do processo dinâmico da revolução industrial, pois a difusão das tecnologias digitais de informação contribuiram com aparelhos eletrônicos cada vez mais eficazes e com grande capacidade de processamento. Portanto, na busca da otimização da Fase de Filtração e Secagem da Polpa de Cristais de Hidrato no Processo de Extração da Alumina, neste trabalho se ajustou e avaliou modelos inteligentes de Redes Neurais e de Modelos de Séries Temporais Multivariadas com Função de Transferência, cujos apresentaram excelente capacidade de monitorar e avaliar as respostas obtidas do processo. No entanto, com os resultados validados se concluiu que as RNA Multicamadas Diretas com algorı́tmo de treinamento Levenberg Marquardt Backpropagation apresentam melhores resultados na identificação do padrão gerador das séries representativas das variáveis estudadas, em comparação aos resultados obtidos através dos Modelos Multivariados com FT, caracterizando-as com maior capacidade de monitoramento e avaliação do processo. Palavra-Chave: Redes Neurais, Funções de Transferência Multivariáveis, Alumina. Abstract SILVA F. L. Monitoring the filtration stage of the pulp of crystals hydrate in the process of extraction of alumina through dynamic multivariate approaches. Dissertation - 2007 PPGME/UFPA, Belém - PA, Brazil. The consequences of industrial development leading to implementation of new technologies, which require wise tests to be implemented adequately the needs of the nature of the production process. Thus, through methods of review and diagnosis, it is intended structuring processes increasingly efficients and even intelligent, either in the control or monitoring of production. It is a fact that, the evolution of the production process is linked directly to technological developments of the process, because in the last decades with the emerging growth of the production of computer systems, there was a resumption of many searches that were forgotten for lack of machines capable of processing algorithms more complex. Thus, the growth of the process of industrialization brought with the need for the implementation of intelligent systems, featuring a process of formulation of artificial intelligence (A.I.). In this way, It has been able machines and equipment to process, evaluate and monitor tasks before only managed by humans. Due to needs, these tasks to process, evaluate and monitor processes, extended the technological process the most diverse areas of knowledge, such as: studying of climatic factors, geoscience helping in the process of drilling of wells and buildings, health, statistical modeling, oceanography, biology, etc. This whole process was based on the evolution of technological computer systems fruit of the process of industrial revolution, as the digital dissemination of information contributed with electronic devices increasingly effective and with great capacity for processing. Therefore, in search of the optimization of phase filtration and drying of the flesh of crystals hydrate in the process of extraction of alumina, this work fit and evaluated intelligent models of neural networks models and series of storms to monitor and evaluate the responses obtained in the process. However, with the results validated, It’s concluded that the RNA Multilayers with the training algorithm Levenberg Marquadt Backpropagation show better results in the identification of the pattern generator of the series representing variables studied, compared to the results obtained through the models multivariate with FT, characterizing them with greater capacity for monitoring and evaluation of the process Key-words: Neural Networks, Functions of Multivariate Tranfer, Alumina. Índice Resumo vii Abstract viii Lista de Tabelas xiii Lista de Figuras xv 1 Introdução 1.1 Principais Considerações . . . . . . . . 1.2 Problema do Trabalho . . . . . . . . . . 1.3 Definição do Objetivo . . . . . . . . . . 1.4 Objetivos Especificos . . . . . . . . . . 1.5 Justificativa e Importância do Trabalho 1.6 A Hipótese Básica da Tese . . . . . . . 1.7 Estrutura do Trabalho . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 2 5 5 5 6 6 7 2 Modelos Probabilı́sticos de Séries Temporais em Processos Dinâmicos Univariados 2.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Processos Estocásticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.1 Caracterı́sticas de um Processos Estocásticos . . . . . . . . . . . . . . 2.3 A estacionariedade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4 Processos Estacionários . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5 Processos Não-Estacionários . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5.1 Modelos ARIMA ( p,d,q ) de Box & Jenkins . . . . . . . . . . . . . . 2.5.2 Análises das Funções de Autocorrelações . . . . . . . . . . . . . . . . 2.5.3 Análise das Funções de Autocorrelações Parciais . . . . . . . . . . . . 2.5.4 Critérios de Seleção - AIC e SBC . . . . . . . . . . . . . . . . . . . . 8 8 9 9 12 12 13 13 17 18 18 3 Modelos Probabilı́sticos de Séries Temporais em Processos Dinâmicos Multivariados 3.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Propriedades de Segunda Ordem de Séries Temporais Multivariada . . . . . 3.3 Modelamento com Processo AR Multivariado . . . . . . . . . . . . . . . . . 3.4 Modelamento com Processo MA Multivariado . . . . . . . . . . . . . . . . . 20 20 20 22 23 x 3.5 3.6 3.7 3.8 3.9 3.10 Processos ARMA Multivariados . . . . . . . . . . . . . . . . . . . . . . . . Processos ARIMA Multivariados . . . . . . . . . . . . . . . . . . . . . . . . Modelos de Função de Transferência (MFT)ou Modelos Causais . . . . . . . Funções de Transferências de Única Entrada . . . . . . . . . . . . . . . . . Algumas Funções Tı́picas da Resposta do Impulso . . . . . . . . . . . . . . Funções de Correlação Cruzada e Modelos de Função de Transferência . . . 3.10.1 Funções de Correlação Cruzada - FCC . . . . . . . . . . . . . . . . . 3.10.2 Relação entre Função de Correlação Cruzada e Função de Transferência 3.11 Construção do Modelo de Função de Transferência . . . . . . . . . . . . . 3.11.1 Função de Correlação Cruzada Amostral . . . . . . . . . . . . . . . . 3.11.2 Identificação do Modelo de Função de Transferência . . . . . . . . . . 3.11.3 Identificação do Modelo de Ruı́do . . . . . . . . . . . . . . . . . . . . 3.11.4 Estimativas dos Parâmetros do Modelo de Função de Transferência . 3.11.5 Diagnóstico dos Modelos de Função de Transferência . . . . . . . . . 3.11.6 Estimação do Modelo de Função de Transferência . . . . . . . . . . . 3.12 Validação de Modelos de Função de Transferência . . . . . . . . . . . . . . 3.12.1 Erro Quadrático Médio de Séries de Entrada e Saı́da Estacionárias . 3.12.2 Resumo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 25 25 26 28 29 29 30 32 32 33 34 35 36 38 38 38 40 4 Sistemas de Implementações Inteligentes - Redes Neurais 4.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 Redes Neurais Artificiais - RNA´s . . . . . . . . . . . . . . . . . 4.2.1 Funções de ativação . . . . . . . . . . . . . . . . . . . . . 4.3 Algumas Teorias Referentes a Algoritmos de Redes Neurais . . . 4.3.1 Modelos de Redes Neurais de Warrem McCulloch e Pitts . 4.3.2 Neurônios de Remmelhart, Hilton e Williams - RHW . . . 4.3.3 Modelos de Saı́da Binária - Binário . . . . . . . . . . . . . 4.3.4 RNA´s com Multicamadas de Neurônios . . . . . . . . . . 4.3.5 Propagação do erro . . . . . . . . . . . . . . . . . . . . . . 4.3.6 Retropropagação do erro . . . . . . . . . . . . . . . . . . . 4.3.7 Processo de Aprendizado por Correção de Erros . . . . . . 4.3.8 Redes Neurais: Pontos Fortes e Limitações . . . . . . . . . 4.4 A Estatı́stica do Processo de Aprendizagem . . . . . . . . . . . . 4.4.1 O Erro de Expectativa (²) . . . . . . . . . . . . . . . . . . 4.4.2 Verificação dos Termos ”Bias”e Variância . . . . . . . . . 4.5 Algoritmo de Levenberg Marquardt - LMA . . . . . . . . . . . . 4.6 Normalização dos Dados de Entrada . . . . . . . . . . . . . . . . 4.6.1 Normalização por Minı́mo e Máximo . . . . . . . . . . . . 4.6.2 Normalização por Desvio Padrão . . . . . . . . . . . . . . . 4.7 Desenvolvimento e Aplicações de Redes Neurais . . . . . . . . . 4.8 Redes Neurais em Sistemas de Controle . . . . . . . . . . . . . . 4.8.1 Sistemas de Controle Dinâmicos . . . . . . . . . . . . . . . 4.8.2 Identificação de Sistemas Dinâmicos . . . . . . . . . . . . . 4.8.3 Retropropagação Dinâmica ( Dynamic Back Propagation ) . . . . . . . . . . . . . . . . . . . . . . . . SILVA, F.L. PPGME/UFPA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 41 42 44 48 48 49 50 51 52 53 53 55 56 58 60 62 64 64 64 65 68 69 70 71 xi 4.8.4 Sistemas de Controle de Processos . . . . . . . . . . . . . . . . . . . . 71 4.8.5 Análise de Dados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 4.8.6 Previsões com Redes Neurais . . . . . . . . . . . . . . . . . . . . . . . 73 5 Análise de Dados 5.1 Processo de filtração dos cristais de hidrato . . . . . . . . . . . . . . . . . . 5.1.1 Filtros de discos rotativos . . . . . . . . . . . . . . . . . . . . . . . . 5.1.2 Critérios de Eventuais Paradas no Processo . . . . . . . . . . . . . . . 5.1.3 Eficiência do Processo . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2 Análise dos Dados Através de Modelo de Rede Neural . . . . . . . . . . . . 5.3 Estruturação e Treinamento da Rede - 1o Ensaio . . . . . . . . . . . . . . . 5.3.1 Simulação de Treinamento da Variável Nı́vel de Umidade- 1o Ensaio . 5.3.2 Simulação de Treinamento da Variável Nı́vel de Soda- 1o Ensaio . . . 5.3.3 Simulação de Validação da Variável Nı́vel de Umidade- 1o Ensaio . . . 5.3.4 Simulação de Validação da Variável Nı́vel de Soda- 1o Ensaio . . . . . 5.3.5 Simulação das Validações Desnormalizadas- 1o Ensaio . . . . . . . . . 5.4 Estruturação e Treinamento da Rede - 2o Ensaio . . . . . . . . . . . . . . . 5.4.1 Simulação de Treinamento da Rede - 2o Ensaio . . . . . . . . . . . . . 5.4.2 Simulação de Treinamento da Variável Nı́vel de Umidade - 2o Ensaio . 5.4.3 Simulação de Treinamento da Variável Nı́vel de Soda - 2o Ensaio . . . 5.4.4 Simulação de Validação da Variável Nı́vel de Umidade - 2o Ensaio . . 5.4.5 Simulação de Validação da Variável Nı́vel de Soda - 2o Ensaio . . . . 5.4.6 Simulação das Validações Desnormalizadas - 2o Ensaio . . . . . . . . 5.5 Estruturação e Treinamento da Rede - 3o Ensaio . . . . . . . . . . . . . . . 5.5.1 Treinamento da Rede - 3o Ensaio . . . . . . . . . . . . . . . . . . . . 5.5.2 Simulação de Treinamento da Variável Umidade - 3o Ensaio . . . . . 5.5.3 Simulação de Treinamento da Variável Soda - 3o Ensaio . . . . . . . . 5.5.4 Simulação de Validação da Variável Umidade - 3o Ensaio . . . . . . . 5.5.5 Simulação de Validação da Variável Soda - 3o Ensaio . . . . . . . . . 5.5.6 Simulação das Validações Desnormalizadas - 3o Ensaio . . . . . . . . 5.5.7 Sinteses dos Modelos de RNA Ajustados . . . . . . . . . . . . . . . . 5.6 Modelagem Multivariada com Função de Transferência . . . . . . . . . . . . 5.6.1 Modelagem para a Variável Nı́vel de Umidade . . . . . . . . . . . . . 5.6.2 Análise das FAC e FACP . . . . . . . . . . . . . . . . . . . . . . . . 5.7 Ajuste de Modelos ARIMA . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.7.1 Ajuste de Modelos ARIMA para a Variável X1 . . . . . . . . . . . . . 5.7.2 Ajuste de Modelos ARIMA para a Variável X2 . . . . . . . . . . . . 5.7.3 Ajuste de Modelos ARIMA para a Variável X3 . . . . . . . . . . . . . 5.8 Correlações Cruzadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.8.1 Análise da Correlação Cruzada entre Y1 vs X1 . . . . . . . . . . . . . 5.8.2 Análise da Correlação Cruzada entre Y1 vs X2 . . . . . . . . . . . . . 5.8.3 Análise da Correlação Cruzada entre Y1 vs X3 . . . . . . . . . . . . . 5.8.4 Ajuste dos Modelos de Função de Tranferência . . . . . . . . . . . . . 5.8.5 Estimativas para a Estruturação do Modelo 1 em 5.7 . . . . . . . . . 5.8.6 Análise Resı́dual para o Modelo de F.T em 5.7 . . . . . . . . . . . . . SILVA, F.L. 74 74 76 77 77 78 79 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 103 103 105 105 106 107 108 108 109 109 109 110 111 PPGME/UFPA xii 5.8.7 Estimativas para a Estruturação do Modelo 2 . . . . . . 5.8.8 Análise Resı́dual para o Modelo de F.T em 5.8 . . . . . . 5.8.9 Estimativas para a Estruturação do Modelo 3 em 5.9 . . 5.8.10 Análise Resı́dual para o Modelo 3 de F.T em 5.9 . . . . . 5.8.11 Seleção do Melhor Modelo para o Nı́vel de Umidade . . . 5.8.12 Teste de Validação para os Modelos do Nı́vel de Umidade 5.9 Modelagem para a Variável Nı́vel de Soda . . . . . . . . . . . . 5.9.1 Análise das FAC e FACP . . . . . . . . . . . . . . . . . 5.9.2 Ajuste do Modelo de Função de Tranferência - Soda . . . 5.9.3 Estimativas para a Estruturação do Modelo 1 em 5.13 . . 5.9.4 Análise Resı́dual para o Modelo de F.T em 5.15 . . . . . 5.9.5 Estimativas para a Estruturação do Modelo 2 em 5.14 . . 5.9.6 Análise Resı́dual para o Modelo de F.T em 5.16 . . . . . 5.9.7 Seleção do Melhor Modelo para o Nı́vel de Soda . . . . . 5.9.8 Teste de Validação para os Modelos do Nı́vel de Soda . . 5.10 Conclusões . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 Considerações Finais 126 A ANEXO A.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A.1.1 Algoritmo para Obtenção de Rede Neural - MATLAB 7.0 . . . . . A.1.2 Algoritmo para Obtenção do Modelo de Séries Temporais - SAS-9 A.1.3 Tabela do Banco de Dados . . . . . . . . . . . . . . . . . . . . . . Bibliografia SILVA, F.L. 112 112 113 114 115 116 118 118 119 119 120 121 122 123 124 125 . . . . . . . . 128 128 128 137 148 155 PPGME/UFPA Lista de Tabelas 5.1 5.2 5.3 5.4 5.5 5.6 5.7 5.8 5.9 5.10 5.11 5.12 5.13 5.14 5.15 5.16 5.17 5.18 5.19 5.20 5.21 5.22 5.23 5.24 5.25 5.26 5.27 5.28 5.29 5.30 5.31 5.32 Comparativo para Decisão entre as Três Redes Neurais Propostas Cálculo e Avaliação dos Parâmetros da Variável X1 . . . . . . . . Estudo das Auto correlações dos Resı́duos . . . . . . . . . . . . . Cálculo e Avaliação dos Parâmetros da Variável X2 . . . . . . . . Estudo das Auto correlações dos Resı́duos . . . . . . . . . . . . . Cálculo e Avaliação dos Parâmetros da Variável X3 . . . . . . . . Estudo das Auto correlações dos Resı́duos . . . . . . . . . . . . . Cálculo dos Parâmetros Estimados para o Modelo de F.T. . . . . Estudo das Auto correlações dos Resı́duos . . . . . . . . . . . . . Estudo das Correlação Cruzada dos Resı́duos vs X1 . . . . . . . . Estudo das Correlação Cruzada dos Resı́duos vs X2 . . . . . . . . Estudo das Correlação Cruzada dos Resı́duos vs X3 . . . . . . . . Cálculo dos Parâmetros Estimados para o Modelo de F.T. . . . . Estudo das Auto correlações dos Resı́duos . . . . . . . . . . . . . Estudo das Correlação Cruzada dos Resı́duos vs X1 . . . . . . . . Estudo das Correlação Cruzada dos Resı́duos vs X3 . . . . . . . . Cálculo dos Parâmetros Estimados para o Modelo de F.T. . . . . Estudo das Auto correlações dos Resı́duos . . . . . . . . . . . . . Estudo das Correlação Cruzada dos Resı́duos vs X1 . . . . . . . . Estudo das Correlação Cruzada dos Resı́duos vs X3 . . . . . . . . Critérios para Seleção do Melhor Modelo em Ajuste Ajustado . . Critérios para Seleção do Melhor Modelo em Validação . . . . . . Cálculo dos Parâmetros Estimados para o Modelo de F.T. . . . . Estudo das Autocorrelação dos Resı́duos do Modelo . . . . . . . . Estudo das Correlação Cruzada dos Resı́duos vs X2 . . . . . . . . Estudo das Correlação Cruzada dos Resı́duos vs X3 . . . . . . . . Cálculo dos Parâmetros Estimados para o Modelo de F.T. . . . . Estudo das Autocorrelação dos Resı́duos do Modelo . . . . . . . . Estudo das Correlação Cruzada dos Resı́duos vs X2 . . . . . . . . Estudo das Correlação Cruzada dos Resı́duos vs X3 . . . . . . . . Critérios para Seleção do Melhor Modelo Ajustado . . . . . . . . Critérios para Seleção do Melhor Modelo Validado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 105 105 106 106 107 107 110 111 111 111 111 112 112 113 113 113 114 114 114 116 117 119 120 120 120 121 122 122 122 123 124 A.1 Valores Fornecidos pelo Processo . . . . . . . . . . . . . . . . . . . . . . . 148 A.2 Continuação da Tabela A.1 . . . . . . . . . . . . . . . . . . . . . . . . . . 149 A.3 Continuação da Tabela A.2 . . . . . . . . . . . . . . . . . . . . . . . . . . 150 xiv A.4 A.5 A.6 A.7 Continuação Continuação Continuação Continuação SILVA, F.L. da da da da Tabela Tabela Tabela Tabela A.3 A.4 A.5 A.6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151 152 153 154 PPGME/UFPA Lista de Figuras 2.1 Estrutura de Modelos Univariados . . . . . . . . . . . . . . . . . . . . . . . 3.1 3.2 Estrutura de Modelos de Função de Transferência . . . . . . . . . . . . . . 26 Sistema de Função de Transferência Dinâmico . . . . . . . . . . . . . . . . 27 4.1 4.2 4.3 4.4 4.5 4.6 4.7 4.8 4.9 4.10 4.11 4.12 4.13 4.14 4.15 4.16 4.17 4.18 4.19 4.20 4.21 Estrutura de Neurônio Biológico . . . . . . . . . . . . . . . . Neurônios Artificial apresentado por McCulloch . . . . . . . Função de ativação linear . . . . . . . . . . . . . . . . . . . . Função de ativação degrau . . . . . . . . . . . . . . . . . . Função de ativação rampa . . . . . . . . . . . . . . . . . . . Função de ativação sigmóide -(logsig) . . . . . . . . . . . . . Função de ativação tangente hiperbólica -(tansig) . . . . . . Rede com neurônio (RHW ) . . . . . . . . . . . . . . . . . . Erro de aproximação do (RHW ) . . . . . . . . . . . . . . . . Neorônio artificial do tipo (Adaline) . . . . . . . . . . . . . . Estrutura de uma Rede com Multicamadas ou Redes Neurais Propagação do erro na rede . . . . . . . . . . . . . . . . . . Retropropagação do erro na rede . . . . . . . . . . . . . . . Superfı́cie de erro com mı́nimos locais e o mı́nimo global . . Modelo Matemático Regressivo . . . . . . . . . . . . . . . . Modelo Fı́sico de Rede Neural . . . . . . . . . . . . . . . . . Efeito da normalização dos dados de entrada . . . . . . . . . Esquema de um sistema de controle dinâmico . . . . . . . . Identificação de um sistema dinâmico . . . . . . . . . . . . . Treinamento de uma rede neural para diagnóstico de falhas . Valores Previstos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Complexas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 44 44 45 45 47 47 49 49 50 51 52 53 54 57 58 65 69 70 72 73 5.1 5.2 5.3 5.4 5.5 5.6 5.7 5.8 5.9 Processo de lavagem e filtração da polpa de hidrato Emissões de Gases por Indústrias . . . . . . . . . . Emissões de Gases por Queimadas . . . . . . . . . . Filtro de disco rotativo . . . . . . . . . . . . . . . . Substituição do Tecido Filtrante . . . . . . . . . . . Comportamentos das Variáveis do processo . . . . . Evolução da Função Erro E(W) . . . . . . . . . . . Treinamento da Variável Umidade . . . . . . . . . . Erro de Treinamento da Variável Umidade . . . . . . . . . . . . . . . . . . . . . . . 74 76 76 77 77 78 80 81 81 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 xvi 5.10 5.11 5.12 5.13 5.14 5.15 5.16 5.17 5.18 5.19 5.20 5.21 5.22 5.23 5.24 5.25 5.26 5.27 5.28 5.29 5.30 5.31 5.32 5.33 5.34 5.35 5.36 5.37 5.38 5.39 5.40 5.41 5.42 5.43 5.44 5.45 5.46 5.47 5.48 5.49 5.50 5.51 5.52 5.53 Treinamento da Variável Soda . . . . . . . . . . Erro de Treinamento da Variável Soda . . . . . Validação da Variável Nı́vel de Umidade . . . . Erro de Validação da Variável Nı́vel de Umidade Validação da Variável Nı́vel de Soda . . . . . . . Erro de Validação da Variável Nı́vel de Soda . . Validação Desnormalizada da Variável Umidade Validação Desnormalizada Variável Soda . . . . Evolução da Função Erro E(W) . . . . . . . . . Treinamento da Variável Umidade . . . . . . . . Erro de Treinamento da Variável Umidade . . . Treinamento da Variável Soda . . . . . . . . . . Erro de Treinamento da Variável Soda . . . . . Validação da Variável Nı́vel de Umidade . . . . Erro de Validação da Variável Nı́vel de Umidade Validação da Variável Nı́vel de Soda . . . . . . . Erro de Validação da Variável Nı́vel de Soda . . Validação Desnormalizada Variável Umidade . . Validação Desnormalizada Variável Soda . . . . Evolução da Função Erro E(W) . . . . . . . . . Treinamento da Variável Umidade . . . . . . . . Erro de Treinamento da Variável Umidade . . . Treinamento da Variável Nı́vel de Soda . . . . . Erro de Treinamento da Variável Soda . . . . . Validação da Variável Nı́vel de Umidade . . . . Validação da Variável Nı́vel de Soda . . . . . . . Erro de Validação da Variável Nı́vel de Umidade Erro de Validação da Variável Nı́vel de Soda . . Validação Desnormalizada Variável Umidade . . Validação Desnormalizada Variável Soda . . . . Nı́veis de Umidade na Torta Y1 . . . . . . . . . Nı́veis de Soda na Torta Y2 . . . . . . . . . . . . Vazão de Condensado X1 . . . . . . . . . . . . . Vazão de Vapor X2 . . . . . . . . . . . . . . . . Rotação do Tambor X3 . . . . . . . . . . . . . . FAC para a Variáve X1 . . . . . . . . . . . . . . FACP para a Variáve X1 . . . . . . . . . . . . . FAC para a Variáve X2 . . . . . . . . . . . . . . FACP para a Variáve X2 . . . . . . . . . . . . . FAC para a Variáve X3 . . . . . . . . . . . . . . FACP para a Variáve X3 . . . . . . . . . . . . . Função de Correlação Cruzada Y1 vs X1 . . . . Função de Correlação Cruzada Y1 vs X2 . . . . Função de Correlação Cruzada Y1 vs X3 . . . . SILVA, F.L. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 82 83 83 84 84 85 85 87 88 88 89 89 90 90 91 91 92 92 94 95 95 96 96 97 97 98 98 99 99 102 102 102 102 102 103 103 103 103 104 104 108 108 108 PPGME/UFPA xvii 5.54 5.55 5.56 5.57 5.58 5.59 5.60 5.61 5.62 5.63 5.64 5.65 5.66 Ajuste do Modelo 5.10 de Função de Tranferência Ajuste do Modelo 5.11 de Função de Tranferência Ajuste do Modelo 5.12 de Função de Tranferência Teste de Validação do 1o Modelo . . . . . . . . . Teste de Validação do 2o Modelo . . . . . . . . . Teste de Validação do 3o Modelo . . . . . . . . . Função de Correlação Cruzada Y2 vs X1 . . . . . Função de Correlação Cruzada Y2 vs X2 . . . . . Função de Correlação Cruzada Y2 vs X3 . . . . . Ajuste do Modelo 5.15 de Função de Tranferência Ajuste do Modelo 5.16 de Função de Tranferência Teste de Validação do 1o Modelo . . . . . . . . . Teste de Validação do 2o Modelo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 115 115 116 116 117 118 118 118 123 123 124 124 A.1 Gera a Normalização por Desvio Padrão . . . . . . . . . . A.2 Padrões apresentados a rede . . . . . . . . . . . . . . . . . A.3 Função e parâmetros de treinamento apresentados a rede . A.4 Gera a Normalização no Espaço (-1, 1) . . . . . . . . . . . A.5 Gera a Análise Gráfica de Treinamento . . . . . . . . . . . A.6 Gera a Análise Gráfica de Validação . . . . . . . . . . . . . A.7 Gera a Análise Gráfica da Validação Desnormalizada . . . A.8 Algorı́tmo para iniciar o treinamento e validação . . . . . . A.9 Projeto para seleção dos dados de treinamento e validação A.10 Gera as Séries das Variáveis . . . . . . . . . . . . . . . . . A.11 Gera a FAC e FACP das Séries . . . . . . . . . . . . . . . A.12 Gera os Modelos ARIMA . . . . . . . . . . . . . . . . . . . A.13 Gera os Testes dos Modelos ARIMA . . . . . . . . . . . . A.14 Gera as Funções de Correlação Cruzada . . . . . . . . . . A.15 Teste do Modelo 1 de F.T - Umidade . . . . . . . . . . . . A.16 Teste do Modelo 2 de F.T - Umidade . . . . . . . . . . . . A.17 Teste do Modelo 3 de F.T - Umidade . . . . . . . . . . . . A.18 Gera Modelo de F.T - Soda . . . . . . . . . . . . . . . . . A.19 Teste do Modelo 1 de F.T - Soda . . . . . . . . . . . . . . A.20 Teste do Modelo 2 de F.T - Soda . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 SILVA, F.L. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . PPGME/UFPA Capı́tulo 1 Introdução O grande interesse neste trabalho está em realizar uma descrição de algumas técnicas mais empregada na atualidade para análise de séries temporais, identificação, monitoramento e controle industrial. Serão mostradas diferentes abordagens e suas particularidades no tratamento das séries temporais multivariadas. Entre essas técnicas se destaca a aplicação de Redes Neurais Artificiais do Tipo Bacpropagation e a modelagem por Função de Transferência baseada na metodologia de Box e Jenkins. Especificamente, essas abordagens serão aplicadas no ajuste de séries temporais multivariadas fornecidas pelo processo industrial responsável pela filtração e secagem da polpa de cristais de hidrato na fase de extração da alumina. Onde os resultados serão utilizados para verificar a melhor adequação em relação ao problema e objetivos vinculado ao estudo, ou seja, identificação e monitoramento do processo. As técnicas de Redes Neurais, estão sendo cada vez mais empregadas, principalmente quando se pretende modelar memórias associativas, reconhecimento de padrões, representação de funções Booleanas e representação de funções contı́nuas. Esta técnica é constantemente aplicada com o objetivo de Construção de Modelos, Projeções e Controle nas mais variadas áreas das ciências médicas, biomédicqas, da robática, das telecomunicações, da indústria de transporte, da indústria de prospecção petrolı́fera, dentre outras relacionada ao conhecimento Humano. Considerada uma das ferramentas mais eficientes para o estudo referente à modelagem de séries de tempo e com maior utilização pela comunidade cientı́fica, a metodologia de Box e Jenkins será aplicada neste trabalho com a finalidade de se construir um modelo que auxilie no processo de comparação entre as técnicas apresentadas. A idéia não é a de dispor as técnicas como antagônicas, mas apresentar como elas podem ser usadas 1.1 Principais Considerações 2 alternativamente ou conjuntamente para as análises de séries temporais e o controle de processos industriais. 1.1 Principais Considerações Pode-se considerar que os modelos de Box e Jenkins foram uma grande descoberta em relação ao estudo de séries de tempo. Segundo Morettin e Toloi (2004), determinada série descrita nos instantes t1 , ...., tn pode fornecer diversas caracterı́sticas do processo que o gerou, tais como: a - Investigação do processo gerador da série; b - Realização de previsões de valores futuros da série; c - Descrição do comportamento da série; d - Procura periódica de relevância nos dados. Conforme Ajoy K. Palit e Dobrivoje Popovic, eu seu livro, “Computational Intelligence in Time Series Forecasting Theory and Engineering Applications”), uma série temporal é uma seqüência ordenada no tempo de observação (valores) de natureza fı́sica ou financeira variável feitas em intervalos igualmente espaçados tempo delta t, representado como um conjunto de valores discretos x1, x2, x3 ,..., etc. Na engenharia p.e: a seqüência de valores é obtidos a partir de sensores por amostragem relacionada aos sinais contı́nuos, sendo baseados em valores medidos são normalmente comprometidos ruı́do, em séries temporais sempre é incluı́do componentes determinı́sticas, ou seja, um sinal e uma componente estocástica representando o ruı́do (resı́duos) que provocam interferências estatı́sticas (flutuações) em torno do valores previamente determinados.(tradução do autor ) Aduz ainda que, a análise da série em um determinado momento é essencialmente necessário verificar a ocorrência na estrutura da séria das componentes (autocorrelação, tendência, sazonalidade, etc), para um possı́vel entendimento do processo dinâmico o qual gerou a mesma no tempo t. No processo Controle de processos ou simplesmente monitoramentos ou avaliações, o tempo previsto a análise de séries temporais é essencial SILVA, F.L. PPGME/UFPA 1.1 Principais Considerações 3 para ajuste e tomada de decisão e consequentemente direcionam as ações a serem tomadas. A análise de séries temporais abrange atividades como: • definição, classificação, e descrição de séries temporais; • modelagem com base na utilização de valores seleciuonados da própria série temporal em estudo; • previsão de valores futuros. onde, basicamente, existem duas abordagens da metodologia da análise de séries temporais, são elas: • abordagem do domı́nio do tempo, principalmente baseado no uso da função covariância da série cronológica; • abordagem no domı́nio da frequência, baseada principalmente na análise espectral de potência ou transformada de Fourier da função autocorrelação. Para os modelos de função de tranferências (F.T ), segundo os comentários de José Renes Pinheiro, quando se trata de um sistema é uma propriedade que independende da natureza e da magnitude da entrada; além de possibilitar um sistema dinâmico ser representado por expressões algébricas da variável complexa “S ”. Um detalhe importante é que a FT não fornecem informações a respeito da estrutura fı́sica do sistema. As mesmas podem ser identicas quando forem de sistemas fisicamente diferentes, se a FT de um sistema é conhecida, a resposta do mesmo pode ser analisada para diferentes formas de excitação (entrada), com a finalidade de compreender a natureza e o comportamento do sistema, caso a FT possa ser obtida experimentalmente pela introdução de sinais de entrada conhecidos e estudando-se as respostas obtidas, portanto a função de tranferência fornece ou pode fornecer uma descrição completa das caracterı́sticas dinâmicas do sistema. Já as redes neurais (RNA), segundo Dahmer (1998), apresentam inúmeras caracterı́sticas que estimulam a sua utilização nas mais diversas pesquisas. Entre elas pode-se citar: • Processamento altamente paralelo e distribuı́do; SILVA, F.L. PPGME/UFPA 1.1 Principais Considerações 4 • Capacidade de aprendizagem através da observação de um conjunto de exemplos, sendo esses, com ou sem informação de respostas desejadas a cada estı́mulo; • Robustez, isto é, a queda do desempenho gradual no eventual funcionamento irregular ou, até mesmo, inutilização de parte da rede; • Manuntenção do desempenho na presença de ruı́do e capacidade de lidar com dados incompletos. Segundo Hecht-Nielsen(1990), uma RNA é uma estrutura que processa informações de forma paralela e distribuı́da e que consiste de unidades computacionais, as quais podem possuir uma memória local e podem executar operações locais, interconectadas por canais unidirecionais chamadas de sinapses, em que cada unidade computacional possui uma única conexão de saı́da que pode ser dividida em quantas conexões laterais se fizer necessário, sendo que cada uma delas transporta o mesmo sinal (HECHT-NIELSEN, 1990). O sinal de saı́da pode ser contı́nuo ou discreto e o processo executado por cada unidade pode ser definido arbitrariamente com a restrição de que ele deve ser completamente local, isto é, deve depender somente dos valores atuais dos sinais de entrada que chegam até a unidade através das conexões e dos valores armazenados na memória local. Para De Azevedo (1993), uma rede neural artificial pode ser especificada como um sistema complexo, representado por um grafo arco-rotulado, na qual, cada vértice é um neurônio artificial com estrutura dinâmica e, o grafo apresenta um conjunto finito, não vazio, de vértices juntos com um conjunto, não ordenado, de arcos conectando pares de vértices. Conforme Campelo, (2005), os sistemas inteligentes vêm sendo aplicados nas mais diversas áreas do conhecimento, tais como, reconhecimento de padrões, mineração de dados, tomada de decisão, identificação, mapeamento e controle de processos dinâmicos, etc. Entre os sistemas inteligentes pode-se destacar dois modelos não lineares: os Modelos Fuzzy e Modelos de Redes Neurais. Ambos apresentam uma propriedade fundamental que impulsionou seu desenvolvimento: são aproximadores universais. Em se tratando de mapeamento Souza et al (1999), descreve que, as redes neurais artificiais (RNA) Multi SILVA, F.L. PPGME/UFPA 1.2 Problema do Trabalho 5 Layer Perceptron - MLP podem ser utilizadas para mapear os relacionamentos entre as diversas variáveis associadas com o processo de especificação (identificação). Fernandes et al, (1995), cita que a principal dificuldade na utilização de redes neurais artificiais na previsão de séries temporais, ainda é a determinação da arquitetura ótima da rede, pois ainda não se possui uma metodologia consistente que apresente a melhor configuração da rede para cada série proposta. Baseando-se nessa pespectiva, este trabalho propõe um modelo que otimiza o processo de filtração e secagem da polpa de cristais de hidrato, sendo este, passı́vel de controle através de sistemas inteligentes de Redes Neurais Artificiais. 1.2 Problema do Trabalho O alto nı́vel de umidade e o alto percentual de soda na polpa de cristais de hidrato, no processo de fabricação da alumina, é um fator culminante no elevado consumo de combustı́vel, energia elétrica e na redução da qualidade final do produto. 1.3 Definição do Objetivo Neste trabalho, pretende-se apresentar modelos dinâmicos de Redes Neurais e de Séries Temporais para mapear e monitorar as multivariáveis que influenciam diretamente no processo industrial de Filtração e Secagem da Polpa de Cristais de Hidrato no Processo de Extração da Alumina. E, dentre os modelos apresentados, realizar uma avaliação da robustez, considerando suas caracterı́sticas relacionadas à descrição, controle e otmização de processos. 1.4 Objetivos Especificos 1. Construir um modelo dinâmico não linear de Rede Neural Artificial Multicamada Direta com treinamento supervisionado utilizando o algoritmo Backpropagation para monitorar o processo de filtração e secagem da polpa de cristais de hidrato, que apresente a melhor aproximação (reconhecimento do padrão do processo) possı́vel. 2. Construir um modelo dinâmico linear com base na metodologia de Box e Jenkins SILVA, F.L. PPGME/UFPA 1.5 Justificativa e Importância do Trabalho 6 para Séries Temporais Multivariadas, utilizando Função de Transferência, para ajustar da forma mais aproximada possı́vel o processo de filtração e secagem da polpa de cristais de hidrato. Apresentando assim, capacidade de minitoramento do processo. 3. Avaliar, através do teste de validação, o modelo mais representativo para o monitoramento do processo de extração da alumina. 1.5 Justificativa e Importância do Trabalho No decorrer dos anos foram implementados e apresentados no meio cientı́fico, vários estudos sobre novas técnicas de modelagem de séries de temporais, cujas finalidades são estudar periodicidades e descrever comportamentos, objetivando melhorar as investigações e suposições feitas sobre as mesmas. Isto é, através da formulação de modelos que apresentem projeções com menor variabilidade possı́vel, para poder explicar a real evolução da série no decorrer do tempo t. Este trabalho possui sua relevância por mostrar que apesar da grande distinção entre os métodos de RNA’s e a metodologia de Box e Jenkins, os mesmos apresentam excelentes resultados, quando estão direcionados à um objetivo comum, como por exemplo, avaliar e controlar processos através de análises prévias de ajuste do modelo. Destaque-se que, dependendo das situações, é mais favorável a aplicação de determinada metodologia de forma conjugada do que individualizada para se obter melhores resultados. 1.6 A Hipótese Básica da Tese Será que as respostas obtidas através da modelagem de Redes Neurais Artificiais RNA’s, para o controle de umidade e do nı́vel de soda cáustica presente na polpa de cristais de hidrato no processo de fabricação de alumina são mais significativas, que as obtidas por Modelos de Séries Temporais Multivariados, devido a sua alta capacidade de reconhecimento de padrões. SILVA, F.L. PPGME/UFPA 1.7 Estrutura do Trabalho 7 1.7 Estrutura do Trabalho Este trabalho encontra-se dividido em seis capı́tulos e um anexo, com o seguinte conteúdo: • Capı́tulo 1: Neste capı́tulo, estão as idéias iniciais referentes ao projeto, onde são englobadas as principais considerações, as justificativas e a relevância do trabalho, a hipótese básica da dissertação e os objetivos; • Capı́tulo 2 : Neste capı́tulo, inicia-se uma introdução aos conceitos básicos dos modelos probabilı́sticos de séries temporais univariados, dando mais ênfase aos modelos referentes à metodologia de Box e Jenkins; • Capı́tulo 3 : Neste capı́tulo, faz-se referência aos modelos probabilı́sticos de séries temporais multivariados ressaltando as funções de transferência, modelos multivariados e função de correlação cruzada; • Capı́tulo 4 : Neste capı́tulo, são apresentados os Sistemas Inteligentes, mais especificamente os sistemas de Redes Neurais Artificiais. São demostradas algumas contribuições referentes a algoritmos de redes neurais, pontos fortes e limitações, além da utilização de funções de tranferências (funções de ativação). • Capı́tulo 5 : Neste capı́tulo, são apresentados os resultados obtidos através dos modelos de Redes Neurais e de Função de Tranferência, ambos ajustados para as multivariáveis representativas do processo; • Capı́tulo 6 : Neste capı́tulo, é desemvolvido e apresentado o estudo referente a aplicação das teorias citadas nos capı́tulos anteriores, na avaliação do controle de filtração da polpa de cristais de hidrato no processo de fabricação de alumina; • Capı́tulo 7 : Neste capı́tulo, são ralatadas as considerações finais e recomendações para futuros trabalhos. • Anexos: Neste, são apresentados as tabelas que contém todos os algorı́tmos utilizados para a construção das Redes Neurais Artificiais e para a contrução do Modelo Multivariado com auxı́lio de Função de Tranferência, e o banco de dados utilizado. SILVA, F.L. PPGME/UFPA Capı́tulo 2 Modelos Probabilı́sticos de Séries Temporais em Processos Dinâmicos Univariados 2.1 Introdução A classe dos Modelos Univariados limita-se a estudar uma única série histórica cujas caracterı́sticas de interese são explicadas exclusivamente a partir do seu próprio comportamento de evolução, ou seja, os valores futuros de uma série são explicados a partir de seus valores passados. Estes modelos supõem que a série é gerada através de um filtro linear, cuja entrada é ruı́do branco (Moretin e Toloi, 2004), apresentado por Figura 2.1, MODELO UNIVARIADO ZT ZT ( j ) Informações Relevantes Figura 2.1 Estrutura de Modelos Univariados Onde a composição da estrutura do modelo, é definida da seguinte forma: • Z t → entrada com caracterı́stica de ruı́do branco. Portanto, Z t = at • Modelo Univariado → Processo de filtro linear univariado, também considerado como uma função de transferência ψ(B), • Zt (j) → Série de saı́da que descreve um processo linear (discreto), onde pode-se escrever: Zt = µ + at + ψ1 at−1 + ψ2 at−2 + ... = µ + ψ(B)at , (2.1) ψ(B) = 1 + ψ1 B + ψ2 B 2 + ..., (2.2) em que 2.2 Processos Estocásticos 9 • B é o operador deslocamento unitário discreto; • e µ será um parâmetro de determinação do nı́vel da série, caso a seqüência de pesos {ψj , j ≥ 1} for infinita e convergente, onde o filtro sérá estável (somável) e Zt é estacionária. Sendo assim, E(at ) = 0 para todo t; V ar(at ) = σa2 , para todo t; E(at as ) = 0 s 6= t. Considerando, Z̃ = Zt − µ, temos que: Z̃ = ψ(B)at (2.3) Dentro desta classe de modelos pode-se citar: • Os métodos de decomposição e os métodos de amortecimento exponencial; • Os modelos automáticos que incorporam modelos de regressão e o modelos de ajustamento sazonal; • E os modelos univariados de Box & Jenkins. Esta classe de modelos foi implementada por Box & Jenkins (1970), e consiste de uma classe geral de modelos dinâmicos lineares conhecidos como Autoregressivo Integrado Médias Móveis ou modelos ARIMA. 2.2 Processos Estocásticos Definição 2.1: Seja T um conjunto arbitrário. Um processo estocástico é uma famı́lia Z = {Z(t) , t ∈ T }, tal que, para cada t ∈ T , Zt é uma variável aleatória (v.a). 2.2.1 Caracterı́sticas de um Processos Estocásticos Sejam t1 , t2 , ...., tn elementos quaisquer de T e consideremos, F (z1 , ...., zn ; t1 , ....., tn ) = P {Z(t1 ) ≤ x1 , ...., Z(tn ) ≤ zn } (2.4) O processo estocástico X = {Z(t), t ∈ T } estará especificado se conhecermos as distribuições finito-dimensionais em 2.4, para todo n ≥ 1 onde: SILVA, F.L. PPGME/UFPA 2.2 Processos Estocásticos 10 • Para n=1, se conhece as distribuições unidimensionais da v.a Z(t1 ), t ∈ T ; • Para n=2, se conhece as distribuições unidimensionais da v.a (Z(t1 ), Z(t2 )), t1 , t2 ∈ T , e assim por diante. Conforme Moretin e Toloi, (2004) algumas condições devem serem satisfeitas pela função de distribuição (fd ) descrita em 2.4, são elas : 1. Condição de Simetria: para qualquer permutação ji , ...., jn , dos ı́ndices 1,2,....,n, temos: F (xj1 , ...., xjn ; tj1 , ....., tjn ) = F (z1 , ...., zn ; t1 , ..., tn ) (2.5) 2. Condição de Compatibilidade: para m < n, F (x1 , ...., xm , ...., +∞; t1 , ....., tm , tm+1 , ....., tn ) = F (z1 , ...., zm ; t1 , ..., tm ) (2.6) observe que o membro esquerdo da Equação (2.6), deve ser entendido como: limF (x1 , ...., xm ; xm+1 , ...., xn ; t1 , ....., tn ), (2.7) para xm+1 → +∞, ..., xn → +∞. Um processo estocástico Xt ; t ∈ T é dito ser estacionário de segunda ordem ou fracamente estacionário se a sua função média é constante e sua função de autocovariância depende apenas da defasagem. Por definição temos: Definição 2.2: Seja T um conjunto arbitrário. Um processo estocástico é uma famı́lia X = {X(t), t ∈ T }, tal que, para cada t ∈ T, X(t) é uma variável aleatória. Deste modo, um processo estocástico é uma familia de variáveis aleatórias (v.a). Por suposição, estão definidas em um espaço de probabilidade, do tipo (Ω, A, P), e onde o conjunto T é normalmente tomado como o conjunto dos inteiros T = 0, ±1, ±2, ..., no caso discreto, ou o conjunto dos reais R, no caso contı́nuo. Observe que, para todo t ∈ T, Z(t) é uma variável aleatória definida sobre o espaço Ω, e na realidade Z(t) é uma função de dois argumentos, Z(t, ω), t ∈ T e ω ∈ Ω. SILVA, F.L. PPGME/UFPA 2.2 Processos Estocásticos 11 Alguns estudos podem ser restritos a momentos de baixa ordem e, em particular, para uma classe de processos os quais interessarão a este trabalho, os chamados processos estacionários de segunda ordem, onde será considerado os momentos de primeira e segunda ordem, onde: A função média, ou simplesmente média, de X é: Z ∞ µ(1, t) = µ(t) = E[X(t)] = (2.8) zf (z, t)dz −∞ E a função de autocovariância (facv) de X é: µ(1, 1; t1 t2 ) − µ(1; t1 )(1; t2 ) = γ(t1 , t2 ) = γ(τ ) γ(t1 , t2 ) = E{X(t1 )X(t2 )} − E{X(t1 }E{X(t2 )}, t1 , t 2 , ∈ T (2.9) (2.10) Observe que µ(t) é uma função de t ∈ T e que γ(t1 , t2 ) depende de dois argumentos, t1 e t2 e em particaluar t1 = t2 = t, a função (2.9) nos dará: γ(t, t) = V ar{X(t)} = E{X 2 (t)} − E 2 {X(t)} (2.11) especificada como a função variância do processo X e será indicada por V (t). Então: E[X(t)] = µ(t) (2.12) Cov[X(t1 ); X(t2 )] = γ(t1 , t2 ) (2.13) Nenhuma outra suposição é feita a respeito dos momentos de ordem mais alta. Além disso, fazendo τ = 0 segue que V ar[Xt ] = 0, ou seja, a variância do processo assim como a média também é constante. Note também que tanto a média quanto a variância precisam ser finitos. Esta definição mais fraca de estacionariedade será utilizada daqui em diante já que muitas propriedades dos processos estacionários dependem apenas da estrutura especificada pelo primeiro e segundo momentos. Uma classe importante de processos em que isto se verifica é a classe dos processos normais ou Gaussianos cuja a distribuição conjunta de X(t1 ), ...., (tk ) é normal multivariada para todo conjunto t1 , ...., tk . A distribuição normal multivariada fica completamente caracterizada pelo primeiro e segundo momentos, i.e. por µ(t) e γ(t1 ; t2 ). Assim, estacionariedade fraca implica em estacionariedade estrita para processos normais. Por outro lado, µ e γ(τ ) podem não descrever adequadamente processos que sejam muito ”não-normais”(Wei, 1990). SILVA, F.L. PPGME/UFPA 2.3 A estacionariedade 12 2.3 A estacionariedade A estacionariedade numa série temporal significa que os dados oscilam sobre uma média constante, independente do tempo, com a variância das flutuações permanecendo essencialmente a mesma. Diniz (1998), afirma que uma série temporal é estacionária se o processo aleatório oscilar em torno de um nı́vel médio constante. Séries temporais com tendência linear ou exponencial são exemplos de séries temporais com comportamento não estacionário. A condição de estacionariedade de 2a ordem implica que tanto a média do processo, como a variância são constantes. 2.4 Processos Estacionários Definição 2.3: Um processo estocástico X = {Z(t), t ∈ T } é dito estritamente estacionário se todas as distribuições finito-dimensionais: F (z1 , ..., zn ; t1 , ..., tn ) = P [Z(t1 ≤ z1 , ..., Z(tn ) ≤ zn ]. (2.14) permanecem as mesmas sob tranlações no tempo,(Moretin e Toloi, 2004), ou seja: F (x1 , ..., xn ; t1 + τ, ..., tn + τ ) = F (x1 , ..., xn ; t1 , ..., tn ), (2.15) para quaisquer t1 , ..., tn , τ de T. Uma série temporal é dita estritamente estacionária se a distribuição de probabilidade conjunta de X(t1 ), ....., X(tk ) é a mesma de X(t1 + τ ), ....., X(tk + τ ). Ou seja, o deslocamento da origem dos tempos por uma quantidade τ não tem efeito na distribuição conjunta que portanto depende apenas dos intervalos entre t1 , .....tk . Em particular, para k = 1 a estacionariedade estrita implica que a distribuição de Xt é a mesma para todo t de modo que, se os dois primeiros momentos forem finitos, temos que: µ(t) = µ (2.16) v(t) = σ 2 (2.17) são constantes e não dependem de t. Para k = 2 a distribuição conjunta de X(t1 )eX(t2 ) depende apenas da distância t2 − t1 , chamada defasagem. A função de autocovariância γ(t1 ; t2 ) também depende apenas de t2 −t1 e pode ser escrita como γ(τ ) onde, o coeficiente de autocovariância na defasagem τ é dada por: SILVA, F.L. PPGME/UFPA 2.5 Processos Não-Estacionários 13 γ(τ ) = E[X(t) − µ][X(t + τ ) − µ] (2.18) γ(τ ) = Cov[X(t), X(t + τ )] (2.19) Observe, que para melhor interpretação, pode-se denominar a Equação (2.19) de autocovariância, e assim, dando origem a função de autocorrelação ρ(τ ) : ρ(τ ) = γ(τ ) γ(0) (2.20) Essa função explica o nı́vel de correlação existente entre X(t) e X(t + τ ). 2.5 Processos Não-Estacionários 2.5.1 Modelos ARIMA ( p,d,q ) de Box & Jenkins Estes modelos foram propostos no decorrer da década de 1960, pelos professores George E. P. Box e Gwilym M. Jenkins e a partir de 1970 foi publicado na literatura Time Series Analysis, forecasting and control (MORETTIN e TOLOI, 2004). Esta é a metodologia mais utilizada pela comunidade cientifica para a análise de séries temporais e formulação de modelos com maior capacidade de gerar previsões significativas. Segundo Box e Jenkins ( 1976 ); Souza e Camargo ( 1996 ) uma série temporal é um conjunto de observações de uma dada variável ordenada segundo o parâmetro tempo em intervalos iguais. Se o processo estocástico que gerou a série de observações é invariante com respeito ao tempo, diz-se que o processo é estacionário. Se as caracterı́sticas do processo se alteram no decorrer do tempo, o mesmo é caracterizado como não estacionário. A importância do conhecimento da série, ser ou não estacionária, reside no fato de que quando se trabalha com uma série estacionária, se está em presença de uma função amostral do processo que tem a mesma forma em todos os instantes do tempo t²N , onde N é o número de observações existentes, acarretando na facilidade de obtenção de estimativas do processo. SILVA, F.L. PPGME/UFPA 2.5 Processos Não-Estacionários 14 Segundo Morettin e Toloi (2004), uma série temporal Wt = 4d Zt apresenta as caracteristicas de estacionariedade, este fato, se deve ao operador diferença 4d . Então podemos escrever Wt por um modelo ARMA(p,q ), da forma: φ(B)Wt = θ(B)at . (2.21) onde, φ(B) = 1 − φ1 (B) − .... e θ(B) = 1 − θ1 (B) − .... sendo: B : Operador Atraso, tal que, B K Xt = Xt−k θ(B) : Polinômio médias móveis (MA) φ(B) : Polinômio auto regressivo (AR) 4 : Operador diferença simples, tal que, 4Zt = Zt − Zt−1 No entanto, se Wt for uma diferença de Zt , conseqüêntemente Zt é uma integral de Wt , daı́ diz-se que Zt apresenta caracterı́stica de um modelo auto-regressivo, integrado, médias móveis ou simplesmente modelo ARIMA. Os termos auto-regressivos correspondem a defasagens da série transformada, ou seja, a série estacionária obtida por intermédio de diferenciações e as médias móveis a defasagens dos erros aleatórios e o termo integrado refere-se a ordem de diferenciações sofridas pela série para tornar-se estacionária. Esta metodologia tem como premissa fundamental que as séries temporais são geradas por processos estocásticos cuja natureza pode ser representada por um modelo matemático, com a seguinte estrutura. φ(B)4d Zt = θ(B)at . (2.22) de ordem (p,d,q) e escrevemos ARIMA(p,d,q), onde p e q são as ordens do parâmetro autoregressivo φ(B) e do parâmetro média móvel θ(B), respectivamente. Portanto, Segundo Morettin & Toloi (2004) o modelo especificado em (2.22), supõe que a d-ésima diferença da série Zt pode ser representado por um modelo ARMA, estacionário e inversı́vel. Na maioria dos casos usuais , d = 1 ou d = 2, que correspondem a dois casos interressantes e comuns de não estacionariedade homogênea, são eles: SILVA, F.L. PPGME/UFPA 2.5 Processos Não-Estacionários 15 a) Séries não-estacionárias quanto ao nı́vel: oscilam ao redor de um nı́vel médio durante algum tempo e depois saltam para outro nı́vel temporário. Para torná-las estacionárias é suficiente tomar uma única diferença; este é o caso tipico de séries econômicas. φ(B)41 Zt = θ(B)at . b) Séries não-estacionárias quanto a inclinação: oscilam numa direção por algum tempo e depois mudam para outra direção temporária. Para torná-las estacionárias é suficiente tomar a segunda diferença. φ(B)42 Zt = θ(B)at . O modelo ARIMA(p,d,q) é um caso especial de um processo integrado. Em geral, dizse que Xt é integrável de ordem d se ∆d Xt for estacionário, e escrevemos Xt ∼ I(d). Se d=0, conseqüêntemente Xt será considerado estacionário. A análise no domı́nio do tempo é baseada em um modelo paramétrico, utilizando-se as funções de autocovariância e autocorrelação. A autocorrelação é a autocovariância padronizada, que serve para medir a extensão de um processo para o qual o valor tomado no tempo t, depende daquele tomado no tempo t-k. Define-se a autocorrelação de ordem k como: ρkk = Cov[Zt , Zt+k ] γk =p γo V ar(Zt )V ar(Zt+k ) (2.23) Onde: V ar(Zt ) = V ar(Zt=k ) = 0 o que é igual a variância do processo ρ0 = 1 e ρk = ρ−k A autocorrelação pode ser estendida. Se for medida a correlação entre duas observações seriais Zt e Zt+k , eliminando-se a dependência dos termos intermediários, Zt+1 , Zt+k−1 , tem-se a autocorrelação parcial, representada por: Cor Zt , Zt+k Zt+1 , .........., Zt+k−1 (2.24) A função de autocorrelação pode ser obtida considerando-se um modelo de regressão para um processo estacionário com média zero. A variável dependente Zt+k dependente das variáveis; Zt+k−1 , Zt+k−2 , ........, Zt+k−n . Deste modo; temos: SILVA, F.L. PPGME/UFPA 2.5 Processos Não-Estacionários 16 Zt−k = φk1 Zt+k−1 + φk2 Zt+k−2 + .... + φKK Zt + at−k (2.25) Onde: φki - i - ésimo parâmetro da regressão at+k - é o termo de erro descorrelatado com Zt+k−j para j ≥ 1 De acordo com Moretin e Toloi (2004), os Modelos Autoregressivos Puros AR(p,0) são aqueles cujo polinômio φ(B) = 1, e onde as estimativas de Z para um tempo t dependem de uma combinação linear de p termos da série observada, incluindo o termo aleatório a(t) de ruı́do branco (erros de estimação com distribuição normal de média zero e variância constante e não correlacionadas). Deste modo tem-se: Zt = p X φi Z(t − i) + at (2.26) Zt = φ1 Zt−1 + φ2 Zt−2 + ... + φp Zt−p + at (2.27) i=1 onde φi são parâmetros que ponderam os valores de Zt , do instante imediatamente anterior t-1 até o mais distante t-p, sendo determinados através de técnicas de minimização de erros. Os Modelos Médias Móveis puros MA(0,q) são aqueles cujo polinômio θ(B) = 1, este modelo assume que a série modelada é gerada através de uma combinação linear de q sinais de ruı́do a(t-i), aleatórios e independentes entre si. Assim temos: q X Zt = − θi a(t − i) + at (2.28) i=1 Zt = at − θ1 at−1−2 at−2 − ..... − θP at−q (2.29) Os Modelos Autoregressivos-Médias-Móveis Puros ARMA, com AR( p,0 ) e MA( 0,q ) são aqueles cujo polinômio φ(B) = 1 e θ(B) = 1. Deste modo temos: Zt = − p X q X θi a(t − i) + at (2.30) Zt = φ1 Zt−1 + φ2 Zt−2 + ... + φp Zt−p + at − θ1 at−1 − θ2 at−2 − ... − θp at−q (2.31) i=1 φi Z(t − i) − i=1 Para que o polinômio φ(B) seja estacionário, suas raı́zes têm de estar fora do cı́rculo unitário, e para que θ(B) seja inversı́vel, suas raı́zes devem se encontrar fora do cı́rculo unitário. SILVA, F.L. PPGME/UFPA 2.5 Processos Não-Estacionários 17 Para se fazer uma previsão de uma série temporal através dos modelos ARIMA, torna-se necessário identificar a ordem dos perâmetros p,d,q. Sendo assim,o primeiro parâmetro a ser identificado é o grau de diferenciação d necessário à estabilização dos dados. Isto é feito através de um exame de correlograma, ou seja, do diagrama da função de autocorrelação (FAC), no qual são apresentados os valores das autocorrelações em ralação aos lags k. Se as autocorrelações decrescem de forma linear, realizam-se diferenciação na série, até que o diagrama apresente um corte abrupto para um valor qualquer de autocorrelação, a partir daı́ a série será considerada estacionária. A ordem autoregressiva p é determinada pela verificação da função de autocorrelação parcial (FACP) φkk da série que está sendo analisada. Se a série for unicamente autoregressiva ARIMA (p,d,0), sua função de autocorrelação parcial apresentará uma queda rápida após o lag k. Segundo (Bartlet, 1946; Box & Jenkins, 1976) caso não utilise a FACP, deve-se efetuar uma análise dos estimadores φkk para verificar até que ordem de defasagem do correlograma desta função ele é estatisticamente significativo. Após indentificá-la ela será considerada autoregressiva. 2.5.2 Análises das Funções de Autocorrelações Os processos AR(p), MA(q) e ARMA(p,q) apresentam as funções de autocorrelações com as seguintes caracterı́sticas: • Um processo AR(p) apresenta fac com decaimento de acordo com exponenciais e /ou senóides amortecidas, infinitas em extensão; • Um processo MA(q) apresenta fac finita, no sentido que ela apresenta um corte após o lag q; • Um processo ARMA(p,q) apresenta fac infinita em extensão, a qual decai de acordo com exponenciais e/ou senóides amortecidas após o lag q - p. SILVA, F.L. PPGME/UFPA 2.5 Processos Não-Estacionários 18 2.5.3 Análise das Funções de Autocorrelações Parciais Os processos AR(p), MA(q) e ARMA(p,q) apresentam as funções de autocorrelações parciais com as seguintes caracterı́sticas: • Um processo AR(p) apresenta facp φkk 6= 0, para k ≤ p e φkk = 0 para k > p; • Um processo MA(q) apresenta facp de maneira similar à fac de um processo AR(p): com exponenciais e/ou senóides amortecidas; • Um processo ARMA(p,q) apresenta facp com as caracterı́sticas da fac de um processo MA puro e/ou senóides amortecidas após o lag q - p. 2.5.4 Critérios de Seleção - AIC e SBC Existem vários critérios que permitem identificar modelos ARMA, sugeridos a partir de 1970, cuja idéia era escolher as ordens p e q que fossem capazes de minimizar a expressão: C(N ) (2.32) N 2 em que σ̂p,q é uma estimativa da variância residual obtida ajustando um modelo ARMA(p,q) 2 P (p, q) = lnσ̂p,q + (p, q) às N observações da série e C(N) é uma função do tamanho da série. • Critério de Informação de Akaike - AIC. Akaike (1973 e 1974) afirma que a escolha de modelos mais significativos, implica na escolha de modelos, cujas as estimativas para os parâmetros (p,q), venham minimizar a expressão. AIC(p, d, q) = lnσ̂a2 + N · 2(p + q + 1 + δd0 ) + N · ln2π + N N −d (2.33) em que: ½ δd0 = 1, d = 0 0, d = 6 0 (2.34) e σ̂a2 é o estimador de máxima verossimilhança de σa2 . Uma forma mais simples de se calcular este critério é: AIC = N.ln( n1 SILVA, F.L. Pn j=1 (yj − ŷj )2 ) + 2.ω. PPGME/UFPA 2.5 Processos Não-Estacionários 19 • Critério de Informação Bayesiano - BIC ou SBC Sugerido por Akaike(1977), Rissanem (1978) e Schwartz (1978), este critério, para o caso de um modelo ARMA(p,q), implica em minimizar a expressão: 2 + (k + l) SBC(p, q) = lnσ̂p,q logN N (2.35) 2 onde, σ̂p,q é o estimativa de máxima verossimilhança da variância residual do modelo ARMA(p,q). Uma forma mais simples de se calcular este critério é: SBC = N.ln n1 Pn j=1 (yj − ŷj )2 + ω.ln(N ) Onde, ω = número de parâmetros estimados; N = número de observações utilizadas. SILVA, F.L. PPGME/UFPA Capı́tulo 3 Modelos Probabilı́sticos de Séries Temporais em Processos Dinâmicos Multivariados 3.1 Introdução Para Souza(1989), os Modelos Multivariados são modelos capazes de realizar várias previsões ao mesmo tempo, onde as séries de interesse são explicadas em função não apenas do comportamento da própria série mas também de outras séries, permitindo, desta forma, relações de interdependência e causalidade. Esses modelos apresentam uma estrutura capaz de estimar a curto, médio e longo prazo diversas séries simultâneamente. Na prática, muitas das séries temporais são avaliadas melhor como uma componente de algum vetor multivariado de uma série de tempo Xt com dependência existente dentro de cada componennte Xtj , mas também deve-se avaliar a interdependência entre as diferentes componentes Xtj e Xti . Deve-se observar que muitas das teorias e suposições levantadas na análise univariada de série de tempo estende-se de forma similar para a análise de séries de tempo multivariada (Wylomanska, 2005). 3.2 Propriedades de Segunda Ordem de Séries Temporais Multivariada Considere m séries de tempo Xti , t = 0, ±1, ±2, ..., i = 1, 2,..., m com E(Xti2 ) < ∞ para todo i. Se todas as distribuições finitas dimensionais das variáveis aleatórias Xti forem do tipo normal multivariada, as distribuições de Xti serão completamente determinada pelas médias. µti = E(Xi ) e as covariâncias por: γij (t + h, t) = E[(Xt+h , i − µti )(Xtj − µtj )] (3.1) (3.2) 3.2 Propriedades de Segunda Ordem de Séries Temporais Multivariada 21 Caso as observações Xt não apresentem uma distribuição normal, as quantidades µti e µij (t + h, t) especificam a propriedade de segunda ordem, e a covariância é uma medida de dependência, não somente entre as observações da mesma série, mas também em observações de séries diferentes. Quando se trata de m séries, costuma-se utilizar a notação de vetor, definido da seguinte forma: Xt = [Xt1 , ...., Xtm ]0 , t = 0, ±1, ±2, .... (3.3) As propriedades de segunda ordem das séries de tempo multivariada Xt são especificadas pelos vetores de médias, na forma: µt = [µt1 , ...., µtm ]0 (3.4) Definição 1 : Uma série m-variada Xt é dita fracamente estacionária se µt for independente de t e Γ(t + h, t) for independente de t, para todo h. Para séries estacionárias temos: µ = E(Xt Γ(h)) = E[(Xt+h − µ )(Xt − µ)]. (3.5) Definição 2 : A série temporal m-variada Zt é definida como (White Noise) ou ruı́do P branco com média 0 e matriz de covariância (Zt ∼ W N (0, Σ)) se Zt é estacionária com média d vetor igual a zero e a função de matriz de covariância dada por: ½ Γ(h) = Σ, h = 0 0, caso contrário (3.6) Definição 3 : Uma série m-variada Zt é dita série de ruı́do branco Independente e IdenP ticamente Distribuı́do - IID com média 0 e matriz de covariância (Zt ∼ IID(0, Σ)) se o vetor aleatório Zt for independente e identicamente distribuido com média 0 e matriz de covariância σ 2 . SILVA, F.L. PPGME/UFPA 3.3 Modelamento com Processo AR Multivariado 22 Definição 4 : Uma série m-variada Xt é um processo linear, se apresentar a seguinte representação. Xt = ∞ X Cj Zt−j , Zt ∼ WN(0, Σ) (3.7) j=−∞ Onde Cj é uma sequência de matrizes m × m com componentes absolutamente somável. Observação 1: Um processo da forma descrita em (3.7) é estacionário com média 0 e função de covariância Γ(h) = ∞ X Cj+h ΣCj0 , h = 0, ±1, ±2, ... (3.8) j=−∞ 3.3 Modelamento com Processo AR Multivariado Segundo Wilomanska(2005), se Xt é um processo AR(p) multivariado causal definido pela equação diferença: Xt = φ1 Xt−1 + ... + φp Xt−p + Zt , WN (0, Σ), (3.9) ou ainda: Xt = µ + φ1 Xt−1 + ... + φp Xt−p + ²t (3.10) φ(L)Xt = µ + ²t (3.11) onde, ²t ∼ W N (0, σ²2 ) (Ruı́do Branco), isto é: E(²t ) = 0, ½ E(²t ²s ) = σ²2 , t = s 0 , c.c (3.12) com, 1 − φ1 L − φ2 L2 − ... − φp Lp Lag polinomial de ordem p, então: SILVA, F.L. PPGME/UFPA 3.4 Modelamento com Processo MA Multivariado 23 Lk Xt = yt−k (3.13) com operador Lag (L0 yt = yt ). Com a condição de estacionariedade satisfeita, tem-se: φ(L) = 0 , (3.14) Com as raizes fora do circulo unitário, desta forma; z p − φ1 z p−1 − ... − φp−1 z − φp = 0 (3.15) 3.4 Modelamento com Processo MA Multivariado Segundo Wilomanska(2005), se Xt é um processo MA(q) multivariado é definido: Xt = µ + ²t + θ1 ²t−1 + ... + θq ²t−q = µ + θ (L).²t , (3.16) com, θ(L) = 1 + θ1 L + θ2 L2 + ... + θq Lq Lag polinomial de ordem q, com: ²t ∼ W N (0, σ²2 ), (3.17) Um processo MA estacionário e com as condições de invertibilidade satisfeita, apresenta a caracterı́stica polinomial θ(L) = 0, com raizes fora do cı́rculo unitário. 3.5 Processos ARMA Multivariados Como definido no processo univariado, pode-se definir uma classe útil de processos estacionários multivariados Xt . Desta forma, Xt deve satisfazer uma classe de equações de diferenças lineares com coeficientes constantes. Zt é uma série multivariada de ruı́do branco, fundamental para a construção de processos ARMA. SILVA, F.L. PPGME/UFPA 3.5 Processos ARMA Multivariados 24 Definião 5 : As séries são caracterizadas como um processo ARMA(p,q) se Xt é estacionária e para cada t, ocorrer. φ(B)Xt = θ(B)Zt , Zt ∼ W M (0, Σ), (3.18) onde φ(z) I −φ1 −...−φp z p , θz = I +θ1 +...+θq zq são matrizes com valores polinomiais, I é uma matriz identidade m x m. Definição 6 : Um processo ARMA(p,q) para uma série Xt é causal ou uma função causal de Zt , se existirem matrizes ψj com componentes absolutamente somável, de tal modo que: φ(L)Yt = µ + θ(L)²t , (3.19) ou Xt = ∞ X ψ j Zt−j (3.20) J=0 que é equivalente à condição detφ(z) 6= 0, para todo z ∈ C, de tal modo que, |z| ≤ 1 . A matriz ψj é encontrada através da equação. ψj = θ j + ∞ X (3.21) k=1 k phi ψj−k , j = 0, 1, , ..., (3.22) onde θ0 = I, θj = 0 para j > q, φj = 0 para j > p e ψj = 0 para j < 0. Definição 7 : Um processo ARMA(p,q) para uma série Xt é invertı́vel se existirem matrizes Πj com componentes absolutamente somáveis, de tal modo que: Πj = −φj − ∞ X k=1 θk Πj−k , j = 0, 1, ...., ∞ X ψ j Zt−j (3.23) J=0 onde φ0 = −I, φj = 0 para j > p , θj = 0 e Πj = 0 para j > 0. SILVA, F.L. PPGME/UFPA 3.6 Processos ARIMA Multivariados 25 Para um processo AR(1) multivariado com o auxı́lio da equação (3.23) dada na definição de causalidade, tem-se: ψ0 = I ψ1 = φψ0 = φ ψ2 = φψ1 = φ2 : . ψj = φψj−1 = φj , j≥ 3 3.6 Processos ARIMA Multivariados Definião 8 : Uma série é definida integrada de ordem (d), ou seja, Xt v I(d), se tornando estacionário após d diferenciação. Portanto o processo ARIMA(p,d,q) para uma série Xt é definido, da seguinte forma: (1 − L)d Xt v ARM A(p, q) , (3.24) Diz-se que Xt v ARIM A(p, d, q), onde p, denota a ordem dos AR-lags e q , denota a ordem dos MA-lags e d as diferenciações. 3.7 Modelos de Função de Transferência (MFT)ou Modelos Causais Nos Modelos de Função de Tranferência uma série de saı́da é relacionada a uma ou mais séries da entrada, ou seja, o interesse agora é estudar uma única saı́da em um sistema linear de entrada múltipla. Nestes tipos de modelos os valores futuros de uma série são explicados não somente pelos valores passados da mesma, mas também por séries que de alguma forma possuam relação entre si,(Fig. 3.1). onde: Z1,T , ..., Zk−1,T são séries de entrada; ZK,T séries de saı́da, pós modelo de função de tranferência; Por exemplo, vendas podem estar relacionadas a gastos com propaganda; consumo diário de eletricidade podem estar relacionados a certas variáveis ambientais tais como máxima temperatura externa SILVA, F.L. PPGME/UFPA 3.8 Funções de Transferências de Única Entrada 26 Z1, T Z2, T : : ZK-1, T MODELO DE FUNÇÃO DE TRANSFERÊNCIA ZK, T( ) Informações Relevantes Figura 3.1 Estrutura de Modelos de Função de Transferência e umidade relativa. Serão vistos modelos lineares com saı́da simples com entrada simples e múltipla. Depois do estudo das caracterı́sticas básicas dos modelos de função de transferência serão discutidas a identificação, estimação e checagem do diagnóstico desses modelos e ainda previsões para modelos com função de transferência. 3.8 Funções de Transferências de Única Entrada Assumindo que Xt e Yt são séries corretamente transformadas, de modo que, ambas são estacionárias. Em um sistema linear com entrada e saı́da única, a série de entrada Xt e de saı́da Yt são relacionadas através do seguinte filtro linear: Yt = v(B)Xt + Nt Onde: v(B) = P∞ j=−∞ (3.25) vj B j se refere a um filtro de função de transferência descrito por Box e Jenkins (1976), e Nt é uma série de ruı́do do sistema que é independente da série de entrada Xt . Box e Jenkins descreveu a função (3.25), como um modelo de função de transferência que apresenta a capacidade de descrever funções resposta de frequência. Quando Xt e Yt seguem um modelo ARMA, esta Função (3.25) também é conhecida como um modelo, AutoRegressive Moving Average with exogenous signal ARMAX, ou seja, Autoregressivo com Média Móvel e Entradas Exogenas. SILVA, F.L. PPGME/UFPA 3.8 Funções de Transferências de Única Entrada 27 Os coeficientes do modelos de função de transferência em (3.25) são geralmente conhecidos como pesos de resposta do impulso. Em função de j, vj também é conhecida como função de resposta de impulsos. O modelo de função de transferência é dito ser estável se a sequência desses pesos puder assumir a seguinte função: X |vj | < ∞ (3.26) Para Wei(1990), um sistema estável com uma entrada limitada sempre produz uma saı́da limitada. O modelo de função de tranferência é dito ser causal se vj = 0 para j < 0 . Assim, em um modelo causal, o sistema não funciona para a série de entrada até que as mesmas tenham sido realmente aplicadas no sistema. Um modelo casual e estável é geralmente descrito como sendo da seguinte forma racional: onde; v(B) = P∞ j=0 Yt = v0 Xt + v1 Xt−1 + v2 Xt−2 + .... + Nt (3.27) Yt = v(B)Xt + Nt (3.28) vj B j , P∞ j=0 |vj | < ∞ , onde Xt e Nt são independentes. Segundo Wei(1990), um sistema de função de tranferência dinâmico pode ser escrito esquematicamente da seguinte forma: xt Função de Transferência v(B) t yt v0 v1 v3 v4 v5 v6 nt t t Figura 3.2 Sistema de Função de Transferência Dinâmico SILVA, F.L. PPGME/UFPA 3.9 Algumas Funções Tı́picas da Resposta do Impulso 28 O grande objetivo da modelagem com funções de transferência e o de identificar e estimar a função de transferência v(B) e modelar o ruı́do Nt , baseado na informação disponı́vel das séries de entrada Xt e da série de saı́da Yt . A maior dificuldade encontrada ao se trabalhar os MFT é que a informação sobre Xt e de Yt é finita e como a função de trasnferência v(B) em (3.27) pode conter um número infinito de coeficientes, isto muitas vezes torna-se não trivial. Para reduzir estas dificuldades pode-se representar a função de transferência v(B), descrita na Figura 3.2, através da seguinte equação: v(B) = ws (B) · Bb δr (B) (3.29) onde; ws (B) = w0 − w1 (B) − ... − ws B s , δr (B) = 1 − δ1 (B) − ... − δr B r e b é um parâmetro de defasagem que representa o lag do tempo presente que decorre antes que o impulso da variável de entrada produza um efeito sobre a variável de saı́da. Para um sistema estável, é assumido que as raı́zes δr (B) encontram-se dentro do cı́rculo unitário. Uma vez que Ws (B) , 4r (B) e b são definidos, o peso vj da resposta do impulso pode ser obtido igualando-se os coeficientes de B j em ambos os lados da seguinte equação: δr (B)v(B) = ws (B) · B b (3.30) então tem-se: [1 − δ1 (B) − .. − δr (B)r ][v0 + v1 (B) + v2 (B)2 + ..] = [w0 − w1 (B) − .. − ws B s ]B b (3.31) 3.9 Algumas Funções Tı́picas da Resposta do Impulso Na prática, os valores de r e s na Equação (3.31), raramente excedem 2. Por este fato, será descrito o comportamento de três tipo de funções tı́picas de tranferência: tipo 1 : r = 0, neste caso, a função de transferência contém somente um número finito dos pesos de resposta do impulso que começam em vb = w0 e que terminam em vb+s = −ws SILVA, F.L. PPGME/UFPA 3.10 Funções de Correlação Cruzada e Modelos de Função de Transferência 29 tipo 2 : r = 1, neste caso, os pesos da resposta de impulso exibe um decaimento exponencial que inicia em, vb se s = 0, para um vb+1 se s = 1, e de vb+2 se s = 2. Portanto, só irá acontecer se as raizes estiverem dentro do cı́rculo unitário. tipo 3 : r = 2, neste caso, os pesos da resposta de impulso exibem uma onda exponencial ou um senóide amortecido (seno), dependendo da natureza das raizes do polinômio δ2 (B) = (1 − δ1 (B) − δ2 (B 2 )) = 0, este segue um decaimento exponencial, se as raizes forem do tipo reais, ou seja, se δ12 − 4δ2 ≥ 0. Caso as raizes sejam complexas, ou seja, se apresentarem δ12 − 4δ2 < 0, então o valor de s é descrito similar ao descrito anteriormente. Se as raizes de δr (B) estiverem dentro do cı́rculo unitário. 3.10 Funções de Correlação Cruzada e Modelos de Função de Transferência 3.10.1 Funções de Correlação Cruzada - FCC Wei 1990, descreve que a função de correlação cruzada é utilizada para medir a relação existente entre duas variáveis aleatórias. Dado dois processos estocáticos Xt e Yt para t = 0, ±1, ±2, ..., diz-se que xt e yt são conjuntamente estacionárias se xt e yt são processos estacionários univariados com covariancia cruzada entre Xt e Yt , ou seja, Cov(Xt , Yt ), é uma função somente da diferença de tempo (x-t). Neste caso, tem-se a seguinte covariância cruzada entre Xt e Yt : γXY (k) = E[(Xt − µx )][(Yt+k − µy )] (3.32) para k = 0, ±1, ±2, ..... , onde padronizando a equação (3.32), tem-se a seguinte função de correlação cruzada: ρxy(k) = para k = 0, ±1, ±2, ..... , onde σx e σy γxy (k) σx · σy (3.33) são os desvios padrões de Xt , Y t respecti- vamente. É importante observar que a função de covariância cruzada γxy (k) e a função de correlação cruzada ρxy (k) são generalização das funções de auto-covariâncias e autocorrelações devido γxx (k) = γx (k) e ρxx (k) = ρx (k). SILVA, F.L. PPGME/UFPA 3.10 Funções de Correlação Cruzada e Modelos de Função de Transferência 30 Observa-se que, ao contrário da função de autocorrelação ρx (k), que é simétrica em torno da origem, isto é, ρx (k) = ρx (−k) a função de correlação cruzada não é simétrica, ou seja, ρxy (k) 6= ρxy (−k). Por outro lado, devido E(xt − µx )(yt+k − µy ) = E(yt+k − µy )(xt − µx ) = γxy (−k), tem-se ρxy (k) = ρyx (−k). Portanto, a função de correlação cruzada, FCC, mede não somente a intensidade de uma associação mas também sua direção. Para se ver a figura inteira da relação entre as séries Xt e Yt , é importante examinar a FCC, ρxy (k) , para ambos os lags positivos e negativos, k > 0 e k < 0. O gráfico da FCC é conhecido como correlograma cruzado. 3.10.2 Relação entre Função de Correlação Cruzada e Função de Transferência O Modelo de função de tranferência em (3.27), supondo um tempo t+k, pode ser escrito como: Yt+k = v0 Xt+k + v1 Xt+k−1 + v2 Xt+k−2 + .... + Nt+k (3.34) Sem perda de generalidades pode-se assumir que µx = 0 e µy = 0. Multiplicando ambos os termos em (3.32) por Xt , e calculando a esperança tem-se: γxy (k) = v0 γxx (k) + v1 γxx (k − 1) + v2 γxx (k − 2) + ... (3.35) Lembre-se que ao adotar γxn (k) = 0, para todo K, tem-se: ρxy (k) = σx [v0 ρx (k) + v1 ρx (k − 1) + v2 ρx (k − 2) + ...]. ρy (3.36) A relação entre a função de correlação cruzada ρxy (k) e a função resposta de impulso vj é claramente influenciada pela autocorrelação existente nas séries de entrada Xt . Mesmo se r =0 em (3.29) e a função de tranferência vB conter um número finito de pesos de resposta do impulso, então o uso da equação (3.36) na construção de um sistema de equações para resolver vj em função de ρxy (k) e ρx (k) é difı́cil. A variância e a covariância das estimativas da amostra de ρxy (k) são claramente influenciadas pela autocorrelação existente na série de saı́de xt . Como mostra a equação (3.36), é dificil realizar os testes de ρxy (k) e de v (B). SILVA, F.L. PPGME/UFPA 3.10 Funções de Correlação Cruzada e Modelos de Função de Transferência 31 A variância e covariância da estimativa amostral de ρxy (k) são claramente contaminadas pela estrutura de auto-correlação das séries de entrada xt como mostra a equação (3.36), tornando os testes de ambos ρxy (k) e vk difı́ceis. Entretanto, se a série de entrada for um ruı́do branco, isto é, ρx (k) = 0 para k 6= 0, a equação em (3.38), reduz-se a: vk = σy .ρxy (k) σx (3.37) Portanto, a função de resposta de impulso vk é diretamente proporcional a função de correlação cruzada ρxy (k). Algumas observações importantes: 1. A função de correlação cruzada ρXY (K) é definida somente quando Xt e Yt são processos bivariados conjuntamente estacionários. Caso o processo não seja do tipo estacionário, deve-se aplicar um processo de diferenciações para se obter a estacionariedade desejada, ou aplicar transformações para se estabilizar a variância. Deste modo, a menos que seja mencionado, os processos Xt e Yt serão assumidos conjuntamente estacionários. 2. No modelo geral de função de transferência Xt = v(B)Xt + Nt , (3.38) Pode-se assumir que a série de entrada Xt segue um processo ARMA, ou seja: φx (B)Xt = θx (B)αt (3.39) onde αt é ruı́do branco. A série αt , definida como do tipo, αt = φx (B) .Xt θx (B) (3.40) é chamada freqüentemente de série de entrada pré ajustada (prewhitened). E aplicando à mesma um processo de transformação de pré ajustamento na série de saı́da Yt , obtém-se a série de saı́da filtrada. SILVA, F.L. PPGME/UFPA 3.11 Construção do Modelo de Função de Transferência βt = 32 φx (B) .Yt θx (B) (3.41) fazendo, ²t = θx−1 (B) · φx (B)nt , o modelo de função de tranferência em (3.39)( substituindo (3.40) e (3.41) em (3.42), torna-se : βt = v(B)αt + ²t , (3.42) Daı́, os pesos de resposta de impulso vj , para a função de transferência podem, conseqüentemente ser encontrados como (ver eq. (3.37)), vk = σβ ραβ (k) σα (3.43) onde a partir de então, as etapas fundamentais de identificação dos modelos de função de transferência podem ser conduzidas. 3.11 Construção do Modelo de Função de Transferência 3.11.1 Função de Correlação Cruzada Amostral Para um conjunto de dados das séries Xt e Yt , 1 ≤ t ≤ n, a função de correlação cruzada; ρxy (k) = γxy (k) , σx σy k = 0, ±1, ±2, ..., (3.44) Passa a ser estimada pela seguinte função de correlação cruzada amostral, ρ̂xy (k) = γ̂xy (k) , Sx Sy k = 0, ±1, ±2, ..., (3.45) onde; γ̂xy (k) = com, Sx = p γ̂xx (0) e 1 n 1 n Pn−k t=1 (Xt − x̄)(Yt+k − ȳ), Pn t=1−k (Xt Sy = k ≥ 0, (3.46) − x̄)(Yt+k − ȳ), k < 0 p γ̂yy (0), e ȳ e ȳ são as médias amostrais das séries Xt e Yt respectivamente. SILVA, F.L. PPGME/UFPA 3.11 Construção do Modelo de Função de Transferência 33 3.11.2 Identificação do Modelo de Função de Transferência A partir de então, a Função de Tranferência v (B) pode ser obtida procedendo da seguinte forma: 1. Pré ajustando as séries de entrada, φx (B)Xt = θx (B)αt , (3.47) isto é, αt = φx (B) Xt , θx (B) (3.48) onde, αt é uma série de ruı́do branco, com média zero e variância δa2 2. Calcular a série de saı́da filtrada. Isto é, transformar a série de saı́da Yt utilizando o modelo pré ajustado, no item 1, para gerar a série: βt = φx (B) Yt , θx (B) (3.49) 3. Calcular a função de autocorrelação cruzada amostral ρ̂αβ (k) entre α e β para estimar vk , v̂k = σ̂β ρ̂αβ (k), σ̂α (3.50) O significância da função de correlação cruzada é equivalente a v̂k , para esta veri1 ficação basta analisar seu desvio padrão (n − k)− 2 . 4. Identificar b, δr (B) = (1 − δ1 B − ... − δr B r ), eWs (B) = (ω0 − ω1 (B) − ... − ωs B s ) pelo ajuste padrão de v̂k com o de vk , discutidos em 3.11.1 e 3.11.2. Uma vez escolhidos b, r e s, as estimativas preliminares ω̂j e δˆj relacionadas com vk podem ser estimadas, como mostrado em (3.29). Portanto, tem-se uma estimativa da função de transferência v (B) como: v̂t = SILVA, F.L. ω̂s (B) δ̂r (B) Bb. (3.51) PPGME/UFPA 3.11 Construção do Modelo de Função de Transferência 34 3.11.3 Identificação do Modelo de Ruı́do Uma vez obtido o modelo preliminar da função de transferência, pode-se calcular a série de ruı́dos estimada, N̂t = Yt − v̂(B)Xt N̂t = Yt − ŵ(B) δ̂(B) B b Xt (3.52) O modelo apropriado para o ruı́do pode ser identificado examinando-se sua FAC e FACP ou por outra ferramenta de identificação de séries univariadas de tempo. Então, φ(B)nt = θ(B)at (3.53) • Observações sobre a identificação do Modelo de Função de Transferência. Combinando (3.52) e (3.53) temos o seguinte modelo de função de transferência: Yt = ω(B) θ(B) Xt−b + at δ(B) φ(B) (3.54) • Alguns pontos importantes na construção do modelo de função de transferência: 1. Na construção do modelo é assumido que as variáveis Xt , Yt e Nt são todas estacionárias. Portanto, para series não estacionárias alguma estabilização da variância e diferenciação podem ser necessárias. 2. No processo de identificação acima, da função de transferência v(B), a serie de entrada deve ser pré-ajustada. O modelo pré-ajustado é usado para filtrar a serie de saı́da, mas não necessariamente para ajustá-lo. Este é um método normal e simples para a construção de um modelo de função de transferência causal. Entretanto, para a construção de um possı́vel sistema não causal com fenômeno de feedback, onde Yt é influenciado por Xt e Xt também é influenciado por Yt , ambas as séries de entrada e saı́da deveriam ser pré-ajustadas antes SILVA, F.L. PPGME/UFPA 3.11 Construção do Modelo de Função de Transferência 35 de se examinar sua FCC. Isso é freqüentemente referido como um duplo préajustamento. Entretanto, é geralmente mais vantajoso modelar um sistema não causal por meio de um processo de vetor (VAR). 3.11.4 Estimativas dos Parâmetros do Modelo de Função de Transferência Após identificação do modelo de função de transferência preliminar, Yt = ω(B) θ(B) Xt−b + at δ(B) φ(B) (3.55) 0 0 é necessário a realização da estimação dos parâmetros φ = (φ1 , ..., φp ) , θ = (θ1 , ..., θq ) e σa2 . Pode-se escrever a equação em (3.55) da seguinte forma: δ(B)φ(B)Yt = φ(B)ω(B)Xt−b + δ(B)θ(B)at (3.56) ou ainda, de forma equivalente; c(B)yt = d(B)xt−b + e(B)at (3.57) onde: c(B) = δ(B)φ(B) = (1 − δ1B − ... − θr B r )(1 − phi1 B − ... − φp B p ) = (1 − c1B − c2B 2 − ... − cp+r B p+r ), d(B) = φ(B)ω(B) = (1 − φ1B − ... − φp B p )(ω0 − ω1 B − ..., −ωs B s ) = d0 − d1B − d2B 2 − ... − dp+s B p+s ), e e(B) = δ(B)φ(B) = (1 − δ1B − ... − θr B r )(1 − θ1 B − ... − θq B q ) = (1 − e1 B − e2 B 2 − ... − er+q B r+q ). Assim, at = yt − c1 yt−1 − ... − cp+r y t−p−r − d0 xt−b + d1 xt−b−1 +... + dp+s xt−b−p−s + e1 at−1 + ... + er+q at−r−q SILVA, F.L. (3.58) PPGME/UFPA 3.11 Construção do Modelo de Função de Transferência 36 onde, ci , dj e ek , são funções de δi , ωj , φk e θl . Sob a suposição de que os at são ruı́dos da série com as seguintes caracterı́sticas N (0, δk2 ). Daı́, tem-se a seguinte função condicional de verossimilhança: L(δ, ω, φ, θ, σa2 |b, x, y, x0 , y0 , a0 ) = −n (2πσa2 ) 2 exp n 1 X 2 [− 2 a] 2σa t=1 t (3.59) onde, x0 , y0 , a0 são valores apropriados para começar a computar os resı́duos at em (3.64) e se comporta similar aos valores necessários para estimar os modelos ARIMA, descritos no Capı́tulo 2. 3.11.5 Diagnóstico dos Modelos de Função de Transferência A partir do modelo identificado e seus parâmetros estimados, é necessário realizar a verificação da adequação do mesmo, pois só a partir desta adequação é que o mesmo pode ser utilizado para gerar previsões, controle, assim como, outras finalidades. No modelo de função de transferência é assumido que at são ruı́do branco e independente da serie de entrada Xt e, portanto, também independente da série de entrada pré-ajustada αt . Deste modo, a checagem do diagnóstico de um modelo de função de transferência devese examinar os resı́duos ât do modelo de ruı́do assim como os resı́duos αt do modelo de entrada pré-ajustado para se ver melhor se as considerações se mantêm. No modelo de função de transferência, supõe-se que são ruı́dos brancos independentes da série de entrada , assim como, os pesos αt . Assim, quando se realiza diagnóstico de um modelo de função de tranferência, tem-se antes que examinar os resı́duos ât do modelo realizado dos resı́duos αt . Para verificar se as suposições são satisfeitas deve-se: 1. Checagem da Correlação Cruzada: Deve-se verificar se os resı́duos at de uma série de entrada são independentes. Para que o modelo seja adequado, a função de autocorrelação amostral ρα̂â (k), entre ât e αt do modelo de entrada não deve 1 apresentar nenhuma correlação fora do limite de 2(n − k)− 2 . Usa-se o seguinte teste de probabilidade. k X Q0 = m(m + 2) (m − j)−1 ρ̂αâ (j), (3.60) j=0 SILVA, F.L. PPGME/UFPA 3.11 Construção do Modelo de Função de Transferência 37 Com uma distribuição aproximada χ2 com (K+1 )-m graus de liberdade, onde m = (n − t0 + 1), que é o número de resı́duos ât calculados e m é o número de parâmetros estimados da função de transferência v(B) = ω(B) . δ(B) 2. Checagem da Auto-correlação: Para verificar se o modelo dos resı́duos encontrase adequado basta analisar a FAC e a FACP de ât , caso o modelo seja adequado, a FAC e a FACP da amostra de ât não deve mostrar nenhum padrão. k X Q1 = m(m + 2) (m − j)−1 ρ̂â (j). (3.61) j=1 Q1 é uma estatı́stica aproximada baseada na distribuição χ2 com (k-p-q) graus de liberdade. Isto dependerá do número de observações utilizadas para a construção do modelo de resı́duos. Caso o modelo seja inadequado, deve-se levantar duas hipóteses: • A função de transferência v (B) é incorreta, neste caso, de qualquer maneira se o modelo proposto para o ruı́do é adequado, tem-se ραa (k) 6= 0 e ρa (k) 6= 0 para algum k. Para se observar isto, basta supor que o modelo correto é: Yt = v(B)Xt + ψ(B)at , (3.62) Se o termo da função de tranferência v (B) for escolhido de forma incorreta, então seremos conduzido a um erro do termo bt . Yt = v0 (B)Xi + ψ0 (B)at (3.63) bt = ψ0−1 (B)[v(B) − v0 (B)]Xt + ψ0−1 (B)ψ(B)at (3.64) Então, Assim, bt será não somente uma função de correlação cruzada de Xt com αt , mas ambas serão autocorrelacionadas. Isto é verdade, mesmo quando ψ0 (B) = ψ(B), isto é, quando o modelo do ruı́do está correto. Então, a solução é primeiramente reidentificar a função de tranferência v (B) para só assim, modificar o modelo de ruı́do. SILVA, F.L. PPGME/UFPA 3.12 Validação de Modelos de Função de Transferência 38 • A função de transferência está correta, e apenas o modelo do ruı́do é inadequado. Neste caso, ραa (k) = 0 para algum k. O teste padrão para ρ̂â (k) = 0 pode ser usado para modificar o modelo de ruı́do [θ(B)/φ(B)]at . Em resumo, para que um modelo de função de transferência seja adequado ambos ρ̂a â(k) = 0 e ρ̂â (k) = 0 devem ser estatisticamente não significantes e não mostrar nenhum padrão, uma vez que o modelo de ruı́do seria contaminado por uma função de transferencia incorreta, na checagem do diagnóstico de modelos de função de transferência. É prudente realizar primeiro o cheque da correlação cruzada. Em essência, é similar a um modelo de análise de variância com um termo de interação onde o teste de um efeito de interação deveria ser realizado antes do teste dos efeitos principais. 3.11.6 Estimação do Modelo de Função de Transferência Para a estimação dos modelos de função de transferência, pode-se utilizar as seguintes expressões: (1 − B)Yt = 1 w0 (1 − B)Xt + at (1 − δ1 B) (1 − φ1 B) (3.65) 3.12 Validação de Modelos de Função de Transferência Os modelos de função de Tranferência são apropriados para melhorar as previsões da série de saı́da yt utilizando sua história passada, associada à série de entrada xt . Isto é válido se a série de entrada for o indicador principal. 3.12.1 Erro Quadrático Médio de Séries de Entrada e Saı́da Estacionárias Dadas duas séries Xt e Yt estacionárias e relacionadas no seguinte modelo de função de transferência. Yt = θ(B) ω(B) b B Xt + at , δ(B) φ(B) (3.66) e φx (B)Xt = θx (B)αt , (3.67) onde,ω(B), δ(B), θ(B), φ(B), φx (B) e θx (B) são polinômios de B de ordem finita; as raizes de ω(B) = 0, δ(B) = 0, θ(B) = 0, φ(B) = 0, φx (B) = 0 e θx (B) = 0 estão SILVA, F.L. PPGME/UFPA 3.12 Validação de Modelos de Função de Transferência 39 fora do cı́rculo unitário. E at e αt são resı́duos independentes com média zero e variância σa2 e σα2 , respectivamente. u(B) = ω(B)B b θx (B) = u0 + u1 + u2 B 2 + ..., θ(B)φx (B) (3.68) θ(B) = 1 + ψ1 B + ψ2 B 2 φ(B) (3.69) e ψ(B) = A qual pode ser escrita, ainda da seguinte forma: yt = u(B)αt + ψ(B)at yt = ∞ X uj αt−j + ∞ X j=0 ψat−j (3.70) j=o P P∞ onde, ψ0 = 1. Assim, Yt+1 = ∞ j=0 uj · αt+l−j + j=0 ψj · at+l−j . Deixando, Ŷt (l) = P∞ ∗ P∞ ∗ j=0 ul+j · αt−j + j=0 ψl+j · at−j , realizar previsões um passo a frente de Yt+l . Então o erro de previsão torna-se: Yt+l − Ŷt (l) = − ∞ X [u∗l+j Pl−1 j=0 − ul+j ] · αt−j [uj · αt+l−j + ψt+l−j ] ∞ X ∗ − (ψl+j − ψl+j ) · at−j , j=0 (3.71) j=0 O erro quadrático médio EQM das previsões E[Yt+l Ŷt (l)]2 é dado por: l−1 ∞ ∞ X X X 2 2 2 2 2 ∗ 2 ∗ E[Yt+l − Ŷt (l)] = (σα uj + σa ψj ) + σα (ul+j − ul+j ) + σa2 (ψl+j − ψl+j )2 (3.72) 2 j=0 j=0 j=0 ∗ Observa-se que este erro é minimizado quando, u∗l+j = ul+j e ψl+j = ψl+j . Ou seja, o erro quadrático médio de previsão mı́nimo entre Ŷt eYt+l no tempo t é dado pela esperança condicional de Yt+l no tempo t. Isto deve-se pelo fato, que E[Yt+l − Ŷt (l)] = 0, e a variância de previsão ser dada por: V(l) = E[Yt+l − Ŷt (l)]2 = σα2 l−1 X j=0 SILVA, F.L. u2j + σa2 l−1 X ψj2 . (3.73) j=0 PPGME/UFPA 3.12 Validação de Modelos de Função de Transferência 40 3.12.2 Resumo Com o objetivo de se identificar o modelo e as componentes pertencentes da função de tranferência, é necessário a utilização das Funções de Auto-Correlações Cruzadas FCC, as quais proporcionam a identificação de existência de lags negativos. Para modelagem e previsão válidas a partir de modelos de funções de tranferência, é importante observar que nenhum lag negativo deve ter spikes significativos. Caso isto aconteça, então ocorre um chamado modelo com feedback. Neste caso, modelos do tipo Autorregressivo Vetorial (VAR) são mais adequados. Em seguida, deve-se checar os seguintes itens: • A quantidade de defasagens no modelo • Se há spike no lag zero o modelo então não apresenta defasagem; • O modelo terá um perı́odo de defasagens n se não há spikes no gráfico de correlação cruzada no lag 0; • Depois do perı́odo de defasagem deve haver um spike no gráfico de correlação cruzada • O número de spikes depois do primeiro spike corresponde ao número de parâmetros do numerador na função de transferência do modelo • Se não existem spikes depois do primeiro spike, então o processo é provavelmente ruı́do branco; • Seguindo os spikes, o gráfico de correlação cruzada pode ter um dos seguintes padrões: 1. Ele pode decair exponencialmente, o que indica a necessidade de um parâmetro no denominador na função de transferência do modelo; 2. Decair exponencialmente com padrão senoidal, que indica a necessidade de dois ou mais parâmetros no denominador na função de transferência do modelo; 3. Cair imediatamente para zero, que indica que não é necessário nenhum parâmetro no denominador no modelo. SILVA, F.L. PPGME/UFPA Capı́tulo 4 Sistemas de Implementações Inteligentes Redes Neurais 4.1 Introdução As Redes Neurais Artificiais estão embasadas diretamente nos estudos realizados sobre a estrutura fisiológica do cérebro humano para tentar comportar-se como um programa de forma inteligente no processamento de informações. Alguns estudos realizados consideram que a riqueza computacional do cérebro humano está associada ao grande número de neurônios, interconectados por uma rede complexa de sinapses. Estima-se que a quantidade de neurônios existentes no cérebro humano esteja na casa dos bilhões. Contudo, a velocidade de processamento destes componentes é relativamente baixa, quando comparada aos computadores tradicionais. Esta deficiência na velocidade de processamento dos neurônios é superada pela imensa quantidade de neurônios existentes operando de forma paralela (PORTUGAL e FERNANDES, 1995). Estudos demonstram que nem sempre quando se trabalha com alguma ferramenta ou técnica da Inteligência Artificial - IA de forma individualizada, obtém-se os resultados desejados. Muitos pesquisadores recentemente vêem utilizando as mais variadas estratégias e técnicas referentes à Inteligência Computacional para implementação de modelos mais eficazes, ou seja, modelos que apresentem melhores ajustes às variáveis em questão e assim, representem de forma mais adequada a ocorrência do fenômeno estudado. Esta implementação conjugada de diferentes técnicas são de grandes importância, principalmente quando se trata de funções complexas, pois tendem a proporcionar ao pesquisador melhores resultados em comparação com aqueles obtidos quando aplicado metodologias de forma individualizadas. 4.2 Redes Neurais Artificiais - RNA´s 42 Atualmente busca-se implementações utilizando mais de uma técnica do grupo da I.A para a melhoria de resultados, como por exemplo, a utilização de forma conjugada de Redes Neurais e Algorı́tmos Genéticos na busca da otimização de um mesmo problema, assim como o uso de Redes Neurais e Lógica Fuzzy para ajustar modelos mais robustos. Essas conjugações são conhecidas como Soluções Hı́bridas. Muitas são as técnicas empregadas como estratégias para formulação de implementações; as mais utilizadas são: • Redes Neurais • Lógica Fuzzy • Computação Evolutiva • Metodologias Estatı́sticas em Geral, etc.... 4.2 Redes Neurais Artificiais - RNA´s As pesquisas sobre redes neurais iniciaram em 1943, quando Warrem McCulloch e Walter Pitts estabeleceram as bases da neurocomputação, concebendo procedimentos matemáticos análogos ao funcionamento do cerebro biológico. Porém estes procedimentos jamais foram testados pelos seus criadores em situações práticas. No entanto, o passo mais importante quando se trata de estudar redes neurais, foi dado por Donald Hebb em 1949, quando ele propôs um modo de condicionar as redes neurais à capacidade de aprendizado. A partir de então, cada vez mais a comunidade cientı́fica vem implementando estruturas de RNA´s mais eficazes. Este fato, se deve à evolução da tecnologia computacional que contribuiu com computadores cada vez mais modernos e velozes em processamento. Segundo Dahmer(1998), quando se trata das RNA´s, inúmeras caracterı́sticas podem ser citadas sobre sua utilização no meio cientifico: • Controle altamente paralelo e distribuido; • Capacidade de aprendizagem através da observação de um conjunto de exemplos, sendo estes com ou sem informação de resposta desejadas a cada estı́mulo; SILVA, F.L. PPGME/UFPA 4.2 Redes Neurais Artificiais - RNA´s 43 • Robustez, isto é, uma queda de desempenho gradual no eventual funcionamento irregular ou até inutilização de parte da rede; • Manuntenção do desempenho na presença de ruı́do e capacidade de lidar com dados incompletos. Segundo Hernandez(2005), as Redes Neurais ou Redes de Neurônios Artificiais são sistemas de computação adaptativos inspirados nas caracterı́sticas de processamento de informação encontradas nos neurônios biológicos e nas caracterı́sticas de suas interconexões, (Fig. 4.1). Figura 4.1 Estrutura de Neurônio Biológico O neurônio biológico pode ser visto como o dispositivo computacional elementar do sistema nervoso, composto de muitas entradas e uma saı́da. As entradas são formadas através das conexões sinápticas que conectam os dentritos aos axônios de outras células nervosas. Os sinais que chegam por estes axônios são pulsos elétricos conhecidos como impulsos nervosos ou potenciais de ação e, constituem a informação que o neurônio processa para produzir como saı́da um impulso nervoso no seu axônio (Kovacs, 1996). Estes sistemas, podem ser vistos como sistemas massivamente paralelos que podem ser implementados tanto em Hardware quanto em Software, sendo que os elementos de processamento individualmente têm capacidade relativamente limitados. Tais elementos de processamento básicos são os chamados neurônios artificiais, (Fig. 4.2). SILVA, F.L. PPGME/UFPA 4.2 Redes Neurais Artificiais - RNA´s 44 Figura 4.2 Neurônios Artificial apresentado por McCulloch As redes neurais apresentam estratégias na pretensão de igualar ou até mesmo superar alguns aspectos da inteligência humana. Baseia-se no entendimento das estruturas de armazenamento e de processamento de informações realizados pelo sistema nervoso. A forma especı́fica na qual a atividade neural é representada no modelo contextualizado de forma matemática pode assumir diversas simplificações. Todo este processo dependerá do grau de refinamento na representação de fenômeno biológico que se tem em mente, e varia conforme a ênfase do trabalho a ser realizado. 4.2.1 Funções de ativação As funções de transferência (ou de ativação), f, utilizadas na construção de redes neurais artificiais têm sido, entre outras: funções degrau e funções lineares do tipo (Fig. 4.3 e 4.4): • Função de ativação linear f (x) = a.x (4.1) g(v) gmax gmax gmim vmax v Figura 4.3 Função de ativação linear SILVA, F.L. PPGME/UFPA 4.2 Redes Neurais Artificiais - RNA´s 45 • Função de ativação degrau g(v) gmáx v Figura 4.4 Função de ativação degrau ½ g(v) = a, v≥θ −a, v < θ (4.2) • Função de ativação rampa São funções do tipo anterior mas com um contradomı́nio igual a um intervalo fechado (Fig. 4.5) g(v) gmáx β α vmín vmáx Figura 4.5 Função de ativação rampa v>θ a, a, v≥θ g(v) = −a, v < θ (4.3) Também são muito utilizadas as funções crescentes de classe C∞ cujo contradomı́nio se encontra contido num certo intervalo aberto e limitado, essas funções de tranferência quando crescente e cujo contradomı́nio se encontra no intervalo [0, 1] ou [-1, -1] e tais que os limites são da forma: SILVA, F.L. PPGME/UFPA 4.2 Redes Neurais Artificiais - RNA´s 46 limx−→+∞ = f (x) = 1 (4.4) limx−→−∞ = f (x) = 0 (4.5) limx−→−∞ = f (x) = −1 (4.6) são conhecidas como funções sigmodais, dessa classe, as mais utilizadas são as funções tangente hiperbólica e as funções de Fermi caracterizada por: F ermi −→ f (x) = 1 1 + e−x (4.7) Dentre os vários modelos de redes neurais artificiais que serão apresentados, cumpre definir a função de ativação do neurônio, g(v) que, tem sido aproximada por meio de inúmeras funções monotônicas que procuram preservar essas caracterı́stica mediante a constância de propósitos. A partir daı́ procede-se das seguintes formulações matemáticas: • Função 1: Integração espaço temporal das atividades de entrada de uma árvore dentrital. Z X fT = g[ · αi (t)xi (t)dt] T (4.8) i em que os αi (t) representam os ganhos sinápticos, e os xi (t) as entradas dos neurônios. Por outro lado, a função g(v) possui as conexões sinápticas excitatória e inibitória. • Função 2: Modelo matemático do perceptron de Seebert. g(v) = vk vk + α (4.9) A aproximação de Seebert permite, ajustar o ganho médio nessa faixa em que apareceu o parâmetro K . Normalmente, as funções de ativação mais utilizados são a sigmóide e a tangente hiperbólica, abaixo representados com as suas respectivas derivadas. SILVA, F.L. PPGME/UFPA 4.2 Redes Neurais Artificiais - RNA´s 47 • Função 3: Função matemática sigmóide utilizada em redes neurais, Fig (4.6). g(v) = [1 + exp(−2β) ]−1 = g(v) = 1 1 + e(av) (4.10) g(v) g g v Figura 4.6 Função de ativação sigmóide -(logsig) • Função 4: Função Tangente hiperbólica utilizada em redes neurais, Fig. (4.7). g(v) +1 vmín -1 vmáx Figura 4.7 Função de ativação tangente hiperbólica -(tansig) g(v) = tanh(βv) (4.11) • Função 5: Exemplo de utilização de derivadas nas equações de redes neurais. d = ((1 + exp(−2βv))−1 dv d = 2β(1 − g(v)) · g(v) dv SILVA, F.L. (4.12) (4.13) PPGME/UFPA 4.3 Algumas Teorias Referentes a Algoritmos de Redes Neurais 48 • Função 6: A derivada da função 5 em relação a v fornece, d = (tanh(βv)) = β(1 − g(v))2 dv (4.14) A partir dessas equações pode-se implementar alguns importantes algoritmos ligados às redes neurais. Estes algoritmos estão abaixo relacionados: 1. Algoritmo Booleano de Warrem McCulloch e Pitts 2. Algoritmo de Hebb 3. Algoritmo de Widrow Stanford 4. Algoritmo de Multicamadas de Rammelhart, Hinton e Willians 4.3 Algumas Teorias Referentes a Algoritmos de Redes Neurais 4.3.1 Modelos de Redes Neurais de Warrem McCulloch e Pitts Uma das grandes contribuições referentes ao estudo de redes neurais, deu-se com estudos realizados por Warrem McCulloch. Nesses estudos procurou-se implementar algumas funções do tipo Booleanas. Segundo (McCulloch e Pitts) em publicação de seu primeiro artigo referente a redes neurais, ”a inteligência é equivalente a cálculo proporcional, que por sua vez pode ser implementado por funções boolenas. Por outro lado, o sistema nervoso é composto de rede de neurônios que, com as devidas simplificações, apresentam a capacidade básica de implementar essas funções”. Esses autores foram os primeiros a proporem um modelo computacional para o neurônio biológico, o qual abriu caminho para a definição correta da inteligência artificial e a modulação de redes neurais, abrangendo o conceito de taxa de aprendizado, de retenção e de treinamento, (Haikin, 2001). A partir de uma minimização dos erros e de uma maximização das taxas de retenção através de modelos de redes neurais, talvez se chegue a uma das possı́veis soluções para o treinamento e desenvolvimento integrado, de forma a fornecer uma melhor visão sistêmica que venha lançar as bases do futuro conhecimento e toda uma cadeia integrada de suprimentos. SILVA, F.L. PPGME/UFPA 4.3 Algumas Teorias Referentes a Algoritmos de Redes Neurais 49 A taxa de aprendizado reflete a taxa com que os ganhos se alteram em conseqüência dos erros. Trata-se de uma regra local que visa a atualização dos parâmetros do sistema, ou seja, este algoritmo nos mostra a taxa de retenção dos conhecimentos e minimização dos erros, com uma conseqüente maximização dos resultados obtidos. 4.3.2 Neurônios de Remmelhart, Hilton e Williams - RHW O algoritmo de retropropagação para redes de neurônios de múltiplas camadas conhecido por Remmelhart, Hilton e Williams (1986), Figura (4.8), permitiu superar uma das grandes limitações fundamentais para o treinamento em redes complexas, usando funções de ativação sempre lineares, consistindo num diagrama de blocos e neurônios conhecidos como RHW , composto basicamente de um Adaline de Windrow , seguido de uma função de ativação g(v), (HAIKIN, 2001). X1 N1 b1 = amostras (x, f(x)) + ruído Y1 N2 X2 b1 N3 X3 Y2 b1 Figura 4.8 Rede com neurônio ( RHW) Figura 4.9 Erro de aproximação do ( RHW) Este neurônio gera uma função saı́da que depende de uma série de entradas convergentes no ponto conhecido como mı́nimo de erro, a fim de que se obtenha os resultados esperados. Consequentemente, a ocorrência será a minimização das distâncias entre o previsto e o real da função de treinamento, ver Figura (4.9). SILVA, F.L. PPGME/UFPA 4.3 Algumas Teorias Referentes a Algoritmos de Redes Neurais 50 4.3.3 Modelos de Saı́da Binária - Binário Esta classe de modelos, também conhecida como Adaline assume que modelos neurais com saı́da binária são suficientemente poderosos para representar uma classe bastante ampla de problemas computacionais, devido ser incorporada ao modelo neural uma função que permitirá a viabilização das funcionalidades não linear. Esta função é comumente conhecida como função de transferência. Estes modelos apresentam uma grande vantagem em relação aos demais, pois apresentam uma simplicidade estrutural e com isso permitem a formalização matemática em um grau não possı́vel para os modelos mais complexos, (Haikin, 2001). A forma mais simples desta função de transferência f pode adotar valores (binários) discretos. Esta adoção permite que o modelo apresente saı́da binária, permitindo assim, a representação funcional de caracteristica lógica realizadas pelos neurônios biológicos. X0 Função de Soma W0 W1 Entradas ƒ X1 Saída W2 X2 Função de transferência ƒ Pesos Figura 4.10 Neorônio artificial do tipo ( Adaline) Todos os tipos de redes neurais apresentam basicamente a mesma unidade de processamento, caracterizando-se desta forma como um neurônio artificial e simulando, deste modo, um neurônio biológico com uma estrutura com varias entradas, que correspondem às conexões sinápticas com outras unidades similares a ele próprio, e uma saı́da cujo valor é influenciado diretamentre pela soma ponderada de todas as saı́das dos demais neurônios a ele conectado. No cálculo de integração dos estı́mulos das várias entradas, a ponderação é dada por pesos que cada conexão possui e sua saı́da corresponde a soma, como: n X X = w1 x1 + w2 x2 + ... + wn xn + b = wi xi + b (4.15) i=1 quando; SILVA, F.L. PPGME/UFPA 4.3 Algumas Teorias Referentes a Algoritmos de Redes Neurais f −→ função de ativação, ou seja, pode ser uma sigmoidal g(v) = 51 1 . 1+e(av) xi −→ estimulo proveniente do neurônio vizinho i . wi −→ constantes de ponderação das conexões sinápticas que intermediam a interação entre neurônios vizinhos. P −→ estı́mulo global com as devidas ponderações relativas, recebido pelos neurônios P P de todos os seus vizinhos −→ = xi wi + b e −→ sinal erro da rede, utilizado para computar os valores dos erros das camadas anteriores e nas correções dos pesos −→ e = dj − Oj , ou seja, valor desejado menos o valor observado. 4.3.4 RNA´s com Multicamadas de Neurônios Através da Figura 4.11, fica evidente que a estrutura de formação dos neurônios em redes com multicamadas é muito mais complexa, em sua essência do que os sistemas de produção industrial. Entretanto é possı́vel estabelecer entre eles uma analogia e aplicá-la a esse ramo do conhecimento. O que se pretende é apresentar, de forma objetiva as principais definições pertinentes no ramo do conhecimento cognominado (teoria das redes neurais) bem como algumas propriedades consideradas essenciais para a boa compreensão dos fatos pertinentes ao aprendizado humano a aos modelos de pré-treinamento, treinamento, pós-treinamento, pré-desenvolvimento, desenvolvimento e pós-desenvolvimento, os quais devem ser utilizados com base nesta técnica, a fim de se obter ganhos substanciais de produtividade e qualidade, (Haikin, 2001). P1(1) X1 1 Y11 P3(1) 3 Y21 P5(1) δ11 P1(2) δ21 5 P3(2) δ12 P1(1) δ22 P4(1) Y31 δ31 P5(2) X2 P2(2) 2 Y12 P4(2) 4 Y22 Figura 4.11 Estrutura de uma Rede com Multicamadas ou Redes Neurais Complexas SILVA, F.L. PPGME/UFPA 4.3 Algumas Teorias Referentes a Algoritmos de Redes Neurais 52 Este modelo de redes neurais multicamadas pode também ser considerado como Adaline de Widrow de uma função de ativação do tipo g(v). Sempre que se trabalha com este tipo de algoritmo deve-se escolher um conjunto de parâmetros iniciais e uma taxa de aprendizado, estabelecendo assim um critério de parada que representa o número máximo de interações, (Haikin, 2001). 4.3.5 Propagação do erro Depois de apresentado o padrão de entrada para a rede, a resposta de uma unidade é propagada como entrada para as unidades na camada seguinte (ocultas), até a camada de saı́da, onde é obtida a resposta da rede, e onde, o erro é calculado. Como o objetivo principal é a busca do erro mı́nimo, caso este, não seja o ótimo a rede retropropaga o erro, e o processo recomeça até que o erro mı́nimo seja obtido Fig.(4.12), (Haikin, 2001). iw X1 N1 Resposta da rede e calculo do erro lw b1 N2 Y1 b2 X2 b1 Y2 N3 b2 X3 b1 Figura 4.12 Propagação do erro na rede Xi −→ variáveis de entrada apresentada a rede; iw −→ pesos de entrada; lw −→ pesos de saı́da; N 0 s neurônios de composição da rede; B 0 s bias; Y1 eY2 −→ resposta na saı́da da rede. SILVA, F.L. PPGME/UFPA 4.3 Algumas Teorias Referentes a Algoritmos de Redes Neurais 53 4.3.6 Retropropagação do erro O ”Backpropagation”é um algoritmo criado com a finalidade de obter treinamento de redes Multi-Camadas, e é comumente o mais utilizado no meio acadêmico. Este algoritmo baseia-se no Aprendizado Supervisionado por Correção de Erros gerados pela saı́da da rede, ou seja, este algoritmo calcula os erros locais, para cada unidade, desde a camada de saı́da até a de entrada. Também referenciado de Computação para Trás ou (Retropropagação) Fig (4.13): Ajuste dos pesos a partir da saída até a camada de entrada iw X1 N1 lw b1 N2 Y1 b2 X2 b1 Y2 N3 b2 X3 b1 Figura 4.13 Retropropagação do erro na rede δj (n) = ej (n)Oj (n)(1 − Oj (n)) −→ erro local para a unidade da camada de saı́da. P δj (n) = Oj (n)(1 − Oj (n)) δk wjk −→ erro local para as unidades das demais camadas. Oj (1 − Oj ) −→ função de ativação diferenciada em função do argumento -(valor de ativação). δk −→ é o erro das unidades da camada anterior conectadas a unidade j. Wjk −→ são os pesos das conecções com a camada anterior. 4.3.7 Processo de Aprendizado por Correção de Erros O Processo de Aprendizado por Correção de Erros é inteiramente baseado no processo de aprendizado por supervisão (Aprendizado Supervisionado). Para que determinada Rede Neural Artificial possa fornecer resultados convenientes, é necessário que passe por SILVA, F.L. PPGME/UFPA 4.3 Algumas Teorias Referentes a Algoritmos de Redes Neurais 54 uma fase de treinamento, onde seus pesos são ajustados de forma que ela se adapte aos diferentes estı́mulos de entrada pois, no decorrer deste processo de treinamento é que ocorre o seu aprendizado. e = dj − Oj (4.16) O erro de uma Rede Neural pode ser calculado como a diferença entre a saı́da desejada e a saı́da real gerada pela rede, fornecida em um ensino supervisionado. Para um estı́mulo k, tem-se: e - sinal de erro; dj - saida desejada apresentada durante o treinamento; Oj - saida real da rede após a apresentação do estı́mulo de entrada. Durante o aprendizado supervisionado, os erros vão sendo calculados sucessivamente, até que cheguem a um valor satisfatório, definido a priori. Sendo assim, surge uma curva de erros, a qual está diretamente relacionada à natureza do modelo de neurônio utilizado. Se a rede é formada por unidades lineares, como no modelo de McCulloch e Pits, na superfı́cie de erro será encontrado um único valor mı́nimo. Por outro lado, se a rede é constituı́da por unidades não-lineares, podem ser encontrados diversos valores mı́nimos chamados de mı́nimos locais, além do mı́nimo global. O processo de Aprendizado por Correção de Erros utiliza algoritmos para caminhar sobre a curva de erros, com o intuito de alcançar o menor valor de erro possı́vel, o mı́nimo global, ver Figura 4.14. Muitas vezes, o algoritmo não alcança este mı́nimo global, atingindo o que chamamos de mı́nimo local. Caso este erro alcançado seja desfavorável, é necessário recomeçar processo de aprendizado, (Haikin, 2001). Figura 4.14 Superfı́cie de erro com mı́nimos locais e o mı́nimo global SILVA, F.L. PPGME/UFPA 4.3 Algumas Teorias Referentes a Algoritmos de Redes Neurais 55 Para a correção do erro, os pesos da rede devem ser ajustados, de forma a aproximar a saı́da real à desejada. Tal ajuste dependerá do próprio erro calculado; do valor do estı́mulo de entrada que é ”transmitido”pelo peso a ser ajustado; e também da taxa de aprendizado, a qual relaciona-se à cautela com que a curva de erros é percorrida. Para um dado estı́mulo k, no passo de treinamento n: 4Wij = ηek (n)xj (n) (4.17) ∆w(n) - valor de ajuste a ser acrescido ao peso wij ; η - taxa de aprendizado; e(n) - valor do erro; xj (n) - valor do estı́mulo. O valor atualizado do peso será dado pela expressão: W (n + 1) = W (n) + 4Wkj (n) (4.18) Portanto, podemos utilizar a Regra Delta para corrigir os valores dos pesos, minimizando a função de erro ε, também conhecida como ”função de custo”: 1 ε(n) = e2 (n) 2 (4.19) Onde: e(n) - erro da rede no passo n do treinamento; ε(n) - valor da função de custo no passo n do treinamento. 4.3.8 Redes Neurais: Pontos Fortes e Limitações Conforme Simões e Shaw(1999), as redes neurais oferecem caracteristicas inteligentes muito interessantes, tais como: aprendizagem, adaptação, tolerância à falhas e generalização. Assim, o ponto forte de aplicação de redes neurais está no reconhecimento de padrões, reconhecimento de caracteres e formas, estimação de funções não lineares, previsões financeiras, e controle de processsos. O controle de processos também pode ser considerado uma tarefa de reconhecimento de padrões quando a rede neural puder reconstruir modelos de SILVA, F.L. PPGME/UFPA 4.4 A Estatı́stica do Processo de Aprendizagem 56 conjuntos de dados. Na ausência de modelos matemáticos de processos, as redes neurais podem utilizar um histórico de dados para se construir modelos preditivos. Depois de treinada, a rede neural pode se tornar um equipamento eletrônico equivalente, ou seja, um modelo que pode então predizer as reações do processo às novas condições. Entretanto as redes neurais têm certas limitações que devem ser consideradas: • Não é possı́vel traçar a maneira pela qual uma rede neural chegou à uma determinada solução. • É impossı́vel se interpretar as causas de um comportamento particular, uma vez que não se pode olhar para o sentido dos pesos e conexões de uma rede neural; além de ser impossı́vel alterar manualmente a estrutura de uma rede neural para se obter o resultado desejado. • A maioria dos métodos de treinamento não são completamente compreendidos, pois alem de depender de um enfoque de tentativa de erro, há poucas regras de projeto a serem seguidas. Por exemplo, a definição do número de neurônios, ou o estabelecimento de uma determinada faixa de convergência depende de experimentação com os dados. • O tempo de treinamento não é previsı́vel, podendo em alguns casos ser muito longo. • O tempo de execução depende do número de conexões, sendo aproximadamente proporcional ao quadrado do número de neurônios utilizados, onde a introdução de alguns nós a mais na rede pode aumentar consideravelmente o tempo de execução. 4.4 A Estatı́stica do Processo de Aprendizagem Nesta seção, retrata-se os aspectos estatı́sticos de aprendizagem. Segundo (Haikin, 2001), neste processo o interesse não está somente na evolução do vetor de pesos w enquanto a rede neural passa por um algoritmo de aprendizagem, e sim no desvio entre uma função alvo f(x) e a função real F(x,w) realizada pela rede neural, sendo que o vetor x representa o sinal de entrada e o desvio é expresso em termos estatı́sticos. Lembre-se, que uma rede neural é meramente uma forma pela qual um conjunto de medidas que caracterizam determinado fenomêno pode ser explicado, denominado de conhecimento empı́rico e SILVA, F.L. PPGME/UFPA 4.4 A Estatı́stica do Processo de Aprendizagem 57 este fenômeno fı́sico ou ambiente de interesse pode ser codificado através de treinamento, um fenômeno estocástico descrito por um vetor aleatório X formado por um conjunto de variáveis independentes, e um escalar D na qual caracteriza uma variável dependente, onde o vetor aleatório X pode apresentar os mais diversos significados fı́sicos particulares, diferentes entre si. Nesta situação adota-se que a variável dependente D é do tipo escalar e que foi formulada simplesmente para facilitar a exposição, sem ocasionar perda de generalidade. Portanto, caso se adote um vetor aleatório constituido de N realizações, uma amostra de treinamento pode ser representada da seguinte forma: τ = (xi .di )N i=1 (4.20) onde; (xi )N i=1 representação do vetor aletório X com N realizações; (di )N i=1 conjunto correspondente de realizações do escalar aleatório D. Observe que normalmente não se conhece a relação funcional exata entre X e D, por este fato normalmente, é utilizado o seguinte modelo estatı́stico proposto por (White, 1989); D = f (X) + ² (4.21) com; f (.) é uma função determinı́stica do seu argumento vetorial; ² é um erro de expectativa aleatório que representa a nossa falta de conhecimento sobre a dependência de D e X . O modelo estatı́stico descrito por White representado na função (4.21) é denominado como um modelo regressivo com o erro ² caracterizado como variavel aleatória com média zero e probabilidade de ocorrência positiva, cuja representação é mostrada na Fig. 4.15. x F(⋅ ) d ε Figura 4.15 Modelo Matemático Regressivo SILVA, F.L. PPGME/UFPA 4.4 A Estatı́stica do Processo de Aprendizagem 58 4.4.1 O Erro de Expectativa (²) O valor médio do erro de expectativa (²), dada qualquer realização x, é zero, isto é, E = [²/x] = 0 (4.22) onde E é o operador estatı́stico do valor esperado (esperança matemática). Deste modo, podemos afirmar que a função de regressão f (X) é a média condicional da saı́da do modelo D, dado que a entrada X=x, que segue diretamente da equação (4.21), considerando a esperança E na equação (4.22) assim; f (x) = E[D|x] (4.23) É muito importante observar que o erro de expectativa (²) não é correlacionado com a função de regressão f (X), isto é; E[²f (X)] = 0 (4.24) O modelo regressivo da Fig. 4.15 é uma descrição ”matemática”de um ambiente estocástico. O seu propósito é utilizar o vetor X para explicar ou prever a variável dependente D. A Figura (4.16) é o modelo ”fisico”correspondente do ambiente. x F(⋅,w) y - + d e Figura 4.16 Modelo Fı́sico de Rede Neural O propósito deste segundo modelo é baseado em uma rede neural, e tem por caracterı́stica codificar o conhecimento empı́rico, representado pela amostra de treinamento = em um conjunto correspondente de vetores de pesos sinápticos, w, como mostrado por: τ → w SILVA, F.L. (4.25) PPGME/UFPA 4.4 A Estatı́stica do Processo de Aprendizagem 59 Na verdade, a rede neural fornece uma ”aproximação”para o modelo regressivo da (Fig. 4.16). Suponha que a resposta real da rede neural, produzida em resposta ao vetor de entrada x, seja representada pela variável aleatória do tipo; Y = F (X, w) (4.26) onde, F(.,w) é a função de entrada-saı́da realizada pela rede neural =. Observa-se que préviamente conhecidos os dados de treinamento o vetor de peso w é obtido pela minimização da função de custo dado por; N 1X ξ(w) = (di − F (xi , w))2 2 i=1 (4.27) onde 1/2 é um fator de consistência; ξ(w) é a diferença quadrática entre a resposta desejada d e a resposta real y da rede neural, calculada como a média sobre todo o conjunto de dados de treinamento =. Observe que caso adote-se um operador média E= tomado sobre todo o conjunto de treinamento = é representado por x e d, onde os pares formados (x,d ) caracterizam uma amostra de treinamento de =. Por outro lado, o operador estatı́stico do valor esperado E atua sobre todo o algoritmo de variáveis aleatórias X e D, incluindo desta forma = como um subconjunto. Considerando-se a transformação descrita pela Eq. (4.27), podemos usar alternativamente F(x, w) e F(x,=)e assim rescrever: 1 ξ(w) = E= [(d − F (x, =))2 ] 2 (4.28) Adicionando e subtraindo f x) ao argumento (d - F(x,=) e então utilizando a Eq. (4.28), podemos escrever; d − F (x, =) = (d − f (x)) + (f (x) − F (x, =)) = ² + (f (x) − F (x, =)) (4.29) Observe que esta expressão pode ser reescrita quando substituida na Eq. (4.28) e então expandindo os termos, pode- se reformular a função de custo ξ(w)na forma equivalente; ξ(w) = SILVA, F.L. 1 1 E= [²2 ] + E= [f (x) − F (x, =)2 ] + E= [²(f (x) − F (x, =))] 2 2 (4.30) PPGME/UFPA 4.4 A Estatı́stica do Processo de Aprendizagem 60 Observe, entretanto, que o último termo do valor esperado no lado direito da Eq. (4.30) é zero por duas razões: • O erro de expectativa é não-correlacionado com a função de regressão f (x) devido à Eq.(4.40), interpretada em termos do operador E= . • O erro de expectativa ² é relativo ao modelo de regressão da Fig.(4.19), enquanto que a função aproximativa F(x, w) é relativa ao modelo de rede neural da Fig. (4.20). Conseqüentemente, a Eq. (4.49) se reduz a: ξ(w) = 1 1 E= [²2 ] + E= [f (x) − F (x, =)2 ] 2 2 (4.31) O primeiro termo no lado direito da Eq. (4.31) é a variância do erro de expectativa (do modelo regressivo) ², calculado sobre o conjunto de treinamento =. Este termo representa o erro intrı́nseco,porque ele é independente do vetor de pesos w. Ele pode ser ignorado, na medida em que seja considerada a minimização da função de custo ξ(w) em relação a w. Assim, o valor particular do vetor de pesos w* que minimiza a função de custo ξ(w) também irá minimizar a média de ”ensemble”da distância quadrática entre a função de regressão f x) e a função aproximativa F(x, w). Em outras palavras, a medida natural da eficiência de F(x, w) em prever a resposta desejada d é definida por: Lmed = (f (x), F (x, w)) = E= [(f (x) − F (x, =))2 ] (4.32) 4.4.2 Verificação dos Termos ”Bias”e Variância Fazendo uso da Eq.(4.32), pode-se redefinar a distância quadrática entre f(x) e F(x,w) como: Lmed = (f (x), F (x, w)) = E= [(E[D|X = x] − F (x, =))2 ] (4.33) Esta expressão pode também ser vista como o valor médio do erro estimativo entre a função de regressão f(x)=E[D—X=x] e a função aproximativa F(x,w), calculada sobre toda a amostra de treinamento =. Observa-se que a média condicional E[D—X=x] apresenta SILVA, F.L. PPGME/UFPA 4.4 A Estatı́stica do Processo de Aprendizagem 61 um valor esperado constante em relação a todo o conjunto de dados de treinamento =. Devido este fator pode-se constatar que: E[D|X = x] − F (x, =) = (E[D|X = x] − E=[F (x, =)]) + (E= [F (x, =)] − F (x, =))(4.34) onde simplesmente adicionamos e subtraı́mos a média E= [F (x, =)]. A Equação (4.34) pode ser reformulada como soma de dois termos: Lmed = (f (x), F (x, =)) = B 2 (w) + V (w) (4.35) onde B(w) e V(w) são, definidos da seguinte forma: B(w) = E= [F (x, =)] − E[D|X = x] (4.36) sendo: B(w) o termo representativo do ”bias”do valor médio da função aproximativa F (x, =), medido em relação à função de regressão f(x)=E [D—X=x ]. O fator mais importante referente a este termo é que o mesmo representa a incapaciadade da rede neural definida pela função F(x,w) de aproximar com precisão a função de regressão f(x)=E [D—X=x ]. Portanto, pode-se analizar o bias B(w) como um erro aproximativo. V (w) = E= [(F (x, =) − E= [F (x, =)])2 ] (4.37) V(w) é o termo representativo da variância da função aproximativa F(x, w), medida sobre toda a amostra de treinamento =. Este referido termo representa a não-adequação da informação contida na amostra de treinamento = acerca da função de regressão f(x). Pode-se ,portanto, avaliar a variância V(w) como a manifestação de um erro estimativo. SILVA, F.L. PPGME/UFPA 4.5 Algoritmo de Levenberg Marquardt - LMA 62 4.5 Algoritmo de Levenberg Marquardt - LMA Algoritmo Levenberg Marquardt (LM) se basea no método dos minı́mos quadrados para ajustar funções com comportamento não linear, procurando encontrar o melhor ajustamento para um conjunto de informações na busca de minimizar a soma dos quadrados das diferenças entre a curva ajustada, tais diferença são caracterizadas de resı́duos. O LM é uma interpolação entre o Algoritmo de Gauss-Newton (GN) e o método do Gradiente Descendente, o LM é mais eficiente na maioria dos casos por atingir com maior rapidez a convergência (objetivo). Para um conjunto de dados cujas as variáveis dependentes e independentes (xi , yi ), onde o objetivo é otimizar o parâmetro β da função f (x, β), de forma que seus resı́duos (erros), e(w) sejam mı́nimos. m 1 X e(w) = . [(y − yi )]2 n i=1 (4.38) E com base em função dos pesos, podemos reescreve-la da seguinte forma: E(W ) = m X [(f (W T , β)) − yi ], (4.39) i=1 e com a utilização da matriz J jacobiana da função f em β, cuja matriz é dada por: J= ϑe(w) , ϑw (4.40) utilizada para se obter a aproximação da matriz H hessiana : H= ϑ2 ER (W ) , ϑ(w)2 (4.41) Observe que agora para a atualização de uma camada de pesos Wk+1 na rede: Wk+1 = Wk + δwk , (4.42) δwk = −H −1 .ρ(k) (4.43) com: SILVA, F.L. PPGME/UFPA 4.5 Algoritmo de Levenberg Marquardt - LMA 63 onde, ρ(k) é definido como: ρ(k) = 2J T (w).E(w) (4.44) E com as respectivas atualizações dos pesos no processo de retropropagação da rede, tem-se: Wk+1 = Wk − [J T (w).J(w) + λI]−1 .J T (w).E(w) (4.45) sendo J T o jacobiano de ρ(k) , gerada a partir da primeira derivada de ρ(k) , I a matriz identidade e λ é a constante do método de Levenberg-Marquardt. Ou ainda: ρ(k) = −[JkT .ρ(Wk ) ].[JkT Jk + λI]−1 ] SILVA, F.L. (4.46) PPGME/UFPA 4.6 Normalização dos Dados de Entrada 64 4.6 Normalização dos Dados de Entrada Segundo Palit e Popovic (2005), o processo de normalização de dados é um processo de preparação final dos dados antes que os mesmos sejam apresentados ao processo de treinamento da rede neural. Ele inclui a normalização dos dados processados e de seus intervalos naturais, a fim de que, os dados estejam normalizados de forma adequada a satisfazer as exigências da camada de entrada da rede e são adaptados à não linearidade dos neurônios, de modo que seus resultados não devam ultrapassar o limite de saturação. 4.6.1 Normalização por Minı́mo e Máximo A normalização obtida por minı́mo e máximo são de grande utilidade para normalizar dados de um forma não linear, utilizando a função tangente hiperbólica descrita no espaço (-1,1) ou no caso da função Tansig descrita no espaço (0,1). Na prática, a normalização mais simples é dada por: xni = xi (4.47) xmax E a normalização linear, se dá da seguinte forma: xni = xi − xmin xmax − xmin (4.48) 4.6.2 Normalização por Desvio Padrão Widrow (1962), demostrou que se os padrões de treino apresentarem as caracterı́stica baseadas em uma distribuição normal padrão, ou seja, apresentarem média zero e variância unitária x0k ∼ N (0, 1). Portanto, cada entrada xk é transformada em x0k por: x0k = xk − x̄ σx (4.49) onde x̄ e σ representam respectivamente o valor médio das entradas xk e o desvio padrão associado ; e k é o ı́ndice de padrão. SILVA, F.L. PPGME/UFPA 4.7 Desenvolvimento e Aplicações de Redes Neurais w1 v1 w1 v2 w2 65 w1 v1 = v2 w2 v1 < v2 w2 Figura 4.17 Efeito da normalização dos dados de entrada Através da Figura 4.17, nota-se que quando as variáveis são v1 = v2 , existe uma constância na direção do gradiente, enquanto que, para um comportamento v1 6= v2 , esta direção é alterada em cada passo. Estas normalizações são as mais freqüentemente utilizadas. Além da utilização da normalização linear e logarı́tmica para um melhor dimensionamento dos sinais de entrada da rede, outros tipos de normalização são utilizadas para moderar possı́veis problemas de não linearidade durante a fase de treinamento, são elas: transformações logarı́tmicas utilizadas para comprimir as regiões onde são observadas grandes variações nos valores observados, e tranformações exponenciais, a qual pode ampliar a escala na região de pequenos valores observados, etc. No entanto, existe falhas a serem encontradas neste processo, p.e, pode-se na preparação destes dados se ter uma eventual perda de informações nos novos dados adquiridos. 4.7 Desenvolvimento e Aplicações de Redes Neurais Para Kovács (1998), quando se utiliza redes neurais no estudo dos mais variados tipos de problemas, deve-se sempre seguir alguns passos para o desenvolvimento de aplicações dessas redes. • Coleta de Dados • Separação em Conjuntos • Configuração de Rede • Treinamento • Teste • Integração SILVA, F.L. PPGME/UFPA 4.7 Desenvolvimento e Aplicações de Redes Neurais 66 1. Coleta de Dados e Separação em Conjuntos Esta tarefa requer uma análise cuidadosa sobre o problema em si, para haver uma minimização de ambiguidades e erros nos dados. Outro fator muitı́ssimo importante é que os dados coletados devem apresentar de forma bastante significativa e cobrir amplamente o domı́nio do problema; não devendo cobrir somente as operações normais ou rotineiras, mas também as exceções e as condições nos limites do domı́nio do problema. Normalmente, os dados coletados são separados em duas cotegorias : Dados de Treinamento, que serão utilizados para o treinamento da rede e Dados de Teste, os quais serão utilizados para verificar a robustez sob a condição real de utilização da rede. Além do mais, pode-se usar também uma subdivisão do conjunto de treinamento, criando um conjunto de validação. Este, será utilizado para verificar a eficiência da rede quanto a sua capacidade de generalização durante o treinamento, podendo ser empregado como critério de parada do treinamento. Após a ocorrência do treinamento desses conjuntos, eles geralmente são dispostos em ordem de forma aleatória para prevenção de tendências associadas à ordem de apresentação dos dados. Em muitas situações pode ser necessário pré-processar estes dados, através de normalizações, escalonamento e conversões de formato para tornálos mais apropriados à sua utilização na rede. 2. Configuração de Rede Este passo é caracterizado pela definição da configuração da rede, encontra-se dividido em três etapas: • Seleção do paradigma neural apropriado à aplicação • Determinação da topologia da rede a ser utilizada, assim como, o número de camadas, o número de unidades em cada camada, etc. • Determinação de parâmetros do algoritmo de treinamento e funções de ativação. Esta etapa apresenta um grande impacto na eficácia do sistema resultante. Além dessas etapas não se deve deixar de resaltar que as definições de configuração de redes neurais exige muito da capacidade e experiências anteriores dos seus implementadores. SILVA, F.L. PPGME/UFPA 4.7 Desenvolvimento e Aplicações de Redes Neurais 67 3. Treinamento Após a escolha do algoritmo de treinamento, deve-se ajustar os pesos das conexões. Observa-se que, nesta etapa é muito importante considerar alguns aspectos tais como: a inicialização da rede, o modo adotado para o treinamento e o tempo de treinamento. Esta etapa é considerada uma das mais importantes, pois uma excelente escolha dos valores iniciais dos pesos da rede pode ocasionar uma expressiva diminuição do tempo de treinamento. Esses pesos iniciais apresentam-se na forma de uma distribuição uniforme, ou seja, os mesmos tem caracterı́sticas de números aleatórios uniformemente distribuidos. Quando refere-se ao modo de treinamento o mais adotado é o modo padrão, pois este apresenta um menor armazenamento de dados, além de apresentar menos problemas de mı́nimos locais, motivado pela utilização de processos estocásticos. O outro método utilizado é o de Batch, que também apresenta uma grande eficiência das estimativas do vetor gradiente, tornando o treinamento mais estável. A escolha do modo a ser utilizado dependerá em muito do problema que está se tratando. O treinamento deve ser interompido sempre que a rede encontrar-se com uma boa capacidade de generalização e quando a taxa de erro for bastante pequena, encontrando assim, um ponto ótimo de parada com erro mı́nimo e capacidade de generalização máxima. 4. Teste ou Validação Nesta tarefa o pesquisador fará testes para verificação da confiabilidade e adequação da rede aos dados que foram anteriormente utilizados, verificando assim, a capacidade da rede trabalhar em situações reais do próprio problema que está sendo verificado. Alguns outros testes podem ser adotados para a verificação da existência de valores muitos pequenos, visto que, caso estes valores existam, as conexões associadas podem ser consideradas insignificantes e assim ser eliminadas (prunning ), e por outro lado, caso haja, valores muito grandes que os demais é um indicativo de que houve um over-traning da rede. No entanto, é importante ressaltar que testes utilizados em modelos lineares, como por exemplo, em modelos de Box e Jenkins, onde utiliza-se testes de Ljung-Box-Pierce para validação e escolha do melhor modelo entre os ajustados, o mesmo não é válido quando se trata de modelos não lineares (LIMÃO, 1999). SILVA, F.L. PPGME/UFPA 4.8 Redes Neurais em Sistemas de Controle 68 5. Integração Já com a rede treinada e avaliada, pode-se integrá-la em um sistema do ambiente operacional da aplicação para melhor facilidade de aquisições de dados. Esta integração deve, de preferência, ser aplicada em sistemas que apresentem facilidade de utilização, não esquecendo de realizar um processo de treinamento dos usuários para que assim, haja um sucesso imediato do processo. Uma estrutura significativa de redes neurais apresenta uma enorme capacidade de adaptação e aprendizagem. Esta capacidade de adaptação e aprendizagem pelo ambiente significa que modelos de redes neurais podem lidar com dados imprecisos e situações não totalmente definidas, ou seja, caso seja apresentado a determinada rede entradas que ainda não lhe foram apresentadas, ela tem a capacidade de generalizar com os dados existentes. As Redes Neurais apresentam uma grande capacidade de aproximar qualquer função contı́nua do tipo não linear de um grau de correção desejado. 4.8 Redes Neurais em Sistemas de Controle Segundo Kováks (2002), os sistemas de controle são baseados em estruturas fı́sicas claramente definidas, e por isso, constituem uma área que permite uma aplicação eficiente das técnicas de redes neurais. Os sistemas de controle podem ser distinguidos em duas categorias distintas: os sistemas de controle dinâmicos e os sistemas de controle de processos que, embora exista uma relação entre ambos, podem ser aplicados em classes diferentes de problemas e com abordagens próprias. Os sistemas de controle dinâmicos sempre envolvem o controle de uma planta cujas variáveis evoluem de acordo com um sistema de equações diferenciais especificadas pelas leis fı́sicas que as governam. Os objetivos do controle dinâmico neste caso, é disciplinar a evolução destas variáveis, conforme critérios previamente descritos, ou seja, propor estabilização ou, até mesmo, impor trajetória de referência que expliquem o mesmo. SILVA, F.L. PPGME/UFPA 4.8 Redes Neurais em Sistemas de Controle 69 4.8.1 Sistemas de Controle Dinâmicos Com estudos no decorrer dos últimos anos, os sistemas de controle dinâmicos, particularmente os que envolvem modelos lineares, estão sendo aplicados em vários conjuntos de problemas, assim como, as suas respectivas análises, (KOVÁCS, 2002). entrada saída v(t) + + Planta H(v,t) y(t) - + e(t) Controlador + - yref (t) referência Figura 4.18 Esquema de um sistema de controle dinâmico A representação do sistema de controle dinâmico, descrita na Figura 4.18, é definida da seguinte forma: • u(t) → caracteriza a excitação, ou entrada do sistema, a qual é composta pelos sinais recebidos pela planta; • y(t) → caracteriza a saı́da, caracterizada pela resposta, ou projeção que serve de base para a comparação com a trajetória de referência; • e(t) → é o erro produzido pelo afastamento da saı́da em relação a trajetória de referência. Este se caracteriza por definir como uma importante medida utilizada pelo controlador para determinar uma ação de controle o mais eficiente possı́vel que, ao ser aplicada à entrada da planta, produza um menor erro possı́vel, ou até mesmo o elimine. • H(v,t) → operador ou função de transferência da planta, responsável por sintetizar a relação entre a entrada e a saı́da. Observa-se que, uma vez especificado o objetivo de controle e caracterizada a dinâmica da planta, considerando-a na forma de equações diferenciais ou funções de tranferências, é necessario determinar um controlador que atenda as especificações prévias definidas. SILVA, F.L. PPGME/UFPA 4.8 Redes Neurais em Sistemas de Controle 70 É muito importante observar que a dinâmica de um determinado sistema pode ser descrita por um sistema multivariável de equãções diferenciais lineares de parâmetros fixos, e para um outro sistema pode ser descrito por função de tranferência linear variante no tempo. Consequentemente, as abordagem adotadas para o projeto de controladores em ambos os casos são completamente diferentes. 4.8.2 Identificação de Sistemas Dinâmicos Levando em consideração uma planta de tempo discreto que apresente como entrada e saı́da as seguintes sequências u(k) e y(k) com dinâmica desconhecida. E, assumindo como primeiro passo a definição de uma classe parametrizada P(W)de modelos de identificação e, dentro desta classe mediante algum algoritmo apropriado, procurar identificar a parametrização que de forma mais adequada represente a dinâmica da planta (Fig 4.19). y(k) Planta + u(k) e(k) + Modelo de identificação W ŷ (k) Figura 4.19 Identificação de um sistema dinâmico A medida de adequação que melhor ajuste o sistema é definida através da minimização de erro e(k) de reconstrução da saı́da, também utilizado para reajustar os parâmetros do modelo de identificação. ky(k) − ŷ(k)k = ky(k) − P (Ŵ ; u(k))k < ε (4.50) para k ≥ K e para todo u(k) ∈ U . SILVA, F.L. PPGME/UFPA 4.8 Redes Neurais em Sistemas de Controle 71 4.8.3 Retropropagação Dinâmica ( Dynamic Back Propagation ) Como já anteriormente definido na equação 4.21, em que o algoritmo de retropropagação estática, cujo resultado de um método do gradiente para minimizar uma função de erro quadrático pelo qual um parâmetro arbitrário w é ajustado, apresenta a seguinte caracterı́stica. W (K + 1) = W (k) − ηgrad(E(W (k))) (4.51) onde k é o ı́ndice dos exemplos da tabela de treinamento. A partir de então, considera-se um modelo de identificação não linear parametrizado por W = [w1 , w2 , ..., wn ]: x(K + 1) = φ(x(k)), u(k), W ) (4.52) ŷ(k) = ψ(x(k)) onde o erro quadrático E(W) é definido como: E(W ) = ky(k) − ŷ(k)k (4.53) e como gradiente do erro E(W) em relacionado ao parâmentro wi , implica em: δE(W ) δ ŷ(k) = −2(y(k) − ŷ(k)). = −2∂y (k).ŷwi (k) δwi δwi (4.54) 4.8.4 Sistemas de Controle de Processos Com utilização nas mais variadas especialidades, entre elas a Engenharia Elétrica, Engenharia Mecânica, Biomedicina, Engenharia de Trafêgo, os sistemas de controle de processos em qualquer situação apresentam funções essenciais voltadas ao processo em si: a temporização, o sequenciamento, a sincronização e o intertravamento de eventos. E os voltados especialmente ao operador: monitoração, supervisão, detecção de falhas e processamento de alarme. SILVA, F.L. PPGME/UFPA 4.8 Redes Neurais em Sistemas de Controle 72 Diagnóstico de falhas na operação de sistemas pode ser reduzido a um problema de detecção de padrões, no caso padrões anômalos, e já se sabe que as redes neurais são eficientes detetores de padrões (KOVÁCS, 2002). Modos de falhas y1 Tabela de Modelo de simulação u2 treinamento Ψ = {ul , yl }l =1 L N(W) Figura 4.20 Treinamento de uma rede neural para diagnóstico de falhas 4.8.5 Análise de Dados Embora na função objetivo do modelo de Redes Neurais Artificiais (RNA) tenha sido adotado a função de minimização do erro quadrático médio, o desempenho dos modelos de previsão será avaliado através de um conjunto maior de indicadores estatisticos. Assim, além do erro quadrático médio (EQM ), serão calculados e analisados o erro absoluto médio (EAM ), erro relativo percentual médio (ERPM ) o erro relativo percentual máximo (ERPmax ). Todos estes testes de avaliação dos erros para projeções futuras são descritos abaixo: n 1X EQM = (yj − ŷj )2 n j=1 (4.55) n EAM = 1X |yj − ŷj | n j=1 (4.56) n 100 X |yj − ŷj | ERP M = n j=1 yj SILVA, F.L. (4.57) PPGME/UFPA 4.8 Redes Neurais em Sistemas de Controle ERP max = max · 100| 73 yj − ŷj | yj (4.58) onde: n = 1,.....,N, com N o número de padrões analisados; Yj = são caracterizados como os valores reais observados; ŷj são caracterizados como os valores previstos, ou seja, valores obtidos após modelagem, também conhecidos como previsões, ver Figura (4.21). 4.8.6 Previsões com Redes Neurais Devido a grande complexidade dinâmica de determinados processos ou eventos não lineares no decorrer de um intervalo de tempo t, torna-se muito difı́cil a obtenção de previsões com grau de confiabilidade significativos. Com isso, em determinadas situações, os modelos baseados em inferência estatı́stica não são adequados para este fim. Figura 4.21 Valores Previstos y(t1 ), y(tj ), ...., y(tz ) → y(tk+1 ) (4.59) y(ti ), y(ti+1 ), ...., y(tk ) → y(tk+1 ) → um passo a f rente. (4.60) y(ti ), y(tj ), ...., y(tz ) → y(tk+h ) → k passo a f rente. (4.61) Portanto, nestes casos, modelos baseados em redes neurais suprem estas necessidades com excelentes resultados. Como um exemplo de processo que apresenta esta caracterı́stica pode-se citar, o mercado financeiro onde a movimentação das ações por apresentar algumas relações não lineares, não é possı́vel modelar utilizando modelos estruturais, regressão e ARIMA. SILVA, F.L. PPGME/UFPA Capı́tulo 5 Análise de Dados 5.1 Processo de filtração dos cristais de hidrato Para a produção de alumina, a bauxita após minerada é transportada para a fábrica onde sofre a intervenção das principais fases do processo de sua obtenção: a moagem, digestão, filtração/evaporação, precipitação e calcinação. A bauxita após moı́da com solução cáustica e cal em moinhos conjugados, forma uma polpa de cristais de hidrato. A polpa em solução pré-aquecida de soda cáustica é transferida aos digestores, onde é realizado a primeira separação de impurezas como o Ferro e o Sı́lica pois, estes são fatores que são prejudiciais à qualidade final do alumı́nio. A partir de então, o hidrato de alumina é dissolvido, formando o licor de aluminato de sódio e outras impurezas. A solução que contém o aluminato de sódio e os resı́duos de bauxita em suspensão é transferida aos espessadores, onde, com auxı́lio de agentes floculantes, os resı́duos são separados por sedimentação, formando uma lama densa, a “lama vermelha”, que é lavada e filtrada para recuperar o residual de soda, sendo transferida com baixo teor de umidade para o depósito de rejeitos, (http://www.serteq.com.br/) Fig.(5.1). Condensado (X1) Vapor (X2) Rotação do Tambor (X3) Resposta (Y): Polpa de Hidrato Lavada Caracterítica da Qualidade Polpa de Hidrato - Baixa umidade (Y1) - Baixo percentual de soda na polpa de hidrato (Y2) Figura 5.1 Processo de lavagem e filtração da polpa de hidrato 5.1 Processo de filtração dos cristais de hidrato 75 A polpa de cristais de hidrato é bombeada dos tanques de precipitação para filtros rotativos de discos ou de tambor horizontal, cuja finalidade é a máxima remoção da umidade e dos resı́duos de soda presentes na torta filtrada. No processo é utilizado condensado, cuja finalidade é lavar a torta formada sobre o tambor removendo resı́duos de soda cáustica, e após esta lavagem com a ajuda de calcinadores, movidos a queima de oléo BTF (Baixo Teor de Fluidez). O óleo BTF tem como função produzir calor e é utilizado em equipamentos destinados à geração de energia térmica. Os calcinadores trabalham em temperaturas equivalentes a 600 e 700 graus centı́grados. É aplicado um vapor que tem como finalidade a aceleração da secagem da torta, removendo assim os vestı́gios da água não combinada (livre) molecularmente com a alumina. Deste modo é obtido o primeiro produto do processo de produção de alumı́nio: A alumı́na com caracterı́sticas de um pó branco e refinado de consistência semelhante ao açúcar, (SANTOS, 2007 e http://www.abralatas.org.br). Os altos números de ocorrências de queimadas e a utilização pela indústria de produtos derivados de petróleo como conbustı́vel, entre eles o óleo BTF, são os grandes responsáveis pelos elevados ı́ndices de emissões de gases na atmosfera contribuindo com o aumento do efeito estufa e ocorrência de chuvas ácidas. Pois com a combustão do óleo BTF, devido a alta concentração de enxofre em sua composição, são liberados na atmosfera dióxidos de enxofre (SO2 ) e ionizado na atmosfera forma o ( SO4−2 ). Portanto, na atmosfera estes dióxidos reagem com as gotı́culas de água em suspensão resultando em H2 SO4 , ácido sulfúrico, provocando por conseqüência chuva ácida, (www.sbrt.ibict.br). DEste modo, a queima excessiva de óleo BTF, representa uma ameaça ao meio ambiente e consequentemente à saúde da população. SILVA, F.L. PPGME/UFPA 5.1 Processo de filtração dos cristais de hidrato Figura 5.2 Emissões de Gases por Indústrias 76 Figura 5.3 Emissões de Gases por Queimadas Responsáveis pela emissões no perı́odo de 1971 e 2004, de cerca de 36% do principal gás causador do efeito estufa o CO2 , as industrias mundiais dentre elas a de produção e beneficiamento de alumı́nio, apresentou um aumento de 61% no consumo de energia, principalmente em alguns paı́ses emergentes importantes, o que aumenta ainda mais a quantidade de CO2 lançada à atmosfera, (http://noticias.terra.com.br/). 5.1.1 Filtros de discos rotativos Um fator de grande importância na cadeia produtiva do alumı́nio é a energia elétrica onde somente no Brasil, segundo Dr. Célio Berman 50% de toda energia produzida é consumida por industrias, sendo que 30% se restringe a seis setores: Cimento, Aço, Alumı́nio, Ferro-Ligas, Petroquı́mica e Papel e Celulose. Onde 8% particularmente é consumida na industria de produção de alumı́nio em movimentação de filtros rotativos, fornos etc. (www.socioambiental.org) Os filtros de discos rotativos (Fig 5.4), pertencem ao grupo com alimentação lateral e já estão disponı́veis há muitos anos. São usados geralmente em aplicações resistentes tais como enxugamento do taconito do minério de ferro, da hematita, do hidrato de carvão, de alumı́nio, do concentrado de cobre, dos concentrados da flutuação de pirita e de outros processos de beneficiamento. Pode-se destacar que uma das maiores finalidades dos filtros rotativos no processo é a de filtração de impurezas e seleção de materias. SILVA, F.L. PPGME/UFPA 5.1 Processo de filtração dos cristais de hidrato Figura 5.4 Filtro de disco rotativo 77 Figura 5.5 Substituição do Tecido Filtrante 5.1.2 Critérios de Eventuais Paradas no Processo No decorrer da filtração da polpa de cristais de hidrato, alguns fatores contribuem para a ocorrência de eventuais e indispensáveis interrupções no processo. Estes fatores influenciam diretamente na qualidade do produto e conseqüêntemente na não otimização dos resultados. Dentre estes fatores, destaca-se a substituição do tecido filtrante (Fig 5.5) dos filtros rotativos. Esta substituição é realizada a cada 1.500h de trabalho, e a finalidade é evitar a não eficiência do enxugamento da polpa e a não retenção correta das impurezas. Para uma eficiente lavagem da polpa é necessário a realização da limpeza cáustica, intervenção necessária à cada 200 horas ininteruptas do processo. 5.1.3 Eficiência do Processo Para a máxima eficiência no processo de lavagem e secagem da polpa de cristais de hidrato é extremamente necessário que as variáveis vapor e condensado, sejam combinadas e controladas com a rotação do tambor, proporcionando assim, o tempo de residência adequado para que a lavagem e a secagem possam agir na máxima remoção da água livre e da soda residual. SILVA, F.L. PPGME/UFPA 5.2 Análise dos Dados Através de Modelo de Rede Neural 78 5.2 Análise dos Dados Através de Modelo de Rede Neural Para o desenvolvimento do ajuste e controle do processo por sistema inteligente de redes neurais artificiais, são utilizadas as informações coletadas a cada 8 horas do processo ininterrupto. No entanto, não existe as informações ocorridas nos finais de semana e, em determinadas situações as amostras das variáveis foram retiradas em apenas um horário ou em apenas uma semana de eventuais meses. As variáveis utilizadas foram: Condensado, rotação do tambor e vapor. No entanto, essas informações de coleta de dados são consideradas irrelevantes quando se trabalha com modelagens via sistemas de aprendizagem inteligentes. Pois para o treinamento da rede, as informações devem ser selecionadas de forma que se torne a mais representativa possı́vel do evento a ser estudado, dispensando assim, a ordem de ocorrência das observações em cada variável. As amostras são referentes ao perı́odo de 12 de julho de 2005 a 22 de junho de 2006, correspondendo um total de 498 informações. No entanto, na fase de treinamento e validação da rede foram utilizados somente um conjunto de 350 observações, das quais 57% foram para treinamento o correspondente a 200 observações e para validação utilizou-se o correspondente a 43% dessa amostra o que equivale a 150 observações (Fig 5.6). 80 60 40 0 50 100 150 200 250 300 350 400 450 500 0 50 100 150 200 250 300 350 400 450 500 0 50 100 150 200 250 300 350 400 450 500 0 50 100 150 200 250 300 350 400 450 500 50 100 150 200 250 300 350 400 450 500 2 1 0 39 38.5 38 37.5 10 5 0 0.4 0.2 0 0 Figura 5.6 Comportamentos das Variáveis do processo SILVA, F.L. PPGME/UFPA 5.3 Estruturação e Treinamento da Rede - 1o Ensaio 79 Na busca de uma modelagem de aproximação, ou seja, de uma modelagem que caracterize da forma mais significativa possı́vel o processo estudado, que seja capaz de acompanhar o padrão gerado, realizou-se vários ensaios de simulações utilizando alguns fatores, como por exemplo: normalização dos dados de entrada da rede por Desvio Padrão e normalização no espaço (-1, 1), além de alteração na estrutura da própria rede, através de mudanças nos seguintes parâmetros: número de camadas escondidas de neurônios, alterações das taxas de aprendizagem e de momento e os tipos de funções de ativação para cada camada. No entanto, após a realização de vários ensaios, foram selecionados três situações, onde utilizou-se como método de treinamento o algorı́timo alternativo ao Backpropagation padrão porém bastante eficiente, ou seja, uma variação do algoritmo Backpropagation com o método Levenberg Marquardt, também conhecido como Levenberg Marquardt Backpropagation. Na escolha deste algoritmo levou-se em consideração o fato, do mesmo ser considerado como um dos mais rápidos e eficiente para se obter a convergência em treinamento (Hagan e Menhaj, 1994). 5.3 Estruturação e Treinamento da Rede - 1o Ensaio Neste primeiro ensaio de simulação, a fase de treinamento foi realizada em 10.000 interações, com as variáveis normalizadas por desvio padrão, ver Função 4.39. O parâmetro de atualização de tela adotado foi de 50 em 50 épocas, com uma taxa de aprendizagem de 0,07, taxa de momento de 0,8 e um erro final de treinamento equivalente E(W)=0 . Topologia ∗ da Rede: • 1a Camada: Camada de entrada da rede, representada pelas variáveis independentes (condensado, rotação e vapor). • 2a Camada: Formada por 14 neurônios com função de ativação identidade, significando neurônios estáticos e com a saı́da sendo representada por uma função do tipo Logı́stica (logsig). ∗ Na matemática, a topologia é a área em que se estudam os espaços topológicos. Em engenharias, está associada à disposição lógica de elementos. Em informática, topologia de rede é a forma por meio da qual ela se apresenta fisicamente, ou seja, como os elementos de rede (network nodes) estão dispostos. Obtido em “http://pt.wikipedia.org/wiki/Topologia” SILVA, F.L. PPGME/UFPA 5.3 Estruturação e Treinamento da Rede - 1o Ensaio 80 • 3a Camada: Formada por 12 neurônios com função de ativação identidade, significando neurônios estáticos e com a saı́da sendo representada por uma função do tipo Logı́stica (logsig). • 4a Camada: Camada de saı́da da rede, formada por apenas dois neurônio, cuja entrada apresenta uma função de ativação identidade, com neurônios estáticos e com as saı́das representadas por uma função do tipo linear (purelin). Com esta configuração de rede foi obtido o respectivo erro de treinamento M SE = 2 × 10−2 , Figura 5.7. ! "" # $%& 1 10 0 10 -1 10 -2 10 0 1000 2000 3000 4000 5000 6000 7000 8000 9000 10000 Figura 5.7 Evolução da Função Erro E(W) SILVA, F.L. PPGME/UFPA 5.3 Estruturação e Treinamento da Rede - 1o Ensaio 81 5.3.1 Simulação de Treinamento da Variável Nı́vel de Umidade- 1o Ensaio 5 4 3 2 1 0 -1 -2 -3 0 20 40 60 80 100 120 140 160 180 200 160 180 200 Figura 5.8 Treinamento da Variável Umidade 0.5 ! 0.4 0.3 0.2 0.1 0 -0.1 -0.2 -0.3 0 20 40 60 80 100 120 140 " Figura 5.9 Erro de Treinamento da Variável Umidade Pode-se observar na Figura 5.8, que o ajuste de treinamento para a variável nı́vel de umidade, obtido através da simulação do modelo de RNA com apenas duas camadas foi de razoável significância, pois um grande número de observações não acompanhou o padrão do processo. Esta afirmação pode ser comprovada através das Figura 5.9, gerada a partir dos erros quadráticos médios de treinamento para a variável dependente em questão. SILVA, F.L. PPGME/UFPA 5.3 Estruturação e Treinamento da Rede - 1o Ensaio 82 5.3.2 Simulação de Treinamento da Variável Nı́vel de Soda- 1o Ensaio 12 10 8 6 4 2 0 -2 0 20 40 60 80 100 120 140 160 180 200 160 180 200 Figura 5.10 Treinamento da Variável Soda 2 1.5 1 0.5 0 -0.5 0 20 40 60 80 100 120 140 ! Figura 5.11 Erro de Treinamento da Variável Soda Pode-se observar através da Figura 5.10, que o ajuste de treinamento para a variável nı́vel de Soda presente na Polpa de cristais de hidrato, semelhante ao treinamento da umidade, também se caracterizou como de razoável significância, devido uma grande parte das observações não ter acompanhado o padrão do processo. Esta afirmação pode ser comprovada através da Figura 5.11, correspondente aos erros quadráticos médios de treinamento desta varı́avel. SILVA, F.L. PPGME/UFPA 5.3 Estruturação e Treinamento da Rede - 1o Ensaio 83 5.3.3 Simulação de Validação da Variável Nı́vel de Umidade- 1o Ensaio 3 2 1 0 -1 -2 -3 0 50 100 150 Figura 5.12 Validação da Variável Nı́vel de Umidade 2 1.5 1 0.5 0 -0.5 -1 -1.5 -2 0 50 100 150 Figura 5.13 Erro de Validação da Variável Nı́vel de Umidade Pode-se observar através da Figura 5.12, que quando passou-se para a fase de ajuste de validação da variável nı́vel de umidade, para o modelo de RNA com apenas duas camadas, as respostas obtidas pela rede não apresentaram respostas significativas. Podese observar uma grande variação entre os valores reais e os valores gerados pela rede. Para esta verificação é suficiente a análise da Figura 5.13, gerada a partir dos erros quadráticos médios M SE = 5 × 10−2 de validação desta variável. SILVA, F.L. PPGME/UFPA 5.3 Estruturação e Treinamento da Rede - 1o Ensaio 84 5.3.4 Simulação de Validação da Variável Nı́vel de Soda- 1o Ensaio 10 8 6 4 2 0 -2 0 50 100 150 Figura 5.14 Validação da Variável Nı́vel de Soda 0.5 0.4 0.3 0.2 0.1 0 -0.1 -0.2 -0.3 -0.4 -0.5 0 50 100 150 Figura 5.15 Erro de Validação da Variável Nı́vel de Soda Observa-se através da Figura 5.14, que o mesmo ocorreu quando se validou a variável nı́vel de soda, ou seja, a rede não conseguiu de forma robusta, acompanhar o padrão gerado pelo processo. E, através da Figura 5.15, formada pelos erros quadráticos médios fornecidos pelo processo, verifica-se com mais clareza a grande variabilidade entre o padrão do processo real e o padrão gerado pela rede neural. SILVA, F.L. PPGME/UFPA 5.3 Estruturação e Treinamento da Rede - 1o Ensaio 85 5.3.5 Simulação das Validações Desnormalizadas- 1o Ensaio 10 9 8 7 6 5 4 3 2 0 50 100 150 Figura 5.16 Validação Desnormalizada da Variável Umidade Para uma melhor visualização das abservações geradas pela rede em relação as obsevações originais do processo, ver Figuras 5.16 e 5.17, que foram construidas a partir do processo de desnormalização dos resultados. Através destas, pode-se verificar que a rede proposta neste ensaio não obteve resultados satisfatórios, ou seja, a mesma não conseguiu monitorar de forma desejada o padrão gerador do processo. 0.3 0.25 0.2 0.15 0.1 0.05 0 -0.05 0 50 100 150 Figura 5.17 Validação Desnormalizada Variável Soda SILVA, F.L. PPGME/UFPA 5.4 Estruturação e Treinamento da Rede - 2o Ensaio 86 5.4 Estruturação e Treinamento da Rede - 2o Ensaio Na busca de melhores resultados, houve a necessidade de num segundo momento ajustar nova rede com duas camadas internas. Porém, para esta nova rede aplicou-se aos dados uma normalização no espaço (-1, 1). Esta escolha se justifica pela definição da função de ativação Tangente Hipebólica (Tansig), definida na Função 4.11. Para esta RNA convergir, foi suficiente a utilização de apenas 2 camadas de neurônios, com as seguintes configurações: Topologia da Rede: • 1a Camada: Camada de entrada da rede, representada pelas variáveis independentes (condensado, rotação e vapor). • 2a Camada: Formada por 12 neurônios com função de ativação identidade, significando neurônios estáticos e com a saı́da sendo representada por uma função do tangente hiperbólica (tansig). • 3a Camada: Formada por 10 neurônios com função de ativação identidade, significando neurônios estáticos e com a saı́da sendo representada por uma função do tangente hiperbólica (tansig). • 4a Camada: Camada de saı́da da rede, formada por apenas dois neurônios, cuja entrada apresenta uma função de ativação identidade com neurônios estáticos e com as saı́das representadas por duas funções do tipo linear (purelin). SILVA, F.L. PPGME/UFPA 5.4 Estruturação e Treinamento da Rede - 2o Ensaio 87 5.4.1 Simulação de Treinamento da Rede - 2o Ensaio A fase do treinamento foi realizada em 15.000 interações (= épocas), sendo utilizado um parâmetro de atualização da tela de 50 em 50 épocas. Adotou-se uma taxa de aprendizagem de 0,03, taxa de momento de 0,7 e pré determinou-se um erro final de treinamento equivalente E(W)=10e−4 . ! "# #$ %&' 1 10 0 10 -1 10 -2 10 -3 10 -4 10 0 5000 10000 15000 Figura 5.18 Evolução da Função Erro E(W) Com esta configuração de rede neste ensaio se obteve um erro de treinamento equivalente a M SE = 8 × 10−3 , ver Figura (5.18), na qual o erro pode ser considerar bastante eficiente e um tempo de convergência significativo. SILVA, F.L. PPGME/UFPA 5.4 Estruturação e Treinamento da Rede - 2o Ensaio 88 5.4.2 Simulação de Treinamento da Variável Nı́vel de Umidade - 2o Ensaio 1 0.8 0.6 0.4 0.2 0 -0.2 -0.4 -0.6 -0.8 -1 0 20 40 60 80 100 120 140 160 180 200 160 180 200 Figura 5.19 Treinamento da Variável Umidade ! 1 0.5 0 -0.5 0 20 40 60 80 100 120 140 " Figura 5.20 Erro de Treinamento da Variável Umidade Pode-se observar através da Figura 5.19, que o ajuste de treinamento para o modelo de RNA com apenas duas camadas, apresentou boa significância. Entretanto, algumas observações não acompanharam o padrão gerado pelo processo. Isto é confirmado através da Figura, 5.20 dos erros quadráticos médios do treinamento para esta variável. SILVA, F.L. PPGME/UFPA 5.4 Estruturação e Treinamento da Rede - 2o Ensaio 89 5.4.3 Simulação de Treinamento da Variável Nı́vel de Soda - 2o Ensaio 1 0.5 0 -0.5 -1 -1.5 0 20 40 60 80 100 120 140 160 180 200 160 180 200 Figura 5.21 Treinamento da Variável Soda 0.5 0.4 0.3 0.2 0.1 0 -0.1 -0.2 -0.3 0 20 40 60 80 100 120 140 ! Figura 5.22 Erro de Treinamento da Variável Soda A Figura 5.21, mostra que a simulação do treinamento para a variável nı́vel de soda, através do modelo de RNA com apenas duas camadas, apresentou boa robustez . No entanto, ainda se detecta que algumas observações não acompanham o padrão do processo, isto é confirmado através da Figura 5.22 dos erros quadráticos médios de treinamento para a variável em análise. SILVA, F.L. PPGME/UFPA 5.4 Estruturação e Treinamento da Rede - 2o Ensaio 90 5.4.4 Simulação de Validação da Variável Nı́vel de Umidade - 2o Ensaio 1 0.8 0.6 0.4 0.2 0 -0.2 -0.4 -0.6 -0.8 -1 0 50 100 150 Figura 5.23 Validação da Variável Nı́vel de Umidade 0.8 0.6 0.4 0.2 0 -0.2 -0.4 -0.6 -0.8 0 50 100 150 Figura 5.24 Erro de Validação da Variável Nı́vel de Umidade Ao analisar a Figura 5.23, observa-se que o ajuste de validação para o modelo da RNA com apenas duas camadas para a variável nı́veis de umidade, apresentou significativa melhora. No entanto, os resultados obtidos não acompanharam em maioria o padrão gerado pelo processo. Isto é confirmado através das Figura 5.24, gerada pelos erros quadráticos médios de treinamento, onde se observou um erro de validação equivalente a M SE = 7 × 10−2 . SILVA, F.L. PPGME/UFPA 5.4 Estruturação e Treinamento da Rede - 2o Ensaio 91 5.4.5 Simulação de Validação da Variável Nı́vel de Soda - 2o Ensaio 1 0.5 0 -0.5 -1 -1.5 0 50 100 150 Figura 5.25 Validação da Variável Nı́vel de Soda 2 1.5 1 0.5 0 -0.5 0 50 100 150 Figura 5.26 Erro de Validação da Variável Nı́vel de Soda Pode-se observar através da Figura 5.25, que o ajuste do modelo de RNA para a validação da variável nı́veis de soda foi bastante significativo. No entanto, com as mesmas caracterı́sticas do ajuste da variável nı́veis de umidade, algumas observações não conseguiram acompanhar o padrão do processo. Isto é confirmado através da Figura 5.26, correspondente aos erros quadráticos médios de validação para esta variável. SILVA, F.L. PPGME/UFPA 5.4 Estruturação e Treinamento da Rede - 2o Ensaio 92 5.4.6 Simulação das Validações Desnormalizadas - 2o Ensaio 10 9 8 7 6 5 4 3 2 0 50 100 150 Figura 5.27 Validação Desnormalizada Variável Umidade 0.35 0.3 0.25 0.2 0.15 0.1 0.05 0 0 50 100 150 Figura 5.28 Validação Desnormalizada Variável Soda Para uma melhor visualização das absevações geradas pela rede em relação as obsevações originais do processo, ver Figuras 5.27 e 5.28, que foram construidas a partir do processo de desnormalização dos resultados. SILVA, F.L. PPGME/UFPA 5.5 Estruturação e Treinamento da Rede - 3o Ensaio 93 5.5 Estruturação e Treinamento da Rede - 3o Ensaio Na busca por melhores aproximações, num terceiro momento, a rede foi treinada, com as variáveis de entrada normalizadas no espaço (-1, 1) e, com três camadas internas de neurônios, com as seguintes caracterı́sticas: Topologia da Rede: • 1a Camada: Camada de entrada da rede, representada pelas variáveis independentes (condensado, rotação e vapor). • 2a Camada: Formada por 12 neurônios com função de ativação identidade e com saı́da apresentando uma função do tipo tangente hiperbólica (tansig). • 3a Camada: Formada por 10 neurônios com função de ativação identidade e com saı́da apresentando uma função do tipo tangente hiperbólica (tansig). • 4a Camada: Formada por 8 neurônios com função de ativação identidade e com saı́da apresentando uma função do tipo tangente hiperbólica (tansig). • 5a Camada: Definida como camada de saı́da da rede, formada por apenas dois neurônio, cuja a entrada apresenta uma função de ativação identidade e com a de saı́das do tipo linear (purelin). SILVA, F.L. PPGME/UFPA 5.5 Estruturação e Treinamento da Rede - 3o Ensaio 94 5.5.1 Treinamento da Rede - 3o Ensaio A Figura 5.29, mostra a evolução da função E(W), que se caracteriza por definir o valor do Erro Quadrático Médio (EQM ) em cada interação de ajuste dos parâmetros do modelo de rede neural proposto. Evolução da Função E(W) = 0.000943019, Objetivo é 0 1 10 0 Erro Quadrático Médio 10 −1 10 −2 10 −3 10 −4 10 0 50 100 150 200 250 300 350 400 450 500 500 Interações Figura 5.29 Evolução da Função Erro E(W) Para esta rede foi estipulado inicialmente um número pré definido de interações, equivalente a 2000 interações. No entanto, a mesma obteve convergência para um erro mı́nimo no treinamento em apenas 500 interações. Os parâmetros utilizados foram os seguintes: atualização da tela foi adotado de 50 em 50 épocas, taxa de aprendizagem de 0,07 e taxa de momento de 0,8 e pré determinou-se um erro final de treinamento equivalente E(W)=0 (zero). Esta configuração de rede, proporcionou um erro de treinamento bstante significativo, equivalente a M SE = 9 × 10−4 . SILVA, F.L. PPGME/UFPA 5.5 Estruturação e Treinamento da Rede - 3o Ensaio 95 5.5.2 Simulação de Treinamento da Variável Umidade - 3o Ensaio 1 0.8 0.6 0.4 0.2 0 -0.2 -0.4 -0.6 -0.8 -1 0 20 40 60 80 100 120 140 160 180 200 160 180 200 Figura 5.30 Treinamento da Variável Umidade ! 0.2 0.15 0.1 0.05 0 -0.05 -0.1 -0.15 -0.2 0 20 40 60 80 100 120 140 " Figura 5.31 Erro de Treinamento da Variável Umidade Pode-se observar através da Figura 5.30, que o ajuste do modelo de RNA para o treinamento da variável nı́veis de umidade foi bastante significativo, conseguindo acompanhar o comportamento do processo na grande maioria das observação da amostra selecionada. Isto é confirmado através das Figura 5.31, gerada a partir dos erros de treinamento cometidos para esta variável. SILVA, F.L. PPGME/UFPA 5.5 Estruturação e Treinamento da Rede - 3o Ensaio 96 5.5.3 Simulação de Treinamento da Variável Soda - 3o Ensaio 1 0.5 0 -0.5 -1 -1.5 0 20 40 60 80 100 120 140 160 180 200 Figura 5.32 Treinamento da Variável Nı́vel de Soda 0.3 0.25 0.2 0.15 0.1 0.05 0 -0.05 -0.1 -0.15 0 20 40 60 80 100 120 140 160 180 200 ! Figura 5.33 Erro de Treinamento da Variável Soda Pode-se observar através da Figura 5.32, que o ajuste de treinamento para o modelo de RNA conseguiu acompanhar o comportamento do processo na grande maioria das observação da amostra da variável Soda selecionada para treinamento. Isto é confirmado através da Figura 5.33, gerada a partir dos erros de treinamento fornecidos por esta variável. SILVA, F.L. PPGME/UFPA 5.5 Estruturação e Treinamento da Rede - 3o Ensaio 97 5.5.4 Simulação de Validação da Variável Umidade - 3o Ensaio 1 0.8 0.6 0.4 0.2 0 -0.2 -0.4 -0.6 -0.8 -1 0 50 100 150 Figura 5.34 Validação da Variável Nı́vel de Umidade 1 0.5 0 -0.5 -1 -1.5 0 50 100 150 Figura 5.35 Validação da Variável Nı́vel de Soda Pode-se observar através das Figuras 5.34 e 5.35 que o ajuste de validação para o modelo de RNA proposto quando comparado com as informações das variáveis nı́veis de umidade e nı́veis de soda do processo real respectivamente, apresentam um comportamento preciso na grande maioria das observação da amostra de validação. SILVA, F.L. PPGME/UFPA 5.5 Estruturação e Treinamento da Rede - 3o Ensaio 98 5.5.5 Simulação de Validação da Variável Soda - 3o Ensaio 0.8 0.6 0.4 0.2 0 -0.2 -0.4 -0.6 -0.8 0 50 100 150 Figura 5.36 Erro de Validação da Variável Nı́vel de Umidade 0.1 0.08 0.06 0.04 0.02 0 -0.02 -0.04 -0.06 -0.08 -0.1 0 50 100 150 Figura 5.37 Erro de Validação da Variável Nı́vel de Soda A afirmação anterior, é de fácil comprovação ao se analizar as Figuras, 5.36 e 5.37, correspondentes ao erro de validação do nı́vel de umidade e ao erro de validação do nı́vel de soda presente na polpa. Estes gráficos apresentam erros bastante significativos em torno de M SE = 6 × 10−3 e conseqüêntemente, espera-se que esta rede após instalada e adequada à planta, venha a fornecer excelentes resultados de mapeamento e controle do processo. SILVA, F.L. PPGME/UFPA 5.5 Estruturação e Treinamento da Rede - 3o Ensaio 99 5.5.6 Simulação das Validações Desnormalizadas - 3o Ensaio 10 9 8 7 6 5 4 3 2 0 50 100 150 Figura 5.38 Validação Desnormalizada Variável Umidade 0.35 0.3 0.25 0.2 0.15 0.1 0.05 0 0 50 100 150 Figura 5.39 Validação Desnormalizada Variável Soda Através das análises gráficas, realizadas com auxı́lio das Figuras 5.38 e 5.39, pode-se verificar que esta estrutura de rede foi a que melhor conseguiu se aproximar da verdadeira ocorrência do processo. SILVA, F.L. PPGME/UFPA 5.5 Estruturação e Treinamento da Rede - 3o Ensaio 100 5.5.7 Sinteses dos Modelos de RNA Ajustados Com o objetivo de melhor visualização e entendimento dos momentos de ajuste do modelo de rede neural, proposto neste trabalho, na Tabela 5.1 apresentamos todas as configurações adotadas nos três momentos dos ensaios realizados. Pelos dados, fica evidente os motivos que levaram à escolha da rede estruturada no terceiro momento. Tabela 5.1 Comparativo para Decisão entre as Três Redes Neurais Propostas Ensaio o 1 2o 3o Neurônios (14-12-2) (12-10-2) (12-10-8-2) Cam. Inter. 2 2 3 1a Camada logsig tansig tansig 2a Camada logsig tansig tansig 3a Camada — — tansig Normalização Desvio Padrão (-1, 1) (-1, 1) Algoritmo Trainlm Trainlm Trainlm MSE-t −2 2 × 10 8 × 10−3 9 × 10−4 MSE-v. 5 × 10−2 7 × 10−2 2 × 10−3 Os sistemas inteligentes de Redes Neurais Artificiais mostram-se bastante eficientes quando são utilizadas com o objetivo de monitoramento de processos industriais complexos. Especificamente neste trabalho, onde a preocupação foi estudar o padrão do processo estabelecendo a relação de influência das variáveis de entrada (variáveis independentes) nas variáveis de saı́da (variáveis dependentes), permitindo assim, um melhor controle e compreenção do processo produtivo e, conseqüêntemente sua otimização. Portanto, o modelo de RNA descrito no terceiro momento, é o que apresenta melhor capacidade de acompanhar o padrão do processo de monitoramento da filtração e secagem da polpa de cristais de hidrato. Pois apresentou um excelente ajuste no treinamento e na validação, mostrando-se bastante eficiente. Assim, considera-se o objetivo especifico relacionado a esta metodologia de estruturar uma Rede Neural Artificial que reconhecesse de forma robusta o padrão gerador do processo e que auxilie na avaliação comparativa entre as metodologias estudadas, alcançado. SILVA, F.L. PPGME/UFPA 5.6 Modelagem Multivariada com Função de Transferência 101 5.6 Modelagem Multivariada com Função de Transferência Sabe-se que qualquer série que descreva algum fenômeno fı́sico, em geral, pode apresentar pelo menos duas componentes: uma relacionada ao sinal ou informação desejada daquele fenômeno e outra relacionada a um ruı́do que é caracterizado por apresentar os dados independentes e identicamente distribuı́dos (iid). Se uma série carrega alguma informação na metodologia de séries temporais, isso é caracterizado pela presença de um padrão não aleatório na série. Esse padrão não aleatório é, em geral, associado à ocorrência de correlação entre as observações da(s) série(s) em tempos diferentes. A determinação de quais são as observações que contribuem para a formação do padrão da série é fornecida pela função de auto-correlação, auto-correlação parcial e a correlação cruzada, no caso das séries temporais multivariadas. Deste modo, o objetivo da construção de um modelo em séries temporais é, em resumo, separar a informação do ruı́do, ou seja, capturar a informação presente na série. Para a modelagem multivariada com função de tranferência, foram utilizadas 200 observações de cada variável e 53 observações foram separadas para a validação dos modelos. Inicialmente para a modelagem foram consideradas as variáveis umidade na torta de hidrato como resposta, vazão de condensado, vazão de vapor e rotação do tambor como variáveis de controle. Em um segundo momento considerou-se as variáveis nı́veis de soda cáustica como a variável resposta, vazão de condensado, vazão de vapor e rotação do tambor novamente como variáveis de controle. Os gráficos das séries são apresentados nas Figuras 5.40 a 5.44, onde pode-se observar que todas as séries são estacionárias e não há indı́cios de sazonalidade, não sendo assim, necessário diferenciações ou tranformações. Entretanto, observa-se uma acentuada variabilidade relativa presente em todas elas. SILVA, F.L. PPGME/UFPA 5.6 Modelagem Multivariada com Função de Transferência 102 Figura 5.40 Nı́veis de Umidade na Torta Y1 Figura 5.41 Nı́veis de Soda na Torta Y2 Figura 5.42 Vazão de Condensado X1 Figura 5.43 Vazão de Vapor X2 Figura 5.44 Rotação do Tambor X3 SILVA, F.L. PPGME/UFPA 5.6 Modelagem Multivariada com Função de Transferência 103 5.6.1 Modelagem para a Variável Nı́vel de Umidade 5.6.2 Análise das FAC e FACP Na tentativa de se ajustar modelos mais significativos para as variáveis explicativas, diversos modelos ARIMA são ajustados até que se encontre aquele que se ajuste mais adequadamente aos dados. A escolha dos modelos a serem ajustados são baseados na análise das funções de auto-correlação (FAC) e auto-correlação parcial (FACP), Figuras 5.45 a 5.50. Figura 5.45 FAC para a Variáve X1 Figura 5.46 FACP para a Variáve X1 Figura 5.47 FAC para a Variáve X2 Figura 5.48 FACP para a Variáve X2 SILVA, F.L. PPGME/UFPA 5.6 Modelagem Multivariada com Função de Transferência Figura 5.49 FAC para a Variáve X3 104 Figura 5.50 FACP para a Variáve X3 Pode-se verificar analisando os gráficos das Funções de Autocorrelações e de Autocorrelações Parciais das variáveis de controle que, os intervalos de confiança para os lag´s ficaram entre ±2 desvio padrão. E, para este intervalo observou-se que em todas as séries há evidências de autocorrelações até o lag 2, com as autocorrelações parciais descrevendo seu comportamento como senóides amortecidas, implicando em possı́veis modelos com parâmetros autorregressivos e médias móveis. Portanto, as função de auto-correlação e função de auto-correlação parcial das variáveis de controle conduziram a três modelos para as variáveis condensado (X1), vazão de vapor (X2) e rotação (X3): • Um modelo auto-regressivo de ordem 2 (AR(2)); • um modelo de médias móveis de ordem 2 (MA(2)); • E um modelo de médias móveis de ordem 1 (MA(1)) SILVA, F.L. X1t = φ1 X1t−1 − φ2 X1t−2 + at (5.1) X2t = θ1 at−1 − θ2 at−2 + at (5.2) X3t = θ1 at−1 + at (5.3) PPGME/UFPA 5.7 Ajuste de Modelos ARIMA 105 5.7 Ajuste de Modelos ARIMA Para se ajustar modelos de função de tranferência, deve-se previamente ajustar as séries modelos ARIMA do tipo descrito em 2.22, pois estes terão como finalidade sua utilização como filtros de pré-filtragens. 5.7.1 Ajuste de Modelos ARIMA para a Variável X1 Tabela 5.2 Cálculo e Avaliação dos Parâmetros da Variável X1 Parâmetros Estimativas Erro Padrão t-valor approxP r > |t| Lag MU AR1,1 AR1,2 64.607 0.669 -0.208 0.929 0.069 0.069 68.43 9.62 -2.99 < .0001 < .0001 < .0028 0 1 2 Tabela 5.3 Estudo das Auto correlações dos Resı́duos Lag χ2 Grau de Liberdade P r > χ2 Auto correlações 6 12 18 24 6.71 13.99 16.88 31.04 4 10 16 22 0.1520 0.1733 0.3932 0.0953 0.018 -0.031 -0.004 0.146 -0.090 -0.044 0.051 0.040 -0.009 0.011 0.119 -0.125 0.006 -0.013 0.043 -0.016 0.092 -0.049 -0.142 0.092 0.025 -0.069 -0.043 0.163 A partir das avaliações dos parâmetros na Tabela 5.2, verificou-se que as estimativas dos parâmetros estimados foram significativos a um nı́vel descritivo de 5%. E, com auxı́lio da Tabela 5.3, verificou-se que os resı́duos apresentaram auto-correlações não significativas, o que caracteriza ajuste aceitável, ou seja, o modelo conseguiu capturar o padrão da série. Portanto, tem-se um modelo proposto ARIMA(2,0,0) ou AR(2) da seguinte forma: X1t = 0, 667X1t−1 − 0, 208X1t−2 + at SILVA, F.L. (5.4) PPGME/UFPA 5.7 Ajuste de Modelos ARIMA 106 5.7.2 Ajuste de Modelos ARIMA para a Variável X2 Tabela 5.4 Cálculo e Avaliação dos Parâmetros da Variável X2 Parâmetros Estimativas Erro Padrão t-valor approxP r > |t| Lag MU MA1,1 MA1,2 1.104 -0.574 -0.152 0.032 0.070 0.070 34.39 -8.16 -2.17 < .0001 < .0001 .030 0 1 2 Tabela 5.5 Estudo das Auto correlações dos Resı́duos Lag χ2 Grau de Liberdade P r > χ2 Auto correlações 6 12 18 24 3.01 10.81 23.31 29.18 4 10 16 22 0.5567 0.3729 0.1058 0.1397 -0.011 -0.040 -0.065 0.014 -0.079 0.046 0.026 0.057 -0.116 0.042 0.049 -0.122 -0.090 0.097 0.030 -0.128 0.115 0.095 0.128 -0.057 -0.003 -0.058 -0.048 -0.028 Para a variável X2 ajustou-se um modelo, onde os resultados das estimativas dos parâmetros estão dispostos na Tabela 5.4, onde pode-se observar que todos os parâmetros estimados foram significativos a um nı́vel descritivo de 5%. As análises dos resı́duos descritos na Tabela 5.5, apresentaram auto-correlações não significativas, ou seja, os mesmos não são autocorrelacionados o que caracteriza ajuste aceitável do modelo. Portanto, tem-se um modelo ARIMA(0,0,2) ou MA(2), com a seguinte estrutura funcional: X2t = 0.574at−1 − 0.152at−2 + at SILVA, F.L. (5.5) PPGME/UFPA 5.7 Ajuste de Modelos ARIMA 107 5.7.3 Ajuste de Modelos ARIMA para a Variável X3 Tabela 5.6 Cálculo e Avaliação dos Parâmetros da Variável X3 Parâmetros Estimativas Erro Padrão t-valor approxP r > |t| Lag MU MA1,1 37.673 -0.286 0.298 0.068 126.28 -4.20 < .0001 < .0001 0 1 Tabela 5.7 Estudo das Auto correlações dos Resı́duos Lag χ2 Grau de Liberdade P r > χ2 6 12 18 24 1.51 2.23 17.71 22.46 5 11 17 23 0.912 0.997 0.407 0.492 Auto correlações 0.021 -0.026 -0.028 0.059 0.062 -0.035 -0.025 -0.027 -0.005 -0.015 -0.044 -0.042 -0.038 -0.021 -0.079 -0.061 -0.008 -0.024 0.170 0.013 -0.018 -0.018 0.184 0.099 Para a variável X3 ajustou-se um modelo preliminar, onde os resultado da estimativa do parâmetro, estão dispostos na Tabela 5.6, onde observa-se que o parâmetro estimado de média móvel foi significativo a um nı́vel descritivo de 5%. E, no estudo realizado nos resı́duos do modelo verificou-se que os mesmos, apresentaram auto-correlações não significativas, ou seja, os mesmos não são autocorrelacionados o que caracteriza ajuste aceitável do modelo. Portanto, tem-se um modelo MA(0,0,1) ou MA(1), o qual será utilizado como filtro para pré-filtragem para a modelagem de função de transferência, apresentando a seguinte estrutura funcional: X3t = 0.286at−1 + at SILVA, F.L. (5.6) PPGME/UFPA 5.8 Correlações Cruzadas 108 5.8 Correlações Cruzadas Com o objetivo de se verificar a relação de influência das variáveis explicativas nas variáveis dependentes, foram construı́das e analisadas as funções de auto-correlações cruzadas entre estas variáveis. As mesmas, são apresentadas a seguir. Figura 5.51 Função de Correlação Cruzada Y1 vs X1 Figura 5.52 Função de Correlação Cruzada Y1 vs X2 Figura 5.53 Função de Correlação Cruzada Y1 vs X3 5.8.1 Análise da Correlação Cruzada entre Y1 vs X1 Observa-se na Figura 5.51, correspondente a Correlação Cruzada entre Y e X1 que não existe spike no lag 0. Logo o modelo pode apresentar defasagem de 1 lag, percebe-se também que os lag’s 1 e 2 apresentam correlação significativa e após este spike o gráfico apresenta um decaimento imediatamente para zero, indicando que não há necessidade de parâmetro no denominador para o modelo de função de transferência. SILVA, F.L. PPGME/UFPA 5.8 Correlações Cruzadas 109 5.8.2 Análise da Correlação Cruzada entre Y1 vs X2 Observa-se na Figura 5.52, correspondente a Correlação Cruzada entre Y e X2 que não há presença de spike significativo no lag 0, porém observa-se que existe correlação nos lag’s -3 e -6 caracterizando um modelo com feedback. Portanto, será necessário préajustar também a série de saı́da Y1. 5.8.3 Análise da Correlação Cruzada entre Y1 vs X3 A Correlação cruzada entre Y e X3 representada na Figura 5.53, mostra que não há spike no lag 0, nem nos lag’s positivos, e verifica-se que há presença de correlação significativa no lag -2. Este comportamento é um indicativo de modelo com feedback. Sendo assim, é necessário pré-ajustar também a série de entrada Y1. A FCC apresenta um decaimento exponencial a partir do lag 5, indicando possivelmente a necessidade de parâmetros no denominador do modelo de função de transferência. 5.8.4 Ajuste dos Modelos de Função de Tranferência A partir das análises feitas sobre as funções de correlação cruzada, testou-se vários modelos de função de transferência, sendo que, em todos os modelos houve a necessidade de se fazer o ajuste da componente de erro ou ruı́do no modelo final da função de transferência. Alguns desses modelos, apresentados na forma de operador atraso B, cujos os respectivos resultados e análises, estão apresentados a seguir: M odelo1 : Y1t = ($01 − $11 B)X1t−1 + $02 X2t + ($03 − $13 B 5 )X3t + (1 − θB)at (5.7) M odelo 2 : M odelo3 : SILVA, F.L. Y1t = ($01 − $11 B)X1t−1 + ($03 − $13 B 5 )X3t + (1 − θB)at Y1t = ($01 − $11 B) X1t + ($03 − $13 B 5 )X3t + (1 − θB)at (1 − δ11 B) (5.8) (5.9) PPGME/UFPA 5.8 Correlações Cruzadas 110 5.8.5 Estimativas para a Estruturação do Modelo 1 em 5.7 Tabela 5.8 Cálculo dos Parâmetros Estimados para o Modelo de F.T. Parâmetros Estimativas E.P t-valor aproxP r > |t| Lag Variável Deslocamento MU MA1,1 (θ) NUM1 ($01 ) NUM1,1 ($11 ) NUM2 ($02 ) NUM3 ($03 ) NUM1,1 ($13 ) 3.026 -0.363 -0.024 -0.023 -0.411 0.013 -0.052 1.412 0.070 0.011 0.011 0.316 0.026 0.023 2.14 -5.21 -2.17 -2.18 -1.30 0.50 -2.28 0.032 < 0.000 0.029 0.029 0.194 0.618 0.023 0 1 0 1 0 0 5 Y1 Y1 X1 X1 X2 X3 X3 0 0 1 1 0 0 0 Através das Tabela 5.8, pode-se observar que as estimativas dos parâmetros $01 e $11 , correspondente à variável X1, e à estimativa $13 correspondente à variável X3 e a estimativa do parâmetro média móvel θ apresentam estatı́sticas t significativas a 5%. E, portanto serão utilizadas para a formulação do modelo de função de tranferência Equação 5.10. Y1t = (−0, 024+0, 023B)X1t−1 −1, 30X2t +(0, 013+0, 015B 5 )X3t +(1+0, 362B)at (5.10) Os números em destaque na tabela 5.8, referem-se à estatı́stica t. Onde, para valores de |t| > 2, 00 as estimativas dos parâmetros para o modelo são consideradas significativas ao nı́vel de 5 SILVA, F.L. PPGME/UFPA 5.8 Correlações Cruzadas 111 5.8.6 Análise Resı́dual para o Modelo de F.T em 5.7 Tabela 5.9 Estudo das Auto correlações dos Resı́duos Lag χ2 Grau de Liberdade P r > χ2 6 12 18 24 7.70 14.64 16.91 20.24 5 11 17 23 0.173 0.199 0.461 0.627 Auto correlações 0.035 0.134 -0.064 -0.013 0.048 -0.162 -0.065 -0.025 -0.063 -0.004 0.019 -0.114 0.030 -0.039 -0.026 -0.056 0.025 -0.013 0.044 -0.010 -0.041 -0.089 0.065 0.030 Tabela 5.10 Estudo das Correlação Cruzada dos Resı́duos vs X1 Lag χ2 Grau de Liberdade P r > χ2 5 11 17 23 0.90 7.89 11.95 18.25 5 11 17 23 0.970 0.723 0.803 0.744 Correlação Cruzada 0.009 -0.003 -0.022 0.101 0.023 -0.032 -0.009 0.054 -0.007 -0.066 0.072 0.055 0.072 -0.133 -0.057 0.068 0.000 0.047 0.102 -0.065 -0.054 -0.010 -0.120 -0.023 Tabela 5.11 Estudo das Correlação Cruzada dos Resı́duos vs X2 Lag χ2 Grau de Liberdade P r > χ2 Correlação Cruzada 5 11 17 23 3.31 7.05 13.49 20.46 6 12 18 24 0.769 0.855 0.761 0.670 0.013 -0.014 -0.078 0.080 -0.064 -0.007 0.023 -0.015 0.057 0.011 0.076 0.097 -0.097 -0.020 -0.067 0.082 0.040 0.102 0.010 0.102 -0.115 0.004 0.094 -0.056 Tabela 5.12 Estudo das Correlação Cruzada dos Resı́duos vs X3 Lag χ2 Grau de Liberdade P r > χ2 Correlação Cruzada 5 11 17 23 2.01 8.04 13.30 19.85 5 11 17 23 0.848 0.709 0.716 0.651 0.004 0.072 -0.011 -0.038 0.059 0.010 0.093 -0.094 0.081 0.006 0.021 0.081 -0.060 0.073 -0.094 -0.075 0.051 0.033 0.132 0.040 -0.071 -0.086 0.022 -0.041 Para o modelo 1 proposto em 5.10, observa-se que a avaliação das auto-correlações dos resı́duos Tabela 5.9, têm estatı́sticas Q não significativas o que indica que os resı́duos desse modelo preliminar de função de transferência são ruı́dos brancos. Deste modo, o modelo se ajustou adequadamente aos dados. Além do mais, o cheque da correlação cruzada dos resı́duos com as variáveis X1, X2 e X3 na entrada Tabela 5.10 a 5.11, apresentam correlações cruzadas dos resı́duos não significativas, evidenciando que as funções de transferência relacionadas a essas variáveis são adequadas. SILVA, F.L. PPGME/UFPA 5.8 Correlações Cruzadas 112 5.8.7 Estimativas para a Estruturação do Modelo 2 Tabela 5.13 Cálculo dos Parâmetros Estimados para o Modelo de F.T. Parâmetros Estimativas E.P t-valor aproxP r > |t| Lag Variável Deslocamento MU MA1,1 (θ) NUM1 ($01 ) NUM1,1 ($11 ) NUM3 ($03 ) NUM1,1 ($13 ) 3.257 -0.372 -0.026 -0.023 -0.002 -0.052 1.408 0.069 0.011 0.011 0.023 0.023 2.31 -5.40 -2.40 -2.19 -0.07 -2.27 0.021 < 0.0001 0.016 0.029 0.947 0.024 0 1 0 1 0 5 Y1 Y1 X1 X1 X3 X3 0 0 1 1 0 0 Através das Tabela 5.13, pode-se observar que as estimativas dos parâmetros $01 , $11 , correspondente à variável X1, e à estimativa timativa do parâmetro média móvel θ $13 correspondente à variável X3 e à es- apresentam estatı́sticas t significativas a 5%. E, portanto serão utilizadas para a formulação do modelo de função de tranferência (Eq. 5.11). Y1t = (−0, 026 + 0, 023B)X1t−1 + (0, 002 + 0, 052B 5 )X3t + (1 + 0, 372B)at (5.11) 5.8.8 Análise Resı́dual para o Modelo de F.T em 5.8 Tabela 5.14 Estudo das Auto correlações dos Resı́duos Lag χ2 Grau de Liberdade P r > χ2 6 12 18 24 7.45 15.16 18.39 22.08 5 11 17 23 0.189 0.175 0.365 0.516 Auto correlações 0.037 0.132 -0.055 -0.010 0.053 -0.154 -0.059 -0.027 -0.071 -0.018 0.017 -0.132 0.025 -0.039 -0.025 -0.081 0.021 -0.022 0.062 -0.008 -0.040 -0.096 0.070 0.026 Para o modelo proposto em 5.11, observa-se que a avaliação das auto-correlações dos resı́duos Tabela 5.14, têm estatı́sticas Q não significativas o que indica que os resı́duos desse modelo de função de transferência são ruı́dos brancos. Deste modo, o modelo se ajustou adequadamente aos dados. SILVA, F.L. PPGME/UFPA 5.8 Correlações Cruzadas 113 Tabela 5.15 Estudo das Correlação Cruzada dos Resı́duos vs X1 Lag χ2 Grau de Liberdade P r > χ2 5 11 17 23 0.93 6.95 10.50 16.19 5 11 17 23 0.968 0.803 0.881 0.847 Correlação Cruzada 0.009 0.023 -0.031 -0.013 -0.003 -0.064 0.073 0.046 -0.017 -0.055 0.062 0.010 0.088 -0.061 -0.061 -0.007 0.055 -0.006 0.056 -0.125 0.049 0.092 -0.116 -0.022 Tabela 5.16 Estudo das Correlação Cruzada dos Resı́duos vs X3 Lag χ2 Grau de Liberdade P r > χ2 Correlação Cruzada 5 11 17 23 1.82 7.59 12.62 18.65 5 11 17 23 0.873 0.749 0.762 0.721 0.003 -0.058 -0.020 -0.045 0.058 0.011 0.093 -0.096 0.087 0.002 0.019 0.062 -0.049 0.073 -0.096 -0.069 0.059 0.023 0.121 0.033 -0.070 -0.089 0.028 -0.039 Através do cheque da correlação cruzada dos resı́duos com as variáveis X1, e X3 na entrada Tabelas 5.15 e 5.16, apresentam correlações cruzadas dos resı́duos não significativas, evidenciando que as funções de transferência relacionadas a essas variáveis são adequadas. 5.8.9 Estimativas para a Estruturação do Modelo 3 em 5.9 Tabela 5.17 Cálculo dos Parâmetros Estimados para o Modelo de F.T. Parâmetros Estimativas E.P t-valor aproxP r > |t| Lag Variável Deslocamento MU MA1,1 (θ) NUM1 ($01 ) NUM1,1 ($11 ) DEM1,1 (δ11 ) NUM3 ($03 ) NUM1,1 ($13 ) 4.176 -0.372 -0.003 -0.027 -0.0525 0.0004 -0.053 1.316 0.069 0.012 0.011 0.296 0.026 0.023 3.17 -5.38 -0.21 2.34 -1.77 0.01 -2.31 0.002 < 0.0001 0.834 0.019 0.077 0.988 0.021 0 1 0 1 1 0 5 Y1 Y1 X1 X1 X1 X3 X3 0 0 1 1 1 0 0 Através das Tabela 5.17, pode-se observar que as estimativas dos parâmetros $11 , δ11 , correspondente à variável X1, e à estimativa $13 correspondente à variável X3 e à estimativa do parâmetro média móvel θ apresentam estatı́sticas t significativas a 5%. E, portanto serão utilizadas para a formulação do modelo de função de tranferência (Eq. 5.12). Y1t = (−0, 003 − 0, 027B) X1t + (0, 0004 + 0, 053B 5 )X3t + (1 + 0, 372B)at (1 − 0, 525B) SILVA, F.L. (5.12) PPGME/UFPA 5.8 Correlações Cruzadas 114 5.8.10 Análise Resı́dual para o Modelo 3 de F.T em 5.9 Tabela 5.18 Estudo das Auto correlações dos Resı́duos Lag χ2 Grau de Liberdade P r > χ2 6 12 18 24 8.09 16.22 18.33 22.39 5 11 17 23 0.152 0.133 0.369 0.497 Auto correlações 0.040 0.137 -0.041 -0.005 0.059 -0.151 -0.057 -0.040 -0.086 -0.003 0.016 -0.133 0.022 -0.048 -0.015 -0.060 0.034 -0.012 0.054 -0.014 -0.045 -0.105 0.066 0.027 Tabela 5.19 Estudo das Correlação Cruzada dos Resı́duos vs X1 Lag χ2 Grau de Liberdade P r > χ2 Correlação Cruzada 5 11 17 23 2.53 5.98 10.82 18.11 4 10 16 22 0.640 0.817 0.820 0.699 -0.008 -0.009 0.088 0.036 -0.016 0.059 -0.006 -0.017 -0.075 0.075 0.050 0.061 -0.126 -0.007 -0.056 0.055 0.011 0.050 0.095 0.090 -0.055 -0.073 -0.010 -0.109 Tabela 5.20 Estudo das Correlação Cruzada dos Resı́duos vs X3 Lag χ2 Grau de Liberdade P r > χ2 Correlação Cruzada 5 11 17 23 2.90 8.50 14.04 19.56 5 11 17 23 0.715 0.668 0.664 0.668 0.004 0.079 0.065 -0.005 0.065 0.012 0.093 -0.096 0.083 0.008 0.023 0.058 -0.048 0.074 -0.101 -0.074 0.064 0.028 0.124 0.049 -0.033 -0.088 0.022 -0.037 Para o modelo proposto em 5.12, observa-se que a avaliação das auto-correlações dos resı́duos Tabela 5.18, apresenta estatı́sticas Q não significativas, o que indica que os resı́duos desse modelo de função de transferência são ruı́dos brancos. Deste modo, o modelo se ajustou adequadamente aos dados. Além do mais, o cheque da correlação cruzada dos resı́duos com as variáveis X1, e X3 na entrada Tabela 5.19 e 5.20, apresentam correlações cruzadas dos resı́duos não significativas evidenciando que as funções de transferência relacionadas a essas variáveis são adequadas. SILVA, F.L. PPGME/UFPA 5.8 Correlações Cruzadas 115 5.8.11 Seleção do Melhor Modelo para o Nı́vel de Umidade Ao comparar os ajustes fornecidos pelos três modelos Figuras 5.54 a 5.56, verifica-se que a Figura 5.54, gerada a partir do teste de ajuste, foi o que produziu menor erro quadrático médio equivalente à MSE = 1,049. Figura 5.54 Ajuste do Modelo 5.10 de Função de Tranferência Figura 5.55 Ajuste do Modelo 5.11 de Função de Tranferência Figura 5.56 Ajuste do Modelo 5.12 de Função de Tranferência Um outro método de comparação para se verificar e selecionar o modelo que melhor se ajustou aos dados é utilizando os critérios de Akaike e SBC , onde o modelo que apresentar menores valores nessas estatı́sticas é considerado o que apresenta melhor ajuste. Portanto, através da Tabela 5.21, pode-se verificar que o segundo modelo descrito em 5.11 é o que apresenta melhores resultados ao descrever o padrão do processo, ou seja, é o que melhor explica a dinâmica da série gerada pela variável nı́vel de umidade do processo. SILVA, F.L. PPGME/UFPA 5.8 Correlações Cruzadas 116 Tabela 5.21 Critérios para Seleção do Melhor Modelo em Ajuste Ajustado Critério Modelo 1 Modelo 2 Modelo 3 AIC SBC MSE RMSE 580.482 603.393 1.049 1.024 580.223 599.861 1.063 1.036 583.692 606.603 1.073 1.036 5.8.12 Teste de Validação para os Modelos do Nı́vel de Umidade Esses modelos foram avaliados e validados com a aplicação de um conjunto de 53 observações separadas do banco de dados. Em todos os casos as funções de transferência relacionadas foram adequadas, isto é, os resı́duos apresentaram-se não correlacionados e as correlações cruzadas entre os resı́duos e as variáveis de controle foram não significativas. Nas Figuras 5.57, 5.58 e 5.59 são apresentados os resultados de cada modelo e, na Tabela 5.22, são apresentados os critérios de comparação. Figura 5.57 Teste de Validação do 1o Modelo SILVA, F.L. Figura 5.58 Teste de Validação do 2o Modelo PPGME/UFPA 5.8 Correlações Cruzadas 117 Figura 5.59 Teste de Validação do 3o Modelo Tabela 5.22 Critérios para Seleção do Melhor Modelo em Validação Critério Modelo 1 Modelo 2 Modelo 3 AIC SBC MSE RMSE 160.524 173.622 1.292 1.136 158.528 169.755 1.292 1.136 153.057 166.155 1.074 1.036 Para o ajuste em validação pode-se observar que o modelo descrito na equação 5.12 e representado na Figura (5.59) apresentou melhores resultados. Portanto, este modelo será utilizado na comparação entre as duas classes de modelos dinâmicos. SILVA, F.L. PPGME/UFPA 5.9 Modelagem para a Variável Nı́vel de Soda 118 5.9 Modelagem para a Variável Nı́vel de Soda 5.9.1 Análise das FAC e FACP As correlações cruzadas entre a variável Y2 (soda) e as variáveis de controle são apresentadas nas Figuras 5.60 a 5.62. Figura 5.60 Função de Correlação Cruzada Y2 vs X1 Figura 5.61 Função de Correlação Cruzada Y2 vs X2 Figura 5.62 Função de Correlação Cruzada Y2 vs X3 Através de análise nas Funções de autocorrelação Cruzada, verificou-se os seguintes fatores: • As variáveis resposta Y2 (soda) e X1 (condensado) não apresentam correlação entre si. Deste modo, essa variável pode ser descartada do modelo. • Quanto às variáveis X2 (vapor) e X3 (rotação), nota-se que não apresentam correlação significativa no lag zero, indicando talvez a ocorrência de defasagem e a possı́vel presença de modelo com feedback devido a presença de lags negativos com correlações significativas. SILVA, F.L. PPGME/UFPA 5.9 Modelagem para a Variável Nı́vel de Soda 119 5.9.2 Ajuste do Modelo de Função de Tranferência - Soda Sabe-se que, devido os fatores observados em 5.10.1, torna-se difı́cil encontrar modelos de funções de transferência. Porém, foram testados vários modelos de função de transferência, sendo que, em todos os modelos houve a necessidade de se fazer o ajuste da componente de erro ou ruı́do no modelo final da função de transferência. Esses modelos foram apresentados na forma de operador atraso B, com as respectivas estruturas funcionais. M odelo 1 : M odelo 2 : Y2t = $01 X2t−2 + $03 X3t + (1 − θB)at (1 − δ11 B) (5.13) Y2t = ($01 − $11 B)X2t−1 + ($03 − $13 B 5 )X3t + (1 − θB)at (5.14) 5.9.3 Estimativas para a Estruturação do Modelo 1 em 5.13 Tabela 5.23 Cálculo dos Parâmetros Estimados para o Modelo de F.T. Parâmetros Estimativas E.P t-valor aproxP r > |t| Lag Variável Deslocamento MU MA1,1 (θ) NUM1 ($01 ) NUM1,1 ($11 ) NUM2 ($02 ) 0.050 -0.551 -0.004 0.756 -0.0005 0.018 0.064 0.003 0.233 0.0003 2.82 -8.65 -1.50 3.24 -1.84 0.0047 < 0.0001 0.1339 0.0012 0.0664 0 1 0 1 0 Y2 Y2 X2 X2 X3 0 0 2 2 0 Através das Tabela 5.23, pode-se observar que as estimativas dos parâmetros $11 , δ11 , correspondente à variável X2, e à estimativa timativa do parâmetro média móvel θ $13 correspondente à variável X3 e à es- apresentam estatı́sticas t significativas a 5%. E, portanto, serão utilizadas para a formulação do modelo 1 de função de tranferência em 5.13. Portanto, as seguintes estimativas foram obtidas para o modelo 1: M odelo 1 : SILVA, F.L. Y2t = (−0, 004 X2t−2 − 0, 005X3t + (1 + 0, 551B)at (1 − 0, 756B) (5.15) PPGME/UFPA 5.9 Modelagem para a Variável Nı́vel de Soda 120 5.9.4 Análise Resı́dual para o Modelo de F.T em 5.15 Tabela 5.24 Estudo das Autocorrelação dos Resı́duos do Modelo Lag χ2 Grau de Liberdade P r > χ2 6 12 18 24 3.93 7.26 8.41 10.89 5 11 17 23 0.560 0.778 0.957 0.984 Autocorrelações -0.024 -0.034 0.020 -0.021 -0.103 -0.068 0.032 -0.047 -0.023 -0.048 -0.015 -0.049 0.076 -0.063 -0.026 0.048 0.038 -0.020 0.010 -0.041 0.070 0.046 0.004 0.044 Tabela 5.25 Estudo das Correlação Cruzada dos Resı́duos vs X2 Lag χ2 Grau de Liberdade P r > χ2 5 11 17 23 4.18 7.33 9.66 12.37 5 11 17 23 0.523 0.772 0.917 0.964 Correlação Cruzada 0.018 -0.049 0.032 0.084 -0.036 0.058 -0.117 0.036 0.039 -0.007 0.062 0.035 0.021 -0.091 -0.063 0.022 -0.005 0.004 -0.080 -0.009 0.068 -0.041 0.010 0.020 Tabela 5.26 Estudo das Correlação Cruzada dos Resı́duos vs X3 Lag χ2 Grau de Liberdade P r > χ2 5 11 17 23 1.57 5.14 7.30 8.35 6 12 18 24 0.955 0.953 0.987 0.999 Correlação Cruzada 0.006 0.019 0.038 0.071 -0.006 0.027 0.017 0.013 -0.092 0.088 0.029 -0.024 0.043 -0.059 0.057 0.044 0.018 0.024 0.032 -0.014 0.033 -0.026 0.031 -0.036 Para o modelo proposto em 5.15, observa-se que a avaliação das auto-correlações dos resı́duos apresentam estatı́sticas Q não significativas (Tabela 5.24), o que indica que os resı́duos desse modelo de função de transferência são ruı́dos brancos. Deste modo, o modelo se ajustou adequadamente aos dados. Além do mais, o cheque da correlação cruzada dos resı́duos com as variáveis X1, e X3 na entrada Tabelas 5.25 e 5.26, apresentam correlações cruzadas dos resı́duos não significativas, evidenciando que as funções de transferência relacionadas a essas variáveis são adequadas. SILVA, F.L. PPGME/UFPA 5.9 Modelagem para a Variável Nı́vel de Soda 121 5.9.5 Estimativas para a Estruturação do Modelo 2 em 5.14 Tabela 5.27 Cálculo dos Parâmetros Estimados para o Modelo de F.T. Parâmetros Estimativas E.P t-valor aproxP r > |t| Lag Variável Deslocamento MU MA1,1 (θ) NUM1 ($01 ) NUM1,1 ($11 ) NUM2 ($02 ) 0.044 -0.5663 -0.0024 0.0054 -0.0006 0.012 0.064 0.003 0.003 0.0003 3.69 -8.86 -0.73 1.64 -2.08 0.0002 < 0.0001 0.4633 0.1014 0.0377 0 1 0 1 0 Y2 Y2 X2 X2 X3 0 0 2 2 0 Através das Tabela 5.27, pode-se observar que as estimativas do parâmetro $11 da variável X2 é significativo a 10% e a estimativa $13 correspondente à variável X3 e à estimativa do parâmetro média móvel θ apresentam estatı́sticas t significativas a menos 5% e menos de 0,001%, respectivamente. E, portanto serão utilizadas para a formulação do modelo 2 de função de tranferência, descrito em 5.14. Portanto, as seguintes estimativas foram obtidas para o modelo 2: M odelo 2 : SILVA, F.L. Y2t = (−0, 0024 + 0, 0054B)X2t−1 − 0, 0006X3t + (1 + 0, 5663B)at (5.16) PPGME/UFPA 5.9 Modelagem para a Variável Nı́vel de Soda 122 5.9.6 Análise Resı́dual para o Modelo de F.T em 5.16 Tabela 5.28 Estudo das Autocorrelação dos Resı́duos do Modelo Lag χ2 Grau de Liberdade P r > χ2 Autocorrelações 6 12 18 24 5.00 8.22 9.17 12.12 5 11 17 23 0.416 0.694 0.935 0.969 -0.022 -0.110 -0.063 0.0574 -0.072 -0.011 -0.019 -0.045 0.008 -0.049 0.078 -0.067 0.021 -0.026 0.054 0.014 -0.013 0.008 -0.020 0.024 0.088 0.041 -0.005 0.052 Tabela 5.29 Estudo das Correlação Cruzada dos Resı́duos vs X2 Lag χ2 Grau de Liberdade P r > χ2 Correlação Cruzada 5 11 17 23 4.35 7.71 10.72 14.19 5 11 17 23 0.500 0.739 0.871 0.921 -0.012 0.020 0.012 -0.145 0.002 0.027 -0.070 -0.010 0.051 0.036 0.005 -0.091 0.039 -0.073 0.017 0.003 0.012 -0.091 0.093 -0.014 0.074 -0.058 0.010 0.012 Tabela 5.30 Estudo das Correlação Cruzada dos Resı́duos vs X3 Lag χ2 Grau de Liberdade P r > χ2 5 11 17 23 2.10 5.84 8.7 10.50 6 12 18 24 0.910 0.924 0.960 0.992 Correlação Cruzada 0.012 0.022 0.023 0.094 -0.024 0.014 0.003 0.002 -0.100 0.087 0.031 -0.033 0.056 -0.079 0.058 0.049 0.008 0.034 0.032 -0.020 0.012 -0.035 0.033 -0.052 Para o modelo proposto na (Eq. 5.16), observa-se que a avaliação das auto-correlações dos resı́duos apresentam estatı́sticas Q não significativas o que indica que os resı́duos desse modelo de função de transferência são ruı́dos brancos Tabela 5.28. Deste modo, o modelo se ajustou adequadamente aos dados. Além do mais, o cheque da correlação cruzada dos resı́duos com as variáveis X1, e X3 na entrada Tabela 5.29 e 5.30, apresentam correlações cruzadas dos resı́duos não significativas evidenciando que as funções de transferências relacionadas a essas variáveis são adequadas. SILVA, F.L. PPGME/UFPA 5.9 Modelagem para a Variável Nı́vel de Soda 123 5.9.7 Seleção do Melhor Modelo para o Nı́vel de Soda Ao comparar os ajustes fornescidos pelos dois modelos Figuras 5.63 e 5.64, verificase que praticamente não existe distinção entre os mesmos, ou seja, ambos apresentam a mesma capacidade de explicar a dinâmica da variável nı́vel de soda no processo. Figura 5.63 Ajuste do Modelo 5.15 de Função de Tranferência Figura 5.64 Ajuste do Modelo 5.16 de Função de Tranferência A mesma conclusão é verificada quando compara-se os critérios de Akaike e SBC , apresentados na Tabela 5.31. Tabela 5.31 Critérios para Seleção do Melhor Modelo Ajustado SILVA, F.L. Critério Modelo 1 Modelo 2 AIC SBC MSE RMSE -1165.60 -1149.18 0.00015 0.01221 -1165.46 -1149.05 0.00015 0.01221 PPGME/UFPA 5.9 Modelagem para a Variável Nı́vel de Soda 124 5.9.8 Teste de Validação para os Modelos do Nı́vel de Soda Para a avaliação desses modelos, ou seja, para a validação, foi aplicado os mesmos critérios utilizados no processo de validação do modelo para a variável nı́vel de umidade. Constatou-se que em todos os casos as funções de transferências relacionadas foram adequadas, isto é, os resı́duos apresentaram-se não correlacionados e as correlações cruzadas entre os resı́duos e as variáveis de controle foram não significativas. Nas Figuras 5.65 e 5.66, são apresentados os resultados de cada modelo e na Tabela 5.32 estão disponı́veis os critérios utilizados na seleção. Figura 5.65 Teste de Validação do 1o Modelo Figura 5.66 Teste de Validação do 2o Modelo Tabela 5.32 Critérios para Seleção do Melhor Modelo Validado Critério Modelo 1 Modelo 2 AIC SBC MSE RMSE -360.878 -349.406 0.00003 0.00550 -366.857 -357.397 0.000027 0.005192 Para o ajuste em validação, pode-se observar que o modelo 2 descrito em 5.16, apresentou melhores resultados. SILVA, F.L. PPGME/UFPA 5.10 Conclusões 125 5.10 Conclusões Levando em consideração todos os testes de ajuste e validação realizados para os modelos, assim como, os critérios de seleção, pode-se concluir em relação aos modelos de função de tranferência ajustados que: • O modelo que melhor representa o real comportamento do padrão da variável nı́vel de umidade presente na polpa de cristais de hidrato no processo em estudo é o modelo descrito na (Eq. 5.12). Y1t = (−0, 003 − 0, 027B) X1t + (0, 0004 + 0, 053B 5 )X3t + (1 + 0, 372B)at (5.17) (1 − 0, 525B) • Já para a variável controle do nı́vel de soda cáustica presente na polpa de cristais de hidrato, constatou-se que qualquer modelo dentre os ajustados pode representar o comportamento desta variável dentro do processo, pois devido os critérios AIC e BIC ambos conseguiram capturar o padrão gerador do processo. São eles: Y2t = −0, 004 X2t−2 − 0, 005X3t + (1 + 0, 551B)at (1 − 0, 756B) Y2t = (−0, 0024 + 0, 0054B)X2t−1 − 0, 0006X3t + (1 + 0, 5663B)at (5.18) (5.19) No entanto, o modelo descrito na (Eq. 5.19) apresentou melhores respostas em validação. Assim, este modelo será utilizado na avaliação comparativa de resultados entre as classes de modelos dinâmicos dentro das metodologias estudadas. Portanto, baseado nos ajustes de validação dos modelos estudados, conclui-se que o modelo dinâmico multivariado que melhor capturou o padrão gerador do processo de filtração e secagem da polpa de cristais de hidrato foi o modelo de Rede Neural Multicamada Direta com algoritmo de treinamento Backpropagation. No entanto, é importante resaltar que ambos os modelos foram significativos em relação ao objetivo do trabalho, e para a futura implementação de um desses modelos no controle do processo na planta, é de muitı́ssima importância levar em consideração o estudo de viabilidade de ambas as situações. SILVA, F.L. PPGME/UFPA Capı́tulo 6 Considerações Finais O referente trabalho cumpriu com o próposito inicial especificado em seu objetivo, ou seja, propor modelos dinâmicos multivariados relacionando a sua viabilidade no monitoramento da filtração e secagem da polpa de cristais de hidrato no processo de fabricação da alumina e dentre estes, selecionar o mais significativo. Para tal, foram avaliadas as aproximações entre as respostas originais do processo e as fornecidas através da utilização das metodologias de modelagem: Rede Neural Artificial e Modelos ARIMA Multivariado com auxı́lio de Função de Tranferência. É muito importante ressaltar que as metodologias de séries temporais e redes neurais são bem diferentes, no sentido de que, em redes neurais, procura-se recuperar a série em estudo sem a preocupação de separar o sinal do ruı́do. Assim, em redes neurais praticamente toda a série, incluindo a informação e o ruı́do, é recuperada enquanto na metodologia de séries temporais procura-se recuperar somente o sinal ou a informação. Neste sentido, o erro quadrático médio pode não ser adequado para comparação dos métodos, uma vez que ele é resultado da diferença média entre o modelo ajustado e a série observada. Além deste fato, em Modelos de Séries Temporais com Função de Transferência, deve-se levar em consideração a elevada variabilidade presente nas séries. Nesse caso, para trabalhos futuros talvez fosse interessante a aplicação de modelos que capturem, além do nı́vel da série, também a sua variabilidade, ou seja, recomenda-se a aplicação de modelos da classe dos ARCH, ou seja, modelos Auto-regressivos com heterocedásticidade condicional generalizado GARCH multivariados. E, devido a ocorrência de modelos tipo feedback, talvez sejam obtidos melhores resultados com a aplicação aos dados de modelos da classe dos modelos Auto-regressivo vetorial VAR. No entanto, não se trabalhou estes tipos de modelos devido à proposta inicial do trabalho, em explorar modelos com funções de transferência. 127 Finalizando, é muito importante deixar claro que, isso não implica que a estrutura de rede neural proposta, assim como, o modelo de função de transferência ajustados são os melhores e mais adequados para controle deste processo pois, pode-se para os mesmos dados, ajustar redes com estruturas ainda mais significativas porém com outros padrões e parâmetros de treinamento e validação, ou ainda com outras dinâmicas, não se encaixando mais a este tipo de Rede Neural. SILVA, F.L. PPGME/UFPA Apêndice A ANEXO A.1 Introdução Neste apêndice, será apresentado, além das tabelas referentes ao banco de dados os algoritmos implementados para a obtenção das redes neurais e do modelo de séries temporais multivariado. A.1.1 Algoritmo para Obtenção de Rede Neural - MATLAB 7.0 4 %%%%%% %%%%%%%%%%%%%%%%%%%%%%%%%%%%%% %%%%%% NORMALIZAÇÃO DAS VARIAVEIS POR DESVIO PADRÃO %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% condnorm=(cond-mean(cond))/(std(cond)); vapnorm=(vap-mean(vap))/(std(vap)); rotnorm=(rot-mean(rot))/(std(rot)); umidnorm=(umid-mean(umid))/(std(umid)); sodnorm=(sod-mean(sod))/(std(sod)); condnormv=(condv-mean(condv))/(std(condv)); vapnormv=(vapv-mean(vapv))/(std(vapv)); rotnormv=(rotv-mean(rotv))/(std(rotv)); umidnormv=(umidv-mean(umidv))/(std(umidv)); sodnormv=(sodv-mean(sodv))/(std(sodv)); %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% DESNORMALIZAÇÃO DO DESVIO %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% umid_desnorpad=(Umidade_sai_rede_teste*std(umidv))+ mean(umidv); sod_desnorpad= (soda_sai_rede_teste*std(sodv))+ mean(sodv); Figura A.1 Gera a Normalização por Desvio Padrão A.1 Introdução 129 clc clear load filtro_mod pa1=now; N=498; Inicio=datestr(now) obj = findobj(gcf, 'Tag', 'epochs'); epochs = str2double(get(obj,'String')); obj = findobj(gcf, 'Tag', 'goal'); goal = str2double(get(obj,'String')); %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% %%%% ESCOLHA DOS PADROES APRESENTADOS A REDE %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 1 obj = findobj(gcf, 'Tag', 'nap'); nap = str2double(get(obj,'String')); obj = findobj(gcf, 'Tag', 'ndp'); ndp = str2double(get(obj,'String')); obj = findobj(gcf, 'Tag', 'nav'); nav = str2double(get(obj,'String')); obj = findobj(gcf, 'Tag', 'ndv'); ndv = str2double(get(obj,'String')); space = 1; % índice que regula os valores que serão apresentados no treinamento na rede i = [1:space:(ndp-nap)]; iv = [1:space:(ndv-nav)]; %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% VARIÁVEIS DO PROCESSO %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% cond=condensado(nap:ndp); vap=vapor(nap:ndp); rot=rotacao(nap:ndp); umid=umidade(nap:ndp); sod=soda(nap:ndp); [m,n] = size(cond); %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% %ENTRADAS PARA VALIDAÇÃO. %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% condv=condensado(nav:ndv); vapv=vapor(nav:ndv); rotv=rotacao(nav:ndv); umidv=umidade(nav:ndv); sodv=soda(nav:ndv); %%%%%% %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% TESTE PARA VERIFICAR SE O TREINO ESTA SENDO EXECUTADO %%%%%%%%%%%%%%%%%%%%%%%%%%% %%%%%%%%%%%%% cond = cond(i); vap = vap(i); rot = rot(i); umid = umid(i); sod = sod(i); condv = condv(iv); vapv = vapv(iv); rotv = rotv(iv); umidv = umidv(iv); sodv = sodv(iv); Figura A.2 Padrões apresentados a rede SILVA, F.L. PPGME/UFPA A.1 Introdução 130 2 %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% VETORES A SEREM APRESENTADOS A REDE %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% P = [condnorm;vapnorm;rotnorm]; T = [umidnorm;sodnorm]; v.P = [condnormv;vapnormv;rotnormv]; v.T = [umidnormv;sodnormv]; %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% %%%%%%%% FUNCÃO DE TREINAMENTO DA REDE %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% net = newff([-1 1;-1 1;-1 1],[14 12 2],{'logsig' 'logsig' 'purelin'},'trainlm'); % 1ª Rede 1º momento net = newff([-1 1;-1 1;-1 1],[12 10 2],{'tansig' 'tansig' 'purelin'},'trainlm'); % 2ª Rede 2º momento net = newff([-1 1;-1 1;-1 1],[12 10 8 2],{'tansig' 'tansig' 'tansig' 'purelin'},'trainlm'); % 3ª Rede 3º momento %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% PARAMETROS DE TREINAMENTO - 3ª REDE %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% net.trainParam.show = 50; net.trainParam.epochs = epochs; net.trainParam.goal = goal; net.trainParam.lr = 0.07; net.trainParam.mc = 0.8; % % % % % % net.trainParam.lr_inc = 1.05; % net.trainParam.lr_dec = 0.7; % net.trainParam.max_perf_inc = 1.05; %net.performFcn = 'msereg'; % net.performParam.ratio = 0.5; % % % % % Resposta da rede de 50 em 50 épocas Nº de épocas para o treinamento e validação Objetivo do erro a ser alcançado pela rede Taxa de aprendizagem (0.01 a 1.5) Taxa de momentum (0.7 a 0.9) Taxa de Incremento da lr Taxa de decremento lr Incremento máximo do erro %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% EXECUTA O TREINAMENTO %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% %[net,tr]=train(net,p,t,[ ],[ ],v); [net,tr]=train(net,p,t); %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% SALVA OS PESOS %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% peso_entrada = net.IW; peso_intermed = net.LW; peso_bias = net.b; %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% EXECUTA TESTE E VALIDACÃO %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% sai_rede=sim(net,p); sai_rede_testev=sim(net,v.P); Figura A.3 Função e parâmetros de treinamento apresentados a rede SILVA, F.L. PPGME/UFPA A.1 Introdução 131 3 %%%%%% %%%%%%%%%%%%%%%%%%%%%%%%%%%%%% %%%%%% NORMALIZAÇÃO DAS VARIAVEIS NO ESPAÇO (-1, 1 ) %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% ymax = 1; ymin = -1; % variável condensado condmax=max(cond); condmin=min(cond); condmaxv=max(condv); condminv=min(condv); condnorm=((ymax-ymin)*(cond-condmin)/(condmax-condmin))+ymin; condnormv=((ymax-ymin)*(condv-condminv)/(condmaxv-condminv))+ymin; % variável vapor vapmax=max(vap); vapmin=min(vap); vapmaxv=max(vapv); vapminv=min(vapv); vapnorm=((ymax-ymin)*(vap-vapmin)/(vapmax-vapmin))+ymin; vapnormv=((ymax-ymin)*(vapv-vapminv)/(vapmaxv-vapminv))+ymin; % variável rotação rotmax=max(rot); rotmin=min(rot); rotmaxv=max(rotv); rotminv=min(rotv); rotnorm=((ymax-ymin)*(rot-rotmin)/(rotmax-rotmin))+ymin; rotnormv=((ymax-ymin)*(rotv-rotminv)/(rotmaxv-rotminv))+ymin; % variável umidade umidmax=max(umid); umidmin=min(umid); umidmaxv=max(umidv); umidminv=min(umidv); umidnorm=((ymax-ymin)*(umid-umidmin)/(umidmax-umidmin))+ymin; umidnormv=((ymax-ymin)*(umidv-umidminv)/(umidmaxv-umidminv))+ymin; % variável soda sodmax=max(sod); sodmin=min(sod); sodmaxv=max(sodv); sodminv=min(sodv); sodnorm=((ymax-ymin)*(sod-sodmin)/(sodmax-sodmin))+ymin; sodnormv=((ymax-ymin)*(sodv-sodminv)/(sodmaxv-sodminv))+ymin; %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% DESNORMALIZAÇÃO DO NO ESPAÇO (-1, 1 ) %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% umid1=(((Umidade_sai_rede_teste + 1)*(umidmax-umidmin))+2*umidmin)/2; sod1=(((soda_sai_rede_teste + 1)*(sodmax-sodmin))+2*sodmin)/2; Figura A.4 Gera a Normalização no Espaço (-1, 1) SILVA, F.L. PPGME/UFPA A.1 Introdução 132 5 %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% AGORA COMECA A ANÁLISE GRÁFICA DE TREINAMENTO %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% pa2=now; Fim=datestr(now) Figure % Plota todos as variáveis subplot(5,1,1), plot(condensado) title('Condensado') subplot(5,1,2), plot(vapor) title('Vapor') subplot(5,1,3), plot(rotacao) title('Rotaçao') subplot(5,1,4), plot(umidade) title('Umidade') subplot(5,1,5), plot(soda) title('Soda') % % %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% figure(1) % Saída do nível de umidade Umidade_desej=(t(1,:)); plot(Umidade_desej,'r') hold on %saida=(std(umid)*(saida))+mean(umid)%desnormalizaçao Umidade_rede=(sai_rede(1,:)); plot(Umidade_rede,'k*-') xlabel('Amostra de Treinamento') ylabel('Nível de Umidade da Torta de Hidrato (%)') title('SAIDA DESEJADA(Vermelho) E SAIDA DA REDE ESTIMADA (Preto)') grid on %% %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% figure(2) % Erro obtido na saida do nível de umidade erro_saida_umidade=(Umidade_desej-Umidade_rede); plot(erro_saida_umidade,'r-') grid on title('ERRO DE TREINAMENTO (SAÍDA DESEJADA - SAÍDA OBTIDA PELA RNA)') ylabel('Erro de Treinamento para o Nível de Umidade') xlabel('Amostra de Treinamento') %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% figure(3) % Saida do nível de soda soda_desej=(t(2,:)); plot(soda_desej,'r-') hold on soda_rede=(sai_rede(2,:)); plot(soda_rede,'k*-') xlabel('Amostra de Treinamento') ylabel('Nível de Soda na Torta de Hidrato (%)') title('SAIDA DESEJADA(Vermelho) E SAIDA DA REDE ESTIMADA(Preto)') %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% figure(4) % Erro obtido na saída do nível de soda soda erro_saida_soda=(soda_desej-soda_rede); plot(erro_saida_soda,'r-') grid on title('ERRO DE TREINAMNETO (SAÍDA DESEJADA - SAÍDA OBTIDA PELA RNA)') ylabel('Erro de Treinamento para o Nível de Soda') Figura A.5 Gera a Análise Gráfica de Treinamento SILVA, F.L. PPGME/UFPA A.1 Introdução 133 6 %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% AGORA COMECA A ANÁLISE GRÁFICA DE VALIDAÇÃO %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% figure(5) Umidade_desejv=(umidnormv); plot(Umidade_desejv,'r') hold on Umidade_sai_rede_teste=(sai_rede_testev(1,:)); plot(Umidade_sai_rede_teste,'k') xlabel('Amostra para validacao do nível de umidade') ylabel('Saída de Validação') title('SAIDA DESEJADA(Vermelho) E SAIDA DA REDE(Preto)') grid on %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% figure(6) erro_saida_umidadev=(Umidade_desejv-Umidade_sai_rede_teste); plot(erro_saida_umidadev,'m') grid on title('SAIDA DE VAL. REDE - SAIDA DE VAL. DESEJADA') ylabel('Erro Quadrático Médio de Validação ') xlabel('Amostra de Umidade') %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% figure(7) soda_desejv=(sodnormv); plot(soda_desejv,'r') hold on soda_sai_rede_teste=(sai_rede_testev(2,:)); plot(soda_sai_rede_teste,'k') xlabel('Amostra para validacao do nível de soda') ylabel('Saída de Validação') title('SAIDA DESEJADA(Vermelho) E SAIDA DA REDE(preto)') grid on %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% figure(8) erro_saida_soda2=(soda_desejv-soda_sai_rede_teste); plot(erro_saida_soda2,'m') grid on title('SAIDA DE VAL. REDE - SAIDA DE VAL. DESEJADA') ylabel('Erro de Validação E(W)') xlabel('Amostra de Soda') grid on Figura A.6 Gera a Análise Gráfica de Validação SILVA, F.L. PPGME/UFPA A.1 Introdução 134 7 %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% AGORA COMECA A ANÁLISE GRÁFICA DE VALIDAÇÃO DESNORMALIZADA %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% figure (9) plot(umid,'r') hold on plot(umid1,'k'); xlabel('Amostra para validacao do nível de umidade') ylabel('Saída de Validação Desnormalizada') title('SAIDA DESEJADA(Vermelho) E SAIDA DA REDE(preto)') grid on figure (10) plot(sod,'r') hold on plot(sod1,'k'); xlabel('Amostra para validacao do nível de soda') ylabel('Saída de Validação Desnormalizada') title('SAIDA DESEJADA(Vermelho) E SAIDA DA REDE(preto)') grid on %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% GERA OS RESUILTADOS DE VALIDAÇÃO (Nínel de Umidae e Nível de Soda) %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% a = umid1 b = sod1 Figura A.7 Gera a Análise Gráfica da Validação Desnormalizada SILVA, F.L. PPGME/UFPA A.1 Introdução 135 8 function varargout = indexcaustico(varargin) gui_Singleton = 1; gui_State = struct('gui_Name', mfilename, ... 'gui_Singleton', gui_Singleton, ... 'gui_OpeningFcn', @indexcaustico_OpeningFcn, ... 'gui_OutputFcn', @indexcaustico_OutputFcn, ... 'gui_LayoutFcn', [ ], ... 'gui_Callback', [ ]); if nargin & isstr(varargin{1}) gui_State.gui_Callback = str2func(varargin{1}); end if nargout [varargout{1:nargout}] = gui_mainfcn(gui_State, varargin{:}); else gui_mainfcn(gui_State, varargin{:}); end function indexcaustico_OpeningFcn(hObject, eventdata, handles, varargin) handles.output = hObject; guidata(hObject, handles); function varargout = indexcaustico_OutputFcn(hObject, eventdata, handles) varargout{1} = handles.output; function epochs_CreateFcn(hObject, eventdata, handles) if ispc set(hObject,'BackgroundColor','white'); else set(hObject,'BackgroundColor',get(0,'defaultUicontrolBackgroundColor')); end function goal_CreateFcn(hObject, eventdata, handles) if ispc set(hObject,'BackgroundColor','white'); else set(hObject,'BackgroundColor',get(0,'defaultUicontrolBackgroundColor')); end function nap_CreateFcn(hObject, eventdata, handles) if ispc set(hObject,'BackgroundColor','white'); else set(hObject,'BackgroundColor',get(0,'defaultUicontrolBackgroundColor')); end function ndp_CreateFcn(hObject, eventdata, handles) if ispc set(hObject,'BackgroundColor','white'); else set(hObject,'BackgroundColor',get(0,'defaultUicontrolBackgroundColor')); end function nav_CreateFcn(hObject, eventdata, handles) if ispc set(hObject,'BackgroundColor','white'); else set(hObject,'BackgroundColor',get(0,'defaultUicontrolBackgroundColor')); end function ndv_CreateFcn(hObject, eventdata, handles) if ispc set(hObject,'BackgroundColor','white'); else set(hObject,'BackgroundColor',get(0,'defaultUicontrolBackgroundColor')); end Figura A.8 Algorı́tmo para iniciar o treinamento e validação SILVA, F.L. PPGME/UFPA A.1 Introdução 136 Figura A.9 Projeto para seleção dos dados de treinamento e validação SILVA, F.L. PPGME/UFPA A.1 Introdução 137 A.1.2 Algoritmo para Obtenção do Modelo de Séries Temporais - SAS-9 data albras; infile "e:\felix\albras100\hidrato100.txt" expandtabs; input t y x1 x2 x3 x31; * format date date7.; datalines; ods html file='albras'; ods graphics on; proc arima ; i var=x1 nlag=12 outcov=x1out; e q=1 p=1 method=ml plot; i var=x2 nlag=12 outcov=x2out; e q=1 p=1 method=ml plot; i var=x31 nlag=12 outcov=x3out; e q=1 p=(1)(3) method=ml plot; run; ods html close; quit; Figura A.10 Gera as Séries das Variáveis SILVA, F.L. PPGME/UFPA A.1 Introdução 138 data albras; infile "g:\felix\hidsod\hidsod200.txt" expandtabs; input t y1 y2 x1 x2 x3 @@ ; label t ='tempo em horas' y1 ='Umidade' y2 ='soda' x1 ='condensado' x2 ='vapor' x3 ='rotacao'; run; ods html file='albras'; ods graphics on; proc arima ; i var=y1 nlag=15 outcov=yresp; i var=x1 nlag=15 outcov=x1out; i var=x2 nlag=15 outcov=x2out; i var=x3 nlag=15 outcov=x3out; run; data acf1; set yresp; lcl=-2*stderr; ucl=2*stderr; run; proc gplot data=acf1; plot corr*lag=1 lcl*lag=2 ucl*lag=2/overlay vminor=4 vaxis=axis1 haxis=axis2 ; axis1 order=(-1.0 to 1.0 by 0.5) label=(angle=90 'FAC Umidade') ; axis2 order=(1.0 to 15 by 1.0) label=('lag (k)'); symbol1 color=black interpol=needle value=none width=4; symbol2 color=black interpol=join value=none width=1; *title h=2 "FAC da resposta umidade"; run; proc gplot data=acf1; plot partcorr*lag=1 lcl*lag=2 ucl*lag=2/overlay vminor=4 vaxis=axis1 haxis=axis2 ; axis1 order=(-1.0 to 1.0 by 0.5) label=(angle=90 'FACP Umidade') ; axis2 order=(1.0 to 15 by 1.0) label=('lag (k)'); symbol1 color=black interpol=needle value=none width=4; symbol2 color=black interpol=join value=none width=1; *title h=2 "FACP da resposta umidade"; run; data acf2; set x1out; lcl=-2*stderr; ucl=2*stderr; run; proc gplot data=acf2; plot corr*lag=1 lcl*lag=2 ucl*lag=2/overlay vminor=4 vaxis=axis1 haxis=axis2 ; axis1 order=(-1.0 to 1.0 by 0.5) label=(angle=90 'FAC X1') ; axis2 order=(1.0 to 15 by 1.0) label=('lag (k)'); symbol1 color=black interpol=needle value=none width=4; symbol2 color=black interpol=join value=none width=1; *title h=2 "FAC de X1"; run; proc gplot data=acf2; plot partcorr*lag=1 lcl*lag=2 ucl*lag=2/overlay vminor=4 vaxis=axis1 haxis=axis2 ; axis1 order=(-1.0 to 1.0 by 0.5) label=(angle=90 'FACP X1') ; axis2 order=(1.0 to 15 by 1.0) label=('lag (k)'); symbol1 color=black interpol=needle value=none width=4; symbol2 color=black interpol=join value=none width=1; *title h=2 "FACP de X1"; run; data acf3; set x2out; lcl=-2*stderr; ucl=2*stderr; run; proc gplot data=acf3; plot corr*lag=1 lcl*lag=2 ucl*lag=2/overlay vminor=4 vaxis=axis1 haxis=axis2 ; axis1 order=(-1.0 to 1.0 by 0.5) label=(angle=90 'FAC X2') ; axis2 order=(1.0 to 15 by 1.0) label=('lag (k)'); symbol1 color=black interpol=needle value=none width=4; symbol2 color=black interpol=join value=none width=1; *title h=2 "FAC de X2"; run; proc gplot data=acf3; plot partcorr*lag=1 lcl*lag=2 ucl*lag=2/overlay vminor=4 vaxis=axis1 haxis=axis2 ; axis1 order=(-1.0 to 1.0 by 0.5) label=(angle=90 'FACP X2') ; axis2 order=(1.0 to 15 by 1.0) label=('lag (k)'); symbol1 color=black interpol=needle value=none width=4; symbol2 color=black interpol=join value=none width=1; *title h=2 "FACP de X2"; run; data acf4; set x3out; lcl=-2*stderr; ucl=2*stderr; run; proc gplot data=acf4; plot corr*lag=1 lcl*lag=2 ucl*lag=2/overlay vminor=4 vaxis=axis1 haxis=axis2 ; axis1 order=(-1.0 to 1.0 by 0.5) label=(angle=90 'FAC X3') ; axis2 order=(1.0 to 15 by 1.0) label=('lag (k)'); symbol1 color=black interpol=needle value=none width=4; symbol2 color=black interpol=join value=none width=1; *title h=2 "FAC de X3"; run; proc gplot data=acf4; plot partcorr*lag=1 lcl*lag=2 ucl*lag=2/overlay vminor=4 vaxis=axis1 haxis=axis2 ; axis1 order=(-1.0 to 1.0 by 0.5) label=(angle=90 'FACP X3'); axis2 order=(1.0 to 15 by 1.0) label=('lag (k)'); symbol1 color=black interpol=needle value=none width=4; symbol2 color=black interpol=join value=none width=1; *title h=2 "FACP de X3"; run; ods html close; quit; Figura A.11 Gera a FAC e FACP das Séries SILVA, F.L. PPGME/UFPA A.1 Introdução 139 data albras; infile "c:\pendrive\felix\hidsod\hidsod200.txt" expandtabs; input t y1 y2 x1 x2 x3 @@ ; label t ='tempo em horas' y1 ='Umidade' y2 ='soda' x1 ='condensado' x2 ='vapor' x3 ='rotacao'; datalines; run; ods html file='albras2'; ods graphics on; goptions cback=white colors=(black) border reset=(axis symbol); axis1 offset=(1 cm) label=('Periodo') minor=none; axis2 label=(angle=90 'Umidade'); symbol1 i=join; proc gplot ; plot y1*t / haxis=axis1 vaxis=axis2 vminor=1; title 'Umidade na torta de hidrato - Y1'; axis2 label=(angle=90 'Resposta'); run; proc gplot ; plot y2*t / haxis=axis1 vaxis=axis2 vminor=1; title 'Soda caustica - Y2'; axis2 label=(angle=90 'Resposta'); run; proc gplot ; * format date date7.; plot x1*t / haxis=axis1 vaxis=axis2 vminor=1; title 'Vazao de condensado - X1'; axis2 label=(angle=90 'X1'); run; proc gplot ; * format date date7.; plot x2*t / haxis=axis1 vaxis=axis2 vminor=1; title 'Vazao de vapor - X2'; axis2 label=(angle=90 'X2'); run; proc gplot ; * format date date7.; plot x3*t / haxis=axis1 vaxis=axis2 vminor=1; title 'Rotacao do tambor - X3'; axis2 label=(angle=90 'X3'); run; ods html close; quit; Figura A.12 Gera os Modelos ARIMA SILVA, F.L. PPGME/UFPA A.1 Introdução 140 data albras; infile "c:\pendrive\felix\hidsod\hidsod052.txt" expandtabs; input t y1 y2 x1 x2 x3 @@ ; label t ='tempo em horas' y1 ='Umidade' y2 ='soda' x1 ='condensado' x2 ='vapor' x3 ='rotacao'; ods html file='albras'; ods graphics on; proc arima ; * i var=x1 outcov=x1out ; * e p=2 method=ml noprint ; i var=x2 outcov=x2out ; e q=2 method=ml noprint; i var=x3 outcov=x3out ; e q=1 method=ml noprint; run; i var=y2 crosscor=(x2 x3) nlag=12 ; run; e input=( 2$/(1) x2 2$ x3) q=1 method=ml ; forecast lead=0 out=saida; run; proc forecast data=saida outest=estim; run; proc print data=estim; title 'parametros de saida'; run; data b; merge albras saida; keep t x1 x2 x3 y2 forecast l95 u95; run; proc print data=b; goptions reset=global gunit=pct border cback=white colors=(white yellow) ctext=black ftitle=swissb ftext=swiss htitle=4 htext=4; proc gplot data=b; plot l95*t =3 u95*t =3 y2*t =1 forecast*t=2/overlay haxis=axis1 hminor=4 vaxis=axis2 vminor=1 caxis=black areas=2; axis1 label=('Data') ; axis2 label=(angle=90 'Soda caustica'); symbol1 l=2 w=2.5 color=black i=join ; symbol2 w=2 i=join c=blue; symbol3 l=20 i=join c=green; footnote1 c=black f=centx c=b f=centx c=orange f=centx' run; ods html close; quit; ' .... Observado' ' - Modelo' (95% IC)'; Figura A.13 Gera os Testes dos Modelos ARIMA SILVA, F.L. PPGME/UFPA A.1 Introdução 141 data albras; infile "c:\pendrive\felix\hidsod\hidsod200.txt" expandtabs; input t y1 y2 x1 x2 x3 @@ ; label t ='tempo em horas' y1 ='Umidade' y2 ='soda' x1 ='condensado' x2 ='vapor' x3 ='rotacao'; ods html file='albras'; ods graphics on; proc arima ; i var=y1; e q=1 method=ml; i var=x1; e p=2 method=ml; i var=x2; e q=2 method=ml; i var=x3; e q=1 method=ml; run; i var=y1 crosscor=(x1) nlag=12 outcov=cross1; i var=y1 crosscor=(x2) nlag=12 outcov=cross2; i var=y1 crosscor=(x3) nlag=12 outcov=cross3; run; data crosscorr1; set cross1; keep obs crossvar stderr corr partcorr lag; if invcorr=.; lcl=-1.96*stderr; ucl=1.96*stderr; keep lcl ucl ; run; proc gplot; axis1 label=(angle=90 'Correlacao Cruzada') order=-1 to 1 axis2 length=5 in order=-12 to 12 by 2; plot (corr ucl lcl)*lag / overlay vaxis=axis1 haxis=axis2 symbol1 i=needle color=black; symbol2 v=none l=21 i=join color=red; symbol3 v=none l=21 i=join color=red; title 'Correlacao Cruzada Y1 vs. X1'; run; data crosscorr2; set cross2; keep obs crossvar stderr corr partcorr lag; if invcorr=.; lcl=-1.96*stderr; ucl=1.96*stderr; keep lcl ucl ; run; proc gplot; axis1 label=(angle=90 'Correlacao Cruzada') order=-1 to 1 axis2 length=5 in order=-12 to 12 by 2; plot (corr ucl lcl)*lag / overlay vaxis=axis1 haxis=axis2 symbol1 i=needle color=black; symbol2 v=none l=21 i=join color=red; symbol3 v=none l=21 i=join color=red; title 'Correlacao Cruzada Y1 vs. X2'; run; data crosscorr3; set cross3; keep obs crossvar stderr corr partcorr lag; if invcorr=.; lcl=-1.96*stderr; ucl=1.96*stderr; keep lcl ucl ; run; proc gplot; axis1 label=(angle=90 'Correlacao Cruzada') order=-1 to 1 axis2 length=5 in order=-12 to 12 by 2; plot (corr ucl lcl)*lag / overlay vaxis=axis1 haxis=axis2 symbol1 i=needle color=black; symbol2 v=none l=21 i=join color=red; symbol3 v=none l=21 i=join color=red; title 'Correlacao Cruzada Y1 vs. X3'; run; ods html close; quit; by 0.2 length=3 in; vref=0; by 0.2 length=3 in; vref=0; by 0.2 length=3 in; vref=0; Figura A.14 Gera as Funções de Correlação Cruzada SILVA, F.L. PPGME/UFPA A.1 Introdução 142 data albras; infile "c:\pendrive\felix\hidsod\hidsod200.txt" expandtabs; input t y1 y2 x1 x2 x3 @@ ; label t ='tempo em horas' y1 ='Umidade' y2 ='soda' x1 ='condensado' x2 ='vapor' x3 ='rotacao'; ods html file='albras'; ods graphics on; proc arima ; i var=y1 outcov=y1out ; e q=1 method=ml noprint ; i var=x1 outcov=x1out ; e p=2 method=ml noprint ; i var=x2 outcov=x2out ; e q=2 method=ml noprint; i var=x3 outcov=x3out ; e q=1 method=ml noprint; run; i var=y1 crosscor=(x1 x2 x3) nlag=12 ; run; e input=(1$(1) x1 x2 (5) x3) q=1 method=ml plot; forecast lead=0 out=saida; run; proc forecast data=saida outest=estim; run; proc print data=estim; title 'parametros de saida'; run; data b; merge albras saida; keep t x1 x2 x3 y1 forecast l95 u95; run; proc print data=b; goptions reset=global gunit=pct border cback=white colors=(white yellow) ctext=black ftitle=swissb ftext=swiss htitle=4 htext=4; proc gplot data=b; plot l95*t =3 u95*t =3 y1*t =1 forecast*t=2/overlay haxis=axis1 hminor=4 vaxis=axis2 vminor=1 caxis=black areas=2; axis1 label=('Data') ; axis2 label=(angle=90 'Umidade'); symbol1 l=2 w=2.5 color=black i=join ; symbol2 w=2 i=join c=blue; symbol3 l=20 i=join c=green; footnote1 c=black f=centx c=b f=centx c=orange f=centx' run; ods html close; quit; ' .... Observado' ' - Modelo' (95% IC)'; Figura A.15 Teste do Modelo 1 de F.T - Umidade SILVA, F.L. PPGME/UFPA A.1 Introdução 143 data albras; infile "g:\felix\hidsod\hidsod200.txt" expandtabs; input t y1 y2 x1 x2 x3 @@ ; label t ='tempo em horas' y1 ='Umidade' y2 ='soda' x1 ='condensado' x2 ='vapor' x3 ='rotacao'; ods html file='albras'; ods graphics on; proc arima ; i var=x1 outcov=x1out ; e p=2 method=ml noprint ; i var=x2 outcov=x2out ; e q=2 method=ml noprint; i var=x3 outcov=x3out ; e q=1 method=ml noprint; run; i var=y1 crosscor=(x1 x3) nlag=12 ; run; e input=((1)/(1) x1 (5) x3) q=1 method=ml plot; forecast lead=0 out=saida; run; proc forecast data=saida outest=estim; run; proc print data=estim; title 'parametros de saida'; run; data b; merge albras saida; keep t x1 x2 x3 y1 forecast l95 u95; run; proc print data=b; goptions reset=global gunit=pct border cback=white colors=(white yellow) ctext=black ftitle=swissb ftext=swiss htitle=4 htext=4; proc gplot data=b; plot l95*t =3 u95*t =3 y1*t =1 forecast*t=2/overlay haxis=axis1 hminor=4 vaxis=axis2 vminor=1 caxis=black areas=2; *title 'Albras Data'; axis1 label=('Data') ; axis2 label=(angle=90 'Umidade'); symbol1 l=2 w=2.5 color=red i=join ; symbol2 w=2 i=join c=blue; symbol3 l=20 i=join c=green; footnote1 c=r f=centx ' ... Observado' c=b f=centx ' - Previsao' c=yellow f=centx' (95% IC)'; run; ods html close; quit; Figura A.16 Teste do Modelo 2 de F.T - Umidade SILVA, F.L. PPGME/UFPA A.1 Introdução 144 data albras; infile "g:\felix\hidsod\hidsod200.txt" expandtabs; input t y1 y2 x1 x2 x3 @@ ; label t ='tempo em horas' y1 ='Umidade' y2 ='soda' x1 ='condensado' x2 ='vapor' x3 ='rotacao'; ods html file='albras'; ods graphics on; proc arima ; i var=y1 outcov=y1out ; e q=1 method=ml noprint ; i var=x1 outcov=x1out ; e p=2 method=ml noprint ; i var=x2 outcov=x2out ; e q=2 method=ml noprint; i var=x3 outcov=x3out ; e q=1 method=ml noprint; run; i var=y1 crosscor=(x1 x3) nlag=12 ; run; e input=(1$(1) x1 (5) x3) q=1 method=ml plot; forecast lead=0 out=saida; run; proc forecast data=saida outest=estim; run; proc print data=estim; title 'parametros de saida'; run; data b; merge albras saida; keep t x1 x2 x3 y1 forecast l95 u95; run; proc print data=b; goptions reset=global gunit=pct border cback=white colors=(white yellow) ctext=black ftitle=swissb ftext=swiss htitle=4 htext=4; proc gplot data=b; plot l95*t =3 u95*t =3 y1*t =1 forecast*t=2/overlay haxis=axis1 hminor=4 vaxis=axis2 vminor=1 caxis=black areas=2; axis1 label=('Data') ; axis2 label=(angle=90 'Umidade'); symbol1 l=2 w=2.5 color=black i=join ; symbol2 w=2 i=join c=blue; symbol3 l=20 i=join c=green; footnote1 c=black f=centx c=b f=centx c=orange f=centx' run; ods html close; quit; ' .... Observado' ' - Modelo' (95% IC)'; Figura A.17 Teste do Modelo 3 de F.T - Umidade SILVA, F.L. PPGME/UFPA A.1 Introdução 145 data albras; infile "c:\pendrive\felix\hidsod\hidsod200.txt" expandtabs; input t y1 y2 x1 x2 x3 @@ ; label t ='tempo em horas' y1 ='Umidade' y2 ='soda' x1 ='condensado' x2 ='vapor' x3 ='rotacao'; ods html file='albras'; ods graphics on; proc arima ; i var=y2 outcov=x1out ; e q=1 method=ml noprint ; i var=x2 outcov=x2out ; e q=2 method=ml noprint; i var=x3 outcov=x3out ; e q=1 method=ml noprint; run; i var=y2 crosscor=(x2 x3) nlag=12 ; run; e input=( 2$/(1) x2 1$ x3) q=1 method=ml plot; forecast lead=0 out=saida; run; proc forecast data=saida outest=estim; run; proc print data=estim; title 'parametros de saida'; run; data b; merge albras saida; keep t x1 x2 x3 y2 forecast l95 u95; run; proc print data=b; goptions reset=global gunit=pct border cback=white colors=(white yellow) ctext=black ftitle=swissb ftext=swiss htitle=4 htext=4; proc gplot data=b; plot l95*t =3 u95*t =3 y2*t =1 forecast*t=2/overlay haxis=axis1 hminor=4 vaxis=axis2 vminor=1 caxis=black areas=2; axis1 label=('Data') ; axis2 label=(angle=90 'Soda caustica'); symbol1 l=2 w=2.5 color=black i=join ; symbol2 w=2 i=join c=blue; symbol3 l=20 i=join c=green; footnote1 c=black f=centx c=b f=centx c=orange f=centx' run; ods html close; quit; ' .... Observado' ' - Modelo' (95% IC)'; Figura A.18 Gera Modelo de F.T - Soda SILVA, F.L. PPGME/UFPA A.1 Introdução 146 data albras; infile "c:\pendrive\felix\hidsod\hidsod200.txt" expandtabs; input t y1 y2 x1 x2 x3 @@ ; label t ='tempo em horas' y1 ='Umidade' y2 ='soda' x1 ='condensado' x2 ='vapor' x3 ='rotacao'; ods html file='albras'; ods graphics on; proc arima ; i var=Y2 outcov=Y2out ; e Q=1 method=ml noprint ; i var=x2 outcov=x2out ; e q=2 method=ml noprint; i var=x3 outcov=x3out ; e q=1 method=ml noprint; run; i var=y2 crosscor=(x2 x3) nlag=12 ; run; e input=(2$ (2) x2 x3) q=1 method=ml ; forecast lead=0 out=saida; run; proc forecast data=saida outest=estim; run; proc print data=estim; title 'parametros de saida'; run; data b; merge albras saida; keep t x1 x2 x3 y2 forecast l95 u95; run; proc print data=b; goptions reset=global gunit=pct border cback=white colors=(white yellow) ctext=black ftitle=swissb ftext=swiss htitle=4 htext=4; proc gplot data=b; plot l95*t =3 u95*t =3 y2*t =1 forecast*t=2/overlay haxis=axis1 hminor=4 vaxis=axis2 vminor=1 caxis=black areas=2; axis1 label=('Data') ; axis2 label=(angle=90 'Soda caustica'); symbol1 l=2 w=2.5 color=black i=join ; symbol2 w=2 i=join c=blue; symbol3 l=20 i=join c=green; footnote1 c=black f=centx c=b f=centx c=orange f=centx' run; ods html close; quit; ' .... Observado' ' - Modelo' (95% IC)'; Figura A.19 Teste do Modelo 1 de F.T - Soda SILVA, F.L. PPGME/UFPA A.1 Introdução 147 data albras; infile "c:\pendrive\felix\hidsod\hidsod052.txt" expandtabs; input t y1 y2 x1 x2 x3 @@ ; label t ='tempo em horas' y1 ='Umidade' y2 ='soda' x1 ='condensado' x2 ='vapor' x3 ='rotacao'; ods html file='albras'; ods graphics on; proc arima ; i var=Y2 outcov=Y2out ; e Q=1 method=ml noprint ; i var=x2 outcov=x2out ; e q=2 method=ml noprint; i var=x3 outcov=x3out ; e q=1 method=ml noprint; run; i var=y2 crosscor=(x2 x3) nlag=12 ; run; e input=(2$ (3) x2 x3) q=1 method=ml ; forecast lead=0 out=saida; run; proc forecast data=saida outest=estim; run; proc print data=estim; title 'parametros de saida'; run; data b; merge albras saida; keep t x1 x2 x3 y2 forecast l95 u95; run; proc print data=b; goptions reset=global gunit=pct border cback=white colors=(white yellow) ctext=black ftitle=swissb ftext=swiss htitle=4 htext=4; proc gplot data=b; plot l95*t =3 u95*t =3 y2*t =1 forecast*t=2/overlay haxis=axis1 hminor=4 vaxis=axis2 vminor=1 caxis=black areas=2; axis1 label=('Data') ; axis2 label=(angle=90 'Soda caustica'); symbol1 l=2 w=2.5 color=black i=join ; symbol2 w=2 i=join c=blue; symbol3 l=20 i=join c=green; footnote1 c=black f=centx c=b f=centx c=orange f=centx' run; ods html close; quit; ' .... Observado' ' - Modelo' (95% IC)'; Figura A.20 Teste do Modelo 2 de F.T - Soda SILVA, F.L. PPGME/UFPA A.1 Introdução 148 A.1.3 Tabela do Banco de Dados Estes dados faram adqueridos junta a empresa de fabricação de aluminio do Norte do Paı́s. Esta empresa destaca-se por ser a maior beneficiadora de minério de Bauxita extraı́do no munı́cipio de Paragominas, este também pertencente ao Estado do Pará. Tabela A.1 Valores Fornecidos pelo Processo SILVA, F.L. Y1 Y2 X1 X2 X3 Nivel de Umidade (%) Soda (%) Vazão de Condensado (m3 /h) Vazão de Vapor (t/h) Rotação (%) 6,390 4,690 4,630 4,960 3,160 4,920 5,930 4,440 4,510 3,740 4,960 3,700 3,430 4,110 3,870 4,260 3,900 4,460 4,620 2,840 4,490 5,900 5,860 8,180 4,160 3,770 3,430 5,100 5,270 4,500 6,100 4,670 5,430 4,810 5,860 4,200 5,030 6,490 4,970 3,850 5,340 6,160 5,510 4,400 4,720 4,780 6,100 4,940 3,560 4,390 8,620 6,680 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,050 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,020 0,010 0,010 0,010 0,010 0,040 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,020 0,010 0,010 0,010 0,010 0,010 0,010 0,020 0,010 0,010 0,010 0,010 0,030 0,020 0,020 0,010 0,010 0,010 0,010 0,010 0,010 0,010 65,052 65,169 52,032 64,925 65,697 64,708 64,418 65,277 68,478 65,119 64,730 65,025 65,167 65,758 65,146 64,793 64,921 65,203 62,973 65,094 65,622 64,727 65,052 69,184 64,985 65,215 57,065 62,998 65,122 64,963 64,995 66,153 64,724 65,535 65,340 72,268 60,431 64,995 64,936 64,769 65,296 64,746 64,878 49,254 65,614 64,936 64,756 64,919 65,190 64,927 64,949 65,132 1,210 1,208 1,195 1,200 1,200 0,256 0,228 1,201 1,204 1,303 1,195 1,204 1,195 1,163 1,195 1,328 1,209 0,260 1,224 1,203 1,192 1,206 1,326 0,593 1,212 1,182 1,187 1,223 1,215 1,197 1,198 1,190 1,195 1,173 0,358 1,197 1,189 1,203 1,191 1,201 1,195 1,195 1,389 0,147 1,195 1,227 1,190 1,206 1,289 1,204 1,203 1,206 38,282 38,268 38,259 38,232 38,390 38,252 38,218 38,249 38,263 38,190 38,249 38,249 38,115 38,176 38,190 38,241 38,153 38,249 38,282 38,282 38,365 38,301 38,232 38,195 38,263 38,282 38,209 38,249 38,467 38,365 38,398 38,249 38,256 38,240 38,085 38,511 38,282 38,282 38,249 38,136 38,136 38,398 30,438 38,212 38,558 38,224 38,310 38,234 38,136 38,482 38,224 38,249 PPGME/UFPA A.1 Introdução 149 Tabela A.2 Continuação da Tabela A.1 SILVA, F.L. Y1 Y2 X1 X2 X3 Nivel de Umidade (%) Soda (%) Vazão de Condensado (m3 /h) Vazão de Vapor (t/h) Rotação (%) 3,900 4,770 4,290 5,290 5,080 3,960 5,420 5,410 5,590 4,540 6,570 5,110 5,520 4,500 7,170 2,810 6,740 5,380 5,380 5,470 5,070 3,510 6,090 6,100 4,840 4,660 5,180 5,980 7,340 5,480 3,950 3,950 4,010 5,090 4,690 3,240 4,850 3,360 4,700 6,260 5,050 4,590 4,580 7,240 4,160 4,860 5,130 4,350 3,620 5,850 5,090 5,070 3,330 6,170 4,990 5,290 3,250 5,300 3,620 4,510 3,520 5,160 6,240 4,150 7,490 5,410 6,510 5,710 5,040 5,770 0,010 0,020 0,020 0,010 0,020 0,010 0,010 0,010 0,010 0,030 0,010 0,010 0,010 0,020 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,020 0,010 0,010 0,010 0,010 0,010 0,010 0,120 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,030 0,010 0,010 0,010 0,020 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,030 0,010 0,010 0,010 0,020 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,040 0,010 0,010 0,030 0,010 65,082 64,890 64,622 65,329 66,112 64,646 64,994 64,904 65,281 66,557 64,754 70,094 64,949 65,024 69,465 69,893 69,999 70,039 64,082 65,190 65,445 65,545 65,177 65,207 65,134 63,654 65,119 64,963 64,905 66,259 64,861 65,741 64,815 64,949 64,965 64,923 61,610 64,935 64,825 65,039 67,398 76,500 65,087 65,081 65,265 7,260 64,711 65,039 65,193 55,623 65,007 66,235 53,755 64,936 64,840 64,579 64,963 58,401 48,163 64,637 64,020 65,088 60,015 64,739 64,878 59,608 32,878 47,037 59,875 60,179 1,194 1,205 1,209 1,200 1,209 1,196 1,223 1,205 1,208 0,988 1,178 1,253 1,260 1,193 1,176 1,187 1,219 1,197 1,327 1,211 1,313 1,192 1,198 1,206 1,202 1,207 1,220 1,209 1,194 1,205 0,297 1,194 1,610 1,206 1,191 1,187 1,198 1,197 1,198 1,183 0,462 1,185 1,208 1,198 1,285 0,068 1,180 1,200 1,203 1,220 1,202 1,205 0,253 1,197 1,202 1,179 1,202 1,100 1,221 1,204 0,099 1,211 0,658 1,205 1,183 1,332 0,175 0,182 1,209 1,317 38,217 38,518 38,325 38,176 38,365 38,249 38,151 38,282 38,209 38,282 38,241 38,318 38,375 38,209 38,252 38,291 38,086 38,325 38,392 38,282 38,282 38,384 38,325 38,371 38,317 38,282 38,282 38,492 38,465 38,398 7,684 38,421 38,302 38,372 38,489 38,282 38,282 38,276 38,434 38,282 38,342 38,365 38,372 38,232 38,282 20,280 38,392 38,503 38,472 38,365 38,328 38,365 38,249 38,365 38,282 38,279 38,358 38,368 38,372 38,392 38,459 38,398 38,220 38,352 38,472 38,272 20,206 38,209 38,328 38,333 PPGME/UFPA A.1 Introdução 150 Tabela A.3 Continuação da Tabela A.2 SILVA, F.L. Y1 Y2 X1 X2 X3 Nivel de Umidade (%) Soda (%) Vazão de Condensado (m3 /h) Vazão de Vapor (t/h) Rotação (%) 5,130 4,240 5,740 5,810 4,990 5,570 4,490 5,350 6,560 4,770 6,290 4,230 4,620 6,280 4,310 3,480 4,780 8,540 4,870 5,090 4,570 3,970 4,690 4,600 6,120 5,810 5,400 4,520 5,510 4,630 4,890 5,070 5,160 3,620 6,320 5,080 4,590 5,980 5,720 6,150 4,810 7,100 7,020 4,400 6,390 4,730 9,330 6,490 5,850 5,270 5,140 6,320 4,900 6,800 5,250 5,030 5,120 4,090 6,300 4,430 4,110 9,680 4,410 5,460 5,270 4,450 4,940 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,040 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,020 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,030 0,010 0,010 0,010 0,050 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 65,370 64,646 64,715 53,393 64,423 64,784 64,971 64,949 64,910 65,161 64,815 66,708 65,043 65,569 64,548 106,356 64,324 65,319 62,625 66,317 65,417 64,920 65,213 63,009 65,326 57,120 65,084 65,192 65,088 63,874 64,742 64,955 64,414 65,342 64,967 69,789 64,800 65,079 68,854 65,060 65,013 65,027 64,969 65,028 64,676 64,578 64,719 65,035 57,403 65,139 67,107 64,566 65,108 31,500 63,790 58,216 65,192 64,441 65,119 64,666 64,285 65,602 64,991 65,465 64,432 64,963 65,719 1,223 1,211 1,206 0,953 1,186 1,176 1,038 1,173 1,206 1,211 1,205 1,197 1,278 1,204 1,231 1,287 1,193 1,003 1,162 1,198 1,205 1,146 1,177 1,201 1,193 1,330 1,199 1,204 1,194 1,138 1,205 1,204 1,222 1,238 1,209 0,234 1,172 1,194 1,206 1,221 0,106 1,266 1,195 1,235 1,190 1,202 1,204 1,429 1,195 1,200 1,195 1,201 1,199 0,291 1,195 1,341 1,204 1,195 1,195 1,204 1,217 1,194 1,201 1,460 1,179 1,222 1,131 38,317 38,151 38,282 38,306 38,335 38,282 38,255 38,282 38,143 38,342 38,594 38,328 38,226 38,209 38,231 38,115 38,384 38,348 38,457 38,291 38,176 38,205 38,375 38,209 38,282 38,392 38,282 38,348 38,249 38,121 38,255 38,136 38,325 38,127 38,303 38,217 38,282 37,950 38,274 38,282 38,302 38,176 38,545 38,452 38,457 38,260 38,282 38,282 38,220 38,314 38,273 38,325 38,209 38,063 38,365 38,209 38,472 38,282 38,209 38,282 38,176 38,308 38,330 38,260 38,282 38,282 38,325 PPGME/UFPA A.1 Introdução 151 Tabela A.4 Continuação da Tabela A.3 SILVA, F.L. Y1 Y2 X1 X2 X3 Nivel de Umidade (%) Soda (%) Vazão de Condensado (m3 /h) Vazão de Vapor (t/h) Rotação (%) 6,000 5,480 7,910 5,010 5,610 5,450 5,590 6,220 4,280 6,150 5,690 6,650 5,400 9,310 5,030 5,280 9,420 5,710 7,350 6,190 5,810 5,240 3,880 4,720 6,410 6,760 7,050 6,340 7,330 5,210 6,260 7,120 5,420 6,550 6,870 5,330 6,230 4,200 5,690 6,700 4,930 6,480 7,340 4,800 5,470 7,050 4,930 4,760 5,160 4,030 3,800 7,000 4,420 4,640 9,190 6,570 4,760 4,970 4,740 6,520 5,480 5,100 6,200 5,870 4,120 6,390 7,560 4,610 0,010 0,150 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,050 0,010 0,010 0,010 0,010 0,020 0,010 0,010 0,010 0,010 0,020 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,020 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,020 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,110 0,020 0,010 0,010 0,010 0,020 0,010 0,010 0,010 0,010 0,010 0,090 0,010 0,010 0,140 0,010 64,604 55,811 59,889 65,180 57,350 65,170 62,143 63,662 68,176 65,507 60,966 51,049 66,432 62,475 54,858 59,946 49,604 64,666 65,381 65,038 65,230 69,913 64,671 68,363 63,314 65,560 64,592 65,330 64,967 65,054 67,462 65,598 64,890 64,370 64,266 65,686 64,846 64,212 62,608 66,417 65,477 61,602 65,416 63,768 64,285 52,664 0,133 0,133 65,890 58,402 62,645 51,349 64,274 67,367 67,367 70,406 69,762 55,557 64,273 65,143 65,165 66,271 66,547 64,246 64,991 63,421 65,829 65,212 1,303 1,190 1,169 1,196 1,204 1,320 1,272 1,296 1,276 1,202 1,199 0,790 1,213 1,195 1,257 1,195 0,786 1,204 1,211 1,200 1,193 1,499 1,195 1,207 1,257 1,179 1,199 1,206 1,206 0,664 1,202 0,681 1,202 1,186 1,210 1,250 1,199 1,204 1,186 0,178 1,210 1,198 1,172 1,211 1,497 1,213 0,023 0,023 1,322 1,284 1,294 1,474 1,803 1,502 1,502 1,309 0,886 0,801 1,189 1,176 1,179 1,292 1,362 1,284 1,214 1,023 1,143 1,484 38,393 38,672 38,511 38,472 38,624 38,438 38,295 38,438 38,421 38,472 40,366 40,352 38,399 38,245 38,324 38,344 40,258 40,556 40,309 40,444 40,294 40,405 40,425 38,844 38,528 38,560 38,171 38,230 38,125 38,097 38,317 38,282 38,136 38,282 38,563 38,588 38,249 38,398 38,272 38,238 38,398 38,368 38,249 38,465 38,513 38,282 37,950 37,950 38,282 38,263 38,278 38,231 38,115 38,545 38,545 38,230 38,166 38,009 38,422 38,325 38,219 38,026 38,196 38,332 38,282 38,398 38,369 38,261 PPGME/UFPA A.1 Introdução 152 Tabela A.5 Continuação da Tabela A.4 SILVA, F.L. Y1 Y2 X1 X2 X3 Nivel de Umidade (%) Soda (%) Vazão de Condensado (m3 /h) Vazão de Vapor (t/h) Rotação (%) 6,380 6,630 4,860 5,150 5,260 7,010 6,370 4,600 6,200 6,210 5,480 7,410 4,160 4,880 5,900 4,640 3,090 3,080 4,430 8,630 4,410 5,990 5,200 3,180 6,140 5,940 3,650 4,460 7,200 4,360 5,180 5,900 7,570 4,420 5,930 5,700 5,420 5,760 5,240 6,630 6,460 5,000 4,850 6,750 6,040 4,560 6,480 6,160 5,880 5,150 5,740 8,060 7,830 3,940 4,210 3,970 7,690 4,290 5,880 5,600 6,200 4,980 8,340 2,490 4,150 4,270 5,020 4,850 5,100 7,360 4,720 5,890 3,930 3,900 3,900 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,040 0,010 0,010 0,010 0,010 0,080 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,020 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,020 0,010 0,010 0,010 0,010 0,010 0,010 0,260 0,010 0,020 0,010 0,010 0,010 0,010 0,010 63,514 60,801 62,568 65,089 72,932 57,791 65,011 67,268 51,745 60,960 64,730 65,665 65,309 65,235 67,225 68,969 64,840 66,742 65,378 68,291 65,141 65,671 64,350 50,947 66,251 66,021 64,771 66,025 64,347 66,531 67,157 64,975 66,340 62,569 65,263 59,164 60,412 64,744 65,205 66,752 65,169 65,064 64,753 64,493 65,208 64,332 60,176 64,588 64,660 65,392 64,873 65,165 65,137 65,466 65,135 66,132 66,002 64,183 65,192 64,441 64,410 64,326 64,627 54,180 61,016 64,986 61,695 65,099 64,400 65,807 64,551 64,930 64,192 65,802 64,675 1,287 1,320 1,323 1,175 1,280 1,175 1,226 1,616 1,300 1,194 1,402 1,189 1,202 1,296 1,195 1,204 1,187 1,502 0,626 1,344 1,206 1,195 1,196 1,199 1,201 1,296 1,291 1,503 1,195 1,193 1,190 1,200 1,199 0,502 1,226 1,199 1,218 1,176 1,179 1,198 1,209 1,215 1,235 1,261 1,194 1,195 1,161 1,200 1,292 1,289 1,204 1,190 1,282 1,183 1,156 1,315 1,015 1,234 0,970 0,986 1,305 1,332 1,502 1,341 0,212 1,217 1,213 1,212 1,196 1,061 1,314 1,303 1,190 1,199 1,195 38,209 38,381 38,188 38,252 38,249 38,329 38,372 38,398 38,391 38,260 38,208 38,184 38,198 38,498 38,249 38,187 38,325 38,200 38,397 37,983 38,249 37,997 38,257 38,249 38,209 38,236 38,613 38,236 38,282 38,398 38,198 38,249 30,502 30,584 30,256 38,207 38,282 38,282 38,164 38,221 38,167 38,230 38,249 38,282 38,176 38,220 38,249 38,200 38,282 38,335 38,282 38,365 38,408 38,209 38,282 38,176 38,327 38,063 38,282 38,282 38,080 38,249 38,365 38,367 37,420 38,289 38,282 38,209 38,014 38,063 38,511 38,176 38,141 38,281 38,345 PPGME/UFPA A.1 Introdução 153 Tabela A.6 Continuação da Tabela A.5 SILVA, F.L. Y1 Y2 X1 X2 X3 Nivel de Umidade (%) Soda (%) Vazão de Condensado (m3 /h) Vazão de Vapor (t/h) Rotação (%) 4,980 3,810 5,170 6,240 7,180 5,700 4,070 7,040 5,950 5,530 5,430 3,500 6,450 5,410 5,640 2,570 6,450 4,980 3,400 6,430 7,040 5,870 3,340 5,060 6,410 7,400 4,370 7,390 3,420 4,500 3,360 3,450 4,530 3,630 3,780 6,150 4,070 7,150 3,910 7,500 5,900 3,400 6,330 4,300 6,500 3,290 3,390 6,030 4,500 5,250 5,500 3,140 5,200 3,530 6,250 4,770 2,810 4,300 5,190 3,860 4,270 4,560 4,980 2,700 4,200 4,430 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,020 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,030 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 64,840 65,101 64,903 65,949 64,730 64,298 65,453 60,978 60,896 58,298 65,497 65,222 60,614 67,048 60,628 60,032 57,116 59,561 59,777 60,476 59,949 59,836 54,300 49,408 56,111 55,027 54,540 54,672 65,675 64,726 58,847 59,861 66,604 59,229 64,963 59,504 58,664 64,666 47,558 64,832 64,955 65,406 63,444 66,684 58,684 64,520 64,960 55,952 61,659 64,931 64,964 60,019 60,086 60,387 60,683 60,320 59,869 55,385 60,301 59,571 64,343 59,149 60,000 60,088 60,682 64,910 1,204 1,204 1,026 1,208 1,205 1,219 1,204 1,201 0,312 1,320 1,196 1,184 1,300 1,197 1,318 1,225 1,234 0,339 1,225 1,152 1,238 1,196 1,204 1,210 1,204 1,203 1,396 1,296 1,177 1,378 1,369 1,195 0,390 1,168 1,195 1,497 1,355 1,209 1,413 1,208 1,204 1,191 1,199 1,213 1,190 1,236 1,204 0,335 1,360 1,209 1,177 1,226 1,314 1,208 1,492 1,195 0,655 1,195 1,190 1,204 1,204 1,300 0,677 1,213 1,208 1,309 38,233 38,022 38,099 38,203 38,116 38,136 38,136 38,017 38,218 38,379 38,201 38,223 38,277 38,514 38,176 38,120 38,282 37,983 38,282 37,950 38,168 38,148 38,063 38,043 37,983 38,176 37,988 38,026 38,136 37,993 38,142 38,136 38,064 38,356 38,026 37,983 38,063 37,950 37,875 38,176 38,175 38,180 37,983 38,209 38,137 38,249 38,282 38,136 38,249 37,983 38,282 38,209 38,282 38,142 38,176 37,983 38,802 38,282 38,249 38,176 38,279 38,249 38,282 38,209 38,141 38,249 PPGME/UFPA A.1 Introdução 154 Tabela A.7 Continuação da Tabela A.6 SILVA, F.L. Y1 Y2 X1 X2 X3 Nivel de Umidade (%) Soda (%) Vazão de Condensado (m3 /h) Vazão de Vapor (t/h) Rotação (%) 2,760 4,530 4,880 4,870 4,970 4,140 4,860 4,960 7,590 4,080 4,080 5,770 6,120 5,190 4,670 5,860 4,740 4,000 8,110 6,670 6,040 8,600 5,840 5,580 3,940 6,050 5,810 4,090 3,880 4,610 5,850 5,670 5,730 6,350 5,760 5,120 6,560 4,630 6,690 4,380 4,340 7,180 6,910 5,600 5,910 4,630 6,470 4,540 5,410 4,070 3,130 5,850 5,670 5,730 6,350 5,760 5,120 6,560 4,630 6,690 4,380 4,340 7,180 6,910 5,600 5,910 4,630 6,470 4,540 5,410 4,070 3,130 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,030 0,010 0,010 0,010 0,050 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,190 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,300 0,010 0,010 0,030 0,010 0,010 0,160 0,010 0,030 0,080 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,300 0,010 0,010 0,030 0,010 0,010 0,160 0,010 0,030 0,080 0,010 0,010 0,010 0,010 0,010 0,010 0,010 0,010 65,119 60,395 59,017 60,383 54,759 60,239 59,941 64,739 64,472 61,365 58,325 59,415 60,239 59,941 60,353 69,019 59,746 59,264 60,541 14,532 59,360 65,053 64,324 64,817 55,364 65,343 64,792 65,389 65,228 65,490 65,325 64,922 65,157 65,119 64,592 64,963 61,814 64,925 64,739 66,709 64,817 64,331 64,212 65,202 65,192 63,065 29,435 29,435 29,435 65,179 64,890 65,325 64,922 65,157 65,119 64,592 64,963 61,814 64,925 64,739 66,709 64,817 64,331 64,212 65,202 65,192 63,065 29,435 29,435 29,435 65,179 64,890 1,190 0,275 0,333 1,172 1,254 1,254 1,172 1,186 1,182 1,176 1,218 1,195 1,176 1,195 1,296 1,227 1,221 1,176 1,479 0,218 1,276 1,227 1,182 1,350 1,190 1,341 1,172 1,204 1,189 1,209 1,190 1,188 1,223 1,373 1,218 1,227 1,332 1,178 1,204 1,006 1,218 1,474 1,314 1,176 1,222 1,211 1,373 1,373 1,373 1,222 1,190 1,190 1,188 1,223 1,373 1,218 1,227 1,332 1,178 1,204 1,006 1,218 1,474 1,314 1,176 1,222 1,211 1,373 1,373 1,373 1,222 1,190 38,249 38,026 38,065 38,173 38,136 38,209 38,063 38,209 38,267 38,365 38,282 38,365 38,282 38,176 38,282 38,209 38,206 38,249 38,249 38,046 38,249 38,171 38,218 38,176 38,209 38,472 38,249 38,295 39,448 39,335 39,189 39,290 38,219 38,176 38,136 38,209 37,983 38,141 38,624 38,795 38,209 38,398 38,282 39,262 39,750 38,365 38,136 38,136 38,136 38,484 39,372 39,189 39,290 38,219 38,176 38,136 38,209 37,983 38,141 38,624 38,795 38,209 38,398 38,282 39,262 39,750 38,365 38,136 38,136 38,136 38,484 39,372 PPGME/UFPA Bibliografia ABRALATAS. Fluxo de Produção de Alunı́nio. Disponı́vel em http : //www.abralatas.org.br/f lash/F luxo− prod− aluminio.swf. Acesso em: 15 de Março de 2007. AKAIKE, H. Maximum Likelihood Identification of Gaussian Autoregressive Moving Average Models. Biometrika, 1973, 60, 255-265 AKAIKE, H. A New Look at The Statistical Model Identification. IEEE, Transactions an Automatic Control, 1974, AC-19, 716-723 AKAIKE, H. On Entropy Maximization Principle. In Aplications of Statistics.(P.R. Krishnariah, Ed.), 27-41. Amsterdam: North-Hollend, 1977. BERMAM, C. Consumo de Energia Elétrica. Disponı́vel em http //www.socioambiental.org/manchetes/indexh tml. Acesso em: 7 de Agosto de 2007. : BERTASI, D. e SIQUEIRA, M. L. Reconhecimento de Caracteres Utilizando Redes Neurais Artificiais, Porto Algre, Dezembro 1999 BOX, G. E. P. and JENKINS, G.M. Time Series Analysis: Forecasting and Control Third Edition. Englewood Cliffs: Prentice Hall, 1994. BROCKLEBANK, J. C. and DICKEY, D. A. SAS System for Forecasting Time Series. SAS Institute Inc, Cary, NC, USA, 1986. CERQUEIRA, E. O. ANDRADE, J. C. e POPPI, R, J Redes Neurais e suas Aplicações em Calibração Multivariada, São Paulo, 2001. DAHMER, A. Segmentação de Imagens Ecocardiográficas Utilizando Redes Neurais e Medidas de Textura, Porto Alegre: CPGCC, 1998. Dissertação de Mestrado. Estudo Sobre Inteligência Artificial, 2006.Disponivel www.citi.pt/educacao− f inal/trab− f inal − inteligencia− artif icial/ia.html. Acesso em: 17 de Outubro de 2006 em: Efeito Estufa e Aquecimento Global. Disponivel em: http : //paginas.terra.com.br/lazer/staruck/ef eitoestuf a.htm. Acesso em: 22 de Novembro de 2007. FERNANDES, L. G. L. PORTUGAL, M. S. e NAVAUX, P. O. A Previsão de Séries de Tempo: Redes Neurais Artificiais e Modelos Estruturais, Rio Grande do Sul, 1995 156 FERNANDES, L. G. L. Utilização de Redes Neurais na Análise de Séries Temporais, Porto Alegre: CPGCC, 1995. Dissertação de Mestrado. GUIMARÃES, B. B. e NETO, F. R. Redes Neurais para a Previsão de Índices do Mercado de Ações: uma análise do trabalho de Amol S. Kulkarni,Artigo, UFBA - Salvador - Bahia. HECHT - NIELSEN, R. Neurocomputing: Addison Wesley Publ. Co., New York, 1990. HAGAN, Martin T. e MENHAJ, Mohammed B. (1994). Training Feedforward Networks with the Marquardt Algorithm . IEEE Transactions on Neural Networks, v.5, n.6. HAIKIN, S. Redes Neurais - Princı́pios e Prática, Porto Alegre: Editora Bookman, 2001. HAMILTON, J. D. Time Series Analysis Princeton University Press, Princeton New Jersey, 1994. HERNANDEZ, E. D. L. Inteligência Computacional e Redes Neurais em Engenharia Elétrica, São Paulo: PSI-EPUSP, 2005. HINES, J. W. MATLAB Supplement to Fuzzy and Neural Approaches in Engineering LIMÃO, R. C.Rede Neural com Dinâmica Interna Aplicada a Problemas de Identificação e Controle Não-Linear, Santa Catarina: UFSC, 1999. MORETTIN, P. A. e TOLOI, C. M. C. Análise de Séries Temporais, Edgard Blücher, São Paulo, 2004. MORETTIN, P. A. e TOLOI, C. M. C. Previsão de Séries Temporais. São Paulo: Editora Atual. 1987. PALIT, A. K. and POPOVIC, D. Computational Intelligence in Time Series Forecasting Theory and Engineering Applications - Advances in Industrial Control. SpringerVerlag, 20053, p.1-142 PINHEIRO, J. R Funções de Tranferências - Notas - Disponı́vel em http://www.ufsm.br/gepoc/renes/Templates/arquivos/elc1031/ELC1031.L2.4.pdf - acesso em 27 de Setembro de 2007. PORTUGAL, M. S. e FERNANDES, L. G. L. Redes Neurais Artificiais e Previsão de Séries Econômicas: Uma Introdução, p. 22, 1994. PLANTULLO, V. L. Teoria Geral da Administração: De Taylor às Redes Neurais, p.172, Rio de Janeiro, 2001. RISSANEM, J. Modelling by Shortest data Description. Automatic, 14, 465-471, 1978. RICK, E. e KNIGHT, K. Inteligência Artificial, São Paulo - 2a edição: Makron Books do Brasil Editora Ltda, 2003. SANTOS, J. O Alumı́nio. 21-23 de maio de 2007. Disponı́vel em http://w3.ualg.pt/∼ ealmeida/Semin%C3%A1rios/U.algarve-%20EST-EXTRUSAL.pdf. Acesso em: 22 de SILVA, F.L. PPGME/UFPA 157 Fevereiro de 2007. SERTEC. Alumı́nio - o que é?. Disponı́vel em http://www.serteq.com.br/noticia.asp?codigo=146 &COD− MENU=50. Acesso em: 02 de Março de 2007. SCHWARTZ, G. Estimating the Dimension of a Model, Annals of Statistics, 6, 461464, 1978. SIMÕES, M. G. e SHAW, I. S. Controle e Modelagem Fuzzy, p. 165, São Paulo, 1999. SOUZA R. C. Modelos Estruturais para Previsão de Séries Temporais,IMPA-CNPQ Rio de Janeiro, 1989, 17o Colóquio Brasileiro de Matemática. SOUZA, A. N. SILVA, I. N e BORDON, M. E. Identificação de Processos de Ensaios de Alta Tensão Através de Redes Neurais Artificiais, São Paulo, 1999, IV Congresso Brasileiro de Redes Neurais, pag. 072-077. WEI, W. W. S Time Series Analysis - Univariate and Multivariate Methods, Departament of Statistics Temple University, 1989 WILOMAŃ SKA, A. Multivariate Time Series, Hugo Steinhaus Center Wroclaw University of Technology. Berlin, 2005. WYLOMANSKA, A. Multivariate Time Series, Hugo Steinhaus Center, Wroclaw University of Tecnology, Berlin, july 2005 KOIVO, H. N. Neural Networks: Basics Using MATLAB Neural Network Toolbox, February 2000 KOVÁCS, K. L. Redes Neurais Artificiais - Fundamentos e aplicaçães, Editora Acadêmica. São Paulo, 1996. SILVA, F.L. PPGME/UFPA