O Processo de Stavskaya com Comprimento Variável
Transcrição
O Processo de Stavskaya com Comprimento Variável
UNIVERSIDADE FEDERAL DE PERNAMBUCO ^ CENTRO DE CIENCIAS EXATAS E DA NATUREZA TESE DE DOUTORADO EM MATEMÁTICA COMPUTACIONAL O Processo de Stavskaya com Comprimento Variável Frank Sinatra Gomes da Silva Recife, agosto de 2013 O Processo de Stavskaya com Comprimento Variável Frank Sinatra Gomes da Silva Orientador: Andrei Toom Co-Orientador: Alex Dias Ramos Área de Concentração: Probabilidade Tese de Doutorado apresentada ao colegiado do curso de Pós-Graduacão em Matemática Computacional da Universidade Federal de Pernambuco, como requisito parcial para obtenção do Tı́tulo de Doutor em Matemática Computacional. Recife, agosto de 2013 Catalogação na fonte Bibliotecária Jane Souto Maior, CRB4-571 Silva, Frank Sinatra Gomes da O processo de Stavskaya com comprimento variável / Frank Sinatra Gomes da Silva. - Recife: O Autor, 2013. x, 63 f. : il., fig. Orientador: Andrei Toom. Tese (doutorado) - Universidade Federal de Pernambuco. CCEN, Matemática Computacional, 2013. Inclui bibliografia e apêndice. 1. Probabilidade. 2. Processos Estocásticos. I. Toom, Andrei (orientador). II. Título. 519.2 CDD (23. ed.) MEI2013 – 111 UNIVERSIDADE FEDERAL DE PERNAMBUCO CENTRO DE CI~?,NCIASEXATAS E DA NATUREZA DOUTORADO EM MATEMATICA COMPUTACIONAL "0PROCESSODE STAVSKAYA COM COMPRIMENTO VARH VEL" A Banca Examinadora composta pelos Professores: ANDRE1 TOOM (Orientador e Presidente d a Banca Examinadora), do Departamento de do Departamento de Estatistica da UFPE; GAUSS MOUTINHO CORDEIRO, Estatistica da UFPE; KLAUS LEITE PINTOVASCONCELLOS, do Departamento de LEMOS, do Departamento Estatistica da UFPE; MANOELJose MACHADOSOARES STOSIC,do Departamento de Estatistica e de Matematica d a UFPE; e BORKO Informatica d a UFRPE, considera o candidate: Secretaria do Programa de Doutorado em Matematica Computational do Centro de Ciencias Exatas e da Natureza d a Universidade Federal de Pernambuco, aos 12 dias do mes de agosto de 2013. - Av. Prof. Luls Barros Freire, s/no, Cidade Universithria - CEP: 50670-901 - Recife PE FONE/FAX: (81) 2126.8412- E-mail: [email protected] - Home Page: www.ppgmcufpe.br i Aos meus pais, Esequiel e Josefa. Agradecimentos A Deus e a seu filho Jesus, fonte de sabedoria. Aos meus pais pelo esforço em educar-me e a minha famı́lia. Ao Prezado Prof. Andrei Toom pela simplicidade e disponibilidade. Ao Prof. Dr. Alex Dias Ramos e a Profª. Dra. Caliteia Santana de Sousa pela atenção, paci^encia e disponibilidade com que me conduziram. Aos amigos e colegas de curso, entre eles: Ana Carla, Manoel Wallace e Ronaldo Ven^ancio, pelo companheirismo e partilha de vida e conhecimento. Aos professores do Programa de doutorado em Matemática Computacional pela partilha do conhecimento. Ao Prof. Dr. Klaus Vasconcellos pelo ensino da disciplina Probabilidade Avançada. Ao coordenador do Programa de Pós-Gradução em Matemática Computacional Prof. Dr. Sı́vio Melo pela atenção concedida aos alunos e ao vice coordenador deste programa Prof. Dr. Josenildo dos Santos. Às secretárias Heloisa Henrique da Silva e Conceição Couto pelo profissionalismo. Aos Professores Gauss Cordeiro, Klaus Vasconcellos, Manoel Lemos e Borko Stosic por suas contribuições a este trabalho. Ao meu compadre Dionı́sio e minha comadre Angela pelos agradáveis encontros nos fins de semana ajudando a suavisar minha jornada. ii Resumo Esta tese tem a intenção de ajudar a descobrir, até que ponto podemos confiar em simulações computacionais no estudo de processos aleatórios com interação local. Para isto, examinamos uma nova versão do bem conhecido processo de Stavskaya clássico, que é um processo em tempo discreto, análogo ao processo de contato. Tal como a maioria dos processos aleatórios estudados até agora, Stavskaya é de comprimento constante, isto é, seus componentes não aparecem ou desaparecem no decurso do seu funcionamento. O processo que estudamos aqui é similar ao de Stavskaya; ele também é de tempo discreto e seus estados também são sequ^encias bi-infinitas, cujos termos assumem apenas dois valores, que denotamos por ⊖ e ⊕, e a medida concentrada na configuração “todos mais”, que vamos denotar por 𝛿⊕ , também é invariante. Entretanto, o operador, chamado VarStav , estudado aqui, é de comprimento variável, ou seja, componentes podem aparecer ou desaparecer no decurso do seu funcionamento. O operador VarStav é uma composição dos seguintes dois operadores. O primeiro operador, chamado “nascimento”, cria uma nova componente no estado ⊕ entre cada duas componentes vizinhas com probabilidade 𝛽, independente do que acontece nos outros lugares. O segundo operador, chamado “Matança”, age assim: sempre que um ⊕ é vizinho esquerdo de um ⊖, ele desaparece (como se destruı́do pelo seu vizinho direito) com probabilidade 𝛼 independentemente dos estados de outros componentes. iii iv Provamos, para todo 𝛼 < 1 e 𝛽 > 0, que a sequ^encia de medidas 𝛿⊖ ( VarStav )𝑡 (o resultado de 𝑡 aplicações iterativas de VarStav na medida inicial 𝛿⊖ concentrada na configuração “todos menos”), tende para a medida 𝛿⊕ , concentrada na configuração “todos mais”, quando 𝑡 → ∞. Tal comportamento é frequentemente chamado ergódico. Entretanto, as simulações de Monte Carlo e aproximação do caos, que foram realizadas, comportam-se como se 𝛿⊖ ( VarStav )𝑡 tendesse a 𝛿⊕ mais lentamente para alguns valores de 𝛼, 𝛽 ∈ (0, 1), do que para outros. Baseados nestes resultados numéricos, conjecturamos que VarStav tem fase, mas não no sentido usual, como acontece no processo de Stavskaya clássico. Palavras-chave: Processos aleatórios, comprimento variável, aproximação do caos, ergodicidade, método Monte Carlo. Abstract This thesis is intended to help to figure out, to which extent may we rely on computer simulations in the study of random processes with local interaction. For this purpose we examine a new version of the well-known Stavskaya process, which is a discrete-time analog of the well-known contact processes. Like the bulk of random processes studied till now, Stavskaya process is constant-length, that is its components do not appear or disappear in the course of its functioning. The process, which we study here, is similar to Stavskaya; it is also discrete-time and its states also are bi-infinite sequences, whose terms take only two values, which we denote by “minus”and “plus”, and the measure concentrated in the configuration “all pluses”also is invariant. However, the operator, called VarStav and studied here, is variable-length, which means that components may appear and disappear in the course of its functioning. The operator VarStav is a composition of the following two operators. The first operator, called “birth”, creates a new component in the state “plus”between every two neighboring components with probability 𝛽 independently from what happens at other places. The second operator, called “murder”, acts thus: whenever a plus is a left neighbor of a minus, this plus disappears (as if killed by its right neighbor) with probability 𝛼 independently from states of other components. We prove for all 𝛼 < 1 and 𝛽 > 0 that the sequence of measures 𝛿⊖ ( VarStav )𝑡 (the result of 𝑡 iterative applications of VarStav to the initial measure 𝛿⊖ concentrav vi ted in the configuration “all minuses”) tends to the measure 𝛿⊕ concentrated in the configuration ”all pluses”as 𝑡 → ∞. Such behavior is often called ergodic. However, the Monte Carlo simulations and Chaos approximations, which we performed, behave as if 𝛿⊖ ( VarStav )𝑡 tended to 𝛿⊕ much slower for some 𝛼, 𝛽 ∈ (0, 1) than for some others. Based on these numerical results, we conjecture that VarStav has phases, but not in that simple sense as the classical Stavskaya process. Key words: particle random process, variable length, Monte Carlo, Chaos approximation, mean-field approximation, metastability. Sumário 1 Introdução 1.1 O Processo de Stavskaya Clássico: sua origem e propriedades . . . . 1.1.1 1.2 3 O processo de Stavskaya clássico: modelagem computacional 10 Descrição de nosso processo . . . . . . . . . . . . . . . . . . . . . . 11 1.2.1 Redução para o processo Singular . . . . . . . . . . . . . . . 12 2 Teorema principal 2.1 8 15 Prova do Teorema principal . . . . . . . . . . . . . . . . . . . . . . 15 2.1.1 Medidas sobre Z+ . . . . . . . . . . . . . . . . . . . . . . . . 17 2.1.2 Passos e escadas . . . . . . . . . . . . . . . . . . . . . . . . . 19 2.1.3 𝒩 -operadores . . . . . . . . . . . . . . . . . . . . . . . . . . 21 2.1.4 Os 𝒩 -operadores Sing e Sing 𝑟 . . . . . . . . . . . . . . . . 29 2.1.5 A medida invariante de Sing 𝑟 . . . . . . . . . . . . . . . . . 34 3 Aproximação do caos 38 3.1 Aproximação do caos para o PSC . . . . . . . . . . . . . . . . . . . 39 3.2 Aproximação do caos para o PSCV . . . . . . . . . . . . . . . . . . 43 vii viii 4 Simulação de Monte Carlo do processo Singular 4.1 48 ̂︀ Simulação de IE(𝑚𝑎𝑥(𝑆 𝑡 )) . . . . . . . . . . . . . . . . . . . . . . . 51 5 Conclusões 56 A Cálculos da aproximação do caos para o PSCV 58 Lista de Figuras 2.1 Os cı́rculos pretos mostram os valores de 𝜆𝑟 que é a medida invariante normalizada do 𝒩 -operador Sing 𝑟 para o caso 𝑞 = 3 e 𝑟 = 8 em escala logarı́tmica. As linhas ligando os pontos pretos são apenas para auxiliar a impressão visual. A parte esquerda do gráfico com números de zero até 𝑞 − 1 representa a garrafa onde o g^enio do folclore árabe foi inicialmente capturado. Leva muito tempo para ele alcançar o gargálo 𝑞, mas uma vez que ele o atinge, ele facilmente cresce exponencialmente. . . . . . . . . . . . . . . . . . . . . . . . 31 3.1 Comportamento limite para a aproximação do caos no PSC. . . . . 42 3.2 Comportamento limite para a aproximação do caos no PSCV. . . . 47 4.1 Estimação das linhas de transição entre ergodicidade e não ergodicidade para PSCV, obtidas pela aproximação do caos (caos) e Método de Monte Carlo (M.C.) . . . . . . . . . . . . . . . . . . . . . . . . . 51 4.2 Comportamento da estimativa da média de 𝑚𝑎𝑥(𝑆𝑡 ), para 𝛼 = 0, 1 𝑖, 𝑖 = 1, 2, . . . , 9 e 𝛽 variando de 0 até 0, 13. Para cada par de 𝛼 e 𝛽, foram realizados 100 experimentos independentes. . . . . . 54 4.3 Gráfico que mostra, para 𝛼 = 0, 5 e 𝛽 = 0, 02, os valores de 𝑆𝑡 , na simulação do processo Singular . . . . . . . . . . . . . . . . . . . . 55 ix Lista de Sı́mbolos Conjunto dos números inteiros não negativos, p.4. Conjunto dos números inteiros, p.4. Conjunto dos números reais, p.4. Alfabeto, um conjunto finito, não vazio, formado por letras, p.4. Z 𝒜 Espaço configuracional, p.4. 𝑊 Palavra, uma sequ^encia finita de letras, p.4. |𝑊 | Comprimento da palavra 𝑊 , p.4. Λ Palavra vazia, p.4. 𝑑𝑖𝑐(𝒜) Dicionário, conjunto de palavras em 𝒜, p.4. 𝑐𝑜𝑛𝑐𝑎𝑡(𝑊1 , 𝑊2 , . . . , 𝑊𝑛 ) Concatenação das palavras 𝑊1 , 𝑊2 , . . . , 𝑊𝑛 , p.4. 𝜇(𝑊 ) Frequ^encia relativa da palavra 𝑊 em uma medida 𝜇, p.5. ℳ𝒜 Conjunto das medidas uniformes em 𝒜, p.5. 𝛿𝑎 Medida concentrada na configuração “todos 𝑎”, p.6. 𝛿𝑛 Medida de probabilidade concentrada no estado 𝑛 ∈ Z+ , p.13. Z Z 𝐷 : 𝒜 −→ 𝒜 Operador determinı́stico, age em configurações, p.6. 𝐴 : ℳ𝒜 −→ ℳ𝒜 Operador aleatório, age em medidas, p.6. Z𝑛 Classe dos restos módulo n, p.10. IE(𝑇 ) Esperança da variável aleatória 𝑇 , p.10. 𝒞 Operador caótico, p.38. 𝑡 𝑓 A 𝑡–ésima iteração de 𝑓 , p.39. 𝑈 Variável aleatória com distribuição uniforme no intervalo (0, 1), p.28. Bin (𝑛, 𝑝) Variável aleatória com distribuição binomial com par^ametros 𝑛 e 𝑝, p.28. Z+ Z R 𝒜 x 1 𝜇𝑛 𝜌 𝑉 −→ 𝑊 𝒩 Δ𝑏𝑖𝑟𝑡ℎ Flip 𝛽 𝜇(𝑦 𝑥) conf 𝐿 𝑆 Stav Birth inter Murder inter 𝛽 Λ −→ ⊕ 𝛼 ⊕⊖ −→ ⊖ VarStav Single Birth Murder S𝑡 Sing Sing 𝑟 𝜆𝑟 M Sequ^encia de medidas sobre Z+ , p.18. Notação para operadores de substituição, em que 𝑉, 𝑊 são palavras e 𝜌 ∈ [0, 1], p.8. Conjunto de medidas de probabilidade sobre Z+ , p.13. Variável binomial definida a partir de Birth, p.13. Operador de interação aletório com comprimento constante, usado no PSC, p.8. Probabilidade condicional de ir ao estado 𝑦 a partir de 𝑥, p.13. Qualquer configuração em {⊖, ⊕}Z , p.14. Conjunto inferior em Z+ , p.17. Conjunto superior em Z+ , p.17. Operador de interação determinı́stico com comprimento constante, usado no PSC, p.8. Operador de interação nascimento, p.11. Operador de interação matança, p.11. Operador de interação nascimento na notação de operadores de substituição, p.11. Operador de interação matança na notação de operadores de substituição, p.11. Operador de interação que define nosso processo, p.12. 𝒩 -operador Singular, p.13. 𝒩 -operador Nascimento, p.13. 𝒩 -operador Matança, p.13. Variável aleatória com distribuição 𝛿0 ( Single )𝑡 , 𝑝.15. 𝒩 -operador local chamado sing, p.29. 𝒩 -operador local definido a partir de Sing , p.30. Medida invariante normalizada de Sing 𝑟 , p.34. Matriz de transição definida a partir de Sing 𝑟 , p.34. 2 I 0 𝛽 * (𝛼) max(𝑆𝑡 ) Ø i.i.d. ̂︀ IE(𝑚𝑎𝑥(𝑆 𝑡 )) Matriz Identidade de ordem 𝑟 + 1, p.35. Matriz Nula com 𝑟 + 1 colunas, p.35. Valor crı́tico na aproximação do caos para o nosso processo, p.43. Máximo do procedimento imitação, para 𝑡 de zero a 10000, p.52. Medida nula, p.21. Independente e identicamente distribuı́do, p.28. Estimativa da média de max(𝑆𝑡 ), p.52. Capı́tulo 1 Introdução Até que ponto podemos confiar em simulação computacional no estudo de processos aleatórios? A import^ancia desta questão é inegável. A famosa abordagem de Kolmogorov-Smirnov e suas modificações posteriores, especialmente aquelas multidimensionais (veja por exemplo [13] e trabalhos citados nele), são muito importantes. O número de dimensões em muitos estudos de processos aleatórios, de acordo com nossas observações, é fixo e frequentemente pequeno, enquanto que em processos com interação local ele é infinito (em estudos teóricos) ou grande (em simulações computacionais). Embora alguns estudos valiosos tenham sido conduzidos na área de processos aleatórios (veja, por exemplo [1, 3, 4, 10, 11, 12]), ainda não temos uma teoria geral. Neste contexto, a construção de diversos exemplos pode ser útil para a compreensão destas ideias. A meta desta tese é estudar um exemplo de um novo tipo, isto é, um processo de comprimento variável, para ilustrar um aparente conflito entre simulação computacional de processos aleatórios e seu estudo teórico. O processo que estudamos aqui é de comprimento variável, isto é, seus componentes podem aparecer ou desaparecer ao longo de seu funcionamento. Algumas classes destes processos t^em sido estudadas em [15, 16, 17, 18, 30, 31, 32]. A base teórica para esses estudos foi estabelecida em [20, 33]. 3 4 Como no processo de Stavskaya clássico, nosso processo é uma disputa entre duas tend^encias, nascer ou morrer, ou seja: por um lado ⊕ “nascem”, mas por outro lado, eles são “assassinados” e desejamos descobrir qual tend^encia prevalecerá. Ao longo do texto vamos denotar R como sendo o conjunto dos números reais, Z o conjunto dos números inteiros e Z+ o conjunto dos inteiros não negativos. O conjunto finito e não vazio 𝒜 será chamado de alfabeto e seus elementos de letras. Uma sequ^encia finita de letras será chamada palavra e uma palavra genérica será indicada por 𝑊 . Denotamos por |𝑊 | o comprimento da palavra 𝑊 , que é definido pelo número de letras que a constitui. A palavra vazia, cujo comprimento é zero, será representada por Λ. O conjunto de palavras em um alfabeto 𝒜 é chamado dicionário de 𝒜 e denotado por 𝑑𝑖𝑐(𝒜). Dada uma sequ^encia de palavras 𝑊1 , 𝑊2 , . . . , 𝑊𝑛 , indicamos por 𝑐𝑜𝑛𝑐𝑎𝑡(𝑊1 , 𝑊2 , . . . , 𝑊𝑛 ) e denominamos sua concatenação a palavra obtida escrevendo todas essas palavras uma após a outra na ordem em que foram listadas. Por exemplo, a concatenação de 𝑊1 = (𝑎1 , 𝑎2 , . . . , 𝑎𝑛 ) e 𝑊2 = (𝑏1 , 𝑏2 , . . . , 𝑏𝑚 ), é a palavra, (𝑎1 , 𝑎2 , . . . , 𝑎𝑛 , 𝑏1 , 𝑏2 , . . . , 𝑏𝑚 ), cujo comprimento é igual a 𝑛 + 𝑚. Note que, quando a palavra vazia é concatenada com qualquer palavra 𝑊 , o resultado é a palavra 𝑊 . Formalmente, ∀ 𝑊, 𝑐𝑜𝑛𝑐𝑎𝑡(Λ, 𝑊 ) = 𝑐𝑜𝑛𝑐𝑎𝑡(𝑊, Λ) = 𝑊, (1.1) ou seja, a palavra vazia é o elemento neutro para a operação de concatenação. Denominamos de espaço o conjunto dos números inteiros Z, cujos elementos são as componentes. Vamos denotar 𝒜Z o espaço configuracional o qual é o conjunto de sequ^encias bi-infinitas cujos termos são elementos de 𝒜. Denomina-se cilindro fino definido pelos 𝑎𝑖’𝑠 ao conjunto 𝒞 da forma 𝒞 = {𝑥 ∈ 𝒜Z : 𝑥𝑖 = 𝑎𝑖 , ∀𝑖 ∈ [𝑚, 𝑛]}, (1.2) 5 em que 𝑎𝑖 ∈ 𝒜 e 𝑚, 𝑛 ∈ Z, 𝑚 ≤ 𝑛. Na 𝜎–álgebra gerada por esses cilindros finos vamos considerar medidas de probabilidade, ou seja, medidas normalizadas em 𝒜Z . Denominamos uma medida de uniforme se esta é invariante sob translações. Com uma medida uniforme 𝜇 e uma palavra qualquer 𝑊 = (𝑎1 , 𝑎2 , . . . , 𝑎𝑛 ) podemos escrever, para todo 𝑖 ∈ Z, 𝜇(𝑊 ) = 𝜇(𝑎1 , 𝑎2 , . . . , 𝑎𝑛 ) = 𝜇(𝑥𝑖+1 = 𝑎1 , 𝑥𝑖+2 = 𝑎2 , . . . , 𝑥𝑖+𝑛 = 𝑎𝑛 ), (1.3) em que 𝑎1 , 𝑎2 , . . . , 𝑎𝑛 é uma sequ^encia de letras que formam a palavra 𝑊 . Vamos indicar por ℳ𝒜 o conjunto de medidas uniformes em 𝒜Z e, por converg^encia em ℳ𝒜 , a converg^encia em todas as palavras de 𝑑𝑖𝑐(𝒜). Portanto a primeira igualdade em (1.3) serve como notação abreviada para qualquer medida uniforme normalizada em ℳ𝒜 . Como 𝜇 é uniforme e independe de 𝑖, a equação (1.3) é a frequ^encia relativa da palavra 𝑊 nessa medida. Por exemplo, se 𝑊 = {𝑎} então 𝜇(𝑊 ) = 𝜇(𝑎) é a frequ^encia relativa da letra 𝑎 na medida 𝜇. Para 𝜇(𝑊 ) ser consistente devemos ter, ∀ 𝑊 ∈ 𝑑𝑖𝑐(𝒜), 𝜇(𝑊 ) ≥ 0 e ∑︁ ∑︁ 𝜇(𝑊 ) = 𝜇(𝑊, 𝑎) = 𝜇(𝑎, 𝑊 ), 𝑎∈𝒜 (1.4) 𝑎∈𝒜 em que (𝑊, 𝑎) e (𝑎, 𝑊 ) podem ser entendidos como concatenações da palavra 𝑊 com a palavra formada pela letra 𝑎 em que esta última se encontra em duas posições possı́veis. Suponhamos, por simplicidade, que 𝑊 = Λ e 𝒜 = {𝑎1 , 𝑎2 }. Dessa forma, usando (1.4), podemos escrever que 𝜇(Λ) = 𝜇(Λ, 𝑎1 ) + 𝜇(Λ, 𝑎2 ). (1.5) Considerando (1.5) e usando (1.1), obtemos 𝜇(Λ) = 𝜇(𝑎1 ) + 𝜇(𝑎2 ). Como 𝜇(𝑎1 ) + 𝜇(𝑎2 ) = 1, (1.6) 6 temos que 𝜇(Λ) = 1, ou seja, a medida 𝜇 sobre a palavra vazia é 1. Denominamos uma 𝛿–medida e indicamos por 𝛿𝑎 a medida concentrada na configuração em que todas as componentes são iguais a 𝑎, em que 𝑎 ∈ 𝒜. A seguir, vamos definir operadores determinı́sticos e aleatórios. Um operador determinı́stico 𝐷 é uma função que leva configurações em configurações, ou seja, 𝐷 : 𝒜Z −→ 𝒜Z age em configurações. Seja 𝑗1 , 𝑗2 , . . . , 𝑗𝑛 ∈ Z uma lista a qual denominamos vetores vizinhos e sejam 𝑗 + 𝑗1 , 𝑗 + 𝑗2 , . . . , 𝑗 + 𝑗𝑛 os pontos aos quais denominamos os vizinhos de j. 𝐷 transforma qualquer configuração 𝑥 em uma configuração 𝐷𝑥, em que a 𝑥𝑗 –ésima coordenada é (𝐷𝑥)𝑗 = 𝑓 (𝑥𝑗+𝑗1 , 𝑥𝑗+𝑗2 , . . . , 𝑥𝑗+𝑗𝑛 ) (1.7) ∀𝑗 ∈ Z e 𝑓 uma função de 𝒜𝑛 em 𝒜. Um operador 𝐴 é denominado aleatório ou probabilı́stico se ele age em medidas, isto é, 𝐴 : ℳ𝒜 −→ ℳ𝒜 . Definiremos definir monotonicidade para esses operadores. Primeiro para o determinı́stico. Seja 𝑥, 𝑦 ∈ 𝒜Z . Dizemos que a configuração 𝑥 precede (sucede) a configuração 𝑦 e indicamos 𝑥 ≺ 𝑦 (𝑥 ≻ 𝑦), quando 𝑥𝑖 ≤ 𝑦𝑖 (𝑥𝑖 ≥ 𝑦𝑖 ) para todo 𝑖 ∈ Z. Dizemos que 𝐷 é monótono se 𝑥 ≺ 𝑦 =⇒ 𝐷𝑥 ≺ 𝐷𝑦. Equivalentemente, como 𝐷 é definido em termos de 𝑓 em (1.7), definimos, também, que 𝑥1 ≤ 𝑦1 , · · · , 𝑥𝑛 ≤ 𝑦𝑛 =⇒ 𝑓 (𝑥1 , · · · , 𝑥𝑛 ) ≤ 𝑓 (𝑦1 , · · · , 𝑦𝑛 ). Vamos agora definir para o operador aleatório. Uma função real 𝐹 sobre 𝒜Z é denominada monótona quando 𝑥 ≺ 𝑦 =⇒ 𝐹 (𝑥) ≤ 𝐹 (𝑦). Seja 𝜇 e 𝜈 duas medidas sob nosso espaço configuracional. Dizemos que 𝜇 ≺ 𝜈 se 7 para cada função monótona 𝐹, temos IE(𝐹 | 𝜇) ≤ IE(𝐹 | 𝜈), em que IE(𝐹 | ·) é a esperança matemática de 𝐹 na respectiva medida. Uma sequ^encia de medidas 𝜇𝑛 é não decrescente se 𝜇𝑛 ≺ 𝜇𝑛+1 . Um operador 𝑃 sob ℳ𝒜 é denominado monótono se 𝜇 ≺ 𝜈 =⇒ 𝜇𝑃 ≺ 𝜈𝑃. A palavra processo aqui significa uma sequ^encia de medidas uniformes normalizadas 𝜇𝑛 = 𝜇𝑃 𝑛 , sendo 𝜇𝑃 𝑛 o resultado de 𝑛 aplicações iterativas de um operador 𝑃 em uma medida inicial 𝜇. Uma medida 𝜇 é invariante para 𝑃 se 𝜇𝑃 = 𝜇 e, além disso, diremos que 𝑃 é ergódico se lim 𝜇𝑃 𝑡 existe e é o mesmo para toda 𝑡→∞ medida 𝜇. Caso contrário, 𝑃 é dito não ergódico. Vamos escrever eventos e funções após medidas e operadores entre medidas e eventos, isto é, se 𝑃 e 𝑄 são dois operadores quaisquer, 𝜇 uma medida e 𝐸 um evento, então 𝜈 = 𝜇𝑃 𝑄 é a medida obtida de 𝜇 por aplicação, primeiro do operador 𝑃 e depois do operador 𝑄. Assim 𝜈(𝐸) é o valor da medida 𝜈 no evento 𝐸. Um operador 𝑃 agindo em ℳ𝒜 é denominado operador linear se para cada 𝑎, 𝑏 ∈ R e quaisquer 𝜇, 𝜈 ∈ ℳ𝒜 (︀ )︀ (︀ )︀ (︀ )︀ 𝑎 𝜇 + 𝑏 𝜈 𝑃 = 𝑎 𝜇𝑃 + 𝑏 𝜈𝑃 . Operadores ou processos os quais criam ou eliminam componentes são denominados operadores de comprimento variável ou processos de comprimento variável, respectivamente. Caso contrário, denominaremos de operadores de comprimento constante ou processos de comprimento constante. Até aqui, denominamos todas as funções de ℳ𝒜 em ℳ𝒜 de operadores; Vamos a partir de agora denominá-las de operadores de interação, reservando a palavra 8 “operadores” para outro propósito. Em particular, os operadores de Stavskaya e o operador VarStav , definido na Seção 1.2, que é objeto de trabalho desta tese, são operadores de interação. Os operadores de interação, com os quais lidamos aqui, são casos particulares da classe dos operadores de substituição, definidos de 𝜌 modo geral em [20, 33] e denotados por 𝑉 −→ 𝑊 , em que 𝑉, 𝑊 são palavras e 𝜌 ∈ [0, 1] é um número real. Esta fórmula representa um operador de interação, que substitui qualquer entrada da palavra 𝑉, numa configuração, por uma palavra 𝑊, com uma probabilidade 𝜌. 1.1 O Processo de Stavskaya Clássico: sua origem e propriedades O Processo de Stavskaya Clássico (PSC) usa como conjunto de componentes o conjunto de números inteiros Z. Cada componente 𝑘 tem duas letras possı́veis, denominadas menos e mais, cuja representação é ⊖ e ⊕. Dessa maneira, o espaço configuracional é {⊖, ⊕}Z . O PSC é definido a partir de dois operadores de interação especı́ficos, ambos são de comprimento constante: flip denotado por Flip 𝛽 : ℳ{⊖, ⊕} −→ ℳ{⊖, ⊕} e stav denotado por Stav : {⊖, ⊕}Z −→ {⊖, ⊕}Z . Flip 𝛽 é um operador de interação aleatório, o qual torna cada ⊖ em ⊕ com probabilidade 𝛽, independentemente do que acontece nas outras componentes. Stav é um operador de interação determinı́stico o qual pode ser definido pela seguinte regra {︂ ⊕, se 𝑥𝑘 = 𝑥𝑘+1 = ⊕ ( Stav 𝑥)𝑘 = ⊖, c.c. (1.8) ∀ 𝑥 ∈ 𝒜Z , 𝑘 ∈ Z. Como 𝒜 = {⊖, ⊕}, por (1.8) temos quatro possibilidades para o operador de interação Stav e usando a notação dada em (1.7), podemos 9 escrever ( Stav 𝑥)𝑘 = 𝑓 (⊕, ⊕) = ⊕, ( Stav 𝑥)𝑘 = 𝑓 (⊕, ⊖) = ⊖, ( Stav 𝑥)𝑘 = 𝑓 (⊖, ⊕) = ⊖, ( Stav 𝑥)𝑘 = 𝑓 (⊖, ⊖) = ⊖. Dessa maneira, Stav favorece a letra ⊖, pois se um ⊕ é vizinho esquerdo de um ⊖, então, após sua aplicação a componente na letra ⊕ se torna ⊖, porém a componente na letra ⊖ nunca se torna ⊕. Usando nossas notações, o PSC pode ser definido como a superposição, Stav Flip 𝛽 , aplicada iterativamente a uma medida inicial 𝜇𝑖𝑛𝑖𝑐 , ou seja 𝜇𝑖𝑛𝑖𝑐 ( Stav Flip 𝛽 )𝑡 (1.9) em que a cada passo de tempo a ação de Stav ocorre antes de Flip 𝛽 . O PSC foi introduzido em [22] como um modelo para redes neurais e é um dos primeiros exemplos de processos aleatórios, em que a exist^encia de transição fásica e valor crı́tico foram provadas de forma rigorosa. Vamos denotar por 𝛿⊕ e 𝛿⊖ as medidas concentradas nas configurações em que todas as componentes são iguais a ⊕ e ⊖, respectivamente. É certo que 𝛿⊕ é uma medida invariante, uma vez que se iniciamos o processo em “todos mais” ele nunca muda. Esse processo apresenta comportamentos diferentes para valores pequenos de 𝛽 e para valores grandes de 𝛽. Como observado em [22] o PSC é érgodico se 𝛽 é bastante grande, isto é, ele admite uma única medida invariante, 𝛿⊕ . Toom em [25] provou que para valores bastante pequenos de 𝛽 o PSC possui pelo menos uma medida invariante não–trivial, diferente de 𝛿⊕ , que denotaremos aqui por 𝜇𝑖𝑛𝑣 . Este fato tinha sido sugerido por simulação computacional no artigo original, porém sem uma prova formal. Na verdade, todas as simulações computacionais do PSC realizadas até então estão de acordo pelo menos qualitativamente, com os resultados teóricos. Um fato interessante do PSC é sua conexão com problemas 10 da teoria de percolação, veja por exemplo [27] e [29]. 1.1.1 O processo de Stavskaya clássico: modelagem computacional A modelagem computacional, embora não rigorosa, constitui um modo adequado para estudar processos aleatórios. Para se estudar o PSC computacionalmente, uma versão finita dele se faz necessária, uma vez que a memória computacional é finita. Para este estudo podemos fazer a seguinte suposição: versões finitas de processos aleatórios convergem rapidamente se, e somente se, processos aleatórios infinitos análogos são ergódicos. A versão finita do processo de Stavskaya usa como conjunto de componentes Z𝑛 = {0, . . . , 𝑛 − 1}, que é a classe dos restos módulo 𝑛. Os operadores permanecem os mesmos do PSC. Para a modelagem computacional do PSC o processo converge rapidamente com 𝛽 grande, enquanto para 𝛽 pequeno o processo converge lentamente. Denotemos por 𝑥𝑡𝑖 a componente 𝑥𝑖 no tempo 𝑡. Introduzimos uma nova variável 𝑇 definida como o primeiro 𝑡, para qual ∀ 𝑖 ∈ Z𝑛 : 𝑥𝑡𝑖 = ⊕. Agora, denotamos IE(𝑇 ) a esperança matemática de 𝑇 . Assim, para 𝛽 bastante grande, pelos resultados obtidos em [22], podemos escrever que 𝑐1 ln 𝑛 < IE(𝑇 ) < 𝑐2 ln 𝑛 + 𝑐3 (1.10) e, para 𝛽 bastante pequeno, pelos resultados obtidos em [25], temos exp(𝑐4 𝑛) < IE(𝑇 ) < exp(𝑐5 𝑛), (1.11) em que 𝑐𝑗 (𝑗 = 1, . . . , 5) são par^ametros positivos dependendo apenas de 𝛽. Dessa maneira, processos finitos mostram algum tipo de transição de fase no sentido do tempo médio convergir lentamente (1.10) ou rapidamente (1.11). 11 1.2 Descrição de nosso processo A nossa atenção é concentrada num processo com comprimento variável, análogo ao processo de Stavskaya, o qual será denominado de Processo de Stavskaya com Comprimento Variável e denotado por PSCV. Este processo possui um conjunto de componentes e um espaço configuracional id^enticos àqueles definidos na Seção 1.1. O PSCV é definido a partir da superposição de dois operadores de interação, cada um também de comprimento variável, nascimento e matança. 𝛽 O operador de substituição nascimento, Λ −→ ⊕, com par^ametro 𝛽 ∈ [0, 1] será denotado por Birth inter , em que inter significa interação. Ele age da seguinte forma: entre quaisquer duas componentes vizinhas aparece uma nova componente ⊕, com probabilidade 𝛽, independentemente do que acontece nas outras componentes. Se considerarmos um processo similar finito, cada ação do operador de interação nascimento produz uma letra ⊕, o que aumentaria o comprimento da configuração por um. Este operador de interação transforma cada medida uniforme 𝜇, com 𝜇(⊕) = 𝑥, em uma medida uniforme 𝜇 Birth inter com 𝑥+𝛽 𝜇 Birth inter (⊕) = . (1.12) 1+𝛽 Em outras palavras, (1.12) pode ser interpretado como a frequ^encia relativa de ⊕ após a aplicação de Birth inter . 𝛼 O operador de substituição matança, ⊕⊖ −→ ⊖, com par^ametro 𝛼 ∈ [0, 1], será denotado por Murder inter . Ele age da seguinte forma: cada ⊖ mata seu vizinho esquerdo com probabilidade 𝛼 se este vizinho é ⊕, independentemente do que acontece nas outras componentes. Se considerarmos um processo similar finito, cada ação de eliminação de um ⊕, decresceria o comprimento da configuração por um. Da mesma maneira que em Birth inter , este operador de interação transforma cada medida uniforme 𝜇, com 𝜇(⊕) = 𝑦, em uma medida uniforme 𝜇 Murder inter 12 tal que 𝑦 − 𝛼𝑧 , (1.13) 1 − 𝛼𝑧 em que 𝑧 = 𝜇(⊕, ⊖) é a densidade de ⊕ que é vizinho esquerdo de ⊖. Em 𝜇 Murder inter (⊕) = outras palavras, (1.13) é a frequ^encia relativa de ⊕ após aplicação do operador de interação matança. Neste caso, 𝛼𝑧 é a proporção de ⊕ que “morre” sendo vizinho esquerdo de ⊖, depois da aplicação de Murder inter . Finalmente, definimos o operador de interação VarStav como esta composição: VarStav = Birth inter ∘ Murder inter . O PSCV é definido pela seguinte sequ^encia de medidas 𝜇𝑡 = 𝜇𝑖𝑛𝑖𝑐 ( VarStav )𝑡 , (1.14) em que desejamos saber o que acontece quando 𝑡 → ∞. A medida 𝛿⊕ é uma medida invariante para o PSCV. De fato, se 𝜇𝑖𝑛𝑖𝑐 = 𝛿⊕ , as letras destas componentes nunca mudam no decorrer do tempo e, caso surjam uma ou mais componentes, estas nunca serão ⊖, impossibilitando que algum ⊖ mate algum ⊕ que seja seu vizinho esquerdo. 1.2.1 Redução para o processo Singular É bem conhecido que o problema de ergodicidade e alguns outros problemas importantes são algoritmicamente insolúveis, até mesmo para tradicionais operadores de comprimento constante com interação local conforme observado em [7, 14], por isso são insolúveis para a classe mais ampla de operadores com comprimento variável. Tal problema torna-se solúvel apenas quando os operadores em questão tem alguma propriedade conveniente. O operador de interação VarStav é não-linear, mas sua propriedade especialmente conveniente é que ele pode ser reduzido a uma 13 sequ^encia bi-infinita de processos independentes e identicamente distribuı́dos, cada um determinado por um operador linear, denominado 𝑆𝑖𝑛𝑔𝑢𝑙𝑎𝑟, e denotado por Single , que vamos apresentar. Parece que a maioria dos usuais processos com tempo contı́nuo (exemplos podem ser vistos em [8, 9]), e seus análogos com tempo discreto (exemplos podem ser observados em [22, 26, 28]), não t^em esta propriedade. A partir de agora, usaremos a palavra operador (sem qualquer outra denominação adicional) para qualquer cadeia de Markov homog^enea em tempo discreto, com o conjunto de estados em Z+ (ou seu subconjunto). Também denotamos por 𝒩 o conjunto de medidas de probabilidade sobre Z+ . Dessa forma, qualquer operador age de 𝒩 em 𝒩 e é, essencialmente, uma cadeia de Markov, cujos elementos de sua matriz de transição são denotados por 𝜇(𝑦 𝑥) : a probabilidade condicional de ir ao estado 𝑦 se estamos no estado 𝑥. Em particular, para qualquer natural 𝑛 denotamos por 𝛿𝑛 a medida de probabilidade sobre Z+ concentrada no estado 𝑛. Dada uma sequ^encia de medidas 𝛿⊖ ( VarStav )𝑡 sobre ℳ𝒜 , definiremos a sequ^encia correspondente 𝛿0 ( Single )𝑡 , em que Single é um operador linear de 𝒩 em 𝒩 , que vamos definir agora. Primeiro vamos definir um operador, que denotaremos por Birth : 𝒩 → 𝒩 , porque ele corresponde a ação de Birth inter . Para todo 𝑥, 𝑦 ∈ Z+ )︂ ⎧(︂ 𝑥 + 1 ⎨ 𝛽 𝑦−𝑥 (1 − 𝛽)2𝑥−𝑦+1 se 𝑥 ≤ 𝑦 ≤ 2𝑥 + 1, 𝑦−𝑥 Birth(𝑦 𝑥) = (1.15) ⎩ 0 caso contrário. Em outras palavras, 𝑦 = 𝑥 + Δ𝑏𝑖𝑟𝑡ℎ , com a variável aleatória Δ𝑏𝑖𝑟𝑡ℎ tendo uma distribuição binomial, porque corresponde a uma soma de 𝑥+1 variáveis aleatórias independentes, cada uma dessas igual a 1 com probabilidade 𝛽 e 0 com probabilidade 1 − 𝛽. Outro operador, o qual denotamos por Murder : 𝒩 → 𝒩 , porque ele corres- 14 ponde a ação de Murder inter , age como segue: ⎧ ⎪ se 𝑦 = 𝑥 − 1, ⎪ ⎨𝛼 Murder (𝑦 𝑥) = 1−𝛼 ⎪ ⎪ ⎩0 se 𝑦 = 𝑥, (1.16) em todos os outros casos. Finalmente, definimos o operador Single como a composição Single = Birth ∘ Murder (1.17) (primeiro Birth, depois Murder). Assim, definimos os operadores Birth, Murder e Single . Todos eles são lineares e são, de fato, cadeias de Markov tendo Z+ (ou um subconjunto deste) como o conjunto de estados. Para qualquer configuração conf ∈ {⊖, ⊕}Z , denominamos um par de números inteiros (𝑥, 𝑦), sendo 𝑥 < 𝑦, menos consecutivos se conf(𝑥) = conf(𝑦) = ⊖ e todas as componentes de conf entre 𝑥 e 𝑦 são iguais a ⊕. Neste caso, também denominamos 𝑦 o próximo menos depois de 𝑥. Lema principal. Para cada número natural 𝑡, na medida 𝛿⊖ ( VarStav )𝑡 , assumindo que um certo componente é um ⊖, o número de ⊕ entre ele e o próximo menos é independente do número de ⊕ entre todos os outros pares de menos consecutivos e tem a mesma distribuição da variável aleatória 𝛿0 ( Single )𝑡 . O lema principal desempenha papel fundamental nesta tese, pois ele reduz operadores não lineares sobre {⊖, ⊕}Z a operadores lineares sobre Z+ . Sua prova segue de nossas definições. Capı́tulo 2 Teorema principal Nosso principal resultado é este: se 𝛼 < 1 e 𝛽 > 0, então 𝛿⊖ ( VarStav )𝑡 → 𝛿⊕ quando 𝑡 → ∞, (2.1) em que converg^encia significa converg^encia em todos os cilindros finos. A proposição (2.1) é equivalente à seguinte condição: Teorema principal. se 𝛼 < 1 e 𝛽 > 0, então 𝛿⊖ ( VarStav )𝑡 (⊕) → 1 quando 𝑡 → ∞. 2.1 (2.2) Prova do Teorema principal Para provar o teorema principal usamos o seguinte corolário do lema principal: 𝛿⊖ ( VarStav )𝑡 (⊕) = IE(S𝑡 ) 1 + IE(S𝑡 ) para todo 𝑡 ∈ Z+ , (2.3) em que IE(·) significa esperança matemática e S𝑡 é uma variável aleatória com distribuição 𝛿0 ( Single )𝑡 . Precisamos, também, do seguinte resultado: IE (S𝑡 ) → ∞ quando 𝑡 → ∞. 15 (2.4) 16 É evidente que (2.3), juntamente com (2.4), implicam em (2.2). Como (2.3) já está provada, resta-nos provar (2.4). Dizemos que uma sequ^encia de variáveis aleatórias reais (𝑋𝑘 ) cresce completamente quando 𝑘 → ∞, se para cada número real 𝑥, a sequ^encia de números IP(𝑋𝑘 ≤ 𝑥) tende a zero quando 𝑘 → ∞. Lema 1 Se uma sequ^encia (𝑋𝑘 ) de variáveis aleatórias sobre Z+ cresce completamente quando 𝑘 → ∞, então a sequ^encia de seus valores esperados IE(𝑋𝑘 ) tende a ∞ quando 𝑘 → ∞. Prova. Desde que a sequ^encia (𝑋𝑘 ) cresça completamente, para qualquer 𝑁 e qualquer 𝜀 > 0, existe um 𝑘0 tal que ∀ 𝑘 ≥ 𝑘0 : IP(𝑋𝑘 ≥ 𝑁 ) ≥ 1 − 𝜀. É bem conhecido que para qualquer variável aleatória 𝑋 e qualquer número 𝑁 ′ IE(𝑋) ≥ 𝑁 ′ · IP(𝑋 ≥ 𝑁 ′ ). Escolhendo 𝜀 = 1/2 e 𝑁 ′ = 2𝑁 , obtemos: ∀ 𝑘 ≥ 𝑘0 : IE(𝑋𝑘 ) ≥ 𝑁 ′ · IP(𝑋𝑘 ≥ 𝑁 ′ ) ≥ 𝑁 ′ · (1 − 𝜀) = 2𝑁 · O Lema 1 está provado. 1 = 𝑁. 2 17 A partir de agora vamos nos concentrar em provar o seguinte resultado: A sequ^encia 𝛿0 ( Single )𝑡 cresce completamente quando 𝑡 → ∞. (2.5) É evidente que (2.5) e o Lema 1 implicam em (2.4). Assim, resta-nos apenas provar (2.5). Para isto, precisamos de alguns tipos de ordem parcial. Estas ordens são geralmente bem conhecidas, porém as incluimos em uma forma conveniente a nosso propósito. 2.1.1 Medidas sobre Z+ Dizemos que um conjunto 𝐿 ⊂ Z+ é inferior se (𝑥 ∈ 𝐿, 𝑦 < 𝑥) =⇒ 𝑦 ∈ 𝐿. Analogamente, dizemos que um conjunto 𝑆 ⊂ Z+ é superior se (𝑥 ∈ 𝑆, 𝑥 < 𝑦) =⇒ 𝑦 ∈ 𝑆. Note que, se 𝑆 é superior, então Z+ ∖𝑆 é inferior e vice-versa. Qualquer conjunto inferior 𝐿 ou é vazio, ou coincide com Z+ , ou é dado pela fórmula 𝐿 = {𝑛 : 𝑛 < 𝑛0 }, sendo 𝑛0 um par^ametro. Analogamente, qualquer conjunto superior 𝑆 ou é vazio, ou coincide com Z+ , ou é dado pela fórmula 𝑆 = {𝑛 : 𝑛 ≥ 𝑛0 }, sendo 𝑛0 um par^ametro. Agora, dadas as medidas 𝜇 e 𝜈 ∈ 𝒩 , dizemos que 𝜇 precede 𝜈 e escrevemos 18 𝜇 ≺ 𝜈 se 𝜇(𝐿) ≥ 𝜈(𝐿) para todo inferior 𝐿, que é equivalente a 𝜇(𝑆) ≤ 𝜈(𝑆) para todo superior 𝑆. Lema 2 Considere duas sequ^encias de medidas (𝜇𝑛 ) e (𝜈𝑛 ) sobre Z+ , tal que 𝜇𝑛 ≺ 𝑚 𝑚 ∑︁ ∑︁ 𝜈𝑛 para todo natural 𝑛. Então, 𝜇𝑛 ≺ 𝜈𝑛 para todo natural 𝑛. 𝑛=1 𝑛=1 Prova. A prova deste lema será feita por indução finita. Base de indução: 𝜇1 ≺ 𝜈1 . Hipótese de indução: 𝑚−1 ∑︁ 𝑛=1 𝜇𝑛 ≺ 𝑚−1 ∑︁ 𝜈𝑛 . 𝑛=1 Passo de indução: Sabemos que 𝜇𝑚 (𝑆) ≤ 𝜈𝑚 (𝑆) para todo conjunto superior 𝑆. De (2.6) e da hipótese de indução 𝑚−1 ∑︁ 𝜇𝑛 (𝑆) ≤ 𝑛=1 𝑚−1 ∑︁ 𝜈𝑛 (𝑆) para todo superior 𝑆. 𝑛=1 Usando (2.6) temos 𝑚 ∑︁ 𝜇𝑛 (𝑆) ≤ 𝑛=1 O Lema 2 está provado. 𝑚 ∑︁ 𝑛=1 𝜈𝑛 (𝑆) para todo superior 𝑆. (2.6) 19 Para qualquer natural 𝑛 vamos denotar por 𝛿𝑛 a medida sobre Z+ concentrada no estado 𝑛. Denominamos uma medida 𝜇 sobre Z+ de local, se o conjunto {𝑛 ∈ Z+ 𝜇(𝑛) ̸= 0} é finito. Denominamos um par (𝜇, 𝜈) de local se 𝜇 e 𝜈 são locais. 2.1.2 Passos e escadas Vamos denominar um par local (𝜇, 𝜈) de passo se existirem 𝑎 e 𝑏, naturais e um número real 𝑝 > 0 tal que 𝑎 < 𝑏 e ⎧ ⎪ ⎨−𝑝 ∀ 𝑘 ∈ Z+ : 𝜈(𝑘) − 𝜇(𝑘) = 𝑝 ⎪ ⎩ 0 se 𝑘 = 𝑎, se 𝑘 = 𝑏, em todos os outros casos. Lema 3 Se (𝜇, 𝜈) é um passo, então 𝜇 ≺ 𝜈. Prova. Seja 𝐿𝑘 = {1, 2, . . . , 𝑘} e 𝑝 > 0. Desde que 𝜈 − 𝜇 seja um passo, temos (︀ )︀ (︀ )︀ (𝜈 − 𝜇) (𝐿𝑘 ) ∈ {0, −𝑝} =⇒ 𝜈(𝐿𝑘 ) = 𝜇(𝐿𝑘 ) or 𝜈(𝐿𝑘 ) < 𝜇(𝐿𝑘 ) . O Lema 3 está provado. Dadas duas medidas 𝜇, 𝜈 ∈ 𝒩 , denominamos uma sequ^encia de medidas 𝜋1 , 𝜋2 , . . . , 𝜋𝑛 uma escada de 𝜇 a 𝜈 se 𝜋1 = 𝜇, 𝜋𝑛 = 𝜈 e cada par (𝜋𝑖 , 𝜋𝑖+1 ) é um passo, para 𝑖 = 1, . . . , 𝑛 − 1. O caso 𝜇 = 𝜈 acontece quando 𝑛 = 1. Lema 4 Considere duas medidas 𝜇, 𝜈 ∈ 𝒩 . Então 𝜇 ≺ 𝜈 se, e somente se, existe uma escada de 𝜇 a 𝜈. Prova. Na direção (⇐). Se existe uma escada de 𝜇 a 𝜈, é porque, por definição, o par (𝜇, 𝜈) é um passo e pelo Lema 3 segue a implicação. Vamos provar na outra 20 direção (⇒). Para qualquer par (𝜇, 𝜈) denotamos por max(𝜇, 𝜈) o máximo do par (𝜇, 𝜈) como o maior número natural 𝑚 tal que 𝜇(𝑚) ̸= 0 ou 𝜈(𝑚) ̸= 0. Provaremos o Lema 4 por indução em max(𝜇, 𝜈). Base de indução. Suponha que max(𝜇, 𝜈) = 0. Então, 𝜇 = 𝜈 e o Lema 4 é verdadeiro. Passo de indução. Suponha que o Lema 4 já esteja provado para todos os pares, cujo máximo não exceda 𝑚. Suponha que, agora, temos um novo par (𝜇, 𝜈), cujo máximo vale 𝑚 + 1 e tal que 𝜇 ≺ 𝜈. Vamos submeter este par a uma sequ^encia de operações como segue. Uma vez que o conjunto [𝑚 + 1, ∞) é superior, 𝜇[𝑚 + 1, ∞) ≤ 𝜈[𝑚 + 1, ∞). Por outro lado, desde que max(𝜇, 𝜈) = 𝑚 + 1, 𝜇[𝑚 + 1, ∞) = 𝜇(𝑚 + 1) e 𝜈[𝑚 + 1, ∞) = 𝜈(𝑚 + 1). Portanto, 𝜇(𝑚 + 1) ≤ 𝜈(𝑚 + 1). Agora vamos considerar dois casos. Caso 1: Suponha que 𝜇(𝑚 + 1) > 0. Então, realizamos a seguinte operação: subtraı́mos de ambos os valores 𝜇(𝑚 + 1) e 𝜈(𝑚 + 1) a quantidade 𝜇(𝑚 + 1). As escadas, que sabemos existir para o par resultante, é válida também para o par (𝜇, 𝜈). 21 Caso 2: Suponha que 𝜇(𝑚 + 1) = 0. Então, 𝜈(𝑚 + 1) > 0 e existe um 𝑘 < 𝑚 + 1 tal que 𝜇(𝑘) > 𝜈(𝑘). Assim, assumimos, (︀ )︀ 𝑝 = min 𝜇(𝑘) − 𝜈(𝑘), 𝜈(𝑚 + 1) − 𝜇(𝑚 + 1) e formamos o seguinte passo: ∀ 𝑖 ∈ Z+ : passo(𝑘) = ⎧ ⎪ −𝑝 ⎪ ⎪ ⎨ 𝑝 ⎪ ⎪ ⎪ ⎩ 0 se 𝑖 = 𝑘, se 𝑖 = 𝑚 + 1, (2.7) em todos os outros casos. O par resultante (𝜇′ , 𝜈 ′ ) tem seu máximo não excedendo 𝑚. Pela hipótese de indução, este par é ligado por uma escada. Portanto, o par (𝜇, 𝜈), também é ligado por uma escada obtida dele ao incluir um passo extra (2.7). O Lema 4 está provado. 2.1.3 𝒩 -operadores Ao longo desta tese, por cadeia de Markov, queremos dizer uma cadeia de Markov com tempo discreto, homog^enea no tempo, com um conjunto finito ou enumerável de estados. Vamos denominar um 𝒩 -𝑜𝑝𝑒𝑟𝑎𝑑𝑜𝑟 qualquer cadeia de Markov finita com Z+ ou um subconjunto de Z+ como o conjunto de estados. Denominamos um 𝒩 -operador 𝑃 local se para cada medida local 𝜇 sobre 𝒩 , a medida 𝜇𝑃, também, é local. Um 𝒩 -operador 𝑃 é monótono se ∀ 𝜇, 𝜈 : (𝜇 ≺ 𝜈) =⇒ (𝜇𝑃 ≺ 𝜈𝑃 ). Denominamos medida nula e denotamos por Ø, a medida que atribui valor zero a todo subconjunto de Z+ . 22 Lema 5 Seja 𝑚, 𝑛 ∈ Z e 𝑚 < 𝑛. Então 𝛿𝑚 ≺ 𝛿𝑛 . Prova. Considere o conjunto inferior 𝐿𝑘 = {0, 1, . . . , 𝑘}. Lembremos que, para qualquer conjunto 𝐴, {︃ 𝛿𝑛 (𝐴) = 1, se 𝑛 ∈ 𝐴; 0, se 𝑛 ∈ / 𝐴. (2.8) Vamos considerar os seguintes casos. Caso 1: Suponha 𝑚 < 𝑛 < 𝑘, então 𝛿𝑛 (𝐿𝑘 ) = 1 ≤ 1 = 𝛿𝑚 (𝐿𝑘 ). Caso 2: Suponha 𝑚 < 𝑘 < 𝑛, então 𝛿𝑛 (𝐿𝑘 ) = 0 ≤ 1 = 𝛿𝑚 (𝐿𝑘 ). Caso 3: Suponha 𝑘 < 𝑚 < 𝑛, então 𝛿𝑛 (𝐿𝑘 ) = 0 ≤ 0 = 𝛿𝑚 (𝐿𝑘 ). Em qualquer situação, ∀ inferior 𝐿, temos 𝛿𝑛 (𝐿) ≤ 𝛿𝑚 (𝐿), que implica em 𝛿𝑚 ≺ 𝛿𝑛 . O Lema 5 está provado. Lema 6 Seja 𝑃 um 𝒩 -operador local. Então, (︀ )︀ (︀ )︀ 𝑃 é monótono ⇐⇒ ∀ 𝑚, 𝑛 ∈ Z+ : 𝑚 < 𝑛 =⇒ 𝛿𝑚 𝑃 ≺ 𝛿𝑛 𝑃 . Prova. Vamos provar na direção (⇒). Se 𝑃 é monótono, então ∀ 𝜇, 𝜈 com 𝜇 ≺ 𝜈, temos que 𝜇𝑃 ≺ 𝜈𝑃. Como por hipótese 𝑚 < 𝑛, segue do Lema 5 que 𝛿𝑚 ≺ 𝛿𝑛 . 23 Então, fazendo 𝜇 = 𝛿𝑚 e 𝜈 = 𝛿𝑛 , temos que 𝛿𝑚 𝑃 ≺ 𝛿𝑛 𝑃 e segue o resultado nesta direção. Agora na outra direção (⇐). Seja (𝜇, 𝜈) um par local. De acordo com o Lema 4, se 𝜇 ≺ 𝜈, então existe uma sequ^encia de medidas, 𝜋1 , . . . , 𝜋𝑛 tal que 𝜇 = 𝜋1 ≺ 𝜋2 ≺ . . . ≺ 𝜋𝑛−1 ≺ 𝜋𝑛 = 𝜈 e 𝜋𝑖+1 − 𝜋𝑖 é um passo. (2.9) Vamos provar que 𝜇𝑃 ≺ 𝜋2 𝑃 ≺ . . . ≺ 𝜋𝑛−1 𝑃 ≺ 𝜈𝑃. Observe que, para qualquer passo, existe um inteiro 𝑛, para o qual este passo pode ser escrito como passo = 𝑝 (𝛿𝑛+1 − 𝛿𝑛 ) , sendo 𝑝 um número real não negativo. Da hipótese 𝑚 < 𝑛, temos que 𝛿𝑚 𝑃 ≺ 𝛿𝑛 𝑃, e assim podemos escrever o seguinte (𝑝 𝛿𝑛 ≺ 𝑝 𝛿𝑛+1 ) =⇒ (Ø ≺ −𝑝 𝛿𝑛 𝑃 + 𝑝 𝛿𝑛+1 𝑃 ) =⇒ (Ø ≺ (passo)𝑃 ). (2.10) Combinando (2.10) com o fato de que a sequ^encia (2.9) é tal que 𝜋𝑖+1 − 𝜋𝑖 é um passo, segue (Ø ≺ (𝜋𝑖+1 − 𝜋𝑖 )𝑃 ) =⇒ (Ø ≺ 𝜋𝑖+1 𝑃 − 𝜋𝑖 𝑃 ). O Lema 6 está provado. É claro que, a operação ≺ estabelece uma ordem parcial sobre o conjunto de medidas locais em Z+ . Assim, é natural obter condições sob as quais uma aplicação preserve esta ordem. Tais aplicações são conhecidas como aplicações que preservam ordem (vide p.21 em [6]). O Lema 6 fornece condições suficientes para que um 𝒩 -operador 𝑃, agindo sobre todas as medidas locais, preserve ordem. Dados os 𝒩 -operadores 𝑃 e 𝑄, dizemos que 𝑃 precede 𝑄 e escrevemos 𝑃 ≺ 𝑄 se 𝜇 𝑃 ≺ 𝜇 𝑄 para todo 𝜇 ∈ 𝒩 . 24 Lema 7 Considere 𝑃 e 𝑄 dois 𝒩 -operadores locais. Então, (︀ )︀ (︀ )︀ 𝑃 ≺ 𝑄 ⇐⇒ ∀ 𝑛 ∈ Z+ : 𝛿𝑛 𝑃 ≺ 𝛿𝑛 𝑄 . Prova. Em uma direção (⇒) é evidente. Para provar na outra direçao(⇐), é suficiente lembrar que 𝑃 e 𝑄 são lineares e podemos escrever 𝜇 como segue 𝜇= 𝑛 ∑︁ 𝑎𝑘 𝛿𝑥+𝑘 , 𝑘=0 em que todos os 𝑎𝑘 são não negativos, somam 1 e 𝑥 = min{𝑛 ∈ Z+ | 𝜇(𝑛) > 0}; 𝑦 = max{𝑛 ∈ Z+ | 𝜇(𝑛) > 0} e 𝑛 = 𝑦 − 𝑥. Temos para todo 𝑘 = 0, . . . , 𝑛 que (︀ )︀ (︀ )︀ 𝛿𝑥+𝑘 𝑃 ≺ 𝛿𝑥+𝑘 𝑄 ⇒ (𝑎𝑘 𝛿𝑥+𝑘 )𝑃 ≺ (𝑎𝑘 𝛿𝑥+𝑘 )𝑄 . Agora, usando o Lema 2, temos (︃ 𝑛 ∑︁ (𝑎𝑘 𝛿𝑥+𝑘 )𝑃 ≺ 𝑘=0 𝑛 ∑︁ )︃ (𝑎𝑘 𝛿𝑥+𝑘 )𝑄 ⇒ (𝜇𝑃 ≺ 𝜇𝑄) . 𝑘=0 O Lema 7 está provado. Lema 8 Considere os 𝒩 -operadores monótonos 𝑃1 , 𝑃2 e 𝑄, tais que 𝑃1 ≺ 𝑃2 . Então, 𝑃1 𝑄 ≺ 𝑃2 𝑄 e 𝑄𝑃1 ≺ 𝑄𝑃2 . Prova. Vamos provar que 𝑃1 𝑄 ≺ 𝑃2 𝑄. Por definição podemos escrever (︀ )︀ (︀ )︀ 𝑃1 ≺ 𝑃2 =⇒ ∀𝜇 ∈ 𝒩 : 𝜇𝑃1 ≺ 𝜇𝑃2 . Como 𝑄 é monótono, então ∀𝜇 ∈ 𝒩 (︀ )︀ (︀ )︀ 𝜇𝑃1 ≺ 𝜇𝑃2 =⇒ 𝜇𝑃1 𝑄 ≺ 𝜇𝑃2 𝑄 . 25 Agora a prova para 𝑄𝑃1 ≺ 𝑄𝑃2 . Como 𝑃1 ≺ 𝑃2 , quer dizer que ∀𝜇 ∈ 𝒩 : 𝜇𝑃1 ≺ 𝜇𝑃2 . Tomando 𝜇 = 𝜈𝑄, podemos escrever (︀ )︀ (︀ )︀ (︀ )︀ (︀ )︀ 𝜈𝑄 𝑃1 ≺ 𝜈𝑄 𝑃2 =⇒ 𝜈 𝑄𝑃1 ≺ 𝜈 𝑄𝑃2 e segue-se o resultado. O Lema 8 está provado. Lema 9 Dados 𝑃1 , . . . , 𝑃𝑛 e 𝑄1 , . . . , 𝑄𝑛 , 𝒩 -operadores monótonos locais tais que 𝑃1 ≺ 𝑄1 , . . . , 𝑃𝑛 ≺ 𝑄𝑛 . Então, 𝑃1 ∘ 𝑃2 ∘ · · · ∘ 𝑃𝑛 ≺ 𝑄1 ∘ 𝑄2 ∘ · · · ∘ 𝑄𝑛 . Prova. Será por indução. Base de indução: 𝑃1 ≺ 𝑄1 é dado. Hipótese de indução: 𝑃1 ∘ · · · ∘ 𝑃𝑛−1 ≺ 𝑄1 ∘ · · · ∘ 𝑄𝑛−1 . Passo de indução. É claro que 𝑃𝑛 ∘ (𝑃1 ∘ · · · ∘ 𝑃𝑛−1 ) ≺ 𝑄𝑛 ∘ (𝑃1 ∘ · · · ∘ 𝑃𝑛−1 ). Ainda, temos que (︀ 𝑃1 ∘ · · · ∘ 𝑃𝑛−1 )︀ é um 𝒩 -operador monótono. (2.11) Assim, usando o Lema 8, podemos reescrever (2.11) como segue (︀ )︀ (𝑃1 ∘ · · · ∘ 𝑃𝑛−1 ) ∘ 𝑃𝑛 ≺ (𝑃1 ∘ · · · ∘ 𝑃𝑛−1 ) ∘ 𝑄𝑛 . (2.12) Agora, da hipótese de indução e monotonicidade de 𝑄𝑛 (𝑃1 ∘ · · · ∘ 𝑃𝑛−1 ) ∘ 𝑄𝑛 ≺ (𝑄1 ∘ · · · ∘ 𝑄𝑛−1 ) ∘ 𝑄𝑛 . (2.13) 26 Portanto, o Lema 9 segue de (2.12) e (2.13). O Lema 9 está provado. Lema 10 Seja 𝜈 ∈ 𝒩 e 𝐿 = {𝑛 : 𝑛 ≤ 𝑛0 }. Então, 𝜈 Murder(𝐿) = = 𝜈(𝐿) + 𝛼 · 𝜈(𝑛 = 𝑛0 + 1) (2.14) (1 − 𝛼) · 𝜈(𝐿) + 𝛼 · 𝜈(𝑛 ≤ 𝑛0 + 1). (2.15) Prova. Para encontrarmos (2.15), adicionamos e subtraı́mos 𝜈(𝐿) no segundo membro da equação (2.14) como segue 𝜈 Murder(𝐿) = 𝜈(𝐿) + 𝛼 · 𝜈(𝑛 = 𝑛0 + 1) = 𝜈(𝐿) − 𝛼𝜈(𝐿) + 𝛼𝜈(𝐿) + 𝛼 · 𝜈(𝑛 = 𝑛0 + 1) = (1 − 𝛼) · 𝜈(𝐿) + 𝛼 · 𝜈(𝑛 ≤ 𝑛0 + 1). O Lema 10 está provado. Lema 11 O 𝒩 -operador Murder é local e monótono para todo 𝛼. Prova. Vamos provar que Murder é local. Dizer que o conjunto {𝑛 ∈ Z+ : 𝜇(𝑛) ̸= 0} é finito, significa dizer que existe uma sequ^encia finita de inteiros 𝑥1 , 𝑥2 , . . . , 𝑥𝑛 , tal que 𝜇(𝑥𝑖 ) ̸= 0, em que 𝑖 = 1, . . . , 𝑛. Portanto, pela defição do 𝒩 -operador Murder, podemos verificar que o conjunto {𝑛 ∈ Z+ : 𝜇(𝑥𝑖 ) Murder(𝑦 𝑥𝑖 ) ̸= 0} = {𝑥𝑖−1 , 𝑥𝑖 } 27 é finito. Agora, provaremos que o operador Murder é monótono. Sejam 𝜇, 𝜈 ∈ 𝒩 , 𝜇 ≺ 𝜈 e 𝐿 = {𝑛 : 𝑛 ≤ 𝑛0 }. Da definição de Murder segue 𝜈 Murder(𝐿) = 𝜈(𝐿) + 𝛼 𝜈(𝑛 = 𝑛0 + 1). Desta igualdade, juntamente com o Lema 10, temos 𝜈 Murder(𝐿) = (1 − 𝛼) 𝜈(𝐿) + 𝛼 𝜈(𝑛 ≤ 𝑛0 + 1) ≤ (1 − 𝛼) 𝜇(𝐿) + 𝛼 𝜇(𝑛 ≤ 𝑛0 + 1) = 𝜇 Murder(𝐿). Portanto, concluı́mos que 𝜇 Murder ≺ 𝜈 Murder. O Lema 11 está provado. Lema 12 Seja 𝑧 ∈ Z+ . Então, (a) 𝛿𝑧 Birth(𝑛 = 𝑦) = 0 quando 𝑦 < 𝑧; (︂ )︂ 𝑧+1 (b) 𝛿𝑧 Birth(𝑛 = 𝑦) = 𝛽 𝑦−𝑧 (1 − 𝛽)2𝑧+1−𝑦 se 𝑧 ≤ 𝑦 ≤ 2𝑧 + 1; 𝑦−𝑧 (c) 𝛿𝑧 Birth(𝐿) = 𝑛0 ∑︁ 𝛿𝑧 Birth(𝑛 = 𝑦) = 1 se 𝑛0 ≥ 2𝑧 + 1. 𝑦=0 Prova. Seja 𝑦, 𝑥 ∈ Z+ . É suficiente observar da definição (1.15) de Birth que ∀ 𝑦 ∈ Z+ : 𝜈 Birth(𝑛 = 𝑦) = ∑︁ 𝜈(𝑥) Birth(𝑦|𝑥). 𝑥∈Z+ Agora, assuma 𝜈 = 𝛿𝑧 , e segue a prova do Lema 12. O Lema 12 está provado. 28 Vamos usar a bem conhecida notação Bin (𝑧 + 1, 𝛽), para a distribuição binomial. Seja 𝑋 uma variável aleatória com a distribuição Bin (𝑧 + 1, 𝛽). Do Lema 12 concluı́mos que {︃ 𝛿𝑧 Birth(𝑛 = 𝑧 + 𝑘) = IP(𝑋 = 𝑘) se 0 ≤ 𝑘 ≤ 𝑧 + 1; 0 em todos os outros casos. (2.16) Lema 13 Sejam 𝑛1 , 𝑛2 ∈ Z+ e 𝑛1 < 𝑛2 ; sejam 𝑋1 e 𝑋2 variáveis aleatórias com distribuições Bin (𝑛1 , 𝛽) e Bin (𝑛2 , 𝛽), respectivamente. Então, 𝑋 1 ≺ 𝑋2 . Prova. Para provar o Lema 13 usaremos o seguinte resultado (provado em [23] p.5): sejam 𝑋, 𝑌 variáveis aleatórias com distribuições 𝜇, 𝜈 ∈ 𝒩 , respectivamente. Então, 𝜇 ≺ 𝜈 ⇐⇒ 𝑋 ≤ 𝑌 quase certamente. Como sempre, denotamos a cardinalidade de um conjunto 𝐴 por #𝐴. Sejam 𝑈1 , . . . , 𝑈𝑛1 , . . . , 𝑈𝑛2 variáveis aleatórias i.i.d., cada uma destas distribuı́da uniformemente em [0, 1]. Denotemos 𝑋𝑖 = #{𝑘 : 𝑈𝑘 < 𝛽} para 𝑘 = 1, . . . , 𝑛𝑖 . Então, 𝑋1 < 𝑋2 quase certamente. O Lema 13 está provado. Lema 14 O 𝒩 -operador Birth é local e monótono para todo 𝛽. Prova. Pela definição (1.15), Birth é local. Agora vamos provar sua monotonicidade. Sejam 𝑥, 𝑦 ∈ Z+ . Se assumimos que 𝑥 < 𝑦, então é evidente que 𝛿𝑥 ≺ 𝛿𝑦 . Do Lema 7, isto é equivalente a ∀ 𝑥, 𝑦 : 𝑥 < 𝑦 =⇒ 𝛿𝑥 Birth ≺ 𝛿𝑦 Birth. (2.17) 29 A partir de (2.16), concluı́mos que (2.17) é equivalente a (𝑥 < 𝑦) =⇒ (︀ )︀ Bin (𝑥 + 1, 𝛽) ≺ Bin (𝑦 + 1, 𝛽) , que segue do Lema 13. O Lema 14 está provado. 2.1.4 Os 𝒩 -operadores Sing e Sing 𝑟 Vamos definir outro 𝒩 -operador local denominado sing e denotado por Sing , cujo comportamento é similar àquele de Single , porém mais simples: ⎧ 2/3 ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ 1/3 ⎪ ⎪ ⎨ 𝛾 Sing (𝑦 𝑥) = ⎪ ⎪ ⎪ ⎪ ⎪ 1−𝛾 ⎪ ⎪ ⎪ ⎪ ⎩ 1−𝛾 se 𝑞 ≤ 𝑥 e 𝑦 = 𝑥 + 1; se 𝑞 ≤ 𝑥 e 𝑦 = 𝑥 − 1; se 𝑥 < 𝑞 e 𝑦 = 𝑥 + 1; se 0 < 𝑥 < 𝑞 e 𝑦 = 𝑥 − 1; se 𝑥 = 𝑦 = 0. Aqui o número natural 𝑞 e o número real 𝛾 são par^ametros, que vamos escolher de uma forma apropriada. Antes, considere o seguinte lema. Lema 15 Seja 𝛽 ∈ (0, 1) fixo. Então, IP(Δ𝑏𝑖𝑟𝑡ℎ ≤ 1) tende a zero quando 𝑥 → ∞. Prova. Note que IP(Δ𝑏𝑖𝑟𝑡ℎ ≤ 1) = (1 − 𝛽)𝑥+1 + (𝑥 + 1) 𝛽 (1 − 𝛽)𝑥 . (2.18) Quando 𝑥 → ∞, a primeira parcela do segundo membro de (2.18) vai para zero. Agora, devemos mostrar que a segunda parcela também vai para zero. Note, também, que 𝛽(𝑥 + 1) . 𝑥→∞ 1/(1 − 𝛽)𝑥 lim [𝛽(𝑥 + 1)(1 − 𝛽)𝑥 ] = lim 𝑥→∞ 30 Logo, por L’H^opital, o último limite fica assim 𝛽 𝛽(1 − 𝛽)𝑥 = lim = 0. 𝑥→∞ log(1 − 𝛽)/(1 − 𝛽)𝑥 𝑥→∞ log(1 − 𝛽) lim O Lema 15 está provado. Levando em conta o Lema 15, escolhemos 𝑞 como o menor número inteiro tal que }︃ IP(Δ𝑏𝑖𝑟𝑡ℎ ≤ 1) ≤ 1/3 para todo 𝑥 ≥ 𝑞. (2.19) Tendo escolhido 𝑞, definimos 𝛾 como segue: }︀)︀ (︀ {︀ 𝛾 = min 𝛽(1 − 𝛼), min 𝑃 𝑟𝑜𝑏(Δ𝑏𝑖𝑟𝑡ℎ ≥ 2) 0 < 𝑥 < 𝑞 . (2.20) Dessa forma, Sing está definido. Para considerar cadeias de Markov finitas ao invés de infinitas, para cada natural 𝑟 maior do que 𝑞, definimos um 𝒩 -operador, que denotamos por Sing 𝑟 . Como uma cadeia de Markov, Sing 𝑟 tem {0, . . . , 𝑟} como seu conjunto de estados. Esta é a fórmula de suas transições: Sing 𝑟 (𝑦 𝑥) = ⎧ ⎪ Sing (𝑦 𝑥) ⎪ ⎪ ⎪ ⎪ ⎨2/3 ⎪ 1/3 ⎪ ⎪ ⎪ ⎪ ⎩ 0 se 0 ≤ 𝑥 < 𝑟, se 𝑥 = 𝑦 = 𝑟, se 𝑥 = 𝑟 e 𝑦 = 𝑟 − 1, (2.21) em todos os outros casos. A Figura 2.1 nos mostra o comportamento de Sing 𝑟 para alguns valores de 𝑞 e 𝑟 em escala logarı́tmica. 31 ∙ @ @ @ @ @ @ ∙ @ @ @ @ @ @ ∙```` 0 1 2 `` ∙ 𝑞=3 ∙ 4 ∙ 5 ∙ 6 ∙ 7 ∙ 𝑟=8 Figura 2.1: Os cı́rculos pretos mostram os valores de 𝜆𝑟 que é a medida invariante normalizada do 𝒩 -operador Sing 𝑟 para o caso 𝑞 = 3 e 𝑟 = 8 em escala logarı́tmica. As linhas ligando os pontos pretos são apenas para auxiliar a impressão visual. A parte esquerda do gráfico com números de zero até 𝑞 − 1 representa a garrafa onde o g^enio do folclore árabe foi inicialmente capturado. Leva muito tempo para ele alcançar o gargálo 𝑞, mas uma vez que ele o atinge, ele facilmente cresce exponencialmente. 32 Lema 16 Para 𝑞 e 𝛾 definidos em (2.19) e (2.20), respectivamente, e para qualquer 𝑟 > 𝑞: (a) Sing 𝑟 , Sing e Single são locais e monótonos e (b) Sing 𝑟 ≺ Sing ≺ Single . Prova de (a): A localidade de todos estes operadores é evidente. Vamos provar a monotonicidade de Single . O 𝒩 -operador Single é monótono para todo 𝛼 e 𝛽, pois ele é uma composição de Birth e Murder, ambos monótonos. Agora, a monotonicidade de Sing . Do Lema 6, é suficiente provar que (︀ )︀ (𝑚 < 𝑛) =⇒ 𝛿𝑚 Sing ≺ 𝛿𝑛 Sing . (2.22) A equação (2.22) é evidente quando 𝑞 ≤ 𝑚 < 𝑛 ou 𝑚 < 𝑛 < 𝑞 ou 𝑚 < 𝑞 < 𝑛. Resta-nos fazer o caso 𝑚 = 𝑞 − 1 e 𝑛 = 𝑞. Neste caso, (2.22) segue da inequação 𝛾 ≤ 2/3, vide (2.20). A monotonicidade de Sing 𝑟 segue de sua definição. Então, item (a) do Lema 16 está provado. Agora vamos provar o item (b). Provemos que Sing ≺ Single , a prova do outro caso segue das definições de Sing 𝑟 e Sing . Do Lema 7, segue-se que ∀𝑛 ∈ Z+ : 𝛿𝑛 Sing ≺ 𝛿𝑛 Single . (2.23) Vamos considerar dois casos. Caso 𝑛 ≥ 𝑞 : De (2.19) é suficiente notar que para todo 𝑥 ≥ 𝑞 a probabilidade que o número cresça no mı́nimo por um como um resultado da aplicação do 𝒩 operador Single não é menor que 2/3. Neste caso (2.23) está provada. Caso 𝑛 < 𝑞 : (2.23) é uma consequ^encia direta de (2.20), a definição de 𝛾. O Lema 16 está provado. 33 Lema 17 Considere uma cadeia de Markov finita irredutı́vel com um conjunto de estados 𝑆 = 𝐴 ∪ 𝐵, onde 𝐴 ∩ 𝐵 é vazio. Para todo 𝑥, 𝑦 ∈ 𝑆 denotamos por 𝑝(𝑦 𝑥) a probabilidade de transição de 𝑥 a 𝑦. Estas probabilidades formam a matriz de transição. É bem conhecido que, sob estas condições, uma cadeia de Markov tem uma única medida invariante, a qual vamos denotar por 𝜇. Vamos fixar dois estados 𝑎 ∈ 𝐴 e 𝑏 ∈ 𝐵, e assumir que 𝑝(𝑦 𝑥) = 𝑝(𝑥 𝑦) = 0 para todo 𝑥 ∈ 𝐴 e 𝑦 ∈ 𝐵 exceto o caso em que 𝑥 = 𝑎, 𝑦 = 𝑏. Então, 𝜇(𝑎) 𝑝(𝑏 𝑎) = 𝜇(𝑏) 𝑝(𝑎 𝑏). (2.24) Prova. Note que ∑︁ (︀ )︀ ∑︁ 𝜇(𝑦) 𝑝(𝑥 𝑦). ∀𝑥∈𝑆: 𝜇 𝑥 = 𝜇(𝑦) 𝜇(𝑥 𝑦) = 𝑦∈𝑆 𝑦∈𝑆 Portanto, ∑︁ 𝑥∈𝐴 𝜇(𝑥) = ∑︁ ∑︁ 𝜇(𝑦) 𝑝(𝑥 𝑦) = 𝑥∈𝐴 𝑦∈𝑆 ∑︁ ∑︁ 𝑥∈𝐴 𝑦∈𝐴 𝜇(𝑦) 𝑝(𝑥 𝑦) + ∑︁ ∑︁ 𝜇(𝑦) 𝑝(𝑥 𝑦). 𝑥∈𝐴 𝑦∈𝐵 Aqui, a segunda soma tem apenas um termo diferente de zero, isto é, o termo que tem 𝑥 = 𝑎 e 𝑦 = 𝑏. Portanto, a segunda soma é igual a 𝜇(𝑏) 𝑝(𝑎 𝑏). 34 A primeira soma é igual a ∑︁ ∑︁ 𝜇(𝑦) 𝑝(𝑥 𝑦) = 𝑦∈𝐴 𝑥∈𝐴 ∑︁ ∑︁ 𝜇(𝑦) 𝑝(𝑥 𝑦) − ∑︁ ∑︁ 𝜇(𝑦) 𝑝(𝑥 𝑦). 𝑦∈𝐴 𝑥∈𝐵 𝑦∈𝐴 𝑥∈𝑆 Aqui, o minuendo é igual a ∑︁ 𝜇(𝑦) 𝑦∈𝐴 ∑︁ 𝑝(𝑥 𝑦) = 𝑥∈𝑆 ∑︁ 𝜇(𝑦) = 𝑦∈𝐴 ∑︁ 𝜇(𝑥). 𝑥∈𝐴 O subtraendo tem apenas um termo diferente de zero, isto é, aquele que tem 𝑦 = 𝑎 e 𝑥 = 𝑏. Portanto, ele é igual a 𝜇(𝑎) 𝑝(𝑏 𝑎). Assim, ∑︁ 𝑥∈𝐴 𝜇(𝑥) = ∑︁ 𝜇(𝑥) + 𝜇(𝑏) 𝑝(𝑎 𝑏) − 𝜇(𝑎) 𝑝(𝑏 𝑎) 𝑥∈𝐴 e (2.24) segue. O Lema 17 está provado. 2.1.5 A medida invariante de Sing 𝑟 Sing 𝑟 é uma cadeia de Markov finita e irredutı́vel qualquer que seja 𝑟. Sendo assim, ela tem exatamente uma medida invariante normalizada, que vamos denotar por 𝜆𝑟 . Lema 18 A sequ^encia (𝜆𝑟 ) cresce completamente quando 𝑟 → ∞. Prova. Provaremos o Lema 18 ao escrever explicitamente a medida 𝜆𝑟 . Podemos representar Sing 𝑟 como uma matriz, que a denotaremos por M. Então, 𝜆𝑟 é a solução normalizada da equação 𝜆𝑟 ( M - I ) = 0 , (2.25) 35 em que I é a matriz identidade de ordem 𝑟 + 1 e 0 é a matriz nula com 𝑟 + 1 colunas. Note que as únicas probabilidades de transição não nulas de Sing 𝑟 são aquelas que de qualquer 𝑠 vão a 𝑠 − 1, 𝑠 ou 𝑠 + 1. Esse fato permite usar o Lema 17 para concluir que a medida invariante 𝜆𝑟 de Sing 𝑟 satisfaz as seguintes condições: ⎫ 𝛾 𝜆𝑟 (𝑠) = (1 − 𝛾) 𝜆𝑟 (𝑠 + 1) para 𝑠 = 0, . . . , 𝑞 − 2, ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎬ 1 𝜆𝑟 (𝑞), 𝛾 𝜆𝑟 (𝑞 − 1) = 3 ⎪ ⎪ ⎪ ⎪ ⎪ 1 2 ⎪ ⎭ 𝜆𝑟 (𝑠) = 𝜆𝑟 (𝑠 + 1) para 𝑠 = 𝑞, . . . , 𝑟 − 1. 3 3 (2.26) De acordo com (2.26), para todo 𝑠 ∈ [0, 𝑟], podemos escrever ⎧ (︂ )︂𝑞−𝑠 ⎪ 1 1 − 𝛾 ⎪ ⎨𝜆𝑟 (𝑞) 3𝛾 𝛾 𝜆𝑟 (𝑠) = ⎪ ⎪ ⎩𝜆𝑟 (𝑞) 2𝑠−𝑞 para 0 ≤ 𝑠 < 𝑞, para 𝑞 ≤ 𝑠 ≤ 𝑟, em que 𝜆𝑟 (𝑞) é um par^ametro que ainda precisamos escolher. Usando a fórmula da soma de uma progressão geométrica, temos que 𝑟 ∑︁ 𝜆𝑟 (𝑠) = 𝜆𝑟 (𝑞) (2𝑟−𝑞+1 − 1). 𝑠=𝑞 Para calcular a soma de 𝜆𝑟 (𝑠), que vai de 𝑠 = 0 a 𝑠 = 𝑞 − 1, é melhor enumerar os estados na ordem inversa. Então, temos uma progressão geométrica com 𝑞 termos, na qual o primeiro termo é 𝜆𝑟 (𝑞 − 1) = 𝜆𝑟 (𝑞) e o coeficiente é 1−𝛾 . Desse modo, 𝛾 1 1−𝛾 3𝛾 𝛾 36 𝑞−1 ∑︁ )︀ 1 (︀ 1 𝜑(𝜑𝑞 − 1) 𝑞−1 𝜆𝑟 (𝑠) = 1 + ··· + 𝜑 = 𝜆𝑟 (𝑞) , 3𝛾 3𝛾 𝜑 − 1 𝑠=0 1−𝛾 1 𝜑(𝜑𝑞 − 1) . Também, denotamos Φ = . 𝛾 3𝛾 𝜑 − 1 𝑟 ∑︁ (︀ )︀ Então, 𝜆𝑟 (𝑠) = 𝜆𝑟 (𝑞) Φ + (2𝑟−𝑞+1 − 1) . em que 𝜑 = 𝑠=0 Para normalizar a medida 𝜆𝑟 , assumimos 𝜆𝑟 (𝑞) = 1 Φ + (2𝑟−𝑞+1 − 1) . Portanto, para qualquer 𝑟′ ∈ [𝑞, 𝑟] ′ 𝑟 ∑︁ ′ Φ + (2𝑟 −𝑞+1 − 1) 𝜆𝑟 (𝑠) = . 𝑟−𝑞+1 − 1) Φ + (2 𝑠=0 O valor desta fração tende a zero quando 𝑟 tende a ∞, com todos os outros par^ametros, incluindo 𝑟′ , mantidos fixos. Assim, a sequ^encia 𝜆𝑟 cresce completamente quando 𝑟 → ∞. O Lema 18 está provado. Agora vamos provar (2.5). Do Lema 18, a sequ^encia (𝜆𝑟 ) cresce completamente quando 𝑟 → ∞. Em outras palavras, ∀ 𝑟1 : 𝜆𝑟 [0, 𝑟1 ] → 0 quando 𝑟 → ∞, em que [0, 𝑟1 ] é o segmento com extremos em 0 e 𝑟1 . O mesmo em mais detalhes: (︀ )︀ ∀ 𝑟1 ∀ 𝜀 > 0 ∃ 𝑟0 ∀ 𝑟 ≥ 𝑟0 : 𝜆𝑟 [0, 𝑟1 ] < 𝜀/2 . Por outro lado, uma vez que Sing 𝑟 é irredutı́vel, 𝛿0 ( Sing 𝑟 )𝑡 → 𝜆𝑟 quando 𝑡 → ∞. (2.27) 37 Em particular ∀ 𝑟1 : 𝛿0 ( Sing 𝑟 )𝑡 [0, 𝑟1 ] → 𝜆𝑟 [0, 𝑟1 ] quando 𝑡 → ∞. Em mais detalhes ∀ 𝑟1 , ∀ 𝜀 > 0 ∃ 𝑟0 , ∃ 𝑡0 ∀ 𝑟 ≥ 𝑟0 , ∀ 𝑡 ≥ 𝑡0 : 𝛿0 ( Sing 𝑟 )𝑡 [0, 𝑟1 ] − 𝜆𝑟 [0, 𝑟1 ] ≤ 𝜀/2. (2.28) Agora, combinando (2.27) e (2.28), temos que ∀ 𝑟1 ∀ 𝜀 > 0 ∃ 𝑟0 ∃ 𝑡0 ∀ 𝑟 ≥ 𝑟0 , ∀ 𝑡 ≥ 𝑡0 : 𝛿0 ( Sing 𝑟 )𝑡 [0, 𝑟1 ] ≤ 𝜀. Portanto, pelo Lema 9, uma vez que Sing 𝑟 ≺ Sing ≺ Single , temos ∀ 𝑟1 ∀ 𝜀 > 0 ∃ 𝑡0 ∀ 𝑡 ≥ 𝑡0 : 𝛿0 ( Single )𝑡 [0, 𝑟1 ] ≤ 𝜀. Portanto, segue (2.5), que implica na fórmula (2.1), que é nosso resultado principal. O teorema principal está provado. Capı́tulo 3 Aproximação do caos Como anteriormente, ℳ𝒜 é o conjunto de medidas normalizadas invariantes por translação sob 𝒜Z . Chamamos de operador caótico e denotamos por 𝒞 : ℳ𝒜 −→ ℳ𝒜 , o operador aleatório estudado em [15, 17], que a cada passo de tempo mistura aleatoriamente todas as componentes do processo. Formalmente, para cada 𝜇 ∈ ℳ𝒜 , a medida 𝜇𝒞 é uma medida produto com as mesmas frequ^encias que há na medida 𝜇, ou seja, 𝜇(⊕) = 𝜇𝒞(⊕) e 𝜇(⊖) = 𝜇𝒞(⊖), observando que, em nosso caso, 𝒜 = {⊖, ⊕}. O operador caótico possibilita aproximarmos um dado processo 𝜇(𝑃 )𝑡 , sobre o espaço configuracional 𝒜Z , por um outro processo 𝜇(𝒞𝑃 )𝑡 sobre o mesmo espaço (a cada passo de tempo aplicamos primeiro 𝒞 e depois 𝑃 ). A esta aproximação denominamos de aproximação do caos. A aproximação do caos lida com a evolução da densidade das letras pertencentes ao alfabeto. Neste caso, vamos considerar como par^ametros as frequ^encias relativas das letras do alfabeto. Como a soma das frequ^encias relativas dessas letras é igual a um, o número de par^ametros independentes na aproximação do caos é igual ao número de letras no alfabeto menos um. Sendo assim, em nossa aproximação do caos, vamos lidar apenas com um par^ametro e para tal vamos escolher a densidade da letra ⊕. 38 39 Seja 𝑥𝑡 a frequ^encia relativa de ⊕ no tempo 𝑡 e 𝑓 (𝑥𝑡 ) = 𝑥𝑡+1 . Seja 𝑓 de [0, 1] em [0, 1] uma função contı́nua tal que 𝑓 𝑡 significa a 𝑡–ésima iteração de 𝑓 . Denotamos 𝑥 um ponto fixo de 𝑓 , se 𝑓 (𝑥) = 𝑥. Dessa maneira, o estudo da aproximação do caos resume–se a estudar um sistema din^amico discreto, o qual por sua vez será denominado ergódico se ele tiver um único ponto fixo, denotado por 𝑥𝑓 𝑖𝑥𝑜 , e se ∀ 𝑥 ∈ [0, 1] lim 𝑓 𝑡 (𝑥) = 𝑥𝑓 𝑖𝑥𝑜 . 𝑡→∞ (3.1) Caso contrário, o sistema din^amico é dito não ergódico . A seguir vamos fazer uma aproximação do caos para o processo de Stavskaya clássico (PSC). 3.1 Aproximação do caos para o PSC Conforme foi obtido e analisado em [15], nosso trabalho nesta seção segue as mesmas análises para aproximação do caos do PSC. O PSC é definido a partir da superposição Stav Flip 𝛽 aplicada interativamente a uma medida inicial. O operador de interação stav é determinı́stico e definido conforme (1.8), enquanto que o operador de interação flip transforma cada ⊖ em ⊕ com probabilidade 𝛽, independentemente do que ocorre nas outras componentes. Assim, pela definição do operador caótico e do operador de interação stav podemos escrever 𝜇𝑡 (𝒞 Stav )(⊕) = (𝜇𝑡 𝒞(⊕))2 . (3.2) 40 Usando (3.2), a aplicação do operador de caos em uma interação do PSC é: 𝜇𝑡 (𝒞 Stav Flip 𝛽 )(⊕) = 𝜇𝑡 (𝒞 Stav )(⊕) + 𝛽(𝜇𝑡 (𝒞 Stav )(⊖)) = 𝜇𝑡 (𝒞 Stav )(⊕) + 𝛽(1 − 𝜇𝑡 (𝒞 Stav )(⊕)) = 𝜇𝑡 (𝒞 Stav )(⊕) + 𝛽 − 𝛽(𝜇𝑡 (𝒞 Stav )(⊕)) = 𝛽 + (1 − 𝛽)(𝜇𝑡 (𝒞 Stav )(⊕)) = 𝛽 + (1 − 𝛽)(𝜇𝑡 𝒞(⊕))2 . (3.3) Assim, (3.3) pode ser interpretado como: 𝑥𝑡+1 = 𝑓 (𝑥𝑡 ), sendo 𝑓 (𝑥𝑡 ) a frequ^encia relativa de ⊕ após a aplicação de uma interação da aproximação do caos. Por simplicidade, fazendo 𝑥𝑡 = 𝑥, temos 𝑓 (𝑥) = 𝛽 + (1 − 𝛽)𝑥2 . (3.4) Resolvendo a equação 𝑓 (𝑥) = 𝑥, obtemos os seguintes pontos fixos de 𝑓 : 𝑝1 = 1 e 𝑝2 = 𝛽 , 1−𝛽 que são análogos às possı́veis medidas invariantes do PSC. Quando 𝛽 > 1/2, o ponto 𝑝2 é maior que um. Logo, 𝑝1 é o único ponto fixo neste caso. Por outro lado, para 𝛽 < 1/2, temos associado uma situação de não ergodicidade por haver mais do que um ponto fixo. Ou seja, temos dois comportamentos diferentes para 𝑓 𝑡 . O primeiro ocorre quando 𝛽 > 1/2, o qual esperamos que no limite as iteradas de 𝑓 convirjam a 𝑝1 a partir de qualquer ponto inicial uma vez que só existe um ponto fixo, sugerindo que o PSC é ergódico. O segundo, quando 𝛽 < 1/2, tem pelo menos dois pontos fixos, sugerindo que o PSC é não ergódico. Em [29] foi 41 demonstrado a exist^encia de um valor crı́tico não trivial 𝛽 * ∈ [1/54, 1/2] para o PSC. Assim, o resultado obtido neste exemplo, que é 𝛽 * = 1/2, vem confirmar a reprodução do comportamento obtido do processo real. Em outras palavras, a aproximação do caos realizada para o PSC se comporta qualitativamente similar a este processo, inclusive no que se refere ao seu valor crı́tico. Na Figura 3.1a e 3.1b temos 10 iteraçoes da equação (3.4) quando 𝛽 = 0.25, mostrando que o sistema din^amico discreto converge para 21 . O mesmo sistema din^amico converge para 1 quando 𝛽 = 0.7, como pode ser verificado na Figura 3.1c. Estimações mais precisas obtidas em [27] mostraram que 𝛽 * > 0, 09. 42 1.04 y 1.04 0.78 0.78 0.52 0.52 0.26 0.26 y x 0.26 0.52 0.77 x 1.03 0.26 (a) 𝑥0 = 0 e 𝛽 = 0.25 1.04 0.52 0.77 1.03 (b) 𝑥0 = 0.7 e 𝛽 = 0.25 y 0.78 0.52 0.26 x 0.26 0.52 0.77 1.03 (c) 𝑥0 = 0 e 𝛽 = 0.70 Figura 3.1: Comportamento limite para a aproximação do caos no PSC. 43 3.2 Aproximação do caos para o PSCV O estudo do operador de interação Birth inter Murder inter é substituı́do por um estudo do operador caótico 𝒞 Birth inter Murder inter , que, por sua vez, se resume no estudo do sistema din^amico 𝑓 : [0, 1] → [0, 1] com par^ametros 𝛼, 𝛽 ∈ [0, 1]. Note-se que o PSCV tem comprimento variável e em (1.14) vamos tomar 𝜇𝑖𝑛𝑖𝑐 = 𝛿⊖ , ou seja, vamos estudar 𝜇𝑡 = 𝛿⊖ ( Birth inter ∘ Murder inter )𝑡 . (3.5) Fazendo a aproximação do caos para nossos operadores de interação definidos por (1.12) e (1.13), temos 𝜇(𝒞 Birth inter )(⊕) = 𝑥+𝛽 e 1+𝛽 (3.6) 𝑦 − 𝛼𝑦(1 − 𝑦) , (3.7) 1 − 𝛼𝑦(1 − 𝑦) observando que 𝑥 = 𝜇(⊕) = 𝑦. A composição destes operadores de interação, 𝜇(𝒞 Murder inter )(⊕) = conforme ap^endice A, será denotada por 𝑓 (𝑥) e é dada por: 𝑓 (𝑥) = (𝑥 + 𝛽)(1 + 𝛽 − 𝛼(1 − 𝑥)) . (1 + 𝛽)2 − 𝛼(𝑥 − 𝑥2 + 𝛽 − 𝛽𝑥) (3.8) 𝛼 , com 𝛼 > 0. A aproximação do caos em (3.8) 4−𝛼 possui um ponto fixo se 𝛽 > 𝛽 * (𝛼), dois pontos fixos se 𝛽 = 𝛽 * (𝛼) e tr^es pontos Lema 19 Seja 𝛽 * (𝛼) = fixos se 𝛽 < 𝛽 * (𝛼). Prova. Vamos inicialmente considerar que 0 < 𝛽 < 1. Seja 𝑓 como definido em (3.8). Resolvendo 𝑓 (𝑥) = 𝑥 encontramos os seguintes pontos fixos, os quais 44 denotamos por 𝑝1 , 𝑝2 e 𝑝3 , isto é, 𝛼(1 − 𝛽) − 𝑝1 = 2𝛼 √︀ ℎ(𝛽) , 𝛼(1 − 𝛽) + 𝑝2 = 2𝛼 √︀ ℎ(𝛽) e 𝑝3 = 1, sendo ℎ(𝛽) = 𝛽 2 (𝛼2 − 4𝛼) + 𝛽(2𝛼2 − 4𝛼) + 𝛼2 . (3.9) Não é difı́cil verificar que 0 < 𝑝1 ≤ 𝑝2 < 𝑝3 = 1. Por (3.9), ℎ(𝛽) é uma função quadrática de 𝛽 cujo coeficiente do termo de segundo grau é negativo, 𝑔(𝛼) = 𝛼2 − 4𝛼 < 0 ∀ 𝛼 > 0. Vamos denotar as raı́zes de (3.9) por 𝛽 = 𝛽1 (𝛼) e 𝛽 = 𝛽2 (𝛼), em que 𝛽1 (𝛼) = −1 e 𝛽2 (𝛼) = 𝛼 4−𝛼 (3.10) e observe que 𝛽2 (𝛼) em (3.10) é o nosso 𝛽 * (𝛼). ℎ(𝛽) é negativo quando 𝛽 < 𝛽1 (𝛼) ou 𝛽 > 𝛽2 (𝛼) e positivo quando 𝛽 está entre 𝛽1 (𝛼) e 𝛽2 (𝛼). Também, podemos verificar que 𝛽1 (𝛼) < 0 < 𝛽2 (𝛼) < 1 ∀ 𝛼 > 0. Assim, se 𝛽 < 𝛽 * (𝛼), então ℎ(𝛽) > 0 e nosso sistema din^amico tem tr^es pontos fixos diferentes 𝑝1 , 𝑝2 e 𝑝3 . Se 𝛽 = 𝛽 * (𝛼), então ℎ(𝛽) = 0 e o sistema din^amico tem dois pontos fixos distintos 𝑝1 = 𝑝2 e 𝑝3 . Se 𝛽 > 𝛽 * (𝛼), ℎ(𝛽) < 0 e assim 𝑓 tem um único ponto fixo 𝑝3 = 1. O Lema 19 está provado. 45 Proposição 1 A aproximação do caos em (3.8) é ergódica se 𝛽 > 𝛽 * (𝛼) e não ergódica se 𝛽 ≤ 𝛽 * (𝛼), sendo {︃ 𝛽 * (𝛼) = 𝛼 , se 𝛼 > 0 4−𝛼 0, se 𝛼 = 0. (3.11) Prova. Primeiro seja 𝛼 = 0. É fácil verificar que, neste caso, nosso sistema din^amico é ergódico para todo 𝛽 > 0 e não ergódico para 𝛽 = 0. Assim, a Proposição 1 é verdadeira. Ainda, se 𝛽 = 0 ou 𝛽 = 1, a proposição 1 é evidente. Agora, vamos assumir que 0 < 𝛽 < 1. Note que, se 𝑥0 ∈ [0, 1], então pelo Lema 19, uma forma equivalente de reescrever a proposição 1 é a seguinte: Se ℎ(𝛽) < 0, então lim 𝑓 𝑡 (𝑥0 ) = 𝑝3 = 1 para todo 𝑥𝑜 . 𝑡→∞ {︂ 𝑝1 = 𝑝2 , se 𝑥0 ≤ 𝑝1 = 𝑝2 , Se ℎ(𝛽) = 0, então lim 𝑓 𝑡 (𝑥0 ) = 𝑡→∞ 𝑝3 = 1, se 𝑥0 > 𝑝1 = 𝑝2 . ⎧ se 𝑥0 < 𝑝2 , ⎨ 𝑝1 , 𝑡 𝑝, se 𝑥0 = 𝑝2 , Se ℎ(𝛽) > 0, então lim 𝑓 (𝑥0 ) = 𝑡→∞ ⎩ 2 𝑝3 = 1, se 𝑥0 > 𝑝2 . (3.12) (3.13) (3.14) De fato, quando 𝛽 < 𝛽 * (𝛼) ou 𝛽 = 𝛽 * (𝛼), nosso sistema din^amico tem tr^es pontos fixos distintos (𝑝1 , 𝑝2 e 𝑝3 ) ou dois pontos fixos (𝑝1 = 𝑝2 e 𝑝3 ), respectivamente, isto é, em ambos os casos ele é não ergódico. Quando 𝛽 > 𝛽 * (𝛼), (3.8) tem um único ponto fixo 𝑝3 = 1. Assim, vamos nos concentrar em provar (3.12), (3.13) e (3.14). Primeiro (3.12), que equivale a ergodicidade. Note que, 𝑓 definido em (3.8), é contı́nua em [0, 1] e assim 𝑠(𝑥) = 𝑓 (𝑥) − 𝑥, também, é contı́nua nesse mesmo intervalo. É fácil verificar que 𝑠(0) > 0 e, além disso, 𝑠 é contı́nua e igual a zero apenas no ponto 𝑥 = 1. Concluı́mos que 𝑠(𝑥) > 0, ∀ 𝑥 < 1. Portanto, 46 𝑥 < 𝑓 (𝑥), ∀ 𝑥 < 1. Desse fato podemos escrever, também, que: 𝑓 (𝑥) < 𝑓 2 (𝑥), ∀𝑓 (𝑥) < 1. 𝑓 2 (𝑥) < 𝑓 3 (𝑥), ∀𝑓 2 (𝑥) < 1. ........................ Assim, 𝑥 < 𝑓 (𝑥) < 𝑓 2 (𝑥) < 𝑓 3 (𝑥) < . . . < 1. Logo, se definirmos 𝑎𝑛 = 𝑓 𝑡 (𝑥) com 𝑎0 = 𝑥, temos que 𝑎𝑡 é uma sequ^encia monótona crescente limitada por 1. Como o 𝑠𝑢𝑝 de 𝑎𝑛 é 1 concluı́mos que lim 𝑓 𝑡 (𝑥0 ) = 1 e (3.12) está provada. Agora, a prova para (3.13). Vamos justifi- 𝑡→∞ car a primeira parte de (3.13). Com esse objetivo, vamos reescrev^e-la da seguinte forma: Se ℎ(𝛽) = 0, então lim 𝑓 𝑡 (𝑥0 ) = 𝑡→∞ {︂ 𝑝1 = 𝑝2 , se 𝑥0 ∈ [0, 𝑝1 ], 𝑝3 = 1, se 𝑥0 ∈ (𝑝1 , 1]. Note-se que se ℎ(𝛽) = 0, então nosso sistema din^amico possui dois pontos fixos e, além disso, 0 < 𝑝1 ≤ 𝑝2 < 𝑝3 = 1. Agora, note também que 𝑓 é contı́nua em [0, 𝑝1 ], pois [0, 𝑝1 ] ⊂ [0, 1]. A partir daqui a prova segue análoga aquela feita para (3.12) e assim 𝑓 𝑡 (𝑥0 ) −→ 𝑝1 quando 𝑡 → ∞. A prova para a segunda parte de (3.13) é análoga à prova que foi feita para sua primeira parte, notando que agora vamos querer mostrar o comportamento limite em (𝑝1 , 1]. A prova para (3.14) é análoga a que fizemos para (3.13). A Proposição 1 está provada. A Figura 3.2 apresenta exemplos para o comportamento limite desses pontos fixos. 47 1.04 y 1.82 y 1.56 0.78 1.30 1.04 0.52 0.78 0.52 0.26 0.26 x x 0.26 0.52 0.77 0.26 1.03 (a) 𝑥0 = 0; 𝛼 = 0, 2 e 𝛽 = 0, 2 0.52 0.77 1.03 1.29 1.55 1.80 (b) 𝑥0 = 1, 5; 𝛼 = 0, 2 e 𝛽 = 0, 2 1.04 y y 1.04 0.78 0.78 0.52 0.52 0.26 0.26 x x 0.26 0.52 0.77 1.03 (c) 𝑥0 = 0; 𝛼 = 0, 6 e 𝛽 = 0.1 0.26 0.52 0.77 1.03 (d) 𝑥0 = 0, 8; 𝛼 = 0, 6 e 𝛽 = 0.1 Figura 3.2: Comportamento limite para a aproximação do caos no PSCV. Capı́tulo 4 Simulação de Monte Carlo do processo Singular Segundo Sobol [24], o método de Monte Carlo é um método numérico capaz de resolver problemas matemáticos por meio de simulação de variáveis aleatórias. O artigo intitulado The Monte Carlo Method (O Método de Monte Carlo) publicado em 1949 (Journal of the American Statistical Association) pelos matemáticos norte-americanos N. Metropolis e S. Ulam, marca o nascimento do método Monte Carlo, apesar de sua base teórica ser conhecida há muito tempo conforme em [24]. A primeira refer^encia do método de Monte Carlo é devido ao naturalista franc^es George Louis Leclerc, Conde de Buffon, que em 1777 enunciou e resolveu àquele que ficou conhecido como o problema da agulha de Buffon. Este problema é um estudo probabilı́stico do lançamento aleatório de uma agulha num plano com infinitas linhas paralelas. A real utilização do método de Monte Carlo se deu como ferramenta de pesquisa no Projeto Manhattan para construção da bomba at^omica na segunda guerra mundial, envolvendo simulação direta de problemas probabilı́sticos, preocupandose com a difusão aleatória de n^eutrons em material fı́ssil, conforma consta em [5]. 48 49 Agora, vamos fazer uma simulação Monte Carlo, cuja discrep^ancia com o nosso resultado teórico é realmente surpreendente. Baseado em nosso lema principal, ao invés de simular o processo VarStav , vamos simular o processo Single , o qual é mais fácil de realizar. Vamos descrever um procedimento, denominado Imitação e que é uma imitação de Monte Carlo de nosso processo. Lembre-se que S𝑡 é uma variável aleatória com distribuição 𝛿0 ( Single )𝑡 . Este procedimento gera uma sequ^encia de variáveis aleatórias na seguinte forma indutiva. Base de indução: 𝑆0 = 0. 𝑡−ésimo passo de indução: • Fixe 𝛼 e 𝛽 no intervalo [0, 1]. • Dado 𝑆𝑡+1 , com 𝑡 = 1, 2, 3, . . . , realize dois procedimentos: Primeiro procedimento imitando Birth: • Gere uma variável aleatória Δ𝑏𝑖𝑟𝑡ℎ com distribuição binomial, Bin (𝑆𝑡 + 1, 𝛽). • Faça 𝑌 = 𝑆𝑡 + Δ𝑏𝑖𝑟𝑡ℎ . Segundo procedimento imitando Murder: Gere uma variável aleatória 𝑈 distribuida uniformemente no intervalo [0, 1]. Assim, o que ocorre é um dos tr^es casos seguintes: • 𝑆𝑡+1 = 𝑌 − 1, se 𝑈 < 𝛼 e 𝑌 > 0; • 𝑆𝑡+1 = 𝑌, se 𝑈 > 𝛼 e 𝑌 > 0; • 𝑆𝑡+1 = 𝑌, se 𝑌 = 0. Condição de parada: dada uma constante 𝑇 = 1000000, paramos quando 𝑡 = 𝑇 ou 𝑆𝑡 > 10000. 50 Assim, define-se Imitação. Neste momento, devemos prestar atenção ao fato que dado um par (𝛼, 𝛽), se realizamos Imitação 𝑛 vezes independentemente, o resultado será o mesmo como se simulássemos o processo original VarStav com a condição inicial “todos menos”. Seja 𝐸 uma variável binária que significa ergodicidade e assume o valor sim, se 𝑆𝑡 > 10000; caso contrário, 𝐸 assume o valor não. Se 𝐸 = 𝑠𝑖𝑚, vamos interpretar isso como uma sugestão de que o PSCV, com seus respectivos valores de 𝛼 e 𝛽, é ergódico. Por outro lado, 𝐸=não é assumido como uma sugestão de que nosso processo é não ergódico. Sendo assim, vamos usar Imitação dentro de um ciclo crescente de 𝛽: Iniciamos com 𝛽 = 0 e iterativamente realizamos Imitação para cada aumento de um milésimo de 𝛽. Repetimos o procedimento até 𝛽 atingir o valor 1 ou 𝐸 assumir o valor 𝑠𝑖𝑚, que é como ergodicidade é sugerida. Assim, obtemos um valor de 𝛽. Na verdade, realizamos este ciclo 10 vezes e guardamos a média aritmética dos 10 valores de 𝛽 assim obtidos. Devemos lembrar que tudo isso foi feito para um certo valor de 𝛼. Na verdade, consideramos 1000 valores de 𝛼, isto é, 𝛼𝑖 = 0, 001 𝑖, para 𝑖 = 1, . . . , 1000. O correspondente valor guardado de 𝛽 foi denotado por 𝛽𝑖 . Assim, obtemos 1000 pares da forma (𝛼𝑖 , 𝛽𝑖 ) que nos ajudará a construir uma pseudo-curva denotada por “curva” de Monte Carlo (M.C.). A curva de Monte Carlo vai nos dar uma ideia do comportamento do nosso processo. Na Figura 4.1 mostramos a curva M.C., juntamente com a curva obtida pela aproximação do caos, dada por 𝛽 * (𝛼) e encontrada em (3.11), a qual denotamos por caos. Cada uma dessas curvas estima a linha de separação entre ergodicidade e não ergodicidade de nosso processo. 51 probabilidade de Nascimento, β 0.35 0.3 caos 0.25 0.2 0.15 0.1 M.C. 0.05 0 0 0.2 0.4 0.6 probabilidade de Matança, α 0.8 1 Figura 4.1: Estimação das linhas de transição entre ergodicidade e não ergodicidade para PSCV, obtidas pela aproximação do caos (caos) e Método de Monte Carlo (M.C.) 4.1 ̂︀ Simulação de IE(𝑚𝑎𝑥(𝑆 𝑡 )) A partir de agora, vamos falar sobre outro tipo de experimento computacional. Para o processo Single foi realizado o seguinte experimento computacional: fixamos 𝛼 = 0, 1 𝑖, 𝑖 = 1, 2, . . . , 9 e 𝛽 variando de 0 até 0, 13 com incremento de 0, 001. Para cada par, executamos o procedimento imitação, definido anteriormente. Se no término de imitação for sugerido não-ergodicidade, 𝐸=não, salvamos o valor máximo que 𝑆𝑡 tem alcançado no processo. Da mesma forma, se no término de imitação for sugerido ergodicidade, 𝐸 = 𝑠𝑖𝑚, salvamos o valor máximo que 𝑆𝑡 52 assumiu. Este valor máximo será denotado por 𝑚𝑎𝑥(𝑆𝑡 ). Em outras palavras, dado um par (𝛼, 𝛽), max(𝑆𝑡 ) = max{𝑆𝑡 : 𝑡 = 0, . . . , 100000}. Para cada par, este experimento foi repetido 100 vezes. Assim, teremos 100 valores de máximo, 𝑚𝑎𝑥𝑖 (𝑆𝑡 ), 𝑖 = 1, 2, . . . , 100, obtidos de cada experimento. Calculamos ̂︀ a média desses 100 valores de máximo, a qual denotamos por IE(𝑚𝑎𝑥(𝑆 𝑡 )) e definimos como 100 1 ∑︁ ̂︀ IE(𝑚𝑎𝑥(𝑆 )) = 𝑚𝑎𝑥𝑖 (𝑆𝑡 ). 𝑡 100 𝑖=1 ̂︀ Os gráficos na Figura 4.2, nos mostram os valores de IE(𝑚𝑎𝑥(𝑆 𝑡 )), no eixo das ordenadas, versus a probabilidade 𝛽, no eixo das abscissas. Para uma visualização ̂︀ ampliada, a localização dos valores de IE(𝑚𝑎𝑥(𝑆 𝑡 )), foi dada segundo uma escala logarı́tmica. Em cada gráfico dessa figura foi mostrado um subgráfico (subjanelas) de trechos ampliados dos gráficos maiores, evidenciando saltos ocorridos em cada gráfico. Saltos como estes, tradicionalmente, sugerem o fen^omeno de transição de fase em um certo sentido, que pode ser clássico ou de velocidade de crescimento. Observamos que, tanto em cada gráfico da Figura 4.2, quanto conjuntamente, em média, os valores máximos de 𝑆𝑡 tendem a crescer para valores crescentes de 𝛽 e que próximo à linha de transição existe um aumento abrupto. 53 10000 100000 10000 10000 10000 1000 1000 1000 E[max(St)] E[max(St)] 100 10 100 1 0.006 0.0075 0.009 1000 100 0.015 0.016 0.017 0.018 0.019 100 0.02 10 10 1 1 0 0.002 0.004 0.006 0.008 probabilidade de Nascimento, β 0.01 0.012 0 0.005 0.01 0.015 probabilidade de Nascimento, β (a) 𝛼 = 0, 1 0.02 0.025 (b) 𝛼 = 0, 2 100000 100000 10000 10000 10000 10000 1000 1000 E[max(St)] 10 1 0.02 100 100 1000 0.025 0.03 10 100 1 0.03 0.035 0.04 10 10 1 1 0.1 0 0.005 0.01 0.015 0.02 0.025 0.03 probabilidade de Nascimento, β 0.035 0 0.005 0.01 0.015 0.02 0.025 (d) 𝛼 = 0, 4 100000 10000 10000 1000 100 1000 10 1 0.03 100 0.032 0.034 0.036 0.038 0.04 10 1 0 0.01 0.02 0.03 0.04 probabilidade de Nascimento, β (e) 𝛼 = 0, 5 0.03 0.035 probabilidade de Nascimento, β (c) 𝛼 = 0, 3 E[max(St)] E[max(St)] 100 1000 0.05 0.06 0.04 0.045 54 100000 100000 10000 10000 10000 10000 1000 100 100 1000 E[max(St)] 1000 E[max(St)] 1000 10 100 1 0.045 0.05 0.055 10 100 1 0.055 10 10 1 1 0.1 0.06 0.1 0 0.01 0.02 0.03 0.04 0.05 0.06 probabilidade de Nascimento, β 0.07 0 0.01 0.02 0.03 0.04 0.05 0.06 0.07 probabilidade de Nascimento, β (f) 𝛼 = 0, 6 0.08 0.09 (g) 𝛼 = 0, 7 100000 100000 10000 10000 10000 10000 1000 1000 100 100 1000 E[max(St)] 1000 E[max(St)] 0.065 10 100 1 0.075 0.08 0.085 10 100 1 0.085 10 10 1 1 0.1 0.09 0.095 0.1 0.1 0 0.02 0.04 0.06 probabilidade de Nascimento, β (h) 𝛼 = 0, 8 0.08 0.1 0 0.02 0.04 0.06 0.08 0.1 probabilidade de Nascimento, β 0.12 (i) 𝛼 = 0, 9 Figura 4.2: Comportamento da estimativa da média de 𝑚𝑎𝑥(𝑆𝑡 ), para 𝛼 = 0, 1 𝑖, 𝑖 = 1, 2, . . . , 9 e 𝛽 variando de 0 até 0, 13. Para cada par de 𝛼 e 𝛽, foram realizados 100 experimentos independentes. 55 A Figura 4.3 ilustra os valores que 𝑆𝑡 assume para 𝛼 = 0, 9 e 𝛽 = 0, 05. Esta figura sugere que, para todo 𝑡, a “trajetória” de 𝑆𝑡 fica intensamente concentrada nos valores {0, 1} e muito suavemente concentrada no valor 2, sugerindo, inicialmente que, para esses valores de 𝛼 e 𝛽, 𝛿⊖ ( VarStav )𝑡 não tende para 𝛿⊕ , contrariando nosso teorema principal. 6 5 St 4 3 2 1 0 0 250000 500000 750000 1e+006 Passo de tempo t Figura 4.3: Gráfico que mostra, para 𝛼 = 0, 5 e 𝛽 = 0, 02, os valores de 𝑆𝑡 , na simulação do processo Singular Capı́tulo 5 Conclusões Introduzimos neste trabalho o processo de Stavskaya com comprimento variável (PSCV), inspirado no bem conhecido processo de Stavskaya clássico. Nosso estudo está dividido em aproximação do caos, resultados teóricos e simulação de Monte Carlo, não necessariamente nesta ordem. O maior resultado teórico, dado pelo teorema principal só foi possı́vel por que o operador de interação VarStav , que é não linear, p^ode ser reduzido ao operador Single , que por sua vez é linear. Este teorema nos mostrou que 𝛿⊖ ( VarStav )𝑡 tem comportamento ergódico, uma vez que, para todo 𝛼 < 1 e 𝛽 > 0, este processo tende para 𝛿⊕ . Tanto a aproximação do caos, quanto a simulação de Monte Carlo se mostraram, surpreendentemente, em outra direção com respeito ao nosso resultado teórico, pois estes métodos sugeriram a exist^encia de uma linha de separação entre ergodicidade e não ergodicidade de nosso processo, de acordo com a Figura 4.1. Investigando um pouco mais a questão, vimos que, quando simulamos 𝑆𝑡 para os valores 𝛼 = 0, 9 e 𝛽 = 0, 05, sua trajetória fica intensamente concentrada em {0, 1} e esparsamente concentrada nos outros valores (vide Figura 4.3), sugerindo que nosso processo não tende para 𝛿⊕ . Isto constitui um exemplo de um novo tipo: um processo de comprimento variável, para ilustrar um aparente conflito entre simulação computacional de processos aleatórios e seu estudo teórico. 56 57 Notamos entretanto que, a simulação de Monte Carlo e a aproximação do caos, se comportam como se 𝛿⊖ ( VarStav )𝑡 tendesse para 𝛿⊕ , de forma muito mais lenta para alguns valores de 𝛼, 𝛽 ∈ (0, 1), do que para outros. Isto nos faz acreditar na seguinte conjectura: VarStav tem fase, porém, não no sentido simples como acontece no processo clássico de Stavskaya. Na verdade, podemos estudar ainda mais nosso processo à luz da teoria dos operadores de substituição vistos em [33]. Por exemplo, neste mesmo trabalho, o 𝜌 operador de substituição básico, denominado inserção e representado por Λ −→ ℎ, em que ℎ é uma letra de algum alfabeto, coincide com o nosso operador de interação Birth inter , quando fazemos ℎ = ⊕ e 𝜌 = 𝛽. Apesar de não ser obtido diretamente dos operadores de substituição básicos vistos em [33], o operador de interação Murder inter pode ser obtido na Seção 1.7 deste trabalho, voltada a composição dos operadores de substituição. Por fim, vale ressaltar que esta tese utilizou os principais resultados do artigo intitulado Variable-Length Analog of Stavskaya Process: A New Example of Misleading Simulation, recentemente submetido ao Journal of Statistical Physics. Ap^ endice A Cálculos da aproximação do caos para o PSCV Note-se que a aproximação do caos para os nossos operadores é dada por (3.6) e (3.7). Substituindo 𝑦 por (𝜇(𝒞 Birth inter )(⊕)) em (3.7), obtemos que a composição destes operadores é 𝜇𝒞 Birth inter Murder inter (⊕) = = = = = [𝜇(𝒞 Birth inter )(⊕)][1 − 𝛼(1 − (𝜇(𝒞 Birth inter )(⊕)))] 1 − 𝛼(𝜇(𝒞 Birth inter )(⊕))(1 − (𝜇(𝒞 Birth inter )(⊕))) (︂ )︂ 𝑥+𝛽 𝑥+𝛽 𝑥+𝛽 −𝛼 1− 1+𝛽 1+𝛽 1+𝛽 (︂ )︂ 𝑥+𝛽 𝑥+𝛽 1−𝛼 1− 1+𝛽 1+𝛽 (1 + 𝛽)(𝑥 + 𝛽) − 𝛼(𝑥 + 𝛽)[1 + 𝛽 − (𝑥 + 𝛽)] (1 + 𝛽)2 − 𝛼(𝑥 + 𝛽)[1 + 𝛽 − (𝑥 + 𝛽)] (1 + 𝛽)(𝑥 + 𝛽) − 𝛼(𝑥 + 𝛽)(1 − 𝑥) (1 + 𝛽)2 − 𝛼(𝑥 + 𝛽)(1 − 𝑥) (𝑥 + 𝛽)(1 + 𝛽 − 𝛼(1 − 𝑥)) . (1 + 𝛽)2 − 𝛼(𝑥 − 𝑥2 + 𝛽 − 𝛽𝑥) Assim, a densidade de ⊕ na medida 𝜇𝒞 Birth inter Murder inter depende apenas da densidade de ⊕ na medida 𝜇. Fazendo 𝑓 (𝑥) = 𝜇𝒞 Birth inter Murder inter (⊕), 58 59 temos que 𝑓 (𝑥) = (𝑥 + 𝛽)(1 + 𝛽 − 𝛼(1 − 𝑥)) . (1 + 𝛽)2 − 𝛼(𝑥 − 𝑥2 + 𝛽 − 𝛽𝑥) Refer^ encias Bibliográficas [1] A. Busic, J. Maitresse and I. Marcovici. Probabilistic cellular automata, invariant measures, and perfect sampling. STACS 2011, pp. 296-307. [2] J. Depoorter and C. Maes. Stavskaya’s Measure Is Weakly Gibbsian. Markov Processes and Related Fields, vol. 12 (2006), pp. 791-804. [3] R. Fernandez, P. A. Ferrari, N. Garcia. Perfect simulation for interacting point processes, loss networks, and Ising models. Stoch. Process. Appl., vol. 102 (2002), n. 1, pp. 63-88. [4] L. Gray. A mathematician looks at Stephen Wolfram’s New Kind of Science. Notices of the AMS, vol. 50 (February 2003), n. 2, pp. 200-211. [5] J. M. Hammersley, D. C. Handscomb. Monte Carlo Methods. Chapman and Hall, London, 1964. [6] A. N. Kolmogorov and S. V. Fomin. Introductory real analysis. Translated and Edited by Richard A. Silverman Dover publications, Inc, New York (1970). [7] G. L. Kurdyumov. An algorithm-theoretic method for the study of homogeneous random networks. Adv. Probab, vol. 6 (1980), pp. 471-504. [8] T. M. Liggett. Interacting Particle Systems. Springer, 1985. 60 61 [9] T. M. Liggett. Stochastic Intracting Systems: Contact, Voter, and Exclusion Processes. Springer, 1999. [10] C. Maes. New Trends in Interacting Particle Systems. Markov Proc. Rel. Fields, vol. 11 (2005), n. 2, pp. 283-288. [11] V. Malyshev. Quantum Grammars. Journal of Mathem. Physics, vol. 41 (2000), n. 7, pp. 4508-4520. [12] V. Malyshev. Quantum Evolution of Words. Theoretical Computer Science (2002). Avaliable at http://www-rocq.inria.fr/\%7Emalyshev/Malyshev/papers.htm. [13] I. Narsky. Estimation of Goodness-of-Fit in Multidimensional Analysis Using Distance to Nearest Neighbor. arXiv: physics/0306171v1. [14] N. V. Petri. Unsolvability of the recognition problem for annihilating iterative networks. Selecta Mathematica Sovietica, vol. 6 (1987), pp. 355-363. [15] A. D. Ramos. Particle process with variable length. Ph.D. Thesis. Federal University of Pernambuco, Departament of Statistics, Recife, Pernambuco, Brazil (2007). (In Portuguese with an abstract in English). Available at http://de.ufpe.br/~toom/ensino/doutorado/alunos/index.htm. [16] A. D. Ramos and A. Toom. An error correction. Letter to the editor. Journal of Statistical Physics, vol. 131, number 1 (april 2008), pp 167-168. [17] A. D. Ramos and A. Toom. Chaos and Monte-Carlo approximations of the Flip-Annihilation process. Journal of Statistical Physics, vol. 133 (2008), n. 4, pp. 761-771. 62 [18] A. D. Ramos and A. Toom. Non-ergodicity and growth are compatible for 1-D local interaction. Brazilian Journal of Probability and Statistics, vol. 24 (2010), n. 2, pp.400-412. [19] A. D. Ramos and A. Toom. Trajectories in Random Monads. Journal of Statistical Physics, vol. 142 (2011), n. 1, pp. 201-219. [20] A. V. Rocha, A. B. Simas and A. Toom. Substitution Operators. Journal of Statistical Physics, vol. 143, (2011), n. 3, pp. 585-618. [21] O. Stavskaya. Gibbs invariant measures for Markov chains on finite lattices with local interaction. Mat. Sbornik, vol. 21 (1973), pp. 395. (Em russo.) [22] O. Stavskaya and I. Piatetski-Shapiro. On homogeneous nets of spontaneously active elements. Systems Theory Res., vol. 20 (1971), pp. 75-88. [23] M. Shaked and J. G. Shanthikumar. Stochastic orders. Springer Series in Statistics. Springer, New York, 2007. [24] M. I. Sobol. A Primer for the Monte Carlo Method. London: CRC Press, 1994. [25] A. Toom. A Family of Uniform Nets of Formal Neurons. Soviet Math. (Doklady), 1968, vol.9 n.6, pp. 1338-1341. [26] A. Toom. On invariant measures in non-ergodic random media. Probabilistic Methods of Investigation, issue 41. Ed. by A. Kolmogorov. Moscow University Press, Moscow, pp.43-51, 1972. (Em Russo). [27] A. Toom, N. Vasilyev, O. Stavskaya, L. Mityushin, G. Kurdyumov and S. Pirogov. Discrete local Markov systems. Stochastic Cellular Systems : ergodicity, memory, morphogenesis. Ed. by R. Dobrushin, V. Kryukov and A. 63 Toom. Nonlinear Science: theory and applications, Manchester University Press, 1990, pp. 1-182. [28] A. Toom. Cellular Automata with Errors: Problems for Students of Probability. Topics in Contemporary Probability and its Applications. Ed. J. Laurie Snell. Series Probability and Stochastics ed. by Richard Durrett and Mark Pinsky. CRC Press, 1995, pp. 117-157. [29] A. Toom. Contours, convex sets, and cellular automata. Text of a course at the 23-th Colloquium of Brazilian mathematicians. Translated from English into Portugues by Andréa Vanessa Rocha and Pedro Ferreira de Lima. IMPA, 2001. [30] A. Toom. Particle systems with variable length. Bulletin of the Brazilian Mathematical Society, vol. 33, n. 3, November 2002, pp. 419-425. [31] A. Toom. Non-ergodicity in a 1-D particle process with variable length. Journal of Statistical Physics, vol. 115 (2004), nn. 3/4, pp. 895-924. [32] A. Toom. Every continuous operator has an invariant measure. Journal of Statistical Physics, vol. 129 (2007), pp. 555-566. [33] A. Toom, A. Ramos, A. Rocha e A. Simas. Processos Aleatórios com Comprimento Variável. Text of a course at the 28-th Colloquium of Brazilian mathematicians. IMPA, 2011.