• Nenhum resultado encontrado

Thesis Byron Oviedo

N/A
N/A
Protected

Academic year: 2021

Share "Thesis Byron Oviedo"

Copied!
80
0
0

Texto

(1)

Byron Abrahan Jim´

enez Oviedo

Processo de exclus˜

ao simples sim´

etrico em

contato com reservat´

orios

Disserta¸c˜ao de Mestrado

Disserta¸c˜ao apresentada como requisito parcial para obten¸c˜ao do grau de Mestre pelo Programa de P´os–gradua¸c˜ao em Matem´atica do Departamento de Matem´atica da PUC–Rio

Orientadora: Prof. Ana Patr´ıcia Carvalho Gon¸calves

Rio de Janeiro Novembro de 2014 PUC-Rio - Certificação Digital Nº 1313524/CA

(2)

Byron Abrahan Jim´

enez Oviedo

Processo de exclus˜

ao simples sim´

etrico em

contato com reservat´

orios

Disserta¸c˜ao apresentada como requisito parcial para obten¸c˜ao do grau de Mestre pelo Programa de P´os–gradua¸c˜ao em Matem´atica do Departamento de Matem´atica do Centro T´ecnico Cient´ıfico da PUC–Rio. Aprovada pela Comiss˜ao Examinadora abaixo assi-nada.

Prof. Ana Patr´ıcia Carvalho Gon¸calves Orientadora Departamento de Matem´atica — PUC–Rio

Prof. Marielle Odette Christine Simon Departamento de Matem´atica-PUC–Rio

Prof. Adriana Neumann de Oliveira UFGRS

Prof. Freddy Rolando Hernandez Romero UFF

Prof. Milton David Jara Valenzuela IMPA

Prof. Jos´e Eugenio Leal Coordenador Setorial do Centro T´ecnico Cient´ıfico — PUC–Rio

Rio de Janeiro, 14 de Novembro de 2014

PUC-Rio - Certificação Digital Nº 1313524/CA

(3)

Todos os direitos reservados. ´E proibida a reprodu¸c˜ao total ou parcial do trabalho sem autoriza¸c˜ao da universidade, do autor e do orientador.

Byron Abrahan Jim´enez Oviedo Graduou–se em Ensino da Matem´atica na Universidad Na-cional de Costa Rica (Heredia, Costa Rica). Depois de cur-sar disciplinas de Matem´atica pura na Universidad de Costa Rica e de trabalhar como professor na Universidad Nacional de Costa Rica, decidiu vir ao Brasil para poder fazer estudos de p´os-gradua¸c˜ao na PUC.

Ficha Catalogr´afica

Jim´enez, Byron

Processo de exclus˜ao simples sim´etrico em contato com reservat´orios / Byron Abrahan Jim´enez Oviedo; orientadora: Ana Patr´ıcia Carvalho Gon¸calves. — Rio de Janeiro : PUC– Rio, Departamento de Matem´atica, 2014.

v., 80 f: il. ; 29,7 cm

1. Disserta¸c˜ao (mestrado) - Pontif´ıcia Universidade Cat´olica do Rio de Janeiro, Departamento de Matem´atica.

Inclui referˆencias bibliogr´aicas.

1. Matem´atica – Tese. 2. Cadeias de Markov. 3. Processo de exclus˜ao simples sim´etrico . 4. Equa¸c˜ao do Calor. 5. Limite Hidrodinˆamico. 6. Flutua¸c˜oes. I. Carvalho Gon¸calves, Ana Patr´ıcia. II. Pontif´ıcia Universidade Cat´olica do Rio de Janeiro. Departamento de Matem´atica. III. T´ıtulo.

CDD: 510 PUC-Rio - Certificação Digital Nº 1313524/CA

(4)

Agradecimentos

Aos meus pais, e aos pais da minha esposa, porque eles sempre deram apoio incondicional.

Ao professor Frederico Palmeira e a sua fam´ılia, por nos fazer parte deles. `

A minha orientadora Professora Patr´ıcia Gon¸calves por acreditar em mim, pelo apoio, simpatia e entusiasmo de sempre.

`

A Creuza por ter feito um excelente trabalho, e estar sempre atenta para ajudar.

`

A Unversidad Nacional de Costa Rica, em especial a escola de matem´atica pelo apoio.

Ao CNPq o apoio financeiro.

E sobretudo `a minha esposa Katalina, por seu amor incondicional, por apoiar-me nos moapoiar-mentos de desˆanimo, por sempre acreditar em mim, pela sua paciˆencia, por seu sorriso de cada dia que motiva a minha existˆencia.

PUC-Rio - Certificação Digital Nº 1313524/CA

(5)

Resumo

Jim´enez, Byron; Carvalho Gon¸calves, Ana Patr´ıcia. Processo de exclus˜ao simples sim´etrico em contato com reservat´orios. Rio de Janeiro, 2014. 80p. Disserta¸c˜ao de Mestrado — Departa-mento de Matem´atica, Pontif´ıcia Universidade Cat´olica do Rio de Janeiro.

Nesta disserta¸c˜ao de mestrado ´e demonstrado o limite hidrodinˆamico do processo de exclus˜ao simples sim´etrico em contato com reservat´orios que se denota por {ηt}t≥0. A dinˆamica que apresenta este processo, consiste

em part´ıculas realizando passeios aleat´orios a tempo cont´ınuo no espa¸co {1, ..., N − 1}, onde duas part´ıculas nunca ocupam o mesmo s´ıtio simulta-neamente. Al´em disso, na borda esquerda as part´ıculas s˜ao criadas com taxa α e destru´ıdas com taxa 1 − α, e na borda direita, s˜ao criadas com taxa β e destru´ıdas com taxa 1 − β. O teorema principal, ´e o Teorema 5.0.10, que diz, que para cada t ≥ 0, para cada fun¸c˜ao G de classe C2 no intervalo [0, 1]

com G(0) = 0 = G(1), para cada δ > 0, se η0 tem distribui¸c˜ao µN associada

a um perfil ρ0 : [0, 1] → [0, 1], ent˜ao lim N →∞Pµ N η.N : 1 N N −1 X x=1 G x N  ηtN2(x) − Z [0,1] G(u)ρ(t, u)du > δ ! = 0,

onde PµN ´e a medida induzida pelo processo de Markov partindo de µN e

ρ(t, u) ´e a ´unica solu¸c˜ao fraca da equa¸c˜ao do calor com condi¸c˜oes de Dirichlet dada por      ∂tρ(t, x) = ∆ρ(t, x) para x ∈ [0, 1], t > 0 ρ(0, x) = ρ0(x) para x ∈ [0, 1] ρ(t, 0) = α, ρ(t, 1) = β para t ∈ [0, ∞) .

A tese termina com o estudo das flutua¸c˜oes fora do equil´ıbrio desse processo.

Palavras–chave

Cadeias de Markov; Processo de exclus˜ao simples sim´etrico; Equa¸c˜ao do Calor; Limite Hidrodinˆamico; Flutua¸c˜oes.

PUC-Rio - Certificação Digital Nº 1313524/CA

(6)

Abstract

Jim´enez, Byron; Carvalho Gon¸calves, Ana Patr´ıcia(Advisor). The symmetric simple exclusion process with reservoirs. Rio de Janeiro, 2014. 80p. MsC Thesis — Department of Matem´atica, Pontif´ıcia Universidade Cat´olica do Rio de Janeiro.

In this dissertation we prove the hydrodynamic limit of the symmetric simple exclusion process with contact reservoirs, which is denoted by {ηt}t≥0. The dynamic of this process consists in particles performing

conti-nuous time random walks on the space {1, ..., N − 1}, where two particles never occupy the same site simultaneously. At the left boundary, particles are created with rate α and annihilated with rate 1 − α. On the right boun-dary, this is done with rates β and 1 − β, respectively. The main theorem is Theorem 5.0.10, that says, that for every t ≥ 0, every function G of class C2[0, 1] with G(0) = 0 = G(1), for each δ > 0, if η0 has distribution µN

associated to a profile ρ0 : [0, 1] → [0, 1], then

lim N →∞Pµ N η.N : 1 N N −1 X x=1 Gx N  ηtN2(x) − Z [0,1] G(u)ρ(t, u)du > δ ! = 0,

where PµN is the measure induced by the Markov process starting from

µN and ρ(t, u) is the unique solution of the heat equation with Dirichlet’s boundary conditions, given by

     ∂tρ(t, x) = ∆ρ(t, x) para x ∈ [0, 1], t > 0 ρ(0, x) = ρ0(x) para x ∈ [0, 1] ρ(t, 0) = α, ρ(t, 1) = β para t ∈ [0, ∞) .

The thesis ends with the study of nonequilibrium fluctuations for this process.

Keywords

Markov Chain; Symmetric Simple Exclusion Process; Heat Equation; Hydrodynamic Limit; Fluctuations.

PUC-Rio - Certificação Digital Nº 1313524/CA

(7)

Resumen

Jim´enez, Byron; Carvalho Gon¸calves, Ana Patr´ıcia(Orientadora). Proceso de exclusi´on simple sim´etrico en contacto con resevatorios. Rio de Janeiro, 2014. 80p. Tesis de Maestr´ıa — Departmento de Matem´atica, Pontif´ıcia Universidade Cat´olica do Rio de Janeiro.

En esta tesis vamos a probar el l´ımite hidrodin´amico del proceso de exclusi´on simple sim´etrico en contacto con reservatorio, que denotamos por {ηt}t≥0.

La din´amica de este proceso consiste en part´ıculas que realizan un paseo aleatorio en tiempo discreto en el espacio discreto {1, ..., N − 1}, donde dos part´ıculas nunca ocupan el mismo sitio simult´aneamente. Adem´as, en la frontera izquierda, las part´ıculas son creadas con tasa α y destruidas con tasa 1 − α. En la frontera derecha, son creadas con tasa β y destruidas con tasa 1−β. El teorema principal es el Teorema 5.0.10, que dice que para cada t ≥ 0, cada funci´on G de clase C2[0, 1] con G(0) = 0 = G(1) y para cada

δ > 0, si η0 tiene distribuci´on µN asociada a un perfil ρ0 : [0, 1] → [0, 1],

entonces lim N →∞Pµ N η.N : 1 N N −1 X x=1 Gx N  ηtN2(x) − Z [0,1] G(u)ρ(t, u)du > δ ! = 0,

donde PµN es una medida inducida por el proceso de Markov empezando

de µN y ρ(t, u) es la ´unica soluci´on de la ecuaci´on de calor con condiciones de frontera de Dirichlet, dada por

     ∂tρ(t, x) = ∆ρ(t, x) para x ∈ [0, 1], t > 0 ρ(0, x) = ρ0(x) para x ∈ [0, 1] ρ(t, 0) = α, ρ(t, 1) = β para t ∈ [0, ∞) .

La tesis termina con el estudio de las fluctuaciones fuera del equilibrio del proceso.

Palabras Clave

Cadenas de Markov; Proceso de exclusi´on simple sim´etrico; Ecuaci´on de Calor; L´ımite Hidrodin´amico; Fluctuaciones.

PUC-Rio - Certificação Digital Nº 1313524/CA

(8)

Sum´

ario

1 Introdu¸c˜ao 9

2 Processos de Markov 11

2.1 Cadeias de Markov a tempo discreto 11

2.2 Cadeias de Markov a tempo cont´ınuo 13

2.3 Processo de Markov geral 16

2.4 Semigrupos e geradores 18

2.5 Medida de Probabilidade Invariante 19

3 Apresenta¸c˜ao do processo e resultados preliminares 21 3.1 Processo de Exclus˜ao Simples Sim´etrico em contato com reservat´orios 21

3.2 Nota¸c˜oes e ferramentas 24

3.3 Medidas Invariantes 26

3.4 Do microsc´opico para o macrosc´opico 29

3.5 Dedu¸c˜oes das EDP’s discretas 30

4 A equa¸c˜ao do calor 35

4.1 Equa¸c˜ao do calor 35

4.2 Motiva¸c˜ao e defini¸c˜ao da solu¸c˜ao fraca 36

4.3 Equa¸c˜ao semi-discreta do calor 37

5 Limite Hidrodinˆamico 48

5.1 Rigidez 51

5.2 Medidas absolutamente cont´ınuas 55

5.3 Caracteriza¸c˜ao dos pontos limites 56

6 Flutua¸c˜oes 61

6.1 Espa¸co 61

6.2 Rigidez 62

6.3 Flutua¸c˜oes fora do equil´ıbrio 68

Referˆencias Bibliogr´aficas 72

A Martingais e processos de Markov 74

B O Teorema de Portmanteau 75 C Topologia e Compacidade 76 PUC-Rio - Certificação Digital Nº 1313524/CA

(9)

1

Introdu¸

ao

A mecˆanica cl´assica diz que a evolu¸c˜ao de um certo sistema pode ser descrita pela posi¸c˜ao e velocidade de cada part´ıcula em cada instante, a partir das condi¸c˜oes iniciais. Mas, se o sistema em que estamos trabalhando tem uma quantidade muito grande de part´ıculas, a utiliza¸c˜ao da proposta anterior pode ser muito complexa, por exemplo, por cada mol de g´as, temos uma quantidade de part´ıculas da ordem maior que 1023, que ´e um n´umero muito grande. Assim,

resolver um sistema de equa¸c˜oes em espa¸cos com estas dimens˜oes, torna-se dif´ıcil, pois este problema, claramente, excede as capacidades computacionais que est˜ao atualmente dispon´ıveis.

A mecˆanica estat´ıstica, separa o campo de estudo no espa¸co macrosc´opico e no estado microsc´opico. Assim, podemos estudar parˆametros no sistema macrosc´opico como press˜ao, temperatura, volume, velocidade m´edia e outros, que em certas ocasi˜oes, se espera que a sua evolu¸c˜ao temporal seja dada pela solu¸c˜ao de uma equa¸c˜ao diferencial parcial, que chamamos de equa¸c˜ao hidrodinˆamica.

No caso microsc´opico, a mecˆanica estat´ıstica simplifica o estudo do sistema supondo que o movimento das part´ıculas ´e aleat´orio, isto ´e, cada part´ıcula faz um passeio aleat´orio com certas restri¸c˜oes.

Assim, assumindo este comportamento aleat´orio das part´ıculas esperamos obter a equa¸c˜ao hidrodinˆamica para os parˆametros macrosc´opicos, dependendo da dinˆamica microsc´opica aleat´oria subjacente. Ent˜ao, ´e surpreendente que a partir de um processo aleat´orio podemos obter um processo determin´ıstico. Este ´e o chamado limite hidrodinˆamico para o sistema f´ısico em quest˜ao. Agora, vamos fazer uma descri¸c˜ao informal do processo estoc´astico com que vamos trabalhar. Imaginemos que temos N + 1 s´ıtios, nomeadamente 1, 2, . . . , N − 1, e temos no m´aximo uma part´ıcula por s´ıtio. Nos s´ıtios 0 e N vamos supor que temos infinitas part´ıculas, e por esse motivo, vamos dizer que esses s´ıtios s˜ao como reservat´orios de part´ıculas acoplados ao sistema. Vamos chamar aos s´ıtios 1, 2, · · · , N − 1 os s´ıtios do interior e a 0 e N os s´ıtios da fronteira. Agora, nos s´ıtios do interior, cada part´ıcula executa um passeio aleat´orio sim´etrico a tempo cont´ınuo, restrito `a regra de que se uma part´ıcula quer pular, com probabilidade 1/2, para um s´ıtio do interior previamente ocupado por outra part´ıcula, ent˜ao o salto ´e suprimido. Esta propriedade se chama de regra de exclus˜ao. Na fronteira a dinˆamica ´e a seguinte. As part´ıculas podem entrar no s´ıtio 1 com taxa α e sair para a fronteira no s´ıtio 0 com taxa

PUC-Rio - Certificação Digital Nº 1313524/CA

(10)

Cap´ıtulo 1. Introdu¸c˜ao 10

1 − α, analogamente, no s´ıtio N − 1 as part´ıculas podem entrar com taxa β e sair para a fronteira no s´ıtio N com taxa 1 − β. A este processo vamos chamar processo de exclus˜ao simples sim´etrico em contato com reservat´orios. Al´em disso, em cada s´ıtio da malha existe um rel´ogio com lei exponencial de parˆametro 1. Se um rel´ogio num s´ıtio da malha toca, a part´ıcula neste s´ıtio salta com a dinˆamica anteriormente estabelecida. Os rel´ogios exponencias fazem com que o processo tenha perda de mem´oria, assim temos uma cadeia de Markov a tempo cont´ınuo com espa¸co de estados discreto.

Agora, fazemos uma identifica¸c˜ao do espa¸co discreto {0, 1, 2, . . . , N − 1, N } (espa¸co microsc´opico) com o espa¸co cont´ınuo [0, 1] (espa¸co macrosc´opico) pela aplica¸c˜ao que leva x em Nx. Ent˜ao vamos dizer que os saltos se realizam sobre os s´ıtios {0,N1, . . . ,N −1N , 1}. Queremos mostrar que quando N → ∞, a densidade de part´ıculas em [0, 1] se comporta como a solu¸c˜ao de uma equa¸c˜ao diferencial parcial, a esta caracter´ıstica vamos chamar limite hidrodinˆamico. Aqui precisamos fazer uma mudan¸ca de escala temporal, para tal vamos acelerar o tempo por um fator de N2. Esta mudan¸ca na escala de tempo ´e importante para conseguirmos a convergˆencia das densidades.

Neste trabalho, queremos fazer os detalhes da demonstra¸c˜ao do teorema de limite hidrodinˆamico para o processo de exclus˜ao simples sim´etrico em contato com reservat´orios.

No primeiro cap´ıtulo, vamos tratar alguns resultados de cadeias de Markov, e teoria de semigrupos, que nos dar´a uma base para o estudo dos seguintes cap´ıtulos.

No segundo cap´ıtulo, introduzimos o processo de exclus˜ao simples sim´etrico em contato com reservat´orios. Tamb´em, vamos apresentar as nota¸c˜oes que vamos utilizar no trabalho. Al´em disso, vamos deduzir algumas equa¸c˜oes diferenciais parciais discretas associadas ao processo que vamos estudar.

No terceiro cap´ıtulo, vamos fazer um estudo da equa¸c˜ao do calor. Definimos formalmente a no¸c˜ao de solu¸c˜ao fraca de uma equa¸c˜ao do calor com condi¸c˜oes de Dirichlet e estudamos a equa¸c˜ao semi-discreta do calor.

No quarto cap´ıtulo, vamos demonstrar o limite hidrodinˆamico. Para fazer esta demonstra¸c˜ao consideramos trˆes partes: rigidez, medidas absolutamente cont´ınuas e a caracteriza¸c˜ao dos pontos limite. O limite hidrodinˆamico ´e uma Lei dos Grandes N´umeros para uma medida que d´a peso N1 a cada s´ıtio que est´a ocupado por uma part´ıcula. Esta medida ´e chamada medida emp´ırica. No ´ultimo cap´ıtulo vamos estudar as flutua¸c˜oes fora do equil´ıbrio. Neste cap´ıtulo vamos a estabelecer o teorema do Limite Central para a medida emp´ırica, para isto vamos definir o campo de flutua¸c˜oes, que ´e uma distribui¸c˜ao aleat´oria em [0, 1]. PUC-Rio - Certificação Digital Nº 1313524/CA

(11)

2

Processos de Markov

Para preparar o leitor, discutiremos aqui a constru¸c˜ao de cadeias e processos de Markov em espa¸cos de estados discretos, primeiro a tempo discreto e depois a tempo cont´ınuo. Assim, poderemos finalmente fazer uma defini¸c˜ao geral de processo de Markov como uma fam´ılia de probabilidades.

2.1

Cadeias de Markov a tempo discreto

Quando falamos de um processo estoc´astico no sentido mais geral, temos uma fam´ılia de vari´aveis aleat´orias (v.a.’s) {Xj}j∈J (onde J ´e um conjunto de

´ındices), definidas num espa¸co de probabilidade (Ω, F , P ). Se o processo evolui no tempo, dizemos que o processo ´e discreto no caso em que J ⊆ N ou cont´ınuo se J ⊆ [0, +∞), embora, podem ser considerados conjuntos mais gerais. Agora, seja S um conjunto finito ou enumer´avel, que chamamos espa¸co de estados do processo e que definimos como os poss´ıveis valores que podem tomar as v.a.’s {Xj}j∈J. Tamb´em, definimos uma matriz estoc´astica (p(x, y))(x,y)∈S2 como uma

matriz de n´umeros n˜ao negativos, tais que, X

y∈S

p(x, y) = 1, ∀x ∈ S.

Claramente, se S ´e um conjunto finito ent˜ao a matriz ´e finita. Suponhamos que {Xn}n≥0 s˜ao v.a.’s definidas no espa¸co de probabilidade (Ω, F , P ). Ent˜ao,

{Xn}n≥0 ´e uma cadeia de Markov com probabilidade de transi¸c˜ao pn(x, y) se,

para cada n ≥ 0 e qualquer escolha de x0, x1, · · · , xn−1, x, y ∈ S temos

P (ω ∈ Ω : Xn+1(ω) = y|Xn(ω) = x, · · · , X0(ω) = x0) = pn(x, y). (2.1)

A condi¸c˜ao (2.1) diz que, dado o atual estado x, a evolu¸c˜ao futura ´e total-mente independente da evolu¸c˜ao passada, isto ´e, n˜ao depende da escolha de x0, x1, · · · , xn−1, esta condi¸c˜ao ´e chamada de propriedade de Markov. Al´em

disso, se o lado direito de (2.1) n˜ao depende do tempo n, ent˜ao o processo diz-se homogˆeneo no tempo.

Assim, dada uma cadeia de Markov {Xn}n≥0 homogˆenea no tempo e tomando

o conjunto [X0 = x0] := {ω ∈ Ω : X0(ω) = x0}1, chamamos distribui¸c˜ao inicial

do processo, a medida denotada por µ, definida por µ(x0) := P (X0 = x0) , ∀x0 ∈ S.

1Daqui em diante, `as vezes, vamos usar esta defini¸ao sem indica¸ao para o leitor.

PUC-Rio - Certificação Digital Nº 1313524/CA

(12)

Cap´ıtulo 2. Processos de Markov 12

Pela equa¸c˜ao (2.1), e dada uma cadeia de Markov {Xn}n≥0 com matriz de

transi¸c˜ao (p(x, y))(x,y)∈S2 e distribui¸c˜ao inicial µ temos que

P (X0 = x0, · · · , Xn= xn)

= P (X0 = x0, · · · , Xn−1 = xn−1) P (Xn = xn|X0 = x0, · · · , Xn−1 = xn−1) ,

pela propriedade de Markov temos que a equa¸c˜ao acima ´e igual a P (X0 = x0, · · · , Xn−1 = xn−1) P (Xn= xn| Xn−1= xn−1) | {z } p(xn−1,xn) .. . = P (X0 = x0) p(x0, x1)p(x1, x2) · · · p(xn−1, xn) = µ(x0)p(x0, x1)p(x1, x2) · · · p(xn−1, xn). (2.2) Uma pergunta natural, mas n˜ao trivial de responder ´e: “Ser´a que dada uma matriz estoc´astica p e uma probabilidade µ ∈ S, existe uma cadeia de Markov com matriz de transi¸c˜ao p e distribui¸c˜ao µ?”

Sem perda de generalidade, seja µ a medida de Dirac no ponto x0. Suponhamos

que queremos construir um n´umero finito m de v.a.’s (X0, X1, · · · , Xm) com a

propriedade de Markov para 0 ≤ n ≤ m − 1 e com distribui¸c˜ao inicial µ = δx0.

Seja Ω = Sm+1 o espa¸co vetorial de dimens˜ao m + 1 com valores em S, e seja F o conjunto de todos os subconjuntos de Ω, isto ´e F = P(Ω). Para cada ω = (s0, · · · , sm) ∈ Ω definimos

Px0(w) := δ

x0(s0)p(s0, s1)p(s1, s2) · · · p(sm−1, sm). (2.3)

Assim, podemos definir as v.a.’s por Xj(ω) := sj com 0 ≤ j ≤ m. Ent˜ao

conseguimos definir Px0 sobre o espa¸co Sm+1 tal que as v.a.’s X

j (proje¸c˜oes)

tˆem a propriedade markoviana (que resulta da constru¸c˜ao) com matriz de transi¸c˜ao p e estado inicial x0.

Agora, pretendemos estender a constru¸c˜ao ao processo infinito {Xn}n≥0 no

espa¸co Ω = S∞, cujos elementos s˜ao sequˆencias infinitas ω = (s0, s1, s2, · · · )

com sj ∈ S, tomando Xn(ω) = sn, isto ´e, considerando

Xn : Ω −→ S

ω = (s0, s1· · · ) 7−→ sn.

A σ-´algebra produto F em Ω ´e gerada pelos cilindros (eventos com um n´umero finito de coordenadas). Com um espa¸co de estado S enumer´avel ´e suficiente

PUC-Rio - Certificação Digital Nº 1313524/CA

(13)

Cap´ıtulo 2. Processos de Markov 13

considerar conjuntos da forma

{ω = (s0, s1, s2, · · · ) : X0(ω) = s0, X1(ω) = s1, · · · , Xm(ω) = sm}.

Seja C0 a classe de tais conjuntos obtidos por deixar os vetores (s0, · · · , sm)

variarem sobre Sm+1. Definimos a fun¸c˜ao Px em C 0 por

Px(X0 = s0, X1 = s1, · · · , Xm = sm) = δx(s0)p(s0, s1) · · · p(sm−1, sm).

Este ´e um primeiro passo para dar solu¸c˜ao `a nossa constru¸c˜ao, o segundo passo ´e fornecido pelo Teorema de extens˜ao de Kolgomorov, que garante que para cada x, a medida de probabilidade Px, existe no espa¸co produto infinito, de tal forma que a probabilidade de cada cilindro ´e igual `a probabilidade dada por (2.3). Se queremos come¸car com um estado inicial X0aleat´orio com distribui¸c˜ao

µ, tomamos em Ω a medida Pµ definida em A ∈ F por

Pµ(A) =X

x∈S

µ(x)Px(A).

Portanto a resposta `a pergunta ´e afirmativa, e dizemos que uma cadeia de Markov est´a bem determinada pela sua matriz de transi¸c˜ao e pela sua distribui¸c˜ao inicial.

2.2

Cadeias de Markov a tempo cont´ınuo

Vamos construir uma cadeia de Markov {Xt}t≥0 com 0 ≤ t < ∞, mas

num espa¸co de estados enumer´avel S. Como S ´e enumer´avel nossa cadeia tem que se mover em saltos, assim a evolu¸c˜ao da cadeia ´e descrita da seguinte forma. No estado x esperamos um tempo aleat´orio, e saltamos aleatoriamente a um novo estado y. Depois esperamos um outro tempo aleat´orio e saltamos aleatoriamente a um estado z, e assim por diante. Ent˜ao, temos que determinar duas coisas:

1. A distribui¸c˜ao de probabilidade dos tempos aleat´orios de espera em cada estado x ∈ S.

2. O mecanismo para escolher o pr´oximo estado quando ocorre um salto. Notemos que a propriedade de Markov nos diz que a distribui¸c˜ao do tempo at´e ao salto seguinte, s´o pode depender da localiza¸c˜ao atual x e n˜ao pode depender do tempo passado.

Teorema 2.2.1. A ´unica distribui¸c˜ao cont´ınua com a propriedade de n˜ao ter mem´oria ´e a distribui¸c˜ao exponencial.

PUC-Rio - Certificação Digital Nº 1313524/CA

(14)

Cap´ıtulo 2. Processos de Markov 14

Demonstra¸c˜ao. Afirmamos que a v.a. X com distribui¸c˜ao exponencial de parˆametro λ > 0 tem perda de mem´oria. De fato, note que, ∀s, t > 0

P (X > s + t|X > t) = P (X > s + t, X > t) P (X > t) = P (X > s + t) P (X > t) = e−λ(s+t)eλt = e−λs = P (X > s).

A igualdade anterior significa que a probabilidade de X ser maior a t + s sabendo que X ´e maior que t, s´o depende amplitude do intervalo, ou seja, essa probabilidade coincide com a probabilidade de X ser maior que s. Agora vejamos que ´e ´unica. Seja X v.a. cont´ınua com perda de mem´oria e seja F (t) = P (X > t). Ent˜ao, F (t + s) = F (t)F (s), ∀t, s > 0 e isto implica que F (2) = F2(1) e F 1

2 

= F12(1). Em geral, se a ∈ Q temos que F (a) = Fa(1).

Assim a ´unica fun¸c˜ao cont´ınua que satisfaz a rela¸c˜ao acima para a ≥ 0 com a ∈ Q, ´e F (a) = Fa(1) = ea ln F (1). Agora basta tomar λ = − ln(F (1)).

Voltando, a perda de mem´oria for¸ca que o tempo de espera em x seja distribu´ıdo exponencialmente. Seja (c(x))−1 a sua m´edia. Ent˜ao, c(x) ´e a taxa de salto do estado x. Sempre que a cadeia est´a em x consideramos que o tempo de espera Tx tem distribui¸c˜ao exponencial, ou seja, ∀t > 0 P (Tx > t) = e−c(x)t.

Quando a cadeia “salta”, a propriedade de Markov diz que a escolha do seguinte estado depende s´o do atual estado x. Assim os saltos s˜ao descritos pela matriz estoc´astica p(x, y), onde p(x, y) ´e a probabilidade de estar em x e saltar para y. Como p n˜ao depende do tempo a probabilidade de saltar de x a y n˜ao depende do tempo em que o salto ocorre.

Ent˜ao, isto sugere que para construir uma cadeia de Markov {Xt}t≥0 a tempo

cont´ınuo com saltos exponencialmente distribu´ıdos com parˆametros c(x) e com p(x, y) como matriz de transi¸c˜ao, tomamos uma cadeia de Markov em tempo discreto {Yn}n≥0 com matriz de transi¸c˜ao p(x, y) e ajustamos os tempos de

espera para produzir os tempos corretos, isto ´e, exponencialmente distribu´ıdos com m´edia (c(x))−1.

Seja x ∈ S o estado inicial e seja (Ω1, H1, P1x) o espa¸co de probabilidade no

qual est´a definida a cadeia discreta {Yn}n≥0, com matriz de transi¸c˜ao p(x, y)

e estado inicial x. Al´em disso, independentemente de {Yn}n≥0, seja {τj}j≥0

uma sequˆencia de v.a.’s independentes e identicamente distribu´ıdas (i.i.d), com distribui¸c˜ao exponencial de m´edia 1, no espa¸co (Ω2, H2, P2) . Tomamos

PUC-Rio - Certificação Digital Nº 1313524/CA

(15)

Cap´ıtulo 2. Processos de Markov 15

(Ω, H, Px) = (Ω1⊗Ω2, H1⊗H2, P1x⊗P2). Note que os estados que a cadeia toma

em tempo cont´ınuo {Xt}t≥0, s˜ao x = Y0, Y1, · · · , isto ´e a cadeia toma os mesmos

valores de {Yn}n≥0. Definimos os tempos de espera por σn = (c(Yn))−1τn.

Claramente, {σn}n≥0n˜ao ´e independente da cadeia {Yn}n≥0, mas condicionada

`

a vari´avel discreta Yn, temos que a vari´avel σn´e independente de {σk, Yk}0≤k<n,

e al´em disso, tem distribui¸c˜ao exponencial com m´edia (c(Yn))−1.

Agora, defina T0 = 0, Tn = σ0+ σ1+ · · · + σn, para n ≥ 1. Ent˜ao

Xt= ∞

X

n=0

Yn1{[Tn,Tn+1)}(t).

Note que Xt est´a definida para todo tempo 0 ≤ t < ∞, se Tn % ∞ quando

n % ∞. De fato, isto acontece quase certamente no caso em que exista uma constante C0 < ∞, tal que c(x) ≤ C0, ∀x ∈ S, pois, ter´ıamos que (c(Yn))−1

n˜ao se anula quando n % ∞. Portanto, daqui para a frente vamos assumir este fato. A nossa constru¸c˜ao pode ser repetida para cada estado inicial x ∈ S. Defina a probabilidade de transi¸c˜ao por pt(x, y) = Px(Xt = y). Assim, temos

a seguinte propriedade para todos os tempos 0 ≤ t0 < t1 < t2 < · · · < tn e

estados iniciais x0, x1, x2, · · · , xn:

Px(Xt0 = x0, · · · , Xtn = xn) = pt0(x, x0)pt1−t0(x0, x1) · · · ptn−tn−1(xn−1, xn).

(2.4) A igualdade anterior, implica que {Xt}t≥0 tem a propriedade markoviana,

Px Xtn = xn|Xtn−1 = xn−1, · · · , Xt0 = x0 = ptn−tn−1(xn−1, xn).

Seja DS o espa¸co de fun¸c˜oes ξ : [0, +∞) → S tal que t 7→ ξ(t), com a

propriedade que ξ(t) = lim

s↓t ξ(s) (cont´ınua `a direita) e ξ(t −

) = lim

s↑t ξ(s) existe (o

limite `a esquerda existe). Ent˜ao DS´e o espa¸co de fun¸c˜oes definidas em [0, +∞)

cont´ınuas `a direita e com limite `a esquerda. Daqui em diante, conjuntos de fun¸c˜oes com esta propriedade vamos chamar c`adl`ag (do francˆes “continue `a droite, limite `a gauche”).

Seja F a σ-´algebra em DS gerada pela proje¸c˜ao πt: DS → S tal que para todo

t ≥ 0, πt(ξ) = ξ(t). Assim, podemos pensar em X. = {Xt}0≤t<∞ como uma

v.a. tal que

X. : (Ω, H, Px) −→ (DS, F , Px)

ω 7−→ X.(ω),

com Px(A) = Px(X.∈ A) , para todo A ∈ F . Isto define uma fam´ılia de

probabilidades {Px}

x∈S em DS. Ent˜ao, para uma v.a. Z e para x ∈ S, podemos

definir a esperan¸ca Ex[Z] = Z

DS

ZdPx. A probabilidade de transi¸c˜ao pode se

PUC-Rio - Certificação Digital Nº 1313524/CA

(16)

Cap´ıtulo 2. Processos de Markov 16

expressar por pt(x, y) = Px(Xt= y) = Px(ξ(t) = y).

Queremos expressar a propriedade de Markov numa forma mais poderosa. Para tal, seja {θt}t≥0 a aplica¸c˜ao de transla¸c˜oes no espa¸co DS, definida por

θtξ(s) = ξ(s + t). O efeito da aplica¸c˜ao de transla¸c˜ao θt ´e reiniciar o processo

no tempo t. Para um evento A ∈ F temos que a imagem inversa θt−1(A) = {ξ ∈ DS : θt(ξ) ∈ A}

´e o evento onde “A acontece do tempo t em diante”.

Seja Ft = σ (ξ(s) : 0 ≤ s ≤ t) a σ-´algebra natural em DS. Ent˜ao, para todos

os eventos A ∈ F e x ∈ S temos que

Px θt−1(A)|Ft (ξ) = Pξ(t)(A), (2.5)

para Px-quase todo ξ. O lado esquerdo da equa¸c˜ao (2.5) ´e a probabilidade condicional de um evento que ocorre do tempo t em diante, condicionada ao passado at´e ao tempo t. Para deduzir (2.5) de (2.4), basta verificar que

Ex[1B· 1A◦ θt] = Ex[1B· Pξ(t)(A)],

primeiro para cilindros A ∈ F e B ∈ Ft, e depois estender a todos os eventos

pelo teorema π − λ (ver Apˆendice 1 de [9]). Acima Ex ´e a esperan¸ca com respeito a Px.

2.3

Processo de Markov geral

Seja S um espa¸co m´etrico e considere em S a σ-´algebra de Borel que denotamos por BS. Considere para cada t ∈ [0, ∞) considere as proje¸c˜oes

πt(ω) = ω(t). Seja F a menor σ-´algebra em DS na qual todas as proje¸c˜oes πt

s˜ao mensur´aveis. Para t ∈ [0, ∞), seja Ft a menor σ-´algebra em DS na qual

todas as proje¸c˜oes πs s˜ao mensur´aveis, para s ≤ t.

Defini¸c˜ao 2.3.1. Um processo de Markov ´e uma cole¸c˜ao {Px}

x∈S de

proba-bilidades em DS tal que

1. Px(ω ∈ D

S : ω(0) = x) = 1.

2. ∀A ∈ F a fun¸c˜ao x 7→ Px(A) ´e mensur´avel em S.

3. Px−1

t (A)|Ft)(ω) = Pω(t)(A) para Px-quase certamente ω, para todo

x ∈ S e para todo A ∈ F .

Na defini¸c˜ao anterior, 1. diz que x ´e o valor inicial para a cadeia partindo da medida Px, e o ponto 3. ´e a propriedade de Markov.

PUC-Rio - Certificação Digital Nº 1313524/CA

(17)

Cap´ıtulo 2. Processos de Markov 17

Para come¸car o processo com uma distribui¸c˜ao µ diferente de δx, definimos Pµ

em DS por

Pµ(A) = Z

S

Px(A)µ(dx), ∀A ∈ F .

A probabilidade de transi¸c˜ao pt(x, dy) ´e definida para todo t ≥ 0, x ∈ S e

B ∈ BS por

pt(x, B) = Px(πt∈ B) . (2.6)

As equa¸c˜oes de Chapman-Kolgomorov pt+s(x, B) =

Z

S

ps(y, B)pt(x, dy), (2.7)

s˜ao consequˆencia da propriedade de Markov.

Agora, para fun¸c˜oes F - mensur´aveis e limitadas em S e t ≥ 0 definimos a fun¸c˜ao Stf em S por

Stf (x) = Ex[f (πt)] =

Z

S

f (x)pt(x, dy). (2.8)

A mensurabilidade de Stf ´e consequˆencia do ponto 2. da Defini¸c˜ao 2.3.1.

Denotamos a norma do supremo para fun¸c˜oes mesur´aveis e limitadas por kf k∞ := sup

x∈S

|f (x)|, (2.9)

e assim, ´e f´acil ver que:

kStf k∞ ≤ kf k∞, (2.10)

portanto Stleva fun¸c˜oes mensur´aveis e limitadas em S, em fun¸c˜oes mensur´aveis

e limitadas em S. Pela linearidade da integral tamb´em temos a linearidade de St. Portanto St ´e um operador linear definido no espa¸co das fun¸c˜oes

mensur´aveis e limitadas. Logo, pela propriedade de Markov temos que Ss+tf (x) = Ex[f (πs+t)] = Ex[Ex[f (πs+t)|Fs]] = Ex[Eπs[f (π t)]] = Ex[Stf (πs)] = SsStf (x).

Daqui a pouco, vamos ver que {St}t≥0 forma um semigrupo. Al´em disso,

pela propriedade (2.10) dizemos que {St}t≥0 ´e um semigrupo de contra¸c˜ao.

Afirmamos, sem demostra¸c˜ao, que {Px}

x∈S s˜ao unicamente determinadas pelo

semigrupo {St}t≥0 (ver [11], p´agina 9).

Defini¸c˜ao 2.3.2. Seja Cb(S) = {f : S → R, cont´ınua e limitada em S}.

Vamos considerar em Cb(S) a norma definida em (2.9).

PUC-Rio - Certificação Digital Nº 1313524/CA

(18)

Cap´ıtulo 2. Processos de Markov 18

Defini¸c˜ao 2.3.3. Um processo de Markov {Px}

x∈S ´e um processo de Feller

se, Cb(S) ´e fechado sobre a a¸c˜ao do semigrupo, isto ´e, se f ∈ Cb(S) ent˜ao

Stf ∈ Cb(S), ∀t ≥ 0.

2.4

Semigrupos e geradores

Esta se¸c˜ao n˜ao pretende abarcar toda a teoria de semigrupos, s´o aquela teoria que precisamos nesta disserta¸c˜ao.

Defini¸c˜ao 2.4.1. Uma fam´ılia {St}t≥0 de operadores limitados em Cb(S)

diz-se um diz-semigrupo diz-se: 1. S0 = I.

2. St+s = StSs, ∀s, t ≥ 0.

Defini¸c˜ao 2.4.2. Uma fam´ılia {St}t≥0´e um semigrupo fortemente cont´ınuo se

lim

t↓0 kStf − f k∞ = 0, ∀f ∈ Cb(S). Se cada St ´e uma contra¸c˜ao, isto ´e, satisfaz

(2.10), ent˜ao {St}t≥0 diz-se um semigrupo de contra¸c˜ao.

Lema 2.4.3. Suponha que {St}t≥0 ´e um semigrupo de contra¸c˜ao fortemente

cont´ınuo em Cb(S). Ent˜ao, para cada f ∈ Cb(S) a fun¸c˜ao t → Stf ´e uma

fun¸c˜ao uniformemente cont´ınua. Demonstra¸c˜ao. Para t, h ≥ 0 temos

kSt+hf − Stf k∞= kSt(Sh− I)f k∞ ≤ kShf − f k∞,

e para 0 ≤ h ≤ t temos,

kSt−hf − Stf k∞ = kSt−h(Sh− I)f k∞≤ kShf − f k∞.

Nos dois casos anteriores usamos o fato que St ´e uma contra¸c˜ao. Assim, pela

Defini¸c˜ao 2.4.2 temos que o lado direito das express˜oes anteriores se anulam quando h → 0. Logo a fun¸c˜ao ´e uniformemente cont´ınua.

Defini¸c˜ao 2.4.4. O gerador infinitesimal ou, simplesmente, gerador de um semigrupo {St}t≥0, ´e o operador L definido por

Lf = lim

t→0

Stf − f

t , (2.11)

com dom´ınio D(L) que ´e o conjunto das fun¸c˜oes f ∈ Cb(S) para as quais o

limite existe. A convergencia e no sentido da norma de Cb(S), isto ´e, na norma

do supremo. PUC-Rio - Certificação Digital Nº 1313524/CA

(19)

Cap´ıtulo 2. Processos de Markov 19

Lema 2.4.5. Suponha que {St}t≥0 ´e um semigrupo de contra¸c˜ao fortemente

cont´ınuo em Cb(S) com gerador L. Ent˜ao valem as seguintes afirma¸c˜oes:

1. Se f ∈ Cb(S) e t ≥ 0. Ent˜ao, Z t 0 Ssf ds ∈ D(L) e Stf − f = L Z t 0 Ssf ds. 2. Se f ∈ D(L) e t ≥ 0. Ent˜ao, S(s)f ∈ D(L) e d dtStf = LStf = StLf. 3. Se f ∈ D(L) e t ≥ 0. Ent˜ao, Stf − f = Z t 0 LSsf ds = Z t 0 SsLf ds.

Corol´ario 2.4.6. Suponha que {St}t≥0 ´e um semigrupo de contra¸c˜ao

forte-mente cont´ınuo em Cb(S) com gerador L. Ent˜ao, D(L) ´e denso em Cb(S).

Para a demonstra¸c˜ao do Lema (2.4.5) e do Corol´ario (2.4.6), veja [4],p´agina 9 e 10.

2.5

Medida de Probabilidade Invariante Seja {Px}

x∈S um processo de Markov a tempo cont´ınuo que ´e um processo

de Feller. Assuma que St ´e um semigrupo de contra¸c˜ao no espa¸co de Banach

Cb(S). Seja M1(S) o espa¸co das medidas de probabilidade em S, que tamb´em

´e um espa¸co m´etrico quando munido da seguinte convergˆencia. A convergˆencia em M1(S) ´e dada pela convergˆencia fraca definida por

µn w −−→ n↑∞ µ ⇔ Z f (x)µn(dx) −−→ n↑∞ Z f (x)µ(dx), ∀f ∈ Cb(S).

Para µ ∈ M1(S) e t ≥ 0, definimos µSt ∈ M1(S) por

Z f (x)µSt(dx) = Z Stf (x)µ(x), ∀f ∈ Cb(S). Assim, se B ∈ BS temos µSt(B) = Z Px(Xt∈ B)µ(dx). PUC-Rio - Certificação Digital Nº 1313524/CA

(20)

Cap´ıtulo 2. Processos de Markov 20

A medida de probabilidade µSt ´e interpretada como a distribui¸c˜ao no tempo

t de um processo com gerador L e semigrupo St, quando a distribui¸c˜ao inicial

desse processo ´e µ.

Agora, dizemos que µ ´e invariante para o processo {Xt}t≥0 se

µSt= µ, ∀t ≥ 0.

Seja I o conjunto das medidas invariantes para {Xt}t≥0. Agora, invariˆancia de

µ implica que se o estado inicial X0 tem distribui¸c˜ao µ, ent˜ao Xttamb´em tem

distribui¸c˜ao µ para todo t ≥ 0. Al´em disso, o processo {Xt}t≥0´e estacion´ario o

que significa que a distribui¸c˜ao do processo transladado no tempo ´e a mesma que a distribui¸c˜ao do processo original.

Defini¸c˜ao 2.5.1. Para cada operador linear L, um subespa¸co linear Y de D(L) ´e um cerne de L se o gr´afico de L ´e o fecho do gr´afico de L |Y.

Teorema 2.5.2. Seja L o gerador de um semigrupo de contra¸c˜ao fortemente cont´ınuo St em Cb(S) definido por um processo de Markov. Seja µ uma medida

de probabilidade em S. Seja Y um cerne para L. Ent˜ao µ ´e invariante para Xt

se e somente se

Z

Lf (x)µ(dx) = 0, ∀f ∈ Y.

Demonstra¸c˜ao. ⇒) Suponhamos que µ ´e invariante e f ∈ D(L). Como Stf − f t −−→n↑∞ Lf , uniformemente, ent˜ao Z Lf dµ = lim t→0 Z Stf − f t dµ = limt→0 1 t Z Stf dµ − Z f dµ  = lim t→0 1 t Z f dµ − Z f dµ  = 0.

⇐) Agora, assumamos queR Lf dµ = 0, ∀f ∈ Y . Pela defini¸c˜ao de cerne temos que, ∀f ∈ D(L), ∃{gn}n≥0 ∈ Y tal que Lgn −−→

n↑∞ Lf , uniformemente, quando

n → ∞. Logo R Lf dµ = 0, ∀f ∈ D(L).

Fixada f ∈ D(L), pelo Lema 2.4.3, temos que Stf ∈ D(L), ∀t ≥ 0. Assim,

usando o Teorema de Fubini temos Z Stf dµ − Z f dµ = Z t 0 Z L[Ssf ]dµ  ds = 0,

isto implica que

Z

f d(µSt) =

Z

f dµ, ∀f ∈ D(L).

Al´em disso, pelo Corol´ario 2.4.6, temos que D(L) ´e denso em Cb(S). Assim,

temos que µSt = µ. PUC-Rio - Certificação Digital Nº 1313524/CA

(21)

3

Apresenta¸

ao do processo e resultados preliminares

O Capitulo 1 d´a a ferramenta para construir uma cadeia de Markov a tempo cont´ınuo, a partir de uma cadeia de Markov a tempo discreto. Agora, queremos estudar um caso espec´ıfico, relacionado com sistemas de part´ıculas. Suponhamos que temos N + 1 s´ıtios, isto ´e, temos uma malha {0, 1, 2, · · · , N − 1, N }. No interior da malha, cada s´ıtio cont´em no m´aximo uma part´ıcula. Na fronteira, isto ´e, nos s´ıtios {0, N } podemos pensar que existem infinitas part´ıculas, como se tiv´essemos reservat´orios conetados a esses s´ıtios. Agora em cada s´ıtio da malha existe um rel´ogio com lei exponencial de parˆametro 1, e rel´ogios em s´ıtios diferentes s˜ao independentes. Note que a probabilidade de que dois rel´ogios toquem simultaneamente ´e nula, de fato, pois, as vari´aveis aleat´orias exponencias s˜ao cont´ınuas e independentes, assim temos que a regi˜ao onde as vari´aveis s˜ao iguais, corresponde a uma reta no plano, que ´e f´acil ver que tem medida de Lebesgue 0. Se um rel´ogio num s´ıtio interior da malha toca e se neste s´ıtio h´a uma part´ıcula, esta part´ıcula pode saltar para um dos seus vizinhos mais pr´oximos com taxa 1

2 e cumpre a seguinte regra de exclus˜ao: o salto ´e suprimido se o local j´a est´a ocupado. Al´em disso, se o rel´ogio na borda esquerda toca (resp. na borda direita) as part´ıculas podem entrar no interior da malha com taxa α (resp. β) e podem sair do s´ıtio 1 com taxa 1 − α (resp. do s´ıtio N − 1 com taxa 1 − β), respeitando a regra de exclus˜ao, com α, β ∈ [0, 1]. Assim, cada part´ıcula executa um passeio aleat´orio a tempo cont´ınuo, condi-cionado ao evento de que nenhum s´ıtio ´e ocupado simultaneamente por mais de uma part´ıcula. A figura abaixo, ´e uma pequena representa¸c˜ao da dinˆamica do sistema de part´ıculas descrito acima.

1 2 · · · i − 1 i i + 1 · · · N − 2 N − 1 1 2 1 2 α 1 − α β 1 − β 3.1

Processo de Exclus˜ao Simples Sim´etrico em contato com reservat´orios O processo anterior ´e apresentado de maneira informal, e por isso temos que introduzir nota¸c˜ao que permita o desenvolvimento adequado da teoria. Fixe N ≥ 1, seja ΛN

def

= {1, 2, 3, · · · , N − 1} ⊆ N. Os elementos de ΛN

s˜ao chamados s´ıtios e denotados pelas letras x, y, z, enquanto que no espa¸co macrosc´opico (pontos no intervalo [0, 1]) os elementos v˜ao se denotar pelas

PUC-Rio - Certificação Digital Nº 1313524/CA

(22)

Cap´ıtulo 3. Apresenta¸c˜ao do processo e resultados preliminares 22

letras u, v, w. Agora o espa¸co microsc´opico ´e denotado por {0, 1}ΛN e definido

por

{0, 1}ΛN = {η : Λ

N → {0, 1}| η ´e fun¸c˜ao}.

Os elementos de {0, 1}ΛN ao chamados configura¸c˜oes. Assim, se η ∈ {0, 1}ΛN

e x ∈ ΛN ent˜ao temos η(x) ∈ {0, 1} e η(x) representa o n´umero de part´ıculas

no s´ıtio x para a configura¸c˜ao η. Ou seja, se η(x) = 0 ent˜ao o s´ıtio x da configura¸c˜ao η est´a vazio, por outro lado, se η(x) = 1 isso quer dizer que o s´ıtio x est´a ocupado.

Para ter uma descri¸c˜ao da taxa de transi¸c˜ao entre configura¸c˜oes, precisamos das seguintes opera¸c˜oes: se η ∈ {0, 1}ΛN

e x, y ∈ ΛN, ent˜ao ηx, ηx,y ∈ {0, 1}ΛN s˜ao definidos por ηx(z) = ( η(z) se z 6= x 1 − η(z) se z = x ; η x,y(z) =      η(z) se z 6= x, y η(y) se z = x η(x) se z = y .

Assim, ηx ´e obtida de η por trocar seu o valor no s´ıtio x e ηx,y ´e obtida de η trocando os seus valores nas posi¸c˜oes x e y.

Agora, fixados α, β ∈ [0, 1], o processo de exclus˜ao simples sim´etrico em contato com reservat´orios ´e o processo de Markov cujo espa¸co de estados ´e o espa¸co de configura¸c˜oes {0, 1}ΛN com gerador infinitesimal dado em

f : {0, 1}ΛN → R por (LNf ) (η) = (LN,0f ) (η) + (LN,−f ) (η) + (LN,+f ) (η), (3.1) onde (LN,0f ) (η) = N −2 X x=1 {f (ηx,x+1) − f (η)}; (LN,−f ) (η) = {α(1 − η(1)) + (1 − α)η(1)}{f (η1) − f (η)}; (LN,+f ) (η) = {β(1 − η(N − 1)) + (1 − β)η(N − 1)}{f (ηN −1) − f (η)}.

Tamb´em podemos expressar a a¸c˜ao do operador atrav´es de uma multiplica¸c˜ao matricial. Definimos as seguintes matrizes

[LN,0] (η, ξ) =          1 se ξ = ηx,x+1, 1 ≤ x ≤ N − 2, ξ 6= η 0 se ξ 6= ηx,x+1, 1 ≤ x ≤ N − 2 − X ξ:ξ6=η LN,0(η, ξ) se ξ = η , (3.2) PUC-Rio - Certificação Digital Nº 1313524/CA

(23)

Cap´ıtulo 3. Apresenta¸c˜ao do processo e resultados preliminares 23 [LN,++ LN,−] (η, ξ) =            Iα se ξ = η1 Iβ se ξ = ηN −1 −(Iα+ Iβ) se ξ = η

0 se caso contr´ario

, (3.3)

onde

Iα = (1 − α)η(1) + α(1 − η(1)),

Iβ = (1 − β)η(N − 1) + β(1 − η(N − 1)).

Assim, se chamarmos QN(η, ξ) = [LN,0] (η, ξ) + [LN,++ LN,−] (η, ξ) e se

considerarmos f = (f (η))η∈{0,1}ΛN como um vetor coluna, temos que

(LNf ) (η)η∈{0,1}ΛN = (QNf (η))η∈{0,1}ΛN ,

onde QNf (η) representa o produto da matriz QN pelo vetor coluna f .

Agora vejamos o seguinte exemplo.

Exemplo 3.1.1. Considere z ∈ ΛN e fz : {0, 1} ΛN → {0, 1} definida por fz(η) = η(z). Calculemos (LNfz) (η) = (LNη) (z). No caso z ∈ {2, · · · , N − 2} temos LN,0η(z) = N −2 X x=1 {ηx,x+1(z) − η(z)} = η(z − 1) − η(z) + η(z + 1) − η(z) = η(z − 1) − 2η(z) + η(z + 1). LN,−η(z) = 0. LN,+η(z) = 0. No caso z = 1 temos LN,0η(1) = N −2 X x=1 {ηx,x+1(1) − η(1)} = η(2) − η(1). LN,−η(1) = (α(1 − η(1)) + (1 − α)η(1)) η1(1) − η(1)  = (α(1 − η(1)) + (1 − α)η(1)}{1 − 2η(1)) = α − η(1). LN,+η(1) = 0. PUC-Rio - Certificação Digital Nº 1313524/CA

(24)

Cap´ıtulo 3. Apresenta¸c˜ao do processo e resultados preliminares 24

Note que pela equa¸c˜ao (3.1) neste caso se tem que LNη(1) = η(2) − η(1) + α − η(1).

Similarmente, se z = N − 1 teremos

LN,0η(N − 1) = η(N − 2) − η(N − 1).

LN,−η(N − 1) = 0.

LN,+η(N − 1) = β − η(N − 1).

Note-se que pela equa¸c˜ao (3.1) neste caso se tem que

LNη(N − 1) = η(N − 2) − η(N − 1) + β − η(N − 1).

Assim, se η(0) = α e η(N ) = β temos

LNη(z) = η(z − 1) − 2η(z) + η(z + 1), ∀z ∈ ΛN.

 3.2

Nota¸c˜oes e ferramentas

Seja D([0, +∞), {0, 1}ΛN) o espa¸co de trajet´orias η

· c`adl`ag, e seja

{Pη}η∈{0,1}ΛN o processo de Markov com gerador infinitesimal LN introduzido

em (3.1). Assim temos que Pη tem a propriedade

Pη η· ∈ D([0, +∞), {0, 1}ΛN) : η0 = η = 1

e a perda de mem´oria, no sentido

Pη(ηs+t ∈ A|Fs) = Pηs(ηt ∈ A),

onde Fs ´e a σ-´algebra gerada por {ηr : r ≤ s}. Esta propriedade quer dizer

que para saber o futuro no tempo t + s, sabendo todo o passado at´e ao tempo s s´o interessa o presente ou seja, o estado do processo no tempo s.

Agora definimos C({0, 1}ΛN) = {f : {0, 1}ΛN → R, f cont´ınua}, que ´e um

espa¸co de Banach quando munido com a norma kf k = supη∈{0,1}ΛN |f (η)|.

De-notemos por Sto semigrupo associado ao processo {Pη}η∈{0,1}ΛN que definimos

em C({0, 1}ΛN) por Stf (η) = Eη[f (ηt)] = Z f (ηt)dPη, (3.4) PUC-Rio - Certificação Digital Nº 1313524/CA

(25)

Cap´ıtulo 3. Apresenta¸c˜ao do processo e resultados preliminares 25

onde η0 = η e f ∈ C({0, 1}ΛN). Vamos considerar, {Pη}η∈{0,1}ΛN como um

pro-cesso de Feller como na Defini¸c˜ao 2.3.3. Note que Cb({0, 1}ΛN) = C({0, 1}ΛN),

pois {0, 1}ΛN ´e compacto. Logo, para cada f ∈ C({0, 1}ΛN) e cada t ≥ 0 temos

que Stf ∈ C({0, 1}ΛN). Assim temos que {St}t≥0 ´e um semigrupo de Markov,

e isto garante que nosso processo {Pη}η∈{0,1}ΛN existe e ´e o ´unico que satisfaz

(3.4) para cada f ∈ C({0, 1}ΛN), η ∈ {0, 1}ΛN e t ≥ 0.

Seja P({0, 1}ΛN) o conjunto das medidas de probabilidade em {0, 1}ΛN

munido da convergˆencia fraca. Isto ´e, µn −−→

n↑∞ µ em P({0, 1} ΛN), se e somente se, Z f (η)µn(dη) −−→ n↑∞ Z f (η)µ(dη),

para toda fun¸c˜ao f ∈ C({0, 1}ΛN). Agora, podemos identificar P({0, 1}ΛN)

com um subconjunto do espa¸co dual de C({0, 1}ΛN) tomando

hµ, f i = Z

{0,1}ΛN

f (η)µ(dη)

, para cada f ∈ C({0, 1}ΛN). Ent˜ao temos que, P({0, 1}ΛN) ⊆ C({0, 1}ΛN)

e com essa identifica¸c˜ao a topologia fraca coincide com a topologia fraca estrela. Pelo Teorema de Banach-Alaoglu como {0, 1}ΛN ´e compacto ent˜ao

P({0, 1}ΛN) tamb´em ´e compacto. Al´em disso, como C({0, 1}ΛN) ´e um espa¸co

de Banach separ´avel e P({0, 1}ΛN) ´e compacto com a topologia fraca, ent˜ao

podemos metrizar P({0, 1}ΛN) com esta topologia. Agora, se µ ∈ P({0, 1}ΛN)

e {Pη}η∈{0,1}ΛN ´e um processo de Markov, ent˜ao o correspondente processo

de Markov com distribui¸c˜ao inicial µ ´e um processo estoc´astico {ηt}t≥0 com

distribui¸c˜ao

Pµ(A) =

Z

{0,1}ΛN Pη

(A)µ(dη).

Com isto temos que Eµ[f (ηt)] = R Stf (η)µ(dη), para toda f ∈ C({0, 1}ΛN).

Assim, podemos definir a medida µSt por:

Z

f (η)µSt(dη) =

Z

Stf (η)µ(dη), para f ∈ C({0, 1}ΛN),

que podemos interpretar como a distribui¸c˜ao no tempo t do processo {ηt}t≥0

partindo da distribui¸c˜ao inicial µ.

PUC-Rio - Certificação Digital Nº 1313524/CA

(26)

Cap´ıtulo 3. Apresenta¸c˜ao do processo e resultados preliminares 26

3.3

Medidas Invariantes

Se uma medida µ ∈ P({0, 1}ΛN) para um processo de Markov {S

t}t≥0

satisfaz µSt = µ para todo t ≥ 0 ent˜ao dizemos que a medida ´e invariante

para o processo. O conjunto de todas as medidas invariantes µ ∈ P({0, 1}ΛN)

´e denotado por I({0, 1}ΛN).

Ent˜ao podemos ver que µ ∈ I({0, 1}ΛN), se e somente se, ∀f ∈ C({0, 1}ΛN) se

tem que Z Stf (η)µ(dη) = Z f (η)µSt(dη) = Z f (η)µ(dη), o que ´e equivalente a Z (Stf (η) − f (η)) µ(dη) = 0.

E assim podemos dizer que Stf = f, µ − quase certamente.

Sabemos pela Defini¸c˜ao 2.4.4, que o gerador em (3.1) ´e definido por Lf = lim t↓0 Stf − f t , (3.5) com dom´ınio D(L) =  f ∈ C({0, 1}ΛN) : lim t↓0 Stf − f t existe  . O Teorema de Hille-Yosida diz que a rela¸c˜ao entre o semigrupo e o operador ´e bijetiva (ver [11],p´agina 16).

Para o gerador de Markov L em C({0, 1}ΛN), um espa¸co D ⊆ D(L) se chama

cerne se o gr´afico de L ´e o fecho do gr´afico de L |D.

Proposi¸c˜ao 3.3.1. Suponha que D ´e um cerne de um gerador L de um semigrupo de Markov St. Ent˜ao

I =  µ ∈ P({0, 1}ΛN) : Z Lf (η)µ(dη) = 0 para toda f ∈ D  .

A demonstra¸c˜ao da proposi¸c˜ao anterior segue do Teorema 2.5.2 no cap´ıtulo 1. Agora, dizemos que uma medida µ ∈ P({0, 1}ΛN) ´e revers´ıvel com

respeito ao processo com semigrupo St se

Z

f (η)Stg(η)µ(dη) =

Z

g(η)Stf (η)µ(dη),

para toda f, g ∈ C({0, 1}ΛN). O conjunto de todas as medidas revers´ıveis ´e

de-notado por R({0, 1}ΛN). Note que se tomamos g ≡ 1 temos que R({0, 1}ΛN) ⊆

I({0, 1}ΛN). PUC-Rio - Certificação Digital Nº 1313524/CA

(27)

Cap´ıtulo 3. Apresenta¸c˜ao do processo e resultados preliminares 27

Exemplo 3.3.2. Seja να,βN uma medida invariante do processo em estudo, e defina ρN(x) := E

νN

α,β[η(x)]. Ent˜ao ρ

N ´e solu¸ao da equa¸ao discreta dada por

     ∆NρN(x) = 0 para x ∈ ΛN ρN(0) = α ρN(N ) = β ,

onde definimos o laplaciano discreto de ρN em x ∈ Λ N por

∆NρN(x) = N2{ρN(x − 1) − 2ρN(x) + ρN(x + 1)}. (3.6)

Solu¸c˜ao. Pelo Exemplo 3.1.1, temos que, para todo x ∈ ΛN se tem que

LNη(x) = η(x − 1) − 2η(x) + η(x + 1).

Assim, pela defini¸c˜ao de laplaciano discreto

∆NρN(x) = N2{ρN(x − 1) − 2ρN(x) + ρN(x + 1)}

= N2{EνN

α,β[η(x − 1)] − 2Eνα,βN [η(x)] + Eνα,βN [η(x + 1)]}.

Logo, como a esperan¸ca ´e linear temos ∆NρN(x) = EνN α,β[N 2{η(x − 1) − 2η(x) + η(x + 1)}] = EνN α,β[N 2L Nη(x)]. Agora, tomando L = N2L

N e como να,βN ´e uma medida invariante do processo,

ent˜ao temos que para fx(η) = η(x), se tem que

EνN α,β[Lfx(η)] = Z StLfx(η)να,βN (dη) = Z Lfx(η)να,βN St(dη) = Z Lfx(η)να,βN (dη) = 0. Logo ∆NρN(x) = 0, ∀x ∈ ΛN.  Defini¸c˜ao 3.3.3. Dada uma fun¸c˜ao ρ : ΛN → [0, 1], vamos chamar νρ(·)N :=

νρ(·) `a medida produto em {0, 1}ΛN definida por

νρ(·) η ∈ {0, 1}ΛN : η(x) = 1, ∀x ∈ A e η(y) = 0, ∀y ∈ B = Y x∈A ρ(x)Y y∈B (1 − ρ(y)),

para quaisquer conjuntos A,B conjuntos disjuntos em ΛN.

PUC-Rio - Certificação Digital Nº 1313524/CA

(28)

Cap´ıtulo 3. Apresenta¸c˜ao do processo e resultados preliminares 28

No caso que ρ(x) = ρ chama-se a νρ a medida de Bernoulli produto em

{0, 1}ΛN de parˆametro ρ, e que satisfaz

νρ η ∈ {0, 1}ΛN : η(x) = 1, ∀x ∈ A e η(y) = 0, ∀y ∈ B = ρ|A|(1 − ρ)|B|,

com A,B disjuntos em ΛN. Para o nosso processo vamos denotar a medida de

Bernoulli por νN

ρ ou νρ no caso que N seja claro. Note que a defini¸c˜ao acima

´e equivalente a tomar fx(η) = η(x) para x ∈ ΛN, como v.a.’s independentes

com distribui¸c˜ao de Bernoulli de parˆametro ρ. Assim, temos que νρN(η) = ρPN −1x=1 η(x)(1 − ρ)

PN −1

x=1(1−η(x)). (3.7)

Note que para o processo {ηt}t≥0 podemos obter medidas de probabilidade

invariantes ν que tornam o processo revers´ıvel mediante a equa¸c˜ao

ν(η)QN(η, ξ) = ν(ξ)QN(ξ, η), para todo η, ξ ∈ {0, 1}ΛN. (3.8)

Proposi¸c˜ao 3.3.4. Se α = β ent˜ao a medida να ´e invariante e revers´ıvel.

Demonstra¸c˜ao. Basta ver que να satisfaz (3.8). Para isto usamos as matrizes

definidas em (3.2) e (3.3).

– No caso em que η = ξ, temos imediatamente que να(η)QN(η, η) = να(η)QN(η, η).

– No caso em que ξ /∈ {η, η1, ηN −1, ηx,x+1} temos pelas matrizes

consider-adas que

QN(η, ξ) = QN(ξ, η) = 0.

– No caso em que ξ = ηx,x+1. Para este caso temos que QN(η, ξ) = QN(ξ, η) = 1.

Logo como a opera¸c˜ao ηx,x+1 o troca posi¸c˜oes e como a medida ν α n˜ao

depende das posi¸c˜oes (depende da quantidade de part´ıculas) ent˜ao temos que

να(ηx,x+1) = να(η).

– No caso em que ξ = η1 e η(1) = 0, notemos que QN(η, ξ) = Iα, mas

η(1) = 0 ent˜ao temos QN(η, ξ) = α. De maneira an´aloga podemos ver

que η = η1 e ξ(1) = 1, assim temos QN(ξ, η) = 1 − α.

PUC-Rio - Certificação Digital Nº 1313524/CA

(29)

Cap´ıtulo 3. Apresenta¸c˜ao do processo e resultados preliminares 29

Logo, por (3.7) e lembrando que a medida να s´o depende da quantidade

de part´ıculas, temos que

να(ξ) = να(η1) =

α

1 − ανα(η), assim temos que να(η)QN(η, ξ) = να(ξ)QN(ξ, η).

– Nos casos restantes, se age de forma an´aloga ao ´ultimo caso.

3.4

Do microsc´opico para o macrosc´opico

O espa¸co macrosc´opico ´e o espa¸co que representa o espa¸co cont´ınuo, aqui o espa¸co macrosc´opico ´e o intervalo I = [0, 1], e a discretiza¸c˜ao ´e ΛN = {1, 2, · · · , N − 1} que representa o espa¸co microsc´opico. Podemos

considerar o espa¸co ΛN contido no espa¸co I, fazendo a seguinte identifica¸c˜ao:

uma posi¸c˜ao u no sistema macrosc´opico I se identifica com o s´ıtio buN c do sistema microsc´opico ΛN. De maneira similar, vamos identificar x ∈ ΛN com

x N ∈ I.

Agora, no sistema microsc´opico, as part´ıculas s˜ao colocadas de acordo com alguma medida de probabilidade, e estas se mexem de acordo com alguma taxa de transi¸c˜ao probabil´ıstica respeitando as restri¸c˜oes do sistema espec´ıfico. J´a vimos isto acima na descri¸c˜ao do nosso modelo. Agora, estamos interessados em estudar o comportamento temporal de um perfil de densidade. Para tal temos que considerar diferentes escalas de tempos, um tempo macrosc´opico t e um tempo microsc´opico tθ(N ). Para o processo estudado temos que tomar θ(N ) = N2. Note que com a defini¸c˜ao do gerador temos que

θ(N )LNf = lim t↓0 θ(N )

Stf − f

t ,

e se fizermos uma troca de vari´avel t = θ(N )s temos que

θ(N )LNf = lim s↓0

Ssθ(N )f − f

s = ˜LN,

ou seja, ˜LN = θ(N )LNf ´e o gerador do semigrupo Stθ(N ). Ent˜ao, de agora em

diante vamos denotar por ηt o processo de Markov em {0, 1}ΛN com gerador

N2L

N. Ou seja, o tempo microsc´opico no nosso modelo ´e tN2.

Agora que sabemos como lidar com os espa¸cos macrosc´opico e microsc´opico, podemos generalizar a Defini¸c˜ao 3.3.3.

PUC-Rio - Certificação Digital Nº 1313524/CA

(30)

Cap´ıtulo 3. Apresenta¸c˜ao do processo e resultados preliminares 30

Defini¸c˜ao 3.4.1. Dada uma fun¸c˜ao ρ0 : [0, 1] → [0, 1], a medida produto

Bernoulli com parˆametro de varia¸c˜ao lenta associada ao perfil ρ0, denotada

por νN

ρ0(·), ´e a medida no espa¸co de estados {0, 1}

ΛN que satisfaz as seguintes

propriedades:

– As vari´aveis aleat´orias {η(x)}x∈ΛN s˜ao independentes com respeito a

νρN

0(·) .

– Cada η(x) tem distribui¸c˜ao Bernoulli de parˆametro ρ0

x N  . Ou seja, νρ0(·) η ∈ {0, 1} ΛN : η(x 1) = i1, η(x2) = i2, · · · , η(xk) = ik = k Y j=1 ρ0 xj N ij 1 − ρ0 xj N 1−ij ,

para todo xj ∈ ΛN, ij ∈ {0, 1} com j = 1, · · · , k.

3.5

Dedu¸c˜oes das EDP’s discretas

Podemos agora introduzir alguns fatos importantes sobre as equa¸c˜oes diferenciais parciais discretas com que iremos lidar nesta disserta¸c˜ao.

Defini¸c˜ao 3.5.1. Dada νN uma medida de probabilidade em {0, 1}ΛN, vamos

definir para x ∈ ΛN a fun¸c˜ao

ρNt (x) := EνN[ηtN2(x)].

Estendemos a defini¸c˜ao `as fronteiras tomando ρN

t (0) = α, ρNt (N ) = β.

Note que pelas equa¸c˜oes de Chapman-Kolmogorov temos que ∂tρNt (x) = ∂tEνN[ηtN2(x)] = EνN[N2LNηtN2(x)].

Logo, pelo Exemplo 3.1.1, pela linearidade da esperan¸ca e para x ∈ ΛN temos

que ∂tρNt (x) = N 2 (EνN[ηtN2(x − 1)] − 2EνN[ηtN2(x)] + EνN[ηtN2(x + 1)]) = N2(ρNt (x − 1) − 2ρNt (x) + ρNt (x + 1)) = ∆NρNt (x).

Ent˜ao podemos resumir este resultado no seguinte lema.

PUC-Rio - Certificação Digital Nº 1313524/CA

(31)

Cap´ıtulo 3. Apresenta¸c˜ao do processo e resultados preliminares 31

Lema 3.5.2. Se ρNt (x) = EνN[ηtN2(x)], ent˜ao ρNt (x) ´e solu¸c˜ao da equa¸c˜ao

semi-discreta do calor, isto ´e      ∂sρNs (x) = (∆NρNs )(x) para x ∈ ΛN, s ≥ 0 ρN 0 (x) = EνN[η0(x)] para x ∈ ΛN ρN s (0) = α, ρNs (N ) = β para s ≥ 0 , (3.9)

onde ∆N ´e o laplaciano discreto em ΛN definido na equa¸c˜ao (3.6).

Nota 3.5.3. Se considerarmos a medida inicial νρ0(·) da Defini¸c˜ao 3.5.1, ent˜ao

definindo

ρNt (x) = Eνρ0(·)[ηtN2(x)],

temos que ρN

t (x) satisfaz a equa¸c˜ao (3.9), com condi¸c˜ao inicial

ρN0 (x) = Eνρ0(·)[ηtN2(x)] = ρ0

x N

 . Agora, seja C = {0, · · · , N }2 e consideremos o subconjunto

V = {(x, y) ∈ C : 0 < x < y < N } e a sua fronteira ∂V = {(x, y) ∈ C : x = 0 ou y = N }. 0 1 2 3 ... N-2 N-1 N 1 2 3 N-2 N-1 N . . . Figura 3.1: V ∪ ∂V

Al´em disso, seja M o conjunto das fun¸c˜oes f : V ∪ ∂V → R tais que f |∂V= 0.

Defini¸c˜ao 3.5.4. Dada νN uma medida de probabilidade em {0, 1}ΛN, vamos

definir para (x, y) ∈ V ∪ ∂V a fun¸c˜ao ϕN

t (x, y) por ϕNt (x, y) = EνN{ηtN2(x) − ρNt (x)}{ηtN2(y) − ρNt (y)} , em V e ϕN t (x, y) = 0 em ∂V . PUC-Rio - Certificação Digital Nº 1313524/CA

(32)

Cap´ıtulo 3. Apresenta¸c˜ao do processo e resultados preliminares 32

Defini¸c˜ao 3.5.5. Denotemos por ∆VN o laplaciano discreto em V ∪ ∂V tal que ∆V

N : M → R ´e definido por

(∆N

Vf )(x, y) = N2f (x+1, y)+f (x−1, y)+f (x, y−1)+f (x, y+1)−4f (x, y)

se |x − y| > 1 ,

(∆N

Vf )(x, x + 1) = N2f (x − 1, x + 1) + f (x, x + 2) − 2f (x, x + 1) ,

e (∆NVf )(x, y) = 0 se (x, y) ∈ ∂V .

O laplaciano discreto introduzido acima ´e o gerador do passeio aleat´orio sim´etrico em V ∪ ∂V , absorbido na fronteira ∂V . Assim temos o seguinte lema. Lema 3.5.6. ϕNt (x, y) definida em V ∪ ∂V ´e solu¸c˜ao da equa¸c˜ao

     ∂sϕ˜s(x, y) = ∆NVϕ˜s(x, y) + gs(x, y) para (x, y) ∈ V, ∀s ≥ 0 ˜ ϕ0(x, y) = ϕN0 (x, y) para (x, y) ∈ V ˜ ϕs(x, y) = 0 para (x, y) ∈ ∂V, ∀s ≥ 0 , (3.10) onde gt(x, y) = −(5NρNt (x))2δy=x+1 e 5NρNt (x) = N (ρ N t (x + 1) − ρ N t (x)).

Demonstra¸c˜ao. Para simplificar a nota¸c˜ao, vamos considerar nesta prova ηt:=

ηtN2.

Caso 1: |x − y| > 1 Note que

∂tϕNt (x, y) = ∂tEνN[ηt(x)ηt(y)] − ∂t ρNt (x)ρNt (y)



= EνNN2LNt(x)ηt(y)) − ∂t ρNt (x) ρNt (y) + ∂t ρNt (y) ρNt (x)



Ent˜ao, primeiro temos que

∂tEνN[ηt(x)ηt(y)] = EνNN2ηt(1){ηt(y − 1) + ηt(y + 1) − 2ηt(y)}  + EνNN2ηt(y){ηt(x − 1) + ηt(x + 1) − 2ηt(x)}  = N2EνN[ηt(x)ηt(y − 1)] + N2EνN[ηt(x)ηt(y + 1)] − 2N2 EνN[ηt(x)ηt(y)] + N2EνN[ηt(x − 1)ηt(y)] + N2EνN[ηt(x + 1)ηt(y)] − 2N2EνN[ηt(x)ηt(y)] = N2EνN[ηt(x)ηt(y − 1)] + N2EνN[ηt(x)ηt(y + 1)] + N2EνN[ηt(x − 1)ηt(y)] + N2EνN[ηt(x + 1)ηt(y)] − 4N2 EνN[ηt(x)ηt(y)] = ∆NV [EνN[ηt(x)ηt(y)]] . PUC-Rio - Certificação Digital Nº 1313524/CA

(33)

Cap´ıtulo 3. Apresenta¸c˜ao do processo e resultados preliminares 33

Segundo temos,

∂t ρNt (x) ρNt (y) + ∂t ρNt (y) ρNt (x) = ∂tEνN[ηt(x)] ρNt (y) + ∂tEνN[ηt(y)] ρNt (x)

= N2∂tEνN[ηt(x − 1) + ηt(x + 1)

−2ηt(x)] ρNt (y)

+ N2∂tEνN[ηt(y − 1) + ηt(y + 1)

−2ηt(y)] ρNt (x) = ∆NV ρNt (x)ρNt (y) .

Agora, juntando estes dois resultados temos ∂tϕNt (x, y) = ∆ N Vϕ N t (x, y) + g(x, y) | {z } =0 . Caso 2: |x − y| = 1 Note que ∂tϕNt (x, x + 1) = ∂tEνN[ηt(x)ηt(x + 1)] − ∂t ρNt (x)ρNt (x + 1)  = EνNN2LNt(x)ηt(x + 1)) − ∂t ρNt (x) ρNt (x + 1) +∂t ρNt (x + 1) ρ N t (x) .

Ent˜ao, temos que

∂tEνN[ηt(x)ηt(x + 1)] = EνNN2{ηt(x − 1)ηt(x + 1) + ηt(x)ηt(x + 2)

−2ηt(x)ηt(x + 1)}]

= ∆NV [EνN[ηt(x)ηt(x + 1)]] .

Por outra parte, ∂t ρNt (x) ρ N t (x + 1) + ∂t ρNt (x + 1) ρ N t (x) = ∂tEνN[ηt(x)] ρNt (x + 1) + ∂tEνN[ηt(x + 1)] ρNt (x) = N2∂tEνN[ηt(x − 1) + ηt(x + 1) −2ηt(x + 1)] ρNt (x) = ∆NV ρNt (x)ρNt (x + 1) + ∇ρNt (x)2.

Agora, juntado estes dois resultados temos ∂tϕNt (x, y) = ∆

N V ϕ

N

t (x, y) + gt(x, y).

Resta analisar o que acontece na fronteira. Vamos considerar x = 0, sendo os

PUC-Rio - Certificação Digital Nº 1313524/CA

(34)

Cap´ıtulo 3. Apresenta¸c˜ao do processo e resultados preliminares 34

restantes casos an´alogos. Ora,

∂tϕNt (0, y) = EνN[(ηt(0) − ρNt (0))(ηt(y) − ρNt (y))].

Como ηt(0) = α e ρNt (0) = α para todo t > 0 resulta que ϕNt (0, y) = 0.

Nota 3.5.7. Consideremos a medida inicial νρ0(·) como na Nota 3.5.3. Ent˜ao,

definimos

ϕNt (x, y) = Eνρ0(·){ηtN2(x) − ρNt (x)}{ηtN2(y) − ρNt (y)} ,

que tamb´em satisfaz (3.10), mas com condi¸c˜ao inicial dada por ϕN0 (x, y) = Eνρ0(·){η0(x) − ρN0 (x)}{η0(y) − ρN0 (y)}  = Eνρ0(·)η0(x) − ρN0 (x)  Eνρ0(·)η0(y) − ρN0 (y)  = 0.

Note que sempre que a medida inicial for uma medida produto esta condi¸c˜ao inicial vai ser zero pois as vari´aveis aleat´orias v˜ao ser independentes de m´edia zero. PUC-Rio - Certificação Digital Nº 1313524/CA

(35)

4

A equa¸

ao do calor

O teorema do limite hidrodinˆamico 5.0.10 que ´e o nosso principal objetivo no Cap´ıtulo 4, diz que se rescalamos o espa¸co por 1

N e o tempo por N

2 a

evolu¸c˜ao da densidade de part´ıculas ´e dada pela solu¸c˜ao de uma equa¸c˜ao do calor com certas condi¸c˜oes de fronteira. Por este motivo, neste cap´ıtulo vamos estudar a equa¸c˜ao do calor e o significado de uma solu¸c˜ao fraca desta equa¸c˜ao. 4.1

Equa¸c˜ao do calor

Vamos considerar agora as equa¸c˜oes do tipo

∂tu(t, x) − ∆u(t, x) = f (t, x) (4.1)

sujeita a condi¸c˜oes iniciais e de contorno apropriadas, onde t ≥ 0, u ∈ U ⊆ Rn

aberto. A fun¸c˜ao desconhecida ´e u : [0, ∞) × U → R, com u = u(t, x), e o laplaciano ∆ ´e tomado com respeito a x = (x1, · · · , xn), isto ´e, ∆u = ∆xu =

Pn

i=1uxixi. A fun¸c˜ao f ´e dada. No caso em que f ≡ 0 dizemos que a equa¸c˜ao

(4.1) ´e homogˆenea.

No caso em que tenhamos uma discretiza¸c˜ao de U (e uma defini¸c˜ao discreta do laplaciano) vamos dizer que a equa¸c˜ao ´e semi-discreta.

Nesta disserta¸c˜ao, vamos estudar o caso n = 1, e assim temos que ∆ = ∂2 x.

4.1.1

Interpreta¸c˜ao f´ısica

A equa¸c˜ao do calor tamb´em ´e conhecida como a equa¸c˜ao de difus˜ao que descreve a evolu¸c˜ao no tempo de uma densidade u de alguma quantidade como o calor, a concentra¸c˜ao qu´ımica, etc. Note que se V ⊂ U tal que ∂V ´e suave, ent˜ao a taxa de troca dessa quantidade dentro de V ´e igual ao negativo do fluxo atrav´es de ∂V , isto ´e,

d dt Z udx = − Z ∂V F · νdS,

onde F ´e o fluxo de densidade e ν ´e o vetor normal unidade exterior do campo. Como V ´e arbitr´ario ent˜ao temos que ut= −div F. Em muitas situa¸c˜oes, F ´e

proporcional ao gradiente de u, mas na dire¸c˜ao oposta (isso pois o fluxo vai de regi˜oes de maior a concentra¸c˜ao `a regi˜oes de concentra¸c˜ao mais baixa), assim

PUC-Rio - Certificação Digital Nº 1313524/CA

(36)

Cap´ıtulo 4. A equa¸c˜ao do calor 36

temos que F = −a∇u (a > 0). Logo, div F = div (−a∇u) = −a∆u. Quando tomamos a = 1 temos a equa¸c˜ao do calor homogˆenea.

4.2

Motiva¸c˜ao e defini¸c˜ao da solu¸c˜ao fraca

Uma equa¸c˜ao diferencial parcial pode ter solu¸c˜oes que n˜ao s˜ao difer-enci´aveis. Assim, para encontrar tais solu¸c˜oes, temos que rescrever a equa¸c˜ao diferencial parcial de forma que apare¸ca na equa¸c˜ao as derivadas da solu¸c˜ao (formula¸c˜ao fraca).

Consideremos a equa¸c˜ao do calor com condi¸c˜oes de Dirichlet dada por      ∂tρ(t, x) = ∆ρ(t, x) para x ∈ [0, 1] ρ(0, x) = ρ0(x) para x ∈ [0, 1] ρ(t, 0) = α, ρ(t, 1) = β para t ∈ [0, ∞) . (4.2)

Agora, fixemos um T > 0. Tomemos R = [0, T ] × [0, 1] e consideremos o conjunto C01,2(R) como o conjunto de fun¸c˜oes f : R → R tais que f ´e de classe C1[0, T ] no tempo, de classe C2[0, 1] no espa¸co, satisfazendo

f (t, 0) = f (t, 1) = 0.

Vejamos, informalmente, que se multiplicamos uma fun¸c˜ao teste Gt(x) tal que

G ∈ C01,2(R) na equa¸c˜ao ∂tρ(t, x) = ∆ρ(t, x) de (4.2) temos que

∂tρ(t, x)Gt(x) = ∆ρ(t, x)Gt(x).

Integrando a igualdade anterior sobre a regi˜ao R obtemos Z 1 0 Z T 0 ∂tρ(t, x)Gt(x)dtdx | {z } =I1 = Z 1 0 Z T 0 ∆ρ(t, x)Gt(x)dtdx | {z } =I2 . (4.3)

Fazendo uma integra¸c˜ao por partes na integral I1 temos que

I1 = Z 1 0 ρ(T, x)GT(x) − ρ(0, x)G0(x)dx − Z 1 0 Z T 0 ρ(t, x)∂tGt(x)dtdx.

Agora vamos calcular I2. Neste caso note que ∆ = ∂x2, ent˜ao pelo Teorema de

Fubini e fazendo outra integra¸c˜ao por partes, duas vezes, temos

I2 = Z T 0 ∂xρ(t, 1)Gt(1) − ∂xρ(t, 0)Gt(0)dt − Z T 0 Z 1 0 ∂xρ(t, x)∂xGt(x)dxdt = Z T 0 ∂xρ(t, 1)Gt(1) − ∂xρ(t, 0)Gt(0)dt − Z T 0 ρ(t, 1)∂xGt(1) − ρ(t, 0)∂xGt(0)dt + Z T 0 Z 1 0 ρ(t, x)∂x2Gt(x)dxdt. PUC-Rio - Certificação Digital Nº 1313524/CA

(37)

Cap´ıtulo 4. A equa¸c˜ao do calor 37

Assim I1 = I2 pode ser escrito como:

Z 1 0 ρ(T, x)GT(x) − ρ(0, x)G0(x)dx = Z 1 0 Z T 0 ρ(t, x)∂tGt(x)dtdx + Z T 0 ∂xρ(t, 1)Gt(1) − ∂xρ(t, 0)Gt(0)dt − Z T 0 ρ(t, 1)∂xGt(1) − ρ(t, 0)∂xGt(0)dt + Z T 0 Z 1 0 ρ(t, x)∆Gt(x)dxdt.

Logo, como p(t, 0) = α, ρ(t, 1) = β e G ∈ C01,2(R) temos que Z 1 0 ρ(T, x)GT(x) − ρ(0, x)G0(x)dx = Z 1 0 Z T 0 ρ(t, x)(∂t+ ∆)Gt(x)dtdx + Z T 0 α∂xGt(0) − β∂xGt(1)dt.

Defini¸c˜ao 4.2.1. Fixe uma fun¸c˜ao cont´ınua ρ0 : [0, 1] → [0, 1]. Uma fun¸c˜ao

mensur´avel ρ : [0, T ] × [0, 1] → [0, 1] ´e uma solu¸c˜ao fraca da equa¸c˜ao (4.2), se para cada fun¸c˜ao G ∈ C01,2(R), ρ satisfaz a equa¸c˜ao integral,

Z 1 0 ρ(T, x)GT(x) − ρ0(x)G0(x)dx = Z 1 0 Z T 0 ρ(t, x)(∂t+ ∆)Gt(x)dtdx + Z T 0 α∂xGt(0) − β∂xGt(1)dt.

Teorema 4.2.2. Se existe uma solu¸c˜ao fraca da equa¸c˜ao do calor com condi¸c˜oes de Dirichlet dada em (4.2), ent˜ao essa solu¸c˜ao ´e ´unica.

Este resultado ´e essencial para a demonstra¸c˜ao do limite hidrodinˆamico que vamos apresentar. Este resultado ser´a utilizado, mas a demonstra¸c˜ao n˜ao ser´a feita nesta disserta¸c˜ao, para mais detalhes veja [6] e [12]).

4.3

Equa¸c˜ao semi-discreta do calor

Nesta se¸c˜ao vamos fixar N ≥ 2 e vamos considerar o laplaciano discreto definido no Cap´ıtulo 2 na equa¸c˜ao (3.6).

PUC-Rio - Certificação Digital Nº 1313524/CA

Referências

Documentos relacionados

Serão admitidas aplicações feitas com o uso de ativos financeiros, desde que observados, cumulativamente, os seguintes critérios: (a) os ativos financeiros a serem integralizados

Our contributions are: a set of guidelines that provide meaning to the different modelling elements of SysML used during the design of systems; the individual formal semantics for

F I G U R E 1   Schematic representation of the experiment undertaken to test different routes of oestradiol benzoate administration for cervical dilation prior to

The political reforms that Duvalier promoted – the change in the way of appointing of the head of the general staff of the army and the creation of an Executive military force

Veículos do casal Rogério Onofre e Dayse foram registrados em nome Cláudio Freitas; Houve várias trocas de mensagens suspeitas, tendo elas sido codificadas com nomes

F REQUÊNCIAS PRÓPRIAS E MODOS DE VIBRAÇÃO ( MÉTODO ANALÍTICO ) ... O RIENTAÇÃO PELAS EQUAÇÕES DE PROPAGAÇÃO DE VIBRAÇÕES ... P REVISÃO DOS VALORES MÁXIMOS DE PPV ...

As questões acima foram a motivação para o desenvolvimento deste artigo, orientar o desenvol- vedor sobre o impacto que as cores podem causar no layout do aplicativo,

psicológicos, sociais e ambientais. Assim podemos observar que é de extrema importância a QV e a PS andarem juntas, pois não adianta ter uma meta de promoção de saúde se