• Nenhum resultado encontrado

Processo de Bastões de Alcance Finito: Aspectos dos Modelos Microscópicos e Macroscópicos

N/A
N/A
Protected

Academic year: 2021

Share "Processo de Bastões de Alcance Finito: Aspectos dos Modelos Microscópicos e Macroscópicos"

Copied!
104
0
0

Texto

(1)

Instituto de Matemática

Departamento de Métodos Estatísticos

Processo de Bastões de alcance finito.

Aspectos dos modelos microscópico e

macroscópico.

Aniel Ojeda Alvarez

Orientador: Leandro Pinto Rodrigues Pimentel

Tese de Doutorado apresentada como parte dos requisitos

para obtenção do título de Doutor em Estatística

Rio de Janeiro,

outubro de 2015

(2)

O39p Processo de Bastões de alcance finito. Aspectos dos modelos microscópico e macroscópico./ Aniel Ojeda Alvarez. – 2015

92f. ; 30 cm

Orientador: Leandro Pinto Rodrigues Pimentel Tese (doutorado) – UFRJ/IM. Programa de Pós-graduação em Estatística, 2015.

Referências: f.87-88.

1. Processo de bastões 2. Limite hidrodinâmico

I. Pimentel, Leandro Pinto Rodrigues II. Universidade Federal do Rio de Janeiro. Instituto de Matemática III. Título.

(3)

modelos microscópico e macroscópico.

Aniel Ojeda Alvarez

Orientador: Leandro Pinto Rodrigues Pimentel

Tese de Doutorado apresentada ao Programa de Pós-graduação do Instituto de Mate-mática da Universodade Federal do Rio de Janeiro como parte dos requisitos necessários para obtenção do título de Doutor em Estatística.

Aprovada por:

Leandro Pinto Rodrigues Pimentel – IM/UFRJ (Presidente)

Maria Eulália Vares – IM/UFRJ

Glauco Valle da Silva Coelho – IM/UFRJ

Wladimir Augusto das Neves – IM/UFRJ

Roberto Imbuzeiro Moraes Felinto de Oliveira – IMPA

(4)
(5)

O Processo de Bastões pode ser definido de modo geral como uma família de variáveis não negativas indexadas geralmente por Z ou Zd. Ao evoluir o tempo, pedaços dos bastões

podem ser quebrados e adicionado a um outro deles. Neste trabalho foi introduzida uma versão do Processo de Bastões unidimensional. Isto é, dada uma família de variáveis não negativas em (ηi)i∈Z, em cada sitio i, depois de um tempo exponencial com taxa ηio bastão

é quebrado uniformemente no intervalo [0, ηi] e dito pedaço é adicionado para algum dos

vizinhos no intervalo [i − R, i + R] que é escolhido aleatoriamente com probabilidade p(q). Para mostrar que o dito processo é bem definido foi feita uma aproximação de Z por compactos [−M, M ] fazendo M → ∞. O nosso processo possui a propriedade de atratividade e, além disso, sob a lei produto exponenciais i.i.d. nosso processo é invariante. Como resultado principal foi obtido o limite hidrodinâmico para dois casos, primeiro quando p(q) tem média zero e segundo, quando tem média não nula. Em ambos casos foi usado um enfoque martingal para o estudo da forma do limite. No caso com média zero o perfil empírico converge para a solução fraca da equação do meio poroso. A diferencia dos modelos simétricos estudados na literatura, o nosso foi estudado no domínio não limitado R. Para o caso com média não nula vamos chegar na solução fraca entrópica da equação de Burgers não viscosa. Este caso foi estudado por separado utilizando a metodologia de soluções em valor de medidas de Young.

Palavras chaves: Processo de Bastões, limite hidrodinâmico, equação do meio poroso, leis de conservação não linear, soluções em valor da medidas de Young.

(6)
(7)

The stick process in general is defined as a non-negative random variable family on Z or Zdlattice. In time evolution, pieces of sticks can be broken and added on to other site. In this work we introduced a version of one-dimensional stick process. Given a non-negative random variable family (ηi)i∈Z, in each site i, in exponential time with rate ηi is broken a

piece uniformly in [0, ηi] and added on to some randomly choice neighbor in [i − R, i + R]

whit probability p(q). To verify if this process is well defined was made an approximation of Z by compact sets [−M, M ] as M → ∞. The process have attractiveness property and product exponential measure is invariant under the process dynamic. The main result was the hydrodynamical scaling limit, in both, with p(q) zero mean and non-zero mean case; using a martingale approach. In zero mean case the empirical profile converge to a weak solution of porous medium equation. In contrast with literature symmetric models, us model is development in non-bounded domain R. In non-zero mean case the limit was a weak entropic solution of inviscid Burgers equation. This case was studied separately using the measures valued solution approach.

Keywords: Stick process, hydrodynamic scaling limit, porous medium equation, non-linear conservation law, measured valued solutions.

(8)
(9)

1.1 Processo de Bastões. . . 6

1.2 Interpretação dos pontos em Pi associados ao bastão ηi. . . 7

1.3 Evolução do Processo de Hammersley Generalizado. . . 13

1.4 Deslocamento das partículas sob acoplamento básico. . . 16

1.5 Trajetórias dos processos sob acoplamento básico. . . 16

1.6 Caminho crescente de 6 pontos até o tempo t. . . 19

(10)
(11)

List of Figures viii

Contents xi

Introdução 1

1 O processo de Bastões 5

1.1 O processo . . . 5

1.1.1 Construção gráfica do processo truncado . . . 6

1.1.2 O espaço de estados . . . 10

1.2 O processo de Hammersley . . . 11

1.2.1 Limitação uniforme dos momentos . . . 14

1.3 Compacidade relativa . . . 20 1.4 Algumas propriedades . . . 24 1.4.1 Distribuição invariante . . . 25 2 Limite Hidrodinâmico 29 2.1 Preliminares . . . 30 2.1.1 Solução fraca . . . 32 2.2 Limite hidrodinâmico . . . 34 2.3 Prova do Teorema 2.1 . . . 35 2.3.1 Estimação do martingal . . . 37 2.3.2 Compacidade relativa de (αN · )n∈N . . . 38 2.3.3 Equilíbrio local . . . 41

2.3.4 Prova do Lema de Substituição (Lema 2.4) . . . 43

2.3.4.1 Estimativas de um e dois blocos . . . 45

2.3.5 Distribuição dos Pontos limites . . . 54

2.3.6 Unicidade . . . 58

2.3.7 Extensão ao caso u0 ≥ 0 . . . 59

2.3.7.1 Gerador para o acoplamento básico . . . 59

3 Caso de média não nula 65 3.1 Leis de conservação . . . 66

(12)

3.2 Soluções em valores de medidas de Young para Leis de Conservação . . . . 67

3.2.1 Medidas de Young . . . 68

3.2.1.1 Compacidade relativa de αN,Lt . . . 69

3.3 Distribuição dos pontos limites . . . 70

3.3.1 Desigualdades de entropia no nível microscópico . . . 71

3.3.2 Unicidade dos pontos limites . . . 78

3.4 Extensão ao caso geral . . . 82

Referências Bibliográficas 87

(13)

O Processo de Bastões pode ser definido de modo geral como uma família de variáveis não negativas (interpretadas como bastões) indexadas geralmente por Z ou Zd. Ao evoluir

o tempo, é quebrado um pedaço de algum bastão e o dito pedaço é adicionado a um outro deles. Este processo tem sido estudado em diversas variantes. Por exemplo: Suzuki and Uchiyama (1993) e Ekhaus and Seppäläinen (1996) usam versões simétricas para o estudo do modelo microscópico para a equação do meio poroso. Outra versão totalmente assimétrica foi introduzida por Seppäläinen (1996) na grade unidimensional inteira como uma forma à solução do problema de Ulam (comprimento da maior subsequência crescente de uma permutação aleatória) estudado anteriormente por Hammersley (1972) e Aldous and Diaconis (1995) onde é introduzido o Processo de Hammersley com dito nome.

Seppäläinen (1996) mostra que o Processo de Bastões totalmente assimétrico é bem definido em um espaço de estado infinito, por meio da sua equivalência com o Processo de Hammersley. Ele aproveita a relação variacional entre o Processo de Hammersley e o modelo de Percolação de Última Passagem para obter estimativas que permitem provar a boa evolução deste sistema em volume infinito. Também usa a mesma relação para mostrar a convergência, de uma forma muito geral, para a solução fraca da equação de Burgers não viscosa. O processo de Seppäläinen (1996) só tem alcance para seu vizinho mais próximo na direita enquanto os processos de Ekhaus and Seppäläinen (1996), Suzuki and Uchiyama (1993) tem alcance para qualquer sitio, mas estão definidos em espaços compactos (por exemplo, o toro).

(14)

Neste trabalho é introduzida uma versão mais geral do Processo de Bastões unidimen-sional que inclui os casos simétrico e assimétrico, além de ter um alcance para vizinhos a distancia não maior que um R > 0 dado. Para isso são exploradas as estimativas de Seppäläinen (1996) para poder mostrar que nosso Processo de Bastões também é bem definido em volume infinito. Usando a mesma relação entre o Processo de Hammersley e o Processo de Bastões totalmente assimétrico, usada por Seppäläinen (1996), nos permitiu definir uma generalização para o Processo de Hammerley.

Além da construção do processo de bastões estudamos os limites hidrodinâmicos, que vão ser obtidos para os dois casos dependendo da simetria do processo. Nos trabalhos de Ekhaus and Seppäläinen (1996), Suzuki and Uchiyama (1993) é estudado o modelo simétrico do processo de bastões no toro multidimensional. Ditos resultados são baseados no método de estimados da entropia desenvolvido por Guo et al. (1988). Como parte do modelo simétrico, fazemos uma generalização para o espaço unidimensional de volume infinito, como foi definido nosso processo. Para o caso assímetro, seguimos a ideia de Rezakhanlou (1991) que utiliza os resultados de soluções definidas no espaço das medidas de DiPerna (1985). Para desenvolver ambos enfoques são aproveitadas as propriedades mostradas na primeira parte (atratividade e medida invariante produto). Devido a que bastões inicialmente nulos não podem ser absolutamente contínuos com respeito a nossa medida invariante produto, primeiramente foi preciso supor, que a condição inicial seja estritamente positiva. Esta hipóteses é retirada no final de cada modelo usando aproxi-mação.

Este trabalho está dividido em três capítulos. No primeiro é definido o processo medi-ante aproximação por una sequencia de processos com evolução bem definida. Um acopla-mento com o caso totalmente assimétrico de Seppäläinen (1996) permite ter estimativas que ajudam na prova da rigidez da dita sequência. Uma vez que nosso processo é definido como o único limite desta sequencia, são provadas a atratividade e que a invariância da medida induzida por produto de exponenciais i.i.d.

(15)

ao limite hidrodinâmico para nosso modelo. Primeiro é deduzida a forma do possível limite hidrodinâmico e estabelecidas as hipóteses e condições para a prova. Utilizando continuidade absoluta da distribuição inicial com respeito a medida invariante produto, é mostrada a estimativa de um bloco e dois blocos utilizando ideias similares às usadas por Ekhaus and Seppäläinen (1996) mas sem usar direitamente os estimadores da entropia relativa. Neste passo é utilizada a suposição de condição inicial estritamente positiva que vai ser retirada no final por aproximação. Seguidamente é feita a prova para o espaço de volume infinito, que generaliza a prova feita por Ekhaus and Seppäläinen (1996) para o toro, da continuidade absoluta com respeito a Lebesgue dos pontos limites. Neste capítulo é concluída a prova do caso simétrico utilizando os resultados de unicidade para a equação do meio poroso. Por outro lado, o casso assimétrico resulta na equação de Burgers que é conhecida a não unicidade, de forma geral, da solução.

No terceiro capítulo é desenvolvida a teoria para o caso assimétrico. Utilizando os resultados já obtidos no capítulo segundo, só falta estudar a unicidade dos pontos limites. Com tal fim, é mostrado que os pontos limites são soluções entrópicas no sentido (3.2). A teoria de DiPerna (1985) de soluções no espaço das medidas para as leis de conservação, nos permite a partir da condição de entropia (para medidas (3.4)), deduzir direitamente que a medida solução obtida está concentrada na solução fraca entrópica no sentido (3.2). Por este motivo o terceiro capítulo é desenvolvido baseado na teoria de DiPerna (1985). Os resultados fundamentais deste capítulo são a prova da condição de entropia e as demais condições do resultado de DiPerna (1985), que garantem o fato de que a solução no espaço das medidas converge em L1à medida de Dirac concentrada no dado inicial, quando t → 0.

(16)
(17)

O processo de Bastões

O Processo de Bastões totalmente assimétrico foi introduzido por Seppäläinen (1996) relacionando-o ao Problema de Ulam de encontrar a maior sequência crescente de uma permutação aleatória. Também foi apresentado o Processo de Bastões totalmente assi-métrico como uma alternativa ao Processo de Hammersley. Neste trabalho é construída uma generalização do Processo de Bastões onde acontecem saltos dentro uma vizinhança de comprimento 2R + 1 onde o sítio é escolhido por uma medida de probabilidade discreta de alcance finito p(·). Por meio desta construção, também é obtida uma generalização do Processo de Hammersley.

1.1

O processo

Para definir nosso processo consideramos uma grade inteira unidimensional, ou seja, tomamos i ∈ Z e para cada sítio i definimos uma variável não negativa ηi ∈ [0, ∞)

as quais são chamadas bastões. Dada p(q) uma distribuição de probabilidade sobre {−R, −R + 1, . . . , R}, a evolução no tempo para esta configuração vai estar definida pela seguinte lei:

(18)

(E1) em cada sítio i, com tempo exponencial de taxa ηi, tomamos um valor Ui

uniforme-mente distribuído no intervalo [0, ηi];

(E2) o bastão ηi vai ser reduzido para ηi− Ui e é adicionado o pedaço de tamanho Ui

restante ao bastão ηi+j, com probabilidade p(j).

Em outras palavras, o alcance de cada salto vai ser dentro de um raio finito R. Com esta informação precisamos mostrar, que de fato, existe um Processo de Markov que segue a lei de evolução (E1)-(E2).

ηi−1 ηi ηi+1 ηi+2 ηi+3 ηi+4

Ui

Ui

j = 3

Figura 1.1: Processo de Bastões.

1.1.1

Construção gráfica do processo truncado

Para a construção de nosso processo, vamos fixar um inteiro M > 0 e consideramos o processo com a mesma evolução mas definido nos sítios −M , −M + 1,. . . , M . Para cada i ∈ {−M, . . . , M } sejam PiProcessos Pontuais de Poisson independentes com intensidade `eb × `eb sobre (0, ∞) × [0, ∞) e J uma sequência de variáveis aleatórias independente e identicamente distribuída com distribuição de probabilidade p(q). Assumimos também que J é independentes da família de Processos de Poisson (Pi). Dado um ponto (t, b) ∈ Pi,

para algum i, a primeira coordenada t é interpretada como o tempo de ocorrência de uma ruptura do bastão ηi e b o valor onde ele vai ser quebrado caso ηi(t−) seja maior do que

b (ver Figura 1.2). Onde ηi(t−) é o valor de ηi(t) se não tivesse o ponto (t, b), Ou seja,

coincide com o limite pela esquerda (s < t), quando s → t, de ηi(s).

Observação. Veja na Figura 1.2 que o ponto (t, b) vai aparecer de forma que b é uniforme-mente distribuído no intervalo [0, ηi(t−)], num tempo exponencial de parâmetro ηi(t−).

(19)

ηi(t−)

t

b Pi

Figura 1.2: Interpretação dos pontos em Pi associados ao bastão ηi.

Desta forma, se adicionamos uma configuração inicial η = (ηi) a uma realização da

família de processos, P = (Pi)M

i=−M e uma realização do sequência J , a evolução do

processo truncado pode ser escrita como função desta tripla. Denotamos dita relação pela função Θ(η, P, J ), onde a evolução é definida como explicamos a seguir.

Seja τ1 o mínimo das t tais que (t, b) ∈ Pi1 para algum i1 ∈ {−M, . . . , M } e b ≤ ηi.

(Podemos assumir que não existe coincidência entre os valores de t ou b nas trajetórias de P, pois coincidências acontecem com probabilidade nula.) Deste modo, ηi1(s) = ηi1(0),

para cada s < τ1. No instante τ1, ηi1(τ1) = ηi1(τ1−) ∧ b1, onde b1 é tal que (τ1, b1) ∈ P

i1.

Tomamos j1 o primeiro elemento da sequência J , se |i1 + j1| ≤ M , temos ηi1+j1(τ1) =

ηi1+j1(τ1−) + (ηi1(τ1−) − b1)

+, onde (q)+ = max {0, q}. Os demais sítios, η

k(τ1) = ηk(τ1−)

para k 6= i1, i1+ j1.

Analogamente, podemos encontrar sequências (τn)n≥1 e (in)n≥1 aleatórias, definida

recursivamente como, τ1 e i1 dado acima, e para n ≥ 2,

τn= mint > τn−1 : (t, b) ∈ Pin, para algum in ∈ {−M, . . . , M } e b ≤ ηin ,

deste modo, o processo vai permanecer invariante para t ∈ [τn−1, τn) e em cada valor τn

vai tomar o valor,

ηk(τn) =          ηin(τn−) ∧ bn, se k = in, ηin+jn(τn−) + (ηin(τn−) − bn) +, se k = i n+ jn e |k| ≤ M , ηk(τn−), caso contrário; (1.1)

(20)

Deste modo é definida uma sequência de processos ηM(t) a valores no espaço de estados YM = [0, ∞){−M,...,M } que vai ser munido pela métrica produto,

d(η, ξ) =

M

X

i=−M

|ηi− ξi|.

Denotemos por PηM a distribuição de ηM(q) em D([0, ∞), YM), o espaço das trajetórias contínuas à direita e com limite à esquerda definidas sobre [0, ∞) a valores em YM (ver

detalhes Billingsley (1999)). Pelas propriedades de invariância sob translações da distri-buição dos (Pi), para cada M , a família de medidas de probabilidadesnPηM

, ηM ∈ YMo

define um Processo de Feller em D([0, ∞), YM) na notação de Liggett (2005). Isto é, seja o semigrupo definido por

S(t)f (η) = Eηf (η(t)), (1.2) para cada f contínua e limitada sobre YM. O processo de Markov

n

PηM, ηM ∈ YMo é

dito de Feller se S(t)f é contínua e limitada para cada t ≥ 0 e f contínua e limitada. Em geral, dado X um espaço métrico (assumimos também que X é completo e sepa-rável) e Cb(X) o conjunto das funções contínuas e limitadas sobre X. Dado um Processo

de Feller em D([0, ∞), X), lhe podemos associar o Semigrupo de Markov {S(t), t ≥ 0} definido em (1.2).

Dado o semigrupo de Markov {S(t), t ≥ 0}, seja

D =  f ∈ Cb(X) : lim t→0+ S(t)f − f t existe  .

O Gerador Infinitesimal do semigrupo {S(t), t ≥ 0} é o operador linear L tal que para cada f ∈ D,

L f = lim

t→0+

S(t)f − f t .

(21)

Proposição 1.1. Para cada M , o gerador infinitesimal associado ao processo nPηM , ηM ∈ YMo é definido por, LMf (η) = M X i=−M R X j=−R p(j) Z ηi 0 f (ηu,i,i+j) − f (η) du, (1.3)

para cada f contínua e limitada. Onde, se u ≤ ηi

ηu,i,i+jk =          ηi− u, k = i ηi+j+ u, k = i + j e |k| ≤ M ηk, outro caso. (1.4)

Demonstração. Seja f contínua e limitada SM(t)f (η) − f (η) t = Ef (η(t)) − Ef (η) t = E[f (η(t)) − f (η)] t =X k≥1 E[f (η(t)) − f (η) Ak]P (Ak) t = E[f (η(t)) − f (η) A1] · e−tλ1λ1+ o(t) t ,

onde Ak é o evento da ocorrência de k pontos em (Pj)Mj=−M até o tempo t e λ1 = M

P

i=−M

ηi.

Ou seja, a ocorrência de um ponto em (Pj)M

j=−M até o tempo t tem distribuição poisson

com intensidade `eb  M S i=−M [0, t] × [0, ηi]  = t M P i=−M

ηi. Além disso, a ocorrência de k pontos

em (Pj)Mj=−M tem distribuição poisson com intensidade limitada por t(2M + 1)

M

P

i=−M

ηi.

Por outra parte,

E[f (η(t)) − f (η) A1] = M X i=−M E[f (η(t)) − f (η) Bi, A1]P (Bi A1) = M X i=−M E[f (η(t)) − f (η) Bi, A1] ηi λ1 ,

onde Bié o evento que o ponto de Poisson ocorrido pertence ao processo Pi correspondente

(22)

η(t) só difere de η nos sítios i e j, este último aleatório com distribuição p(j). Além disso, dada a ocorrência de um ponto de Poisson no sítio i ele vai quebrar o i-ésimo bastão num ponto uniforme em [0, ηi], portanto, seja U uniforme em [0, ηi],

E[f (η(t)) − f (η) Bi, A1] = R

X

j=−R

p(j)E[f (ηU,i,i+j) − f (η)]

onde a configuração ηu,i,i+j é definida como em (1.4). Tomando limite quando t ↓ 0, obtemos

lim t↓0 Ef (η(t)) − Ef (η) t = limt↓0 M X i=−M R X j=−R p(j)ηiE[f (ηU,i,i+j) − f (η)] · e−λ1t = M X i=−M R X j=−R p(j) Z ηi 0 f (ηu,i,i+j) − f (η) du.

Note que este limite existe para toda função contínua e limitada o que define o gerador infinitesimal para o dito processo.

1.1.2

O espaço de estados

Nosso interesse neste trabalho é definir o processo para todos os sítios em Z, para isso, precisamos definir um espaço de estados apropriado. Em geral, se é permitido ter muita massa no sistema, por exemplo, os bastões crescem muito rápido quando nos afastamos da origem, pode acontecer uma acumulação infinita de massa em algum sítio durante a evolução. Esta situação não é desejável para a boa definição do processo, por isso, devemos definir o processo sobre um espaço de estados que controle o crescimento dos bastões em sítios afastados da origem.

Analogamente ao modelo desenvolvido por Seppäläinen (1996), definimos nosso espaço como Y = ( η ∈ [0, ∞)Z : lim n→∞ 1 n2 n X i=−n ηi = 0 ) . (1.5)

(23)

Outro elemento fundamental para o estudo da convergência é a definição de uma topologia apropriada para o espaço Y . Definiremos uma nova métrica mais forte que a métrica produto usual de forma a obter um controle uniforme sobre os bastões para sítios muito longe da origem. Além disso, teremos que Y sera um subconjunto fechado de [0, ∞)Z

(Lema .6 no apêndice). Para x, y ∈ [0, ∞), seja

δ(x, y) = |x − y| 1 + |x − y|,

que define uma métrica equivalente à euclidiana em R. Deste modo, para η, ξ ∈ [0, ∞)Z

seja d(η, ξ) = ∞ X n=−∞ δ(ηn, ξn) 2|n| + sup 1≤n δ 1 n2 n X i=−n ηi, 1 n2 n X i=−n ξi ! . (1.6)

Nosso espaço de estados, sob da métrica (1.6) vai ser um espaço métrico completo separável, (Proposição .7) que são propriedades fundamentais para aplicação da teoria de convergência em Ethier and Kurtz (1986). Outras propriedades deste espaço são explora-das no apêndice 3.

Observação. Se vemos YM como um subconjunto de [0, ∞)Z onde η

i = 0 para |i| > M ,

temos YM ⊂ Y . Além disso, toda sequência convergente em YM com a métrica produto

também vai ser convergente em Y com a métrica (1.6).

1.2

O processo de Hammersley

Para dar uma breve explicação da evolução do Processo de Hammersley, fixamos uma configuração inicial de pontos reais não decrescentes (zk)k∈Z ⊂ R e um Processo Pontual

de Poisson Q sobre R × [0, ∞) de intensidade `eb × `eb. Em cada instante t, tal que existe um ponto (x, t) ∈ Q, a partícula mais próxima à direita de x, digamos zk(t−) vai ocupar

a posição x, ou seja zk(t) = x, e as partículas restantes permanecem iguais. Para uma

(24)

(1996) que tal evolução está bem definida. Z0 =  z ∈ RZ : lim n→−∞ zn n2 = 0; zi ≤ zi+1, ∀i ∈ Z  , (1.7) e analogamente Y0 = ( η ∈ [0, ∞)Z : lim n→∞ 1 n2 −1 X i=−n ηi = 0 ) , (1.8)

para o processo de bastões.

É explicada a seguir uma correspondência entre o Processo de Hammersley e o Processo de Bastões. Dado β ∈ R e uma configuração η ∈ Y0, é possível escrever z = zβ(η) como

zi =              β + i−1 P j=0 ηj, i > 0 β, i = 0 β − −1 P j=i ηj, i < 0. (1.9)

Reciprocamente, é possível definir o Processo de Bastões dada uma configuração z ∈ Z0, sendo η = η(z), como

ηi = zi+1− zi. (1.10)

O processo de bastões, estudado por Seppäläinen (1996) por meio da sua equivalência com o processo de Hammersley (1.9)–(1.10), é um caso particular do nosso com p(1) = 1, e portanto, p(j) = 0 para todo j 6= 1. Alguns resultados de Seppäläinen (1996) para o Processo de Hammersley, serão usados a seguir para obter algumas estimativas necessárias para nosso processo.

Se aplicamos a transformação (1.9) ao Processo de Bastões geral vamos a obter uma generalização do Processo de Hammersley. Neste caso, quando é encontrado um ponto (x, t) ∈ Q, temos um intervalo da forma (zk−1(t−), zk(t−)] que contém x. Neste instante,

é sorteado um valor j, com probabilidade p(−j), acontecendo três opções: se −R ≤ j < 0 a partícula zk−1 vai pular para o sítio x e as restantes zk+m, para m = j, . . . , −2, vão a

(25)

e zk+m, para m = 2, . . . , j, vão a pular uma distancia zk(t−) − x a esquerda. Quando

j = 0 não acontece nenhuma variação. Também é importante observar que dada a nossa aproximação, z±k = z±M para k ≥ M , os pontos (x, t) ∈ Q tais que x < z−M e x > zM não

vão a influir na evolução do processo zM. Pois o processo ηM não recebe massa dos sítios

i tais que, |i| > M . Em analogia à construção gráfica em 1.1.1, escrevemos a evolução explicada acima como uma função da tripla (z, Q, J ), denotada por ¯Θ(z, Q, J ).

Na Figura 1.3 é apresentado um exemplo de uma trajetória para esta generalização do Processo de Hammersley. Os pontos escuros representam os elementos de Q e abaixo deles os correspondentes valores de J . Por exemplo o ponto mais próximo à direita dos valores z4, z5 e z6, tem o valor 3, portanto, estas três partículas vão a ser puxadas à esquerda.

Casso que tal valor seja negativo vão ser puxadas à direita as correspondentes partículas que estão à esquerda. Quando é zero nenhuma partícula é deslocada.

z5 z7 z3 z4 z8 z2 z1 z6 t 1 3 −3 3 3 2 2 −1 −2 0 2 −2 −4 1 0

Figura 1.3: Evolução do Processo de Hammersley Generalizado.

Em geral, para o espaço de estados

Z =  z ∈ RZ : lim n→±∞ zn n2 = 0; zi ≤ zi+1, ∀i ∈ Z  , (1.11)

as equações (1.9)-(1.10) definem uma transformação contínua entre D([0, ∞), Y ) e D([0, ∞), Z) de forma que as distribuições destes processos seguem as evoluções des-critas acima e a seleção de β é irrelevante pela invariância sob translações do Processo de Poisson.

(26)

1.2.1

Limitação uniforme dos momentos

Agora fixamos M e consideramos nosso Processo de Bastões (ηi)i∈Z em YM ⊂ Y . Para

cada n ∈ Z, definamos um novo processo (φn)n, como

φn(t) = R−1

X

i=0

ηnR+i(t),

onde R é o alcance máximo dos saltos do processo. Note que este processo vive no espaço de estados YMR ⊂ Y , onde M

R = bM/Rc + 1. Em geral esta transformação pode ser

feita independente de M . Além disso, note que cada salto tem alcance máximo do vizinho mais próximo. Para descrever a evolução deste novo processo, olhando para o processo original, o bastão φn vai ter uma rutura no tempo

τn= min {ti : ti ∼ exp(ηnR+i), 0 ≤ i < R} ,

ou seja, τn ∼ exp (φn). Assim o pedaço quebrado vai passar para um dos vizinhos n −

1, n + 1 ou ficar no próprio sítio n, com probabilidade p−, p+ ou p0 respectivamente. Estas

probabilidades (cujo cálculo não é de nosso interesse) dependem de p(·) e da posição do bastão dentro do intervalo de tamanho R.

Analogamente como foi feito anteriormente, podemos definir ˜zi que vive no espaço de

estados Z, seguindo a transformação (1.9)-(1.10). Ou seja, de forma que φn= ˜zn+1− ˜zn.

Assim, ˜zn = zRn, onde os zn são a coleção de valores reais correspondentes aos bastões ηn

pela transformação (1.9).

O processo (φ(t); t ≥ 0), tem sua evolução definida por uma função ΘR(η, P, J ),

dada uma configuração inicial de bastões η, a família de processos de Poisson P e a sequência J , definidos na subseção 1.1.1. Analogamente (˜z(t); t ≥ 0), tem sua evolução definida como uma função ¯ΘR(z, Q, J ). Note que, pela construção de φ a partir de η,

estas funções dependem direitamente das funções Θ e ¯Θ anteriormente definidas. Em particular, ¯ΘR(z, Q, J ) pode ser vista como tomando as componentes múltiplos de R em

¯

(27)

Lema 1.2. Seja ˜z ∈ Z. Para cada t > 0 e 1 ≤ p < ∞, sup M EηM  sup k∈Z ˜ zk(t) k2 p < ∞. (1.12)

Demonstração. Fixemos Q Processo de Poisson em R × R+, mencionado acima e uma

configuração inicial (zk0)k∈Z para o processo (˜zk) de forma que zk0 = zRk, sendo (zk) é uma

configuração em Z onde inicia o correspondente processo (z(t); t ≥ 0). Defina os Processos de Hammerleys clássicos, z+ = ¯Θ(z0, Q, −1) e z− = ¯Θ(z0, Q, 1), onde 1 é a sequência constante 1. Note que o primeiro salta sempre à direita e o segundo à esquerda. Assim, construímos o acoplamento básico com estes três processos,

(˜z, z−, z+) =Θ¯R(z, Q, J ), ¯Θ(z0, Q, 1), ¯Θ(z0, Q, −1) .

Lembrando que se ˜z(t) = ¯ΘR(z, Q, J ) e z(t) = ¯Θ(z, Q, J ), então, ˜zk(t) = zRk(t).

Fixando M , ηk = 0 para todo |k| > M , deste modo φk = 0 para |k| > MR, ˜zk = ˜zMR

para todo k > MR e ˜zk = ˜z−MR para todo k < −MR e ˜z−MR ≤ ˜zk(t) ≤ ˜zMR para

todo k ∈ Z. Assim, a evolução de ˜z só depende dos pontos de Poisson dentro da faixa [z0 −MR, z 0 MR]. Os processos z − k(t) e z +

k(t) não dependem de MR pois estão definidos a partir

de Processos de Hammersley clássicos.

Dada esta construção, mostraremos que, para cada MR, −MR≤ k ≤ MR e t ≥ 0

z−k(t) ≤ ˜zk(t) ≤ zk+(t). (1.13)

Verificamos a desigualdade da esquerda, a outra é análoga pela simetria de nossa construção. Note que no tempo t = 0, como os processos começam do mesmo dado inicial vamos a ter a igualdade em (1.13), permanecendo iguais até o primeiro tempo tk1 de forma que (xk

1, tk1) ∈ Q e xk1 ∈ [˜zk−1(tk1−), ˜zk(tk1−)]. Neste instante z −(tk

1−) = xk1, por outra

parte, é sorteado j, para −R ≤ j ≤ R, com probabilidade p(j) e se j ≤ 0 a partícula ˜

(28)

zk−(tk 1) = xk1 ˜ zk−1(tk1−) z−k(tk1−) ˜ zk(tk1−) zj−3 zj−2 zj−1 zj zj+1 . . . .

Figura 1.4: Deslocamento das partículas sob acoplamento básico.

Quando j > 0 as partículas zi(tk1−), zi+1(tk1−), . . . , zi+j(tk1−) vão se deslocar para a

esquerda uma distancia de zi(tk1−) − xk1 como abaixo (ver Figura 1.4),

zi(tk1) = xk1,

zi+1(tk1) = zi+1(tk1−) − [zi(tk1−) − xk1], (1.14)

.. .

zi+j(tk1) = zi+j(t1k−) − [zi(tk1−) − xk1].

Note que se i + j, não atinge a posição correspondente ao sítio ocupado por ˜zk(tk1−), não

vai ter deslocamento desta partícula no tempo tk1, assim zk−(tk1) ≤ ˜zk(tki). Caso contrário,

o deslocamento vai ser de tamanho zi(tk1−) − xk1, mas, o deslocamento da partícula z − k é de tamanho zk−(tk1−) − xk 1. Como zi(tk1−) ≤ z − k(t k 1−), temos que z − k(t k 1) ≤ ˜zk(tk1).

Analogamente como foi descrito acima, para um tkl tal que (xkl, tkl) ∈ Q, com xkl ∈ [˜zk−1(tkl−), ˜zk(tkl−)], e vai existir algum subintervalo [zi0−1, zi0] que contem xk

l, repetindo o

raçocinio acima, ˜zk(tkl−) no tempo t k

l, vai se deslocar ao máximo zi(tkl−) − x k

l. Por outra

parte a partícula zk−(tk

l−) pode estar na esquerda de xkl, ou caso contrário, ser deslocada

para xkl, se mantendo a desigualdade.

0 t

z0 k

zk− z˜k zk+

(29)

Portanto, dividindo (1.13) por k2, tomando supremo e integrando, EηM  sup k∈Z ˜ zk(t) k2 p ≤ Eη  sup k∈Z zk−(t) k2 p ∨ Eη  sup k∈Z zk+(t) k2 p ,

como a evolução dos processos z−(·) e z+(·) não dependem de M

Re temos a desigualdade

para todos os valores de MR,

sup M EηM  sup k∈Z ˜ zk(t) k2 p ≤ Eη  sup k∈Z zk−(t) k2 p ∨ Eη  sup k∈Z zk+(t) k2 p .

Pelo Lema 5.8 em Seppäläinen (1996), os termos à direita da desigualdade estão limitados, assim obtemos (1.12).

Corolário 1.3. Seja η ∈ Y . Para cada t > 0 e 1 ≤ p < ∞

sup M EηM " sup n≥1 1 n2 n X i=−n ηi(t) p# < ∞. (1.15)

Em particular, para cada k ∈ Z, E[|ηk(t)|p] < ∞.

Demonstração. Notemos que 1 n2 n X i=−n ηi(t) p ≤ 1 n2 n X i=−n φi(t) p = ˜ zn+1 n2 − ˜ z−n n2 p ≤ 2p−1  ˜ zn+1 n2 p + ˜ z−n n2 p .

tomando supremo e integrando, pelo lema anterior, temos (1.15).

Corolário 1.4. Para cada ε > 0 e T , existe N tal que para cada n ≥ N ,

sup t∈[0,T ] 1 n2 n X i=−n ηi(t) < ε

(30)

Demonstração. Seja ˜z como acima, pela desigualdade (1.13) e a monotonia do Processo de Hammersley clássico, temos que zk−(T ) ≤ zk−(t) ≤ ˜zk(t) ≤ zk+(t) ≤ z

+ k(T ), desta forma sup t∈[0,T ] 1 n2 n X i=−n ηi(t) ≤ sup t∈[0,T ] 1 n2 n X i=−n φi(t) = sup t∈[0,T ]  ˜zn+1(t) n2 − ˜ z−n(t) n2  ≤ z + n+1(T ) n2 − z−n− (T ) n2 −−−→n→∞ 0

quase certamente, pois z−(T ) e z+(T ) pertencem a Z para quase toda trajetória.

Corolário 1.5. Seja K ⊂ Z finito, η ∈ Y uma configuração inicial de bastões. Então, existem i−, i+∈ Z, tal que,

P    max t∈[0,T ] X i∈K ηi(t) ≤ i+K X i=i−K ηi    = 1.

Para a prova deste corolário vamos usar a representação dada por Seppäläinen (1996) do processo de Hammersley que será definida na seguinte proposição.

Proposição 1.6 (Proposição 4.4 em Seppäläinen (1996)). Seja z ∈ Z0, denotemos por Γ((zi, 0), t, k) a distancia necessária para construir um caminho crescente∗ de k pontos

em Q começando em (zi, 0) até o tempo t (ver Figura 1.6). Para quase toda realização

do processo de Poisson Q: Para todo t > 0, z(t) ∈ Z0 e para cada k ∈ Z, existem −∞ < i−(k, t) ≤ i+(k, t) tal que,

zk(t) = zi+ Γ((zi, 0), t, k − i)

se tem para i = i±(k, t) e falha para todo i < i−(k, t) e i > i+(k, t).

Dizemos que um caminho de pontos em Q é crescente se quaisquer dos pontos (a

i, ti) e (aj, tj), com

(31)

zi

0

zi+ Γ((zi, 0), t, 6)

t

Figura 1.6: Caminho crescente de 6 pontos até o tempo t.

Demonstração do Corolário 1.5. Sejam im = min {i : i ∈ K} e iM = max {i : i ∈ K},

as-sim, max t∈[0,T ] X i∈K ηi(t) ≤ max t∈[0,T ][˜ziM+1(t) − ˜zim(t)] ≤ z+ iM+1(T ) − z − im(T ).

Usando a Proposição 1.6, como Γ((zi0, 0), t, k − i) ≥ 0,

zi

m(T )

dist.

= zi0+ Γ((zi0, 0), T, im− i) ≥ zi0,

para algum i = i±(k, t). Por outro lado

−z+ iM+1(T )

dist.

= −z0i0 − Γ((zi00, 0), T, iM + 1 − i0) ≤ −zi00,

para algum outro i0 = i0±(k, t).

Tomando i−K = i0 e i+K = i − 1, teremos P    max t∈[0,T ] X i∈K ηi(t) ≤ i+K X i=i−K ηi    ≥ P ( zi0+ Γ((zi0, 0), T, iM + 1 − i) − z0 i0 − Γ((zi00, 0), T, im− i0) ≤ i−1 X i=i0 ηi ) ≥ P ( z0i − z0 i0 ≤ i−1 X i=i0 ηi ) = 1.

(32)

1.3

Compacidade relativa

Depois destas estimativas estamos prontos para estudar a compacidade relativa da sequência de medidas de provabilidades PηM em D([0, ∞), Y ). Com este objetivo vamos seguir o enfoque utilizado em Ethier and Kurtz (1986) pela topologia de nosso espaço de estados.

Um conceito importante relacionado com a compacidade relativa é a rigidez. Dizemos que uma família de medidas de probabilidades {Pι}ι∈I, com I algum conjunto de índices,

é rígida, se e somente se, para cada ε > 0 existe um conjunto compacto K, tal que

Pι(x ∈ K) > 1 − ε.

Também queremos ressaltar o fato que pelo Teorema de Prohorov (ver Billingsley (1999)) a rigidez é equivalente a compacidade relativa quando estamos trabalhando sobre um espaço de estados polonês.

Proposição 1.7 (Teorema 7.2 em Ethier and Kurtz (1986)). A sequência de probabilida-des PM, é relativamente compacta em D([0, ∞), Y ) se, e somente se:

(i) Para cada t e ε > 0 existe um compacto K ⊂ Y tal que

sup

M

PM[ηM(t) 6∈ K] ≤ ε;

(ii) para cada ε > 0 e T < ∞,

lim δ→0supM P M[w0 (η, δ, T ) > ε] = 0, com w0(η, δ, T ) = inf {ti}ni=0 max 0≤i≤ns,t∈[tsup i,ti+1)

d(η(s), η(t)), onde {ti} representa as partições

tais que min

0≤i<n(ti+1− ti) > δ.

Com este resultado estamos prontos para provar a compacidade relativa de nossa sequência.

(33)

Proposição 1.8. A sequência PηM é relativamente compacta em D([0, ∞), Y ).

Demonstração. Para começar a prova é importante destacar que um conjunto K, é com-pacto em (Y, d), se, e somente se, ele é comcom-pacto na métrica produto e satisfaz (ver Lema .10) lim n η∈Ksup 1 n2 n X i=−n ηi = 0. (1.16)

Para provar (i) primeiro consideramos o subconjunto

K0 = Kε0 = ( η ∈ Y : sup n≥1 1 n2 n X i=−n ηi ≤ Aε )

que é relativamente compacto na topologia produto, por estar contido no produto da família de compactos, {ηi ∈ [0, ∞) : ηi ≤ i2Aε}i∈Z.

Assim, pelo Corolário 1.3

PηM " sup n≥1 1 n2 n X i=−n ηiM(t) > A # ≤ 1 AE ηM " sup n≥1 1 n2 n X i=−n ηiM(t) # ≤ 1 AsupM0 EηM 0 " sup n≥1 1 n2 n X i=−n ηi(t) # ≤ C A

Portanto, para cada ε, existe Aε suficientemente grande, de modo que,

sup M PηM ηM(t) 6∈ K0 ε = sup M PηM " sup n≥1 1 n2 n X i=−n ηiM(t) > Aε # < ε/2.

Agora resta verificar a condição (1.16). Para isso vemos que K0 ⊂ Y , portanto para cada η ∈ K0, lim n 1 n2 n X i=−n ηi = 0.

(34)

Pelo Teorema de Egorov, (ver Folland (1999)) para cada ε existe K ⊂ K0com P (K0\K) < ε/2 onde fn(η) = 1 n2 n X i=−n ηi,

que é contínua (Lema .9), converge uniformemente para 0 sobre K, ou equivalentemente,

lim n η∈Ksup 1 n2 n X i=−n ηi = 0.

Como as fn e seu limite são contínuas em Y , podemos assumir K fechado sem perda

de generalidade. O que nos permite concluir que K é compacto em nossa métrica e,

PηM[ηM(t) 6∈ K] = PηM[ηM(t) 6∈ K0] + P [ηM(t) ∈ K0\ K] < ε/2 + ε/2 = ε

uniformemente em M .

Para provar a parte (ii), vamos usar uma versão do Critério de Aldous (Aldous (1978)) a qual fornece uma condição suficiente para segunda parte da Proposição 1.7.

Proposição 1.9. A sequência de probabilidades PM em D([0, ∞), Y ) satisfaz a condição

(ii) da Proposição 1.7, se para cada ε > 0 e T < ∞,

lim

θ→0supM supτ ≤T δ≤θ

PM[d(ηM(τ + δ), ηM(τ )) ≥ ε] = 0 (1.17)

com τ tempo de parada limitado por T .

Seja Ak = A(τ, τ + δ, i − R, i + R) o evento que indica a ocorrência de k pontos de

(35)

e i + R. Assim, PηM(|ηMi (τ + δ) − ηiM(τ )| > ε) ≤X k>0 PηM(|ηiM(τ + δ) − ηMi (τ )| > ε Ak)P (Ak) ≤ PηM (|ηMi (τ + δ) − ηMi (τ )| > ε A1)2Rδ ¯ηe−2Rδ ¯η+ o(δ) (1.18) ≤ 2Rδ ¯ηe−2Rδ ¯η+ o(δ) −−→δ≤θ θ↓0 0

pois Ak = A(τ, τ + δ, i − R, i + R) indica a ocorrência de k pontos de poisson no intervalo

de tempo [τ, τ + δ], nos sítios entre i − R e i + R e ¯η =

i+R P j=i−R ηj ≥ max 0≤t≤T i+R P j=i−R ηj(t), quase

certamente pelo Corolário 1.5 considerando K = KR = [i − R, i + R]. Note que o limite

não depende de M .

Seja agora γ > 0 arbitrário e MT de forma que para cada n ≥ MT (pelo Corolário 1.4)

sup M PηM sup t∈[0,T +1] 2 n2 n X i=−n ηMi (t) > ε 3 ! < γ 2.

Pois MT não depende de M .

Portanto, PηM max 1≤n≤M 1 n2 n X i=−n ηiM(τ + δ) − 1 n2 n X i=−n ηiM(τ ) > ε ! ≤ PηM max 1≤n≤MT 1 n2 n X i=−n ηiM(τ + δ) − ηiM(τ ) > ε 2 ! (1.19) + PηM sup t∈[0,T +1] 2 n2 n X i=−n ηMi (t) > ε 2; n ≥ MT ! .

Como suposto acima o segundo termo a direita em (1.19) é menor do que γ/2. O primeiro termo, para cada i o valor absoluto dentro da soma vai para suficientemente pequeno com probabilidade grande por (1.18). Portanto, a probabilidade na esquerda de (1.19) está limitada por γ como se queria mostrar.

(36)

Corolário 1.10. A sequência de processos {PηM} converge em distribuição para um Pro-cesso de Markov {Pη} com gerador

L(f ) =X i∈Z R X j=−R p(j) Z ηi 0 [f (ηu,i,i+j) − f (η)] du. (1.20)

Demonstração. Seja Pη um ponto limite da sequência {PηM}M ∈N, isto é, existe uma

sub-sequência {PηM 0

} ⊂ {PηM

} tal que PηM 0

→ Pη. Desta forma o correspondente semigrupo

SM0(t)f converge para o semigrupo S(t)f do processo (Pη)η∈Y, para cada t ≥ 0 e f

limi-tada e contínua. Portanto, para cada f cilíndrica, limilimi-tada e contínua, que formam um núcleo† para os domínios dos operadores LM0 e L0, onde L0 é o gerador infinitesimal do semigrupo S(t), LM0f → L0f , quando M0 → ∞ (ver Teorema 1.6.1 em Ethier and Kurtz (1986)).

Por outra parte, quando M → ∞, LMf converge para L f em (1.20), para f cilíndrica, limitada e contínua. De fato, para cada f , existe K tal que L f = LMf para todo M ≥ K. Assim, L0 = L, qualquer seja L0 gerador do ponto limite, como acima. Isto é, L coincide com o gerador infinitesimal de todo ponto limite da sequência {PηM}.

1.4

Algumas propriedades

Com o processo construído, podemos agora estudar algumas propriedades importantes dele. A primeira delas, que vai ser útil para futuras estimativas, vai ser a atratividade. Proposição 1.11. Dadas duas configurações iniciais η, ξ ∈ Y , com η ≤ ξ, existe uma distribuição conjunta P(η,ξ), tal que P(η,ξ)(η(t) ≤ ξ(t)) = 1 para todo t ≥ 0, de forma que

as correspondentes marginais são os Processos Pη e Pξ.

Demonstração. Dadas duas configurações iniciais η, ξ ∈ Y , com η ≤ ξ, construímos o acoplamento básico (η, ξ). Seja M > 0, {Pk} uma realização da família de Processos de

Seguindo a notação em Ethier and Kurtz (1986). Dado um operador fechado L, um subconjunto C

(37)

Poisson e uma sequência J como definidos na Seção 1.1. Seguindo a evolução, também descrita na Seção 1.1, usando as mesmas trajetória de {Pk} e J para ambas configurações,

é claro que a desigualdade é mantida. De fato, seja (bl, tl) ∈ Pi, se bl ≤ ηi ambos bastões

na i-ésima posição são quebrados no mesmo tamanho e um pedaço maior ou igual vai passar para ξi+jl mantendo-se a desigualdade nesse sítio. No caso que ηi ≤ bl ≤ ξi só

vai ser quebrado o bastão ξi em bl deste modo não muda a desigualdade. Por último, se

ξi ≤ bl não acontece nenhuma mudança.

Fazemos tender M para infinito e chamamos P(η,ξ) o limite. Por construção as corres-pondentes marginais são Pη e Pξ, como queríamos demonstrar.

1.4.1

Distribuição invariante

Outro fato muito importante para o estudo do processo é o conhecimento da medida invariante. Seja ν uma medida de probabilidade sobre Y e denotamos por ν{f } =R f dν a esperança de f com respeito a medida ν. Esta notação vai ser usada no restante do trabalho. Dizemos que ν é invariante para o processo η(·), se ν{S(t)f } = ν{f } para todo t ≥ 0 e cada f limitada e contínua sobre Y , onde S(·) é o semigrupo associado ao processo η(·).

Como no caso totalmente assimétrico de Seppäläinen (1996), temos que a medida produto com marginais exponenciais, vai ser invariante para nosso processo. As boas e conhecidas propriedades desta distribuição vão fornecer estimativas muito úteis.

Na prova deste resultado utilizamos um procedimento similar com a prova de Seppäläi-nen (1996). Mas as estimativas a partir da expansão de (1.21) devem ser tratadas com mais cuidados pela complexidade adicional do nosso processo.

Proposição 1.12. A distribuição onde os ηi, i ∈ Z são exponencial i.i.d. é invariante

(38)

Demonstração. Tomemos f uma função contínua e limitada sobre Y . Considere SM(t)

semigrupo para o processo truncado (ηM

k (·))−M ≤k≤M. Então, SM(t)f (η) − f (η) = Z t 0 LM[S M(s)f ](η)ds.

Seja ν medida produto de exponenciais com media β−1, assim

ν{SM(t)f } − ν{f } =

Z t

0

νLM[S

M(s)f ] ds.

Sabemos que SM(t)f → S(t)f quando M → ∞ de forma pontual e limitada. Portanto,

devemos provar que, νLM[SM(s)f ] → 0, para cada s, quando M → ∞.

Chamemos como g(η) = gM(η) = SM(s)f (η), logo gM(η) = g(η−M, . . . , ηM) e

ν{LMg(η)} = R X j=−R p(j) M X i=−M ν Z ηi 0 [g(ηu,i,i+j) − g(η)]du  = R X j=−R p(j) " M X i=−M ν Z ηi 0 g(ηu,i,i+j)du  − M X i=−M ν{ηig(η)} # .

Chamemos ˜ν a distribuição marginal para (ηk)k6=i,i+j, e consideremos o i-ésimo termo

da primeira soma acima,

ν Z ηi 0 g(ηu,i,i+j)du  = ˜ν  β2 Z ∞ 0 dηi Z ∞ 0 dηi+j e−β(ηi+ηi+j) Z ηi 0 du g(ηu,i,i+j)  = ˜ν  β2 Z ∞ 0 du Z ∞ 0 dηi+j Z ∞ u dηie−β(ηi+ηi+j)g(ηu,i,i+j)  .

Fazendo a mudança ωi = ηi− u temos que a expressão acima coincide com

˜ ν  β2 Z ∞ 0 du Z ∞ 0 dηi+j Z ∞ 0

dωie−β(ωi+u+ηi+j)g((ηj)j6=i,i+j, ωi, ηi+j + u)

 ,

(39)

e agora fazendo a mudança ωi+j = ηi+j + u, obtemos ˜ ν  β2 Z ∞ 0 du Z ∞ u dωi+j Z ∞ 0

dωie−β(ωi+ωi+j)g((ηj)j6=i,i+j, ωi, ωi+j)

 = ˜ν  β2 Z ∞ 0 dωi Z ∞ 0 dωi+j Z ωi+j 0 du e−β(ωi+ωi+j)g((η j)j6=i,i+j, ωi, ωi+j)  = ν{ηi+jg(η)}.

Substituindo, vemos que

ν {LM[SM(s)f ]} = R X j=−R p(j) M X i=−M ν {ηi+jg(η)} − ν {ηig(η)} = −1 X j=−R p(j) M X i=−M ν {ηi+jg(η)} − ν {ηig(η)} + R X j=1 p(j) M X i=−M ν {ηi+jg(η)} − ν {ηig(η)} .

Cancelando os termos na soma telescópica, vamos ter

−1 X j=−R p(j) −1 X i=j ν {η−M +ig(η)} − ν {ηM −i+jg(η)} + R X j=1 p(j) j X i=1 ν {ηM +ig(η)} − ν {η−M −i+jg(η)} . (1.21)

Adicionando e subtraindo ηM −i+jgM −i+j−1(η) nos termos na primeira soma em (1.21),

pode ser escrita como

−1 X i=j ν {η−M +igM(η)} − ν {ηM −i+jgM(η)} = −1 X i=j ν {η−M +igM(η)} − ν {ηM −i+jgM −i+j−1(η)}  − −1 X i=j ν {ηM −i+j[gM(η) − gM −i+j−1(η)]}

(40)

= −1 X i=j ν(η0)ν {gM(η) − gM −i+j−1(η)} − −1 X i=j ν {ηM −i+j[gM(η) − gM −i+j−1(η)]} .

Note que na primeira soma o termo, sendo |f | ≤ B,

|gM(η) − gM −i+j−1(η)| = |SM(s)f (η) − SM −i+j−1(s)f (η)| ≤ 2B,

portanto, podemos tomar limite quando M → ∞ e esta soma vai para zero. Por outra parte, os termos na segunda soma,

ν {ηM −i+j[gM(η) − gM −i+j−1(η)]} ≤ ν(η02) 1 2ν[gM(η) − gM −i+j−1(η)]2 1 2 ,

onde o argumento na segunda integral é limitado por 4B2. Portanto, podemos tomar

limite e a segunda soma vai para zero.

Analogamente somamos e subtraímos η−M −i+jgM +i−j−1(η) na segunda soma de (1.21)

e obtemos, j X i=1 ν {ηM +igM(η)} − ν {η−M −i+jgM(η)} = j X i=1 ν(η0)ν {gM(η) − gM +i−j−1(η)} − j X i=1 ν {η−M −i+j[gM(η) − gM +i−j−1(η)]} .

Usando o mesmo procedimento, podemos ver que ambas somas vão para zero quando M → ∞, desta forma, ν{LM[SM(s)f ]} → 0.

(41)

Limite Hidrodinâmico

Nos trabalhos de Suzuki and Uchiyama (1993) e Ekhaus and Seppäläinen (1996) foi estudado o limite hidrodinâmico para modelos simétricos do Processo de Bastões no toro. Eles usaram essencialmente a metodologia de estimadores da entropia introduzida por Guo et al. (1988). O caso totalmente assimétrico em Z foi estudado por Seppäläinen (1996) usando a formula de Lax-Oleinik e aplicando o Teorema Ergódico de Liggett no Processo de Hammersley.

Neste trabalho estudaremos o limite hidrodinâmico do Processo de Bastões, introdu-zido no capítulo anterior, em dois casos (quando p(q) tem média zero ou não zero). O resultado fundamental deste capítulo (Teorema 2.1) vai incluir dois casos. Primeiramente o caso com média zero, que em contraste com os trabalhos mencionados acima, fazemos uma extensão para o espaço não compacto Z(ou R no nível macroscópico). A segunda parte, o caso com média não zero, vai ser desenvolvido no capítulo seguinte por seguir uma metodologia diferente devido a dificuldade com a unicidade da equação diferencial obtida.

(42)

2.1

Preliminares

Consideremos a medida empírica αN

t definida como αtN = 1 N X i∈Z ηi(t)δi N, (2.1)

onde o espaço é redimensionado na escala N1.

Deste modo dada uma função teste φ ∈ Cc∞(R), podemos integrá-la com respeito a dita medida como

αNt {φ} = 1 N

X

i∈Z

ηi(t)φ(Ni). (2.2)

Dado um processo de Markov e seu gerador infinitesimal, denotado por L, para qual-quer função definida no domínio de L, sabemos que

Mt= f (η(t)) − f (η(0)) −

Z t

0

L f (η(s))ds

é um martingal com respeito à filtração Ft= σ{η(s) : 0 ≤ s ≤ t}.

Se tomamos f (η(t)) = αN

t {φ} = N −1P

i∈Z

ηi(t)φ(Ni ), substituindo acima obtemos

Mt = αtN{φ} − α N 0 {φ} − Z t 0 L αN s {φ}ds. (2.3)

Se consideramos o processo de bastões, ou seja, tomamos L como em (1.20), note que

f (ηu,i,i+j) − f (η) = (ηi− u)φ(Ni) − ηiφ(Ni ) + (ηi+j + u)φ(i+jN ) − ηi+jφ(i+jN )

= u N φ i+j N  − φ i N  (2.4) por conseguinte, L αN s {φ} = 1 N X i∈Z R X j=−R p(j)η 2 i(s) 2 φ( i+j N ) − φ( i N) 

(43)

Fazendo a expansão de Taylor para φ no ponto Ni , φ(i+jN ) = φ(Ni ) + j Nφ 0 (Ni ) + · · · + j k k!Nkφ (k)(i N) + jk+1 (k + 1)!Nk+1φ (k+1) i),

onde γi está entre Ni e i+jN .

Vamos supor primeiro que m =

R

P

j=−R

p(j)j = 0. Neste casso, precisamos usar a expansão de segunda ordem, pois o termo de primeira ordem vai se anular ao substituir no gerador. Logo, L αN s {φ} = 1 N X i∈Z R X j=−R p(j)η 2 i(s) 2  φ0(Ni) j N + j2 2N2φ 00 (Ni) + j 3 6N3φ 000 (γi)  = 1 N3 X i∈Z ηi2(s) 4 R X j=−R p(j)j2φ00(Ni ) + m3 6N4 X i∈Z φ000(γi) = 1 N3 X i∈Z η2 i(s) 2 A2φ( i N) + O(N −3 )∗,

onde vamos ter o operador linear A2φ = σ

2

2 φ

00, com σ2 sendo a variância de uma variável

com distribuição de probabilidade p(·) e m3 seu momento de terceira ordem.

Observe que, se tomamos limite quando N → ∞, Mt→ 0 em probabilidade (Lema 2.2)

e o terceiro termo na direita vai se anular. Nesse caso, o possível limite para αN vai

satisfazer uma relação trivial não observando-se evolução temporal no nível macroscópico. Para esta situação, precisamos de uma escala temporal adequada que permita observar a evolução macroscópica de interesse. Portanto, reescalamos o tempo em N2 vezes†, considerando um novo processo com gerador infinitesimal dado por N2L, assim

Mt= αNt {φ} − α N 0 {φ} − Z t 0 " 1 N2 X i∈Z η2 i(s) 2 A2φ( i N) + O(N −2 ) # ds.

Na notação de Landau, dizemos que f (x) = O(g(x)) se, e somente se, existe M > 0 e x

0, tal que

|f (x)| ≤ M |g(x)|, para cada x ≥ x0.

(44)

Vejamos agora quando m =

R

P

j=−R

p(j)j 6= 0. Fazendo expansão de φ no termo de primeira ordem, L αN s {φ} = 1 N X i∈Z R X j=−R p(j)η 2 i(s) 2  φ0(Ni )j N + j2 2N2φ 00 (γi)  = 1 N2 X i∈Z η2i(s) 2 R X j=−R p(j)jφ0(Ni ) + σ 2 2N3 X i∈Z φ00(γi) = 1 N2 X i∈Z η2 i(s) 2 A1φ( i N) + O(N −2 ),

sendo o operador linear A1φ = mφ0.

Quando substituímos na equação (2.3), analogamente ao caso anterior, vamos precisar agora reescalar o tempo por N , tendo-se assim,

Mt= αNt {φ} − α N 0 {φ} − Z t 0 1 N X i∈Z η2 i(s) 2 A1φ( i N)ds + O(tN −1 ).

2.1.1

Solução fraca

Considere o problema de Cauchy    ∂tu + Lx(u2)=0 u(0, x)=u0(x), (2.5)

onde Lx é um operador diferencial em x de primeira ou segunda ordem. Seja φ ∈

Cc1,2(R+, R), uma função de suporte compacto sobre R+ × R que é continuamente di-ferenciável e duas vezes continuamente didi-ferenciável com respeito a primeira e segunda variável respectivamente. Se multiplicamos a equação (2.5) por φ e integramos,

Z ∞ −∞ Z t 0 φ(s, x)∂su(s, x)dsdx + Z ∞ −∞ Z t 0 φ(s, x)Lx(u2(s, x))dtdx = 0,

(45)

integrando por partes, obtemos Z ∞ −∞ φ(t, x)u(t, x)dx − Z ∞ −∞ φ(0, x)u0(x)dx − Z ∞ −∞ Z t 0 ∂sφ(s, x)u(s, x)dsdx = Z ∞ −∞ Z t 0 L∗xφ(s, x)u2(s, x)dtdx, (2.6)

onde L∗x e o operador diferencial adjunto de Lx.

Deste modo, dizemos que u é uma solução fraca (ou generalizada) do problema (2.5) se satisfaz a relação (2.6) para cada φ ∈ C1,`

c (R+, R), onde ` é a ordem do operador diferencial

Lx. Em particular se φ somente depende da variável espacial x, isto é φ ∈ C`(R) a equação

(2.6) vai ficar na forma Z ∞ −∞ φ(x)u(t, x)dx − Z ∞ −∞ φ(x)u0(x)dx = Z ∞ −∞ Z t 0 L∗xφ(x)u2(s, x)dtdx. (2.7)

No decorrer do capítulo vamos a considerar solução fraca no sentido da equação (2.7), ou seja, vamos a usar funções teste dependendo só da variável espacial.

Quando L∗xφ(x) = A2φ(x) = σ

2

2 φ

00(x) estamos na presença de nosso primeiro caso

(média zero). Vários trabalhos, por exemplo, Dahlberg and Kenig (1984) e Andreucci and DiBenedetto (1992), mostraram a existência e unicidade da solução fraca. Este resultado vai ser usado neste capítulo na prova da primeira parte do Teorema 2.1. Porém no caso em que L∗xφ(x) = A1φ(x) = mφ0(x), (média não nula) é conhecida a não existência de

unicidade da solução fraca. No trabalho de Kružkov (1970) é mostrado que a classe das soluções satisfazendo a condição de entropia (3.2), discutida no capítulo seguinte, é única no sentido fraco (2.6). Uma solução fraca satisfazendo (3.2) é dita uma solução fraca entrópica.

(46)

2.2

Limite hidrodinâmico

Tomamos um perfil inicial u0(x) ∈ L∞(R) Borel mensurável não negativo, definimos

para cada N , uma configuração inicial η = (ηi)i∈Z sob a medida µ0 = µN0 sobre Y onde as

variáveis ηi são exponenciais independentes com média dada por

υ(i) = µ0{ηi} = N 2 Z i+1N i−1 N u0(ξ)dξ. (2.8)

Nesse caso denotamos como µ0 ∼ u0. Vemos que desta forma µ0{ηi} ≤ C0, com C0 =

ku0k∞.

Seja ν sobre Y de forma que a configuração ζ = (ζi)i∈Z, satisfaz que os ζi são i.i.d.

exponenciais com media C0. Onde a distribuição do par (ηi, ζi) é tal que ηi = υ(i)C0 ζi e as

correspondentes marginais são µ0 e ν respectivamente. Vemos que existe uma medida de

probabilidade sobre Y × Y , tal que se η ≤ ζ quase certamente

P(η,ζ){(η(·), ζ(·)) : η(·) ≤ ζ(·)} = 1, (2.9)

pela atratividade do processo (Proposição 1.11).

Portanto, µ0 é uma medida produto de exponenciais independentes e que αN0 →

u0(x)dx em µ0-probabilidade, quando N → ∞. Além disso, se supomos adicionalmente

que υ(i) > 0 para todo i ∈ Z, então µ0 restringida a compactos e absolutamente continua

com respeito a ν.

Teorema 2.1. Dados u0 ∈ L∞(R) não negativa e ηi exponenciais independentes com

média υ(i) sob µ0, então, para cada t > 0, φ ∈ Cc`(R) e ε > 0,

lim N →∞P  αNtN`{φ} − Z R φ(x)u(t, x)dx > ε  = 0. (2.10) Onde,

(47)

(i) se m = R P j=−R p(j)j = 0 e σ2 = R P j=−R

p(j)j2 > 0; ` = 2 e u(t, x) é a única solução fraca da equação do meio poroso

∂tu = σ2 2 ∂ 2 xx(u 2); (2.11) (ii) se m = R P j=−R

p(j)j 6= 0; ` = 1 e u(t, x) é a única solução fraca entrópica da equação de Burgers

∂tu + m∂x(u2) = 0. (2.12)

2.3

Prova do Teorema 2.1

A demonstração do Teorema 2.1 vai ser dividida em várias partes. Primeiramente usamos a representação do processo no Problema de Martingal, Holley and Stroock (1976), para estudar o comportamento da sequência αNq .

Mt = MtN(φ) = αNt {φ} − αN0 {φ} − Z t 0 1 N X i∈Z ηi2(s) 2 A`φ( i N)ds + O(tN −1 ). (2.13)

Usando as estimativas obtidas na seção 2.1, vamos a seguir o seguintes passos:

Passo 1: Estimação do martingal. Mostraremos que o martingal Mt em (2.13) vai

para zero em probabilidade quando N → ∞, obtendo que,

lim sup N →∞ P ( αNt {φ} − αN 0 {φ} − Z t 0 1 N X i∈Z η2i(s) 2 A`φ( i N)ds > ε ) = 0.

Passo 2: Compacidade relativa. Iremos mostrar que a família das medidas empíricas αNq é relativamente compacta no espaço D([0, ∞), M), onde consideramos M como

(48)

Passo 3: Equilíbrio local. Veremos que o termo integral em (2.13) está próximo de Z t 0 Z R A`φ(x)u2(s, x)dxds,

o que permite concluir que as trajetórias dos pontos limites satisfazem a forma fraca da equação diferencial. Esta substituição vai ser feita em dois passos principais: primeiro vamos aproximar a expressão η2

i pela media em blocos grandes ao nível

microscópico. Depois usaremos estes blocos para aproximar pequenos blocos ao nível macroscópico.

Assumiremos a condição adicional que o perfil inicial seja estritamente positivo, mas esta hipóteses sera removida no final da prova.

Passo 4: Distribuição dos Pontos limites. Neste passo, vai ser provado que as tra-jetórias onde estão concentrados os pontos limites, são absolutamente contínuas com respeito a Lebesgue. Juntando este resultado com o passo anterior, iremos concluir que as densidades das trajetórias onde os pontos limites estão concentrados são solução fraca da equação diferencial estudada.

Passo 5: Unicidade. Como foi observado na subseção 2.1.1, temos unicidade para a solução fraca da equação diferencial (2.11). Portanto, podemos concluir que os pon-tos limites estão concentrados em trajetórias com densidade a única solução fraca de dita equação diferencial. Além disso, como esta trajetória é absolutamente contínua, concluímos também, a convergência em probabilidade de αNq para u(q, x)dx, onde u é dita solução.

Por outro lado, como em geral, a equação (2.12) não tem solução única, será utilizada outra metodologia para concluir a segunda parte do Teorema 2.1. Este procedimento vai ser feito separadamente no Capítulo 3. Mostraremos que nossa medida empírica converge em probabilidade à única solução fraca entrópica da equação (2.12). Passo 6: Removendo a hipóteses de estritamente positiva. O último passo da

(49)

soluções com dado inicial uε0 = u0+ ε. Desta forma concluímos a primeira parte da

prova do Teorema 2.1.

2.3.1

Estimação do martingal

Lema 2.2. Para cada T < ∞ e ε > 0, P  sup 0≤t≤T M2 t > ε  → 0 quando N → ∞.

Demonstração. Em virtude da Desigualdade de Chebyshev basta mostrar que

lim N →∞E  sup 0≤t≤T Mt2  = 0. É conhecido que Vt= Mt2 − Z t 0 γ(s)ds, (2.14)

com γ(s) = N`L f2(η(s)) − 2f (η(s))N`L f (η(s)) é um martingal, para ` = 1, 2 segundo

corresponda com média zero ou não zero respectivamente, assim

γ(s) = N`X i∈Z R X j=−R p(j) Z ηi 0

[f2(ηu,i,i+j) − 2f (ηu,i,i+j)f (η) + f2(η)]du

= N`X i∈Z R X j=−R p(j) Z ηi 0 [f (ηu,i,i+j) − f (η)]2du = N`X i∈Z R X j=−R p(j) Z ηi 0 u2 N2[φ( i+j N ) − φ( i N)] 2 du =X i∈Z R X j=−R p(j) η 3 i(s) 3N2−`[φ( i+j N ) − φ( i N)] 2 = X i±R N ∈Sp(φ) R X j=−R p(j)η 3 i(s) 3N2−`[φ( i+j N ) − φ( i N)] 2 .

(50)

Onde Sp(φ) representa o suporte de φ. Usando a condição de Lipschitz para a função φ γ(s) ≤ X i±R N ∈Sp(φ) R X j=−R p(j) η 3 i(s) 3N2−` Kj2 N2 = X i±R N ∈Sp(φ) η3i(s) · O(N−4+`),

Aplicando a desigualdade maximal de Doob e o Teorema de Fubini

E[ sup 0≤t≤T Mt2] ≤ E[ sup 0≤t≤T |Mt|]2 ≤ 4E[MT2] = 4E Z T 0 γ(s)ds  ≤ 4E Z T 0 X i±R N ∈Sp(φ) ηi3(s)ds · O(N−4+`) = 4 Z T 0 X i±R N ∈Sp(φ) Eηi3(s)ds · O(N−4+`) ≤ 4 Z T 0 X i±R N ∈Sp(φ)

i3ds · O(N−4+`) = O(T N−3+`),

(2.15) pois Sp(φ) ⊂ h−Kφ 2 , Kφ 2 i

contendo no máximo KφN pontos da forma i/N e Eζp(t) é

constante para todo t, pois ζ são bastões i.i.d. exponenciais com média C0, como no

acoplamento em (2.9). Como ` < 3, tomando limite quando N → ∞ a expressão acima vai para zero como se queria mostrar.

Observação. Como foi dito acima, o tempo foi reescalado por N no caso media não zero e N2 no caso de média zero. Para reduzir notação na prova anterior foi introduzida a letra

` = 1, 2 para especificar cada caso em uma expressão só. Pela similaridade da prova em ambos casos, usamos esta notação no restante do capítulo.

2.3.2

Compacidade relativa de (α

N·

)

n∈N

Para provar a compacidade relativa da sequência αNq em D([0, ∞), M) é suficiente considerar que para cada φ ∈ C2

c(R), αNq {φ} é relativamente compacta em D([0, ∞), R).

(51)

Seja a sequência de probabilidade {PN} correspondente ao processo a valores reais {αN

t ; t ∈ [0, T ]}.

Lema 2.3. A sequência {PN} é relativamente compacta.

Demonstração. Primeiro devemos provar que, dado um ε > 0, existe um compacto K ⊂ R tal que para cada t, P [αN

t {φ} 6∈ K] ≤ ε. Seja B > 0, P [αNt {φ} > B] ≤ 1 BN X i N∈Sp(φ) Eηi(t)φ(Ni) ≤ 1 BN X i N∈Sp(φ) Eζiφ(Ni ) ≤ C0 B ,

pois ζi são bastões exponenciais i.i.d. com média C0, como no acoplamento em (2.9).

Tomando B = C0/ε, definimos K = [−B, B] e temos o resultado desejado.

Agora, para cada ε > 0, devemos provar que

lim δ→0lim supN →∞ P " sup |t−s|<δ αNt {φ} − αN s {φ} > ε # = 0. (2.16) Mas, αNt {φ} − αN s {φ} ≤ MtN − MN s + Z t s N`L αN s {φ} ds.

Usando a desigualdade de Chebyshev em (2.16), é suficiente mostrar que

E " sup |s−t|<δ (MtN − MN s ) 2 # e E " sup |s−t|<δ Z t s N`L αN s {φ} ds 2# ,

vão para zero, quando N → ∞. Desenvolvendo o quadrado e usando a desigualdade (2.15) na primeira esperança E " sup |s−t|<δ (MtN − MN s ) 2 # ≤ 4E  sup 0≤t≤T Mt2  ≤ 16EM2 T = O(T N −3+` ).

(52)

Por outro lado, usando Cauchy-Schwarz na segunda esperança, sup |s−t|<δ Z t s N`L αN s {φ} ds 2 ≤ sup |s−t|<δ (t − s) Z t s (N`L αN s {φ}) 2ds ≤ δ Z T 0 (N`L αN s {φ}) 2ds ≤ δ Z T 0 1 N X i∈Z R X j=−R p(j)η 2 i(s) 2 N ` φ(i+jN ) − φ(Ni) !2 ds ≤ δ Z T 0   1 N X i±R N ∈Sp φ η2i(s) 2 R X j=−R p(j)N` φ(i+jN ) − φ(Ni )   2 ds ≤ δK2 φ Z T 0   1 N X i±R N ∈Sp φ ηi2(s) 2   2 ds ≤ δKφ2 Z T 0 C N X i±R N ∈Sp φ ηi4(s) 4 ds,

onde Kφ é uma constante que depende da primeira e segunda derivada de φ e o primeiro

ou segundo momento de p(q), segundo seja assimétrica ou simétrica respectivamente. To-mando esperança, a soma dos ηi está limitada pela soma dos ζi (exponenciais i.i.d., como

no acoplamento (2.9)). Portanto, dita esperança está limitada por C0T δ, onde C0 é uma constante que depende de Kφ, C0 = Eζi e o suporte de φ.

Juntando estas estimativas, obtemos que a probabilidade em (2.16), está limitada por C00T (N−1+ δ), anulando-se o limite.

Observação. Seja αt trajetória de P ponto limite de {PN}, então, αt ∈ C([0, T ], M),

P-quase certamente, pois

lim δ→0P " sup |s−t|<δ |αs{φ} − αt{φ}| > ε # ≤ lim δ→0lim supN →∞ P N " sup |s−t|<δ |αN s {φ} − α N t {φ}| > ε # ,

(53)

2.3.3

Equilíbrio local

Para começar com a verificação do equilibro local, vamos seguir um roteiro similar ao procedimento utilizado por Ekhaus and Seppäläinen (1996) para a prova das estimativas de um e dois blocos. Adicionalmente vai ser necessário prestar atenção aos sítios dentro do suporte da função teste pela natureza não compacta do espaço de estados. Além disso, a igualdade (2.29) foi provada utilizando outra ideia; Ekhaus and Seppäläinen (1996) usa estimados da entropia relativa.

O objetivo desta seção é mostrar que os pontos limites da sequência αN estão

concen-trados em trajetórias que são soluções facas. Para chegar neste resultado, vemos primeiro que o termo integral em (2.13) pode ser aproximado por um mais apropriado. Ou seja, temos o seguinte lema.

Lema 2.4 (Lema de Substituição). Para cada φ ∈ Cc2(R) e δ > 0,

lim ε→0lim supN →∞ P N ( Z t 0 1 N X i∈Z φ(Ni ) η 2 i(s) − 2(α N s {χ ε i N })2 ds > δ ) = 0, (2.17) onde χε x(y) = (2ε) −1 1[x−ε,x+ε](y), para x, y ∈ R e ε > 0.

Fazendo substituição dada pelo Lema 2.4 no termo integral em (2.13), teremos Z t 0 1 N X i∈Z A`φ(Ni )(αNs {χ ε i N })2ds,

usando suavidade de φ ele é próximo, para N suficientemente grande, de Z t

0

Z

R

A`φ(x)(αNs {χεx})2dxds.

Usando o Lema 2.10, as trajetórias onde estão concentrados os pontos limites dePN são absolutamente contínuas com respeito Lebesgue P ⊗dt-quase certamente. Assim, exite u : R+× R → R tal que

αt{φ} =

Z

R

(54)

Fazendo estas mudanças no martingal em (2.13), P ( αt{φ} − α0{φ} − Z t 0 Z R A`φ(x)  1 2ε Z x+ε x−ε u(s, y)dy 2 dxds > δ ) (2.19)

está limitada superiormente por

lim sup N →∞ PN ( αt{φ} − α0{φ} − Z t 0 1 N X i∈Z η2 i(s) 2 A`φ( i N)ds + O(tN −1 ) > δ ) = lim sup N →∞ PN{|Mt| > δ} = 0, pelo Lema 2.2.

Além disso, pelo Teorema de diferenciação de Lebesgue, temos que,

lim ε→0  1 2ε Z x+ε x−ε u(s, y)dy 2 = u2(s, x),

para quase todo x. Por outro lado, seja u como em (2.18), para cada t ≥ 0 e x ∈ R e 0 ≤ φ ∈ Cc(R), Z R φ(x)u(t, x)dx = lim N →∞E NαN t {φ} = lim N →∞ 1 N X i∈Z φ(Ni )Eηi(t) ≤ C0 Z R φ(x)dx,

onde C0 = Eζi = ku0k∞, como no acoplamento (2.9), portanto, u(t, x) ≤ ku0k∞. Usando

convergência dominada a probabilidade em (2.19), quando ε → 0, coincide com

P ( αt{φ(x)} − Z R φ(x)u0(x)dx − Z t 0 Z R A`φ(x)u2(s, x)dxds > δ ) .

Desta forma, vemos que os pontos limites P de {PN} estão concentrados em trajetórias absolutamente contínuas com densidade u. Uma vez seja verificada a unicidade desta (que será discutida na Subseção 2.3.6), teremos que αt= u(t, x)dx é limite fraco da sequência

αN

t . Como este limite é absolutamente continuo com respeito a Lebesgue, decorre a

(55)

2.3.4

Prova do Lema de Substituição (Lema 2.4)

A prova do Lema 2.4 vai ser dividida em vários passos. Primeiro para entender o termo introduzido na integral em (2.17), vemos que pode ser escrito como,

αNs {χε i N } = 1 N X j∈Z (2ε)−11[i N−ε, i N+ε]( j N)ηj(s) = 1 2N ε X |i−j|≤N ε ηj(s) = 2bN εc + 1 2N ε · 1 2bN εc + 1 i+bN εc X j=i−bN εc ηj(s) = [1 + O(N−1)]SbN εc(ηi(s)),

onde SL é definido como,

SL(ηi) = 1 2L + 1 i+L X j=i−L ηj.

Simplificando a notação, vamos escrever N ε em vez de bN εc. Assim, (2.17) no Lema 2.4 pode ser escrito como,

lim ε→0lim supN →∞ P N ( Z T 0 1 N X i∈Z φ(Ni ) ηi2(s) − 2SN ε2 (ηi(s)) ds > δ ) = 0. (2.20)

Para provar dita desigualdade vamos aproxima-la primeiro num bloco no nível micros-cópico de tamanho grande L independente e menor do que N . Ou seja, vamos adicionar e subtrair dentro do valor absoluto em (2.20) o termo

SL(ηi2(s)) − 2S 2

Referências

Documentos relacionados

Neste tipo de situações, os valores da propriedade cuisine da classe Restaurant deixam de ser apenas “valores” sem semântica a apresentar (possivelmente) numa caixa

Mineração de conhecimento interativa em níveis diferentes de abstração: Como é  difícil  prever  o  que  exatamente  pode  ser  descoberto  de  um  banco 

De seguida, vamos adaptar a nossa demonstrac¸ ˜ao da f ´ormula de M ¨untz, partindo de outras transformadas aritm ´eticas diferentes da transformada de M ¨obius, para dedu-

Combinaram encontrar-se às 21h

Quero ir com o avô Markus buscar a Boneca-Mais-Linda-do-Mundo, quero andar de trenó, comer maçãs assadas e pão escuro com geleia (17) de framboesa (18).... – Porque é tão

forficata recém-colhidas foram tratadas com escarificação mecânica, imersão em ácido sulfúrico concentrado durante 5 e 10 minutos, sementes armazenadas na geladeira (3 ± 1

O objetivo do curso foi oportunizar aos participantes, um contato direto com as plantas nativas do Cerrado para identificação de espécies com potencial

Se você vai para o mundo da fantasia e não está consciente de que está lá, você está se alienando da realidade (fugindo da realidade), você não está no aqui e