• Nenhum resultado encontrado

5.4 Teorema de Weyl

5.4.3 Demonstra¸c˜ ao do teorema de Weyl

Para completarmos a demonstra¸c˜ao do Teorema 5.24, introduzimos as fun¸c˜oes polinomiais p1, . . . , pd definidas por

pd(x) = P (x) e

pj−1(x) = pj(x + 1)− pj(x) para j = 2, . . . , d.

(5.15) Lema 5.30. O polinˆomio pj(x) tem grau j, para todo 1≤ j ≤ d. Al´em disso,

p1(x) = αx + β com α = d!ad.

Demonstra¸c˜ao. Por defini¸c˜ao, pd(x) = P (x) tem grau d. Logo, para mostrar a

primeira afirma¸c˜ao basta mostrar que se pj(x) tem grau j ent˜ao pj−1(x) tem

grau j− 1. Para isso, escreva

pj(x) = bjxj+ bj−1xj−1+· · · + b0,

onde bj 6= 0. Ent˜ao

pj(x + 1) = bj(x + 1)j+ bj−1(x + 1)j−1+· · · + b0

= bjxj+ (jbj+ bj−1)xj−1+· · · + b0.

Subtraindo uma express˜ao da outra, obtemos que

pj−1(x) = (jbj)xj−1+ b0j−2xj−2+· · · + b00

tem grau j− 1. Isto prova a primeira afirma¸c˜ao no lema. Este c´alculo tamb´em mostra que o coeficiente guia de cada pj−1(x) se obt´em multiplicando por j o

coeficiente guia de pj(x). Consequentemente, o coeficiente guia de a1 deve ser

igual a d!aq. Isto prova a segunda afirma¸c˜ao.

Lema 5.31. Para todo n≥ 0, fn p

1(0), p2(0), . . . , pd(0)= p1(n), p2(n), . . . , pd(n).

Demonstra¸c˜ao. A demonstra¸c˜ao ser´a por indu¸c˜ao em n. Como o caso n = 0 ´e ´

obvio, s´o precisamos tratar do passo indutivo. Lembre que f foi definida em (5.8). Se

fn−1(p1(0), p2(0), . . . , pd(0)) = (p1(n− 1), p2(n− 1), . . . , pd(n− 1))

ent˜ao fn(p

1(0), p2(0), . . . , pd(0)) ´e igual a

(p1(n− 1) + α, p2(n− 1) + p1(n− 1), . . . , pd(n− 1) + pd−1(n− 1)).

Usando a defini¸c˜ao (5.15) e o Lema 5.30, obtemos que esta express˜ao ´e igual a (p1(n), p2(n), . . . , pd(n)),

DRAFT

Finalmente, estamos prontos para provar que a sequˆencia zn= P∗(n), n∈ N

´e equidistribu´ıda. Vamos tratar dois casos separadamente.

Em primeiro lugar, suponha que o coeficiente guia ad de P (x) ´e irracional.

Ent˜ao o n´umero α no Lema 5.30 ´e irracional e, portanto, os resultados da Se¸c˜ao 5.4.2 s˜ao v´alidos para a transforma¸c˜ao f : Td → Td. Seja ϕ : S1 → R

uma fun¸c˜ao cont´ınua qualquer. Considere ψ : Td× R definida por

ψ(θ1, θ2, . . . , θd) = ϕ(θd).

Fixemos θ = (p1(0), p2(0), . . . , pd(0)). Usando o Lema 5.31 e o Corol´ario 5.29,

obtemos que lim n 1 n n−1 X j=0 ϕ(zn) = lim n 1 n n−1 X j=0 ψ(fn(θ)) =Z ψ dm =Z ϕ dx.

Isto termina a demonstra¸c˜ao do Teorema 5.24 no caso em que ad´e irracional.

Agora suponha que ad ´e racional, digamos ad= p/q com p∈ Z e q ∈ N. ´E

claro que podemos escrever zn como uma soma

zn= xn+ yn, xn = adnd e yn = Q∗(n)

onde Q(x) = a0+ a1x +· · · + ad−1xd−1 e Q∗: R→ S1´e dada por Q∗= π◦ Q.

Observe, em primeiro lugar, que xn+q− xn =

p q(n + q)

d

−pqnd

´e um n´umero inteiro, para todo n∈ N. Isto significa que a sequˆencia xn, n∈ N

´e peri´odica de per´ıodo q no c´ırculo R/Z. Em particular, ela toma no m´aximo q valores distintos. Observe tamb´em que, como ad ´e racional, a hip´otese do

teorema implica que algum dos coeficientes a1, . . . , ad−1 de Q ´e irracional.

Logo, por indu¸c˜ao no grau, temos que yn, n∈ N ´e equidistribu´ıda. Mais do que

isso, as subsequˆencias

yqn+r= Q∗(qn + r), n∈ Z

s˜ao equidistribu´ıdas para todo r∈ {0, 1, . . . , q−1}. Na verdade, estas sequˆencias podem ser escritas como ynq+r = Q(r)∗ (n) para algum polinˆomio Q(r) que

tamb´em tem grau d− 1 (verifique) e, portanto, a hip´otese de indu¸c˜ao se aplica a elas tamb´em. Destas duas observa¸c˜oes segue que toda subsequˆencia zqn+r, n∈ Z

´e equidistribu´ıda. Consequentemente, zn, n∈ N tamb´em ´e equidistribu´ıda. Isto

completa a prova do Teorema 5.24.

5.5

Exerc´ıcios

DRAFT

5.5. EXERC´ICIOS 159

1. Seja ϕ : M→ R uma fun¸c˜ao cont´ınua qualquer. Mostre que ˜ ϕ(x) = lim n→∞ 1 n n−1X j=0 ϕ(fj(z)) existe em todo ponto e o limite ´e uniforme.

2. Justifique que ˜ϕ ´e constante em todo ponto e deduza que f tem uma ´unica probabilidade invariante.

3. Calcule essa probabilidade, encontrando uma express˜ao expl´ıcita para a medida de qualquer subconjunto [b0, b1, . . . , bk] das seq¨uˆencias β com β0=

b0, β1= b1, . . . , βk= bk.

5.2. Seja G uma variedade e seja · uma opera¸c˜ao de grupo em G tal que a aplica¸c˜ao (g, h) 7→ g · h ´e diferenci´avel. Mostre que g 7→ g−1 tamb´em ´e dife-

renci´avel.

5.3. Seja G um espa¸co topol´ogico compacto e seja· uma opera¸c˜ao de grupo em G tal que a aplica¸c˜ao (g, h)7→ g · h ´e cont´ınua. Mostre que g 7→ g−1 tamb´em ´e

cont´ınua.

5.4. Mostre que uma sequˆencia ´e equidistribu´ıda no c´ırculo se, e somente se, para todo segmento I ⊂ S1tem-se

lim

n

1

n#{1 ≤ j ≤ n : zj ∈ I} = m(I) onde m(I) representa o comprimento de I.

5.5. Prove o Corol´ario ??, usando os argumentos das Proposi¸c˜oes 5.25 e 4.7. 5.6. Prove o item (c) do Teorema 5.9: um grupo localmente compacto G ´e compacto se, e somente se, a sua medida de Haar ´e finita.

Dica: Suponha que (xn)n ´e uma sequˆencia em G sem ponto de acumula¸c˜ao

ent˜ao para todo compacto K existe uma subsequˆencia (xnj)jtal que os conjun-

tos xnjK ={xnjg : g∈ K} s˜ao disjuntos dois-a-dois.

5.7. Seja G um grupo compacto metriz´avel e seja g ∈ G. Mostre que s˜ao equivalentes:

1. Eg´e unicamente erg´odica;

2. Eg´e transitiva: existe x∈ G tal que {gnx : n∈ Z} ´e densa em G;

3. Eg´e minimal: {gny : n∈ Z} ´e densa em G para todo y ∈ G.

DRAFT

Cap´ıtulo 6

Correla¸c˜oes

Os modelos de sistemas dinˆamicos em que estamos interessados mais direta- mente, transforma¸c˜oes e fluxos, s˜ao determin´ısticos: o estado do sistema em qualquer momento determina toda a trajet´oria futura; quando o sistema ´e in- vert´ıvel, a trajet´oria passada fica igualmente determinada. No entanto, estes sis- temas podem apresentar tamb´em comportamento de tipo estoc´astico (ou seja, “aleat´orio”): num n´ıvel mais grosseiro que o das trajet´orias individuais, in- forma¸c˜ao sobre o passado vai sendo esquecida `a medida que o sistema ´e iterado. Este ´e o tema do presente cap´ıtulo.

A sequˆencia de correla¸c˜oes de duas fun¸c˜oes mensur´aveis ϕ, ψ : M → R ´e definida por Cn(ϕ, ψ) = Z (ϕ◦ fn)ψ dµ Z ϕ dµ Z ψ dµ .

Podemos pensar em ϕ e ψ como grandezas que medimos no sistema, tais como a temperatura, o pH, a energia cin´etica, etc. Ent˜ao Cn(ϕ, ψ) mede como o valor

de ϕ em tempo n se correlaciona com o valor de ψ em tempo zero, isto ´e, at´e que ponto um valor influencia o outro. Por exemplo, se ϕ = XA e ψ = XB

s˜ao fun¸c˜oes caracter´ısticas, ent˜ao ψ(x) d´a informa¸c˜ao sobre a posi¸c˜ao do ponto inicial x, enquanto que ϕ(fn(x)) informa sobre a posi¸c˜ao do seu n-´esimo iterado

fn(x). Se a correla¸c˜ao C

n(ϕ, ψ) for pequena ent˜ao a primeira informa¸c˜ao ´e de

pouca utilidade para fazer previs˜oes quanto ao segundo evento. Como veremos, esse tipo de comportamento, em que as correla¸c˜oes diminuem `a medida que n aumenta, ´e bastante comum em modelos importantes.

Come¸caremos por introduzir as no¸c˜oes de sistema (fortemente) misturador e fracamente misturador e por estudar as suas propriedades b´asicas. Na Se¸c˜ao 6.2 discutimos estas no¸c˜oes no contexto dos deslocamentos de Markov, uma ge- neraliza¸c˜ao importante dos deslocamentos de Bernoulli. Outros exemplos s˜ao analisados nas Se¸c˜ao 6.3. Na Se¸c˜ao 6.4 discutimos, em termos quantitativos, a velocidade de decaimento das correla¸c˜oes para certas classes de fun¸c˜oes.

DRAFT

6.1

Sistemas misturadores

Seja f uma transforma¸c˜ao f : M → M uma transforma¸c˜ao mensur´avel e seja µ uma probabilidade invariante. Dizemos que o sistema (f, µ) ´e misturador, se

lim

n Cn(XA,XB) = limn |µ(f −n(A)

∩ B) − µ(A)µ(B)| = 0, (6.1) para quaisquer conjuntos mensur´aveis A, B⊂ M. Em outras palavras, quando n cresce, a probabilidade do evento {x ∈ B e fn(x) ∈ A} converge para o

produto das probabilidades dos eventos{x ∈ B} e {fn(x)∈ A}.

6.1.1

Propriedades

Um sistema misturador ´e necessariamente erg´odico. De fato, suponha que existe algum conjunto invariante A ⊂ M com 0 < µ(A) < 1. Tomando B = Ac

vem que f−n(A)

∩ B = ∅ para todo n. Logo, µ(f−n(A)

∩ B) = 0 para todo n, enquanto que µ(A)µ(B) 6= 0. Em particular, (f, µ) n˜ao ´e misturador. O exemplo a seguir mostra que ergodicidade ´e uma propriedade estritamente mais fraca:

Exemplo 6.1. Considere θ irracional. Como vimos anteriormente, a rota¸c˜ao Rθ no c´ırculo S1´e erg´odica para a medida de Lebesgue m. No entanto, (Rθ, m)

n˜ao ´e misturador. De fato, se A, B ⊂ S1 ao dois intervalos pequenos (com

comprimento menor que 1/10, digamos) ent˜ao R−n

α (A)∩ B ´e vazio e, portanto,

m(R−n

α (A)∩ B) = 0 para infinitos valores de n. Como m(A)m(B) 6= 0, segue

que o limite em (6.1) n˜ao se verifica. ´

E claro da defini¸c˜ao (6.1) que se (f, µ) ´e misturador ent˜ao (fk, µ) ´e mistura-

dor, para todo k∈ N. A afirma¸c˜ao correspondente para ergodicidade ´e falsa: a aplica¸c˜ao f (x) = 1− x no conjunto {0, 1} ´e erg´odica para a medida (δ0+ δ1)/2

mas o segundo iterado f2 ao ´e.

Lema 6.2. Suponha que limnµ(f−n(A)∩ B) = µ(A)µ(B) para todo par de

conjuntos A e B em alguma ´algebra A geradora da σ-´algebra dos conjuntos mensur´aveis. Ent˜ao (f, µ) ´e misturador.

Demonstra¸c˜ao. Seja C a fam´ılia de todos os conjuntos mensur´aveis A tais que µ(f−n(A)

∩ B) → µ(A)µ(B) para todo B ∈ A. Por hip´otese, C cont´em A. Afirmamos queC ´e uma classe mon´otona. De fato, sejam A1⊂ · · · ⊂ Ak ⊂ · · ·

elementos de C e seja A = ∪kAk. Dado ε > 0, existe k0≥ 1 tal que

µ(A)− µ(Ak) = µ(A\ Ak) < ε

para todo k≥ k0. Al´em disso, para todo n≥ 1,

µ(f−n(A)∩ B) − µ(f−n(A

k)∩ B) = µ(f−n(A\ Ak)∩ B)

≤ µ(f−n(A

DRAFT

6.1. SISTEMAS MISTURADORES 163 Para k≥ k0 fixado, o fato de que Ak∈ C garante que existe n(k) ≥ tal que

|µ(f−n(A

k)∩ B) − µ(Ak)µ(B)| < ε para todo n ≥ n(k).

Somando estas trˆes desigualdades conclu´ımos que

|µ(f−n(A)∩ B) − µ(A)µ(B)| < 3ε para todo n ≥ n(k0).

Como ε > 0 ´e arbitr´ario, isto mostra que A∈ C. Da mesma forma se mostra que a interse¸c˜ao de qualquer sequˆencia decrescente de elementos de C ainda ´e um elemento de C. Portanto C ´e uma classe mon´otona, tal como afirmamos. Pelo teorema das classes mon´otonas (Teorema 0.15), segue que C cont´em todo o conjunto mensur´avel: para todo conjunto mensur´avel A tem-se

lim

n µ(f −n(A)

∩ B) = µ(A)µ(B) para todo B ∈ A.

Resta deduzir que esta propriedade vale para todo conjunto mensur´avel B. Isto ´e inteiramente an´alogo aos argumentos que acabamos de detalhar, pelo que deixamos a verifica¸c˜ao a cargo do leitor.

Exemplo 6.3. Todo deslocamento de Bernoulli (lembre da Se¸c˜ao 4.2.3) ´e mis- turador. De fato, dados dois cilindros A = [p; Ap, . . . , Aq] e B = [r; Br, . . . , Bs]

quaisquer, tem-se

µ(f−n(A)∩ B) = µ([r; Br, . . . , Bs, X, . . . , X, Ap, . . . , Aq])

= µ([r; Br, . . . , Bs])µ([p; Ap, . . . , Aq]) = µ(A)µ(B)

para todo n > s− p. Seja A a ´algebra gerada pelos cilindros: os seus elementos s˜ao as uni˜oes finitas disjuntas de cilindros. Segue do que acabamos de dizer que µ(f−n(A)

∩ B) = µ(A)µ(B) para todo par de conjuntos A, B ∈ A e todo n suficientemente grande. Como A gera a σ-´algebra dos conjuntos mensur´aveis, podemos usar o Lema 6.2 para concluir que o sistema ´e misturador, tal como foi afirmado.

Exemplo 6.4. Seja f : S1 → S1 a transforma¸c˜ao definida por g(x) = kx,

onde k ≥ 2 ´e um n´umero inteiro, e seja m a medida de Lebesgue m no c´ırculo. O sistema (g, m) ´e equivalente a um deslocamento de Bernoulli, no seguinte sentido (estas ideias ser˜ao analisadas em mais detalhe na Se¸c˜ao 7.1). Considere X ={0, 1, . . . , k − 1} e seja f : M → M a aplica¸c˜ao deslocamento em M = XN.

Considere a medida produto µ = νN em M , onde ν ´e a probabilidade definida

por ν(A) = #A/k para todo A⊂ X. A aplica¸c˜ao h : M→ S1, h (a n)n= ∞ X n=1 an−1 kn

´e uma bije¸c˜ao, restrita a um subconjunto com medida total, e tanto ela quanto a sua inversa s˜ao mensur´aveis. Al´em disso, h∗µ = m e h◦ f = g ◦ h em quase

DRAFT

Por meio dela, propriedades podem ser traduzidas de um sistema para o outro. Em particular, lembrando do Exemplo 6.3, obtemos que (g, m) ´e misturador: dados quaisquer conjuntos mensur´aveis A, B⊂ S1,

m g−n(A)∩ B= µ h−1(g−n(A)∩ B)= µ g−n(h−1(A))∩ h−1(B)

→ µ(h−1(A))µ(h−1(B)) = m(A)m(B) quando n→ ∞. Vamos tamb´em discutir uma vers˜ao topol´ogica de sistema misturador. Para isso, suponha que o ambiente M ´e um espa¸co topol´ogico. Uma transforma¸c˜ao f : M → M ´e dita topologicamente misturadora se dados quaisquer abertos n˜ao-vazios U, V ⊂ M, existe n0∈ N tal que f−n(U )∩ V ´e n˜ao vazio para todo

n ≥ n0. Isto ´e parecido, mas estritamente mais forte do que a hip´otese do

Lema 4.30: l´a pedimos que f−n(U ) intersecte V para algum n, enquanto que

agora queremos que isso aconte¸ca para todo n suficientemente grande.

Proposi¸c˜ao 6.5. Se (f, µ) ´e misturadora ent˜ao a restri¸c˜ao de f ao suporte de µ ´e topologicamente misturadora.

Demonstra¸c˜ao. Denote por X = supp(µ). Sejam A, B ⊂ X conjuntos aber- tos. Temos que µ(A), µ(B) > 0, por defini¸c˜ao de supp(µ). Assim, como µ ´e misturadora, temos que existe n0 tal que n ≥ n0 vale que µ(f−n(A)∩ B) >

µ(A)µ(B)/2 > 0. Em particular, µ(f−n(A)

∩ B) 6= ∅, como quer´ıamos demons- trar.

Segue diretamente desta proposi¸c˜ao que se f possui uma medida µ mistura- dora positiva em abertos, ent˜ao f ´e topologicamente misturadora. Por exemplo, dado qualquer conjunto finito X ={1, . . . , d}, o deslocamento

f : XZ

→ XZ (ou f : XN

→ XN)

´e topologicamente misturador. De fato, para qualquer probabilidade ν supor- tada em todo o X, a medida de Bernoulli µ = νN (ou µ = νZ) ´e positiva

em abertos e misturadora, como vimos no Exemplo 6.3. Analogamente, pelo Exemplo 6.4, toda transforma¸c˜ao f : S1

→ S1 da forma f (x) = kx com k

≥ 2 ´e topologicamente misturadora.

Exemplo 6.6. Transla¸c˜oes num grupo metriz´avel G nunca s˜ao topologicamente misturadoras. De fato considere qualquer transla¸c˜ao `a esquerda Eg (o caso de

transla¸c˜oes `a direita ´e an´alogo). Podemos supor que g6= 1, pois caso contr´ario ´e evidente que Eg n˜ao ´e topologicamente misturadora. Fixemos uma distˆancia

d invariante pelas transla¸c˜oes do grupo G (lembre do Lema 5.12) e seja α = d(1, g−1). Considere U = V = bola de centro 1 e raio α/4. Todo E−n

g (U ) ´e

uma bola de raio α/4. Suponha que E−n

g (U ) intersecta V . Ent˜ao Eg−n(U ) est´a

contida na bola de raio 3α/4 e, portanto, E−n−1

g (U ) est´a contida na bola de

raio 3α/4 em torno de g−1. Consequentemente, E−n−1

g (U ) n˜ao intersecta V .

DRAFT

6.1. SISTEMAS MISTURADORES 165

6.1.2

Mistura fraca

Dizemos que o sistema (f, µ) ´e fracamente misturador, se dados quaisquer con- juntos mensur´aveis A, B⊂ M ent˜ao:

lim n 1 n n−1X j=0 Cj(XA,XB) = lim n→∞ 1 n n−1 X j=0 |µ(f−j(A) ∩ B) − µ(A)µ(B)| = 0. (6.2) ´

E claro da defini¸c˜ao que todo sistema misturador ´e tamb´em fracamente mistu- rador. Por outro lado, todo sistema fracamente misturador ´e erg´odico. De fato, se A⊂ M ´e conjunto invariante ent˜ao

lim

n n−1X j=0

Cj(XA,XAc) = µ(A)µ(Ac)

e, portanto, a hip´otese implica que µ(A) = 0 ou µ(Ac) = 0.

Exemplo 6.7. Transla¸c˜oes em grupos compactos metriz´aveis nunca s˜ao fra- camente misturadoras, relativamente `a medida de Haar µ (ou qualquer outra medida invariante positiva em abertos). De fato, conforme observado no Exem- plo 6.6, ´e sempre poss´ıvel escolher abertos U e V tais que f−n(U )

∩ V ´e vazio para um em cada dois valores consecutivos de n. Ent˜ao,

lim inf n 1 n n−1 X j=0 |µ(f−j(U )∩ V ) − µ(U)µ(V )| ≥1 2µ(U )µ(V ) > 0.

Desta forma obtemos diversos exemplos de sistemas erg´odicos, e at´e unicamente erg´odicos, que n˜ao s˜ao fracamente misturadores.

Exemplo 6.8. Os intercˆambios de intervalos (lembre a Se¸c˜ao 5.3.5) fornecem muitos exemplos de sistemas fracamente misturadores que n˜ao s˜ao mistura- dores. Lembre que, pelo teorema de Masur-Veech (Teorema 5.22) quase todo intercˆambio de intervalos ´e unicamente erg´odico: isso vale para quase todo vetor de comprimentos λ, desde que a combinat´oria seja irredut´ıvel. Outro teorema profundo, devido a Avila-Forni [AF07], afirma que, se excetuarmos as rota¸c˜oes (mais precisamente: os intercˆambios de intervalos com uma ´unica descontinui- dade), quase todo o intercˆambio de intervalos ´e fracamente misturador. A vers˜ao topol´ogica deste fato havia sido provada por Nogueira-Rudolph [NR97]. Por ou- tro lado, um resultado de Katok (Teorema 6.29) que discutiremos na Se¸c˜ao 6.3.2 afirma que intercˆambios de intervalo nunca s˜ao misturadores.

A demonstra¸c˜ao do resultado a seguir ´e an´aloga `a do Lemma 6.2 e fica a cargo do leitor:

Lema 6.9. Suponha que limnn−1Pn−1j=0 |µ(f−j(A)∩ B) − µ(A)µ(B)| = 0 para

todo par de conjuntos A e B em alguma ´algebra A geradora da σ-´algebra dos conjuntos mensur´aveis. Ent˜ao (f, µ) ´e fracamente misturador.

DRAFT

Exemplo 6.10. Dado um sistema (f, µ), consideremos a transforma¸c˜ao produto f2 : M × M → M × M dado por f2(x, y) = (f (x), f (y)). ´E f´acil ver que f2

preserva a medida produto µ2 = µ× µ. Se (f2, µ2) ´e erg´odico ent˜ao (f, µ) ´e

erg´odico: basta notar que se A⊂ M ´e conjunto invariante para f com µ(A) ∈ (0, 1) ent˜ao A× A ´e conjunto invariante para f2 com µ2(A× A) ∈ (0, 1).

A rec´ıproca n˜ao ´e verdadeira em geral, ou seja, (f2, µ2) pode n˜ao ser erg´odico

mesmo que (f, µ) seja erg´odico. Por exemplo, se f ´e uma rota¸c˜ao irracional em S1 e d ´e uma distˆancia invariante por rota¸c˜oes, ent˜ao qualquer vizinhan¸ca

{(x, y) : d(x, y) < r} da diagonal ´e um conjunto invariante para f × f.

O pr´oximo resultado mostra que este tipo de fenˆomeno n˜ao ocorre na cate- goria dos sistemas fracamente misturadores:

Proposi¸c˜ao 6.11. As seguintes condi¸c˜oes s˜ao equivalentes: (a) (f, µ) ´e fracamente misturador;

(b) (f2, µ2) ´e fracamente misturador;

(c) (f2, µ2) ´e erg´odico.

Demonstra¸c˜ao. Para provar que (a) implica (b), considere quaisquer conjuntos mensur´aveis A, B, C, D⊂ M. Ent˜ao:

µ2(f2−j(A× B) ∩ (C × D)) − µ2(A× B)µ2(C× D) = µ(f−j(A)∩ C)µ(f−j(B)∩ D) − µ(A)µ(B)µ(C)µ(D) ≤ µ(f−j(A) ∩ C) − µ(A)µ(C) + µ(f−j(B) ∩ D) − µ(B)µ(D) . Portanto, a hip´otese (a) implica que

lim n 1 n n−1 X j=0 µ2(f2−j(A× B) ∩ (C × D)) − µ2(A× B)µ2(C× D) = 0. Segue que lim n 1 n n−1 X j=0 µ2(f2−j(X)∩ Y ) − µ2(X)µ2(Y ) = 0

para quaisquer X, Y na ´algebra gerada pelos produtos E× F de subconjun- tos mensur´aveis de M , ou seja, a ´algebra das uni˜oes finitas disjuntas de tais produtos. Como esta ´algebra gera a σ-´algebra dos subconjuntos mensur´aveis de M× M, podemos usar o Lema 6.9 para concluir que (f2, µ2) ´e fracamente

misturador. ´

E imediato que (b) implica (c). Para provar que (c) implica (a), observe que

n−1 X j=0  µ(f−j(A)∩ B) − µ(A)µ(B)2 = n−1X j=0  µ(f−j(A)∩ B)2 − 2µ(A)µ(B)µ(f−j(A) ∩ B) + µ(A)µ(B)2

DRAFT

6.1. SISTEMAS MISTURADORES 167 Pode ser reescrito como

n−1 X j=0  µ2 f2−j(A× A) ∩ (B × B)  − µ2(A× A)µ2(B× B) − 2µ(A)µ(B) n−1X j=0  µ(f−j(A)∩ B) − µ(A)µ(B). Como que (f2, µ2) ´e erg´odico e, consequentemente, (f, µ) tamb´em ´e, conclu´ımos

que lim n 1 n n−1 X j=0  µ(f−j(A)∩ B) − µ(A)µ(B)2= 0

para quaisquer conjuntos mensur´aveis A, B ⊂ M. Usando o Exerc´ıcio 6.12, obtemos que (f, µ) ´e fracamente misturador.

6.1.3

Caracteriza¸c˜ao espectral

Nesta se¸c˜ao discutimos formula¸c˜oes equivalentes das no¸c˜oes de sistema mistu- rador e fracamente misturador, em termos do operador de Koopman.

Proposi¸c˜ao 6.12. As seguintes condi¸c˜oes s˜ao equivalentes: (a) (f, µ) ´e misturador.

(b) Cn(ϕ, ψ)→ 0 para quaisquer ϕ ∈ Lp(µ) e ψ ∈ Lq(µ) com p, q ∈ [1, ∞] e

1/p + 1/q = 1.

(c) A condi¸c˜ao do item (b) vale em algum subconjunto denso de Lp(µ) e algum

subconjunto denso de Lq(µ).

Demonstra¸c˜ao. A condi¸c˜ao (a) ´e o caso particular de (b) para fun¸c˜oes carac- ter´ısticas. Como as fun¸c˜oes

(ϕ, ψ)7→ Z (ϕ◦ fn)ψ dµ Z ϕ dµ Z ψ dµ

s˜ao bilineares, a condi¸c˜ao (a) implica que Cn(ϕ, ψ)→ 0 para quaisquer fun¸c˜oes

simples ϕ e ψ. Isto implica (c), uma vez que as fun¸c˜oes simples formam um subconjunto denso de Lr(µ) para qualquer r≥ 1.

Para mostrar que (c) implica (b), comecemos por observar que as correlac˜oes Cn(ϕ, ψ) s˜ao fun¸c˜oes equicont´ınuas de ϕ e ψ. De fato, dadas ϕ1, ϕ2∈ Lp(µ) e

ψ1, ψ2∈ Lq(µ), as desigualdade de H¨older (Teorema 0.49) d´a que

Z (ϕ1◦ fn)ψ1dµ− Z (ϕ2◦ fn)ψ2dµ ≤ kϕ1− ϕ2kpkψ1kq+kϕ2kpkψ1− ψ2kq. Al´em disso, Z ϕ1dµ Z ψ1dµ− Z ϕ2dµ Z ψ2dµ ≤ kϕ1− ϕ2k1kψ1k1+kϕ2k1kψ1− ψ2k1.

DRAFT

Somando estas desigualdades, e notando que k · k1 ≤ k · kr para todo r ≥ 1,

obtemos que:

Cn(ϕ1, ψ1)− Cn(ϕ2, ψ2)

≤ 2kϕ1− ϕ2kpkψ1kq+ 2kϕ2kpkψ1− ψ2kq (6.3)

para todo n≥ 1. Ent˜ao, dado ε > 0 e dados quaisquer ϕ ∈ Lp(µ) e ψ

∈ Lq(µ),

podemos tomar ϕ0 e ψ0 nos subconjuntos densos da mencionados na hip´otese

tais que

kϕ − ϕ0kp< ε e kψ − ψ0kq< ε.

Em particular,0

kp<kϕkp+ ε ekψ0kq <kψkq+ ε. Ent˜ao, (6.3) d´a que

Cn(ϕ, ψ)≤ Cn(ϕ0, ψ0) + 2ε(kϕkp+kψkq+ 2ε) para todo n.

Al´em disso, por hip´otese, temos Cn(ϕ0, ψ0) < ε para todo n suficientemente

grande. Como ε ´e arbitr´ario, estas duas desigualdades implicam que Cn(ϕ, ψ)

converge para zero quando n→ ∞. Isto prova a propriedade (b).

O mesmo argumento prova a vers˜ao da Proposi¸c˜ao 6.12 para a propriedade de mistura fraca:

Proposi¸c˜ao 6.13. As seguintes condi¸c˜oes s˜ao equivalentes: (a) (f, µ) ´e fracamente misturador.

(b) limn 1nPnj=1Cj(ϕ, ψ) → 0 para quaisquer ϕ ∈ Lp(µ) e ψ ∈ Lq(µ) com

p, q∈ [1, ∞] e 1/p + 1/q = 1.

(c) A condi¸c˜ao do item (b) vale em algum subconjunto denso de Lp(µ) e algum

subconjunto denso de Lq(µ).

No caso p = q = 2, podemos expressar as correla¸c˜oes em termos do produto interno· no espa¸co de Hilbert L2(µ):

Cn(ϕ, ψ) = Ufnϕ− (ϕ · 1)



· ψ para todo ϕ, ψ ∈ L2(µ).

Portanto, a Proposi¸c˜ao 6.12 d´a que (f, µ) ´e misturador se, e somente se, lim n Ufnϕ− (ϕ · 1)  · ψ = 0 para todo ϕ, ψ ∈ L2(µ) (6.4) e a Proposi¸c˜ao 6.13 d´a que (f, µ) ´e fracamente misturador se, e somente se,

lim n 1 n n X j=1 Uf− (ϕ · 1)· ψ = 0 para todo ϕ, ψ ∈ L2(µ). (6.5) A condi¸c˜ao (6.4) significa que Un

fϕ converge fracamente para ϕ· 1 =

R ϕ dµ, enquanto que (6.5) ´e uma vers˜ao Cesaro dessa afirma¸c˜ao. Compare as duas condi¸c˜oes com a caracteriza¸c˜ao da ergodicidade em (4.7).

DRAFT

6.2. DESLOCAMENTOS DE MARKOV 169

6.2

Deslocamentos de Markov

Nesta se¸c˜ao introduzimos uma importante classe de sistemas, que generaliza a classe de deslocamentos de Bernoulli. Como vimos anteriormente, desloca- mentos de Bernoulli modelam sequˆencias de experimentos idˆenticos em que o resultado de cada experimento ´e independente dos demais. Na defini¸c˜ao dos deslocamentos de Markov abandonamos essa condi¸c˜ao de independˆencia, mas supomos que cada resultado depende apenas dos resultado imediatamente an- terior. De fato, como comentaremos na Se¸c˜ao 6.3.3, deslocamentos de Markov podem ser usados para modelar os processos com mem´oria finita, isto ´e, tais que existe k≥ 1 tal que cada resultado depende apenas dos k resultados anteriores. Para definir um deslocamento de Markov, consideremos um espa¸co men- sur´avel (X,A) e seja M = XN (ou M = XZ) o espa¸co das sequˆencias em X,

munido da σ-´algebra produto. Consideraremos o deslocamento f : M → M, f (xn)n= (xn+1)n.

Suponha que ´e dada uma fam´ılia{P (x, ·) : x ∈ X} de probabilidades em X, chamadas probabilidades de transi¸c˜ao, dependendo mensuravelmente do ponto x. Heuristicamente, dado um conjunto mensur´avel E ⊂ X, o n´umero P (x, E) representa a probabilidade de xn+1 ∈ E sabendo que xn = x. Uma proba-

bilidade p em X ´e chamada medida estacion´aria, relativamente `a fam´ılia de probabilidades de transi¸c˜ao, se ela satisfaz

Z

P (x, E) dp(x) = p(E), para todo conjunto mensur´avel E⊂ X. (6.6) Heuristicamente, isto significa que, relativamente a p, a probabilidade de xn+1 ∈

E ´e igual `a probabilidade de xn∈ E.

Fixe uma medida estacion´aria p qualquer (supondo que exista) e ent˜ao defina µ [m; Am, . . . , An]= = Z Am dp(xm) Z Am+1 dP (xm, xm+1)· · · Z An dP (xn−1, xn) (6.7)

para todo cilindro [m; Am, . . . , An] de M . Pode mostrar-se (veja o Exerc´ıcio ??)

que esta fun¸c˜ao se estende a uma probabilidade na σ-´algebra gerado pelos ci- lindros. Esta probabilidade ´e invariante pelo deslocamento f , uma vez que o lado direito de (6.7) n˜ao depende de m. Toda probabilidade µ obtida desta forma ´e chamada medida de Markov ; al´em disso o sistema (f, µ) ´e chamado deslocamento de Markov.

Exemplo 6.14. (medida de Bernoulli) Suponha que P (x,·) n˜ao depende de x, ou seja, existe uma probabilidade ν em X tal que P (x,·) = ν para todo x ∈ X. Ent˜ao Z

P (x, E) dp(x) = Z

DRAFT

para toda probabilidade p e todo conjunto mensur´avel E⊂ X. Portanto, existe exatamente uma medida estacion´aria, a saber p = ν. A defini¸c˜ao (6.7) d´a

µ [m; Am, . . . , An]  = Z Am dν(xm) Z Am+1 dν(xm+1)· · · Z An dν(xn)

= ν(Am)ν(Am+1)· · · ν(An).

Exemplo 6.15. Suponha que o conjunto X ´e finito, digamos X ={1, . . . , d} para algum d≥ 2. Qualquer fam´ılia de probabilidades de transi¸c˜ao P (x, ·) em X fica completamente caracterizada pelos valores

Pi,j= P (i,{j}), 1 ≤ i, j ≤ d. (6.8)

Al´em disso, uma medida p em X fica completamente caracterizada pelos valores pi= p({i}), 1 ≤ i ≤ d. Com esta nota¸c˜ao, a defini c˜ao (6.6) traduz-se por

d

X

i=1

piPi,j= pj, para todo 1≤ j ≤ d. (6.9)

Al´em disso, a medida de Markov µ fica dada por

µ [m; am, . . . , an]= pamPam,am+1· · · Pan−1,an. (6.10)

Na sequˆencia iremos nos restringir a deslocamentos de Markov finitos, ou seja, ao contexto do Exemplo 6.15. Consideramos o conjunto X munido da topologia discreta e da respectiva σ-´algebra de Borel. Observe que a matriz

P = (Pi,j)1≤i,j≤d

definida por (6.8) satisfaz as seguintes condi¸c˜oes: (i) Pi,j≥ 0 para todo 1 ≤ i ≤ j;

(ii) Pdj=1Pi,j= 1 para todo 1≤ i ≤ d.

Dizemos que P ´e uma matriz estoc´astica. Reciprocamente, qualquer matriz satisfazendo (i) e (ii) define uma fam´ılia de probabilidades de transi¸c˜ao no con- junto X. Observe tamb´em que, denotando p = (p1, . . . , pd), a rela¸c˜ao (6.9)

corresponde a

P∗p = p, (6.11)

onde P∗ representa a transposta da matriz P . Em outras palavras, as medidas

estacion´arias correspondem precisamente aos autovetores da matriz transposta para o autovalor 1. O seguinte resultado cl´assico permite mostrar que tais autovalores sempre existem:

Teorema 6.16 (Perron-Fr¨obenius). Seja A uma matriz d× d com entradas n˜ao-negativas. Ent˜ao existe λ ≥ 0 e existe algum vetor v 6= 0 com entradas n˜ao-negativas tal que Av = λv e λ≥ |γ| para todo autovalor γ de A.

DRAFT

6.2. DESLOCAMENTOS DE MARKOV 171 Se A admite alguma potˆencia cujas entradas s˜ao positivas ent˜ao λ > 0 e existe algum autovetor v com entradas postivas. De fato, λ >|γ| para qualquer outro autovalor γ de A. Al´em disso, o autovalor λ tem multiplicidade 1 e ´e o ´

unico autovalor de A que admite algum autovetor com entradas n˜ao-negativas. Uma demonstra¸c˜ao do teorema de Perron-Fr¨obenius pode ser encontrada no livro de Meyers [Mey00], por exemplo. Aplicando este teorema `a matriz A = P∗,

conclu´ımos que existem λ≥ 0 e p 6= 0 com pi≥ 0 para todo i, tais que d

X

i=1

piPi,j= λpj, para todo 1≤ j ≤ d.

Somando sobre i = 1, . . . , d obtemos que

d X j=1 d X i=1 piPi,j = λ d X j=1 pj.

Usando a propriedade (ii) da matriz estoc´astica, o lado esquerdo desta igualdade pode ser escrito como

d X i=1 pi d X j=1 Pi,j= d X i=1 pi.

Comparando as duas ´ultimas igualdades, e lembrando que a soma das entradas de p ´e um n´umero postivo, conclu´ımos que λ = 1. Isto prova a nossa afirma¸c˜ao de que sempre existem vetores p6= 0 satisfazendo (6.11).

Quando Pntem entradas positivas para algum n≥ 1, segue do Teorema 6.16 que o autovetor ´e ´unico, a menos de produto por um escalar, e pode ser escolhido com entradas positivas.

Exemplo 6.17. Em geral, p n˜ao ´e ´unico e tamb´em pode n˜ao existir nenhum autovalor com entradas positivas. Por exemplo, considere:

P =       1− a a 0 0 0 b 1− b 0 0 0 0 0 1− c c 0 0 0 d 1− d 0 e 0 0 0 1− e      

onde a, b, c, d, e ∈ (0, 1). Um vetor p = (p1, p2, p3, p4, p5) satisfaz P∗p = p se,

e somente se, ap1 = bp2 e cp3 = dp4 e p5 = 0. Portanto, o autoespa¸co tem

dimens˜ao 2 e nenhum autovetor tem entradas positivas.

Por outro lado, suponha que p ´e tal que pi = 0 para algum i e seja µ a

respectiva medida de Markov. Seja Mi = (X\ {i})N (ou Mi = (X\ {i})Z).

Ent˜ao µ(Mi) = 1, uma vez que µ([n; i]) = pi= 0 para todo n. Isto significa que

podemos eliminar o s´ımbolo i, obtendo um sistema equivalente ao original. Por-

Documentos relacionados