FABIO NISKI
1. Preliminares
No que se segue, sejam (Ω,F, µ) um espa¸co de medida e f uma fun¸c˜ao n˜ao negativa eF-mensur´avel.
1
π =9801√8 P∞
n=0 (4n)!
(n!)41103+26390n 3964n
Lema 1. Nas condi¸c˜oes acima, sejaν: F →R+ dada porν(A) =R
Af dµ. Temos queν ´e uma medida em (Ω,F).
Demonstra¸c˜ao. Em primeiro lugar, ν(A) ∈ [0,∞] para A ∈ F. Isso segue por constru¸c˜ao de ν e f. Al´em disso, ν(∅) = R
∅f dµ = R
Ω(f I[∅])(ω)µ(dω) = 0, pois f I[∅] ´e nula q.s. Finalmente, sejam {Ak} uma sequˆencia disjunta de con- juntos em F tal que S∞
k=1Ak ∈ F, gn =. f I[Sn
k=1Ak] = Pn
k=1f I[Ak] e g =. f I[S∞
k=1Ak]. Temos que 0≤ gn ↑ g (sempre ou q.s?) e portanto, pelo Teorema da convergˆencia mon´otona, limR
Ωgndµ=R
Ωg dµ, ou seja, limR
Ωf I[Sn
k=1Ak]dµ= limR
Ω
Pn
k=1f I[Ak] = P∞
k=1
R
Ωf I[Ak]dµ= P∞
k=1ν(Ak) = R
Ωlimf I[Sn
k=1Ak]dµ= R
Ωf I[S∞
k=1Ak]dµ=ν(S∞
k=1Ak). ¤
Defini¸c˜ao 1. Dizemos que a medida ν:F →R+ definida por ν(A) =
Z
A
f dµ, A∈ F temdensidadef com respeito `a medidaµ.
Defini¸c˜ao 2. Sejam µ e ν medidas em (Ω,F). Dizemos que ν ´e absolutamente cont´ınuacom respeito aµquando para cadaA∈ F,µ(A) = 0implicar queν(A) = 0.
Observe que se ν tem densidade f com respeito aµ ent˜ao ν ´e absolutamente cont´ınua com respeito aµ. De fato,ν(A) =R
Af dµ=R
Ωf I[A]dµ= 0 seµ(A) = 0, poisf I[A]≡0 q.s.
O teorema de Radon-Nikodym ´e quase uma rec´ıproca para essa observa¸c˜ao.
Antes,
Defini¸c˜ao 3. Seja µuma medida em (Ω,F). Dizemos que:
• µ´efinitaquando µ(Ω)<∞.
• µ´eσ-finitaquando existir uma sequˆencia{Ak},Ak∈ F finita ou enumer´avel tal queΩ =S
Ak eµ(Ak)<∞.
Teorema 1. (Radon-Nikodym) Se µeν s˜ao medidasσ-finitas eν ´e absolutamente cont´ınua com respeito aµent˜ao existef n˜ao negativa,F-mensur´avel tal queν(A) = R
Af dµ para qualquer A∈ F. Isto ´e,ν tem densidadef com respeito aµ.
Para a demonstra¸c˜ao, veja Billinsgley, Teorema 32.2.
1
2. Esperanc¸a Condicional
Defini¸c˜ao 4. Seja X uma vari´avel aleat´oria definida no espa¸co de probabilidade (Ω,F,P), P-integr´avel e G ´e uma sub-σ-´algebra em F. Dizemos que a vari´avel aleat´oria E[XkG]´e uma esperan¸ca condicional de X dado G, quando satisfazer as seguintes propriedades:
(i) E[XkG]´eG-mensur´avel e integr´avel.
(ii) E[XkG]satisfaz a seguinte equa¸c˜ao funcional:
Z
G
E[XkG]dP = Z
G
X dP, G∈ G.
Lema 2. Existe uma vari´avel aleat´oria E[XkG] com as propriedades da defini¸c˜ao anterior.
Demonstra¸c˜ao. Inicialmente, considereX n˜ao negativa. Defina uma medidaν em (Ω,G) por ν(G) = R
GX dP. Como X ´e integr´avel, ν ´e finita e ´e absolutamente cont´ınua com respeito a P. Pelo teorema de Radon-Nikodym, existe uma fun¸c˜aof, G-mensur´avel tal queν(G) =R
Gf dP. Assim, da integrabilidade deX segue a de f e portanto essaf satisfaz as propriedades (i) e (ii). SeX n˜ao for necess´ariamente n˜ao negativa, considere a decomposi¸c˜ao X = X+−X− e obtenha f+ e f−. A proposic˜ao est´a provada pois f+−f− satisfaz as condi¸c˜oes da defini¸c˜ao anterior.
Perceba que aqui nada se afirmou sobre a unicidade da esperan¸ca condicional. De fato, existem v´arias esperan¸cas condicionais, basta alterar a fun¸c˜ao em conjuntos de medida P-nula. As propriedades continuam sendo satisfeitas e chamamos cada uma das esperan¸cas condicionais devers˜aoda esperan¸ca condicional. ¤ Observe que seG={∅,Ω}ent˜ao a esperan¸ca condicional, por serG-mensur´avel, s´o pode ser constante. Disso, vem queR
ΩE[XkG]dP = E[XkG] P(Ω) = E[XkG] = R
ΩX dP ou seja, E[XkG] = E[X], com probabilidade 1. Observe tamb´em que para G=F,X satisfaz todas a propriedades donde E[XkF] =X com probabilidade 1.
O pr´oximo teorema lista algumas propriedades da esperan¸ca condicional. Todas as igualdades e desigualdades valem com probabilidade 1. A prova destes resultados est´a em Billingsley p´agina 447. Daqui em diante, assume-se tacitamente queX ´e uma vari´avel aleat´oria definida no espa¸co (Ω,F,P) eG´e uma sub-σ-´algebra deF.
Teorema 2. SejamX, Y eXn vari´aveis aleat´orias integr´aveis (i) Se X =a com probabilidade 1, ent˜aoE[XkG] =a.
(ii) Se aeb s˜ao constantes, vale que E[aX+bYkG] =aE[XkG] +bE[YkG].
(iii) Se X ≤Y com probabilidade 1, ent˜aoE[XkG]≤E[YkG].
(iv) |E[XkG]| ≤E[|X|kG].
(v) Se limnXn = X com probabilidade 1, |Xn| ≤ Y e se Y for integr´avel, ent˜aolimnE[XnkG] = E[XkG]com probabilidade 1.
Teorema 3. Suponha queX ´eG-mensur´avel e queY eXY s˜ao integr´aveis ent˜ao, com probabilidade 1 vale que
E[XYkG] =XE[YkG].
Demonstra¸c˜ao. Inicialmente, sejamG0∈ G eX=I[G0]. Temos queI[G0]E[YkG] ´e G-mensur´avel e integr´avel (poisI[G0]E[YkG]≤E[YkG]). Al´em disso, como vale que R
G∩G0E[YkG]dP = R
G∩G0Y dP, vem que R
GI[G0]E[YkG]dP = R
GI[G0]Y dP =
R
GE[I[G0]YkG]dP. Resulta portanto que XE[YkG] ´e uma vers˜ao de E[XYkG]
quandoX=I[G0]. Agora para X = Pn
k=1xkI[Gk], com G1, . . . , Gn ∈ G e x1, . . . , xn constantes reais, temos pelo o que acabamos de mostrar e pelo item (ii) do Teorema2que:
Z
G
E[XYkG]dP = Z
G
E[x1I[A1]Y +· · ·+xnI[An]YkG]dP
= Z
G
x1E[I[A1]YkG]dP +· · ·+xn
Z
G
E[I[An]YkG]dP
= Z
G
x1I[A1]E[YkG]dP +· · ·+ Z
G
xnI[An]E[YkG]dP
= Z
G
XE[YkG]dP
= Z
G
XY dP.
ComoXE[YkG] ´eG-mensur´avel e integr´avel, segue queXE[YkG] ´e uma vers˜ao de E[XYkG] paraX simples.
Finalmente, sejaXarbitr´aria eG-mensur´avel. Sabemos que existe uma sequˆencia {Xn}de fun¸c˜oes simples,G-mensur´aveis tais que|Xn|<|X|e limnXn=X. Como
|XnY| ≤ |XY| e |XY| ´e integr´avel por hip´otese, pelo item (v) do Teorema 2, temos que limnE[XnYkG] = E[XYkG] com probabilidade 1. Resulta portanto que XE[YkG] = limnXnE[YkG] = limnE[XnYkG] = E[XYkG]. ComoXE[YkG] ´eG- mensur´avel (pois ´e limite de fun¸c˜oesG-mensur´avel) e ´e integr´avel (pois, pelos itens (iii) e (iv) do Teorema2,|XnE[YkG]|=|E[XnYkG]≤E[|XnY|kG]≤E[|XY|kG], que ´e integr´avel), resulta queXE[YkG] ´e uma vers˜ao de E[XYkG], como quer´ıamos.
¤ Teorema 4. SejamX uma vari´avel aleat´oria integr´avel eG1⊂ G2, sub-σ-´algebras deF. Ent˜ao com probabilidade 1 vale que
E[E[XkG2]kG1] = E[XkG1] = E[E[XkG2]kG1].
Demonstra¸c˜ao. Para a primeira igualdade, temos que E[XkG2] ´e integr´avel por- tanto, pela defini¸c˜ao de esperan¸ca condicional, E[E[XkG2]kG1] ´eG1-mensur´avel e in- tegr´avel, assim falta verificar o item (ii) da defini¸c˜ao4isto ´e,R
GE[E[XkG2]kG1]dP = R
GX dP paraG∈ G1. De fato, seG∈ G1ent˜aoG∈ G2dondeR
GE[E[XkG2]kG1]dP = R
GE[XkG2]dP = R
GX dP. Para a segunda, observe que E[XkG1] por ser G1- mensur´avel ´e tamb´em G2-mensur´avel, assim da observa¸c˜ao depois da prova da
Proposi¸c˜ao2 segue o que quer´ıamos. ¤
Teorema 5. Seja X uma vari´avel aleat´oria integr´avel e G uma sub-σ-´algebra de F. SeX for independente de G ent˜ao, com probabilidade1, vale que
E[XkG] = E[X].
Demonstra¸c˜ao. Lembramos o leitor que dizer queX´e independente deG´e dizer que a σ-´algebra gerada porX ´e independente deG. Note que como E[X] ´e constante,
segue que E[X]∈ G. Agora seja Λ∈ G arbitr´ario. Temos que Z
Λ
E[X]dP = E[X] P(Λ)
= E[X] E[I[Λ]]
= E[X·I[Λ]]
= Z
Ω
X·I[Λ]]dP
= Z
Λ
X dP.
Donde resulta o que quer´ıamos. ¤
Vamos formalizar o conceito subjetivo de informa¸c˜ao amarrando-o com o con- ceito de sub-σ-´algebra. Com isso, torna-se mais f´acil a interpreta¸c˜ao de resultados probabil´ısticos envolvendo esperan¸ca condicional.
Considere um experimento que consiste no lan¸camento de 3 moedas nos in- stantes de tempot1, t2 et3. Seja Ω o espa¸co de todos os resultados poss´ıveis deste experimento, isto ´e Ω = {HHH, HHT, HT H, HT T, T HH, T HT, T T H, T T T}. A figura1ilustra as possibilidades deste experimento. Em t0 a ´unica informa¸c˜ao que temos sobre o resultado do experimento (ω) ´e a trivial, isto ´e, ω ´e tal queω ∈Ω.
Em t1 temos mais informa¸c˜oes sobre o poss´ıvelω que ir´a ocorrer, de fato, agora sabemos queω∈ {HHH, HHT, HT H, HT T}ouω∈ {T HH, T HT, T T H, T T T}.
Figura 1. Arvore de estados poss´ıveis.´
SejaF1a σ-´algebra gerada pela famil´ıa
{{HHH, HHT, HT H, HT T},{T HH, T HT, T T H, T T T}}.
Dizer que um observador possui a informa¸c˜aoF1´e dizer que para qualquerF ∈ F1
ele sabe seω∈F ou seω /∈F. No caso do lan¸camento das moedas, ´e dizer que o ob- servador conhe¸ce o resultado do primeiro lan¸camento. Ap´os o segundo lan¸camento, obtemos mais informa¸c˜oes. Sabemos agora queω pertencer´a a exatamente um dos
conjuntos da fam´ılia
{{HHH, HHT},{HT H, HT T},{T HH, T HT},{T T H, T T T}},
sendo F2 a σ-´algebra gerada por esta fam´ılia, dizer que o observador possui a informa¸c˜ao F2 ´e , equivalemente ao que escrevemos antes, conhecer o valor da vari´avel aleat´oriaI[F] para cadaF ∈ F2. O fato intuitivo de que a cada lan¸camento o observador possui mais informa¸c˜oes sobre o resultado do experimento, ´e expresso pela inclus˜aoF0⊂ F1⊂ F2⊂ F3 ondeF0´e aσ-´algebra trivial eF3 ´e, neste caso, aσ-´algebra gerada pela fam´ılia
{{HHH},{HHT},{HT H},{HT T},{T HH},{T HT},{T T H},{T T T}}.
Observe que no sentido que demos acima, ter a informa¸c˜aoF0´e n˜ao saber nada e ter a informa¸c˜aoF3 ´e saber o resultado do experimento.
3. Martingais 3.1. Defini¸c˜ao e exemplos.
Defini¸c˜ao 5. SejamX1, X2, . . .uma sequˆencia de vari´aveis aleat´orias definidas no espa¸co de probabilidade (Ω,F,P) e F1,F2, . . . uma seqˆuencia de σ-´algebras de F.
Dizemos que a sequˆencia{(Xn,Fn) :n= 1,2, . . .}´e ummartingal(discreto) quando as quatro condi¸c˜oes a seguir forem satisfeitas:
(i) {Fn}´e uma filtra¸c˜ao, isto ´e,Fn⊂ Fn+1.
(ii) {Xn} ´eadatpada `a filtra¸c˜ao, isto ´e,Xn ´eFn-mensur´avel.
(iii) E[|Xn|]<∞.
(iv) E[Xn+1kFn] =Xn, com probabilidade 1.
E usual dizer apenas que a sequˆencia´ {Xn} ´e um martingal quando a filtra¸c˜ao estiver impl´ıcita no contexto. Se ao inv´es de (iv) valer, com probabilidade 1, que
E[Xn+1kFn]≥Xn,
ent˜ao a sequˆencia {Xn}´e chamada desubmartingal. Se valer que E[Xn+1kFn]≤Xn,
dizemos que sequˆencia ´e umsupermartingal.
Apartir deste ponto, quando n˜ao for explicitada nenhuma filtra¸c˜ao, subentende- se que se trada da filtra¸c˜ao natural gerada pela sequˆencia de vari´aveis aleat´orias, isto ´eFn=σ(X1, . . . , Xn).
Pela defini¸c˜ao de esperan¸ca condicional, temos paraA∈ FnqueR
AE[Xn+1kFn]dP = R
AXn+1dP. Agora, a condi¸c˜ao (iv) da defini¸c˜ao anterior diz queXn ´e uma vers˜ao de E[Xn+1kFn] e comoXn ´eFn-mensur´avel, a condi¸c˜ao pode ser reescrita como (1)
Z
A
Xn+1dP = Z
A
XndP, A∈ Fn.
Como{Fn}´e filtra¸c˜ao, podemos, por indu¸c˜ao, repetir o argumento acima e concluir que para A ∈ Fn vale que R
AXndP = R
AXn+1dP = . . . = R
AXn+kdP. Isso mostra queXn ´e uma vers˜ao de E[Xn+kkFn] parak≥1. Vamos agora apresentar alguns exemplos de martingais.
Exemplo 1. Seja{Xn}uma sequˆencia de vari´aveis aleat´orias independentes, iden- ticamente distribuidas e com m´edia 0 (Este processo ´e conhecido como Passeio aleat´orio centrado) e defina Sn = Pn
k=1Xn, n ≥ 0 (Y0 = X0 = 0). Com rela¸c˜ao
`a filtra¸c˜aoFn =σ(X0, . . . , Xn) =σ(S0, . . . , Sn), {Xn}e{Sn} s˜ao martingais. De fato
E[Sn+1kFn] = E[Sn+Xn+1kFn]
=Sn+ E[Xn+1kFn]
=Sn+ 0.
Note que usamos o fato queXn+1 ´e independente de Fn (a demonstra¸c˜ao disso ´e uma aplica¸c˜ao do Teorema 20.2 do Billinsgley) e o Teorema5.
Exemplo 2. Seja {Fn} uma filtra¸c˜ao no espa¸co de probabilidade (Ω,F,P) e seja X uma vari´avel aleat´oria integr´avel. Para cada n defina Xn = E[XkFn]. Pela defini¸c˜ao de esperan¸ca condicional,Xn ´e integr´avel eFn-mensur´avel. Temos ent˜ao que{Xn}´e adaptada `a filtra¸c˜ao{Fn} e
E[Xn+1kFn] = E[E[XkFn+1]kFn] pela constru¸c˜ao deXn+1
= E[XkFn] pelo Teorema4
=Xn pela constru¸c˜ao deXn.
Exemplo 3. Sejam {Fn} uma filtra¸c˜ao no espa¸co de probabilidade (Ω,F,P) e ν uma medida finita emF. Suponha que P seja absolutamente cont´ınua com respeito aν quando ambas medidas est˜ao restritas aFn. Pelo teorema de Radon-Nikodym, existe uma densidadeXn deνcom respeito a P quando ambas est˜ao restritas aFn. Ent˜aoXn ´e uma fun¸c˜aoFn-mensur´avel e satisfaz
Z
A
XndP =ν(A), A∈ Fn.
Pelo fato deXn ser positiva (pois ´e densidade) e porν ser finita segue que Z
Ω
XndP =ν(Ω)<∞,
ou seja, Xn ´e P-integr´avel. Pelo mesmo argumento considere agora a densidade Xn+1. Como A∈ Fn implica queA∈ Fn+1 temos queR
AXn+1dP =ν(A), por- tanto vale queR
AXndP =R
AXn+1dP e por (1) resulta que{Xn}´e um martingal.
Exemplo 4. E muito ´´ util enxergar os martingais em termos de jogos (de apostas com dinheiro). Para isso, denote por ∆Xn =Xn−Xn−1 a vari´avel aleat´oria que representa o ganho de um jogador no n-´esimo jogo (vamos assumir queX0 = 0) que ´e realizado nos instantes n= 1,2, . . .. Um bom jogador mant´em um registro do seu capital dispon´ıvel jogo a jogo para que possa tomar as decis˜oes da melhor forma poss´ıvel. Modelamos esse fato dizendo que o jogador no instante k possui a informa¸c˜ao gerada pela filtra¸c˜ao natural Fk = σ{Xi : i ≤ k} = σ{∆Xi : i ≤ k}. Assim, em um jogo honesto, imediatamente antes da n-´esima partida o jo- gador espera que seu ganho incremental seja 0 em m´edia. Expressamos isso como E[∆XnkFn−1] = 0 mostrando como jogos honestos e martingais est˜ao relacionados.
De forma an´aloga, os jogos favor´aveis ao jogador s˜ao modelados como submartin- gais pois temos que E[∆XnkFn−1]≥0. Os jogos desfavor´aveis ao jogador, t´ıpicos de cassino, s˜ao supermartingais e evidentemente E[∆XnkFn−1p.]≤0.
O exemplo anterior mostrou como podemos interpretar martingais em termos de jogos de apostas. Uma pergunta que possa ser natural para jogadores e ´e certamente interessante para matem´aticos ´e: Ser´a que podemos transformar um jogo honesto em um jogo favor´avel?. Para responder essa pergunta, precisamos antes de uma Defini¸c˜ao 6. Dada uma filtra¸c˜ao {Fn}, dizemos que uma sequˆencia de var´ıaveis aleat´orias{Cn}´e umprocesso previs´ıvelquando, paran≥2,CnforFn−1-mensur´avel.
Voltando `a pergunta, vamos interpretar um processo previs´ıvel como uma es- trat´egia de jogo. Cnrepresenta a quantidade que ser´a apostada nan-´esima partida.
E natural supor que´ Cn ≥ 0 e que exista um limite para as apostas, isto ´e, para algumK∈[0,∞) vale queCn(ω)≤Kpara todoneω. O fato de ser um processo previs´ıvel diz intuitivamente que a escolha deCns´o pode depender das informa¸c˜oes que o jogador tem at´e a jogadan−1. Nessas condi¸c˜oes Ck(ω)∆Xk(ω) representa quanto o jogador ganhou na k-´esima jogada e Pk
j=1Cj(ω)(∆Xk(ω)) representa quanto o jogador ganhou at´e ak-´esima jogada. O pr´oximo teorema mostra que a resposta para a nossa pergunta ´e negativa.
Teorema 6. Seja (Ω,F,P) um espa¸co de probabilidade e {Fn} uma filtra¸c˜ao. Se {Xn}´e um (sub/super)martingal e{Cn}um processo previs´ıvel, positvo e limitado, ent˜ao a sequˆencia {In} definida por
(2) In(ω) = Xn
j=1
Cj(ω)(∆Xj(ω)) = Xn
j=1
Cj(ω)(Xj(ω)−Xj−1(ω))
´e um (sub/super)martingal tamb´em.
Demonstra¸c˜ao. Perceba queIn satisfaz os itens (i),(ii) e (iii) da defini¸c˜ao5. Vamos mostrar que (iv) tamb´em vale. De fato,
E[InkFn−1] = E[In−1+Cn∆XnkFn−1] pela constru¸c˜ao deIn
= E[In−1kFn−1] + E[Cn∆XnkFn−1] pela linearidade da esperan¸ca condicional
=In−1+CnE[∆XnkFn−1] poisIn−1∈ Fn−1 e pelo teorema3
=In−1+Cn·0 por hip´otese.
E[InkFn−1] =In−1e o teorema est´a provado. As afirma¸c˜oes referentes aos (sub/super)martingais
s˜ao provadas da mesma forma. ¤
O processo (2) ´e um exemplo detransformada martingalde{Xn}por{Cn} e ´e a vers˜ao discreta daintegral estoc´asticaR
C dX que estudaremos depois.
Como observa¸c˜ao final, note que {Xn}´e submartingal se e somente se {−Xn} for um supermartingal. Por esta equivalˆencia, para todos os resultados sobre sub- martingais existem os duais para supermartigais e vice versa. Al´em disso, {Xn}´e um martingal se e somente for um submartingal e um supermartingal. Disso, to- dos os resultados que valem para submartingais ou para supermartingais, tamb´em valem para martingais.
3.2. Convergˆencia de martingais. Vamos come¸car esta se¸c˜ao com um lema:
Lema 3. Seja (Ω,F,P) um espa¸co de probabilidade e{Fn}uma filtra¸c˜ao. Se (i) {Xn} for um martingal ent˜aoE[X1] = E[X2] =. . .
(ii) {Xn} for um submartingal ent˜aoE[X1]≤E[X2]≤. . . (iii) {Xn} for um supermartingal ent˜aoE[X1]≥E[X2]≥. . .
Demonstra¸c˜ao. Vamos provar (i). Pela discuss˜ao logo ap´os a defini¸c˜ao5vimos que paraA∈ F1 ek≥1 vale Z
A
X1dP = Z
A
XkdP
TomandoA= Ω, segue o resultado. A demonstra¸c˜ao dos outros itens ´e an´aloga. ¤ Considere a < b dois n´umeros reais. Vamos denotar por UN(a, b) a vari´avel aleat´oria que indica a quantidade deupcrossings (ou atravessamentos pra cima???) feitas pela sequˆencia {Xn} at´e o instante N. Ela ´e definida como o maior k ∈ {0,1,2, . . .} tal que podemos encontrar
0≤s1< t1< s2< t2< . . . < sk< tk ≤N onde
Xsi(ω)≤a, Xti(ω)≥b (1≤i≥k).
Nosso objetivo agora ser´a provar o seguinte resultado obtido por J. L. Doob Teorema 7. Seja{Xn}um supermartingal. Ent˜ao,UN(a, b), como definido acima, satisfaz a seguinte desigualdade
E[UN(a, b)]≤E[(XN−a)−] b−a .
Para demonstrar este teorema, vamos lan¸car m˜ao da rela¸c˜ao entre jogos e mar- tingais. Considere ent˜ao dois jogadoresP eQ. O jogadorP ir´a jogarN partidas e seu dinheiro na n-´esima jogada ser´a representado pela vari´avel aleat´oriaXn. O jogadorQadotar´a a seguinte estrat´egia: Antes do primeiro jogo come¸car, ele fixa dois numeros a e b (a < b) e vai iniciar uma s´erie de apostas na rodada que o dinheiro deP ficar menor ou igual aae terminar´a na rodada que o dinheiro deP ficar maior ou igual ab. Esta estrat´egia pode ser representada como uma sequˆencia de variav´eis aleat´orias{Cn}definidas da seguinte maneira:
C1=I[X0≤a]
e paran≥2,
Cn=I[Cn−1=1]I[Xn−1≤b]+I[Cn−1=0]I[Xn−1≤a].
Por essa constru¸c˜ao, resulta que {Cn} ´e um processo previs´ıvel em rela¸c˜ao `a σ-
´algebra naturalFk = σ(X1, . . . , Xk) (ou seja ´e Fn−1-mensur´avel pois existe uma fun¸c˜ao mensur´avelf tal que para todoω ∈Ω, Cn(ω) =f(X1(ω)), . . . , Xn−1(ω)).
Assim, seja Yn o dinheiro do jogador Q at´e o instante n. Temos que Y0 = 0 e Yn =Pn
j=1Cj(Xj−Xj−1). Observe a cada upcrossings, o valor de o dinheiro do jogadorQaumenta em pelo menosb−aunidades. Assim, sendo (XN(ω)−a)− a pior perda poss´ıvel no ultimo intervalo de jogadas, resulta que
(3) YN(ω)≥(b−a)UN(a, b)(ω)−(XN(ω)−a)−. Com isso, estamos prontos para provar o teorema.
Demonstra¸c˜ao. (do Teorema7.) Temos que o processo{Cn}´e previs´ıvel, limitado e n˜ao-negativo. Pelo Teorema6resulta que{Yn}´e um supermartingal. Agora, como Y0 = 0, temos pelo item (iii) do Lema3 que E[YN]≤0. Finalmente, tomando o valor esperado dos dois lados da desigualdade (3) temos
E[YN]≥E[(b−a)UN(a, b)−(XN −a)−]
e usando que E[YN]≤0, resulta
E[UN(a, b)]≤E[(XN−a)−] b−a .
Como quer´ıamos. ¤
Se{Xn}for um supermartingal representando o dinheiro de um jogador em uma s´erie de jogos, vimos que ´e razo´avel esperar que este dinheiro diminua conforme as partidas s˜ao realizadas. Em termos de upcrossings esse fato ´e justificado pelo seguinte
Corol´ario 1. Sejam {Xn} um supermartingal tal que supnE[|Xn|]<∞ e a < b n´umeros reais arbitrarios, ent˜ao, definindo U∞(a, b) = lim. NUN(a, b), temos que P[U∞(a, b) =∞] = 0.
Demonstra¸c˜ao. Como (Xn−a)− ≤ |Xn|+|a|, pelo Teorema7temos que E[UN(a, b)]≤|a|+ E[|XN|]
b−a
≤|a|+ supnE[|XN|]
b−a .
Pelo teorema da convergˆencia mon´otona, limNE[UN(a, b)] = E[U∞(a, b)], donde E[U∞(a, b)]≤|a|+ supnE[|XN|]
b−a <∞.
Agora suponha por absurdo que P[A]>0 ondeA .
={ω ∈Ω :U∞(a, b)(ω) =∞}.
Isso implica que
E[U∞(a, b)] = Z
A
U∞(a, b)dP + Z
Ω\A
X dP
=∞ ·P[A] + Z
Ω\A
X dP
=∞.
Esta contradi¸c˜ao completa a demonstra¸c˜ao. ¤
Agora estamos com condi¸c˜oes para provar um dos principais resultados desta se¸c˜ao
Teorema 8. (Teorema de convergˆencia de Doob) Seja {Xn} um supermartingal.
Se supnE[|Xn|] < ∞ ent˜ao, existe uma vari´avel aleat´oria integr´avel X∞ tal que limnXn=X∞ com probabilidade 1.
Demonstra¸c˜ao. Em primeiro lugar, lembramos que escreverb <lim supXn(ω) ´e o mesmo que dizer queb´e menor que o maior ponto de acumula¸c˜ao de{Xn(ω)}, que
´e o mesmo que dizer que existe uma subsequˆencia de{Xn(ω)} que converge para um n´umero maior do queb e isso finalmente implica que existem infinitos ind´ıces ntais queXn(ω)> b. De forma an´aloga, a >lim infXn(ω) implica na existˆencia de infinitos indicesntais queXn(ω)< a. Posto isso,
Θ=. {ω:Xn(ω) n˜ao converge em [−∞,∞]}
={ω: lim infXn(ω)<lim supXn(ω)}
= [
a,b∈Q:a<b
{ω: lim infXn(ω)< a < b <lim supXn(ω)}.
Seja Θa,b =. {ω : lim infXn(ω) < a < b < lim supXn(ω)}. Se ω ∈ Θa,b, ent˜ao sendoU∞(a, b)(ω) como no Corol´ario anterior, temos, pela discuss˜ao inicial, que o n´umero deupcrossings ´e infinito. Disso resulta a inclus˜ao
Θa,b⊆ {ω:U∞(a, b)(ω) =∞}.
Agora, pelo Corol´ario anterior, P[Θa,b] = 0 e assim, P[Θ] = P
[
a,b∈Q:a<b
Θa,b
≤ X
a,b∈Q:a<b
P[Θa,b] = 0.
Portanto est´a garantida a existˆencia deX∞= limXn com probabilidade 1. Vamos agora mostrar queX∞´e integr´avel. De fato, pelo Lema de Fatou,
Z
Ω
|X∞|dP = Z
Ω
lim inf|Xn|dP≤lim inf Z
Ω
|Xn|dP<∞.
E isso termina a demonstra¸c˜ao. ¤
3.3. Tempos de parada. Outros dois teoremas centrais da teoria dos Martingais s˜aoDoob’s Optional Sampling e oDoob’s Optional Stopping Theorem. Para tratar destes resultados, vamos introduzir o conceito detempo de parada. Com o ferramen- tal que desenvolvemos at´e agora, ´e poss´ıvel provar os teoremas citados acima para tempos de parada finitos. Veremos que ao indroduzir o conceito de martingal uni- formemente cont´ınuoser´a possivel extender esses resultados para tempos de parada n˜ao finitos e uma vers˜ao modificada do Teorema de convergˆencia de Doob. De posse destes resultados vamos, em um pr´oximo cap´ıtulo, generaliza-los para martingais continuos o que ser´a crucial para desenvolver a teoria de integra¸c˜ao estoc´astica.
Defini¸c˜ao 7. Dizemos que uma vari´avel aleat´oria T: Ω 7→ {0,1, . . .;∞} ´e um tempo de parada(com rela¸c˜ao `a filtra¸c˜ao {Fn} quando
{ω:T(ω)≤n} ∈ Fn, ∀n≤ ∞.
Perceba que pela defini¸c˜ao acima ´e necess´ario que{T =∞} ∈ F∞. Para lidar com essa situa¸c˜ao, definimosF∞ .
=σ(S
n≥1Fn).
Intuitivamente, podemos interpretar o tempo de parada como o instante em que decidimos parar de jogar um jogo ou o instante em que exercemos uma op¸c˜ao americana. A mensurabilidade deT diz que a decis˜ao deT ≤nou n˜ao, ´e tomada com base na informa¸c˜ao dispon´ıvel at´e o instante n. Para modelos em tempo discreto, ´e mais f´acil verificar que T ´e um tempo de parada usando a seguinte equivalˆencia
Lema 4. T: Ω7→ {0,1, . . .;∞} ´e um tempo de parada se, e somente se {ω:T(ω) =n} ∈ Fn, ∀n≤ ∞
Demonstra¸c˜ao. Se valer que{ω:T(ω)≤n} ∈ Fn, ∀n <∞, ent˜ao {ω:T(ω) =n}={ω:T(ω)≤n} \ {ω:T(ω)≤n−1} ∈ Fn. e
{ω:T(ω) =∞}= Ω\ {ω: [
n≥1
T(ω)≤n} ∈ F∞.
Reciprocamente, se valer que{ω:T(ω) =n} ∈ Fn, ∀n≤ ∞, ent˜ao, para k≤n, {ω:T(ω) =k} ∈ Fk ⊆ Fn e portanto, resulta que
{ω:T(ω)≤n}= [
k≤n
{ω:T(ω) =k} ∈ Fn. e
{ω:T(ω)≤ ∞}= Ω∈ F∞.
¤ Lema 5. Sejam T1 e T2 tempos de parada e K um inteiro positivo. Ent˜ao
(i) T1≡K´e um tempo de parada ;
(ii) T1∧T2= min{T1, T2}´e um tempo de parada ;
(iii) TK =T1∧K= min{T1, K} ´e um tempo de parada finito.
Demonstra¸c˜ao. Temos que {T =n}= Ω, quando n=K e{T =n}=∅, quando n6=K. Isso prova a primeira afirma¸c˜ao. Para a segunda, note que para qualquer n, {T1∧T2> n}={T1> n}T
{T2> n} ∈ Fn. A ´ultima resulta das anteriores e
do fato queTK≤K. ¤
Ser´a que um martingal interrompido continua sendo um martingal? Vamos re- sponder esta pergunta e formalizar esse conceito. Sejam, ent˜ao, um supermartingal {Xn} e T um tempo de parada. Considere um jogo de apostas e a seguinte es- trat´egia de um jogador: Sempre apostar uma unidade e parar imediamente depois do instante T (ou da T-´esima jogada). A estrat´egia pode ser representada pela sequˆencia de variav´eis alet´orias{Cn(T)} ondeCn(T)(ω) =I[n≤T](ω). Vamos mostrar que esta estrat´egia ´e um processo previs´ıvel. De fato, Cn(T) s´o pode assumir os valores 0 ou 1 e portanto, {ω ∈Ω :Cn(T)(ω) = 0} ={ω ∈Ω :T(ω) ≤n} ∈ Fn−1. Como {ω ∈Ω :Cn(T)(ω) = 1}= Ω\ {ω ∈Ω :Cn(T)(ω) = 0} ∈ Fn−1, resulta o que quer´ıamos. Por constru¸c˜ao,{Cn(T)}´e positivo e limitado. O ganho total do jogador at´e ak-´esima jogadaIn , ´e calculado por
I0(ω) = 0, Ik(ω) =
Xk
j=1
Cn(T)(ω)(Xj(ω)−Xj−1(ω)), k >0.
Para ilustrar, veja que paraω∈Ω fixado tal queT(ω) = 4, temos parak= 6 que, I6(ω) =X4(ω)−X0(ω), e quando k= 3,I3(ω) =X3−X0. De modo geral, (4) In(ω) =XT(ω)∧n(ω)−X0(ω).
Essa discuss˜ao nos motiva `a seguinte
Defini¸c˜ao 8. Sejam{Xn} um supermartingal eT um tempo de parada, todos com respeito `a uma filtra¸c˜ao{Fn}. Dizemos que{XT∧n} ´e um processoparadoem T.
e ao seguinte
Teorema 9. (Teorema da parada opcional de Doob I). Sejam(Ω,F,P)um espa¸co de probabilidade, {Xn} um supermartingal (martingal) e T um tempo de parada, ambos com respeito `a filtra¸c˜ao{Fn}. Ent˜ao o processo parado emT,{XT∧n}´e um supermartingal (martingal) e vale que
E[XT∧n]≤E[X0] (E[XT∧n] = E[X0]).
Demonstra¸c˜ao. Pela discuss˜ao anterior, podemos usarIn definido em (4) no Teo- rema6. Segue portanto queIn ´e um supermartingal (martingal). Assim,
E[In]≤E[I0] E[XT∧n−X0]≤0
E[XT∧n]≤E[X0].
Pelos mesmos argumentos, se{In}for um martingal resulta que E[XT∧n] = E[X0].
Como quer´ıamos. ¤
Um exemplo importante de tempo de parada ´e o defirst hitting time. Para defini- lo, considere um processo{Xn} adaptado `a filtra¸c˜ao {Fn} e sejaB um boreliano qualquer. TB: Ω→ {0,1, . . .;∞} definido porTB(ω) = inf{n≥1 : Xn(ω)∈B} ´e um tempo de parada (aqui usamos que inf∅=∞). De fato, parak≥2,
{TB =k}=
k−1\
j=1
{Xj∈/B} ∩ {Xk ∈B} ∈ Fk
{TB=∞}= Ω\ [
n≥0
{TB ≤n} ∈ F∞
e parak= 1,{TB= 1}={X1∈B} ∈ F1.
Considere agora um passeio aleat´orio centrado como no exemplo1. Vimos que {Sn}´e um martingal e sejaT = inf{n:Sn= 1}um tempo de parada. Sabe-se (ver Williams pag 102) que P(T <∞) = 1. Queremos saber se quando n→ ∞temos E[ST∧n] → E[ST]. Sabemos, pelo ´ultimo teorema que E[ST∧n] = E[S0] = 0 mas ST = 1 com probabilidate 1. Ent˜ao a resposta `a essa pergunta ´e negativa. Para ser positiva, devemos acrescentar algumas hip´oteses como mostra o pr´oximo teorema.
Teorema 10. (Teorema da parada opcional de Doob II). Sejam(Ω,F,P)um espa¸co de probabilidade, {Xn} um supermartingal (martingal) e T um tempo de parada, ambos com respeito `a filtra¸c˜ao{Fn}. Ent˜aoXT ´e integr´avel e vale que
E[XT]≤E[X0] (E[XT] = E[X0]).
nas seguintes situa¸c˜oes:
(i) ExisteN ∈Ntal queT(ω)≤N,∀ω;
(ii) Existe K ∈ R+ tal que |Xn(ω)| ≤ K,∀(n, ω) ∈ (N×Ω) e T finito com probabilidade 1.
(iii) E[T]<∞e para algumK∈R+;
|Xn(ω)−Xn−1(ω)| ≤K ∀(n, ω)∈(N×Ω).
Demonstra¸c˜ao. Em primeiro lugar, sabemos do teorema anterior que o processo {XT∧n}´e integr´avel e
(5) E[XT∧n−X0]≤0,
pois{XT∧n}´e supermartingal.
Para o item (i), bastar usar (5) com n=N, assim E[XT∧N −X0]≤0
E[XT∧N]≤E[X0] E[XT]≤E[X0].
Para o item (ii), temos queP{ω∈Ω : limXT∧n(ω) =XT(ω)}= 1 pois o limite converge paraXT em{ω ∈Ω :T(ω)<∞} que por hip´otese tem medida 1. Al´em disso |XT| ≤ K < ∞ e portanto E[XT] < ∞, isto ´e, XT ´e integr´avel. Desses resultados, seja fn =. XT∧n−X0. fn ´e uniformemente limitada e converge com probabilidade 1 para XT −X0. Pelo teorema da convergˆencia limitada, E[XT − X0] = lim E[XT∧n−X0]≤0. Assim E[XT]≤E[X0].
Para o item (iii), note que
|XT∧n−X0|=|
TX∧n
k=1
(Xk−Xk−1| ≤KT.
Agora, da hip´otese que E[T]<∞, segue queKT ´e uma fun¸c˜ao integr´avel e sendo fn como na demonstra¸c˜ao do item (ii) temos que fn converge com probabilidade 1 para XT −X0. Estamos nas condi¸c˜oes do teorema da convergˆencia dominada que garante queXT ´e integr´avel e E[XT−X0] = lim E[XT∧n−X0]≤0. Portanto E[XT]≤E[X0]. Finalmente, perceba que todas os passos acima continuam v´alidos se considerarmos o processo{Yn}={−Xn} que ´e um submartingal. Disso resulta que o teorema tamb´em vale para o caso de martingais e nesse caso E[XT] = E[X0].
¤ Teorema 11. (Doob’s optional sampling for bounded stopping times). Sejam{Xn} um supermartingal eT ,τtempos de parada limitados comT ≤τ com probabilidade 1. Ent˜ao
E[XT