UNIVERSIDADE FEDERAL DE GOI ´AS INSTITUTO DE MATEM ´ATICA E ESTAT´ISTICA
CURSO DE ESTAT´ISTICA
PROCESSOS ESTOC ´ ASTICOS E SUAS APLICAC ¸ ˜ OES
VALDIVINO VARGAS J ´UNIOR
GOI ˆANIA, 2015
VALDIVINO VARGAS J ´ UNIOR
PROCESSOS ESTOC ´ ASTICOS E SUAS APLICAC ¸ ˜ OES
vvjunior@gmail.com
Sum´ ario
1 Conceitos de Probabilidade 2
1.1 Introdu¸c˜ao . . . 2
1.2 Vari´aveis Aleat´orias . . . 4
1.3 Vetores Aleat´orios . . . 6
1.4 Desigualdades . . . 8
1.5 Teoremas Limites . . . 8
1.6 Exerc´ıcios . . . 10
2 Distribui¸c˜oes Condicionais 13 2.1 Introdu¸c˜ao . . . 13
2.2 Distribui¸c˜oes Condicionais . . . 13
2.3 Esperan¸ca Condicional . . . 15
2.4 Exerc´ıcios . . . 27
3 Introdu¸c˜ao aos Processos Estoc´asticos 29 3.1 Introdu¸c˜ao . . . 29
3.2 Caracteriza¸c˜ao de Processos Estoc´asticos . . . 31
3.2.1 Descri¸c˜ao Probabil´ıstica . . . 31
3.2.2 Fun¸c˜oes do Processo . . . 34
3.3 Classifica¸c˜ao de Processos Estoc´asticos . . . 36
3.4 Exerc´ıcios . . . 37
4 Processo de Bernoulli 41 4.1 Introdu¸c˜ao . . . 41
4.2 Caracteriza¸c˜ao Adicional do Processo de Bernoulli . . . 43
4.3 Exerc´ıcios . . . 45
3
5 Processos de Poisson 48
5.1 Introdu¸c˜ao . . . 48
5.2 Superposi¸c˜ao de Processos de Poisson . . . 57
5.3 Decomposi¸c˜ao de Processos de Poisson . . . 58
5.4 Processo de Poisson Composto . . . 61
5.5 Processo de Poisson N˜ao Homogˆeneo . . . 62
5.6 Exerc´ıcios . . . 64
6 Processos de Renova¸c˜ao 75 6.1 Introdu¸c˜ao . . . 75
6.2 Estrutura do Processo . . . 76
6.3 Teoremas Limite . . . 79
6.4 Exerc´ıcios . . . 84
7 Cadeias de Markov a Tempo Discreto 86 7.1 Introdu¸c˜ao . . . 86
7.2 Propriedades da Matriz de Transi¸c˜ao . . . 88
7.3 Distribui¸c˜oes no Processo . . . 96
7.4 Estrutura do Espa¸co de Estados de um Processo Markoviano . . . 105
7.5 Teoremas Limite . . . 118
7.6 Exerc´ıcios . . . 124
8 Passeios Aleat´orios 135 8.1 Introdu¸c˜ao aos Passeios Aleat´orios . . . 135
8.2 Distribui¸c˜oes do Processo . . . 136
8.3 Teoremas Limite . . . 145
8.4 Exerc´ıcios . . . 152
9 Processos de Ramifica¸c˜ao 154 9.1 Introdu¸c˜ao . . . 154
9.2 Probabilidade de Extin¸c˜ao . . . 155
9.3 Exerc´ıcios . . . 158
10 Martingale 161 10.1 Introdu¸c˜ao . . . 161
10.2 Exemplos e Aplica¸c˜oes . . . 163
10.3 Exerc´ıcios . . . 164
11 Cadeias de Markov a Tempo Cont´ınuo 166
11.1 Introdu¸c˜ao . . . 166
11.2 Estrutura da Cadeia . . . 169
11.3 Gerador Infinitesimal . . . 170
11.4 Teoremas Limite . . . 174
11.5 Processos de Nascimento e Morte . . . 178
11.6 Filas . . . 183
11.7 Exerc´ıcios . . . 185
12 Modelos de Provas 195 12.1 Provas 2011 . . . 195
12.1.1 Prova 1 . . . 195
12.1.2 Prova 2 . . . 198
12.1.3 Prova 2- Segunda Chamada . . . 201
12.1.4 Prova 3 . . . 202
12.1.5 Prova Extra . . . 205
12.2 Provas 2013 . . . 207
12.2.1 Prova 1 . . . 207
12.2.2 Prova 2 . . . 211
12.2.3 Prova 3 . . . 214
12.3 Provas 2014 . . . 217
12.3.1 Prova 1 . . . 217
12.3.2 Prova 2 . . . 220
12.3.3 Prova 3 . . . 224
12.4 Provas 2015 . . . 227
12.4.1 Prova 1 . . . 227
12.4.2 Prova Extra . . . 230
12.4.3 Prova 2 . . . 231
Cap´ıtulo 1
Conceitos de Probabilidade
1.1 Introdu¸ c˜ ao
Defini¸c˜ao 1.1.1. Um modelo probabil´ıstico ´e uma tripla (Ω,F,P) onde Ω ´e o espa¸co amostral que consiste dos poss´ıveis resultados do experimento, F ´e uma classe de eventos aleat´orios e P ´e uma probabilidade. A classe de eventos aleat´oriosF ´e uma classe de subconjuntos deΩsatisfazendo:
1. Ω∈ F;
2. Se A∈ F ent˜aoAC∈ F;
3. Se An∈ F paran= 1,2, ... ent˜aoS∞
n=1An∈ F.
Defini¸c˜ao 1.1.2. Uma Probabilidade ´e uma fun¸c˜aoP(.)a valores reais definida em uma classe F de eventos aleat´orios de um espa¸co amostral Ω, tal que
(A1)0≤P(A)≤1, para todoA∈ F, (A2)P(Ω) = 1,
(A3) Aditividade enumer´avel: para qualquer sequˆenciaA1, A2, ...∈ F de eventos dois a dois disjuntos:
P
∞
[
i=1
Ai
!
=
∞
X
i=1
P(Ai).
Defini¸c˜ao 1.1.3. A tripla (Ω,F,P)´e chamada espa¸co de probabilidade.
Defini¸c˜ao 1.1.4. Seja Ωum espa¸co amostral equiprov´avel, ent˜ao P(A) = |A|
|Ω|, para todoA∈ F.
Observa¸c˜ao 1.1.1. No caso de Ωfinito ou infinito enumer´avel, podemos definir a probabilidade na classeF de todos os subconjuntos deΩ, a qual ´e usualmente denotada por2ΩouP(Ω)(conjunto das
2
partes deΩ). Neste caso, escrevendo Ω ={ω1, ω2, ...}, associamos a cadaωi,i= 1,2, ..., um n´umero p(ωi)tal quep(ωi)≥0 eP∞
i=1p(ωi) = 1. Parai= 1,2, ...,p(ωi)´e a probabilidade do evento simples ωi. A probabilidade de um eventoA∈ F ´e definida por:
P(A) = X
ωi∈A
p(ωi).
Defini¸c˜ao 1.1.5. Seja (Ω,F,P) um espa¸co de probabilidade. Sejam A ∈ F e B ∈ F dois eventos aleat´orios tais queP(B)>0. A probabilidade condicional deA dado queB ocorreu ´e dada por:
P(A|B) = P(A∩B) P(B) .
Teorema 1.1.1. Seja(Ω,F,P)um espa¸co de probabilidade. SejamA1, A2, . . . , An eventos aleat´orios emF tais queP(A1∩A2∩. . .∩An−1)>0. Ent˜ao
P(A1∩A2∩. . .∩An) =P(A1).P(A2|A1).P(A3|A1∩A2). . .P(An|A1∩A2∩. . .∩An−1).
Defini¸c˜ao 1.1.6. Seja (Ω,F,P) um espa¸co de probabilidade. Os eventos aleat´orios A1, A2, . . . , An
emF s˜ao ditos independentes se e somente se:
P(Ai1∩Ai2∩ · · · ∩Aik) =P(Ai1).P(Ai2).· · ·P(Aik) para todok= 2,3,4,· · ·n comij ∈ {1,2,3,· · ·, n}paraj = 1,2,· · ·k.
Teorema 1.1.2. Seja (Ω,F,P) um espa¸co de probabilidade e I um conjunto enumer´avel de ´ındices.
Suponha que os eventos aleat´orios Bi, i∈I formem uma parti¸c˜ao do espa¸co amostral Ω, isto ´e i)Bi∩Bj=∅,∀i6=j;
ii)[
i∈I
Bi= Ω;
iii)P(Bi)>0 ∀i.
Dado um evento aleat´orioA∈ F temos:
P(A) =X
i∈I
P(A|Bi).P(Bi).
Teorema 1.1.3. (Continuidade da Probabilidade) Seja(Ω,F,P)um espa¸co de probabilidade e{An} uma sequˆencia de eventos aleat´orios em F tal queAn ⊂An+1 para todon. SeA= limn→∞An ent˜ao
P(A) = lim
n→∞P(An).
De forma an´aloga, se{An}´e uma sequˆencia de eventos aleat´orios emF tal queAn+1⊂An para todo neA= limn→∞An ent˜ao
P(A) = lim
n→∞P(An).
1.2 Vari´ aveis Aleat´ orias
Defini¸c˜ao 1.2.1. Uma vari´avel aleat´oria X em um espa¸co de probabilidade(Ω,F,P)´e uma fun¸c˜ao a valores reais definida emΩ, tal que
{X ≤x}={ω∈Ω :X(ω)≤x} ∈ F;
Defini¸c˜ao 1.2.2. A fun¸c˜ao de distribui¸c˜ao acumulada de uma vari´avelX ´e a fun¸c˜aoF =Fxdefinida por
F(x) =P(X≤x) =P(ω∈Ω :X(ω)≤x), x∈R. Propriedades fundamentais de uma fun¸c˜ao de distribui¸c˜ao:
(F1)F ´e uma fun¸c˜ao n˜ao-decrescente: x < y, ent˜aoF(x)≤F(y).
(F2)F ´e cont´ınua a direita: sexn↓x, ent˜aoF(xn)↓F(x).
(F3) Sexn↓ −∞, ent˜ao F(xn)↓0; sexn↓+∞, ent˜aoF(xn)↓1.
Observa¸c˜ao 1.2.1. Uma fun¸c˜aoF :R→Rque satisfaz (F1), (F2) e (F3) ´e a fun¸c˜ao de distribui¸c˜ao de alguma vari´avel aleat´oria X.
Defini¸c˜ao 1.2.3. Seja X uma vari´avel aleat´oria discreta. A fun¸c˜ao p(x) = P(X =x) ´e chamada fun¸c˜ao de probabilidade deX.
Defini¸c˜ao 1.2.4. Seja X uma vari´avel aleat´oria cont´ınua. Ent˜ao, existe uma fun¸c˜ao f(x)≥0 tal que
F(x) = Z x
−∞
f(t)dt, ∀x∈R. A fun¸c˜aof(x)´e chamada fun¸c˜ao de densidade de probabilidade deX.
Observa¸c˜ao 1.2.2. Temos que
i) Sef(x)´e densidade de probabilidade deX, ent˜ao Z +∞
−∞
f(t)dt= 1.
ii) Sef(x)´e densidade de probabilidade deX, ent˜ao P(a≤X ≤b) =
Z b a
f(x)dx.
Defini¸c˜ao 1.2.5. A esperan¸ca (m´edia, valor esperado) de uma vari´avel aleat´oria X ´e definida por µX =E(X) =X
x
xP(X =x), se X ´e discreta;
µX =E(X) = Z +∞
−∞
xf(x)dx, se X ´e cont´ınua com densidade f.
Observa¸c˜ao 1.2.3. A esperan¸ca est´a definida somente quando a soma (integral) ´e bem definida.
Teorema 1.2.1. Seja X uma vari´avel aleat´oria eh(X)uma fun¸c˜ao de X. Ent˜ao E(h(X)) =X
x
h(x)P(X=x), seX ´e discreta;
E(h(X)) = Z ∞
−∞
h(x)f(x)dx, seX ´e cont´ınua.
Defini¸c˜ao 1.2.6. A variˆancia de uma vari´avel aleat´oriaX integr´avel com esperan¸caµ´e dada por V ar(X) =X
x
(x−µ)2P(X =x), seX ´e discreta;
V ar(X) = Z +∞
−∞
(x−µ)2f(x)dx, seX ´e cont´ınua.
Proposi¸c˜ao 1.2.1.
V ar(X) =E(X2)−[E(X)]2=E(X2)−µ2.
Defini¸c˜ao 1.2.7. Seja X uma vari´avel aleat´oria. A fun¸c˜ao caracter´ıstica de X ´e uma fun¸c˜ao ϕ: R→Cdefinida por:
ϕ(t) =E(eitX), t∈R.
SeX ´e discreta
ϕ(t) =X
k
eitk·P(X =k).
SeX ´e cont´ınua
ϕ(t) = Z +∞
−∞
eitxf(x)dx,
Defini¸c˜ao 1.2.8. SejaX uma vari´avel aleat´oria. A fun¸c˜ao geradora de momentos deX ´e uma fun¸c˜ao M :R→Rdefinida por:
ϕ(t) =E(etX), para todo ttal que|E(etX)|<∞.
SeX ´e discreta
ϕ(t) =X
k
etk·P(X =k).
SeX ´e cont´ınua
ϕ(t) = Z +∞
−∞
etxf(x)dx,
Defini¸c˜ao 1.2.9. Dizemos que a vari´avel aleat´oriaX´e integr´avel seE(X)´e finita. Isto ´e equivalente a queE(|X|)≤ ∞.
1.3 Vetores Aleat´ orios
Defini¸c˜ao 1.3.1. Vetor Aleat´orio
Um vetor (X1, X2,· · · , Xn) onde Xi ´e vari´avel aleat´oria para todo i = 1,2,· · ·, n ´e chamado vetor aleat´orio.
Defini¸c˜ao 1.3.2. Vetor Aleat´orio Discreto
Um vetor aleat´orio (X1, X2,· · ·, Xn) ´e discreto caso todas as vari´aveis aleat´orias Xi, i= 1,2,· · ·, n sejam discretas.
Defini¸c˜ao 1.3.3. Vetor Aleat´orio Cont´ınuo
Um vetor aleat´orio(X1, X2,· · ·, Xn)´e cont´ınuo caso todas as vari´aveis aleat´orias Xi, i= 1,2,· · ·, n sejam cont´ınuas.
Defini¸c˜ao 1.3.4. Fun¸c˜ao de Distribui¸c˜ao Acumulada Conjunta
Seja (X1, X2,· · · , Xn) um vetor aleat´orio. A fun¸c˜ao Seja (X1, X2,· · · , Xn) um vetor aleat´orio dis- creto. A fun¸c˜ao
FX1;X2;···;Xn(x1;x2;· · ·;xn) =P(X1≤x1;X2≤x2;· · ·;Xn≤xn)
´e chamada fun¸c˜ao de distribui¸c˜ao acumulada conjunta do vetor aleat´orio(X1, X2,· · · , Xn). Defini¸c˜ao 1.3.5. Fun¸c˜ao de Probabilidade Conjunta
Seja(X1, X2,· · ·, Xn)um vetor aleat´orio discreto. A fun¸c˜ao
pX1;X2;···;Xn(x1;x2;· · · ;xn) =P(X1=x1;X2=x2;· · ·;Xn=xn)
´e chamada fun¸c˜ao de probabilidade conjunta.
Defini¸c˜ao 1.3.6. Fun¸c˜ao Densidade Conjunta
Seja (X1, X2,· · ·, Xn) um vetor aleat´orio cont´ınuo. A fun¸c˜ao densidade de probabilidade conjunta, denotada porfX1;X2;···;xn(x1;x2;· · ·;xn)´e definida como an-´esima derivada da fun¸c˜ao de distribui¸c˜ao acumulada conjunta onde ela existe. Ou seja,
fX1;X2;···;xn(x1;x2;· · ·;xn) = ∂nFX1;X2;···;Xn(x1;x2;· · ·;xn)
∂x1∂x2· · ·∂xn
Defini¸c˜ao 1.3.7. Fun¸c˜ao de Probabilidade Marginal
Seja(X1, X2,· · ·, Xn)um vetor aleat´orio discreto. A fun¸c˜ao pX2;···;Xn(x2;· · ·;xn) =X
x1
pX1;X2;···;Xn(x1;x2;· · ·;xn)
´e chamada fun¸c˜ao de probabilidade marginal de(X2, X3,· · · , Xn).
Defini¸c˜ao 1.3.8. Fun¸c˜ao Densidade Marginal
Seja(X1, X2,· · ·, Xn)um vetor aleat´orio cont´ınuo. A fun¸c˜ao fX2;···;Xn(x2;· · · ;xn) =
Z ∞
−∞
fX1;X2;···;Xn(x1;x2;· · · ;xn)dx1
´e chamada fun¸c˜ao densidade marginal de (X2, X3,· · ·, Xn).
Defini¸c˜ao 1.3.9. Independˆencia de Vari´aveis Aleat´orias
Seja(X1, X2,· · ·, Xn)um vetor aleat´orio. As vari´aveis aleat´oriasX1, X2,· · ·, Xn s˜ao ditas indepen- dentes se para quaisquer conjuntosAi⊂R(boreliano), i= 1,2,· · ·, nvale
P(X1∈A1;X2∈A2;· · ·;Xn ∈An) =
n
Y
i=1
[P(Xi∈Ai)].
Defini¸c˜ao 1.3.10. Covariˆancia entre Vari´aveis Aleat´orias Seja(X1, X2)um vetor aleat´orio bivariado. A fun¸c˜ao
Cov(X1;X2) =E[(X1−E(X1))(X2−E(X2))]
´e chamada covariˆancia entre as vari´aveis aleat´orias X1 eX2.
Teorema 1.3.1. Seja (X1, X2,· · ·, Xn) um vetor aleat´orio e h(X1, X2,· · · , Xn) uma fun¸c˜ao de (X1, X2,· · ·, Xn). Ent˜ao se(X1, X2,· · · , Xn)´e discreto,
E(h(X1, X2,· · · , Xn)) =X
x1
X
x2
· · ·X
xn
h(x1, x2,· · ·, xn)P(X1=x1, X2=x2,· · ·Xn=xn).
Por outro lado,(X1, X2,· · ·, Xn)se ´e cont´ınuo E(h(X1, X2,· · ·, Xn)) =
Z ∞
−∞
Z ∞
−∞
· · · Z ∞
−∞
h(x1, x2,· · · , xn)f(x1, x2,· · · , xn)dx1dx2· · ·dxn.
Corol´ario 1.3.1. Seja(X1, X2,· · ·, Xn)um vetor aleat´orio. Ent˜ao seE(X1+X2+· · ·Xn)faz sentido
E
n
X
i=1
Xi
!
=
n
X
i=1
E(Xi).
Corol´ario 1.3.2. Se as vari´aveis aleat´oriasX1, X2,· · ·, Xn s˜ao independentes ent˜ao E
n
Y
i=1
Xi
!
=
n
Y
i=1
E(Xi).
Teorema 1.3.2. Se as vari´aveis aleat´orias X1, X2,· · · , Xn s˜ao independentes ent˜ao V ar
n
X
i=1
Xi
!
=
n
X
i=1
V ar(Xi).
1.4 Desigualdades
Teorema 1.4.1. Desigualdade de Markov
SejaX uma vari´avel aleat´oria comP(X ≥0) = 1. Ent˜ao, para qualquer >0, P(X ≥)≤ E(X)
. Teorema 1.4.2. Desigualdade de Markov
SejaX uma vari´avel aleat´oria qualquer. Ent˜ao, para qualquer >0 e para todo t >0, P(|X| ≥)≤ E(|X|t)
t . Teorema 1.4.3. Desigualdade de Chebyshev
SejaX uma vari´avel aleat´oria comE(X)<∞. Ent˜ao, para qualquer >0, P(|X−E(X)| ≥)≤ V ar(X)
2 . Teorema 1.4.4. Desigualdade de Jensen
Sejah:R→R uma fun¸c˜ao convexa. Se a vari´avel aleat´oriaX ´e integr´avel, ent˜ao E(h(X))≥h(E(X)).
Teorema 1.4.5. Limitantes de Chernoff
SejaX uma vari´avel aleat´oria qualquer eauma constante real. Ent˜ao P(X≥a)≤e−taMX(t)para todot >0;
P(X≤a)≤e−taMX(t)para todot <0.
Teorema 1.4.6. Desigualdade de Cauchy-Schwarz:
SejamX e Y vari´aveis aleat´orias com variˆancias finitas. Ent˜ao
|E(XY)| ≤[E(X2)E(Y2)]12.
Teorema 1.4.7. Desigualdade de Holder:
Suponha quep eq satisfazem p >1,q >1 e 1p+1q = 1. SejamX eY vari´aveis aleat´orias tais que E(|X|p)<∞eE(|Y|q)<∞. Ent˜ao
E(|XY|)≤[E(|X|p)]1p[E(|Y|q)]1q.
1.5 Teoremas Limites
Defini¸c˜ao 1.5.1. Convergˆencia em Probabilidade
SejamX1, X2, ..., X vari´aveis aleat´orias em um espa¸co de probabilidade (Ω,F,P). Dizemos que Xn
converge paraX em probabilidade (Xn
−→P X) se para qualquer >0,
P(|Xn−X|> )→0quando n→ ∞.
Defini¸c˜ao 1.5.2. Convergˆencia Quase Certa
SejamX1, X2, ..., X vari´aveis aleat´orias em um espa¸co de probabilidade (Ω,F,P). Dizemos que Xn converge paraX quase certamente (Xn−→q.c. X) se o evento {ω∈Ω :Xn(ω)→X(ω)quandon→ ∞}
tem probabilidade 1.
Defini¸c˜ao 1.5.3. Convergˆencia em Distribui¸c˜ao
SejamX1, X2, ..., X vari´aveis aleat´orias. Dizemos que Xn converge para X em distribui¸c˜ao (Xn
−→D
X) se
P(Xn ≤x)→P(X ≤x)quando n→ ∞.
Teorema 1.5.1. Lei Fraca dos Grandes N´umeros
SejaX1, X2, X3, ...uma sequˆencia de vari´aveis independentes e identicamente distribu´ıdas, com m´edia comum (µ) finita. DefinaSn=X1+X2+...+Xn. Ent˜ao, Snn −→P µ.
Teorema 1.5.2. Lei Forte dos Grandes N´umeros
SejaX1, X2, X3, ...uma sequˆencia de vari´aveis independentes e identicamente distribu´ıdas, com m´edia comum (µ) finita. DefinaSn=X1+X2+...+Xn. Ent˜ao, Snn −→q.c. µ.
Teorema 1.5.3. Teorema Central do Limite
SejaX1, X2, X3, ...uma sequˆencia de vari´aveis independentes e identicamente distribu´ıdas, com m´edia µ(µ <∞) e variˆancia σ2 ( 0< σ2<∞). DefinaSn =X1+X2+...+Xn e Zn = Snσ−nµ√n . Ent˜ao Zn
−→D Z, ondeZ ´e normal padr˜ao.
Teorema 1.5.4. Lema de Borel Cantelli
Seja(Ω,F,P)um espa¸co de probabilidade e{An}n≥1 eventos alat´orios emF.
a) Se os eventosAn satisfazem
∞
X
n=1
P(An)<∞ent˜ao P(An Infinitas Vezes) = 0.
b) Se os eventosAn s˜ao independentes e satisfazem
∞
X
n=1
P(An) =∞ent˜aoP(An Infinitas Vezes) = 1.
Teorema 1.5.5. Sejam X1, X2,· · · eX vari´aveis aleat´orias inteiras e n˜ao-negativas. Ent˜ao, Xn−→D X ⇔limP(Xn=k) =P(X=k) para todok∈N.
Teorema 1.5.6. Sejam X1, X2,· · · e X vari´aveis aleat´orias em um mesmo espa¸co de probabilidade (Ω,F,P). Ent˜ao,
Xn−→q.c. X ⇔P(|Xn−X|> Infinitas Vezes) = 0, para todo >0.
Teorema 1.5.7. Teorema de Scheff´e
Sejam X1, X2,· · · e X vari´aveis aleat´orias cont´ınuas com densidades respectivas f1, f2,· · · e f. Se fn(x)→f(x)quandon→ ∞ para quase todox, ent˜ao Xn
−→D X. Teorema 1.5.8. Teorema da Convergˆencia Mon´otona
Sejam X1, X2,· · · e X vari´aveis aleat´orias n˜ao negativas. Se Xn ↑ X quase certamente quando n→ ∞, ent˜aoE(Xn)↑E(X)quandon→ ∞.
Teorema 1.5.9. Teorema da Convergˆencia Dominada
SejamX1, X2,· · · eX vari´aveis aleat´orias. Suponha que |Xn| ≤Y para todo n, ondeY ´e integr´avel e queXn →X. Ent˜ao,X eXn s˜ao integr´aveis e quase certamentelimE(Xn) =E(X).
1.6 Exerc´ıcios
Exerc´ıcio 1.6.1. SejamA1, A2, ... eventos aleat´orios independentes em um espa¸co de probabilidade (Ω,F,P). Prove que
P
∞
\
k=1
Ak
!
=
∞
Y
k=1
P(Ak)
Exerc´ıcio 1.6.2. Um dado honesto ´e lan¸cado infinitas vezes, de maneira independente. Seja A o evento “ Ocorre face cinco pelo menos uma vez” e B o evento “Ocorre face cinco em todos os lan¸camentos”. Mostre que
P(A) = 1eP(B) = 0.
Exerc´ıcio 1.6.3. Um experimento ´e realizado de maneira independente infinitas vezes. Seja pn a probabilidade de sucesso na n-´esima tentativa. Calcule a probabilidade dos eventos A:“Ocorrer pelo menos um sucesso” e B:“Ocorrer sucesso em todas as tentativas” quando
pn= 1− 1
(n+ 1)2 e pn= 1− 1 n+ 1
Exerc´ıcio 1.6.4. Suponha que a vida ´util de certo tipo de lˆampada tenha distribui¸c˜ao exponencial com parˆametroλ. Seja T a vida ´util de uma lˆampada desse tipo. Mostre que
P(T > t+s|T > t) =P(T > s),∀ s e t >0.
Interprete esse resultado.
Exerc´ıcio 1.6.5. Considere a seguinte situa¸c˜ao hipot´etica. Uma crian¸ca entra em uma lan house para jogar determinado “game”e decide que s´o ir´a parar de jogar quando passar por determinada fase do jogo. Suponha que o tempoT para ela alcan¸car o objetivo seja uma vari´avel aleat´oria exponencial de parˆametro 2 (quando o tempo ´e medido em horas). Admita que a hora de uso de um computador custe R$ 5,00 e que o excesso de alguns minutos no tempo de uso final ´e cobrado como 1 hora. Por exemplo, se um cliente usa o computador por 3 horas e 20 minutos, pagar´a por 4 horas. Seja X o valor pago pela crian¸ca ap´os realizar seu objetivo.
a) Calcule com todos os detalhes o valor esperado deT.
b) Calcule com todos os detalhes o valor esperado deX.
Exerc´ıcio 1.6.6. Sejam X1, X2,· · · , Xn vari´aveis aleat´orias independentes cada uma com distri- bui¸c˜ao exponencial de parˆametro λ. Seja Yi =X1+X2+· · ·+Xi,i= 1,2,· · · , n.
a) Mostre queYn tem distribui¸c˜ao gama(n, λ).
b) CalculeE(Yn).
Exerc´ıcio 1.6.7. Um dado honesto ´e lan¸cado infinitas vezes independentemente. SejamX1, X2,· · · as vari´aveis aleat´orias definidas por
Xi=
1, se o i-´esimo e o (i + 1)-´esimo lan¸camentos resultam em face cinco, 0, caso contr´ario.
a) Obtenha E(Xi) e Var(Xi).
b) Mostre que
Cov(Xi, Xj) =
5
1296, se j=i+ 1, 0, se j > i+ 1.
c) SejaSn=Pn
i=1Xn. Determine E(Sn) e Var(Sn).
d) Mostre que Snn →P 361.
Exerc´ıcio 1.6.8. A quantidade de tempo que certo tipo de componente funciona antes de falhar ´e uma vari´avel aleat´oria com fun¸c˜ao densidade de probabilidade
f(x) =
2x, 0< x <1;
0, caso contr´ario.
Assim que o componente falha, ele ´e imediatamente substitu´ıdo por outro do mesmo tipo. Se Xi
representa o tempo de vida do i-´esimo componente utilizado, ent˜aoSn = Σni=1Xirepresenta o instante dan-´esima falha. A taxa de falhas r a longo prazo ´e definida por
r= lim
n→∞
n Sn
.
Supondo que as vari´aveis aleat´oriasXi,i≥1, sejam independentes, determiner.
Exerc´ıcio 1.6.9. a) Enuncie o Teorema Central do Limite para vari´aveis aleat´orias independentes e identicamente distribu´ıdas. Fa¸ca um breve coment´ario da prova desse resultado. Dica: Lembre-se que seX ∼Normal(0,1) ent˜ao
ϕX(t) =e−t
2 2.
b) Considere o experimento de lan¸car um dado honesto 6000 vezes. Qual ´e a probabilidade de se obter mais que 1024 vezes a face cinco?
c) SejaX uma vari´avel aleat´oria Cauchy padr˜ao, isto ´eX tem densidade dada por f(x) = 1
π(1 +x2), −∞< x <∞.
Mostre que
ϕX(t) =e−|t|. Obs.:Pode usar
1 π
Z ∞
−∞
cos(tx)
1 +x2dx=e−|t|.
d) SejamX1, X2,· · ·, Xn vari´aveis aleat´orias independentes e identicamente distribu´ıdas com distri- bui¸c˜ao comum Cauchy padr˜ao. Mostre que
Sn
n = X1+· · ·+Xn
n tamb´em ´e Cauchy padr˜ao. O TCL vale nesse caso?
Exerc´ıcio 1.6.10. Um ˆonibus parte com 20 pessoas e tem em seu trajeto 10 pontos diferentes, pa- rando em um ponto somente se uma ou mais pessoas solicitarem. Suponha que cada passageiro escolhe com igual probabilidade o ponto em que vai parar e que as escolhas s˜ao independentes de passageiro para passageiro. Determine o n´umero esperado de paradas feitas pelo ˆonibus.
Cap´ıtulo 2
Distribui¸ c˜ oes Condicionais
2.1 Introdu¸ c˜ ao
2.2 Distribui¸ c˜ oes Condicionais
Defini¸c˜ao 2.2.1. Fun¸c˜ao de Probabilidade Condicional
Sejam X e Y vari´aveis aleat´orias discretas. A fun¸c˜ao de probabilidade condicional de X dado que Y =y ´e definida por
pX|Y(x|y) =P(X=x|Y =y) =pX,Y(x, y)
pY(y) , desde que pY(y)>0.
Analogamente, a fun¸c˜ao de probabilidade condicional deY dado queX=x´e definida por pY|X(y|x) =P(Y =y|X=x) =pX,Y(x, y)
pX(x) , desde que pX(x)>0.
Exemplo 2.2.1. A fun¸c˜ao de probabilidade conjunta de uma vari´avel aleat´oria bivariada (X, Y) ´e dada por
pX,Y(x, y) =
k(2x+y) x= 1,2 e y= 1,2.
0 caso contr´ario.
ondek ´e uma constante.
a) Obtenhak.
b) Calcule as fun¸c˜oes de probabilidade condicionaispY|X(y|x)e pX|Y(x|y).
c) CalculepY|X(y|x= 1) epX|Y(x|y= 1).
d) CalculeP(X=x|Y)eP(Y =y|X).
13
Defini¸c˜ao 2.2.2. Fun¸c˜ao Densidade Condicional
SejamX e Y vari´aveis aleat´orias cont´ınuas. A fun¸c˜ao densidade condicional deX dado queY =y
´e definida por
fX|Y(x|y) = fX,Y(x, y)
fY(y) , desde quefY(y)>0.
Analogamente, a fun¸c˜ao densidade condicional deY dado queX =x´e definida por fY|X(y|x) =fX,Y(x, y)
fX(x) , desde quefX(x)>0.
Exemplo 2.2.2. A densidade conjunta de uma vari´avel aleat´oria bivariada(X, Y)´e dada por
fX,Y(x, y) =
kxy 0< x < y <1 0 caso contr´ario.
ondek ´e uma constante.
a) Obtenhak.
b) Calcule as densidades condicionaisfY|X(y|x)efX|Y(x|y).
2.3 Esperan¸ ca Condicional
Defini¸c˜ao 2.3.1. Esperan¸ca Condicional- Caso Discreto
SejamX eY vari´aveis aleat´orias discretas. A esperan¸ca condicional deX dado queY =y´e definida por
E(X|Y =y) =X
x
xpX|Y(x|y), desde quepY(y)>0.
Analogamente, a esperan¸ca condicional deY dado queX =x´e definida por E(Y|X =x) =X
y
ypY|X(y|x), desde quepX(x)>0.
Exemplo 2.3.1. A fun¸c˜ao de probabilidade conjunta de uma vari´avel aleat´oria bivariada (X,Y) ´e dada por
pX,Y(x, y) =
k(2x+ 3y) x= 1,2,3 e y= 1,2,3.
0 caso contr´ario.
ondek ´e uma constante.
a) Obtenhak.
b) Obtenha as fun¸c˜oes de probabilidade marginal deX eY. c) CalculeE(X|Y = 1),E(X|Y = 2) eE(X|Y = 3).
d) CalculeE(X|Y =y)eE(Y|X =x).
e) CalculeE(X|Y),E(Y|X),E[E(X|Y)]eE[E(Y|X)].
Defini¸c˜ao 2.3.2. Esperan¸ca Condicional- Caso Cont´ınuo
SejamX eY vari´aveis aleat´orias cont´ınuas. A esperan¸ca condicional deX dado queY =y´e definida por
E(X|Y =y) = Z ∞
−∞
xfX|Y(x|y)dx.
Analogamente, a esperan¸ca condicional deY dado queX =x´e definida por E(Y|X =x) =
Z
−∞
yfY|X(y|x)dy.
Exemplo 2.3.2. A densidade de probabilidade conjunta de um vetor aleat´orio bivariado ´e dada por
fX,Y(x, y) =
kxy 0< x <2, 0< y < x 0 caso contr´ario.
ondek ´e uma constante.
a) CalculeE(X|Y = 1) eE(Y|X = 1) d) CalculeE(X|Y =y)eE(Y|X =x).
e) CalculeE(X|Y),E(Y|X),E[E(X|Y)]eE[E(Y|X)].
Proposi¸c˜ao 2.3.1. SejamX eY vari´aveis aleat´orias discretas. SeB⊂Rent˜ao P(X ∈B|Y =y) =X
x∈B
P(X =x|Y =y).
Exemplo 2.3.3. A fun¸c˜ao de probabilidade conjunta de uma vari´avel aleat´oria bivariada (X, Y) ´e dada por
pX,Y(x, y) =
k(2x+y) x= 1,2 e y= 1,2.
0 caso contr´ario.
ondek ´e uma constante.
CalculeP(X= 1|Y = 1).
Proposi¸c˜ao 2.3.2. SejamX eY vari´aveis aleat´orias cont´ınuas. SeB⊂Rent˜ao P(X∈B|Y =y) =
Z
x∈B
fX|Y(x|y)dx.
Exemplo 2.3.4. A densidade de probabilidade conjunta de um vetor aleat´orio bivariado ´e dada por
fX,Y(x, y) =
x+y
8 0< x <2, 0< y <2 0 caso contr´ario.
ondek ´e uma constante.
a) CalculeP(X <1|Y = 1).
b) CalculeE(X|Y = 1).
Teorema 2.3.1. Princ´ıpio da Substitui¸c˜ao para a Esperan¸ca Condicional Sejah(X, Y)uma fun¸c˜ao das vari´aveis aleat´oriasX eY. Ent˜ao
E(h(X, Y)|Y =y) =E(h(X, y)|Y =y).
Exemplo 2.3.5. Um minerador est´a preso em uma mina contendo 3 portas. A primeira porta leva a um t´unel que o levar´a a sa´ıda ap´os 2 horas de viagem. A segunda porta leva a um t´unel que far´a com que ele retorne `a mina ap´os 3 horas de viagem. A terceira porta leva a um t´unel que far´a com que ele retorne `a mina ap´os 8 horas. Considere que em todo o tempo o minerador escolhe qualquer uma das portas com igual probabilidade. SejaT o tempo at´e o minerador sair livre. Defina uma sequˆencia de v.a.i.i.d. X1, X2,· · · e um tempoN (n´umero de vezes que o minerador abre portas antes de escolher a porta para sa´ıda) tal que
T =
N
X
i=1
Xi
Obs.: Vocˆe pode supor que o minerador continua escolhendo portas aleatoriamente mesmo ap´os ele alcan¸car a liberdade.
Calcule
E
"N X
i=1
Xi|N =n
# .
Esta quantidade ´e igual a E
" n X
i=1
Xi
#
?
Corol´ario 2.3.1. Sejamg(X)eh(Y)fun¸c˜oes das vari´aveis aleat´oriasX eY, respectivamente. Ent˜ao E(g(X).h(Y)|Y =y) =h(y)E(g(X)|Y =y).
Teorema 2.3.2. Sejam X e Y vari´aveis aleat´orias tais queE(X)´e finita . Ent˜ao E(E(X|Y)) =E(X).
Ou seja, seY ´e discreta, ent˜ao
E(X) =X
y
E(X|Y =y)P(Y =y).
Por outro lado, seY ´e cont´ınua com fun¸c˜ao densidadefY E(X) =
Z ∞
−∞E(X|Y =y)fY(y)dy.
Exemplo 2.3.6. Um minerador est´a preso em uma mina contendo 3 portas. A primeira porta leva a um t´unel que o levar´a a sa´ıda ap´os 2 horas de viagem. A segunda porta leva a um t´unel que far´a com que ele retorne `a mina ap´os 3 horas de viagem. A terceira porta leva a um t´unel que far´a com que ele retorne `a mina ap´os 8 horas. Considere que em todo o tempo o minerador escolhe qualquer uma das portas com igual probabilidade. SejaT o tempo at´e o minerador sair livre. Defina uma sequˆencia de v.a.i.i.d. X1, X2,· · · e um tempoN (n´umero de vezes que o minerador abre portas antes de escolher a porta para sa´ıda) tal que
T =
N
X
i=1
Xi
Obs.: Vocˆe pode supor que o minerador continua escolhendo portas aleatoriamente mesmo ap´os ele alcan¸car a liberdade. Calcule E(T).
Corol´ario 2.3.2. Seja Y uma vari´avel aleat´oria discreta. Ent˜ao P(A) =X
y
P(A|Y =y)P(Y =y).
Exemplo 2.3.7. O tempo para um menino terminar a disputa de qualquer fase de um jogo de v´ıdeo game ´e uma vari´avel aleat´oria exponencial de parˆametro λ. O menino decide que ap´os terminar a disputa de cada fase ir´a lan¸car um dado honesto e caso saia face cinco ir´a parar de jogar e iniciar as tarefas da escola imediatamente. Caso saia face diferente de cinco iniciar´a uma nova fase. Considere desprez´ıvel o tempo gasto com os lan¸camentos do dado. Seja X o tempo at´e que o menino inicie as tarefas escolares. Qual a distribui¸c˜ao de X?
Corol´ario 2.3.3. Seja Y uma vari´avel aleat´oria cont´ınua com densidadefY. Ent˜ao P(A) =
Z ∞
−∞
P(A|Y =y)fY(y)dy.
Exemplo 2.3.8. Suponha que num cl´assico entre Goi´as e Vila Nova a partir do tempot= 0 torcedo- res do Goi´as chegam a bilheteria do Est´adio Serra Dourada segundo um processo de Poisson de taxa λtorcedores por minuto. De forma an´aloga, torcedores do Vila Nova chegam a bilheteria do Est´adio Serra Dourada segundo um processo de Poisson de taxaµ torcedores por minuto. A partir do tempo t= 0 qual ´e a probabilidade do primeiro torcedor a chegar ser do Goi´as?
Exemplo 2.3.9. O n´umero de e-mails que chegam a um servidor no intervalo de tempo [0, t] dado em minutos ´e, para cadat >0, uma vari´avel aleat´oriaNtcom distribui¸c˜ao de Poisson com parˆametro λt. Somente um computador ´e conectado ao servidor para ler os e-mails recebidos.
a) Dado que trˆes e-mails chegaram no primeiro minuto, qual ´e a probabilidade de que exatamente dois tenham chegado nos primeiros 15 segundos?
b) Se o tempo de vidaT desse computador tem distribui¸c˜ao exponencial de parˆametroθ. Al´em disso, NteT s˜ao independentes para todo t. Obtenha a distribui¸c˜ao do n´umero de e-mails lidos at´e o com- putador falhar.
Corol´ario 2.3.4. Seja h(X)´e uma vari´avel aleat´oria com m´edia finita, ent˜ao E(h(X)) =E[E(h(X)|Y)].
Exemplo 2.3.10. Defina SN = X1+X2+X3 +· · ·+XN onde as vari´aveis aleat´orias Xi s˜ao independentes e identicamente distribu´ıdas com distribui¸c˜ao comum exponencial de parˆametro λeN tem distribui¸c˜ao geom´etrica de parˆametro p. Encontre a distribui¸c˜ao deSN.
Teorema 2.3.3.SejaXuma vari´avel aleat´oria cont´ınua com densidadefXeY uma vari´avel aleat´oria discreta. Ent˜ao
fX|Y(x|y) =P(Y =y|X =x)
P(Y =y) .fX(x), desde queP(Y =y)>0.
Exemplo 2.3.11. O tempo para um menino terminar a disputa de qualquer fase de um jogo de v´ıdeo game ´e uma vari´avel aleat´oria exponencial de parˆametro λ. O menino decide que ap´os terminar a disputa de cada fase ir´a lan¸car um dado honesto e caso saia face cinco ir´a parar de jogar e iniciar as tarefas da escola imediatamente. Caso saia face diferente de cinco iniciar´a uma nova fase. Considere desprez´ıvel o tempo gasto com os lan¸camentos do dado. Seja X o tempo at´e que o menino inicie as tarefas escolares e N o n´umero de fases disputadas por ele antes de iniciar as tarefas escolares.
CalculeP(N=n|X =x)e E(N|X).
2.4 Exerc´ıcios
Exerc´ıcio 2.4.1. A fun¸c˜ao de probabilidade conjunta de uma vari´avel aleat´oria bivariada (X,Y) ´e dada por
pX,Y(x, y) =
k(2x+ 3y) x= 1,2,3 e y= 1,2,3.
0 caso contr´ario.
onde k ´e uma constante.
a) Obtenha k.
b) Obtenha as fun¸c˜oes de probabilidade marginal de X e Y.
c) CalculeE(X|Y = 1),E(X|Y = 2) eE(X|Y = 3).
Exerc´ıcio 2.4.2. A fun¸c˜ao de probabilidade conjunta de uma vari´avel aleat´oria bivariada (X, Y) ´e dada por
pX,Y(x, y) =
1
30x2y sex= 1,2, y= 1,2,3.
0 caso contr´ario.
a) CalculeE(X|Y = 2).
b) CalculeE(Y|X).
Exerc´ıcio 2.4.3. A densidade de probabilidade conjunta de um vetor aleat´orio bivariado ´e dada por
fX,Y(x, y) =
8xy 0< x < y <1 0 caso contr´ario.
a) CalculeE(Y|X= 0,5).
b) CalculeP(X ≤0,5|Y = 0,8).
Exerc´ıcio 2.4.4. O n´umero de clientes Y que chegam a um caixa eletrˆonico tem distribui¸c˜ao de Poisson com parˆametro X, sendo X a intensidade com que os clientes chegam ao caixa eletrˆonico.
Supondo queX tem distribui¸c˜ao Gama(α, 1), encontre a fun¸c˜ao de probabilidade da vari´avel aleat´oria Y.
Exerc´ıcio 2.4.5. O n´umero de e-mails que chegam a um servidor no intervalo de tempo [0, t]´e, para cadat > 0, uma vari´avel aleat´oria Nt com distribui¸c˜ao de Poisson com parˆametro λt. Somente um computador ´e conectado ao servidor para ler os e-mails recebidos. O tempo de vidaT desse computa- dor tem distribui¸c˜ao exponencial de parˆametro θ. Al´em disso, Nt eT s˜ao independentes para todo t.
Obtenha a distribui¸c˜ao do n´umero de e-mails lidos at´e o computador falhar.
Exerc´ıcio 2.4.6. Sejam X e Y vari´aveis aleat´orias binomiais independentes com parˆametros ne p idˆenticos, calcule o valor esperado condicional de X dado queX+Y =n.
Exerc´ıcio 2.4.7. Uma part´ıcula se movimenta ao longo do conjunto dos inteiros da seguinte maneira.
Se ela est´a na posi¸c˜aoient˜ao se movimenta para a posi¸c˜aoi+ 1com probabilidade 13 e para a posi¸c˜ao i−1 com probabilidade 23. Iniciando na posi¸c˜ao 0, seja p a probabilidade dela em algum momento atingir a posi¸c˜ao 1. Calcule p.
Cap´ıtulo 3
Introdu¸ c˜ ao aos Processos Estoc´ asticos
3.1 Introdu¸ c˜ ao
Defini¸c˜ao 3.1.1. Processo Estoc´astico
Um processo estoc´astico {Xt, t ∈ T}, onde T ´e um conjunto de ´ındices, ´e uma fam´ılia de vari´aveis aleat´orias. Isto ´e, para cadat∈T,Xt´e uma vari´avel aleat´oria
Exemplo 3.1.1. Sejam X1, X2,· · · , Xn,· · · vari´aveis aleat´orias independentes e identicamente dis- tribu´ıdas tais que
P(Xn= 1) =peP(Xn =−1) = 1−p Seja
Sn=
n
X
i=1
Xi, n= 1,2,· · ·
eS0 = 0. A cole¸c˜ao {Sn, n≥0} ´e um processo estoc´astico chamado passeio aleat´orio simples unidi- mensional. Nesse caso,T={0; 1; 2;· · ·;n;· · · }.
Defini¸c˜ao 3.1.2. Espa¸co de Estados
O conjunto E de todos os valores que um processo estoc´astico {Xt, t∈ T} pode assumir ´e chamado espa¸co de estados.
Exemplo 3.1.2. No Exemplo 3.1.1E={· · ·;−2;−1; 0; 1; 2;· · · }.
Defini¸c˜ao 3.1.3. Processo Estoc´astico a Tempo Discreto
Um processo estoc´astico {Xt, t∈T} ´e dito a tempo discreto se o conjunto de ´ındices T associado ´e enumer´avel.
29
Exemplo 3.1.3. Sejam X1, X2,· · · , Xn,· · · vari´aveis aleat´orias independentes e identicamente dis- tribu´ıdas tais que
P(Xn= 1) =peP(Xn =−1) = 1−p Seja
Sn=
n
X
i=1
Xi, n= 1,2,· · ·
eS0= 0. A cole¸c˜ao {Sn, n≥0}´e um processo estoc´astico a tempo discreto.
Defini¸c˜ao 3.1.4. Processo Estoc´astico a Tempo Cont´ınuo
Um processo estoc´asticoX={Xt, t∈T}´e dito a tempo cont´ınuo se o conjunto de ´ındicesT associado
´e n˜ao enumer´avel.
Exemplo 3.1.4. Considere um processo aleat´orioX(t)definido por X(t) =Ycos(ωt+ Θ)
ondeX e Y s˜ao vari´aveis aleat´orias independentes tais queY ∼Uniforme (−A, A) e Θ∼Uniforme (−π, π). O processo X(t)´e um processo a tempo cont´ınuo.
Defini¸c˜ao 3.1.5. Processo Estoc´astico Discreto
Um processo estoc´astico X = {Xt, t ∈ T} ´e dito discreto se o espa¸co de estados E associado ´e enumer´avel.
Exemplo 3.1.5. Considere o espa¸co de estados {0,1,· · · , d} e vari´aveis aleat´orias independentes entre si tais que
SeSn∈ {1,2,· · ·, d−1} ent˜ao P(Xn+1= 1) =peP(Xn+1=−1) = 1−p=q SeSn= 0ent˜aoP(Xn+1= 1) =pe P(Xn+1= 0) = 1−p=q
SeSn=dent˜ao P(Xn+1= 0) =peP(Xn+1=−1) = 1−p=q
O processo assim descrito ´e chamado passeio aleat´orio com barreiras de reten¸c˜ao. Trata-se de um processo estoc´astico discreto.
Defini¸c˜ao 3.1.6. Processo Estoc´astico Cont´ınuo
Um processo estoc´astico X ={Xt, t∈T} ´e dito cont´ınuo se o espa¸co de estadosE associado ´e n˜ao enumer´avel.
Exemplo 3.1.6. Considere um processo aleat´orioX(t)definido por X(t) =Ycos(ωt+ Θ)
ondeX e Y s˜ao vari´aveis aleat´orias independentes tais queY ∼Uniforme (−A, A) e Θ∼Uniforme (−π, π). O processo X(t)´e um processo estoc´astico cont´ınuo.
Defini¸c˜ao 3.1.7. Realiza¸c˜ao de um Processo Estoc´astico
Seja um ponto amostral ω de Ω. A esse ponto associamos Xt(ω) para todo t ∈ T. Esa fun¸c˜ao ´e chamada realiza¸c˜ao do processo X ={Xt, t∈T}.
Exemplo 3.1.7. No Exemplo 3.1.1 um exemplo de realiza¸c˜ao seria A ={0; 1; 2; 3; 4; 5;· · · }. Neste caso,Sn=npara todo n. Ou seja, todos os movimentos ocorrem para a direita.
3.2 Caracteriza¸ c˜ ao de Processos Estoc´ asticos
3.2.1 Descri¸ c˜ ao Probabil´ıstica
Defini¸c˜ao 3.2.1. Especifica¸c˜ao de Primeira Ordem
Um processo estoc´astico X = {Xt, t ∈ T} est´a especificado at´e a primeira ordem caso a fun¸c˜ao de distribui¸c˜ao FXt(x)seja conhecida para todo valor de t∈T. A fun¸c˜ao de distribui¸c˜ao acumulada
FXt(x) =P(Xt≤x)
´e chamada de distribui¸c˜ao de primeira ordem deXt.
Exemplo 3.2.1. Sejam X1, X2,· · · , Xn,· · · vari´aveis aleat´orias independentes e identicamente dis- tribu´ıdas tais que
P(Xn= 1) =peP(Xn =−1) = 1−p Seja
Sn=
n
X
i=1
Xi, n= 1,2,· · ·
eS0= 0. Dˆe a especifica¸c˜ao de Primeira Ordem para este processo.
Exemplo 3.2.2. Considere que as temperaturas medidas em um determinado aeroporto ao meio dia, `a cada dia do ano, geram uma sequˆencia C(1), C(2),· · · , C(365) de poss´ıveis valores aleat´orios (cont´ınuos). Essas medi¸c˜oes foram tomadas ao longo dos ´ultimos 50 anos. Foi observado que em qualquer dia do ver˜ao a temperatura se comporta uniformemente distribu´ıda entre 19 oC e 35 oC.
Calcule a probabilidade que na v´espera do natal os passageiros do aeroporto, ao desembarcarem, sintam uma temperatura acima de 25oC.
Defini¸c˜ao 3.2.2. Especifica¸c˜ao de Segunda Ordem
Um processo estoc´astico X = {Xt, t ∈ T} est´a especificado at´e a segunda ordem caso a fun¸c˜ao de distribui¸c˜ao acumulada conjunta FXt
1,Xt2(x1;x2) seja conhecida para todo para de valores (t1;t2), t1∈T et2∈T. A fun¸c˜ao de distribui¸c˜ao acumulada conjunta
FXt
1,Xt2(x1;x2) =P(Xt1 ≤x1;Xt2≤x2)
´e chamada de distribui¸c˜ao de segunda ordem deXt. Defini¸c˜ao 3.2.3. Especifica¸c˜ao de Ordem m
Um processo estoc´astico X = {Xt, t ∈ T} est´a especificado at´e a ordem m caso a fun¸c˜ao de dis- tribui¸c˜ao acumulada conjunta FXt1,Xt2,···,Xtm(x1;x2;· · · ;xm) seja conhecida para todo conjunto de valores(t1;t2;· · ·;tm),ti∈T parai= 1; 2;· · · ;m. A fun¸c˜ao de distribui¸c˜ao acumulada conjunta
FXt
1,Xt2,···,Xtm(x1;x2;· · · ;xm) =P(Xt1 ≤x1;Xt2 ≤x2;· · ·;Xtm≤xm)
´e chamada de distribui¸c˜ao de ordemm deX.
Exemplo 3.2.3. Numa partida do Goi´as pela Copa do Brasil, torcedores esmeraldinos chegam ao Serra Dourada em instantes aleat´orios pontuais. Seja Sn o tempo em segundos at´e a chegada do n-´esimo esmeraldino. Podemos escrever:
Sn=
n
X
i=1
Ti, n= 1,2,· · ·
eS0= 0, ondeTi ´e o tempo em minutos entre a chegada do i−1-´esimo torcedor e doi-´esimo torce- dor. Suponha que o tempo entre a chegada de dois torcedores esmeraldinos consecutivos ´e uma vari´avel aleat´oria exponencial de parˆametroλ= 100.
a) Dˆe a especifica¸c˜ao de Primeira Ordem para o processo estoc´astico {Sn, n≥0}.
b) Dˆe a especifica¸c˜ao de Ordemm para o processo estoc´astico{Tn, n≥0}.
Defini¸c˜ao 3.2.4. Incrementos de Um Processo Estoc´astico
SejaX ={Xt, t∈T} um processo estoc´astico eXti, i= 1,2,· · ·, ntais queti∈T com0< t1< t2<
· · ·< tn. As vari´aveis aleat´orias
X0;Xt1−X0;Xt2−Xt1;· · · ;Xtn−Xtn−1
s˜ao chamadas incrementos do processoX.
Exemplo 3.2.4. Seja {Xn, n ≥ 0} um processo estoc´astico tal que as vari´aveis aleat´orias Xi s˜ao independentes e identicamente distribu´ıdas com leiP(Xn = 1) =p= 1−P(Xn = 0). Escreva ti =i.
As vari´aveis aleat´orias Xi−Xi−1 s˜ao exemplos de incrementos para o processo{Xn, n≥0}. Qual ´e a distribui¸c˜ao destes incrementos?
3.2.2 Fun¸ c˜ oes do Processo
Defini¸c˜ao 3.2.5. Fun¸c˜ao M´edia
SejaX ={Xt, t∈T} um processo estoc´astico. A fun¸c˜ao m´edia deXt ´e dada por µX(t) =E(Xt).
Defini¸c˜ao 3.2.6. Fun¸c˜ao Variˆancia
SejaX ={Xt, t∈T} um processo estoc´astico. A fun¸c˜ao variˆancia de Xt´e dada por σ2X(t) =V ar(Xt).
Exemplo 3.2.5. SejamX1, X2,· · ·, Xnvari´aveis aleat´orias independentes e identicamente distribu´ıdas tais que
P(Xn= 5) =peP(Xn =−1) = 1−p Seja
Sn=
n
X
i=1
Xi, n= 1,2,· · ·
eS0= 0.
a) Dˆe a distribui¸c˜ao de primeira ordem desse processo.
b) Calcule a m´edia e a variˆancia deSn. Qual ´e o valor m´aximo para a variˆancia deSn?
Defini¸c˜ao 3.2.7. Fun¸c˜ao Autocorrela¸c˜ao
Seja X = {Xt, t ∈ T} um processo estoc´astico. A fun¸c˜ao de autocorrela¸c˜ao ´e uma medida de de- pendˆencia entre as vari´aveis aleat´orias Xt. ´E dada por
RX(t, s) =E(Xt.Xs), t∈T es∈T.
Defini¸c˜ao 3.2.8. Fun¸c˜ao Autocovariˆancia
Seja X ={Xt, t∈ T} um processo estoc´astico. A fun¸c˜ao de autocovariˆancia do processoX ´e dada por
KX(t, s) =Cov(Xt;Xs), t∈T es∈T.
Exemplo 3.2.6. Considere um processo aleat´orio definido por X(t) =Acos(ωt+ Θ),−∞< t <∞
ondeA eω s˜ao constantes e Θ∼Uniforme (-π, π).
a) Calcule a m´edia deX(t).
b) Calcule a variˆancia de X(t).
c) A autocorrela¸c˜ao deX(t).
d) A autocovariˆancia deX(t).
3.3 Classifica¸ c˜ ao de Processos Estoc´ asticos
Defini¸c˜ao 3.3.1. Processo Estacion´ario
Um processo estoc´asticoX =Xt, t∈T ´e dito estritamente estacion´ario se todas as distribui¸c˜oes finito dimensionais permanecem as mesmas sob transla¸c˜oes no tempo, ou seja,
FXt
1,Xt2,···,Xtn(x1;x2;· · ·;xn) =FXt
1 +τ,Xt2 +τ,···,Xtn+τ(x1;x2;· · ·;xn) para todon, para todoτ e todo conjunto de instantes de tempo ti∈T, i= 1,2,· · · , tn. Defini¸c˜ao 3.3.2. Processo Estacion´ario no Sentido Amplo
SejaX ={Xt, t∈T} um processo estoc´astico. Se a condi¸c˜ao de estacionariedade FXt1,Xt2,···,Xtn(x1;x2;· · ·;xn) =FXt1 +τ,Xt2 +τ,···,Xtn+τ(x1;x2;· · ·;xn)
para todoτ e todo conjunto de instantes de tempoti∈T, i= 1,2,· · · , tn, vale paran≤kdizemos que X ´e estacion´ario de ordemk. SeX ´e estacion´ario de ordem 2 dizemos que ´e estacion´ario no sentido amplo.
Defini¸c˜ao 3.3.3. Processos Independentes
Seja X ={Xt, t∈T} um processo estoc´astico. Se Xti, i= 1,2,· · ·, n s˜ao vari´aveis aleat´orias inde- pendentes de modo que para todon= 2,3,· · ·
FXt1,Xt2,···,Xtn(x1;x2;· · · ;xn) =
n
Y
i=1
FXti(xi)
ent˜ao o processo X ´e dito independente.
Defini¸c˜ao 3.3.4. Processo com Incrementos Independentes
Seja X ={Xt, t∈ T} um processo estoc´astico. X tem incrementos independentes se para qualquer escolha de ´ındicesti∈T com0< t1< t2<· · ·< tn os incrementos
X0;Xt1−X0;Xt2−Xt1;· · · ;Xtn−Xtn−1
s˜ao vari´aveis aleat´orias independentes.
Defini¸c˜ao 3.3.5. Processo com Incrementos Independentes Estacion´arios SejaX ={Xt, t∈T} um processo estoc´astico com incrementos independentes. Se dados s ∈ T e t ∈ T arbitr´arios (s < t) Xt−Xs tem a mesma distribui¸c˜ao que Xt+h−Xs+h para qualquer escolha de h diz-se que X tem incrementos independentes estacion´arios.
Defini¸c˜ao 3.3.6. Processo de Markov
Um Processo Estoc´asticoX ={Xt, t∈T}, ondeT ´e um conjunto de ´ındices ´e um processo de Markov se para qualquer escolha de ´ındicest1< t2<· · ·< tn< tn+1 temos
P(Xtn+1≤xn+1|Xt1=x1, Xt2 =x2,· · · , Xtn =xn) =P(Xtn+1 ≤xn+1|Xtn=xn). (3.1)
Exemplo 3.3.1. SejamX1, X2,· · ·, Xnvari´aveis aleat´orias independentes e identicamente distribu´ıdas tais que
P(Xn= 1) =peP(Xn =−1) = 1−p Seja
Sn=
n
X
i=1
Xi, n= 1,2,· · ·
eS0= 0. A cole¸c˜ao {Sn, n≥0}´e um processo aleat´orio chamado passeio aleat´orio simples.
Mostre que este processo ´e uma Cadeia de Markov.
3.4 Exerc´ıcios
Exerc´ıcio 3.4.1. Pede-se:
a) Defina processo estoc´astico.
b) O que ´e uma realiza¸c˜ao de um processo estoc´astico. Dˆe um exemplo.
c) Como se classifica um processo estoc´astico quanto ao tipo de seus estados? Dˆe exemplos.
d) Como se classifica um processo estoc´astico quanto ao seu conjunto de ´ındices T? Dˆe exemplos.
e) Defina distribui¸c˜ao de primeira ordem.
f ) Defina distribui¸c˜ao de ordem n.
g) O que ´e processo estacion´ario?
h) Defina processo estacion´ario no sentido amplo.
i) Defina processo estacion´ario com incrementos independentes.
j) Defina processo markoviano.
Exerc´ıcio 3.4.2. SejamX1, X2,· · · , Xnvari´aveis aleat´orias independentes e identicamente distribu´ıdas tais que
P(Xn= 1) =peP(Xn =−1) = 1−p
Seja
Sn=
n
X
i=1
Xi, n= 1,2,· · ·
e S0 = 0. A cole¸c˜ao {Sn, n≥0} ´e um processo aleat´orio chamado passeio aleat´orio simples unidi- mensional.
a) Descreva o passeio aleat´orio simples.
b) Construa uma realiza¸c˜ao deste processo.
c) Calcule a m´edia e a variˆancia deSn. Qual ´e o valor m´aximo para a variˆancia deSn? d) ParaSn, calcule a fun¸c˜ao autocorrela¸c˜ao.
e) Mostre queSn ´e uma cadeia de Markov.
Exerc´ıcio 3.4.3. Seja {Sn, n≥0} um passeio aleat´orio simples. Defina um processo aleat´orio S(t) tal que
S(t) =Sn, n≤t≤n+ 1 a) DescrevaS(t).
b) Construa uma realiza¸c˜ao deS(t).
c) Qual a m´edia e a variˆancia deS(t).
Exerc´ıcio 3.4.4. Numa partida do Goi´as pela Copa do Brasil, torcedores esmeraldinos chegam ao Serra Dourada em instantes aleat´orios pontuais. Seja Xn o tempo em segundos at´e a chegada do n-´esimo esmeraldino. Podemos escrever:
Xn =
n
X
i=1
Ti, n= 1,2,· · ·
eX0= 0, onde Ti ´e o tempo entre a chegada do n−1-´esimo torcedor e don-´esimo torcedor.
a) Descreva o processo aleat´orio X(n) ={Xn, n≥1}.
b) Construa uma realiza¸c˜ao t´ıpica do processo.
c) Suponha que o tempo entre a chegada de dois torcedores esmeraldinos consecutivos ´e uma vari´avel aleat´oria exponencial de parˆametro λ. Neste caso, obtenha a m´edia,a variˆancia e a distribui¸c˜ao de primeira ordem deXn.
Exerc´ıcio 3.4.5. Considere um processo estoc´astico a tempo discreto X(n) ={Xn, n≥1} onde as Xn s˜ao vari´aveis aleat´orias independentes e identicamente distribu´ıdas com m´ediaµ e variˆancia σ2. a) Calcule a distribui¸c˜ao de ordem n de Xn.
b) Encontre a m´edia e a variˆancia deXn.
c) Encontre a fun¸c˜ao autcorrela¸c˜ao de Xn. d) Encontre a fun¸c˜ao autocovariˆancia deXn.
Exerc´ıcio 3.4.6. Mostre que um processo estoc´astico que ´e estacion´ario de ordem n tamb´em esta- cion´ario de todas as ordens menores que n.
Exerc´ıcio 3.4.7. Seja {Xn, n≥0} uma sequˆencia aleat´oria de v.a.i.i.d. com m´edia 0 e variˆancia 1.
Mostre que{Xn, n≥0}´e um processo estacion´ario no sentido amplo.
Exerc´ıcio 3.4.8. Seja {Xn, n≥0} um processo estoc´astico com incrementos estacion´arios indepen- dentes e assuma queS(0) = 0. Mostre que
E[X(t)] =µ1t,
ondeµ1=E[X(1)].
Exerc´ıcio 3.4.9. SejamX1, X2,· · · , Xnvari´aveis aleat´orias independentes e identicamente distribu´ıdas tais que
P(Xn= 2) =peP(Xn = 1) = 1−p Seja
Sn=
n
X
i=1
Xi, n= 1,2,· · ·
eS0= 0.
a) Descreva o processo aleat´orio {Sn, n= 0,1,2,· · · }.
b) Construa uma realiza¸c˜ao deste processo.
c) Dˆe a distribui¸c˜ao de primeira ordem desse processo.
d) Calcule a m´edia e a variˆancia deSn. Qual ´e o valor m´aximo para a variˆancia deSn?
Exerc´ıcio 3.4.10. Considere um processo aleat´orioX(t)definido por X(t) =Ycos(ωt+ Θ)
ondeX e Y s˜ao vari´aveis aleat´orias independentes tais queY ∼Uniforme (−A, A) e Θ∼Uniforme (−π, π).
a) Descreva este processo aleat´orio.
b) Calcule a m´ediaµ[X(t)]e a variˆancia Var[X(t)].
c) Encontre a fun¸c˜ao autocorrela¸c˜ao RX(t, s).
d) Encontre a fun¸c˜ao autocovariˆancia KX(t, s).
Exerc´ıcio 3.4.11. Considere uma sucess˜ao infinita de provas de Bernoulli. Seja Xt o n´umero de provas at´e obter um sucesso pela t-´esima vez, t = 1,2,· · · (a) Defina o exposto como um processo estoc´astico, indicando o espa¸co dos parˆametros e dos estados.
(b) Determine para cadat a fun¸c˜ao de probabilidade deXt. (c) Represente graficamente uma trajet´oria.
(d) Determine a lei conjunta de (X2, X3, X4).
(e) CalculeP(X4=x|X3=x3, X2=x2) e P(X4=x|X3=x3). Comente o resultado.
(f ) Determine a lei da vari´avel aleat´oria “tempo ou n´umero de provas entre dois sucessos de Ber- noulli”.
(g) Determine a lei da vari´avel aleat´oria “n´umero de provas necess´arias at´e `a ocorrˆencia de dois su- cessos consecutivos de Bernoulli”.