• Nenhum resultado encontrado

PROCESSOS ESTOCÁSTICOS E SUAS APLICAÇÕES

N/A
N/A
Protected

Academic year: 2022

Share "PROCESSOS ESTOCÁSTICOS E SUAS APLICAÇÕES"

Copied!
238
0
0

Texto

(1)

UNIVERSIDADE FEDERAL DE GOI ´AS INSTITUTO DE MATEM ´ATICA E ESTAT´ISTICA

CURSO DE ESTAT´ISTICA

PROCESSOS ESTOC ´ ASTICOS E SUAS APLICAC ¸ ˜ OES

VALDIVINO VARGAS J ´UNIOR

GOI ˆANIA, 2015

(2)

VALDIVINO VARGAS J ´ UNIOR

PROCESSOS ESTOC ´ ASTICOS E SUAS APLICAC ¸ ˜ OES

vvjunior@gmail.com

(3)

Sum´ ario

1 Conceitos de Probabilidade 2

1.1 Introdu¸c˜ao . . . 2

1.2 Vari´aveis Aleat´orias . . . 4

1.3 Vetores Aleat´orios . . . 6

1.4 Desigualdades . . . 8

1.5 Teoremas Limites . . . 8

1.6 Exerc´ıcios . . . 10

2 Distribui¸c˜oes Condicionais 13 2.1 Introdu¸c˜ao . . . 13

2.2 Distribui¸c˜oes Condicionais . . . 13

2.3 Esperan¸ca Condicional . . . 15

2.4 Exerc´ıcios . . . 27

3 Introdu¸c˜ao aos Processos Estoc´asticos 29 3.1 Introdu¸c˜ao . . . 29

3.2 Caracteriza¸c˜ao de Processos Estoc´asticos . . . 31

3.2.1 Descri¸c˜ao Probabil´ıstica . . . 31

3.2.2 Fun¸c˜oes do Processo . . . 34

3.3 Classifica¸c˜ao de Processos Estoc´asticos . . . 36

3.4 Exerc´ıcios . . . 37

4 Processo de Bernoulli 41 4.1 Introdu¸c˜ao . . . 41

4.2 Caracteriza¸c˜ao Adicional do Processo de Bernoulli . . . 43

4.3 Exerc´ıcios . . . 45

3

(4)

5 Processos de Poisson 48

5.1 Introdu¸c˜ao . . . 48

5.2 Superposi¸c˜ao de Processos de Poisson . . . 57

5.3 Decomposi¸c˜ao de Processos de Poisson . . . 58

5.4 Processo de Poisson Composto . . . 61

5.5 Processo de Poisson N˜ao Homogˆeneo . . . 62

5.6 Exerc´ıcios . . . 64

6 Processos de Renova¸c˜ao 75 6.1 Introdu¸c˜ao . . . 75

6.2 Estrutura do Processo . . . 76

6.3 Teoremas Limite . . . 79

6.4 Exerc´ıcios . . . 84

7 Cadeias de Markov a Tempo Discreto 86 7.1 Introdu¸c˜ao . . . 86

7.2 Propriedades da Matriz de Transi¸c˜ao . . . 88

7.3 Distribui¸c˜oes no Processo . . . 96

7.4 Estrutura do Espa¸co de Estados de um Processo Markoviano . . . 105

7.5 Teoremas Limite . . . 118

7.6 Exerc´ıcios . . . 124

8 Passeios Aleat´orios 135 8.1 Introdu¸c˜ao aos Passeios Aleat´orios . . . 135

8.2 Distribui¸c˜oes do Processo . . . 136

8.3 Teoremas Limite . . . 145

8.4 Exerc´ıcios . . . 152

9 Processos de Ramifica¸c˜ao 154 9.1 Introdu¸c˜ao . . . 154

9.2 Probabilidade de Extin¸c˜ao . . . 155

9.3 Exerc´ıcios . . . 158

10 Martingale 161 10.1 Introdu¸c˜ao . . . 161

10.2 Exemplos e Aplica¸c˜oes . . . 163

10.3 Exerc´ıcios . . . 164

(5)

11 Cadeias de Markov a Tempo Cont´ınuo 166

11.1 Introdu¸c˜ao . . . 166

11.2 Estrutura da Cadeia . . . 169

11.3 Gerador Infinitesimal . . . 170

11.4 Teoremas Limite . . . 174

11.5 Processos de Nascimento e Morte . . . 178

11.6 Filas . . . 183

11.7 Exerc´ıcios . . . 185

12 Modelos de Provas 195 12.1 Provas 2011 . . . 195

12.1.1 Prova 1 . . . 195

12.1.2 Prova 2 . . . 198

12.1.3 Prova 2- Segunda Chamada . . . 201

12.1.4 Prova 3 . . . 202

12.1.5 Prova Extra . . . 205

12.2 Provas 2013 . . . 207

12.2.1 Prova 1 . . . 207

12.2.2 Prova 2 . . . 211

12.2.3 Prova 3 . . . 214

12.3 Provas 2014 . . . 217

12.3.1 Prova 1 . . . 217

12.3.2 Prova 2 . . . 220

12.3.3 Prova 3 . . . 224

12.4 Provas 2015 . . . 227

12.4.1 Prova 1 . . . 227

12.4.2 Prova Extra . . . 230

12.4.3 Prova 2 . . . 231

(6)

Cap´ıtulo 1

Conceitos de Probabilidade

1.1 Introdu¸ c˜ ao

Defini¸c˜ao 1.1.1. Um modelo probabil´ıstico ´e uma tripla (Ω,F,P) onde Ω ´e o espa¸co amostral que consiste dos poss´ıveis resultados do experimento, F ´e uma classe de eventos aleat´orios e P ´e uma probabilidade. A classe de eventos aleat´oriosF ´e uma classe de subconjuntos deΩsatisfazendo:

1. Ω∈ F;

2. Se A∈ F ent˜aoAC∈ F;

3. Se An∈ F paran= 1,2, ... ent˜aoS

n=1An∈ F.

Defini¸c˜ao 1.1.2. Uma Probabilidade ´e uma fun¸c˜aoP(.)a valores reais definida em uma classe F de eventos aleat´orios de um espa¸co amostral Ω, tal que

(A1)0≤P(A)≤1, para todoA∈ F, (A2)P(Ω) = 1,

(A3) Aditividade enumer´avel: para qualquer sequˆenciaA1, A2, ...∈ F de eventos dois a dois disjuntos:

P

[

i=1

Ai

!

=

X

i=1

P(Ai).

Defini¸c˜ao 1.1.3. A tripla (Ω,F,P)´e chamada espa¸co de probabilidade.

Defini¸c˜ao 1.1.4. Seja Ωum espa¸co amostral equiprov´avel, ent˜ao P(A) = |A|

|Ω|, para todoA∈ F.

Observa¸c˜ao 1.1.1. No caso de Ωfinito ou infinito enumer´avel, podemos definir a probabilidade na classeF de todos os subconjuntos deΩ, a qual ´e usualmente denotada por2ouP(Ω)(conjunto das

2

(7)

partes deΩ). Neste caso, escrevendo Ω ={ω1, ω2, ...}, associamos a cadaωi,i= 1,2, ..., um n´umero p(ωi)tal quep(ωi)≥0 eP

i=1p(ωi) = 1. Parai= 1,2, ...,p(ωi)´e a probabilidade do evento simples ωi. A probabilidade de um eventoA∈ F ´e definida por:

P(A) = X

ωi∈A

p(ωi).

Defini¸c˜ao 1.1.5. Seja (Ω,F,P) um espa¸co de probabilidade. Sejam A ∈ F e B ∈ F dois eventos aleat´orios tais queP(B)>0. A probabilidade condicional deA dado queB ocorreu ´e dada por:

P(A|B) = P(A∩B) P(B) .

Teorema 1.1.1. Seja(Ω,F,P)um espa¸co de probabilidade. SejamA1, A2, . . . , An eventos aleat´orios emF tais queP(A1∩A2∩. . .∩An−1)>0. Ent˜ao

P(A1∩A2∩. . .∩An) =P(A1).P(A2|A1).P(A3|A1∩A2). . .P(An|A1∩A2∩. . .∩An−1).

Defini¸c˜ao 1.1.6. Seja (Ω,F,P) um espa¸co de probabilidade. Os eventos aleat´orios A1, A2, . . . , An

emF s˜ao ditos independentes se e somente se:

P(Ai1∩Ai2∩ · · · ∩Aik) =P(Ai1).P(Ai2).· · ·P(Aik) para todok= 2,3,4,· · ·n comij ∈ {1,2,3,· · ·, n}paraj = 1,2,· · ·k.

Teorema 1.1.2. Seja (Ω,F,P) um espa¸co de probabilidade e I um conjunto enumer´avel de ´ındices.

Suponha que os eventos aleat´orios Bi, i∈I formem uma parti¸c˜ao do espa¸co amostral Ω, isto ´e i)Bi∩Bj=∅,∀i6=j;

ii)[

i∈I

Bi= Ω;

iii)P(Bi)>0 ∀i.

Dado um evento aleat´orioA∈ F temos:

P(A) =X

i∈I

P(A|Bi).P(Bi).

Teorema 1.1.3. (Continuidade da Probabilidade) Seja(Ω,F,P)um espa¸co de probabilidade e{An} uma sequˆencia de eventos aleat´orios em F tal queAn ⊂An+1 para todon. SeA= limn→∞An ent˜ao

P(A) = lim

n→∞P(An).

De forma an´aloga, se{An}´e uma sequˆencia de eventos aleat´orios emF tal queAn+1⊂An para todo neA= limn→∞An ent˜ao

P(A) = lim

n→∞P(An).

(8)

1.2 Vari´ aveis Aleat´ orias

Defini¸c˜ao 1.2.1. Uma vari´avel aleat´oria X em um espa¸co de probabilidade(Ω,F,P)´e uma fun¸c˜ao a valores reais definida emΩ, tal que

{X ≤x}={ω∈Ω :X(ω)≤x} ∈ F;

Defini¸c˜ao 1.2.2. A fun¸c˜ao de distribui¸c˜ao acumulada de uma vari´avelX ´e a fun¸c˜aoF =Fxdefinida por

F(x) =P(X≤x) =P(ω∈Ω :X(ω)≤x), x∈R. Propriedades fundamentais de uma fun¸c˜ao de distribui¸c˜ao:

(F1)F ´e uma fun¸c˜ao n˜ao-decrescente: x < y, ent˜aoF(x)≤F(y).

(F2)F ´e cont´ınua a direita: sexn↓x, ent˜aoF(xn)↓F(x).

(F3) Sexn↓ −∞, ent˜ao F(xn)↓0; sexn↓+∞, ent˜aoF(xn)↓1.

Observa¸c˜ao 1.2.1. Uma fun¸c˜aoF :R→Rque satisfaz (F1), (F2) e (F3) ´e a fun¸c˜ao de distribui¸c˜ao de alguma vari´avel aleat´oria X.

Defini¸c˜ao 1.2.3. Seja X uma vari´avel aleat´oria discreta. A fun¸c˜ao p(x) = P(X =x) ´e chamada fun¸c˜ao de probabilidade deX.

Defini¸c˜ao 1.2.4. Seja X uma vari´avel aleat´oria cont´ınua. Ent˜ao, existe uma fun¸c˜ao f(x)≥0 tal que

F(x) = Z x

−∞

f(t)dt, ∀x∈R. A fun¸c˜aof(x)´e chamada fun¸c˜ao de densidade de probabilidade deX.

Observa¸c˜ao 1.2.2. Temos que

i) Sef(x)´e densidade de probabilidade deX, ent˜ao Z +∞

−∞

f(t)dt= 1.

ii) Sef(x)´e densidade de probabilidade deX, ent˜ao P(a≤X ≤b) =

Z b a

f(x)dx.

Defini¸c˜ao 1.2.5. A esperan¸ca (m´edia, valor esperado) de uma vari´avel aleat´oria X ´e definida por µX =E(X) =X

x

xP(X =x), se X ´e discreta;

µX =E(X) = Z +∞

−∞

xf(x)dx, se X ´e cont´ınua com densidade f.

(9)

Observa¸c˜ao 1.2.3. A esperan¸ca est´a definida somente quando a soma (integral) ´e bem definida.

Teorema 1.2.1. Seja X uma vari´avel aleat´oria eh(X)uma fun¸c˜ao de X. Ent˜ao E(h(X)) =X

x

h(x)P(X=x), seX ´e discreta;

E(h(X)) = Z

−∞

h(x)f(x)dx, seX ´e cont´ınua.

Defini¸c˜ao 1.2.6. A variˆancia de uma vari´avel aleat´oriaX integr´avel com esperan¸caµ´e dada por V ar(X) =X

x

(x−µ)2P(X =x), seX ´e discreta;

V ar(X) = Z +∞

−∞

(x−µ)2f(x)dx, seX ´e cont´ınua.

Proposi¸c˜ao 1.2.1.

V ar(X) =E(X2)−[E(X)]2=E(X2)−µ2.

Defini¸c˜ao 1.2.7. Seja X uma vari´avel aleat´oria. A fun¸c˜ao caracter´ıstica de X ´e uma fun¸c˜ao ϕ: R→Cdefinida por:

ϕ(t) =E(eitX), t∈R.

SeX ´e discreta

ϕ(t) =X

k

eitk·P(X =k).

SeX ´e cont´ınua

ϕ(t) = Z +∞

−∞

eitxf(x)dx,

Defini¸c˜ao 1.2.8. SejaX uma vari´avel aleat´oria. A fun¸c˜ao geradora de momentos deX ´e uma fun¸c˜ao M :R→Rdefinida por:

ϕ(t) =E(etX), para todo ttal que|E(etX)|<∞.

SeX ´e discreta

ϕ(t) =X

k

etk·P(X =k).

SeX ´e cont´ınua

ϕ(t) = Z +∞

−∞

etxf(x)dx,

Defini¸c˜ao 1.2.9. Dizemos que a vari´avel aleat´oriaX´e integr´avel seE(X)´e finita. Isto ´e equivalente a queE(|X|)≤ ∞.

(10)

1.3 Vetores Aleat´ orios

Defini¸c˜ao 1.3.1. Vetor Aleat´orio

Um vetor (X1, X2,· · · , Xn) onde Xi ´e vari´avel aleat´oria para todo i = 1,2,· · ·, n ´e chamado vetor aleat´orio.

Defini¸c˜ao 1.3.2. Vetor Aleat´orio Discreto

Um vetor aleat´orio (X1, X2,· · ·, Xn) ´e discreto caso todas as vari´aveis aleat´orias Xi, i= 1,2,· · ·, n sejam discretas.

Defini¸c˜ao 1.3.3. Vetor Aleat´orio Cont´ınuo

Um vetor aleat´orio(X1, X2,· · ·, Xn)´e cont´ınuo caso todas as vari´aveis aleat´orias Xi, i= 1,2,· · ·, n sejam cont´ınuas.

Defini¸c˜ao 1.3.4. Fun¸c˜ao de Distribui¸c˜ao Acumulada Conjunta

Seja (X1, X2,· · · , Xn) um vetor aleat´orio. A fun¸c˜ao Seja (X1, X2,· · · , Xn) um vetor aleat´orio dis- creto. A fun¸c˜ao

FX1;X2;···;Xn(x1;x2;· · ·;xn) =P(X1≤x1;X2≤x2;· · ·;Xn≤xn)

´e chamada fun¸c˜ao de distribui¸c˜ao acumulada conjunta do vetor aleat´orio(X1, X2,· · · , Xn). Defini¸c˜ao 1.3.5. Fun¸c˜ao de Probabilidade Conjunta

Seja(X1, X2,· · ·, Xn)um vetor aleat´orio discreto. A fun¸c˜ao

pX1;X2;···;Xn(x1;x2;· · · ;xn) =P(X1=x1;X2=x2;· · ·;Xn=xn)

´e chamada fun¸c˜ao de probabilidade conjunta.

Defini¸c˜ao 1.3.6. Fun¸c˜ao Densidade Conjunta

Seja (X1, X2,· · ·, Xn) um vetor aleat´orio cont´ınuo. A fun¸c˜ao densidade de probabilidade conjunta, denotada porfX1;X2;···;xn(x1;x2;· · ·;xn)´e definida como an-´esima derivada da fun¸c˜ao de distribui¸c˜ao acumulada conjunta onde ela existe. Ou seja,

fX1;X2;···;xn(x1;x2;· · ·;xn) = ∂nFX1;X2;···;Xn(x1;x2;· · ·;xn)

∂x1∂x2· · ·∂xn

Defini¸c˜ao 1.3.7. Fun¸c˜ao de Probabilidade Marginal

Seja(X1, X2,· · ·, Xn)um vetor aleat´orio discreto. A fun¸c˜ao pX2;···;Xn(x2;· · ·;xn) =X

x1

pX1;X2;···;Xn(x1;x2;· · ·;xn)

´e chamada fun¸c˜ao de probabilidade marginal de(X2, X3,· · · , Xn).

(11)

Defini¸c˜ao 1.3.8. Fun¸c˜ao Densidade Marginal

Seja(X1, X2,· · ·, Xn)um vetor aleat´orio cont´ınuo. A fun¸c˜ao fX2;···;Xn(x2;· · · ;xn) =

Z

−∞

fX1;X2;···;Xn(x1;x2;· · · ;xn)dx1

´e chamada fun¸c˜ao densidade marginal de (X2, X3,· · ·, Xn).

Defini¸c˜ao 1.3.9. Independˆencia de Vari´aveis Aleat´orias

Seja(X1, X2,· · ·, Xn)um vetor aleat´orio. As vari´aveis aleat´oriasX1, X2,· · ·, Xn s˜ao ditas indepen- dentes se para quaisquer conjuntosAi⊂R(boreliano), i= 1,2,· · ·, nvale

P(X1∈A1;X2∈A2;· · ·;Xn ∈An) =

n

Y

i=1

[P(Xi∈Ai)].

Defini¸c˜ao 1.3.10. Covariˆancia entre Vari´aveis Aleat´orias Seja(X1, X2)um vetor aleat´orio bivariado. A fun¸c˜ao

Cov(X1;X2) =E[(X1−E(X1))(X2−E(X2))]

´e chamada covariˆancia entre as vari´aveis aleat´orias X1 eX2.

Teorema 1.3.1. Seja (X1, X2,· · ·, Xn) um vetor aleat´orio e h(X1, X2,· · · , Xn) uma fun¸c˜ao de (X1, X2,· · ·, Xn). Ent˜ao se(X1, X2,· · · , Xn)´e discreto,

E(h(X1, X2,· · · , Xn)) =X

x1

X

x2

· · ·X

xn

h(x1, x2,· · ·, xn)P(X1=x1, X2=x2,· · ·Xn=xn).

Por outro lado,(X1, X2,· · ·, Xn)se ´e cont´ınuo E(h(X1, X2,· · ·, Xn)) =

Z

−∞

Z

−∞

· · · Z

−∞

h(x1, x2,· · · , xn)f(x1, x2,· · · , xn)dx1dx2· · ·dxn.

Corol´ario 1.3.1. Seja(X1, X2,· · ·, Xn)um vetor aleat´orio. Ent˜ao seE(X1+X2+· · ·Xn)faz sentido

E

n

X

i=1

Xi

!

=

n

X

i=1

E(Xi).

Corol´ario 1.3.2. Se as vari´aveis aleat´oriasX1, X2,· · ·, Xn s˜ao independentes ent˜ao E

n

Y

i=1

Xi

!

=

n

Y

i=1

E(Xi).

Teorema 1.3.2. Se as vari´aveis aleat´orias X1, X2,· · · , Xn s˜ao independentes ent˜ao V ar

n

X

i=1

Xi

!

=

n

X

i=1

V ar(Xi).

(12)

1.4 Desigualdades

Teorema 1.4.1. Desigualdade de Markov

SejaX uma vari´avel aleat´oria comP(X ≥0) = 1. Ent˜ao, para qualquer >0, P(X ≥)≤ E(X)

. Teorema 1.4.2. Desigualdade de Markov

SejaX uma vari´avel aleat´oria qualquer. Ent˜ao, para qualquer >0 e para todo t >0, P(|X| ≥)≤ E(|X|t)

t . Teorema 1.4.3. Desigualdade de Chebyshev

SejaX uma vari´avel aleat´oria comE(X)<∞. Ent˜ao, para qualquer >0, P(|X−E(X)| ≥)≤ V ar(X)

2 . Teorema 1.4.4. Desigualdade de Jensen

Sejah:R→R uma fun¸c˜ao convexa. Se a vari´avel aleat´oriaX ´e integr´avel, ent˜ao E(h(X))≥h(E(X)).

Teorema 1.4.5. Limitantes de Chernoff

SejaX uma vari´avel aleat´oria qualquer eauma constante real. Ent˜ao P(X≥a)≤e−taMX(t)para todot >0;

P(X≤a)≤e−taMX(t)para todot <0.

Teorema 1.4.6. Desigualdade de Cauchy-Schwarz:

SejamX e Y vari´aveis aleat´orias com variˆancias finitas. Ent˜ao

|E(XY)| ≤[E(X2)E(Y2)]12.

Teorema 1.4.7. Desigualdade de Holder:

Suponha quep eq satisfazem p >1,q >1 e 1p+1q = 1. SejamX eY vari´aveis aleat´orias tais que E(|X|p)<∞eE(|Y|q)<∞. Ent˜ao

E(|XY|)≤[E(|X|p)]1p[E(|Y|q)]1q.

1.5 Teoremas Limites

Defini¸c˜ao 1.5.1. Convergˆencia em Probabilidade

SejamX1, X2, ..., X vari´aveis aleat´orias em um espa¸co de probabilidade (Ω,F,P). Dizemos que Xn

(13)

converge paraX em probabilidade (Xn

−→P X) se para qualquer >0,

P(|Xn−X|> )→0quando n→ ∞.

Defini¸c˜ao 1.5.2. Convergˆencia Quase Certa

SejamX1, X2, ..., X vari´aveis aleat´orias em um espa¸co de probabilidade (Ω,F,P). Dizemos que Xn converge paraX quase certamente (Xn−→q.c. X) se o evento {ω∈Ω :Xn(ω)→X(ω)quandon→ ∞}

tem probabilidade 1.

Defini¸c˜ao 1.5.3. Convergˆencia em Distribui¸c˜ao

SejamX1, X2, ..., X vari´aveis aleat´orias. Dizemos que Xn converge para X em distribui¸c˜ao (Xn

−→D

X) se

P(Xn ≤x)→P(X ≤x)quando n→ ∞.

Teorema 1.5.1. Lei Fraca dos Grandes N´umeros

SejaX1, X2, X3, ...uma sequˆencia de vari´aveis independentes e identicamente distribu´ıdas, com m´edia comum (µ) finita. DefinaSn=X1+X2+...+Xn. Ent˜ao, Snn −→P µ.

Teorema 1.5.2. Lei Forte dos Grandes N´umeros

SejaX1, X2, X3, ...uma sequˆencia de vari´aveis independentes e identicamente distribu´ıdas, com m´edia comum (µ) finita. DefinaSn=X1+X2+...+Xn. Ent˜ao, Snn −→q.c. µ.

Teorema 1.5.3. Teorema Central do Limite

SejaX1, X2, X3, ...uma sequˆencia de vari´aveis independentes e identicamente distribu´ıdas, com m´edia µ(µ <∞) e variˆancia σ2 ( 0< σ2<∞). DefinaSn =X1+X2+...+Xn e Zn = Snσ−nµn . Ent˜ao Zn

−→D Z, ondeZ ´e normal padr˜ao.

Teorema 1.5.4. Lema de Borel Cantelli

Seja(Ω,F,P)um espa¸co de probabilidade e{An}n≥1 eventos alat´orios emF.

a) Se os eventosAn satisfazem

X

n=1

P(An)<∞ent˜ao P(An Infinitas Vezes) = 0.

b) Se os eventosAn s˜ao independentes e satisfazem

X

n=1

P(An) =∞ent˜aoP(An Infinitas Vezes) = 1.

(14)

Teorema 1.5.5. Sejam X1, X2,· · · eX vari´aveis aleat´orias inteiras e n˜ao-negativas. Ent˜ao, Xn−→D X ⇔limP(Xn=k) =P(X=k) para todok∈N.

Teorema 1.5.6. Sejam X1, X2,· · · e X vari´aveis aleat´orias em um mesmo espa¸co de probabilidade (Ω,F,P). Ent˜ao,

Xn−→q.c. X ⇔P(|Xn−X|> Infinitas Vezes) = 0, para todo >0.

Teorema 1.5.7. Teorema de Scheff´e

Sejam X1, X2,· · · e X vari´aveis aleat´orias cont´ınuas com densidades respectivas f1, f2,· · · e f. Se fn(x)→f(x)quandon→ ∞ para quase todox, ent˜ao Xn

−→D X. Teorema 1.5.8. Teorema da Convergˆencia Mon´otona

Sejam X1, X2,· · · e X vari´aveis aleat´orias n˜ao negativas. Se Xn ↑ X quase certamente quando n→ ∞, ent˜aoE(Xn)↑E(X)quandon→ ∞.

Teorema 1.5.9. Teorema da Convergˆencia Dominada

SejamX1, X2,· · · eX vari´aveis aleat´orias. Suponha que |Xn| ≤Y para todo n, ondeY ´e integr´avel e queXn →X. Ent˜ao,X eXn s˜ao integr´aveis e quase certamentelimE(Xn) =E(X).

1.6 Exerc´ıcios

Exerc´ıcio 1.6.1. SejamA1, A2, ... eventos aleat´orios independentes em um espa¸co de probabilidade (Ω,F,P). Prove que

P

\

k=1

Ak

!

=

Y

k=1

P(Ak)

Exerc´ıcio 1.6.2. Um dado honesto ´e lan¸cado infinitas vezes, de maneira independente. Seja A o evento “ Ocorre face cinco pelo menos uma vez” e B o evento “Ocorre face cinco em todos os lan¸camentos”. Mostre que

P(A) = 1eP(B) = 0.

Exerc´ıcio 1.6.3. Um experimento ´e realizado de maneira independente infinitas vezes. Seja pn a probabilidade de sucesso na n-´esima tentativa. Calcule a probabilidade dos eventos A:“Ocorrer pelo menos um sucesso” e B:“Ocorrer sucesso em todas as tentativas” quando

pn= 1− 1

(n+ 1)2 e pn= 1− 1 n+ 1

Exerc´ıcio 1.6.4. Suponha que a vida ´util de certo tipo de lˆampada tenha distribui¸c˜ao exponencial com parˆametroλ. Seja T a vida ´util de uma lˆampada desse tipo. Mostre que

P(T > t+s|T > t) =P(T > s),∀ s e t >0.

(15)

Interprete esse resultado.

Exerc´ıcio 1.6.5. Considere a seguinte situa¸c˜ao hipot´etica. Uma crian¸ca entra em uma lan house para jogar determinado “game”e decide que s´o ir´a parar de jogar quando passar por determinada fase do jogo. Suponha que o tempoT para ela alcan¸car o objetivo seja uma vari´avel aleat´oria exponencial de parˆametro 2 (quando o tempo ´e medido em horas). Admita que a hora de uso de um computador custe R$ 5,00 e que o excesso de alguns minutos no tempo de uso final ´e cobrado como 1 hora. Por exemplo, se um cliente usa o computador por 3 horas e 20 minutos, pagar´a por 4 horas. Seja X o valor pago pela crian¸ca ap´os realizar seu objetivo.

a) Calcule com todos os detalhes o valor esperado deT.

b) Calcule com todos os detalhes o valor esperado deX.

Exerc´ıcio 1.6.6. Sejam X1, X2,· · · , Xn vari´aveis aleat´orias independentes cada uma com distri- bui¸c˜ao exponencial de parˆametro λ. Seja Yi =X1+X2+· · ·+Xi,i= 1,2,· · · , n.

a) Mostre queYn tem distribui¸c˜ao gama(n, λ).

b) CalculeE(Yn).

Exerc´ıcio 1.6.7. Um dado honesto ´e lan¸cado infinitas vezes independentemente. SejamX1, X2,· · · as vari´aveis aleat´orias definidas por

Xi=

1, se o i-´esimo e o (i + 1)-´esimo lan¸camentos resultam em face cinco, 0, caso contr´ario.

a) Obtenha E(Xi) e Var(Xi).

b) Mostre que

Cov(Xi, Xj) =

5

1296, se j=i+ 1, 0, se j > i+ 1.

c) SejaSn=Pn

i=1Xn. Determine E(Sn) e Var(Sn).

d) Mostre que SnnP 361.

Exerc´ıcio 1.6.8. A quantidade de tempo que certo tipo de componente funciona antes de falhar ´e uma vari´avel aleat´oria com fun¸c˜ao densidade de probabilidade

f(x) =

2x, 0< x <1;

0, caso contr´ario.

(16)

Assim que o componente falha, ele ´e imediatamente substitu´ıdo por outro do mesmo tipo. Se Xi

representa o tempo de vida do i-´esimo componente utilizado, ent˜aoSn = Σni=1Xirepresenta o instante dan-´esima falha. A taxa de falhas r a longo prazo ´e definida por

r= lim

n→∞

n Sn

.

Supondo que as vari´aveis aleat´oriasXi,i≥1, sejam independentes, determiner.

Exerc´ıcio 1.6.9. a) Enuncie o Teorema Central do Limite para vari´aveis aleat´orias independentes e identicamente distribu´ıdas. Fa¸ca um breve coment´ario da prova desse resultado. Dica: Lembre-se que seX ∼Normal(0,1) ent˜ao

ϕX(t) =et

2 2.

b) Considere o experimento de lan¸car um dado honesto 6000 vezes. Qual ´e a probabilidade de se obter mais que 1024 vezes a face cinco?

c) SejaX uma vari´avel aleat´oria Cauchy padr˜ao, isto ´eX tem densidade dada por f(x) = 1

π(1 +x2), −∞< x <∞.

Mostre que

ϕX(t) =e−|t|. Obs.:Pode usar

1 π

Z

−∞

cos(tx)

1 +x2dx=e−|t|.

d) SejamX1, X2,· · ·, Xn vari´aveis aleat´orias independentes e identicamente distribu´ıdas com distri- bui¸c˜ao comum Cauchy padr˜ao. Mostre que

Sn

n = X1+· · ·+Xn

n tamb´em ´e Cauchy padr˜ao. O TCL vale nesse caso?

Exerc´ıcio 1.6.10. Um ˆonibus parte com 20 pessoas e tem em seu trajeto 10 pontos diferentes, pa- rando em um ponto somente se uma ou mais pessoas solicitarem. Suponha que cada passageiro escolhe com igual probabilidade o ponto em que vai parar e que as escolhas s˜ao independentes de passageiro para passageiro. Determine o n´umero esperado de paradas feitas pelo ˆonibus.

(17)

Cap´ıtulo 2

Distribui¸ c˜ oes Condicionais

2.1 Introdu¸ c˜ ao

2.2 Distribui¸ c˜ oes Condicionais

Defini¸c˜ao 2.2.1. Fun¸c˜ao de Probabilidade Condicional

Sejam X e Y vari´aveis aleat´orias discretas. A fun¸c˜ao de probabilidade condicional de X dado que Y =y ´e definida por

pX|Y(x|y) =P(X=x|Y =y) =pX,Y(x, y)

pY(y) , desde que pY(y)>0.

Analogamente, a fun¸c˜ao de probabilidade condicional deY dado queX=x´e definida por pY|X(y|x) =P(Y =y|X=x) =pX,Y(x, y)

pX(x) , desde que pX(x)>0.

Exemplo 2.2.1. A fun¸c˜ao de probabilidade conjunta de uma vari´avel aleat´oria bivariada (X, Y) ´e dada por

pX,Y(x, y) =

k(2x+y) x= 1,2 e y= 1,2.

0 caso contr´ario.

ondek ´e uma constante.

a) Obtenhak.

b) Calcule as fun¸c˜oes de probabilidade condicionaispY|X(y|x)e pX|Y(x|y).

c) CalculepY|X(y|x= 1) epX|Y(x|y= 1).

d) CalculeP(X=x|Y)eP(Y =y|X).

13

(18)

Defini¸c˜ao 2.2.2. Fun¸c˜ao Densidade Condicional

SejamX e Y vari´aveis aleat´orias cont´ınuas. A fun¸c˜ao densidade condicional deX dado queY =y

´e definida por

fX|Y(x|y) = fX,Y(x, y)

fY(y) , desde quefY(y)>0.

Analogamente, a fun¸c˜ao densidade condicional deY dado queX =x´e definida por fY|X(y|x) =fX,Y(x, y)

fX(x) , desde quefX(x)>0.

Exemplo 2.2.2. A densidade conjunta de uma vari´avel aleat´oria bivariada(X, Y)´e dada por

fX,Y(x, y) =

kxy 0< x < y <1 0 caso contr´ario.

ondek ´e uma constante.

a) Obtenhak.

b) Calcule as densidades condicionaisfY|X(y|x)efX|Y(x|y).

(19)

2.3 Esperan¸ ca Condicional

Defini¸c˜ao 2.3.1. Esperan¸ca Condicional- Caso Discreto

SejamX eY vari´aveis aleat´orias discretas. A esperan¸ca condicional deX dado queY =y´e definida por

E(X|Y =y) =X

x

xpX|Y(x|y), desde quepY(y)>0.

Analogamente, a esperan¸ca condicional deY dado queX =x´e definida por E(Y|X =x) =X

y

ypY|X(y|x), desde quepX(x)>0.

Exemplo 2.3.1. A fun¸c˜ao de probabilidade conjunta de uma vari´avel aleat´oria bivariada (X,Y) ´e dada por

pX,Y(x, y) =

k(2x+ 3y) x= 1,2,3 e y= 1,2,3.

0 caso contr´ario.

ondek ´e uma constante.

a) Obtenhak.

b) Obtenha as fun¸c˜oes de probabilidade marginal deX eY. c) CalculeE(X|Y = 1),E(X|Y = 2) eE(X|Y = 3).

d) CalculeE(X|Y =y)eE(Y|X =x).

e) CalculeE(X|Y),E(Y|X),E[E(X|Y)]eE[E(Y|X)].

(20)

Defini¸c˜ao 2.3.2. Esperan¸ca Condicional- Caso Cont´ınuo

SejamX eY vari´aveis aleat´orias cont´ınuas. A esperan¸ca condicional deX dado queY =y´e definida por

E(X|Y =y) = Z

−∞

xfX|Y(x|y)dx.

Analogamente, a esperan¸ca condicional deY dado queX =x´e definida por E(Y|X =x) =

Z

−∞

yfY|X(y|x)dy.

Exemplo 2.3.2. A densidade de probabilidade conjunta de um vetor aleat´orio bivariado ´e dada por

fX,Y(x, y) =

kxy 0< x <2, 0< y < x 0 caso contr´ario.

ondek ´e uma constante.

a) CalculeE(X|Y = 1) eE(Y|X = 1) d) CalculeE(X|Y =y)eE(Y|X =x).

e) CalculeE(X|Y),E(Y|X),E[E(X|Y)]eE[E(Y|X)].

(21)

Proposi¸c˜ao 2.3.1. SejamX eY vari´aveis aleat´orias discretas. SeB⊂Rent˜ao P(X ∈B|Y =y) =X

x∈B

P(X =x|Y =y).

Exemplo 2.3.3. A fun¸c˜ao de probabilidade conjunta de uma vari´avel aleat´oria bivariada (X, Y) ´e dada por

pX,Y(x, y) =

k(2x+y) x= 1,2 e y= 1,2.

0 caso contr´ario.

ondek ´e uma constante.

CalculeP(X= 1|Y = 1).

(22)

Proposi¸c˜ao 2.3.2. SejamX eY vari´aveis aleat´orias cont´ınuas. SeB⊂Rent˜ao P(X∈B|Y =y) =

Z

x∈B

fX|Y(x|y)dx.

Exemplo 2.3.4. A densidade de probabilidade conjunta de um vetor aleat´orio bivariado ´e dada por

fX,Y(x, y) =

x+y

8 0< x <2, 0< y <2 0 caso contr´ario.

ondek ´e uma constante.

a) CalculeP(X <1|Y = 1).

b) CalculeE(X|Y = 1).

(23)

Teorema 2.3.1. Princ´ıpio da Substitui¸c˜ao para a Esperan¸ca Condicional Sejah(X, Y)uma fun¸c˜ao das vari´aveis aleat´oriasX eY. Ent˜ao

E(h(X, Y)|Y =y) =E(h(X, y)|Y =y).

Exemplo 2.3.5. Um minerador est´a preso em uma mina contendo 3 portas. A primeira porta leva a um t´unel que o levar´a a sa´ıda ap´os 2 horas de viagem. A segunda porta leva a um t´unel que far´a com que ele retorne `a mina ap´os 3 horas de viagem. A terceira porta leva a um t´unel que far´a com que ele retorne `a mina ap´os 8 horas. Considere que em todo o tempo o minerador escolhe qualquer uma das portas com igual probabilidade. SejaT o tempo at´e o minerador sair livre. Defina uma sequˆencia de v.a.i.i.d. X1, X2,· · · e um tempoN (n´umero de vezes que o minerador abre portas antes de escolher a porta para sa´ıda) tal que

T =

N

X

i=1

Xi

Obs.: Vocˆe pode supor que o minerador continua escolhendo portas aleatoriamente mesmo ap´os ele alcan¸car a liberdade.

Calcule

E

"N X

i=1

Xi|N =n

# .

Esta quantidade ´e igual a E

" n X

i=1

Xi

#

?

(24)

Corol´ario 2.3.1. Sejamg(X)eh(Y)fun¸c˜oes das vari´aveis aleat´oriasX eY, respectivamente. Ent˜ao E(g(X).h(Y)|Y =y) =h(y)E(g(X)|Y =y).

Teorema 2.3.2. Sejam X e Y vari´aveis aleat´orias tais queE(X)´e finita . Ent˜ao E(E(X|Y)) =E(X).

Ou seja, seY ´e discreta, ent˜ao

E(X) =X

y

E(X|Y =y)P(Y =y).

Por outro lado, seY ´e cont´ınua com fun¸c˜ao densidadefY E(X) =

Z

−∞E(X|Y =y)fY(y)dy.

(25)

Exemplo 2.3.6. Um minerador est´a preso em uma mina contendo 3 portas. A primeira porta leva a um t´unel que o levar´a a sa´ıda ap´os 2 horas de viagem. A segunda porta leva a um t´unel que far´a com que ele retorne `a mina ap´os 3 horas de viagem. A terceira porta leva a um t´unel que far´a com que ele retorne `a mina ap´os 8 horas. Considere que em todo o tempo o minerador escolhe qualquer uma das portas com igual probabilidade. SejaT o tempo at´e o minerador sair livre. Defina uma sequˆencia de v.a.i.i.d. X1, X2,· · · e um tempoN (n´umero de vezes que o minerador abre portas antes de escolher a porta para sa´ıda) tal que

T =

N

X

i=1

Xi

Obs.: Vocˆe pode supor que o minerador continua escolhendo portas aleatoriamente mesmo ap´os ele alcan¸car a liberdade. Calcule E(T).

Corol´ario 2.3.2. Seja Y uma vari´avel aleat´oria discreta. Ent˜ao P(A) =X

y

P(A|Y =y)P(Y =y).

(26)

Exemplo 2.3.7. O tempo para um menino terminar a disputa de qualquer fase de um jogo de v´ıdeo game ´e uma vari´avel aleat´oria exponencial de parˆametro λ. O menino decide que ap´os terminar a disputa de cada fase ir´a lan¸car um dado honesto e caso saia face cinco ir´a parar de jogar e iniciar as tarefas da escola imediatamente. Caso saia face diferente de cinco iniciar´a uma nova fase. Considere desprez´ıvel o tempo gasto com os lan¸camentos do dado. Seja X o tempo at´e que o menino inicie as tarefas escolares. Qual a distribui¸c˜ao de X?

(27)

Corol´ario 2.3.3. Seja Y uma vari´avel aleat´oria cont´ınua com densidadefY. Ent˜ao P(A) =

Z

−∞

P(A|Y =y)fY(y)dy.

Exemplo 2.3.8. Suponha que num cl´assico entre Goi´as e Vila Nova a partir do tempot= 0 torcedo- res do Goi´as chegam a bilheteria do Est´adio Serra Dourada segundo um processo de Poisson de taxa λtorcedores por minuto. De forma an´aloga, torcedores do Vila Nova chegam a bilheteria do Est´adio Serra Dourada segundo um processo de Poisson de taxaµ torcedores por minuto. A partir do tempo t= 0 qual ´e a probabilidade do primeiro torcedor a chegar ser do Goi´as?

(28)

Exemplo 2.3.9. O n´umero de e-mails que chegam a um servidor no intervalo de tempo [0, t] dado em minutos ´e, para cadat >0, uma vari´avel aleat´oriaNtcom distribui¸c˜ao de Poisson com parˆametro λt. Somente um computador ´e conectado ao servidor para ler os e-mails recebidos.

a) Dado que trˆes e-mails chegaram no primeiro minuto, qual ´e a probabilidade de que exatamente dois tenham chegado nos primeiros 15 segundos?

b) Se o tempo de vidaT desse computador tem distribui¸c˜ao exponencial de parˆametroθ. Al´em disso, NteT s˜ao independentes para todo t. Obtenha a distribui¸c˜ao do n´umero de e-mails lidos at´e o com- putador falhar.

Corol´ario 2.3.4. Seja h(X)´e uma vari´avel aleat´oria com m´edia finita, ent˜ao E(h(X)) =E[E(h(X)|Y)].

(29)

Exemplo 2.3.10. Defina SN = X1+X2+X3 +· · ·+XN onde as vari´aveis aleat´orias Xi s˜ao independentes e identicamente distribu´ıdas com distribui¸c˜ao comum exponencial de parˆametro λeN tem distribui¸c˜ao geom´etrica de parˆametro p. Encontre a distribui¸c˜ao deSN.

Teorema 2.3.3.SejaXuma vari´avel aleat´oria cont´ınua com densidadefXeY uma vari´avel aleat´oria discreta. Ent˜ao

fX|Y(x|y) =P(Y =y|X =x)

P(Y =y) .fX(x), desde queP(Y =y)>0.

(30)

Exemplo 2.3.11. O tempo para um menino terminar a disputa de qualquer fase de um jogo de v´ıdeo game ´e uma vari´avel aleat´oria exponencial de parˆametro λ. O menino decide que ap´os terminar a disputa de cada fase ir´a lan¸car um dado honesto e caso saia face cinco ir´a parar de jogar e iniciar as tarefas da escola imediatamente. Caso saia face diferente de cinco iniciar´a uma nova fase. Considere desprez´ıvel o tempo gasto com os lan¸camentos do dado. Seja X o tempo at´e que o menino inicie as tarefas escolares e N o n´umero de fases disputadas por ele antes de iniciar as tarefas escolares.

CalculeP(N=n|X =x)e E(N|X).

(31)

2.4 Exerc´ıcios

Exerc´ıcio 2.4.1. A fun¸c˜ao de probabilidade conjunta de uma vari´avel aleat´oria bivariada (X,Y) ´e dada por

pX,Y(x, y) =

k(2x+ 3y) x= 1,2,3 e y= 1,2,3.

0 caso contr´ario.

onde k ´e uma constante.

a) Obtenha k.

b) Obtenha as fun¸c˜oes de probabilidade marginal de X e Y.

c) CalculeE(X|Y = 1),E(X|Y = 2) eE(X|Y = 3).

Exerc´ıcio 2.4.2. A fun¸c˜ao de probabilidade conjunta de uma vari´avel aleat´oria bivariada (X, Y) ´e dada por

pX,Y(x, y) =

1

30x2y sex= 1,2, y= 1,2,3.

0 caso contr´ario.

a) CalculeE(X|Y = 2).

b) CalculeE(Y|X).

Exerc´ıcio 2.4.3. A densidade de probabilidade conjunta de um vetor aleat´orio bivariado ´e dada por

fX,Y(x, y) =

8xy 0< x < y <1 0 caso contr´ario.

a) CalculeE(Y|X= 0,5).

b) CalculeP(X ≤0,5|Y = 0,8).

Exerc´ıcio 2.4.4. O n´umero de clientes Y que chegam a um caixa eletrˆonico tem distribui¸c˜ao de Poisson com parˆametro X, sendo X a intensidade com que os clientes chegam ao caixa eletrˆonico.

Supondo queX tem distribui¸c˜ao Gama(α, 1), encontre a fun¸c˜ao de probabilidade da vari´avel aleat´oria Y.

Exerc´ıcio 2.4.5. O n´umero de e-mails que chegam a um servidor no intervalo de tempo [0, t]´e, para cadat > 0, uma vari´avel aleat´oria Nt com distribui¸c˜ao de Poisson com parˆametro λt. Somente um computador ´e conectado ao servidor para ler os e-mails recebidos. O tempo de vidaT desse computa- dor tem distribui¸c˜ao exponencial de parˆametro θ. Al´em disso, Nt eT s˜ao independentes para todo t.

(32)

Obtenha a distribui¸c˜ao do n´umero de e-mails lidos at´e o computador falhar.

Exerc´ıcio 2.4.6. Sejam X e Y vari´aveis aleat´orias binomiais independentes com parˆametros ne p idˆenticos, calcule o valor esperado condicional de X dado queX+Y =n.

Exerc´ıcio 2.4.7. Uma part´ıcula se movimenta ao longo do conjunto dos inteiros da seguinte maneira.

Se ela est´a na posi¸c˜aoient˜ao se movimenta para a posi¸c˜aoi+ 1com probabilidade 13 e para a posi¸c˜ao i−1 com probabilidade 23. Iniciando na posi¸c˜ao 0, seja p a probabilidade dela em algum momento atingir a posi¸c˜ao 1. Calcule p.

(33)

Cap´ıtulo 3

Introdu¸ c˜ ao aos Processos Estoc´ asticos

3.1 Introdu¸ c˜ ao

Defini¸c˜ao 3.1.1. Processo Estoc´astico

Um processo estoc´astico {Xt, t ∈ T}, onde T ´e um conjunto de ´ındices, ´e uma fam´ılia de vari´aveis aleat´orias. Isto ´e, para cadat∈T,Xt´e uma vari´avel aleat´oria

Exemplo 3.1.1. Sejam X1, X2,· · · , Xn,· · · vari´aveis aleat´orias independentes e identicamente dis- tribu´ıdas tais que

P(Xn= 1) =peP(Xn =−1) = 1−p Seja

Sn=

n

X

i=1

Xi, n= 1,2,· · ·

eS0 = 0. A cole¸c˜ao {Sn, n≥0} ´e um processo estoc´astico chamado passeio aleat´orio simples unidi- mensional. Nesse caso,T={0; 1; 2;· · ·;n;· · · }.

Defini¸c˜ao 3.1.2. Espa¸co de Estados

O conjunto E de todos os valores que um processo estoc´astico {Xt, t∈ T} pode assumir ´e chamado espa¸co de estados.

Exemplo 3.1.2. No Exemplo 3.1.1E={· · ·;−2;−1; 0; 1; 2;· · · }.

Defini¸c˜ao 3.1.3. Processo Estoc´astico a Tempo Discreto

Um processo estoc´astico {Xt, t∈T} ´e dito a tempo discreto se o conjunto de ´ındices T associado ´e enumer´avel.

29

(34)

Exemplo 3.1.3. Sejam X1, X2,· · · , Xn,· · · vari´aveis aleat´orias independentes e identicamente dis- tribu´ıdas tais que

P(Xn= 1) =peP(Xn =−1) = 1−p Seja

Sn=

n

X

i=1

Xi, n= 1,2,· · ·

eS0= 0. A cole¸c˜ao {Sn, n≥0}´e um processo estoc´astico a tempo discreto.

Defini¸c˜ao 3.1.4. Processo Estoc´astico a Tempo Cont´ınuo

Um processo estoc´asticoX={Xt, t∈T}´e dito a tempo cont´ınuo se o conjunto de ´ındicesT associado

´e n˜ao enumer´avel.

Exemplo 3.1.4. Considere um processo aleat´orioX(t)definido por X(t) =Ycos(ωt+ Θ)

ondeX e Y s˜ao vari´aveis aleat´orias independentes tais queY ∼Uniforme (−A, A) e Θ∼Uniforme (−π, π). O processo X(t)´e um processo a tempo cont´ınuo.

Defini¸c˜ao 3.1.5. Processo Estoc´astico Discreto

Um processo estoc´astico X = {Xt, t ∈ T} ´e dito discreto se o espa¸co de estados E associado ´e enumer´avel.

Exemplo 3.1.5. Considere o espa¸co de estados {0,1,· · · , d} e vari´aveis aleat´orias independentes entre si tais que

SeSn∈ {1,2,· · ·, d−1} ent˜ao P(Xn+1= 1) =peP(Xn+1=−1) = 1−p=q SeSn= 0ent˜aoP(Xn+1= 1) =pe P(Xn+1= 0) = 1−p=q

SeSn=dent˜ao P(Xn+1= 0) =peP(Xn+1=−1) = 1−p=q

O processo assim descrito ´e chamado passeio aleat´orio com barreiras de reten¸c˜ao. Trata-se de um processo estoc´astico discreto.

Defini¸c˜ao 3.1.6. Processo Estoc´astico Cont´ınuo

Um processo estoc´astico X ={Xt, t∈T} ´e dito cont´ınuo se o espa¸co de estadosE associado ´e n˜ao enumer´avel.

Exemplo 3.1.6. Considere um processo aleat´orioX(t)definido por X(t) =Ycos(ωt+ Θ)

ondeX e Y s˜ao vari´aveis aleat´orias independentes tais queY ∼Uniforme (−A, A) e Θ∼Uniforme (−π, π). O processo X(t)´e um processo estoc´astico cont´ınuo.

(35)

Defini¸c˜ao 3.1.7. Realiza¸c˜ao de um Processo Estoc´astico

Seja um ponto amostral ω de Ω. A esse ponto associamos Xt(ω) para todo t ∈ T. Esa fun¸c˜ao ´e chamada realiza¸c˜ao do processo X ={Xt, t∈T}.

Exemplo 3.1.7. No Exemplo 3.1.1 um exemplo de realiza¸c˜ao seria A ={0; 1; 2; 3; 4; 5;· · · }. Neste caso,Sn=npara todo n. Ou seja, todos os movimentos ocorrem para a direita.

3.2 Caracteriza¸ c˜ ao de Processos Estoc´ asticos

3.2.1 Descri¸ c˜ ao Probabil´ıstica

Defini¸c˜ao 3.2.1. Especifica¸c˜ao de Primeira Ordem

Um processo estoc´astico X = {Xt, t ∈ T} est´a especificado at´e a primeira ordem caso a fun¸c˜ao de distribui¸c˜ao FXt(x)seja conhecida para todo valor de t∈T. A fun¸c˜ao de distribui¸c˜ao acumulada

FXt(x) =P(Xt≤x)

´e chamada de distribui¸c˜ao de primeira ordem deXt.

Exemplo 3.2.1. Sejam X1, X2,· · · , Xn,· · · vari´aveis aleat´orias independentes e identicamente dis- tribu´ıdas tais que

P(Xn= 1) =peP(Xn =−1) = 1−p Seja

Sn=

n

X

i=1

Xi, n= 1,2,· · ·

eS0= 0. Dˆe a especifica¸c˜ao de Primeira Ordem para este processo.

(36)

Exemplo 3.2.2. Considere que as temperaturas medidas em um determinado aeroporto ao meio dia, `a cada dia do ano, geram uma sequˆencia C(1), C(2),· · · , C(365) de poss´ıveis valores aleat´orios (cont´ınuos). Essas medi¸c˜oes foram tomadas ao longo dos ´ultimos 50 anos. Foi observado que em qualquer dia do ver˜ao a temperatura se comporta uniformemente distribu´ıda entre 19 oC e 35 oC.

Calcule a probabilidade que na v´espera do natal os passageiros do aeroporto, ao desembarcarem, sintam uma temperatura acima de 25oC.

Defini¸c˜ao 3.2.2. Especifica¸c˜ao de Segunda Ordem

Um processo estoc´astico X = {Xt, t ∈ T} est´a especificado at´e a segunda ordem caso a fun¸c˜ao de distribui¸c˜ao acumulada conjunta FXt

1,Xt2(x1;x2) seja conhecida para todo para de valores (t1;t2), t1∈T et2∈T. A fun¸c˜ao de distribui¸c˜ao acumulada conjunta

FXt

1,Xt2(x1;x2) =P(Xt1 ≤x1;Xt2≤x2)

´e chamada de distribui¸c˜ao de segunda ordem deXt. Defini¸c˜ao 3.2.3. Especifica¸c˜ao de Ordem m

Um processo estoc´astico X = {Xt, t ∈ T} est´a especificado at´e a ordem m caso a fun¸c˜ao de dis- tribui¸c˜ao acumulada conjunta FXt1,Xt2,···,Xtm(x1;x2;· · · ;xm) seja conhecida para todo conjunto de valores(t1;t2;· · ·;tm),ti∈T parai= 1; 2;· · · ;m. A fun¸c˜ao de distribui¸c˜ao acumulada conjunta

FXt

1,Xt2,···,Xtm(x1;x2;· · · ;xm) =P(Xt1 ≤x1;Xt2 ≤x2;· · ·;Xtm≤xm)

´e chamada de distribui¸c˜ao de ordemm deX.

Exemplo 3.2.3. Numa partida do Goi´as pela Copa do Brasil, torcedores esmeraldinos chegam ao Serra Dourada em instantes aleat´orios pontuais. Seja Sn o tempo em segundos at´e a chegada do n-´esimo esmeraldino. Podemos escrever:

Sn=

n

X

i=1

Ti, n= 1,2,· · ·

(37)

eS0= 0, ondeTi ´e o tempo em minutos entre a chegada do i−1-´esimo torcedor e doi-´esimo torce- dor. Suponha que o tempo entre a chegada de dois torcedores esmeraldinos consecutivos ´e uma vari´avel aleat´oria exponencial de parˆametroλ= 100.

a) Dˆe a especifica¸c˜ao de Primeira Ordem para o processo estoc´astico {Sn, n≥0}.

b) Dˆe a especifica¸c˜ao de Ordemm para o processo estoc´astico{Tn, n≥0}.

Defini¸c˜ao 3.2.4. Incrementos de Um Processo Estoc´astico

SejaX ={Xt, t∈T} um processo estoc´astico eXti, i= 1,2,· · ·, ntais queti∈T com0< t1< t2<

· · ·< tn. As vari´aveis aleat´orias

X0;Xt1−X0;Xt2−Xt1;· · · ;Xtn−Xtn−1

s˜ao chamadas incrementos do processoX.

Exemplo 3.2.4. Seja {Xn, n ≥ 0} um processo estoc´astico tal que as vari´aveis aleat´orias Xi s˜ao independentes e identicamente distribu´ıdas com leiP(Xn = 1) =p= 1−P(Xn = 0). Escreva ti =i.

As vari´aveis aleat´orias Xi−Xi−1 s˜ao exemplos de incrementos para o processo{Xn, n≥0}. Qual ´e a distribui¸c˜ao destes incrementos?

(38)

3.2.2 Fun¸ c˜ oes do Processo

Defini¸c˜ao 3.2.5. Fun¸c˜ao M´edia

SejaX ={Xt, t∈T} um processo estoc´astico. A fun¸c˜ao m´edia deXt ´e dada por µX(t) =E(Xt).

Defini¸c˜ao 3.2.6. Fun¸c˜ao Variˆancia

SejaX ={Xt, t∈T} um processo estoc´astico. A fun¸c˜ao variˆancia de Xt´e dada por σ2X(t) =V ar(Xt).

Exemplo 3.2.5. SejamX1, X2,· · ·, Xnvari´aveis aleat´orias independentes e identicamente distribu´ıdas tais que

P(Xn= 5) =peP(Xn =−1) = 1−p Seja

Sn=

n

X

i=1

Xi, n= 1,2,· · ·

eS0= 0.

a) Dˆe a distribui¸c˜ao de primeira ordem desse processo.

b) Calcule a m´edia e a variˆancia deSn. Qual ´e o valor m´aximo para a variˆancia deSn?

Defini¸c˜ao 3.2.7. Fun¸c˜ao Autocorrela¸c˜ao

Seja X = {Xt, t ∈ T} um processo estoc´astico. A fun¸c˜ao de autocorrela¸c˜ao ´e uma medida de de- pendˆencia entre as vari´aveis aleat´orias Xt. ´E dada por

RX(t, s) =E(Xt.Xs), t∈T es∈T.

(39)

Defini¸c˜ao 3.2.8. Fun¸c˜ao Autocovariˆancia

Seja X ={Xt, t∈ T} um processo estoc´astico. A fun¸c˜ao de autocovariˆancia do processoX ´e dada por

KX(t, s) =Cov(Xt;Xs), t∈T es∈T.

Exemplo 3.2.6. Considere um processo aleat´orio definido por X(t) =Acos(ωt+ Θ),−∞< t <∞

ondeA eω s˜ao constantes e Θ∼Uniforme (-π, π).

a) Calcule a m´edia deX(t).

b) Calcule a variˆancia de X(t).

c) A autocorrela¸c˜ao deX(t).

d) A autocovariˆancia deX(t).

(40)

3.3 Classifica¸ c˜ ao de Processos Estoc´ asticos

Defini¸c˜ao 3.3.1. Processo Estacion´ario

Um processo estoc´asticoX =Xt, t∈T ´e dito estritamente estacion´ario se todas as distribui¸c˜oes finito dimensionais permanecem as mesmas sob transla¸c˜oes no tempo, ou seja,

FXt

1,Xt2,···,Xtn(x1;x2;· · ·;xn) =FXt

1 +τ,Xt2 +τ,···,Xtn+τ(x1;x2;· · ·;xn) para todon, para todoτ e todo conjunto de instantes de tempo ti∈T, i= 1,2,· · · , tn. Defini¸c˜ao 3.3.2. Processo Estacion´ario no Sentido Amplo

SejaX ={Xt, t∈T} um processo estoc´astico. Se a condi¸c˜ao de estacionariedade FXt1,Xt2,···,Xtn(x1;x2;· · ·;xn) =FXt1 +τ,Xt2 +τ,···,Xtn+τ(x1;x2;· · ·;xn)

para todoτ e todo conjunto de instantes de tempoti∈T, i= 1,2,· · · , tn, vale paran≤kdizemos que X ´e estacion´ario de ordemk. SeX ´e estacion´ario de ordem 2 dizemos que ´e estacion´ario no sentido amplo.

Defini¸c˜ao 3.3.3. Processos Independentes

Seja X ={Xt, t∈T} um processo estoc´astico. Se Xti, i= 1,2,· · ·, n s˜ao vari´aveis aleat´orias inde- pendentes de modo que para todon= 2,3,· · ·

FXt1,Xt2,···,Xtn(x1;x2;· · · ;xn) =

n

Y

i=1

FXti(xi)

ent˜ao o processo X ´e dito independente.

Defini¸c˜ao 3.3.4. Processo com Incrementos Independentes

Seja X ={Xt, t∈ T} um processo estoc´astico. X tem incrementos independentes se para qualquer escolha de ´ındicesti∈T com0< t1< t2<· · ·< tn os incrementos

X0;Xt1−X0;Xt2−Xt1;· · · ;Xtn−Xtn−1

s˜ao vari´aveis aleat´orias independentes.

Defini¸c˜ao 3.3.5. Processo com Incrementos Independentes Estacion´arios SejaX ={Xt, t∈T} um processo estoc´astico com incrementos independentes. Se dados s ∈ T e t ∈ T arbitr´arios (s < t) Xt−Xs tem a mesma distribui¸c˜ao que Xt+h−Xs+h para qualquer escolha de h diz-se que X tem incrementos independentes estacion´arios.

Defini¸c˜ao 3.3.6. Processo de Markov

Um Processo Estoc´asticoX ={Xt, t∈T}, ondeT ´e um conjunto de ´ındices ´e um processo de Markov se para qualquer escolha de ´ındicest1< t2<· · ·< tn< tn+1 temos

P(Xtn+1≤xn+1|Xt1=x1, Xt2 =x2,· · · , Xtn =xn) =P(Xtn+1 ≤xn+1|Xtn=xn). (3.1)

(41)

Exemplo 3.3.1. SejamX1, X2,· · ·, Xnvari´aveis aleat´orias independentes e identicamente distribu´ıdas tais que

P(Xn= 1) =peP(Xn =−1) = 1−p Seja

Sn=

n

X

i=1

Xi, n= 1,2,· · ·

eS0= 0. A cole¸c˜ao {Sn, n≥0}´e um processo aleat´orio chamado passeio aleat´orio simples.

Mostre que este processo ´e uma Cadeia de Markov.

3.4 Exerc´ıcios

Exerc´ıcio 3.4.1. Pede-se:

a) Defina processo estoc´astico.

b) O que ´e uma realiza¸c˜ao de um processo estoc´astico. Dˆe um exemplo.

c) Como se classifica um processo estoc´astico quanto ao tipo de seus estados? Dˆe exemplos.

d) Como se classifica um processo estoc´astico quanto ao seu conjunto de ´ındices T? Dˆe exemplos.

e) Defina distribui¸c˜ao de primeira ordem.

f ) Defina distribui¸c˜ao de ordem n.

g) O que ´e processo estacion´ario?

h) Defina processo estacion´ario no sentido amplo.

i) Defina processo estacion´ario com incrementos independentes.

j) Defina processo markoviano.

Exerc´ıcio 3.4.2. SejamX1, X2,· · · , Xnvari´aveis aleat´orias independentes e identicamente distribu´ıdas tais que

P(Xn= 1) =peP(Xn =−1) = 1−p

(42)

Seja

Sn=

n

X

i=1

Xi, n= 1,2,· · ·

e S0 = 0. A cole¸c˜ao {Sn, n≥0} ´e um processo aleat´orio chamado passeio aleat´orio simples unidi- mensional.

a) Descreva o passeio aleat´orio simples.

b) Construa uma realiza¸c˜ao deste processo.

c) Calcule a m´edia e a variˆancia deSn. Qual ´e o valor m´aximo para a variˆancia deSn? d) ParaSn, calcule a fun¸c˜ao autocorrela¸c˜ao.

e) Mostre queSn ´e uma cadeia de Markov.

Exerc´ıcio 3.4.3. Seja {Sn, n≥0} um passeio aleat´orio simples. Defina um processo aleat´orio S(t) tal que

S(t) =Sn, n≤t≤n+ 1 a) DescrevaS(t).

b) Construa uma realiza¸c˜ao deS(t).

c) Qual a m´edia e a variˆancia deS(t).

Exerc´ıcio 3.4.4. Numa partida do Goi´as pela Copa do Brasil, torcedores esmeraldinos chegam ao Serra Dourada em instantes aleat´orios pontuais. Seja Xn o tempo em segundos at´e a chegada do n-´esimo esmeraldino. Podemos escrever:

Xn =

n

X

i=1

Ti, n= 1,2,· · ·

eX0= 0, onde Ti ´e o tempo entre a chegada do n−1-´esimo torcedor e don-´esimo torcedor.

a) Descreva o processo aleat´orio X(n) ={Xn, n≥1}.

b) Construa uma realiza¸c˜ao t´ıpica do processo.

c) Suponha que o tempo entre a chegada de dois torcedores esmeraldinos consecutivos ´e uma vari´avel aleat´oria exponencial de parˆametro λ. Neste caso, obtenha a m´edia,a variˆancia e a distribui¸c˜ao de primeira ordem deXn.

Exerc´ıcio 3.4.5. Considere um processo estoc´astico a tempo discreto X(n) ={Xn, n≥1} onde as Xn s˜ao vari´aveis aleat´orias independentes e identicamente distribu´ıdas com m´ediaµ e variˆancia σ2. a) Calcule a distribui¸c˜ao de ordem n de Xn.

b) Encontre a m´edia e a variˆancia deXn.

(43)

c) Encontre a fun¸c˜ao autcorrela¸c˜ao de Xn. d) Encontre a fun¸c˜ao autocovariˆancia deXn.

Exerc´ıcio 3.4.6. Mostre que um processo estoc´astico que ´e estacion´ario de ordem n tamb´em esta- cion´ario de todas as ordens menores que n.

Exerc´ıcio 3.4.7. Seja {Xn, n≥0} uma sequˆencia aleat´oria de v.a.i.i.d. com m´edia 0 e variˆancia 1.

Mostre que{Xn, n≥0}´e um processo estacion´ario no sentido amplo.

Exerc´ıcio 3.4.8. Seja {Xn, n≥0} um processo estoc´astico com incrementos estacion´arios indepen- dentes e assuma queS(0) = 0. Mostre que

E[X(t)] =µ1t,

ondeµ1=E[X(1)].

Exerc´ıcio 3.4.9. SejamX1, X2,· · · , Xnvari´aveis aleat´orias independentes e identicamente distribu´ıdas tais que

P(Xn= 2) =peP(Xn = 1) = 1−p Seja

Sn=

n

X

i=1

Xi, n= 1,2,· · ·

eS0= 0.

a) Descreva o processo aleat´orio {Sn, n= 0,1,2,· · · }.

b) Construa uma realiza¸c˜ao deste processo.

c) Dˆe a distribui¸c˜ao de primeira ordem desse processo.

d) Calcule a m´edia e a variˆancia deSn. Qual ´e o valor m´aximo para a variˆancia deSn?

Exerc´ıcio 3.4.10. Considere um processo aleat´orioX(t)definido por X(t) =Ycos(ωt+ Θ)

ondeX e Y s˜ao vari´aveis aleat´orias independentes tais queY ∼Uniforme (−A, A) e Θ∼Uniforme (−π, π).

a) Descreva este processo aleat´orio.

b) Calcule a m´ediaµ[X(t)]e a variˆancia Var[X(t)].

(44)

c) Encontre a fun¸c˜ao autocorrela¸c˜ao RX(t, s).

d) Encontre a fun¸c˜ao autocovariˆancia KX(t, s).

Exerc´ıcio 3.4.11. Considere uma sucess˜ao infinita de provas de Bernoulli. Seja Xt o n´umero de provas at´e obter um sucesso pela t-´esima vez, t = 1,2,· · · (a) Defina o exposto como um processo estoc´astico, indicando o espa¸co dos parˆametros e dos estados.

(b) Determine para cadat a fun¸c˜ao de probabilidade deXt. (c) Represente graficamente uma trajet´oria.

(d) Determine a lei conjunta de (X2, X3, X4).

(e) CalculeP(X4=x|X3=x3, X2=x2) e P(X4=x|X3=x3). Comente o resultado.

(f ) Determine a lei da vari´avel aleat´oria “tempo ou n´umero de provas entre dois sucessos de Ber- noulli”.

(g) Determine a lei da vari´avel aleat´oria “n´umero de provas necess´arias at´e `a ocorrˆencia de dois su- cessos consecutivos de Bernoulli”.

Referências

Documentos relacionados

A Psicologia, por sua vez, seguiu sua trajetória também modificando sua visão de homem e fugindo do paradigma da ciência clássica. Ampliou sua atuação para além da

1 - A instituição pode ser remunerada por serviços prestados ou possuir relações comerciais com a(s) empresa(s) analisada(s) neste relatório ou com pessoa

Objetivo: definir a probabilidade dos valores da Vari´ avel Aleat´ oria (V. A.) sem referˆ encia aos elementos do espa¸ co amostral S.... Classifica¸c˜ ao das Vari´ aveis

Em uma s´ erie de tentativas independentes, com probabilidade constante p de um sucesso, fa¸ca a vari´ avel aleat´ oria X denotar o n´ umero de tentativas at´ e que o primeiro

1 Conceitos B´ asicos de Teoria das Probabilidades 2 Vari´ aveis Aleat´ orias Discretas.. 3 Vari´ aveis Aleat´ orias Cont´ınuas 4 Duas Vari´ aveis Aleat´ orias 5 Vetores de

- Grupo A: composto por três afirmações, que são as de números 01, 02 e 06, mostrando um índice de discordância igual ou acima de 50%.. - Grupo C: composto de duas afirmações,

TRAYENTA DUO é indicado como adjuvante da dieta e do exercício, para melhorar o controle glicêmico em pacientes com diabetes mellitus tipo 2 (DM2), em que a dose máxima tolerada

Se tiver quaisquer efeitos secundários, incluindo possíveis efeitos secundários não indicados neste folheto, fale com o seu médico ou farmacêutico.. O que precisa de saber antes