PROCESSOS ESTOC ´
ASTICOS
Prof. Daniel Brand˜
ao
Sum´
ario
1 Teoria da Probabilidade 4
1.1 Espa¸co Amostral e Eventos . . . 4
1.2 A No¸c˜ao e os Aximas da Probabilidade . . . 5
1.2.1 Defini¸c˜ao da Frequˆencia Relativa . . . 5
1.2.2 Defini¸c˜ao Axiom´atica . . . 6
1.2.3 Propriedades Elementares da Probabilidade . . . 6
1.3 Eventos Igualmente Prov´aveis . . . 6
1.3.1 Espa¸co Amostral Finito . . . 6
1.3.2 Eventos Igualmente Prov´aveis . . . 6
1.4 Probabilidade Condicional . . . 7
1.4.1 Defini¸c˜ao . . . 7
1.4.2 Regra de Bayes . . . 7
1.5 Probabilidade Total . . . 7
1.6 Eventos independentes . . . 8
2 Vari´aveis Aleat´orias 9 2.1 Introdu¸c˜ao . . . 9
2.2 Vari´aveis Aleat´orias . . . 9
2.2.1 Defini¸c˜ao . . . 9
2.2.2 Eventos Definidos por Vari´aveis Aleat´orias . . . 10
2.3 Fun¸c˜ao de Distribui¸c˜ao . . . 10
2.3.1 Defini¸c˜ao . . . 10
2.3.2 Propriedades da FX(x) . . . 10
2.3.3 Determina¸c˜ao de Probabilidades pela Fun¸c˜ao de Distribui¸c˜ao . . . . 10
2.4 Vari´aveis Aleat´orias Discretas e fmp . . . 11
2.4.1 Defini¸c˜ao . . . 11
2.4.2 Fun¸c˜ao Massa de Probabilidade . . . 11
2.4.3 Propriedades da pX(x) . . . 11
2.5 Vari´aveis Aleat´orias Cont´ınuas e fdp . . . 11
2.5.1 Defini¸c˜ao . . . 11
2.5.2 Fun¸c˜ao Densidade de Probabilidade . . . 12
2.5.3 Propriedades de fX(x) . . . 12
2.6 M´edia e Variˆancia . . . 12
2.6.1 M´edia . . . 12
2.6.2 Momento . . . 12
2.6.3 Variˆancia . . . 13
2.7 Algumas Distribui¸c˜oes Especiais . . . 13
2.7.2 Distribui¸c˜ao Binomial . . . 13
2.7.3 Distribui¸c˜ao de Poisson . . . 14
2.7.4 Distribui¸c˜ao Uniforme . . . 15
2.7.5 Distribui¸c˜ao Exponencial . . . 15
2.7.6 Distribui¸c˜ao Normal (ou Gaussiana) . . . 16
2.8 Distribui¸c˜ao Condicional . . . 17
2.9 Exerc´ıcios . . . 17
3 Vari´aveis Aleat´orias Multidimensionais 20 3.1 Introdu¸c˜ao . . . 20
3.2 Vari´aveis Aleat´orias Bidimensionais . . . 20
3.2.1 Defini¸c˜ao . . . 20
3.3 Fun¸c˜ao de Distribui¸c˜ao Conjunta . . . 21
3.3.1 Defini¸c˜ao . . . 21
3.3.2 Propriedades de FXY(x, y) . . . 21
3.3.3 Fun¸c˜ao de Distribui¸c˜ao Marginal . . . 22
3.4 V.A. Discreta - FMP Conjunta . . . 22
3.4.1 FMP Conjunta . . . 22
3.4.2 Propriedades de pXY(xi, yj) . . . 22
3.4.3 FMP Marginal . . . 23
3.4.4 Vari´aveis Aleat´orias Independentes . . . 23
3.5 Vari´aveis Aleat´orias Cont´ınuas - FDP Conjunta . . . 24
3.5.1 Fun¸c˜ao Densidade de Probabilidade Conjunta . . . 24
3.5.2 Propriedades de fXY(x, y) . . . 24
3.5.3 FDP Marginal . . . 24
3.5.4 Vari´aveis Aleat´orias Independentes . . . 25
3.6 Distribui¸c˜oes Condicionais . . . 25
3.6.1 Fun¸c˜ao Massa de Probabilidade Condicional . . . 25
3.6.2 Propriedades de pY |X(yj|xi) . . . 26
3.6.3 Fun¸c˜ao Densidade de Probabilidade Condicional . . . 26
3.6.4 Propriedades de fY |X(x|y) . . . 26
3.7 Coeficientes de Covariˆancia e Correla¸c˜ao . . . 27
3.8 M´edia e Variˆancia Condicionais . . . 29
3.9 Exerc´ıcios . . . 29
4 Fun¸c˜ao de uma Vari´avel Aleat´oria 32 4.1 Introdu¸c˜ao . . . 32
4.2 Fun¸c˜oes de Uma Vari´avel Aleat´oria . . . 32
4.2.1 Vari´avel Aleat´oria g(X) . . . 32
4.2.2 Determina¸c˜ao de fY(y) por fX(x) . . . 32
4.3 Fun¸c˜ao de Duas Vari´aveis Aleat´orias . . . 33
4.3.1 Um Fun¸c˜ao de Duas Vari´aveis Aleat´orias . . . 33
4.3.2 Duas Fun¸c˜oes de Duas Vari´aveis Aleat´orias . . . 33
4.3.3 Determinando fZW(z, w) por fXY(x, y) . . . 34
4.4 Esperan¸ca . . . 35
4.4.1 Esperan¸ca de uma Fun¸c˜ao de Uma Vari´avel Aleat´oria . . . 35
4.4.2 Esperan¸ca de uma Fun¸c˜ao de Mais de Uma Vari´avel Aleat´oria . . . 35
4.4.3 Propriedade de Linearidade da Esperan¸ca . . . 35
4.5 Fun¸c˜oes Geradoras de Momento . . . 36
4.5.1 Defini¸c˜ao . . . 36
4.5.2 Fun¸c˜ao Geradora de Momento Conjunta . . . 36
4.6 Fun¸c˜ao Caracter´ıstica . . . 37
4.6.1 Defini¸c˜ao . . . 37
Cap´ıtulo 1
Teoria da Probabilidade
O estudo da Teoria da Probabilidade iniciou da an´alise de certos jogos de azar e possui aplica¸c˜oes na maioria das ´areas da ciˆencia e engenharia. N´os iremos relebrar os conceitos b´asicos de probabilidade.
1.1
Espa¸
co Amostral e Eventos
No estudo da probabilidade, qualquer processo de observa¸c˜ao ´e referido como um exper-imento. Os resultados de uma observa¸c˜ao s˜ao chamados resultados do experimento.
Um experimento ´e chamado um experimento aleat´orio se seus resultados n˜ao podem ser previstos. Exemplos t´ıpicos de experimento aleat´orio s˜ao jogar um dado ou tirar uma carta de um ma¸co.
O conjunto de todos os poss´ıveis resultados de um experimento aleat´orio ´e chamado espa¸co amostral, e ser´a denotado por S. Um elemento em S ´e chamado de ponto amostral. Cada resultado de um experimento aleat´orio corresponde a um ponto amostral. Exemplo 1.1.1. O espa¸co amostral do exeprimento de jogar uma moeda (a) uma vez e (b) duas vezes ´e:
(a)Existem duas possibilidades, cara ou coroa. Ent˜ao: S = {H, T }
(b) Existem 4 poss´ıveis resultados. Eles s˜ao pares de caras e coroas. Ent˜ao S = {HH, HT, T H, T T }
Exemplo 1.1.2. O espa¸co amostral de um experimento de medir (em horas) o tempo de vida de um transistor:
Claramente todos os poss´ıveis resultados s˜ao todos os n´umeros reais n˜ao negativos. Isto ´e,
S = {τ : 0 ≤ τ ≤ ∞} onde τ representa a vida de um transistor em horas.
Uma vez que n´os identificamos o espa¸co amostral S, como o conjunto de todos os poss´ıveis resultados de um experimento aleat´orio, vamos rever algumas anota¸c˜oes no seguinte conjunto.
Se ζ ´e um elemento de S, ent˜ao n´os escrevemos ζ ∈ S. Se ζ n˜ao ´e um elemento de S, ent˜ao escrevemos:
ζ /∈ S.
Um conjunto A ´e chamado subconjunto de B, denotado por A ⊂ B.
Se cada elemento de A ´e tamb´em elemento de B
Qualquer subconjunto de um espa¸co amostral S ´e chamado um evento. Um ponto amostal de S ´e frequentemente referido como um evento elementar.
Note que o espa¸co amostral S ´e o subconjunto de si pr´oprio, isto ´e, S ⊂ S. Uma vez que S ´e o conjunto de todos os poss´ıveis resultados, ele ´e frequentemnte chamado de evento determinado.
1.2
A No¸
c˜
ao e os Aximas da Probabilidade
Uma atribui¸c˜ao de um n´umero real a um evento definido em um espa¸co amostral S ´e conhecido como a medida da probabilidade. Considere um experimento aleat´orio com um espa¸co amostral S e seja A um evento particular definido em S.
1.2.1
Defini¸
c˜
ao da Frequˆ
encia Relativa
Suponha que o experimento aleat´orio ´e repetido n vezes. Se o evento A ocorre n(A) vezes, ent˜ao a probabilidade do evento A, denotado por P (A), ´e definido como
P (A) = lim
n→∞
n(A) n
onde n(A)/n ´e chamado de frequencia relativa do evento A. Note que este limite talvez n˜ao exista, e, al´em disso, h´a muitas situa¸c˜oes em que o conceito de repetibilidade talvez n˜ao seja v´alido.
´
E claro que para um evento qualquer A, a frenquˆencia relativa de A possue as seguintes propriedades:
1. 0 ≤ n(A)/n ≤ 1, onde n(A)/n = 0 se A n˜ao ocorre em nenhuma das n repeti¸c˜oes e n(A)/n = 1 se A ocorre em todas as n repeti¸c˜oes.
2. Se A e B s˜ao eventos mutualmente exclusivos, ent˜ao n(A ∪ B) = n(A) + n(B) e n(A ∪ B) n = n(A) n + n(B) n .
1.2.2
Defini¸
c˜
ao Axiom´
atica
Seja S um espa¸co amostral e A um evento em S. Ent˜ao na defini¸c˜ao axiom´atica, a probabilidade P (A) de um evento A ´e um n´umero real atribu´ıdo a A o qual satisfaz os trˆes seguintes axiomas:
1. P (A) ≥ 0; 2. P (S) = 1;
3. P (A ∪ B) = P (A) + P (B), se A ∩ B = ∅.
1.2.3
Propriedades Elementares da Probabilidade
Usando os axiomas acima, as seguintes propriedades de probabilidade podem ser obtidas: 1. P ( ¯A) = 1 − P (A);
2. P (∅) = 0;
3. P (A) ≤ P (B) se A ⊂ B; 4. P (A) ≤ 1;
5. P (A ∪ B) = P (A) + P (B) − P (A ∩ B);
1.3
Eventos Igualmente Prov´
aveis
1.3.1
Espa¸
co Amostral Finito
Considere um espa¸co amostral finito S com n elementos S = {ζ1, ζ2, ..., ζn}
onde ζi s˜ao eventos elementares. Seja P (ζi) = pi. Ent˜ao
1. 0 ≤ pi ≤ 1 i = 1, 2, ..., n;
2. Pn
i=1pi = p1+ p2+ ... + pn = 1;
3. Se A = ∪i∈Iζi, onde I ´e uma cole¸c˜ao de subscritos, ent˜ao
P (A) = X ζi∈A P (ζi) = X i∈I pi
1.3.2
Eventos Igualmente Prov´
aveis
Quando todos os eventos elementares ζi (i=1,2,...,n) s˜ao igualmente prov´aveis, isto ´e,
p1 = p2 = · · · = pn
ent˜ao, da propriedade 2 acima, temos
pi = 1/n
e
P (A) = n(A)/n
onde n(A) ´e o n´umero de resultados pertencentes ao evento A e n ´e o n´umero de pontos amostrais em S.
1.4
Probabilidade Condicional
1.4.1
Defini¸
c˜
ao
A probabilidade condicional de um evento A dado um evento B, denotado por P (A|B), ´e definido como
P (A|B) = P (A ∩ B)
P (B) , P (B) > 0
onde P (A ∩ B) ´e a probabilidade conjunta de A e B. Similarmente, P (B|A) = P (A ∩ B)
P (A) , P (A) > 0
´e a probabilidade condicional de um evento B dado o evento A. Das equa¸c˜oes acima, temos
P (A ∩ B) = P (A|B)P (B) = P (B|A)P (A)
Esta equa¸c˜ao ´e usada na maioria das vezes para encontrar a probabilidade conjunta de eventos.
1.4.2
Regra de Bayes
Da equa¸c˜ao acima, podemos obter a seguinte regra de Bayes: P (A|B) = P (B|A)P (A)
P (B)
1.5
Probabilidade Total
Os eventos A1, A2, ..., An s˜ao chamados mutualmente exclusivos e exaustivos se
∪ni=1Ai = A1 ∪ A2∪ · · · ∪ An= S e Ai∩ Aj = ∅ i 6= j
Seja B um evento qualquer em S. Ent˜ao
P (B) = n X i=1 P (B ∩ Ai) = n X i=1 P (B|Ai)P (Ai)
o qual ´e conhecida como a probabilidade total do evento B. Seja A = Ai na regra de
Bayes; ent˜ao, usando a equa¸c˜ao anterior, obtemos P (Ai|B) =
P (B|Ai)P (Ai)
Pn
i=1P (B|Ai)P (Ai)
Note que os termos do lado direito s˜ao todos condicionais aos eventos Ai, enquanto que
1.6
Eventos independentes
Dois eventos A e B s˜ao ditos independentes se e somente se P (A ∩ B) = P (A)P (B) Segue imediatemente que se A e B s˜ao independentes, ent˜ao
P (A|B) = P (A) P (B|A) = P (B)
Se dois eventos A e B s˜ao indenpendentes, ent˜ao podemos mostrar que A e ¯B s˜ao tamb´em independentes; isto ´e
P (A ∩ ¯B) = P (A)P ( ¯B) Ent˜ao
P (A| ¯B) = P (A)
Assim, se A ´e independente de B, ent˜ao a probabilidade de A permanece inalterada independentemente se B acontece ou n˜ao.
De uma forma geral, os eventos A1, A2, ..., An s˜ao independentes se e somente se para
cada subconjunto {Ai1, Ai2, ..., Aik} (2 ≤ k ≤ n) destes eventos,
P (Ai1∩ Ai2∩ ... ∩ Aik) = P (Ai1)P (Ai2)...P (Aik)
Finalmente, definimos um conjunto infinito de eventos como independente e se, somente se, todo subconjunto finito destes eventos ´e independente.
Cap´ıtulo 2
Vari´
aveis Aleat´
orias
2.1
Introdu¸
c˜
ao
Neste cap´ıtulo, introduziremos os conceito de vari´aveis aleat´orias. O prop´osito principal de usar uma vari´avel aleat´oria ´e assim que podemos definir certas fun¸c˜oes de probabilidade que tornam conveniente e f´acil de calcular a probabilidade de v´arios eventos.
2.2
Vari´
aveis Aleat´
orias
2.2.1
Defini¸
c˜
ao
Considere um experimento aleat´orio com espa¸co amostral S. Uma vari´avel aleat´oria X(ζ) ´e uma fun¸c˜ao real que associa um n´umero real chamado valor de X(ζ) para cada ponto amostral ζ de S. Frequentemente, usamos simplesmente X para esta fun¸c˜ao em vez de X(ζ) e usamos “v.a” para denotar a vari´avel aleat´oria.
O espa¸co amostral S ´e chamado de dom´ınio da v.a X, e a cole¸c˜ao de todos os n´umeros (valores de X(ζ)) ´e chamado de imagem da v.a X. Assim, a imagem de X ´e subconjunto dos n´umeros reais.
Note que duas ou mais pontos amostrais diferentes podem dar o mesmo valor de X, mas diferentes n´umeros na imagem n˜ao podem ser atribu´ıdos ao mesmo ponto amostral.
Exemplo 2.2.1. No exeprimento de jogar uma moeda uma vez, podemos definir a v.a X como
Note que podemos tamb´em definir outra v.a., digamos que Y com
Y (H) = 0, Y (T ) = 1 (2.2)
2.2.2
Eventos Definidos por Vari´
aveis Aleat´
orias
Se X ´e uma v.a. e x ´e um n´umero real fixado, podemos definir o evento (X = x) como
(X = x) = {ζ; X(ζ) = x} (2.3)
Similarmente, para n´umeros fixados x, x1, x2, podemos definir os seguintes eventos:
(X ≤ x) = {ζ; X(ζ) ≤ x} (2.4)
(X > x) = {ζ; X(ζ) > x} (2.5)
(x1 < X ≤ x2) = {ζ; x1 < X(ζ) ≤ x2} (2.6)
Exemplo 2.2.2. No experimento de jogar uma moeda trˆes vezes, o espa¸co amostral S1
consistindo de oito pontos amostrais igualmente prov´aveis S1 = {HHH, . . . , T T T }. Se
X ´e uma v.a. dando o n´umero de caras obtidas, calcule (a) P(X=2); (b) P(x¡2).
2.3
Fun¸
c˜
ao de Distribui¸
c˜
ao
2.3.1
Defini¸
c˜
ao
A fun¸c˜ao de ditribui¸c˜ao [ ou fun¸c˜ao de distribui¸c˜ao acumulada(fda)] de X ´e a fun¸c˜ao definida por
FX(x) = P (X ≤ x) − ∞ < x < ∞ (2.7)
A maioria das informa¸c˜oes sobre um experimento aleat´orio descrito pelo v.a. X ´e determinada pelo comportamento da FX(x).
2.3.2
Propriedades da F
X(x)
1. 0 ≤ FX(x) ≤ 1;
2. FX(x1) ≤ FX(x2) se x1 ≤ x2;
3. limxto∞FX(x) = FX(∞) = 1;
4. limx→−∞FX(x) = FX(−∞) = 0;
5. limx→a+FX(a+) = FX(a) a+ = lim0<→0a + .
Exemplo 2.3.1. Considere a v.a definida no exemplo 2. Calcule e esbocea fda FX(x) de
X.
2.3.3
Determina¸
c˜
ao de Probabilidades pela Fun¸
c˜
ao de Distribui¸
c˜
ao
Pela defini¸c˜ao de fda, podemos calcular outras probabilidades, tal como P (a < X ≤ b), P (X > a), e P (X < b):
P (a < X ≤ b) = FX(b) − FX(a) (2.8)
P (X > a) = 1 − FX(a) (2.9)
P (x < b) = FX(b−) b−= lim
2.4
Vari´
aveis Aleat´
orias Discretas e fmp
2.4.1
Defini¸
c˜
ao
Seja X uma v.a. com fda FX(x). Se FX(x) assume somente valores inteiros e ´e constante
entre esses valores, ent˜ao X ´e chamada uma vari´avel aleat´oria discreta.
2.4.2
Fun¸
c˜
ao Massa de Probabilidade
Suponha que os saltos em FX(x) de uma v.a. discreta X ocorre nos pontos x1, x2, ... onde
a sequencia pode ser finita ou infinita cont´avel, e assumimos xi < xj se i < j. Ent˜ao
FX(xi) − FX(xi−1) = P (X ≤ xi) − P (X ≤ xi−1) = P (X = x) (2.11)
Seja
pX(x) = P (X = x) (2.12)
A fun¸c˜ao pX(x) ´e chamada de fun¸c˜ao massa de probabilidade (fmp) da v.a. discreta X.
2.4.3
Propriedades da p
X(x)
1. 0 ≤ pX(xk) ≤ 1; k = 1, 2, ...;
2. pX(x) = 0, se x 6= xk(k = 1, 2, ...);
3. P
kpX(xk) = 1.
A fda FX(x) de uma v.a. discreta X pode ser obtida por
FX(x) = P (X ≤ x) =
X
xk≤x
pX(xk) (2.13)
2.5
Vari´
aveis Aleat´
orias Cont´ınuas e fdp
2.5.1
Defini¸
c˜
ao
Seja X uma v.a. com fda FX(x). Se FX(x) ´e cont´ınua e tamb´em possiu uma derivada
dFX(x)/dx a qual existe em toda parte exceto em um poss´ıvel n´umero de pontos e ´e
cont´ınua por partes, ent˜ao X ´e chamada uma vari´avel aleat´oria cont´ınua Alternativa-mente, X ´e uma v.a. cont´ınua somente se a imagem de FX(x) cont´em um intervalo de
n´umeros reais.
Assim, se X ´e uma v.a. cont´ınua, ent˜ao
P (X = x) = 0 (2.14)
Note que este ´e um exemplo de um evento com probabilidade 0, isto n˜ao ´e necessariamante o evento imposs´ıvel ∅.
Na maioria das aplica¸c˜oes, a v.a. ´e discreta ou cont´ınua. Mas se a FX(x) de uma v.a.
2.5.2
Fun¸
c˜
ao Densidade de Probabilidade
Seja
fX(x) =
dFX(x)
dx (2.15)
A fun¸c˜ao fX(x) ´e chamada de fun¸c˜ao densidade de probabilidade de uma v.a. cont´ınua
X.
2.5.3
Propriedades de f
X(x)
1. fX(x) ≥ 0;
2. R∞
−∞dx = 1;
3. fX(x) ´e cont´ınua por partes;
4. P (a < X ≤ b) =RabfX(x)dx.
A fda FX(x) de uma v.a. cont´ınua X pode ser obtida por
FX(x) = P (X ≤ x) =
Z x
−∞
fX(ξ)dξ (2.16)
Pela eq. 2.14, se X ´e uma v.a. cont´ınua, ent˜ao
P (a < X ≤ b) = P (a ≤ X ≤ b) = P (a ≤ X ≤ b) = P (a ≤ X < b) = P (a < X < b)(2.17) =
Z b a
fX(x)dx = FX(b) − FX(a) (2.18)
2.6
M´
edia e Variˆ
ancia
2.6.1
M´
edia
A M´edia (ou valor experado) de uma v.a. X, denotado por µX ou E(X), ´e definida por
µX = E(X) = P kxkpX(xk) se X ´e discreta R∞ −∞xfX(x)dx se X ´e cont´ınua (2.19)
2.6.2
Momento
O n-´esimo momento de uma v.a. X ´e definido por E(Xn) = P kx n kpX(xk) se X ´e discreta R∞ −∞x nf X(x)dx se X ´e cont´ınua (2.20) Note que a m´edia de X ´e o primeiro momento de X.
2.6.3
Variˆ
ancia
A variˆancia de uma v.a. X, denotado por σ2
X ou V ar(X), ´e definido por
σX2 = V ar(X) = E{[X − E(X)]2} (2.21) Assim, σ2X = P k(xk− µX)2pX(xk) se X ´e discreta R∞ −∞(x − µX) 2f X(x)dx se X ´e cont´ınua (2.22) Note da defini¸c˜ao 2.21 que
V ar(X) ≥ 0
O desvio padr˜ao de uma v.a. X, denotado por σX, ´e a raiz quadrada positiva da V ar(X).
Expandindo o lado direito da eq. 2.21, podemos obter a seguinte rela¸c˜ao: V ar(X) = E(X2) − [E(X)]2
a qual ´e uma f´ormula ´util para determinar a variˆancia.
2.7
Algumas Distribui¸
c˜
oes Especiais
2.7.1
Distribui¸
c˜
ao Bernoulli
Uma v.a. X ´e chamada de v.a. de Bernoulli com parˆametro p se a fmp ´e dada por pX(k) = P (X = k) = pk(1 − p)1−k, k=0,1
onde 0 ≤ p ≤ 1.
Pela eq. ??, a fda FX(x) da v.a. Bernoulli X ´e dado por
FX(x) = 0 se x < 0 1 − p se 0 ≤ x < 1 1 se x ≥ 1 (2.23)
A m´edia e a variˆancia de uma v.a. de Bernoulli X s˜ao
µX = E(X) = p (2.24)
σX2 = V ar(X) = p(1 − p) (2.25)
Uma v.a. de Bernoulli X ´e associado com algum experimento o qual o resultado pode ser classificado como um ”sucesso´´ ou um ”fracasso´´, e a probabilidade de um sucesso ´e p e a probabilidade de um fracasso ´e 1 − p.
2.7.2
Distribui¸
c˜
ao Binomial
Uma v.a. X ´e chamada de v.a. binomial com parˆametros (n, p) se sua fmp ´e dada por pX(x) = P (X = k) = n k pk(1 − p)n−k k = 0, 1, ..., n (2.26) onde 0 ≤ p ≤ 1 e n k = n! k!(n − k)! (2.27)
o qual ´e conhecido como o coeficiente binomial. A fda de X correspondente ´e FX(x) = n X k=0 n k pk(1 − p)n−k n ≤ x < n + 1
A m´edia e a variˆancia de uma v.a. binomial X s˜ao µX = E(X) = np
σX2 = V ar(X) = np(1 − p)
Uma v.a. binomial X ´e associado com algum experimento nos quais n tentativas de Bernoulli independentes s˜ao executadas e X representa o n´umero de sucessos que ocorrer em n experimentos. Note que a v.a. Bernoulli ´e justamente uma v.a. binomial com parˆametros (1, p).
Exemplo 2.7.1. Uma fonte de bin´arios gera os digitos 1 e 0 aleatoriamente com proba-bilidade 0.6 e 0.4 respectivamente.
(a) Qual a probabilidade de dois 1s e trˆes 0s ocorrerem em uma sequˆencia de cinco digitos;
(b) Qual a probabilidade que pelo menos trˆes 1s ocorram em uma sequˆencia de cinco digitos.
Exemplo 2.7.2. Uma moeda honesta ´e lan¸cada 10 vezes. Calcule a probabilidade de ocorrer 5 ou 6 caras.
2.7.3
Distribui¸
c˜
ao de Poisson
Uma v.a. X ´e chamada de v.a. de Poisson com parˆametro λ(> 0) se sua fmp ´e dada por pX(k) = P (X = k) = e−λ λk k! k = 0, 1, ... A fda correspondente de X ´e FX(x) = e−λ n X k=0 λk k! n ≤ x < n + 1 A m´edia e a variˆancia de uma v.a. de Poisson X s˜ao
µX = E(X) = λ
σX2 = V ar(X) = λ
A v.a. de Poisson possui uma gama enorme de aplica¸c˜oes em diversas ´areas porque ela pode ser usada como uma aproxima¸c˜ao para uma v.a. binomial com parˆametros (n, p) quando n ´e grande e p ´e suficientemente pequeno de forma que np ´e de um tamanho moderado.
´
E f´acil provar que
n k pk(1 − p)1−k ≈ e−λλ k k! Alguns exemplos de uma v.a. de Poisson s˜ao:
1. O n´umero de chamadas telefonicas chegando `a um centro de comuta¸c˜ao durante v´arios intervalos de tempo;
2. O n´umero de erros de impress˜ao em uma p´agina de um livro;
3. o n´umero de clientes entrando em um banco durante v´arios intervalos de tempo. Exemplo 2.7.3. Um canal de transmiss˜ao de ru´ıdo tem probabilidade de erro por digito de p=0.01.
(a) Calcule a probabilidade de receber mais de um erro em 10 digitos. (b) Repita (a), usando a aproxima¸c˜ao de Poisson.
Exemplo 2.7.4. O n´umero de chamadas telefˆonicas chegando em um painel de comando durante um per´ıodo de 10 minutos ´e conhecido como uma v.a. de Poisson X com λ = 2. (a) Calcule a probabilidade que mais de trˆes chamadas cheguem durante um per´ıodo de 10 minutos.
(b) Calcule a probabilidade que nenhuma chamada chegue durante o per´ıodo de 10 minutos.
2.7.4
Distribui¸
c˜
ao Uniforme
Uma v.a. X ´e chamada v.a. uniforme sobre (a, b) se sua fdp ´e dada por fX(x) =
1
b−a a < x < b
0 caso contr´ario A fda correspondente de X ´e FX(x) = 0 x ≤ a x−a b−a a < x < b 1 x ≥ b A m´edia e a variˆancia de uma v.a. uniforme X s˜ao
µX = a + b 2 σX2 = (b − a) 2 12
Uma v.a. X ´e frequentemente usada quando n˜ao temos nenhum conhecimento pr´evio da fda e todos os valores cont´ınuos em algum intervalo s˜ao igualmente prov´aveis.
2.7.5
Distribui¸
c˜
ao Exponencial
Uma v.a. X ´e chamada v.a. exponencial com parˆametro λ(> 0) se sua fdp ´e dada por fX(x) = λe−λx x > 0 0 x < 0 A fda corespondente de X ´e fX(x) = 1 − e−λx x ≥ 0 0 x < 0
A m´edia e a variˆancia de uma v.a. exponencial X s˜ao µX = 1/λ
σX2 = 1/λ2
Exemplo 2.7.5. Assuma que o tempo de uma chamada telefˆonica em minutos ´e uma v.a. exponencial X com parˆametro λ = 1/10. Se algu´em chega a uma cabine de telefone pouco antes de sua chegada, encontre a probabilidade de que vocˆe ter´a que esperar (a) menos que 5 minutos, e (b) entre 5 e 10 minutos.
2.7.6
Distribui¸
c˜
ao Normal (ou Gaussiana)
Uma v.a. X ´e chamada v.a. normal se sua fdp ´e dada por fX(x) = 1 √ 2πσe −(x−µ)2/2σ2 A fda correspondente de X ´e FX(x) = 1 √ 2πσ Z x −∞ e−(ξ−µ)2/(2σ2)dξ = Z (x−µ)/σ) −∞ e−ξ2/2dξ (2.28)
Esta integral n˜ao pode ser resolvida em uma forma fechada e deve ser resolvida nu-mericamente. ´E conveniente usar a fun¸c˜ao Φ(z), definida como
Φ(z) = √1 2π
Z z
−∞
e−ξ2/2dξ
para ajudar a resolver o valor de FX(x). Ent˜ao, a eq. 2.28 pode ser escrita como
FX(x) = Φ
x − µ σ
Note que Φ(−z) = 1 − Φ(z).
A m´edia e a variˆancia de uma v.a. normal X s˜ao µX = µ
σX2 = σ2
Usamos a nota¸c˜ao N (µ, σ2) para denotar que X ´e uma v.a. normal com m´edia µ e
variˆancia σ2. Uma v.a. normal Z com m´edia zero e variˆancia um - isto ´e, Z = N (0, 1) -´e chamada de v.a. normal padr˜ao.
Exemplo 2.7.6. Uma linha de produ¸c˜ao fabrica resistores de 1000-ohm (Ω) que tem tolerˆancia de 10%. Seja X a v.a. que denota a resistˆencia do resistor. Assumindo que X ´e uma v.a. normal com m´edia 1000 e variˆancia 2500, calcule a probabilidade de um resistor escolhido aleatoriamente seja rejeitado.
2.8
Distribui¸
c˜
ao Condicional
J´a vimos que a probabilidade condicional de um evento A dado o evento B ´e definido como
P (A|B) = P (A ∩ B)
P (B) P (B) > 0
A fda condicional FX(x|B) de uma v.a. X dado o evento B ´e definido por
FX(x|B) = P (X ≤ x|B) =
P {(X ≤ X) ∩ B} P (B)
A fda condicional FX(x|B) tem as mesmas propriedades de FX(x).Em particular,
FX(−∞|B) = 0 FX(∞|B) = 1
P (a < X ≤ b|B) = FX(b|B) − FX(a|B)
Se X ´e uma v.a. discreta, ent˜ao a fmp condicional pX(xk|B) ´e definida como
pX(xk|B) = P (X = xk|B) =
P {(X = xk) ∩ B}
P (B)
Se X ´e uma v.a. cont´ınua, ent˜ao a fdp condicional fX(x|B) ´e definida como
fX(x|B) =
dFX(x|B)
dx
2.9
Exerc´ıcios
1. A probabilidade de um bem sucedido lan¸camento de foguete ´e igual a 0,8. Suponha que tentativas de lan¸camento sejam feitas at´e que tenham ocorrido 3 lan¸camentos bem sucedidos. Qual o n´umero m´edio de tentativas para a ocorrˆencia dos 3 lan¸camentos bem sucedidos?
2. Considere a v.a discreta X que tem como fmp pX(x) =
1 2
xk
; xk = 1, 2, 3, ...
Seja A = {ζ; X(ζ) = 1, 3, 5, 7, ...}. Calcule P (A). 3. Considere a fun¸c˜ao dada por
p(x) = k
x2; x = 1, 2, 3, ...
0, caso contrario
onde k ´e uma constante. Calcule o valor de k tal que p(x) pode ser a fmp de uma v.a discreta X.
4. Sabe-se que o disquete produzido por uma empresa A ser´a defeituoso com proba-bilidade 0.01. A empresa vende o disquete em pacotes de 10 e oferece a garantia de substitui¸c˜ao que, no m´aximo, 1 dos 10 discos est´a com defeito. Calcule a probabili-dade que um pacote comprado ter´a que ser substituido.
5. Um sistema de transmiss˜ao digital tem uma probabilidade de erro de 10−6por d´ıgito. Calcule a probabilidade de 3 ou mais erros em 106 d´ıgitos usando a aproxima¸c˜ao da Distribui¸c˜ao de Poisson.
6. Sabe-se que o tempo (em horas) entre consecutivos acidentes de tr´afego pode ser descrito por uma v.a exponencial X com parˆametro λ = 1/60. Calcule (a) P (X ≤ 60), (b) P (X > 120); e (c) P (10 < X ≤ 100).
7. Dados Bin´arios s˜ao transmitidos atrav´es de um canal de ru´ıdos em blocos de 16 d´ıgitos bin´arios. A probabilidade que um d´ıgito recebido ´e em erro como resultado do canal de ru´ıdo ´e 0.01. Assuma que os erros ocorridos em v´arias posi¸c˜oes d´ıgito dentro de um bloco s˜ao independentes.
(a) Calcule a m´edia e a variˆancia do n´umero de erros por bloco.
(b) Calcule a probabilidade que o n´umero de erros por blocos ´e maior ou igual a 4. 8. Seja a v.a cont´ınua X que denota o peso ( em libras) de um pacote. O conjunto
imagem do peso do pacote ´e entre 45 e 60 libras.
(a) Determine a probabilidade que um pacote ter peso maior que 50 libras. (b) Calcule a m´edia e a variˆancia de peso dos pacotes.
dica: Assuma que X ´e uma distribui¸c˜ao uniforme (45,60).
9. Em uma produ¸c˜ao de chips de memoria de computador, a empresa A produz um chip com defeito para cada nove chips bons. Seja X o tempo para falha (em meses) dos chips. Sabendo que X ´e uma v.a exponencial com parˆametro λ = 1/2 para um chip defeituoso e λ = 1/10 para um chip bom. Calcule a probabilidade que um chip comprado aleatoriamente ir´a falhar antes de (a) seis meses de uso; (b) um ano de uso.
10. Seja X a v.a denota o n´umero de componentes defeituosos em um amostra aleat´oria de n componentes, selecionado sem reposi¸c˜ao de um total de N componentes, r das quais est˜ao com defeitos. A v.a X ´e conhecida como a v.a hipergeom´etrica com parˆametros (N, r, n).
(a) Calcule a fmp de X.
(b) Calcule a m´edia e a variˆancia de X. Dica: Para Achar E(X), note que:
r x = r x r − 1 x − 1 e N n = n X x=0 r x N − r n − x
Para encontrar a V ar(X), primeiro calcule E[X(X − 1)].
11. Um lote de 100 fus´ıveis ´e inspecionado pelo seguinte processo: cinco fus´ıveis s˜ao selecionados aleatoriamente, e se todos cinco ”enchem”a amperagem especificada, o lote ´e aceito. Suponha que o lote contenha 10 fus´ıveis defeituosos. Calcule a probabilidade de aceita¸c˜ao do lote.
Dica: Seja X a v.a igual ao n´umero de fus´ıveis defeituosos na amostra de 5 e use o resultado do problema anterior.
12. Suponha que a probabilidade que um bit transmitido atrav´es de um canal de co-munica¸c˜ao digital e recebido com erro ´e 0.1. Assumindo que as transmiss˜oes s˜ao eventos independentes, calcule a probabilidade que o terceiro erro ocorra no 10o bit.
Cap´ıtulo 3
Vari´
aveis Aleat´
orias
Multidimensionais
3.1
Introdu¸
c˜
ao
Em muitas aplica¸c˜oes ´e importante estudar duas ou mais v.a.’s definidas no mesmo espa¸co amostral. Neste cap´ıtulo, n´os primeiro consideraremos o caso de duas v.a.’s com dis-tribui¸c˜oes associadas e algumas propriedades, tal como independencia de v.a.’s. Estes conceitos s˜ao ent˜ao extendidos para o caso de v´arias v.a.’s definidas em um mesmo espa¸co amostral.
3.2
Vari´
aveis Aleat´
orias Bidimensionais
3.2.1
Defini¸
c˜
ao
Seja S o espa¸co amostral de um experimento aleat´orio. Seja X e Y duas v.a.’s. Ent˜ao o par (X, Y ) ´e chamado de v.a. bidimensional (ou vetor aleat´orio bidimensional), se cada X e Y associam um n´umero real com cada elemento de S. Assim, a v.a. bidimensional (X, Y ) pode ser considerado como uma fun¸c˜ao que para cada ponto ζ em S associa um ponto (x, y) no plano. O contra-dom´ınio de uma v.a. bidimensional (X, Y ) ´e denotado por Rxy e definido por
Rxy = {(x, y); ζ ∈ S e X(ζ) = x, Y (ζ) = y}
Se a v.a.’s X e Y s˜ao cada uma, por si mesmas, v.a.’s discretas, ent˜ao (X, Y ) ´e chamada v.a. bidimensional discreta.
Similarmente, se X e Y s˜ao cada uma, por si mesmas, v.a.’s cont´ınuas, ent˜ao (X, Y ) ´e chamada v.a. bidimensional cont´ıua.
Se X ou Y ´e discreta e a outra ´e cont´ınua, ent˜ao (X, Y ) ´e chamada v.a. bidimensional mista.
Exemplo 3.2.1. Considere um experimento de lan¸car uma moeda honesta duas vezes. Seja (X, Y ) uma v.a. 2D, onde X ´e o n´umero de caras que ocorre nos dois lan¸camentos e Y ´e o n´umero de coroas que ocorre nos dois lan¸camentos. Calcule P (X = 2, Y = 0), P (X = 0, Y = 2), P (X = 1, Y = 1)
3.3
Fun¸
c˜
ao de Distribui¸
c˜
ao Conjunta
3.3.1
Defini¸
c˜
ao
A fun¸c˜ao de distribui¸c˜ao acumulada conjunta (fda conjunta) de X e Y , denotada por FXY(x, y), ´e a fun¸c˜ao definida por
FXY(x, y) = P (X ≤ x, Y ≤ y) (3.1)
O evento (X ≤ x, Y ≤ y) na equa¸c˜ao 3.1 ´e equivalente ao evento A ∩ B, onde A e B s˜ao os eventos definidos por
A = {ζ ∈ S; X(ζ) ≤ x} e B = {ζ ∈ S; Y (ζ) ≤ y} e
P (A) = FX(x) e P (B) = FY(y)
Assim,
FXY(x, y) = P (A ∩ B)
Se, para valores particulares de x e y, A e B s˜ao eventos independentes de S, ent˜ao FXY(x, y) = P (A ∩ B) = P (A)P (B) = FX(x)FY(y)
Duas v.a.s X e Y ser˜ao chamadas independentes se FXY(x, y) = FX(x)FY(y)
para todos os valores de x e y.
3.3.2
Propriedades de F
XY(x, y)
A fda conjunta de duas v.a.’s possuem muitas propriedades an´alogas `as das fda de uma v.a. simples. • 0 ≤ FXY(x, y) ≤ 1; • Se x1 ≤ x2 e y1 ≤ y2ent˜ao FXY(x1, y1) ≤ FXY(x2, y1) ≤ FXY(x2, y2) e FXY(x1, y1) ≤ FXY(x1, y2) ≤ FXY(x2, y2) • limx→∞;y→∞FXY(x, y) = FXY(∞, ∞) = 1; • limx→−∞FXY(x, y) = FXY(−∞, y) = 0; • limy→−∞FXY(x, y) = FXY(x, −∞) = 0
• limx→a+FXY(a+, y) = FXY(a, y);
• limy→b+FXY(x, b+) = FXY(x, b);
• P (x1 < X ≤ x2, Y ≤ y) = FXY(x2, y) − FXY(x1, y); P (X ≤ x, y1 < Y ≤ y2) =
3.3.3
Fun¸
c˜
ao de Distribui¸
c˜
ao Marginal
Visto que
lim
y→∞(X ≤ x, Y ≤ y) = (X ≤ x, Y ≤ ∞) = (X ≤ X)
desde que a condi¸c˜ao y ≤ ∞ ´e sempre satisfeita. Ent˜ao lim
y→∞FXY(x, y) = FXY(x, ∞) = FX(x) (3.2)
Similarmente,
lim
x→∞FXY(x, y) = FXY(∞, y) = FY(y) (3.3)
As fda’s FX(x) e FY(y), quando obtidas pelas equa¸c˜oes 3.2 e 3.3, s˜ao referidas como as
fda’s marginais de X e Y respectivamente.
Exemplo 3.3.1. A fda conjunta de uma v.a. 2D ´e dada por FXY(x, y) =
(1 − eαx)(1 − e−βy) x ≥ 0; y ≥ 0; α, β > 0
0 caso contr´ario
(a) Calcule as fda’s marginais de X e Y . (b) Mostre que X e Y s˜ao independentes.
(c) Calcule P (X ≤ 1, Y ≤ 1), P (X ≤ 1), P (Y > 1), P (X > x, Y > y)
3.4
V.A. Discreta - FMP Conjunta
3.4.1
FMP Conjunta
Seja (X, Y ) uma v.a. 2D discreta e suponha que (X, Y ) assumam os valores (xi, yj) para
um certo conjunto de inteiros i e j. A fun¸c˜ao
pXY = P (X = xi, Y = yj)
´e chamada a fun¸c˜ao massa de probabilidade conjunta (fmp conjunta) de (X, Y ).
3.4.2
Propriedades de p
XY(x
i, y
j)
1. 0 ≤ pXY(xi, yj) ≤ 1; 2. P xy P xypXY(xi, yj) = 1; 3. P [(X, Y ) ∈ A] = P P(xi,yj)∈RApXY(xi, yj), onde o somat´orio ´e sobre os pontos
(xi, yj) no contra-dom´ınio RA correspondente ao evento A.
A fda conjunta de uma v.a. 2D (X, Y ) ´e dada por FXY(x, y) = X xi≤x X yj≤y pXY(xi, yj)
3.4.3
FMP Marginal
Suponha que para um valor fixo X = xi, a v.a. Y pode assumir apenas os poss´ıveis
valores yj (j = 1, 2, ..., n). Ent˜ao
P (X = xi) = pX(xi) =
X
yi
pXY(xi, yj)
onde o somat´orio ´e tomado sobre todos os pares (xi, yj) com xi fixo. Similarmente,
P (Y = yj) = pY(yj) =
X
xi
pXY(xi, yj)
onde o somat´orio ´e tomado sobre todos os pares (xi, yj) com yj fixo.
As fmp’s pX(xi) e pY(yj) s˜ao chamadas de fmp’s marginais de X e Y , respectivamente.
3.4.4
Vari´
aveis Aleat´
orias Independentes
Se X e Y s˜ao v.a.’s independentes, ent˜ao
pXY(xi, yj) = pX(xi)pY(yj)
Exemplo 3.4.1. Dois dados honestos s˜ao jogados. Considere uma v.a. 2D (X, Y ). Seja X = 0 ou 1 conforme o primeiro dado mostre um n´umero par ou ´ımpar de pontos. Similarmente, seja Y = 0 ou 1 conforme o segundo dado.
(a) Encontre o contra-dom´ınio RXY de (X, Y );
(b) Calcule a fmp’s conjuntas de (X, Y ).
Exemplo 3.4.2. Considere um canal de comunica¸c˜ao bin´ario mostrado na figura Seja
(X, Y ) a v.a. 2D onde X ´e a entrada do canal e Y ´e a saida do canal. Seja P (X = 0) = 0.5 e P (Y = 1|X = 0) = 0.1, e P (Y = 0|X = 1) = 0.2.
(a)Calcule a fmp conjunta de (X, Y );
(b)Encontre a fmp’s marginais de X e de Y ; (c)X e Y s˜ao independentes?
3.5
Vari´
aveis Aleat´
orias Cont´ınuas - FDP Conjunta
3.5.1
Fun¸
c˜
ao Densidade de Probabilidade Conjunta
Seja (X, Y ) uma v.a. 2D cont´ınua com fda FXY(x, y). A fun¸c˜ao
fXY(x, y) =
∂2f
XY(x, y)
∂x∂y (3.4)
´e chamada fun¸c˜ao densidade de probabilidade conjunta de (X, Y ). Integrando a Eq. 3.4, obtemos FXY(x, y) = Z x −∞ Z y −∞ fXY(ξ, η)dηdξ
3.5.2
Propriedades de f
XY(x, y)
1. fXY(x, y) ≥ 0; 2. R−∞∞ R−∞∞ fXY(x, y)dydx = 1;3. fXY(x, y) ´e cont´ınua para todos os valores de x e y exceto em um conjunto finito de
pontos; 4. P [(X, Y ) ∈ A] =R RR AfXY(x, y)dydx 5. P (a < X ≤ b, c < Y ≤ d) =Rd c Rb afXY(x, y)dxdy
Visto que P (X = a) = 0 = P (Y = c), segue-se que P (a < X ≤ b, c < Y ≤ d) = P (a ≤ X ≤ b, c ≤ Y ≤ d) = P (a ≤ X < b, c ≤ Y < d) = P (a < X < b, c < Y < d) = Z d c Z b a fXY(x, y)dxdy
3.5.3
FDP Marginal
Pela Eq. 3.2, FX(x) = FXY(x, ∞) = Z x −∞ Z ∞ −∞ fXY(ξ, η)dηdξ Ent˜ao, fX(x) = dFX(x) dx = Z ∞ −∞ fXY(x, η)dη ou fX(x) = Z ∞ ∞ fXY(x, y)dy (3.5) Similarmente, fY(y) = Z ∞ −∞ (x, y)dx (3.6)As fdp’s fX(x) e fY(y), quando obtidas pelas equa¸c˜oes 3.5 e 3.6, s˜ao chamadas de fdp’s
3.5.4
Vari´
aveis Aleat´
orias Independentes
Se X e Y s˜ao independentes, temos FXY(x, y) = FX(x)FY(y) Ent˜ao ∂2F XY(x, y) ∂x∂y = ∂ ∂xFX(x) ∂ ∂yFY(x) ou fXY(x, y) = fX(x)fY(Y ) (3.7)Assim, dizemos que duas v.a.’s X e Y s˜ao independentes se e somente se a Eq. 3.7 ´e satisfeita.
Exemplo 3.5.1. A fdp conjunta de uma v.a. 2D (X, Y ) ´e dada por fXY(x, y) =
k(x + y) 0 < x < 2, 0 < y < 2 0 caso contr´ario onde k ´e uma constante.
(a)Calcule o valor de k;
(b) Encontre as fdp’s marginais de X e Y ; (c) X e Y s˜ao independentes?
Exemplo 3.5.2. Suponha que seja selecionado um ponto aleatoriamente dentro de um c´ırculo com raio R. Se colocarmos o centro do c´ırculo na origem e definir X e Y para as coordenadas dos pontos escolhidos, ent˜ao (X, Y ) ´e uma v.a. uniforme 2D com fdp conjunta dada por
fXY(x, y) =
k x2+ y2 ≤ R2
0 x2+ y2 > R2
onde k ´e uma constante.
(a) Determine o valor de k.
(b) Calcule as fdp’s marginais de X e Y .
(c) Encontrar a probabilidade da distˆancia entre a origem e o ponto selecionado n˜ao ser maior do que a.
3.6
Distribui¸
c˜
oes Condicionais
3.6.1
Fun¸
c˜
ao Massa de Probabilidade Condicional
Se (X, Y ) ´e uma v.a. 2D com fmp conjunta pXY(x, y), ent˜ao a fmp condicional de Y dado
X = xi, ´e definido por
pY |X(yj|xi) =
pXY(xi, yj)
pX(xi)
pX(xi) > 0.
Similarmente, podemos definir pX|Y(xi|yj) como
pX|Y(xi|yj) =
pXY(xi, yj)
pY(yj)
3.6.2
Propriedades de p
Y |X(y
j|x
i)
1. 0 ≤ pY |X(yj|xi) ≤ 1;
2. P
yjpY |X(yj|xi) = 1.
Observe que se X e Y s˜ao independentes, ent˜ao
pY |X(yj|xi) = pY(yj) e pX|Y(xi|yj) = pX(xi)
3.6.3
Fun¸
c˜
ao Densidade de Probabilidade Condicional
Se (X, Y ) ´e uma v.a. 2D com fdp conjunta fXY(x, y), ent˜ao a fdp condicional de Y , dado
que X = xi, ´e definido por
fY |X(y|x) =
fXY (x, y)
fX(x)
fX(x) > 0.
Similarmente, podemos definir fX|Y(x|y)
fX|Y(x|y) = fXY (x, y) fY(y) fY(y) > 0.
3.6.4
Propriedades de f
Y |X(x|y)
1. fY |X(y|x) ≥ 0; 2. R−∞∞ fY |Xdy = 1Como definido no caso discreto, se X e Y s˜ao independentes, ent˜ao fY |X(x, y) = fY(y) e fX|Y(x|y) = fX(x)
Exemplo 3.6.1. Considere a v.a. 2D (X, Y ) com fdp conjunta fXY(x, y) =
k(x + y) 0 < x < 2, 0 < y < 2 0 caso contr´ario (a) Encontre as fdp’s condicionais fY |X(y|x) e fX|Y(x|y);
(b) Encontre P (0 < Y < 1/2|X = 1).
Exemplo 3.6.2. A fdp conjunta da v.a. (X, Y ) ´e dada por fXY(x, y) =
1 ye
−x/ye−y x > 0, y > 0
0 caso contr´ario (a) Mostre que fXY(x, y) satisfaz a propriedade (2) das fdp’s;
3.7
Coeficientes de Covariˆ
ancia e Correla¸
c˜
ao
A (k, n)-´esimo momento de uma v.a. bidimensional (X, Y ) ´e definido por mkn= E(XkYn) = P yj P xix k iyjnpXY(xi, yj) caso discreto R∞ −∞ R∞ −∞x kynf
XY(x, y)dxdy caso cont´ınuo
Se n = 0, obtemos o k-´esimo momento de X e se k = 0 obtemos o n-´esimo momento de Y . Assim,
m10 = E(X) = µX e m01 = E(Y ) = µY
Se (X, Y ) ´e uma v.a. bidimensional discreta, ent˜ao µX = X yj X xi xipXY(xi, yj) = X xi xi X yj pXY (xi, yj) = X xi xipX(xi) Da mesma forma, µY = X xi X yj yjpXY(xi, yj) = X yj yj " X xi pXY (xi, yj) # = X yj yjpY(yj) Similarmente, temos E(X2) =X yj X xi x2ipXY(xi, yj) = X xi x2ipX(xi) E(Y2) =X yj X xi y2jpXY(xi, yj) = X xi yj2pX(xi)
Se (X, Y ) ´e uma v.a. bidimensional cont´ınua, ent˜ao µX = Z ∞ −∞ Z ∞ −∞ xfXY(x, y)dxdy = Z ∞ −∞ x Z ∞ −∞ fXY(x, y)dy dx = Z ∞ −∞ xfX(x)dx
E, µY = Z ∞ −∞ Z ∞ −∞ yfXY(x, y)dxdy = Z ∞ −∞ y Z ∞ −∞ fXY(x, y)dx dy = Z ∞ −∞ yfY(y)dy Similarmente, µX = Z ∞ −∞ Z ∞ −∞ x2fXY(x, y)dxdy = Z ∞ −∞ x2fX(x)dx µY = Z ∞ −∞ Z ∞ −∞ y2fXY(x, y)dxdy = Z ∞ −∞ y2fY(y)dx
A variˆancia de X e de Y s˜ao facilmente obtidas. O (1, 1)-´esimo momento conjunto de (X, Y )
m11= E(XY )
´e chamado de correla¸c˜ao de X e Y . Se E(XY ) = 0, ent˜ao dizemos que X e Y s˜ao ortogonais. A covariˆancia de X e Y , denotado por Cov(X, Y ) ou σXY ´e definido como
Cov(X, Y ) = σXYE[(X − µX)(Y − µY)] (3.8)
Expandindo a Eq. 3.8, obtemos
Cov(X, Y ) = E(XY ) − E(X)E(Y ) (3.9)
Se Cov(X, Y ) = 0, ent˜ao dizemos que X e Y s˜ao n˜ao-correlatados. Da Eq. 3.9, vemos que X e Y s˜ao n˜ao-correlatados se
E(XY ) = E(X)E(Y ).
Note que se X e Y s˜ao independentes, ent˜ao pode ser mostrada que elas s˜ao de-scorrelatadas, mas o oposto n˜ao ´e verdeiro em geral: isto ´e, o fato de X e Y serem descorrelatadas, em geral, n˜ao implica na sua independˆencia. O coeficiente de correla¸c˜ao, denotado por ρ(X, Y ) ou ρXY ´e definido por
ρ(X, Y ) = Cov(X, Y ) σXσY
= σXY σXσY
Pode ser provado que |ρXY| ≤ 1.
Note que o coeficiente de correla¸c˜ao de X e Y ´e uma medida de dependˆencia linear entre X e Y .
Exemplo 3.7.1. Suponha que a v.a. 2D (X, Y ) ´e uniformemente distribuida sobre um c´ırculo unit´ario.
(a) X e Y s˜ao independentes? (b) X e Y s˜ao correlatados?
Exemplo 3.7.2. Seja (X, Y ) uma v.a. 2D com fdp conjunta fXY(x, y) =
x2+ y2
4π e
−(x2+y2)/2
∞ < x < ∞, −∞ < y < ∞ Mostre que X e Y n˜ao s˜ao independentes mas s˜ao descorrelatadas.
3.8
M´
edia e Variˆ
ancia Condicionais
SE (X, Y ) ´e uma v.a. 2D discreta com fmp conjunta pXY(xi, yj), ent˜ao a m´edia condicional
(ou esperan¸ca condicional) de Y dado X = xi, ´e defeinido por
µY |xi = E(Y |xi) =
X
yj
yjpXY(yj|xi)
A variˆancia condicional de Y dado que X = xi ´e definido por
σ2Y |xi = V ar(Y |xi) = E[(Y − µY |xi) 2|x i] = X yi (yi− µY |xi) 2 pY |xi(Y |xi)
a qual pode ser reduzida para
V ar(Y |xi) = E(Y2|xi) − [E(Y |xi)]2
A m´edia de X dado Y = yj e a variˆancia de X dado Y = yj s˜ao definidas por express˜oes
similares.
Note que a m´edia condicional de Y dado X = xi, ´e uma fun¸c˜ao de xi somente.
Similarmente, a m´edia condicional de X dado Y = yj ´e uma fun¸c˜ao de yj.
Se (X, Y ) ´e uma v.a. 2D cont´ınua com fdp conjunta fXY(x, y), a m´edia condicional
de Y dado X = x ´e definido por
µY |x= E(Y |x) =
Z ∞
∞
yfY |X(y, x)dy
A variˆancia condicional de Y dado X = x ´e definida como σY |x = V ar(Y |x) =
Z ∞
−∞
(y − µY |x)2fY |X(y|x)dy
Que pode ser reduzida para
V ar(Y |x) = E(Y2|x) − [E(Y |x)]2 Exemplo 3.8.1. A fdp conjunta de uma v.a. 2D (X, Y ) dada por
fXY(x, y) =
k 0 < y ≤ x < 1 0 caso contr´ario (a) Calcule as fdp’s marginais de X e Y .
(b) Encontre as fdp’s condicionais fY |X(y|x) e fX|Y(x|y)
(c) Calcule as m´edias condicionais E(Y |x) e E(X|y).
(d) Calcule as variˆancias condicionais V ar(Y |x) e V ar(X|y).
3.9
Exerc´ıcios
1. Considere um experimento de tirar aleatoriamente trˆes bolas de uma urna contendo duas vermelhas, trˆes brancas e quatro bolas azuis. Seja (X, Y ) uma v.a bidimen-sional onde X e Y denotam, respectivamente, o n´umero de bolas vermelhas e de bolas brancas selecinadas.
(a) Calcule a imagem de (X, Y ).
(b) Calcule as fmp’s conjuntas de (X, Y ). (c) X e Y s˜ao independentes?
2. A fmp de uma v.a bidimensional (X, Y ) ´e dada por pxy(xi, yj) =
k(2xi+ yj), xi = 1, 2; yj = 1, 2
0, caso contr´ario onde k ´e uma constante.
(a) Calcule o valor de k.
(b) Calcule as fmp’s marginais de X e Y . (c) X e Y s˜ao independentes?
3. Considere um experimento de jogar duas moedas trˆes vezes. A moeda A ´e honesta, mas a moeda B n˜ao ´e honesta, com P (H) = 1/4 e P (T ) = 3/4. Considere uma v.a bidimensional (X, Y ), onde X denota o n´umero de caras resultantes da moeda A e Y denota o n´umero de caras resutantes da moeda B.
(a) Ache a imagem de (X, Y ).
(b) Calcule as fmp’s conjuntas de (X, Y ).
(c) Calcule P (X = Y ), P (X > Y ) e P (X + Y ≤ 4).
4. Um elaborador tem usado dois processos de produ¸c˜ao diferentes para fabricar chips de mem´oria de computador. Seja (X, Y ) uma v.a bidimensional onde X denota o tempo de falha do chip criado pelo processo A e Y denota o tempo de falha do chip criado pelo processo B. Assuma que a fdp de (X, Y ) ´e
fxy(xi, yj) =
abe−(ax+by), x > 0; y > 0
0, caso contr´ario onde a = 10−4 e b = 1.2(10−4), determine P (X > Y ).
5. Considere a v.a bidimensional (X, Y ) do problema 2. (a) calcule as fmp’s condicionais pY |X(yj|xi) e pX|Y(xi|yj).
(b) Calcule P (Y = 2|X = 2) e P (X = 2|Y = 2).
6. Seja (X,Y) uma v.a bidimensional. Se X e Y s˜ao independentes, mostre que X e Y s˜ao descorrelatados.
7. Suponha que a fmp conjunta de uma v.a bidimensional (X,Y) ´e dada por pxy(xi, yj) =
1/3, (0, 1), (1, 0), (2, 1) 0, caso contr´ario (a) X e Y s˜ao independentes?
(b) X e Y s˜ao descorrelatadas?
8. Seja (X,Y) uma v.a bidimensional com fdp conjunta fxy(x, y) =
x2+ y2
4π e
−(x2+y2)/2
−∞ < x < ∞, −∞ < x < ∞ Mostre que X e Y n˜ao s˜ao independentes mas s˜ao descorrelatadas.
9. Considere a v.a bidimensional (X,Y) do problema 2. Calcule a m´edia e a variˆancia condicionais de Y dado xi = 2.
10. Considere um experimento de jogar uma moeda honesta trˆes vezes. Seja (X,Y) a v.a bidimensional onde X denota o n´umero de caras nos primeiros dois lan¸camentos e Y denota o n´umero de caras no terceiro lan¸camento.
(a) Ache a imagem de X, Y e de (X,Y).
(b) Calcule (i) P (X ≤ 2, Y ≤ 1); (ii) P (X ≤ 1, Y ≤ 1); e (iii) P (X ≤ 0, Y ≤ 0). 11. A fdp conjunta de (X,Y) ´e dada por
fxy(x, y) =
e−(x+y), x > 0, y > 0
0, caso contr´ario (a) X e Y s˜ao independentes?
Cap´ıtulo 4
Fun¸
c˜
ao de uma Vari´
avel Aleat´
oria
4.1
Introdu¸
c˜
ao
Neste cap´ıtulo estudaremos um pouco sobre os conceitos b´asicos de fun¸c˜oes de vari´aveis aleat´orias e investigaremos o valor esperado de uma certa fun¸c˜ao de uma vari´avel aleat´oria.
4.2
Fun¸
c˜
oes de Uma Vari´
avel Aleat´
oria
4.2.1
Vari´
avel Aleat´
oria g(X)
Dado uma v.a. X e uma fun¸c˜ao g(X), a express˜ao Y = g(X)
define uma nova v.a. Y . Com y um n´umero dado, denotamos Dy o subconjunto de RX
(contra-dom´ınio de X) tal que g(x) ≤ y. Ent˜ao
(Y ≤ y) = [g(X) ≤ y] = (X ∈ Dy)
onde (X ∈ Dy) ´e o envento consistindo de todos os resultados ζ tal que o ponto X(ζ) ∈
DY.
Ent˜ao
FY(y) = P (Y ≤ y) = P [g(X) ≤ y] = P (X ∈ Dy)
Se X ´e uma v.a. cont´ınua com fdp fX(x), ent˜ao
FY(y) =
Z
DY
fX(x)dx
4.2.2
Determina¸
c˜
ao de f
Y(y) por f
X(x)
Seja X uma v.a. cont´ınua com fdp fX(x). Se a transforma¸c˜ao y = g(x) ´e um-a-um e
possui a transforma¸c˜ao inversa
x = g−1(y) = h(y)
ent˜ao a fdp de Y ´e dada por
fY(y) = fX(x) dx dy = fX[h(y)] dh(y) d(y)
Note que se g(x) ´e uma fun¸c˜ao cont´ınua mon´otona crecente ou decrescente, ent˜ao a transforma¸c˜ao y = g(x) ´e uma-a-uma.
Se a transforma¸c˜ao y = g(x) n˜ao ´e uma-a-uma, fY(y) ´e obtida como segue: Denotando
as ra´ızes reais de y = g(x) por xk, isto ´e ,
y = g(x1) = · · · = g(xk) = · · · ent˜ao fY(y) = X k fX(xk) |g0(x k)| onde g0(x) ´e a derivada de g(x).
Exemplo 4.2.1. Seja Y = aX + b. Determine a fdp de Y , se X ´e uma v.a. uniforme em (0, 1).
Exemplo 4.2.2. Seja Y = X2. Calcule a fdp de Y se X ´e uma v.a. uniforme em (1, 2).
4.3
Fun¸
c˜
ao de Duas Vari´
aveis Aleat´
orias
4.3.1
Um Fun¸
c˜
ao de Duas Vari´
aveis Aleat´
orias
Dado duas v.a.’s X e Y e uma fun¸c˜ao g(x, y), a express˜ao Z = g(X, Y )
define uma nova v.a. Z. Sendo z um n´umero dado, denotamos DZ o subconjunto de RXY
[contra-dom´ınio de (X, Y )] tal que g(x, y) ≤ z. Ent˜ao
(Z ≤ z) = [g(X, Y ) ≤ z] = {(X, y) ∈ DZ}
onde {(X, Y )inDZ} ´e o evento consistindo de todos os resultados ζ tal que o ponto
{X(ζ), Y (ζ)}inDZ.
Ent˜ao
FZ(z) = P (Z ≤ z) = P [g(X, Y ) ≤ z] = P {(X, Y ) ∈ DZ}
Se X e Y s˜ao v.a.’s cont´ınuas com fdp conjunta fXY(x, y), ent˜ao
FZ(z) =
Z Z
DZ
fXY(x, y)dxdy
4.3.2
Duas Fun¸
c˜
oes de Duas Vari´
aveis Aleat´
orias
Dado duas v.a.’s X e Y e duas fun¸c˜oes g(x, y) e h(x, y), a express˜ao Z = g(X, Y ) e W = h(X, Y )
define duas novas v.a.’s Z e W . Sendo z e w dois n´umeros dados, denotamos por DZW o
subconjunto de RXY [contra-dom´ınio de (X, Y )] tal que g(x, y) ≤ z e h(x, y) ≤ w. Ent˜ao
onde {(X, Y ) ∈ DZW} ´e o evento consistindo de todos os resultados poss´ıveis ζ tal que o
ponto {X(ζ), Y (ζ)} ∈ DZW.
Ent˜ao
FZW(z, w) = P (Z ≤ z, W ≤ w) = P [g(X, Y ) ≤ z, h(X, Y ) ≤ w]
= P {(X, Y ) ∈ DZW}
No caso cont´ınuo, temos
FZW(z, w) =
Z Z
DZW
fXY(x, y)dxdy
4.3.3
Determinando f
ZW(z, w) por f
XY(x, y)
Seja X e Y v.a.’s cont´ınuas com fdp conjunta fXY(x, y). Se a transforma¸c˜ao
z = g(x, y) e w = h(x, y) ´e injetiva e possui a transforma¸c˜ao inversa
x = q(z, w) e y = r(z, w) ent˜ao a fdp conjunta de Z e W ´e dada por
fZW(z, w) = fXY(x, y)|J (x, y)|−1 onde x = q(z, w), y = r(x, y), e J (x, y) = ∂g ∂x ∂g ∂y ∂h ∂x ∂h ∂y = ∂z ∂x ∂z ∂y ∂w ∂x ∂w ∂y
o qual ´e o jacobiano da transforma¸c˜ao. Definimos J (x, y) = ∂q ∂z ∂q ∂w ∂r ∂z ∂r ∂w = ∂x ∂z ∂x ∂w ∂y ∂z ∂y ∂w ent˜ao |J(z, w)| = |J(x, y)|−1.
Exemplo 4.3.1. A voltagem V ´e um fun¸c˜ao do tempo t e ´e dada por V (t) = X cos(ωt) + Y sin(ωt)
na qual ω ´e uma frequencia angular constante e X = Y = N (0; σ2) e s˜ao independentes. (a) Mostre que V (t) pode ser escrita como
V (t) = R(cos(ωt − Θ)) onde R =√X2+ Y2 e Θ = tan−1 X
Y .
4.4
Esperan¸
ca
4.4.1
Esperan¸
ca de uma Fun¸
c˜
ao de Uma Vari´
avel Aleat´
oria
A esperan¸ca de Y = g(X) ´e dada por E(Y ) = E[g(X)] =
P
ig(xi)pX(xi) caso discreto
R∞
−∞g(x)fX(x)dx caso cont´ınuo
4.4.2
Esperan¸
ca de uma Fun¸
c˜
ao de Mais de Uma Vari´
avel Aleat´
oria
Seja X1, . . . , Xn n v.a.’s e seja Y = g(X1, . . . , Xn). Ent˜ao
E(Y ) = E[g(X)] = P x1· · · P xng(x1, . . . , xn)pX1···Xn(x1, . . . , xn) c. d. R∞ −∞· · · R∞ −∞g(x1, . . . , xn)fX1···Xn(x1, . . . , xn)dx1· · · dxn c. c.
4.4.3
Propriedade de Linearidade da Esperan¸
ca
Note que a opera¸c˜ao esperan¸ca ´e linear, e temos E n X i=1 aiXi ! = n X i=1 aiE(xi)
onde os a0is s˜ao constantes. Se as v.a.’s X e Y s˜ao independentes, ent˜ao temos
E[g(X)h(Y )] = E[g(X)]E[h(Y )]
A rela¸c˜ao acima pode ser generalizado para um conjunto mutualmente independentes de n v.a.’s X1, . . . Xn: E " n Y i=1 gi(Xi) # = n Y i=1 e[gi(Xi)]
4.4.4
Esperan¸
ca Condicional com uma Vari´
avel Aleat´
oria
J´a definimos a esperan¸ca condicional de Y dado X = x , E(Y |x), o que ´e, em geral, uma fun¸c˜ao de x, dizemos H(X). Agora H(X) ´e uma fun¸c˜ao da v.a. X; isto ´e,
H(X) = E(Y |x)
Assim, E(Y |x) ´e uma fun¸c˜ao da v.a. X. Note que E(Y |x) tem a seguinte propriedade E[E(Y |X)] = E(Y ).
Exemplo 4.4.1. Seja X uma v.a. uniforme sobre (0, 1) e Y = eX
(a)Encontre E(Y ) usando fY(y);
(b)Encontre E(X) usando fX(x).
Exemplo 4.4.2. Seja X e Y definidos por
X = cos Θ e Y = sin Θ onde Θ ´e uma v.a. uniformemente distribuida sobre (0, 2π).
(a) Mostre que X e Y s˜ao descorrelatadas; (b) Mostre que X e Y s˜ao independentes.
4.5
Fun¸
c˜
oes Geradoras de Momento
4.5.1
Defini¸
c˜
ao
A fun¸c˜ao geradora de momento de uma v.a. X ´e definido por MX(t) = E(etX) = P ie txip X(xi) caso discreto R∞ −∞e txf X(x)dx caso cont´ınuo
onde t ´e uma vari´avel real. Note que MX(t) pode n˜ao existir para algumas v.a.’s. Em
geral, MX(t) existir´a somente para aqueles valores de t para o qual a soma ou integral
converge absolutamente. Suponha que MX(t) existe. Se expressarmos etX formalmente e
tomarmos a esperan¸ca, temos MX(t) = E(etX) = E 1 + tX + 1 2!(tX) 2+ · · · + 1 k!(tX) k+ · · · = 1 + tE(X) + t 2 2!E(X 2) + · · · + t k k!E(X k) + · · ·
Suponha que MX(t) existe. Se expressarmos etX formalmente e tomarmos a esperan¸ca,
temos MX(t) = E(etX) = E 1 + tX + 1 2!(tX) 2+ · · · + 1 k!(tX) k+ · · · (4.1) = 1 + tE(X) + t 2 2!E(X 2) + · · · + tk k!E(X k) + · · · (4.2)
e o k-´esimo momento de X ´e dado por
mk = E(Xk) = MX(0) com k = 1, 2, . . ., onde MX(k)(0) = d k dtkMX(t) t=0
4.5.2
Fun¸
c˜
ao Geradora de Momento Conjunta
A fun¸c˜ao geradora de momento conjunta MXY(t1, t2) de duas v.a.’s X e Y ´e definda por
MXY(t1, t2) = E[e(t1X+t2Y )]
onde t1 e t2 s˜ao vari´aveis reais. Procedendo como na eq. 4.1, podemos estabelecer que
MXY(t1, t2) = E[e(t1X+t2Y )] = ∞ X k=0 ∞ X n=0 tk 1tn2 k!n!E(X kYn)
e o (k, n) momento conjunto de X e Y ´e dado por mkn= E(XkYn) = MXY(kn)(0, 0) onde MXY(kn)(0, 0) = ∂ k+n ∂kt 1∂nt2 MXY(t1, t2) t1=t2=0
Exemplo 4.5.1. Seja o momento de uma v.a. discreta X dado por E(Xk) = 0.8 k = 1, 2, ...
(a)Encontre a fun¸c˜ao geradora de momento de X; (b)Calcule P (X = 0) e P (X = 1).
Exemplo 4.5.2. Calcule a fun¸c˜ao geradora de momento de uma v.a. normal padr˜ao X = N (0; 1) e calcule os trˆes primeiros momentos de X.
4.6
Fun¸
c˜
ao Caracter´ıstica
4.6.1
Defini¸
c˜
ao
A fun¸c˜ao Caracter´ıtica de uma v.a. X ´e definida por ΨX(ω) = E(ejωX = P iejωxipX(xi) caso discreto R∞ −∞e jωxf X(x)dx caso cont´ınuo (4.3) quando ω ´e uma vari´avel real e j =√−1. Note que ΨX(ω) ´e obtida trocando t em MX(t)
por jω se MX(t) existe. Assim, a fun¸c˜ao caracter´ıstica possue todas as propriedades da
fun¸c˜ao geradora de momento. Agora, |ΨX(ω)| = X i ejωxip X(xi) ≤X i ejωxi pX(xi) = X i pX(xi) = 1 < ∞
para o caso discreto e |ΨX(ω)| = Z ∞ −∞ ejωxfX(x)dx ≤ Z ∞ −∞ ejωxfX(x)dx = Z ∞ −∞ fX(x)dx = 1 < ∞
para o caso cont´ınuo.
Dessa forma, A fun¸c˜ao caracter´ıstica ΨX(ω) ´e sempre definida mesmo se a fun¸c˜ao
momento MX(t) n˜ao ´e. Note que ΨX(ω) da Eq. 4.3 para o caso cont´ınuo ´e a transformada
de Fourier ( com o sinal de j trocado) de fX(x). Por causa deste fato, se ΨX(ω) ´e
conhecida, fX(x) pode ser encontrada pela transformada de Fourier inversa; isto ´e,
fX(x) = 1 2π Z ∞ −∞ ΨX(ω)e−jωxdω
4.6.2
Fun¸
c˜
oes Caracter´ısticas Conjuntas
A fun¸c˜ao caracter´ıstica conjunta ΨXY(ω1, ω2) de duas v.a.’s X e Y ´e definida por
ΨXY(ω1, ω2) = E[ej(ω1X+ω2Y )] = P i P ke j(ω1xi+ω2yk)p XY(xi, yk) caso discreto R∞ −∞ R∞ −∞e j(ω1x+ω2y)f
XY(x, y)dxdy caso cont´ınuo
(4.4) onde ω1 e ω2 s˜ao vari´aveis reais.
A express˜ao da equa¸c˜ao 4.4 para o caso cont´ınuo ´e reconhecida como a transformada de Fourier bidimensional ( com o sinal de j trocado) de fXY(x, y). Assim, da transformada
de Fourier inversa, obtemos fXY(x, y) = 1 (2π)2 Z ∞ −∞ Z ∞ −∞ ΨXY(ω1, ω2)e−j(ω1x+ω2y)dω1dω2
Das equa¸c˜oes 4.3 e 4.4 vemos que
ΨY(ω) = ΨXY(ω, 0) e ΨY(ω) = ΨXY(0, ω)
as quais s˜ao chamadas fun¸c˜oes caracter´ısticas marginais.
Exemplo 4.6.1 (4.59). A fun¸c˜ao caracter´ıstica de uma v.a. X ´e dada por ΨX(ω) =
1 − |ω|, |ω| < 1 0 |ω| > 1 Calcule a fdp de X.