Cap´ıtulo 4 - Vari´
aveis aleat´
orias e
distribui¸c˜
oes cont´ınuas
Cap´ıtulo 4 -Vari´aveis aleat´orias e distribui¸c˜oes cont´ınuas 4.1 Vari´aveis aleat´orias cont´ınuas. Fun¸c˜ao densidade de probabilidade 4.2 Valor esperado, variˆancia e
algumas das suas propriedades. Moda e quantis 4.3 Distribui¸c˜ao uniforme cont´ınua 4.4 Distribui¸c˜ao normal 4.5 Distribui¸c˜ao exponencial
4.1 Vari´
aveis aleat´
orias cont´ınuas. Fun¸c˜
ao
densidade de probabilidade
Exemplos: Considerar as seguintes vari´aveis aleat´orias: T - tempo de vida de um determinado equipamento
X - intensidade da corrente em determinado ponto de um circuito Y - resistˆencia mecˆanica de uma pe¸ca
4.1 Vari´
aveis aleat´
orias cont´ınuas. Fun¸c˜
ao
densidade de probabilidade
Exemplos: Considerar as seguintes vari´aveis aleat´orias: T - tempo de vida de um determinado equipamento
X - intensidade da corrente em determinado ponto de um circuito Y - resistˆencia mecˆanica de uma pe¸ca
Em qualquer destes exemplos ´e razo´avel dizer que os valores poss´ıveis das vari´aveis s˜ao intervalos n´umeros reais (de comprimento finito ou infinito)
4.1 Vari´
aveis aleat´
orias cont´ınuas. Fun¸c˜
ao
densidade de probabilidade
Exemplos: Considerar as seguintes vari´aveis aleat´orias: T - tempo de vida de um determinado equipamento
X - intensidade da corrente em determinado ponto de um circuito Y - resistˆencia mecˆanica de uma pe¸ca
Em qualquer destes exemplos ´e razo´avel dizer que os valores poss´ıveis das vari´aveis s˜ao intervalos n´umeros reais (de comprimento finito ou infinito)
=⇒ N.o de valores poss´ıveis ´e infinito n˜ao cont´avel
Defini¸c˜ao: Uma vari´avel aleat´oria ´e cont´ınua se o seu contradom´ınio contiver um intervalo de n´umeros reais e nenhum desses valores puder ser observado repetidamente.
Nota: h´a v.a. discretas que tomam um n´umero t˜ao elevado de valores que ´e mais
conveniente trat´a-las como cont´ınuas (p.ex., o valor do saldo contabil´ıstico de uma conta banc´aria seleccionada ao acaso).
4.1 (cont.)
Como descrever uma v.a. cont´ınua?
O m´etodo usado para as v.a. discretas (lista dos valores poss´ıveis de X e respectivas probabilidades) n˜ao ´e aplic´avel pois ´e imposs´ıvel elaborar uma lista desses valores.
4.1 (cont.)
Como descrever uma v.a. cont´ınua?
O m´etodo usado para as v.a. discretas (lista dos valores poss´ıveis de X e respectivas probabilidades) n˜ao ´e aplic´avel pois ´e imposs´ıvel elaborar uma lista desses valores.
Se pud´essemos listar todos os pequenos intervalos...
Para resolver este problema admite-se que existe uma fun¸c˜ao, fX(x), tal que para cada intervalo de comprimento pequeno, ∆x, se verifica
P x − ∆x2 < X < x + ∆x 2 ≃ fX(x) ∆x ou fX(x) ≃ P x − ∆x 2 < X < x + ∆x2 ∆x
4.1 (cont.)
Como descrever uma v.a. cont´ınua?
O m´etodo usado para as v.a. discretas (lista dos valores poss´ıveis de X e respectivas probabilidades) n˜ao ´e aplic´avel pois ´e imposs´ıvel elaborar uma lista desses valores.
Se pud´essemos listar todos os pequenos intervalos...
Para resolver este problema admite-se que existe uma fun¸c˜ao, fX(x), tal que para cada intervalo de comprimento pequeno, ∆x, se verifica
P x − ∆x2 < X < x + ∆x 2 ≃ fX(x) ∆x ou fX(x) ≃ P x − ∆x 2 < X < x + ∆x2 ∆x
a esta fun¸c˜ao chama-se fun¸c˜ao de densidade de probabilidade (por analogia com a densidade de massa)
Esta fun¸c˜ao pode surgir como limite do histograma quando n → ∞
Esta fun¸c˜ao pode surgir como limite do histograma quando n → ∞
Esta fun¸c˜ao pode surgir como limite do histograma quando n → ∞
n=200 n=1000
Esta fun¸c˜ao pode surgir como limite do histograma quando n → ∞
n=200 n=1000
4.1 (cont.)
Defini¸c˜ao: A fun¸c˜ao fX(x) ´e a fun¸c˜ao de densidade de probabilidade da v.a. cont´ınua X se 1) fX(x) ≥ 0, ∀x∈R 2) Z +∞ −∞ fX(x)dx = 1 3) P (a ≤ X ≤ b) = Z b a fX(x)dx, ∀a,b∈R: a≤b
4.1 (cont.)
Defini¸c˜ao: A fun¸c˜ao fX(x) ´e a fun¸c˜ao de densidade de probabilidade da v.a. cont´ınua X se 1) fX(x) ≥ 0, ∀x∈R 2) Z +∞ −∞ fX(x)dx = 1 3) P (a ≤ X ≤ b) = Z b a fX(x)dx, ∀a,b∈R: a≤b x fX(x) P(a ≤ X ≤ b)
4.1 (cont.)
Consequˆencia: para qualquer vari´avel aleat´oria cont´ınua P (X = x) =
Z x
x
4.1 (cont.)
Consequˆencia: para qualquer vari´avel aleat´oria cont´ınua P (X = x) =
Z x
x
fX(u)du = 0, ∀x∈R
Ou seja, h´a acontecimentos que podem ocorrer, mas que tˆem probabilidade zero.
A um acontecimento deste tipo chama-se acontecimento quase imposs´ıvel.
Por outras palavras, todas as vezes que se realizar a experiˆencia aleat´oria correspondente observa-se um acontecimento quase imposs´ıvel!
4.1 (cont.)
Sim, porque
■ o que est´a em causa ´e a probabilidade do acontecimento formado por
um ´unico ponto
■ mesmo que o dito ponto seja observado, isso n˜ao voltar´a a acontecer
repetidamente (exactamente o mesmo ponto, note-se), logo a frequˆencia relativa do acontecimento {X = x} aproxima-se
inevitavelmente de zero ⇒ P (X = x) = 0 (interpreta¸c˜ao frequencista). Note-se que a situa¸c˜ao ´e totalmente diferente com acontecimentos do tipo {x − ε ≤ X ≤ x + ε}. Em geral, se x ∈ {contradom´ınio de X},
4.1 (cont.)
Sim, porque
■ o que est´a em causa ´e a probabilidade do acontecimento formado por
um ´unico ponto
■ mesmo que o dito ponto seja observado, isso n˜ao voltar´a a acontecer
repetidamente (exactamente o mesmo ponto, note-se), logo a frequˆencia relativa do acontecimento {X = x} aproxima-se
inevitavelmente de zero ⇒ P (X = x) = 0 (interpreta¸c˜ao frequencista). Note-se que a situa¸c˜ao ´e totalmente diferente com acontecimentos do tipo {x − ε ≤ X ≤ x + ε}. Em geral, se x ∈ {contradom´ınio de X},
P (x − ε ≤ X ≤ x + ε) > 0, ∀ε>0
Outra consequˆencia: para qualquer vari´avel aleat´oria cont´ınua
4.1 (cont.)
Exemplo: Uma experiˆencia aleat´oria consiste em escolher, totalmente ao acaso, um ponto do intervalo [0, 2]. Seja X a vari´avel aleat´oria que
representa a distˆancia `a origem. Qual ser´a a f.d.p. de X?
Calcular P (0.5 < X < 1.5). Resolu¸c˜ao:
b b
4.1 (cont.)
Exemplo: Uma experiˆencia aleat´oria consiste em escolher, totalmente ao acaso, um ponto do intervalo [0, 2]. Seja X a vari´avel aleat´oria que
representa a distˆancia `a origem. Qual ser´a a f.d.p. de X?
Calcular P (0.5 < X < 1.5). Resolu¸c˜ao:
totalmente ao acaso ⇒ segmentos ⊂ [0, 2] com o mesmo comprimento devem ter a mesma probabilidade ⇒ fX(x) ´e constante em [0, 2], ou seja
fX(x) = k, 0 ≤ x ≤ 2 0, c.c. x fX(x) k b b bc bc
4.1 (cont.)
k
=?
Z +∞ −∞ fX(x)dx = 1 ⇔ Z 0 −∞ 0 dx + Z 2 0 k dx + Z +∞ 2 0 dx = 1 2 k = 1 ⇔ k = 1 2 b b bc bc4.1 (cont.)
k
=?
Z +∞ −∞ fX(x)dx = 1 ⇔ Z 0 −∞ 0 dx + Z 2 0 k dx + Z +∞ 2 0 dx = 1 2 k = 1 ⇔ k = 1 2 P (0.5 < X < 1.5) = Z 1.5 0.5 1 2 dx = h x 2 i1.5 0.5 = 1 2 b b bc bc4.1 (cont.)
k
=?
Z +∞ −∞ fX(x)dx = 1 ⇔ Z 0 −∞ 0 dx + Z 2 0 k dx + Z +∞ 2 0 dx = 1 2 k = 1 ⇔ k = 1 2 P (0.5 < X < 1.5) = Z 1.5 0.5 1 2 dx = h x 2 i1.5 0.5 = 1 2 Graficamente: x fX(x) 1 2 2 0.5 1.5 ´ Area = 1 2 b b bc bc4.1 (cont.)
Observa¸c˜oes:
■ Geralmente n˜ao ´e f´acil determinar fX(x), a n˜ao ser em casos como o
anterior. Nesta fase vamos admitir que essa fun¸c˜ao ´e conhecida.
■ Tal como se viu anteriormente (Cap. 3) uma descri¸c˜ao alternativa de
uma v.a. ´e dada pela fun¸c˜ao de distribui¸c˜ao acumulada (ou, simplesmente, fun¸c˜ao de distribui¸c˜ao).
4.1 (cont.)
Observa¸c˜oes:
■ Geralmente n˜ao ´e f´acil determinar fX(x), a n˜ao ser em casos como o
anterior. Nesta fase vamos admitir que essa fun¸c˜ao ´e conhecida.
■ Tal como se viu anteriormente (Cap. 3) uma descri¸c˜ao alternativa de
uma v.a. ´e dada pela fun¸c˜ao de distribui¸c˜ao acumulada (ou, simplesmente, fun¸c˜ao de distribui¸c˜ao).
Defini¸c˜ao: A fun¸c˜ao de distribui¸c˜ao (ou fun¸c˜ao de distribui¸c˜ao acumu-lada) de uma v.a. cont´ınua, X, ´e
FX(x) = P (X ≤ x) =
Z x
−∞
4.1 (cont.)
Exemplo (cont.): (n´umero ao caso em [0, 2]) c´alculo de FX(x) x < 0 : FX(x) = Z x −∞ 0 du = 0 0 ≤ x ≤ 2 : FX(x) = Z 0 −∞ 0 du + Z x 0 1 2 du = h u 2 ix 0 = x 2 x > 2 : FX(x) = Z 0 −∞ 0 du + Z 2 0 1 2 du + Z x 2 0 du = 1
4.1 (cont.)
Exemplo (cont.): (n´umero ao caso em [0, 2]) c´alculo de FX(x) x < 0 : FX(x) = Z x −∞ 0 du = 0 0 ≤ x ≤ 2 : FX(x) = Z 0 −∞ 0 du + Z x 0 1 2 du = h u 2 ix 0 = x 2 x > 2 : FX(x) = Z 0 −∞ 0 du + Z 2 0 1 2 du + Z x 2 0 du = 1 x FX(x) 1 2
4.1 (cont.)
Propriedades da fun¸c˜ao de distribui¸c˜ao de uma v.a. cont´ınua
1. cont´ınua 2. dom´ınio = R 3. n˜ao decrescente: x1 < x2 ⇒ FX(x1) ≤ FX(x2) 4. limx→−∞ FX(x) = 0 limx→+∞ FX(x) = 1 5. contradom´ınio ⊂ [0, 1] 6. como FX(x) = Z x −∞
fX(u) du conclui-se que fX(x) =
d FX(x) dx 7. se a < b, P (a < X < b) = FX(b) − FX(a)
4.2 Valor esperado, variˆ
ancia e algumas das suas
propriedades. Moda e quantis
O valor esperado e a variˆancia s˜ao definidos de forma semelhante ao que foi feito para o caso discreto (ver Sec¸c˜ao 3.3), com as necess´arias adapta¸c˜oes.1
4.2 Valor esperado, variˆ
ancia e algumas das suas
propriedades. Moda e quantis
O valor esperado e a variˆancia s˜ao definidos de forma semelhante ao que foi feito para o caso discreto (ver Sec¸c˜ao 3.3), com as necess´arias adapta¸c˜oes.1
Defini¸c˜ao: Seja X uma v.a. cont´ınua com fun¸c˜ao densidade de proba-bilidade fX(x), −∞ < x < +∞,
O valor esperado de X ´e
E(X) = µX = µ =
Z +∞
−∞
x fX(x)dx A variˆancia de X ´e
V (X) = σX2 = σ2 =
Z +∞
−∞ (x − µ
X)2 fX(x)dx
4.2 (cont.)
Notar ainda que
E [h(X)] =
Z +∞
−∞
4.2 (cont.)
Notar ainda que
E [h(X)] =
Z +∞
−∞
h(x) fX(x)dx
Mantˆem-se as interpreta¸c˜oes e as propriedades (Cap. 3) E (a X + b) = a E(X) + b, ∀a,b∈R
V (X) = E(X2) − [E(X)]2
4.2 (cont.)
Outros parˆametros de localiza¸c˜ao
Moda: de uma v.a. cont´ınua X ´e o valor, ou valores, onde a fun¸c˜ao densidade de probabilidade ´e m´axima (m0)
m0 : fX(m0) = max
x fX(x)
Obs.: A moda pode n˜ao ser ´unica. Podem ainda definir-se modas relativas (correspondentes a m´aximos relativos).
4.2 (cont.)
Outros parˆametros de localiza¸c˜ao
Moda: de uma v.a. cont´ınua X ´e o valor, ou valores, onde a fun¸c˜ao densidade de probabilidade ´e m´axima (m0)
m0 : fX(m0) = max
x fX(x)
Obs.: A moda pode n˜ao ser ´unica. Podem ainda definir-se modas relativas (correspondentes a m´aximos relativos).
Exemplo:
x fX(x)
2 3
4.2 (cont.)
Mediana: de uma v.a. cont´ınua X ´e um ponto central em termos de probabilidade, ou seja, tal que, P (X ≤ me) = P (X ≥ me) = 0.5
me : P (X ≤ me) = P (X ≥ me) = 1
2 ⇔ FX(me) = 1 2
esta equa¸c˜ao tem sempre pelo menos uma solu¸c˜ao. Se FX(x) for invert´ıvel em ]0, 1[ ent˜ao a solu¸c˜ao ´e ´unica e pode ser escrita como me = FX−1(1/2).
4.2 (cont.)
Mediana: de uma v.a. cont´ınua X ´e um ponto central em termos de probabilidade, ou seja, tal que, P (X ≤ me) = P (X ≥ me) = 0.5
me : P (X ≤ me) = P (X ≥ me) = 1
2 ⇔ FX(me) = 1 2
esta equa¸c˜ao tem sempre pelo menos uma solu¸c˜ao. Se FX(x) for invert´ıvel em ]0, 1[ ent˜ao a solu¸c˜ao ´e ´unica e pode ser escrita como me = FX−1(1/2).
Exemplo: x fX(x) √ 3 3 3 √ ´ Area = 1 2 Exerc´ıcio: (a) Escrever fX(x).
(b) Mostrar que E(X) = 4/3 e verificar que m0 > me > E(X)
4.2 (cont.)
Quartis e outros que tais:
1.o quartil: q1 : FX(q1) = 1/4 ou q1 = FX−1(1/4) 3.o quartil: q3 : FX(q3) = 3/4 ou q3 = FX−1(3/4) Quantil de ordem α (com 0 < α < 1):
4.2 (cont.)
Quartis e outros que tais:
1.o quartil: q1 : FX(q1) = 1/4 ou q1 = FX−1(1/4) 3.o quartil: q3 : FX(q3) = 3/4 ou q3 = FX−1(3/4) Quantil de ordem α (com 0 < α < 1):
xα : FX(xα) = α ou xα = FX−1(α) Graficamente: x FX(x) 1 α 2 xα
4.3 Distribui¸c˜
ao uniforme cont´ınua
´
E a distribui¸c˜ao cont´ınua mais simples.
Um exemplo ´e a vari´avel considerada anteriormente, relativa `a escolha de um ponto ao acaso em [0, 2].
4.3 Distribui¸c˜
ao uniforme cont´ınua
´
E a distribui¸c˜ao cont´ınua mais simples.
Um exemplo ´e a vari´avel considerada anteriormente, relativa `a escolha de um ponto ao acaso em [0, 2].
Defini¸c˜ao: Uma v.a. cont´ınua tem distribui¸c˜ao uniforme cont´ınua de parˆametros a e b, com a < b, se
fX(x) = 1 b − a, a ≤ x ≤ b 0, c.c. abreviadamente, X ∼ Unif(a, b) Tem-se ainda µX = E(X) = a + b 2 (obviamente?) e σ 2 X = V (X) = (b − a) 2 12
4.3 (cont.)
Demonstra¸c˜ao: (Completar!) E(X) = Z b a x b − a dx = · · · E(X2) = Z b a x2 b − a dx = · · · V (X) = · · · No exemplo X ∼ Unif(0, 2)
4.4 Distribui¸c˜
ao normal
Factos sobre a distribui¸c˜ao normal:
■ A distribui¸c˜ao normal apareceu pela primeira vez (embora sem nome)
num trabalho de De Moivre em 1733, como um “limite” da distribui¸c˜ao binomial quando n → ∞. Simular
4.4 Distribui¸c˜
ao normal
Factos sobre a distribui¸c˜ao normal:
■ A distribui¸c˜ao normal apareceu pela primeira vez (embora sem nome)
num trabalho de De Moivre em 1733, como um “limite” da distribui¸c˜ao binomial quando n → ∞. Simular
0 5 10 15 20
4.4 Distribui¸c˜
ao normal
Factos sobre a distribui¸c˜ao normal:
■ A distribui¸c˜ao normal apareceu pela primeira vez (embora sem nome)
num trabalho de De Moivre em 1733, como um “limite” da distribui¸c˜ao binomial quando n → ∞. Simular
0 5 10 15 20
n = 20 p = 0.45
30 40 50 60 70
4.4 Distribui¸c˜
ao normal
Factos sobre a distribui¸c˜ao normal:
■ A distribui¸c˜ao normal apareceu pela primeira vez (embora sem nome)
num trabalho de De Moivre em 1733, como um “limite” da distribui¸c˜ao binomial quando n → ∞. Simular
0 5 10 15 20 n = 20 p = 0.45 30 40 50 60 70 n = 100 p = 0.5 0 10 20 30 40 n = 200 p = 0.1
4.4 Distribui¸c˜
ao normal
Factos sobre a distribui¸c˜ao normal:
■ A distribui¸c˜ao normal apareceu pela primeira vez (embora sem nome)
num trabalho de De Moivre em 1733, como um “limite” da distribui¸c˜ao binomial quando n → ∞. Simular
0 5 10 15 20
n = 20 p = 0.45
30 40 50 60 70
n = 100 p = 0.5
4.4 (cont.)
■ O resultado de De Moivre (aproxima¸c˜ao normal da distribui¸c˜ao
binomial) permaneceu praticamente desconhecido durante os 80 anos seguintes, at´e que em 1812 Laplace o generalizou e publicou no livro “Th´eorie analytique des probabilit´es” (este resultado ´e conhecido como
Teorema de De Moivre-Laplace).
■ Independentemente, esta distribui¸c˜ao foi estudada por Gauss (1809) e
utilizada para modelar erros de medi¸c˜ao em astronomia.
■ O termo “distribui¸c˜ao normal” (t´ıpica, habitual) s´o apareceu muito
mais tarde (cerca de 1875). ´E tamb´em conhecida como distribui¸c˜ao Gaussiana, ou de Gauss, ou ainda de Laplace-Gauss.
■ Verifica-se que ´e uma boa aproxima¸c˜ao para muitos fen´omenos naturais
(f´ısicos, biol´ogicos, psicol´ogicos. . . ) e n˜ao s´o (econ´omicos, sociais. . . ).
4.4 (cont.)
Defini¸c˜ao: Uma v.a. cont´ınua tem distribui¸c˜ao normal de parˆametros µ, com µ ∈ R, e σ2, com σ > 0, se fX(x) = fX(x; µ, σ) = √ 1 2πσ2e −(x−µ)2 2σ2 , ∀x∈R abreviadamente, X ∼ N(µ, σ2) Tem-se ainda E(X) = µ (obviamente?)2 e V (X) = σ2 2E(X) = R +∞
−∞ xfX(x; µ, σ)dx pode ser calculado recorrendo `a transforma¸c˜ao
4.4 (cont.)
4.4 (cont.)
Defini¸c˜ao: Uma v.a. normal com µ = 0 e σ2 = 1 ´e designada por normal reduzida (ou padr˜ao, ou estandardizada), e ´e geralmente repre-sentada como Z ∼ N(0, 1).
4.4 (cont.)
Defini¸c˜ao: Uma v.a. normal com µ = 0 e σ2 = 1 ´e designada por normal reduzida (ou padr˜ao, ou estandardizada), e ´e geralmente repre-sentada como Z ∼ N(0, 1).
Propriedade: Se X ∼ N(µ, σ2) e Y = a X + b, em que a e b s˜ao constantes (a 6= 0) ent˜ao
4.4 (cont.)
Defini¸c˜ao: Uma v.a. normal com µ = 0 e σ2 = 1 ´e designada por normal reduzida (ou padr˜ao, ou estandardizada), e ´e geralmente repre-sentada como Z ∼ N(0, 1).
Propriedade: Se X ∼ N(µ, σ2) e Y = a X + b, em que a e b s˜ao constantes (a 6= 0) ent˜ao
Y ∼ N(a µ + b, a2σ2) Demonstra¸c˜ao: o que se pretende mostrar ´e que
fY (y) = √ 1 2πa2σ2 exp −(y − (aµ + b)) 2 2a2σ2
4.4 (cont.)
O mais conveniente ´e come¸car por manipular as fun¸c˜oes de distribui¸c˜ao e a seguir derivar para obter fun¸c˜oes de densidade (o m´etodo ´e geral para
obter a distribui¸c˜ao de uma v.a. que ´e fun¸c˜ao de outra com distribui¸c˜ao conhecida): FY (y) = P (Y ≤ y) = P (a X + b ≤ y) = P X ≤ y − ba = FX y − b a
4.4 (cont.)
O mais conveniente ´e come¸car por manipular as fun¸c˜oes de distribui¸c˜ao e a seguir derivar para obter fun¸c˜oes de densidade (o m´etodo ´e geral para
obter a distribui¸c˜ao de uma v.a. que ´e fun¸c˜ao de outra com distribui¸c˜ao conhecida): FY (y) = P (Y ≤ y) = P (a X + b ≤ y) = P X ≤ y − ba = FX y − b a logo fY (y) = dFY (y) dy = d dyFX y − b a = 1 afX y − b a
4.4 (cont.)
O mais conveniente ´e come¸car por manipular as fun¸c˜oes de distribui¸c˜ao e a seguir derivar para obter fun¸c˜oes de densidade (o m´etodo ´e geral para
obter a distribui¸c˜ao de uma v.a. que ´e fun¸c˜ao de outra com distribui¸c˜ao conhecida): FY (y) = P (Y ≤ y) = P (a X + b ≤ y) = P X ≤ y − ba = FX y − b a logo fY (y) = dFY (y) dy = d dyFX y − b a = 1 afX y − b a
agora ´e f´acil verificar que 1 a 1 √ 2πσ2 exp " −( y−b a − µ)2 2σ2 #
4.4 (cont.)
Ou seja, uma transforma¸c˜ao linear de uma v.a. normal altera os
parˆametros (obviamente de acordo com as regras que j´a conhec´ıamos) mas n˜ao altera o tipo de distribui¸c˜ao (quest˜ao: ser´a que acontece o mesmo para as distribui¸c˜oes discretas e cont´ınuas anteriores?).
Assim, para muitos c´alculos podemos usar apenas uma distribui¸c˜ao normal (escolhemos a mais simples: normal padr˜ao).
Qualquer vari´avel aleat´oria normal pode ser transformada em normal padr˜ao:
Se X ∼ N(µ, σ2) e Z = X − µ
σ ent˜ao Z ∼ N(0, 1)
4.4 (cont.)
Fun¸c˜oes de distribui¸c˜ao:
Z ∼ N(0, 1): P (Z ≤ x) = Z x −∞ 1 √ 2πe −u2/2 du | {z } ? ≡ Φ(x)
Como e−u2/2 n˜ao tem primitiva elementar, o valor do integral s´o pode ser obtido por m´etodos num´ericos.
X ∼ N(µ, σ2): FX(x) = P (X ≤ x) = P X − µ σ ≤ x − µ σ = = P Z ≤ x − µ σ = Φ x − µ σ
4.4 (cont.)
4.4 (cont.)
C´alculo de probabilidades:
■ Programas em computador ou calculadora
(n˜ao ´e necess´ario usar a normal padr˜ao)
■ Tabelas
(´e necess´ario usar a normal padr˜ao) (ver).
4.4 (cont.)
Alguns valores de probabilidades (quaisquer que sejam µ e σ)
µ
µ+σµ−σ µ+2σ
µ−2σ µ+3σ
4.4 (cont.)
C´alculos: X ∼ N(µ, σ2), ∀µ,σ P (µ − σ < X < µ + σ) = P µ − σ − µ σ < X − µ σ < µ + σ − µ σ = = Φ(1) − Φ(−1) = 0.8413 − 0.1587 = 0.6826 P (µ − 2σ < X < µ + 2σ) = Φ(2) − Φ(−2) = 0.9772 − 0.0228 = 0.9544 P (µ − 3σ < X < µ + 3σ) = Φ(3) − Φ(−3) = 0.99865 − 0.00135 = 0.99734.4 (cont.)
Exerc´ıcio: A empresa ACME fabrica um tipo de lˆampada de x´enon cuja dura¸c˜ao m´edia ´e de 300 dias, com um desvio padr˜ao de 50 dias. O
engenheiro respons´avel pelo departamento de qualidade acredita que a vida ´util daquelas lˆampadas ´e normalmente distribu´ıda. Para decidir qual a dura¸c˜ao que deve ser anunciada como garantida, ele pretende calcular os seguintes valores:
(a) A probabilidade de uma lˆampada ter uma vida ´util superior a um ano. (b) O tempo de vida ´util que ´e excedido por 95% daquelas lˆampadas.
4.4 (cont.)
Exerc´ıcio: A empresa ACME fabrica um tipo de lˆampada de x´enon cuja dura¸c˜ao m´edia ´e de 300 dias, com um desvio padr˜ao de 50 dias. O
engenheiro respons´avel pelo departamento de qualidade acredita que a vida ´util daquelas lˆampadas ´e normalmente distribu´ıda. Para decidir qual a dura¸c˜ao que deve ser anunciada como garantida, ele pretende calcular os seguintes valores:
(a) A probabilidade de uma lˆampada ter uma vida ´util superior a um ano. (b) O tempo de vida ´util que ´e excedido por 95% daquelas lˆampadas.
Vamos ajud´a-lo?
4.5 Distribui¸c˜
ao exponencial
Exemplo: O call center de uma empresa de telecomunica¸c˜oes recebe em m´edia 5 chamadas por hora, admitindo-se que as chamadas seguem um processo de Poisson. O gestor do call center est´a agora interessado em conhecer como varia o intervalo de tempo entre chamadas. Pretende nomeadamente saber:
(a) A probabilidade daquele intervalo de tempo ser superior a 20 minutos. (b) O valor esperado, mediana e desvio padr˜ao dos intervalos de tempo
4.5 Distribui¸c˜
ao exponencial
Exemplo: O call center de uma empresa de telecomunica¸c˜oes recebe em m´edia 5 chamadas por hora, admitindo-se que as chamadas seguem um processo de Poisson. O gestor do call center est´a agora interessado em conhecer como varia o intervalo de tempo entre chamadas. Pretende nomeadamente saber:
(a) A probabilidade daquele intervalo de tempo ser superior a 20 minutos. (b) O valor esperado, mediana e desvio padr˜ao dos intervalos de tempo
entre chamadas.
Resolu¸c˜ao: Defini¸c˜ao das vari´aveis aleat´orias:
Xt - N.o de chamadas que chegam em t horas. Xt ∼ P oisson(5t) T - Intervalo de tempo entre chamadas (em horas). T ∼?
4.5 (cont.)
(a) o tempo que esperamos pela pr´oxima chamada ´e superior a 20 minutos se e s´o se n˜ao houver chamadas nos pr´oximos 20 minutos
(20 minutos = 1/3 horas) (X1/3 ∼ P oisson(5/3)) P T > 1 3 = P (X1/3 = 0) = e −5/3(5/3)0 0! = e −5/3 ≃ 0.1888756
4.5 (cont.)
(a) o tempo que esperamos pela pr´oxima chamada ´e superior a 20 minutos se e s´o se n˜ao houver chamadas nos pr´oximos 20 minutos
(20 minutos = 1/3 horas) (X1/3 ∼ P oisson(5/3)) P T > 1 3 = P (X1/3 = 0) = e −5/3(5/3)0 0! = e −5/3 ≃ 0.1888756 (b) Precisamos de t gen´erico (Xt ∼ P oisson(5t))
P (T > t) = P (Xt = 0) = e
−5t(5t)0
0! = e
−5t
ent˜ao FT(t) = P (T ≤ t) = 1 − e−5t, t > 0 e a fun¸c˜ao densidade de probabilidade ´e
fT(t) = dFT(t)
dt = 5e
4.5 (cont.)
Finalmente: E(T ) =
Z +∞
0
4.5 (cont.)
Finalmente: E(T ) =
Z +∞
0
5te−5tdt = · · · = 1/5 horas = 12 minutos
E(T2) = Z +∞ 0 5t2e−5tdt = · · · = 2/25 horas2 V (T ) = 1/25 horas2 σT = 1/5 horas = 12 minutos
4.5 (cont.)
Finalmente: E(T ) =
Z +∞
0
5te−5tdt = · · · = 1/5 horas = 12 minutos
E(T2) = Z +∞ 0 5t2e−5tdt = · · · = 2/25 horas2 V (T ) = 1/25 horas2 σT = 1/5 horas = 12 minutos me: FT(me) = 0.5 ⇔ 1 − e−5me = 0.5 ⇔
4.5 (cont.)
Defini¸c˜ao: A v.a. X que representa o intervalo de tempo at´e `a pr´oxima ocorrˆencia (ou entre ocorrˆencias sucessivas) de um processo de Poisson com taxa λ > 0 tem uma distribui¸c˜ao exponencial de parˆametro λ, com fun¸c˜ao de densidade de probabilidade dada por
fX(x) = fX(x; λ) = λe−λx, x ≥ 0 abreviadamente, X ∼ Exp(λ) Tem-se ainda µX = E(X) = 1 λ (obviamente?) e σ 2 X = V (X) = (1 λ2
4.5 (cont.)
Defini¸c˜ao: A v.a. X que representa o intervalo de tempo at´e `a pr´oxima ocorrˆencia (ou entre ocorrˆencias sucessivas) de um processo de Poisson com taxa λ > 0 tem uma distribui¸c˜ao exponencial de parˆametro λ, com fun¸c˜ao de densidade de probabilidade dada por
fX(x) = fX(x; λ) = λe−λx, x ≥ 0 abreviadamente, X ∼ Exp(λ) Tem-se ainda µX = E(X) = 1 λ (obviamente?) e σ 2 X = V (X) = (1 λ2
Observa¸c˜ao importante: funciona no sentido inverso, ou seja, se os intervalos de tempo entre ocorrˆencias forem v.a. independentes e identicamente distribu´ıdas Exp(λ) ent˜ao o n.o
4.5 (cont.)
Propriedade da falta de mem´oria ou amn´esia: Se X ∼ Exp(λ), λ > 0
P (X < t1 + t2|X > t1) = P (X < t2), ∀t1>0,t2>0 Demonstra¸c˜ao: (exerc´ıcio)
4.5 (cont.)
Observa¸c˜oes:
■ O facto de esta distribui¸c˜ao n˜ao ter mem´oria significa que n˜ao ´e
indicada para modelar situa¸c˜oes do tipo tempo de vida, em que h´a desgaste ou envelhecimento.
■ A distribui¸c˜ao exponencial ´e a ´unica distribui¸c˜ao cont´ınua sem
mem´oria.
■ Existe uma ´unica distribui¸c˜ao discreta sem mem´oria: ´e a distribui¸c˜ao