• Nenhum resultado encontrado

PE-MEEC 1S 09/ Capítulo 4 - Variáveis aleatórias e. 4.1 Variáveis. densidade de probabilidade 4.2 Valor esperado,

N/A
N/A
Protected

Academic year: 2021

Share "PE-MEEC 1S 09/ Capítulo 4 - Variáveis aleatórias e. 4.1 Variáveis. densidade de probabilidade 4.2 Valor esperado,"

Copied!
74
0
0

Texto

(1)

Cap´ıtulo 4 - Vari´

aveis aleat´

orias e

distribui¸c˜

oes cont´ınuas

Cap´ıtulo 4 -Vari´aveis aleat´orias e distribui¸c˜oes cont´ınuas 4.1 Vari´aveis aleat´orias cont´ınuas. Fun¸c˜ao densidade de probabilidade 4.2 Valor esperado, variˆancia e

algumas das suas propriedades. Moda e quantis 4.3 Distribui¸c˜ao uniforme cont´ınua 4.4 Distribui¸c˜ao normal 4.5 Distribui¸c˜ao exponencial

(2)

4.1 Vari´

aveis aleat´

orias cont´ınuas. Fun¸c˜

ao

densidade de probabilidade

Exemplos: Considerar as seguintes vari´aveis aleat´orias: T - tempo de vida de um determinado equipamento

X - intensidade da corrente em determinado ponto de um circuito Y - resistˆencia mecˆanica de uma pe¸ca

(3)

4.1 Vari´

aveis aleat´

orias cont´ınuas. Fun¸c˜

ao

densidade de probabilidade

Exemplos: Considerar as seguintes vari´aveis aleat´orias: T - tempo de vida de um determinado equipamento

X - intensidade da corrente em determinado ponto de um circuito Y - resistˆencia mecˆanica de uma pe¸ca

Em qualquer destes exemplos ´e razo´avel dizer que os valores poss´ıveis das vari´aveis s˜ao intervalos n´umeros reais (de comprimento finito ou infinito)

(4)

4.1 Vari´

aveis aleat´

orias cont´ınuas. Fun¸c˜

ao

densidade de probabilidade

Exemplos: Considerar as seguintes vari´aveis aleat´orias: T - tempo de vida de um determinado equipamento

X - intensidade da corrente em determinado ponto de um circuito Y - resistˆencia mecˆanica de uma pe¸ca

Em qualquer destes exemplos ´e razo´avel dizer que os valores poss´ıveis das vari´aveis s˜ao intervalos n´umeros reais (de comprimento finito ou infinito)

=⇒ N.o de valores poss´ıveis ´e infinito n˜ao cont´avel

Defini¸c˜ao: Uma vari´avel aleat´oria ´e cont´ınua se o seu contradom´ınio contiver um intervalo de n´umeros reais e nenhum desses valores puder ser observado repetidamente.

Nota: a v.a. discretas que tomam um n´umero t˜ao elevado de valores que ´e mais

conveniente trat´a-las como cont´ınuas (p.ex., o valor do saldo contabil´ıstico de uma conta banc´aria seleccionada ao acaso).

(5)

4.1 (cont.)

Como descrever uma v.a. cont´ınua?

O m´etodo usado para as v.a. discretas (lista dos valores poss´ıveis de X e respectivas probabilidades) n˜ao ´e aplic´avel pois ´e imposs´ıvel elaborar uma lista desses valores.

(6)

4.1 (cont.)

Como descrever uma v.a. cont´ınua?

O m´etodo usado para as v.a. discretas (lista dos valores poss´ıveis de X e respectivas probabilidades) n˜ao ´e aplic´avel pois ´e imposs´ıvel elaborar uma lista desses valores.

Se pud´essemos listar todos os pequenos intervalos...

Para resolver este problema admite-se que existe uma fun¸c˜ao, fX(x), tal que para cada intervalo de comprimento pequeno, ∆x, se verifica

P  x − ∆x2 < X < x + ∆x 2  ≃ fX(x) ∆x ou fX(x) ≃ P x − ∆x 2 < X < x + ∆x2  ∆x

(7)

4.1 (cont.)

Como descrever uma v.a. cont´ınua?

O m´etodo usado para as v.a. discretas (lista dos valores poss´ıveis de X e respectivas probabilidades) n˜ao ´e aplic´avel pois ´e imposs´ıvel elaborar uma lista desses valores.

Se pud´essemos listar todos os pequenos intervalos...

Para resolver este problema admite-se que existe uma fun¸c˜ao, fX(x), tal que para cada intervalo de comprimento pequeno, ∆x, se verifica

P  x − ∆x2 < X < x + ∆x 2  ≃ fX(x) ∆x ou fX(x) ≃ P x − ∆x 2 < X < x + ∆x2  ∆x

a esta fun¸c˜ao chama-se fun¸c˜ao de densidade de probabilidade (por analogia com a densidade de massa)

(8)
(9)

Esta fun¸c˜ao pode surgir como limite do histograma quando n → ∞

(10)

Esta fun¸c˜ao pode surgir como limite do histograma quando n → ∞

(11)

Esta fun¸c˜ao pode surgir como limite do histograma quando n → ∞

n=200 n=1000

(12)

Esta fun¸c˜ao pode surgir como limite do histograma quando n → ∞

n=200 n=1000

(13)

4.1 (cont.)

Defini¸c˜ao: A fun¸c˜ao fX(x) ´e a fun¸c˜ao de densidade de probabilidade da v.a. cont´ınua X se 1) fX(x) ≥ 0, ∀x∈R 2) Z +∞ −∞ fX(x)dx = 1 3) P (a ≤ X ≤ b) = Z b a fX(x)dx, ∀a,b∈R: a≤b

(14)

4.1 (cont.)

Defini¸c˜ao: A fun¸c˜ao fX(x) ´e a fun¸c˜ao de densidade de probabilidade da v.a. cont´ınua X se 1) fX(x) ≥ 0, ∀x∈R 2) Z +∞ −∞ fX(x)dx = 1 3) P (a ≤ X ≤ b) = Z b a fX(x)dx, ∀a,b∈R: a≤b x fX(x) P(a ≤ X ≤ b)

(15)

4.1 (cont.)

Consequˆencia: para qualquer vari´avel aleat´oria cont´ınua P (X = x) =

Z x

x

(16)

4.1 (cont.)

Consequˆencia: para qualquer vari´avel aleat´oria cont´ınua P (X = x) =

Z x

x

fX(u)du = 0, ∀x∈R

Ou seja, h´a acontecimentos que podem ocorrer, mas que tˆem probabilidade zero.

A um acontecimento deste tipo chama-se acontecimento quase imposs´ıvel.

Por outras palavras, todas as vezes que se realizar a experiˆencia aleat´oria correspondente observa-se um acontecimento quase imposs´ıvel!

(17)

4.1 (cont.)

Sim, porque

■ o que est´a em causa ´e a probabilidade do acontecimento formado por

um ´unico ponto

■ mesmo que o dito ponto seja observado, isso n˜ao voltar´a a acontecer

repetidamente (exactamente o mesmo ponto, note-se), logo a frequˆencia relativa do acontecimento {X = x} aproxima-se

inevitavelmente de zero ⇒ P (X = x) = 0 (interpreta¸c˜ao frequencista). Note-se que a situa¸c˜ao ´e totalmente diferente com acontecimentos do tipo {x − ε ≤ X ≤ x + ε}. Em geral, se x ∈ {contradom´ınio de X},

(18)

4.1 (cont.)

Sim, porque

■ o que est´a em causa ´e a probabilidade do acontecimento formado por

um ´unico ponto

■ mesmo que o dito ponto seja observado, isso n˜ao voltar´a a acontecer

repetidamente (exactamente o mesmo ponto, note-se), logo a frequˆencia relativa do acontecimento {X = x} aproxima-se

inevitavelmente de zero ⇒ P (X = x) = 0 (interpreta¸c˜ao frequencista). Note-se que a situa¸c˜ao ´e totalmente diferente com acontecimentos do tipo {x − ε ≤ X ≤ x + ε}. Em geral, se x ∈ {contradom´ınio de X},

P (x − ε ≤ X ≤ x + ε) > 0, ∀ε>0

Outra consequˆencia: para qualquer vari´avel aleat´oria cont´ınua

(19)

4.1 (cont.)

Exemplo: Uma experiˆencia aleat´oria consiste em escolher, totalmente ao acaso, um ponto do intervalo [0, 2]. Seja X a vari´avel aleat´oria que

representa a distˆancia `a origem. Qual ser´a a f.d.p. de X?

Calcular P (0.5 < X < 1.5). Resolu¸c˜ao:

b b

(20)

4.1 (cont.)

Exemplo: Uma experiˆencia aleat´oria consiste em escolher, totalmente ao acaso, um ponto do intervalo [0, 2]. Seja X a vari´avel aleat´oria que

representa a distˆancia `a origem. Qual ser´a a f.d.p. de X?

Calcular P (0.5 < X < 1.5). Resolu¸c˜ao:

totalmente ao acaso ⇒ segmentos ⊂ [0, 2] com o mesmo comprimento devem ter a mesma probabilidade ⇒ fX(x) ´e constante em [0, 2], ou seja

fX(x) =  k, 0 ≤ x ≤ 2 0, c.c. x fX(x) k b b bc bc

(21)

4.1 (cont.)

k

=?

Z +∞ −∞ fX(x)dx = 1 ⇔ Z 0 −∞ 0 dx + Z 2 0 k dx + Z +∞ 2 0 dx = 1 2 k = 1 ⇔ k = 1 2 b b bc bc

(22)

4.1 (cont.)

k

=?

Z +∞ −∞ fX(x)dx = 1 ⇔ Z 0 −∞ 0 dx + Z 2 0 k dx + Z +∞ 2 0 dx = 1 2 k = 1 ⇔ k = 1 2 P (0.5 < X < 1.5) = Z 1.5 0.5 1 2 dx = h x 2 i1.5 0.5 = 1 2 b b bc bc

(23)

4.1 (cont.)

k

=?

Z +∞ −∞ fX(x)dx = 1 ⇔ Z 0 −∞ 0 dx + Z 2 0 k dx + Z +∞ 2 0 dx = 1 2 k = 1 ⇔ k = 1 2 P (0.5 < X < 1.5) = Z 1.5 0.5 1 2 dx = h x 2 i1.5 0.5 = 1 2 Graficamente: x fX(x) 1 2 2 0.5 1.5 ´ Area = 1 2 b b bc bc

(24)

4.1 (cont.)

Observa¸c˜oes:

■ Geralmente n˜ao ´e f´acil determinar fX(x), a n˜ao ser em casos como o

anterior. Nesta fase vamos admitir que essa fun¸c˜ao ´e conhecida.

■ Tal como se viu anteriormente (Cap. 3) uma descri¸c˜ao alternativa de

uma v.a. ´e dada pela fun¸c˜ao de distribui¸c˜ao acumulada (ou, simplesmente, fun¸c˜ao de distribui¸c˜ao).

(25)

4.1 (cont.)

Observa¸c˜oes:

■ Geralmente n˜ao ´e f´acil determinar fX(x), a n˜ao ser em casos como o

anterior. Nesta fase vamos admitir que essa fun¸c˜ao ´e conhecida.

■ Tal como se viu anteriormente (Cap. 3) uma descri¸c˜ao alternativa de

uma v.a. ´e dada pela fun¸c˜ao de distribui¸c˜ao acumulada (ou, simplesmente, fun¸c˜ao de distribui¸c˜ao).

Defini¸c˜ao: A fun¸c˜ao de distribui¸c˜ao (ou fun¸c˜ao de distribui¸c˜ao acumu-lada) de uma v.a. cont´ınua, X, ´e

FX(x) = P (X ≤ x) =

Z x

−∞

(26)

4.1 (cont.)

Exemplo (cont.): (n´umero ao caso em [0, 2]) c´alculo de FX(x) x < 0 : FX(x) = Z x −∞ 0 du = 0 0 ≤ x ≤ 2 : FX(x) = Z 0 −∞ 0 du + Z x 0 1 2 du = h u 2 ix 0 = x 2 x > 2 : FX(x) = Z 0 −∞ 0 du + Z 2 0 1 2 du + Z x 2 0 du = 1

(27)

4.1 (cont.)

Exemplo (cont.): (n´umero ao caso em [0, 2]) c´alculo de FX(x) x < 0 : FX(x) = Z x −∞ 0 du = 0 0 ≤ x ≤ 2 : FX(x) = Z 0 −∞ 0 du + Z x 0 1 2 du = h u 2 ix 0 = x 2 x > 2 : FX(x) = Z 0 −∞ 0 du + Z 2 0 1 2 du + Z x 2 0 du = 1 x FX(x) 1 2

(28)

4.1 (cont.)

Propriedades da fun¸c˜ao de distribui¸c˜ao de uma v.a. cont´ınua

1. cont´ınua 2. dom´ınio = R 3. n˜ao decrescente: x1 < x2 ⇒ FX(x1) ≤ FX(x2) 4. limx→−∞ FX(x) = 0 limx→+∞ FX(x) = 1 5. contradom´ınio ⊂ [0, 1] 6. como FX(x) = Z x −∞

fX(u) du conclui-se que fX(x) =

d FX(x) dx 7. se a < b, P (a < X < b) = FX(b) − FX(a)

(29)

4.2 Valor esperado, variˆ

ancia e algumas das suas

propriedades. Moda e quantis

O valor esperado e a variˆancia s˜ao definidos de forma semelhante ao que foi feito para o caso discreto (ver Sec¸c˜ao 3.3), com as necess´arias adapta¸c˜oes.1

(30)

4.2 Valor esperado, variˆ

ancia e algumas das suas

propriedades. Moda e quantis

O valor esperado e a variˆancia s˜ao definidos de forma semelhante ao que foi feito para o caso discreto (ver Sec¸c˜ao 3.3), com as necess´arias adapta¸c˜oes.1

Defini¸c˜ao: Seja X uma v.a. cont´ınua com fun¸c˜ao densidade de proba-bilidade fX(x), −∞ < x < +∞,

O valor esperado de X ´e

E(X) = µX = µ =

Z +∞

−∞

x fX(x)dx A variˆancia de X ´e

V (X) = σX2 = σ2 =

Z +∞

−∞ (x − µ

X)2 fX(x)dx

(31)

4.2 (cont.)

Notar ainda que

E [h(X)] =

Z +∞

−∞

(32)

4.2 (cont.)

Notar ainda que

E [h(X)] =

Z +∞

−∞

h(x) fX(x)dx

Mantˆem-se as interpreta¸c˜oes e as propriedades (Cap. 3) E (a X + b) = a E(X) + b, a,b∈R

V (X) = E(X2) − [E(X)]2

(33)

4.2 (cont.)

Outros parˆametros de localiza¸c˜ao

Moda: de uma v.a. cont´ınua X ´e o valor, ou valores, onde a fun¸c˜ao densidade de probabilidade ´e m´axima (m0)

m0 : fX(m0) = max

x fX(x)

Obs.: A moda pode n˜ao ser ´unica. Podem ainda definir-se modas relativas (correspondentes a m´aximos relativos).

(34)

4.2 (cont.)

Outros parˆametros de localiza¸c˜ao

Moda: de uma v.a. cont´ınua X ´e o valor, ou valores, onde a fun¸c˜ao densidade de probabilidade ´e m´axima (m0)

m0 : fX(m0) = max

x fX(x)

Obs.: A moda pode n˜ao ser ´unica. Podem ainda definir-se modas relativas (correspondentes a m´aximos relativos).

Exemplo:

x fX(x)

2 3

(35)

4.2 (cont.)

Mediana: de uma v.a. cont´ınua X ´e um ponto central em termos de probabilidade, ou seja, tal que, P (X ≤ me) = P (X ≥ me) = 0.5

me : P (X ≤ me) = P (X ≥ me) = 1

2 ⇔ FX(me) = 1 2

esta equa¸c˜ao tem sempre pelo menos uma solu¸c˜ao. Se FX(x) for invert´ıvel em ]0, 1[ ent˜ao a solu¸c˜ao ´e ´unica e pode ser escrita como me = FX−1(1/2).

(36)

4.2 (cont.)

Mediana: de uma v.a. cont´ınua X ´e um ponto central em termos de probabilidade, ou seja, tal que, P (X ≤ me) = P (X ≥ me) = 0.5

me : P (X ≤ me) = P (X ≥ me) = 1

2 ⇔ FX(me) = 1 2

esta equa¸c˜ao tem sempre pelo menos uma solu¸c˜ao. Se FX(x) for invert´ıvel em ]0, 1[ ent˜ao a solu¸c˜ao ´e ´unica e pode ser escrita como me = FX−1(1/2).

Exemplo: x fX(x) √ 3 3 3 √ ´ Area = 1 2 Exerc´ıcio: (a) Escrever fX(x).

(b) Mostrar que E(X) = 4/3 e verificar que m0 > me > E(X)

(37)

4.2 (cont.)

Quartis e outros que tais:

1.o quartil: q1 : FX(q1) = 1/4 ou q1 = FX−1(1/4) 3.o quartil: q3 : FX(q3) = 3/4 ou q3 = FX−1(3/4) Quantil de ordem α (com 0 < α < 1):

(38)

4.2 (cont.)

Quartis e outros que tais:

1.o quartil: q1 : FX(q1) = 1/4 ou q1 = FX−1(1/4) 3.o quartil: q3 : FX(q3) = 3/4 ou q3 = FX−1(3/4) Quantil de ordem α (com 0 < α < 1):

xα : FX(xα) = α ou xα = FX−1(α) Graficamente: x FX(x) 1 α 2 xα

(39)

4.3 Distribui¸c˜

ao uniforme cont´ınua

´

E a distribui¸c˜ao cont´ınua mais simples.

Um exemplo ´e a vari´avel considerada anteriormente, relativa `a escolha de um ponto ao acaso em [0, 2].

(40)

4.3 Distribui¸c˜

ao uniforme cont´ınua

´

E a distribui¸c˜ao cont´ınua mais simples.

Um exemplo ´e a vari´avel considerada anteriormente, relativa `a escolha de um ponto ao acaso em [0, 2].

Defini¸c˜ao: Uma v.a. cont´ınua tem distribui¸c˜ao uniforme cont´ınua de parˆametros a e b, com a < b, se

fX(x) =    1 b − a, a ≤ x ≤ b 0, c.c. abreviadamente, X ∼ Unif(a, b) Tem-se ainda µX = E(X) = a + b 2 (obviamente?) e σ 2 X = V (X) = (b − a) 2 12

(41)

4.3 (cont.)

Demonstra¸c˜ao: (Completar!) E(X) = Z b a x b − a dx = · · · E(X2) = Z b a x2 b − a dx = · · · V (X) = · · · No exemplo X ∼ Unif(0, 2)

(42)

4.4 Distribui¸c˜

ao normal

Factos sobre a distribui¸c˜ao normal:

■ A distribui¸c˜ao normal apareceu pela primeira vez (embora sem nome)

num trabalho de De Moivre em 1733, como um “limite” da distribui¸c˜ao binomial quando n → ∞. Simular

(43)

4.4 Distribui¸c˜

ao normal

Factos sobre a distribui¸c˜ao normal:

■ A distribui¸c˜ao normal apareceu pela primeira vez (embora sem nome)

num trabalho de De Moivre em 1733, como um “limite” da distribui¸c˜ao binomial quando n → ∞. Simular

0 5 10 15 20

(44)

4.4 Distribui¸c˜

ao normal

Factos sobre a distribui¸c˜ao normal:

■ A distribui¸c˜ao normal apareceu pela primeira vez (embora sem nome)

num trabalho de De Moivre em 1733, como um “limite” da distribui¸c˜ao binomial quando n → ∞. Simular

0 5 10 15 20

n = 20 p = 0.45

30 40 50 60 70

(45)

4.4 Distribui¸c˜

ao normal

Factos sobre a distribui¸c˜ao normal:

■ A distribui¸c˜ao normal apareceu pela primeira vez (embora sem nome)

num trabalho de De Moivre em 1733, como um “limite” da distribui¸c˜ao binomial quando n → ∞. Simular

0 5 10 15 20 n = 20 p = 0.45 30 40 50 60 70 n = 100 p = 0.5 0 10 20 30 40 n = 200 p = 0.1

(46)

4.4 Distribui¸c˜

ao normal

Factos sobre a distribui¸c˜ao normal:

■ A distribui¸c˜ao normal apareceu pela primeira vez (embora sem nome)

num trabalho de De Moivre em 1733, como um “limite” da distribui¸c˜ao binomial quando n → ∞. Simular

0 5 10 15 20

n = 20 p = 0.45

30 40 50 60 70

n = 100 p = 0.5

(47)

4.4 (cont.)

O resultado de De Moivre (aproxima¸c˜ao normal da distribui¸c˜ao

binomial) permaneceu praticamente desconhecido durante os 80 anos seguintes, at´e que em 1812 Laplace o generalizou e publicou no livro “Th´eorie analytique des probabilit´es” (este resultado ´e conhecido como

Teorema de De Moivre-Laplace).

Independentemente, esta distribui¸c˜ao foi estudada por Gauss (1809) e

utilizada para modelar erros de medi¸c˜ao em astronomia.

■ O termo “distribui¸c˜ao normal” (t´ıpica, habitual) s´o apareceu muito

mais tarde (cerca de 1875). ´E tamb´em conhecida como distribui¸c˜ao Gaussiana, ou de Gauss, ou ainda de Laplace-Gauss.

■ Verifica-se que ´e uma boa aproxima¸c˜ao para muitos fen´omenos naturais

(f´ısicos, biol´ogicos, psicol´ogicos. . . ) e n˜ao s´o (econ´omicos, sociais. . . ).

(48)

4.4 (cont.)

Defini¸c˜ao: Uma v.a. cont´ınua tem distribui¸c˜ao normal de parˆametros µ, com µ ∈ R, e σ2, com σ > 0, se fX(x) = fX(x; µ, σ) = 1 2πσ2e −(x−µ)2 2σ2 , ∀x∈R abreviadamente, X ∼ N(µ, σ2) Tem-se ainda E(X) = µ (obviamente?)2 e V (X) = σ2 2E(X) = R +∞

−∞ xfX(x; µ, σ)dx pode ser calculado recorrendo `a transforma¸c˜ao

(49)

4.4 (cont.)

(50)

4.4 (cont.)

Defini¸c˜ao: Uma v.a. normal com µ = 0 e σ2 = 1 ´e designada por normal reduzida (ou padr˜ao, ou estandardizada), e ´e geralmente repre-sentada como Z ∼ N(0, 1).

(51)

4.4 (cont.)

Defini¸c˜ao: Uma v.a. normal com µ = 0 e σ2 = 1 ´e designada por normal reduzida (ou padr˜ao, ou estandardizada), e ´e geralmente repre-sentada como Z ∼ N(0, 1).

Propriedade: Se X ∼ N(µ, σ2) e Y = a X + b, em que a e b s˜ao constantes (a 6= 0) ent˜ao

(52)

4.4 (cont.)

Defini¸c˜ao: Uma v.a. normal com µ = 0 e σ2 = 1 ´e designada por normal reduzida (ou padr˜ao, ou estandardizada), e ´e geralmente repre-sentada como Z ∼ N(0, 1).

Propriedade: Se X ∼ N(µ, σ2) e Y = a X + b, em que a e b s˜ao constantes (a 6= 0) ent˜ao

Y ∼ N(a µ + b, a2σ2) Demonstra¸c˜ao: o que se pretende mostrar ´e que

fY (y) = √ 1 2πa2σ2 exp  −(y − (aµ + b)) 2 2a2σ2 

(53)

4.4 (cont.)

O mais conveniente ´e come¸car por manipular as fun¸c˜oes de distribui¸c˜ao e a seguir derivar para obter fun¸c˜oes de densidade (o m´etodo ´e geral para

obter a distribui¸c˜ao de uma v.a. que ´e fun¸c˜ao de outra com distribui¸c˜ao conhecida): FY (y) = P (Y ≤ y) = P (a X + b ≤ y) = P  X ≤ y − ba  = FX  y − b a 

(54)

4.4 (cont.)

O mais conveniente ´e come¸car por manipular as fun¸c˜oes de distribui¸c˜ao e a seguir derivar para obter fun¸c˜oes de densidade (o m´etodo ´e geral para

obter a distribui¸c˜ao de uma v.a. que ´e fun¸c˜ao de outra com distribui¸c˜ao conhecida): FY (y) = P (Y ≤ y) = P (a X + b ≤ y) = P  X ≤ y − ba  = FX  y − b a  logo fY (y) = dFY (y) dy = d dyFX  y − b a  = 1 afX  y − b a 

(55)

4.4 (cont.)

O mais conveniente ´e come¸car por manipular as fun¸c˜oes de distribui¸c˜ao e a seguir derivar para obter fun¸c˜oes de densidade (o m´etodo ´e geral para

obter a distribui¸c˜ao de uma v.a. que ´e fun¸c˜ao de outra com distribui¸c˜ao conhecida): FY (y) = P (Y ≤ y) = P (a X + b ≤ y) = P  X ≤ y − ba  = FX  y − b a  logo fY (y) = dFY (y) dy = d dyFX  y − b a  = 1 afX  y − b a 

agora ´e f´acil verificar que 1 a 1 √ 2πσ2 exp " −( y−b a − µ)2 2σ2 #

(56)

4.4 (cont.)

Ou seja, uma transforma¸c˜ao linear de uma v.a. normal altera os

parˆametros (obviamente de acordo com as regras que j´a conhec´ıamos) mas n˜ao altera o tipo de distribui¸c˜ao (quest˜ao: ser´a que acontece o mesmo para as distribui¸c˜oes discretas e cont´ınuas anteriores?).

Assim, para muitos c´alculos podemos usar apenas uma distribui¸c˜ao normal (escolhemos a mais simples: normal padr˜ao).

Qualquer vari´avel aleat´oria normal pode ser transformada em normal padr˜ao:

Se X ∼ N(µ, σ2) e Z = X − µ

σ ent˜ao Z ∼ N(0, 1)

(57)

4.4 (cont.)

Fun¸c˜oes de distribui¸c˜ao:

Z ∼ N(0, 1): P (Z ≤ x) = Z x −∞ 1 √ 2πe −u2/2 du | {z } ? ≡ Φ(x)

Como e−u2/2 n˜ao tem primitiva elementar, o valor do integral s´o pode ser obtido por m´etodos num´ericos.

X ∼ N(µ, σ2): FX(x) = P (X ≤ x) = P  X − µ σ ≤ x − µ σ  = = P  Z ≤ x − µ σ  = Φ  x − µ σ 

(58)

4.4 (cont.)

(59)

4.4 (cont.)

C´alculo de probabilidades:

Programas em computador ou calculadora

(n˜ao ´e necess´ario usar a normal padr˜ao)

Tabelas

(´e necess´ario usar a normal padr˜ao) (ver).

(60)

4.4 (cont.)

Alguns valores de probabilidades (quaisquer que sejam µ e σ)

µ

µ+σ

µ−σ µ+2σ

µ−2σ µ+3σ

(61)

4.4 (cont.)

alculos: X ∼ N(µ, σ2), µ,σ P (µ − σ < X < µ + σ) = P  µ − σ − µ σ < X − µ σ < µ + σ − µ σ  = = Φ(1) − Φ(−1) = 0.8413 − 0.1587 = 0.6826 P (µ − 2σ < X < µ + 2σ) = Φ(2) − Φ(−2) = 0.9772 − 0.0228 = 0.9544 P (µ − 3σ < X < µ + 3σ) = Φ(3) − Φ(−3) = 0.99865 − 0.00135 = 0.9973

(62)

4.4 (cont.)

Exerc´ıcio: A empresa ACME fabrica um tipo de lˆampada de x´enon cuja dura¸c˜ao m´edia ´e de 300 dias, com um desvio padr˜ao de 50 dias. O

engenheiro respons´avel pelo departamento de qualidade acredita que a vida ´util daquelas lˆampadas ´e normalmente distribu´ıda. Para decidir qual a dura¸c˜ao que deve ser anunciada como garantida, ele pretende calcular os seguintes valores:

(a) A probabilidade de uma lˆampada ter uma vida ´util superior a um ano. (b) O tempo de vida ´util que ´e excedido por 95% daquelas lˆampadas.

(63)

4.4 (cont.)

Exerc´ıcio: A empresa ACME fabrica um tipo de lˆampada de x´enon cuja dura¸c˜ao m´edia ´e de 300 dias, com um desvio padr˜ao de 50 dias. O

engenheiro respons´avel pelo departamento de qualidade acredita que a vida ´util daquelas lˆampadas ´e normalmente distribu´ıda. Para decidir qual a dura¸c˜ao que deve ser anunciada como garantida, ele pretende calcular os seguintes valores:

(a) A probabilidade de uma lˆampada ter uma vida ´util superior a um ano. (b) O tempo de vida ´util que ´e excedido por 95% daquelas lˆampadas.

Vamos ajud´a-lo?

(64)

4.5 Distribui¸c˜

ao exponencial

Exemplo: O call center de uma empresa de telecomunica¸c˜oes recebe em m´edia 5 chamadas por hora, admitindo-se que as chamadas seguem um processo de Poisson. O gestor do call center est´a agora interessado em conhecer como varia o intervalo de tempo entre chamadas. Pretende nomeadamente saber:

(a) A probabilidade daquele intervalo de tempo ser superior a 20 minutos. (b) O valor esperado, mediana e desvio padr˜ao dos intervalos de tempo

(65)

4.5 Distribui¸c˜

ao exponencial

Exemplo: O call center de uma empresa de telecomunica¸c˜oes recebe em m´edia 5 chamadas por hora, admitindo-se que as chamadas seguem um processo de Poisson. O gestor do call center est´a agora interessado em conhecer como varia o intervalo de tempo entre chamadas. Pretende nomeadamente saber:

(a) A probabilidade daquele intervalo de tempo ser superior a 20 minutos. (b) O valor esperado, mediana e desvio padr˜ao dos intervalos de tempo

entre chamadas.

Resolu¸c˜ao: Defini¸c˜ao das vari´aveis aleat´orias:

Xt - N.o de chamadas que chegam em t horas. Xt ∼ P oisson(5t) T - Intervalo de tempo entre chamadas (em horas). T ∼?

(66)

4.5 (cont.)

(a) o tempo que esperamos pela pr´oxima chamada ´e superior a 20 minutos se e s´o se n˜ao houver chamadas nos pr´oximos 20 minutos

(20 minutos = 1/3 horas) (X1/3 ∼ P oisson(5/3)) P  T > 1 3  = P (X1/3 = 0) = e −5/3(5/3)0 0! = e −5/3 ≃ 0.1888756

(67)

4.5 (cont.)

(a) o tempo que esperamos pela pr´oxima chamada ´e superior a 20 minutos se e s´o se n˜ao houver chamadas nos pr´oximos 20 minutos

(20 minutos = 1/3 horas) (X1/3 ∼ P oisson(5/3)) P  T > 1 3  = P (X1/3 = 0) = e −5/3(5/3)0 0! = e −5/3 ≃ 0.1888756 (b) Precisamos de t gen´erico (Xt ∼ P oisson(5t))

P (T > t) = P (Xt = 0) = e

5t(5t)0

0! = e

−5t

ent˜ao FT(t) = P (T ≤ t) = 1 − e−5t, t > 0 e a fun¸c˜ao densidade de probabilidade ´e

fT(t) = dFT(t)

dt = 5e

(68)

4.5 (cont.)

Finalmente: E(T ) =

Z +∞

0

(69)

4.5 (cont.)

Finalmente: E(T ) =

Z +∞

0

5te−5tdt = · · · = 1/5 horas = 12 minutos

E(T2) = Z +∞ 0 5t2e−5tdt = · · · = 2/25 horas2 V (T ) = 1/25 horas2 σT = 1/5 horas = 12 minutos

(70)

4.5 (cont.)

Finalmente: E(T ) =

Z +∞

0

5te−5tdt = · · · = 1/5 horas = 12 minutos

E(T2) = Z +∞ 0 5t2e−5tdt = · · · = 2/25 horas2 V (T ) = 1/25 horas2 σT = 1/5 horas = 12 minutos me: FT(me) = 0.5 ⇔ 1 − e−5me = 0.5 ⇔

(71)

4.5 (cont.)

Defini¸c˜ao: A v.a. X que representa o intervalo de tempo at´e `a pr´oxima ocorrˆencia (ou entre ocorrˆencias sucessivas) de um processo de Poisson com taxa λ > 0 tem uma distribui¸c˜ao exponencial de parˆametro λ, com fun¸c˜ao de densidade de probabilidade dada por

fX(x) = fX(x; λ) = λe−λx, x ≥ 0 abreviadamente, X ∼ Exp(λ) Tem-se ainda µX = E(X) = 1 λ (obviamente?) e σ 2 X = V (X) = (1 λ2

(72)

4.5 (cont.)

Defini¸c˜ao: A v.a. X que representa o intervalo de tempo at´e `a pr´oxima ocorrˆencia (ou entre ocorrˆencias sucessivas) de um processo de Poisson com taxa λ > 0 tem uma distribui¸c˜ao exponencial de parˆametro λ, com fun¸c˜ao de densidade de probabilidade dada por

fX(x) = fX(x; λ) = λe−λx, x ≥ 0 abreviadamente, X ∼ Exp(λ) Tem-se ainda µX = E(X) = 1 λ (obviamente?) e σ 2 X = V (X) = (1 λ2

Observa¸c˜ao importante: funciona no sentido inverso, ou seja, se os intervalos de tempo entre ocorrˆencias forem v.a. independentes e identicamente distribu´ıdas Exp(λ) ent˜ao o n.o

(73)

4.5 (cont.)

Propriedade da falta de mem´oria ou amn´esia: Se X ∼ Exp(λ), λ > 0

P (X < t1 + t2|X > t1) = P (X < t2), t1>0,t2>0 Demonstra¸c˜ao: (exerc´ıcio)

(74)

4.5 (cont.)

Observa¸c˜oes:

O facto de esta distribui¸c˜ao n˜ao ter mem´oria significa que n˜ao ´e

indicada para modelar situa¸c˜oes do tipo tempo de vida, em que h´a desgaste ou envelhecimento.

A distribui¸c˜ao exponencial ´e a ´unica distribui¸c˜ao cont´ınua sem

mem´oria.

Existe uma ´unica distribui¸c˜ao discreta sem mem´oria: ´e a distribui¸c˜ao

Referências

Documentos relacionados

em peitos de frango embalados em atmosfera protetora, conjugada com o controlo das superfícies de contacto direto na sala de desmancha de um matadouro industrial de

Ombro e do braço para projeção mediolateral Articulação do ombro para projeção caudocranial Articulação do cotovelo para projeção mediolateral Cotovelo e antebraço

Cada recruiter está associado a um Project Manager e sempre que surge uma necessidade de contratação este chama o recruiter para uma reunião onde será explicado qual é a

ainda sobre o teorema de Rolle, um caso particular do TVM, e ainda sobre o teorema de Cauchy, uma generalização do teorema do valor médio....

Assinale a alternativa correta das afirmativas abaixo (T.F.C./93).. a) ao completar dois anos de efetivo exercício, independentemente de ter sido nomeado por concurso público. b)

Parágrafo Primeiro. Uma vez que a coordenação acadêmica/pedagógica é de responsabilidade exclusiva da UNISEB, essa se reserva no direito de introduzir melhorias

Um conjunto X dotado de uma rela¸c˜ ao de ordem parcial ´e dito ser um conjunto bem-ordenado se todo subconjunto A n˜ ao vazio de X tem um elemento m´ınimo em A.. Mostre que

Nas Se¸c˜oes 3, 4 e 5 apresentamos exemplos importantes de fun¸c˜oes complexas de uma vari´avel complexa, a saber: as fun¸c˜oes racionais, as fun¸c˜oes polinomiais, a