VII- PRINCIPAIS DISTRIBUIÇÕES DE PROBABILIDADE. 7.1. DISTRIBUIÇÕES DISCRETAS;
1. UNIFORME DISCRETA:
Uma v.a. X tem distribuição uniforme discreta quando sua função de probabilidade for dada por:
{ }(x) N 1 c/c 0 N ..., 2, 1, = x N 1 ) x ( p =
I
1,2,...,N = Propriedades: E(X) = 2 N 1+ V(X) = N 2 1 12 − MX(t) = e N jt j N . 1 1 =∑
Exemplo: Seja ε lançar um dado, então: X = { 1, 2, 3, 4, 5, 6 }
p(xi) = 1/6
E(X) = 3,5 V(X)= 2,92
Lower limit,Upper limit 1,7
Discrete Uniform Distribution
x p ro b ab il it y 1 2 3 4 5 6 7 0 0,1 0,2 0,3
2. BERNOULLI:
Uma v.a. X tem distr. Bernoulli se sua f.p. for dada por:
{ }(x) ) p 1 ( p c/c 0 0,1 = x ) p 1 ( p ) x ( p x 1x
I
0,1 x 1 x − − − = − = Propriedades: E(X) = p V(X) = p.q MX(t) = pet + q Processo de Bernoulli:É o processo de amostragem no qual :
1. Em cada tentativa existem 2 resultados possíveis mutuamente exclusivos (sucesso e fracasso).
2. As séries de tentativas são independentes.
3. A probabilidade de sucesso (p) permanece constante de tentativa para tentativa ou seja o processo é estacionário.
3. BINOMIAL:
Uma v.a. possui distribuição binomial se sua f.p. for dada por:
p(x) = .p .q { }(x) x n n ..., 1, 0, = x q . p . x n
I
0,1,...,n x n x x n x − − = )! x n ( ! x ! n x nC
x n − = = Event prob. 0,4 Bernoulli Distribution x p ro b ab il it y 0 0,2 0,4 0,6 0,8 1 0 0,1 0,2 0,3 0,4 0,5 0,6A distribuição binomial é utilizada para determinar a probabilidade de se obter um dado número de sucessos em um processo de Bernoulli.
X = número de sucessos n = número de tentativas
p = probabilidade de sucessos em cada tentativa. Propriedades:
E(X) = np V(X) = npq MX(t) = (pet + q)n
4. HIPERGEOMÉTRICA:
Uma v.a. X tem distribuição hipergeométrica se sua f.p. for dada por:
{ }(x) n N x n r N x r c/c 0 n ..., 1, 0, = p/ x n N x n r N x r ) x ( p
I
0,1,..,n − − = − − =A distr. hipergeométrica é utilizada quando a amostragem é feita sem reposição de cada item amostrado de uma população finita, pois neste caso não se pode aplicar o processo de Bernoulli, uma vez que existe uma mudança sistemática na probabilidade de sucesso a medida que os ítens são retirados da população (eventos dependentes).
Assim:
X = número dado de sucessos
N = número total de itens da população r = número total de sucessos na população n = número de itens na amostra.
Event prob.,Trials 0,2,20 Binomial Distribution x p ro b ab il it y 0 4 8 12 16 20 0 0,04 0,08 0,12 0,16 0,2 0,24
Obs: Quando a pop. for grande e a amostra relativamente pequena, o fato da amostragem ser feita sem reposição tem pequena influência na prob. de sucesso de cada tentativa, então pode-se usar a distribuição binomial como uma aproximação da hipergeométrica. A aproximação pela binomial é considerado boa se n
N < 0,1. Propriedades: np N r . n ) X ( E = = − − − = 1 N n N N r N n r . n ) X ( V ) t ( MX não é utilizado 5. GEOMÉTRICA:
Uma v.a tem distribuição geométrica se sua f.p. for dada por:
{ }
(
x
)
1
x
pq
c/c
0
...
3,
2,
1,
=
x
1
x
pq
)
x
(
p
I
1,2,3,...−
=
−
=
X = número de ensaios necessários para a primeira ocorrência do evento.
Obs: Na distr. binomial o número de repetições era pré-determinado, enquando na geométrica é a v.a. Propriedades: p 1 ) X ( E = 2 p q ) X ( V = t t X qe 1 e . p ) t ( M − =
Event prob.,Trials,Population size 0,25,20,1000 Hypergeometric Distribution x p ro b ab il it y 0 4 8 12 16 20 0 0,04 0,08 0,12 0,16 0,2 0,24
6. PASCAL:
Um v.a. X tem distr. de Pascal se sua f.p. for dada por:
{ }(x) q p 1 r 1 x c/c 0 ... 2, + r 1, + r r, = x q p 1 r 1 x ) x ( p r x r
I
r,r 1,r 2,... r x r + + − − − − = − − =X = No. de repetições necessárias para que o evento A ocorra r vezes. Obs: Uma generalização da distr. geométrica é a distr. de Pascal. Assim:
para r = 1 ⇒ X~Geométrica Propriedades:
(
t)
r t X 2 qe 1 pe ) t ( M p rq = V(X) p r ) X ( E − = = 7. BINOMIAL NEGATIVA:Uma v.a. Y tem distribuição binomial negativa se sua f.p. for dada por:
{ }(y) q p y 1 y r c/c 0 ... 2, 1, 0, = y q p y 1 y r ) Y ( p
I
0,1,2,... y r y r + − = + − =Y = número de falhas antes do r-ésimo sucesso. Propriedades: Event prob. 0,1 Geometric Distribution 0 20 40 60 80 x 0 0,02 0,04 0,06 0,08 0,1 p ro b ab il it y
r Y 2 tq 1 p ) t ( M p rq = V(Y) p rq ) Y ( E − = =
Obs: a passagem da Pascal para a Binomial Negativa:
p x
x
r
p q
r X r( )
=
−
−
−1
1
fazendo x = r + y ⇔ y = x - rp y
r
y
r
p q
r
y
y
p q
r r y r r y( )
=
+ −
−
=
+ −
+ −1
1
1
8. MULTINOMIAL:Considere-se um experimento
ε
, seu espaço amostral Ω, e a partição de Ω em k eventos mutualmente exclusivos A1, A2, ..., Ak. Considerem-se nrepetições de
ε
. Então pi = P(Ai) e supondo que pi permaneça constante durante todas as repetições, temos que pi i k = =
∑
1 1 .Xi = número de vezes que Ai ocorre nas n repetições de
ε
. (i = 1, 2, ..., k) Os Xi são v.a. independentes por que∑
X1 = n1. Então:p(X1=n1, X2=n2, ... , Xk=nk)= nk k 1 n 1 k 2 1 p ... p n ... ! n ! n ! n
Obs: A distr. multinomial é considerada como uma generalização da binomial. Propriedades:
E(Xi) = npi V(Xi) = n pi qi
Event prob.,Successes 0,1,10
Negative Binomial Distribution
0 50 100 150 200 250 x 0 3 6 9 12 15 (X 0,001) p ro b ab il it y
9. POISSON:
Uma v.a. X tem distr. Poisson se sua f.p. for dada por:
{ }(x) ! x e . c/c 0 ... 2, 1, 0, = x ! x e . ) x ( p
I
0,1,2,... x x λ − λ − λ = λ =A distr. de Poisson pode ser usada para determinar a probabilidade de um dado número de sucessos quando os eventos ocorrem em um “continuum” de tempo ou
espaço.
É similar ao processo de Bernoulli, exceto que os eventos ocorrem em um “continuum” ao invés de ocorrerem em tentativas fixadas, tal como o processo de
Bernoulli os eventos são independentes e o processo é estacionário.
λ
= número médio de sucessos para uma específica dimensão de tempo e espaço.X = número de sucessos desejados. Propriedade: E(X) = λ V(X) = λ (et1) X(t) e M = λ − OBS: 1. ! x e q ) x ( p x n lim ) x ( p lim x x n n p np 0 p n 0 p n λ = = − −λ λ = ⇒ = λ →∞ → →∞ → Demo:
(
)
(
)(
) (
)
λ − − → λ →∞ → − − λ −λ −λ − − λ = = −λ − − − + λ = −λ λ − = e x! = n 1 n 1 n 1 -x -1 ... n 2 1 n 1 1 . 1 lim ! x ) x ( p lim = n 1 n ... n . n 1 x n ... 2 n 1 n n n = n 1 n ! x ! x n ! n ) x ( p x x n 0 n x = np0 p n x n x x n x2. Quando o número de observações ou experimentos em um processo de Bernoulli for muito grande a distribuição de Poisson é apropriada como uma aproximação das distribuições binomiais quando:
np < 5
λ
= np Mean 10 Poisson Distribution 0 5 10 15 20 25 30 x 0 0,03 0,06 0,09 0,12 0,15 p ro b ab il it y7.2 DISTIBUIÇÕES CONTINUAS DE PROBABILIDADE:
1. UNIFORME OU RETANGULAR:
Uma v.a. X é uniformemente distribuida am 1≤ x ≤ b se sua f.d.p. for:
[ ] f x b a b a
I
a b x ( ) = − , ( ) ≤ ≤ = − 1 0 1 a x b c / c(
)
(
)
(
(
)
)
F( x
x
a
b
a
x
a
b
a
I
a bx
I
bx
)
=
[ , )( )
[ , )( )
−
−
≤ ≤
=
−
−
+
∞0
1
x < a
a
x
b
x > b
Propriedades:(
)
(
)
E X a b t e e b a t b t a t ( ) = + ( ) = − − 2 1 2 2 V (X ) = b - a M XEx: Tempo de espera do ônibus, a função depende apenas dos extremos do intervalo.
Uma máquina gera um número real entre -1 e 1. Qual a probabilidade de ser positivo?
R: f(x) = 1/b-a = 1/1-(-1) =1/2
Obs: Se tivermos valor entre -∞ e +∞ não há resposta. Não há intervalos. Lower limit,Upper limit
0,2 Uniform Distribution x d en si ty 0 0,4 0,8 1,2 1,6 2 0 0,1 0,2 0,3 0,4 0,5
2. EXPONENCIAL:
Uma v.a. X tem distr. exponencial com parâmetro λ > 0, se sua f.d.p. for dada por: 0 > , ) x ( e ) x ( f =λ x
I
[0, ) λ ∞ λ − PROPRIEDADES: λ < − λ λ = λ λ = ,t t ) t ( M 1 = V(X) 1 ) X ( E 2 X 0 x , e 1 dt e ) x X ( P ) x ( F x x 0 t = − ≤ λ = ≤ = −λ −λ∫
Assim: P(X>x) = e-λxObs: Se os eventos, ou sucessos, ocorrem em um contexto de um processo de Poisson, então o comprimento do tempo ou espaço entre 2 eventos sucessivos segue uma distribuição de probabilidade exponencial. Uma vez que tempo ou espaço são um “continuum”,a distr. será contínua.
PROPRIEDADE DE PERDA DE MEMÓRIA: Seja X ~ Exponencial ( λ ), sejam s, t ≥ 0, então:
P( X > s+t / X > t ) = P (X > t) ∀ s, t ≥ 0 Mean 10 Exponential Distribution 0 10 20 30 40 50 60 x 0 0,02 0,04 0,06 0,08 0,1 d en si ty
Demo:
(
)
(
)
(
(
)
)
( )(
)
P X s t X t P X s t X t P X t P X s t P X t e e e e e e P X s s t t s t t s ( > + > =) > + ∩ > > = > + > = = = = > − + − − − − − λ λ λ λ λ λ = Exemplo 1:Em média, um navio atraca em certo porto a cada 2 dias. Qual a prob. de que, a partir da partida de um navio, se passem 4 dias antes da chegada do próximo navio?
R:
média por 2 dias = 1 λ = média por dia = 1/2
P(X>4) = e-λx = e-4.1/2 = 13,53% Exemplo 2:
Um departamento de conserto de máquinas recebe, em média, 5 chamadas por hora. Iniciando em um ponto do tempo aleatoriamente escolhido, qual a prob de que a primeira chamada chegue dentro de ½ hora ?
R: média por hora = 5 λ = média por hora = 5
P(X ≤ 1/2) = 1 - e-λx = 1 - e-5.1/2 = 1- 0.08208 = 91,792% 3. DISTRIBUIÇÃO GAMA: Função Gama: Γ( )p = xp−e−x ∞
∫
1 0 dx p > 0Se integrarmos por partes, fazendo :
e-x dx = dv e xp-1 = µ obteremos:
( )
=
−
− − ∞−
∞∫
[
−
−(
−
)
−]
Γ
0 2 p x 0 1 p xdx
x
1
p
e
x
.
e
p
|
=0
(
p
1
)
e
x
dx
0 2 p x∫
∞ − −−
+
=
==
(
p
−
1
) (
Γ
p
−
1
)
Se p for inteiro positivo p=n. Aplicando a relação acima repetidas vezes teremos:
( ) (
) (
)
(
)(
) (
)
(
n
1
)(
n
2
) ( )
...
1
2
n
2
n
1
n
1
n
1
n
n
Γ
−
−
=
=
−
Γ
−
−
=
=
−
Γ
−
=
Γ
Porém, Γ( )
1 1 0 =∞∫
e dx−x = então: Γ(n) = (n-1)! p/ n inteiro positivo e também verifica-se:( )
Γ 1 2 1 2 0 / = −/ − ∞∫
x e x dx = π Distribuição Gama:Seja X um v.a. contínua, que tome somente valores não negativos. Então, X ~ GAMA(α,λ) se sua f.d.p., for dada por:
( )
α
Γ
λ
=
− −λ αc/c
0
0
>
x
,
e
x
)
x
(
f
x 1 r Γ(α) = (α-1)! p/ α ≥ 1 e λ = > 0 onde: α = número de ocorrências no tempo.X = o tamanho do tempo entre o tempo 0 e o instante quando a α-ésima ocorrência acontece.. Shape,Scale 1,1 Gamma Distribution 0 1 2 3 4 5 6 x 0 0,2 0,4 0,6 0,8 1 d en si ty
PROPRIEDADES:
1. Se α =1 então f(x) = λe-λx ⇒ distr. exponencial (caso particular da Gama) A soma de v.a. exponenciais distribuidas identicamente independentes é uma distr. Gama. 2.
λ
−
λ
λ
=
λ
α
λ
α
=
α,
p/ t
<
t
)
t
(
M
=
V(X)
)
X
(
E
2 X4. DISTRIBUIÇÃO NORMAL (GAUSS):
Uma v.a. X ~ N(µ ,σ2 ) se sua f.d.p. for dada por:
0
>
e
<
<
-,
<
x
<
e
2
1
)
x
(
f
2 x 2 1σ
∞
µ
∞
∞
∞
π
σ
=
σ µ − −)
x
(
,
dt
e
2
1
)
x
(
F
2 x t 2 1 2σ
µ
Φ
=
π
σ
=
∫
∞ − σ µ − − PROPRIEDADES: 1. fX(x) > 0 , x∈ℜ 2. fX(x) 0 xlim
→±∞ = 3. fX(x) é contínua e diferenciavel.4. fX(x) é crescente para x ∈ (-∞, µ) e decrescente para x ∈ (µ, ∞). Mean,Std. dev. 0,1 Normal Distribution -5 -3 -1 1 3 5 x 0 0,1 0,2 0,3 0,4 d en si ty
5. Ponto de máximo da função em x = µ. Então µ é também a moda da distribuição.
f’(x) = f(x). (x-µ)/σ ⇒ f’(µ) = 0
f”(x) = f(x) [ (x-µ)2/σ2 - 1/σ2] ⇒ f”(µ) = -f(µ)/σ2 <0
6. Existem dois ou mais pontos de inflexão em x = µ+σ e x = µ-σ . ( a segunda derivada se anula)
7. fX(x) é simétrica em relação a µ. (x-µ)2.
8. Valor esperado : µ e Variância = σ2 MX(t) = etµ+1/2.t2σ2
IMPORTÂCIA:
1. Poder de modelamento. Medidas produzidas em diversos processos aleatórios seguem a distr. normal.
2. Capacidade de aproximação de outras distr. como Binomial e Poisson.
3. As distr. de estatísticas da amostra frequentemente seguem a distr. normal independente da distr. da população.
APROXIMAÇÕES PELA NORMAL: 1. Binomial: quando n ≥ 30 np ≥ 5 então: µ = np σ2 = npq 2. Poisson: quando λ≥ 10 então: µ = λ σ = λ
DISTRIBUIÇÃO NORMAL REDUZIDA:
Quando µ = 0 e σ2 = 1 (caso particular) (chamada standart, normalizada, padrão) f z( )= 1 e− z 2 1 2 2 π p/ z xi = − µ σ
∫
∞ − −π
=
Φ
=
z 2 tdt
e
2
1
)
z
(
)
z
(
F
2 ⇒ valor tabeladoP(a ≤ x ≤ b) = Φ(b) - Φ(a) P(x ≤ a) = Φ(a)
P(x > a) = 1 - Φ(a)
Ex: Determine a área limitada pela curva normal em cada um dos casos: 1. 0 ≤ Z ≤ 1,2 R: 0,3849 2. -0,68 ≤ Z ≤ 0 0,2517 3. -0,46 ≤ Z ≤ 2,21 0,6632 4. Z ≤ -0,6 0,2743 5. Z ≥ 0,62 0,2676 6. 0,18 ≤ Z ≤ 0,26 0,0312 7. -0,95 ≤ Z ≤ -0,41 0,1698 8. Z < -1,51 e Z > 1,51 0,1310 9. Z > -0.5 0,6915
7.3 TEOREMA DO LIMITE CENTRAL
Seja X1, X2, ..., Xn v.a.independente identicamente distribuídas (iid); com a mesma µ e σ2 e seja Sn= X1 + X2 + ... + Xn a soma de v.a. iid:
n x n n n
Z
)
S
(
V
)
S
(
E
S
∞ →→
−
∼ N(0,1) - n x nZ
n
n
S
∞ →→
−
σ
µ
∼ N(0,1) ou sejapois E(Sn) = E(X1+X2+...+Xn)= µ1+µ2+...+µn= nµ V(Sn) = σ12+σ22+...+σn2 = nσ2
Uma dedução feita através do Teorema do Limite Central é que uma distribuição amostral de médias tende uma distr. normal quando n é suficientemente grande (n ≥ 30).
)
X
(
V
)
X
(
E
X
n n n−
∼
=
=
n
,
N
2 2 X Xσ
σ
µ
µ
onde:( ) ( )
( )
[
+ + +]
= µ=µ = + + + = = µ n n 1 X E ... X E X E n 1 n X ... X X E ) X ( E 1 2 n 1 2 n X( ) ( )
( )
[
]
n
n
n
1
X
V
...
X
V
X
V
n
1
n
X
...
X
X
V
)
X
(
V
2 2 2 n 2 1 2 n 2 1 2 Xσ
=
σ
=
+
+
+
=
+
+
+
=
=
σ
NOTA HISTÓRICA:
A distribuição normal é chamada historicamente de lei dos erros. Foi usada por Gauss para modelar erros em observações astronômicas. Gauss derivou a distribuição normal, não como limite de somas de variáveis aleatórias independentes, mas a partir de certas hipóteses entre elas a de considerar a média aritmética das observações. Hoje em dia o Teorema do Limite Central dá apoio ao uso da normal como distribuição de erros, pois em muitas situações reais é possível interpretar o erro de uma observação como resultante de muitos erros pequenos e independentes. Pode-se interpretar também que uma observação é gerada da soma de muitos efeitos pequenos e independentes.
No MATLAB:
Cumulative Distribution Functions (cdf): normcdf Normal (Gaussian)
poisscdf Poisson
Probability Density Functions (pdf): binopdf Binomial pdf
chi2pdf Chi-square pd exppdf Exponential pdf
Inverse Cumulative Distribution Functions:
geoinv Geometric critical values hygeinv Hypergeometric critical values
Moments of Distribution Functions Binostat Binomial mean and variance chi2stat Chi-square mean and variance expstat Exponential mean and variance Random Number Generators
normrnd Normal (Gaussian) random numbers poissrnd Poisson random numbers