• Nenhum resultado encontrado

VII- PRINCIPAIS DISTRIBUIÇÕES DE PROBABILIDADE.

N/A
N/A
Protected

Academic year: 2021

Share "VII- PRINCIPAIS DISTRIBUIÇÕES DE PROBABILIDADE."

Copied!
16
0
0

Texto

(1)

VII- PRINCIPAIS DISTRIBUIÇÕES DE PROBABILIDADE. 7.1. DISTRIBUIÇÕES DISCRETAS;

1. UNIFORME DISCRETA:

Uma v.a. X tem distribuição uniforme discreta quando sua função de probabilidade for dada por:

{ }(x) N 1 c/c 0 N ..., 2, 1, = x N 1 ) x ( p =

I

1,2,...,N         = Propriedades: E(X) = 2 N 1+ V(X) = N 2 1 12 − MX(t) = e N jt j N . 1 1 =

Exemplo: Seja ε lançar um dado, então: X = { 1, 2, 3, 4, 5, 6 }

p(xi) = 1/6

E(X) = 3,5 V(X)= 2,92

Lower limit,Upper limit 1,7

Discrete Uniform Distribution

x p ro b ab il it y 1 2 3 4 5 6 7 0 0,1 0,2 0,3

(2)

2. BERNOULLI:

Uma v.a. X tem distr. Bernoulli se sua f.p. for dada por:

{ }(x) ) p 1 ( p c/c 0 0,1 = x ) p 1 ( p ) x ( p x 1x

I

0,1 x 1 x − − − =       − = Propriedades: E(X) = p V(X) = p.q MX(t) = pet + q Processo de Bernoulli:

É o processo de amostragem no qual :

1. Em cada tentativa existem 2 resultados possíveis mutuamente exclusivos (sucesso e fracasso).

2. As séries de tentativas são independentes.

3. A probabilidade de sucesso (p) permanece constante de tentativa para tentativa ou seja o processo é estacionário.

3. BINOMIAL:

Uma v.a. possui distribuição binomial se sua f.p. for dada por:

p(x) = .p .q { }(x) x n n ..., 1, 0, = x q . p . x n

I

0,1,...,n x n x x n x − −       =             )! x n ( ! x ! n x n

C

x n − =       = Event prob. 0,4 Bernoulli Distribution x p ro b ab il it y 0 0,2 0,4 0,6 0,8 1 0 0,1 0,2 0,3 0,4 0,5 0,6

(3)

A distribuição binomial é utilizada para determinar a probabilidade de se obter um dado número de sucessos em um processo de Bernoulli.

X = número de sucessos n = número de tentativas

p = probabilidade de sucessos em cada tentativa. Propriedades:

E(X) = np V(X) = npq MX(t) = (pet + q)n

4. HIPERGEOMÉTRICA:

Uma v.a. X tem distribuição hipergeométrica se sua f.p. for dada por:

{ }(x) n N x n r N x r c/c 0 n ..., 1, 0, = p/ x n N x n r N x r ) x ( p

I

0,1,..,n             − −       =                             − −       =

A distr. hipergeométrica é utilizada quando a amostragem é feita sem reposição de cada item amostrado de uma população finita, pois neste caso não se pode aplicar o processo de Bernoulli, uma vez que existe uma mudança sistemática na probabilidade de sucesso a medida que os ítens são retirados da população (eventos dependentes).

Assim:

X = número dado de sucessos

N = número total de itens da população r = número total de sucessos na população n = número de itens na amostra.

Event prob.,Trials 0,2,20 Binomial Distribution x p ro b ab il it y 0 4 8 12 16 20 0 0,04 0,08 0,12 0,16 0,2 0,24

(4)

Obs: Quando a pop. for grande e a amostra relativamente pequena, o fato da amostragem ser feita sem reposição tem pequena influência na prob. de sucesso de cada tentativa, então pode-se usar a distribuição binomial como uma aproximação da hipergeométrica. A aproximação pela binomial é considerado boa se n

N < 0,1. Propriedades: np N r . n ) X ( E  =      =       − −       −       = 1 N n N N r N n r . n ) X ( V ) t ( MX não é utilizado 5. GEOMÉTRICA:

Uma v.a tem distribuição geométrica se sua f.p. for dada por:

{ }

(

x

)

1

x

pq

c/c

0

...

3,

2,

1,

=

x

1

x

pq

)

x

(

p

I

1,2,3,...

=

=

       

X = número de ensaios necessários para a primeira ocorrência do evento.

Obs: Na distr. binomial o número de repetições era pré-determinado, enquando na geométrica é a v.a. Propriedades: p 1 ) X ( E = 2 p q ) X ( V = t t X qe 1 e . p ) t ( M − =

Event prob.,Trials,Population size 0,25,20,1000 Hypergeometric Distribution x p ro b ab il it y 0 4 8 12 16 20 0 0,04 0,08 0,12 0,16 0,2 0,24

(5)

6. PASCAL:

Um v.a. X tem distr. de Pascal se sua f.p. for dada por:

{ }(x) q p 1 r 1 x c/c 0 ... 2, + r 1, + r r, = x q p 1 r 1 x ) x ( p r x r

I

r,r 1,r 2,... r x r + + − −       − − =                 − − =

X = No. de repetições necessárias para que o evento A ocorra r vezes. Obs: Uma generalização da distr. geométrica é a distr. de Pascal. Assim:

para r = 1 ⇒ X~Geométrica Propriedades:

(

t

)

r t X 2 qe 1 pe ) t ( M p rq = V(X) p r ) X ( E − = = 7. BINOMIAL NEGATIVA:

Uma v.a. Y tem distribuição binomial negativa se sua f.p. for dada por:

{ }(y) q p y 1 y r c/c 0 ... 2, 1, 0, = y q p y 1 y r ) Y ( p

I

0,1,2,... y r y r       + − =                 + − =

Y = número de falhas antes do r-ésimo sucesso. Propriedades: Event prob. 0,1 Geometric Distribution 0 20 40 60 80 x 0 0,02 0,04 0,06 0,08 0,1 p ro b ab il it y

(6)

r Y 2 tq 1 p ) t ( M p rq = V(Y) p rq ) Y ( E       − = =

Obs: a passagem da Pascal para a Binomial Negativa:

p x

x

r

p q

r X r

( )

=

1

1

fazendo x = r + y ⇔ y = x - r

p y

r

y

r

p q

r

y

y

p q

r r y r r y

( )

=

+ −

=

+ −

+ −

1

1

1

8. MULTINOMIAL:

Considere-se um experimento

ε

, seu espaço amostral Ω, e a partição de Ω em k eventos mutualmente exclusivos A1, A2, ..., Ak. Considerem-se n

repetições de

ε

. Então pi = P(Ai) e supondo que pi permaneça constante durante todas as repetições, temos que p

i i k = =

1 1 .

Xi = número de vezes que Ai ocorre nas n repetições de

ε

. (i = 1, 2, ..., k) Os Xi são v.a. independentes por que

X1 = n1. Então:

p(X1=n1, X2=n2, ... , Xk=nk)= nk k 1 n 1 k 2 1 p ... p n ... ! n ! n ! n

Obs: A distr. multinomial é considerada como uma generalização da binomial. Propriedades:

E(Xi) = npi V(Xi) = n pi qi

Event prob.,Successes 0,1,10

Negative Binomial Distribution

0 50 100 150 200 250 x 0 3 6 9 12 15 (X 0,001) p ro b ab il it y

(7)

9. POISSON:

Uma v.a. X tem distr. Poisson se sua f.p. for dada por:

{ }(x) ! x e . c/c 0 ... 2, 1, 0, = x ! x e . ) x ( p

I

0,1,2,... x x λ − λ − λ =        λ =

A distr. de Poisson pode ser usada para determinar a probabilidade de um dado número de sucessos quando os eventos ocorrem em um “continuum” de tempo ou

espaço.

É similar ao processo de Bernoulli, exceto que os eventos ocorrem em um “continuum” ao invés de ocorrerem em tentativas fixadas, tal como o processo de

Bernoulli os eventos são independentes e o processo é estacionário.

λ

= número médio de sucessos para uma específica dimensão de tempo e espaço.

X = número de sucessos desejados. Propriedade: E(X) = λ V(X) = λ (et1) X(t) e M = λ − OBS: 1. ! x e q ) x ( p x n lim ) x ( p lim x x n n p np 0 p n 0 p n λ =       = − −λ λ = ⇒ = λ →∞ → →∞ → Demo:

(

)

(

)(

) (

)

λ − − → λ →∞ → − − λ       λ       λ                   −       − λ = =       λ     − − − + λ =       λ      λ − = e x! = n 1 n 1 n 1 -x -1 ... n 2 1 n 1 1 . 1 lim ! x ) x ( p lim = n 1 n ... n . n 1 x n ... 2 n 1 n n n = n 1 n ! x ! x n ! n ) x ( p x x n 0 n x = np0 p n x n x x n x

2. Quando o número de observações ou experimentos em um processo de Bernoulli for muito grande a distribuição de Poisson é apropriada como uma aproximação das distribuições binomiais quando:

(8)

np < 5

λ

= np Mean 10 Poisson Distribution 0 5 10 15 20 25 30 x 0 0,03 0,06 0,09 0,12 0,15 p ro b ab il it y

(9)

7.2 DISTIBUIÇÕES CONTINUAS DE PROBABILIDADE:

1. UNIFORME OU RETANGULAR:

Uma v.a. X é uniformemente distribuida am 1≤ x ≤ b se sua f.d.p. for:

[ ] f x b a b a

I

a b x ( ) = − , ( ) ≤ ≤         = − 1 0 1 a x b c / c

(

)

(

)

(

(

)

)

F( x

x

a

b

a

x

a

b

a

I

a b

x

I

b

x

)

=

[ , )

( )

[ , )

( )

≤ ≤

=

+

0

1

x < a

a

x

b

x > b

Propriedades:

(

)

(

)

E X a b t e e b a t b t a t ( ) = + ( ) = − − 2 1 2 2 V (X ) = b - a M X

Ex: Tempo de espera do ônibus, a função depende apenas dos extremos do intervalo.

Uma máquina gera um número real entre -1 e 1. Qual a probabilidade de ser positivo?

R: f(x) = 1/b-a = 1/1-(-1) =1/2

Obs: Se tivermos valor entre -∞ e +∞ não há resposta. Não há intervalos. Lower limit,Upper limit

0,2 Uniform Distribution x d en si ty 0 0,4 0,8 1,2 1,6 2 0 0,1 0,2 0,3 0,4 0,5

(10)

2. EXPONENCIAL:

Uma v.a. X tem distr. exponencial com parâmetro λ > 0, se sua f.d.p. for dada por: 0 > , ) x ( e ) x ( f =λ x

I

[0, ) λ ∞ λ − PROPRIEDADES: λ < − λ λ = λ λ = ,t t ) t ( M 1 = V(X) 1 ) X ( E 2 X 0 x , e 1 dt e ) x X ( P ) x ( F x x 0 t = − ≤ λ = ≤ = −λ −λ

Assim: P(X>x) = e-λx

Obs: Se os eventos, ou sucessos, ocorrem em um contexto de um processo de Poisson, então o comprimento do tempo ou espaço entre 2 eventos sucessivos segue uma distribuição de probabilidade exponencial. Uma vez que tempo ou espaço são um “continuum”,a distr. será contínua.

PROPRIEDADE DE PERDA DE MEMÓRIA: Seja X ~ Exponencial ( λ ), sejam s, t ≥ 0, então:

P( X > s+t / X > t ) = P (X > t) ∀ s, t ≥ 0 Mean 10 Exponential Distribution 0 10 20 30 40 50 60 x 0 0,02 0,04 0,06 0,08 0,1 d en si ty

(11)

Demo:

(

)

(

)

(

(

)

)

( )

(

)

P X s t X t P X s t X t P X t P X s t P X t e e e e e e P X s s t t s t t s ( > + > =) > + ∩ > > = > + > = = = = > − + − − − − − λ λ λ λ λ λ = Exemplo 1:

Em média, um navio atraca em certo porto a cada 2 dias. Qual a prob. de que, a partir da partida de um navio, se passem 4 dias antes da chegada do próximo navio?

R:

média por 2 dias = 1 λ = média por dia = 1/2

P(X>4) = e-λx = e-4.1/2 = 13,53% Exemplo 2:

Um departamento de conserto de máquinas recebe, em média, 5 chamadas por hora. Iniciando em um ponto do tempo aleatoriamente escolhido, qual a prob de que a primeira chamada chegue dentro de ½ hora ?

R: média por hora = 5 λ = média por hora = 5

P(X ≤ 1/2) = 1 - e-λx = 1 - e-5.1/2 = 1- 0.08208 = 91,792% 3. DISTRIBUIÇÃO GAMA: Função Gama: Γ( )p = xp−e−x ∞

1 0 dx p > 0

Se integrarmos por partes, fazendo :

e-x dx = dv e xp-1 = µ obteremos:

( )

=

− − ∞

[

(

)

]

Γ

0 2 p x 0 1 p x

dx

x

1

p

e

x

.

e

p

|

=

0

(

p

1

)

e

x

dx

0 2 p x

∞ − −

+

=

=

=

(

p

1

) (

Γ

p

1

)

(12)

Se p for inteiro positivo p=n. Aplicando a relação acima repetidas vezes teremos:

( ) (

) (

)

(

)(

) (

)

(

n

1

)(

n

2

) ( )

...

1

2

n

2

n

1

n

1

n

1

n

n

Γ

=

=

Γ

=

=

Γ

=

Γ

Porém, Γ

( )

1 1 0 =∞

e dx−x = então: Γ(n) = (n-1)! p/ n inteiro positivo e também verifica-se:

( )

Γ 1 2 1 2 0 / = −/ − ∞

x e x dx = π Distribuição Gama:

Seja X um v.a. contínua, que tome somente valores não negativos. Então, X ~ GAMA(α,λ) se sua f.d.p., for dada por:

( )

α

Γ

λ

=

− −λ α

c/c

0

0

>

x

,

e

x

)

x

(

f

x 1 r Γ(α) = (α-1)! p/ α ≥ 1 e λ = > 0 onde: α = número de ocorrências no tempo.

X = o tamanho do tempo entre o tempo 0 e o instante quando a α-ésima ocorrência acontece.. Shape,Scale 1,1 Gamma Distribution 0 1 2 3 4 5 6 x 0 0,2 0,4 0,6 0,8 1 d en si ty

(13)

PROPRIEDADES:

1. Se α =1 então f(x) = λe-λx ⇒ distr. exponencial (caso particular da Gama) A soma de v.a. exponenciais distribuidas identicamente independentes é uma distr. Gama. 2.

λ

λ

λ

=

λ

α

λ

α

=

α

,

p/ t

<

t

)

t

(

M

=

V(X)

)

X

(

E

2 X

4. DISTRIBUIÇÃO NORMAL (GAUSS):

Uma v.a. X ~ N(µ ,σ2 ) se sua f.d.p. for dada por:

0

>

e

<

<

-,

<

x

<

e

2

1

)

x

(

f

2 x 2 1

σ

µ

π

σ

=

     σ µ − −

)

x

(

,

dt

e

2

1

)

x

(

F

2 x t 2 1 2

σ

µ

Φ

=

π

σ

=

∞ −       σ µ − − PROPRIEDADES: 1. fX(x) > 0 , x∈ℜ 2. fX(x) 0 x

lim

±∞ = 3. fX(x) é contínua e diferenciavel.

4. fX(x) é crescente para x ∈ (-∞, µ) e decrescente para x ∈ (µ, ∞). Mean,Std. dev. 0,1 Normal Distribution -5 -3 -1 1 3 5 x 0 0,1 0,2 0,3 0,4 d en si ty

(14)

5. Ponto de máximo da função em x = µ. Então µ é também a moda da distribuição.

f’(x) = f(x). (x-µ)/σ ⇒ f’(µ) = 0

f”(x) = f(x) [ (x-µ)2/σ2 - 1/σ2] ⇒ f”(µ) = -f(µ)/σ2 <0

6. Existem dois ou mais pontos de inflexão em x = µ+σ e x = µ-σ . ( a segunda derivada se anula)

7. fX(x) é simétrica em relação a µ. (x-µ)2.

8. Valor esperado : µ e Variância = σ2 MX(t) = etµ+1/2.t2σ2

IMPORTÂCIA:

1. Poder de modelamento. Medidas produzidas em diversos processos aleatórios seguem a distr. normal.

2. Capacidade de aproximação de outras distr. como Binomial e Poisson.

3. As distr. de estatísticas da amostra frequentemente seguem a distr. normal independente da distr. da população.

APROXIMAÇÕES PELA NORMAL: 1. Binomial: quando n ≥ 30 np ≥ 5 então: µ = np σ2 = npq 2. Poisson: quando λ≥ 10 então: µ = λ σ = λ

DISTRIBUIÇÃO NORMAL REDUZIDA:

Quando µ = 0 e σ2 = 1 (caso particular) (chamada standart, normalizada, padrão) f z( )= 1 e− z 2 1 2 2 π p/ z xi = − µ σ

∞ − −

π

=

Φ

=

z 2 t

dt

e

2

1

)

z

(

)

z

(

F

2 ⇒ valor tabelado

(15)

P(a ≤ x ≤ b) = Φ(b) - Φ(a) P(x ≤ a) = Φ(a)

P(x > a) = 1 - Φ(a)

Ex: Determine a área limitada pela curva normal em cada um dos casos: 1. 0 ≤ Z ≤ 1,2 R: 0,3849 2. -0,68 ≤ Z ≤ 0 0,2517 3. -0,46 ≤ Z ≤ 2,21 0,6632 4. Z ≤ -0,6 0,2743 5. Z ≥ 0,62 0,2676 6. 0,18 ≤ Z ≤ 0,26 0,0312 7. -0,95 ≤ Z ≤ -0,41 0,1698 8. Z < -1,51 e Z > 1,51 0,1310 9. Z > -0.5 0,6915

7.3 TEOREMA DO LIMITE CENTRAL

Seja X1, X2, ..., Xn v.a.independente identicamente distribuídas (iid); com a mesma µ e σ2 e seja Sn= X1 + X2 + ... + Xn a soma de v.a. iid:

n x n n n

Z

)

S

(

V

)

S

(

E

S

∞ →

∼ N(0,1) - n x n

Z

n

n

S

∞ →

σ

µ

∼ N(0,1) ou seja

pois E(Sn) = E(X1+X2+...+Xn)= µ1+µ2+...+µn= nµ V(Sn) = σ12+σ22+...+σn2 = nσ2

Uma dedução feita através do Teorema do Limite Central é que uma distribuição amostral de médias tende uma distr. normal quando n é suficientemente grande (n ≥ 30).

)

X

(

V

)

X

(

E

X

n n n





=

=

n

,

N

2 2 X X

σ

σ

µ

µ

onde:

( ) ( )

( )

[

+ + +

]

= µ=µ =     + + + = = µ n n 1 X E ... X E X E n 1 n X ... X X E ) X ( E 1 2 n 1 2 n X

( ) ( )

( )

[

]

n

n

n

1

X

V

...

X

V

X

V

n

1

n

X

...

X

X

V

)

X

(

V

2 2 2 n 2 1 2 n 2 1 2 X

σ

=

σ

=

+

+

+

=

+

+

+

=

=

σ

(16)

NOTA HISTÓRICA:

A distribuição normal é chamada historicamente de lei dos erros. Foi usada por Gauss para modelar erros em observações astronômicas. Gauss derivou a distribuição normal, não como limite de somas de variáveis aleatórias independentes, mas a partir de certas hipóteses entre elas a de considerar a média aritmética das observações. Hoje em dia o Teorema do Limite Central dá apoio ao uso da normal como distribuição de erros, pois em muitas situações reais é possível interpretar o erro de uma observação como resultante de muitos erros pequenos e independentes. Pode-se interpretar também que uma observação é gerada da soma de muitos efeitos pequenos e independentes.

No MATLAB:

Cumulative Distribution Functions (cdf): normcdf Normal (Gaussian)

poisscdf Poisson

Probability Density Functions (pdf): binopdf Binomial pdf

chi2pdf Chi-square pd exppdf Exponential pdf

Inverse Cumulative Distribution Functions:

geoinv Geometric critical values hygeinv Hypergeometric critical values

Moments of Distribution Functions Binostat Binomial mean and variance chi2stat Chi-square mean and variance expstat Exponential mean and variance Random Number Generators

normrnd Normal (Gaussian) random numbers poissrnd Poisson random numbers

Referências

Documentos relacionados

Neste tipo de situações, os valores da propriedade cuisine da classe Restaurant deixam de ser apenas “valores” sem semântica a apresentar (possivelmente) numa caixa

Este estudo, assim, aproveitou uma estrutura útil (categorização) para organizar dados o que facilitou a sistematização das conclusões. Em se tratando do alinhamento dos

Apesar dos esforços para reduzir os níveis de emissão de poluentes ao longo das últimas décadas na região da cidade de Cubatão, as concentrações dos poluentes

Para analisar as Componentes de Gestão foram utilizadas questões referentes à forma como o visitante considera as condições da ilha no momento da realização do

5) “Estado da arte” do desenvolvimento local sertaginense. “A Sertã continua a ser pequenina e com pouca população. O setor turístico tem vindo a melhorar e temos

Neste estudo foram estipulados os seguintes objec- tivos: (a) identifi car as dimensões do desenvolvimento vocacional (convicção vocacional, cooperação vocacio- nal,

§1º ­ É dever e responsabilidade do piloto voar com equipamento em adequado estado de       conservação e compatível com seu nível técnico conforme as normas EN 962 e/ou LTF..

Na apropriação do PROEB em três anos consecutivos na Escola Estadual JF, foi possível notar que o trabalho ora realizado naquele local foi mais voltado à