VI- MOMENTOS E FUNÇÃO GERATRIZ DE MOMENTO.
6.1- ESPERANÇA DE UMA FUNÇÃO:
CASO DISCRETO:
∑
∞=1 i
i i)p(x ) g(x
= E[g(x)]
CASO CONTÍNUO:
+∞
∫
∞
=
-
dx ) x ( f ).
x ( g )]
x ( g [ E
6.2- MOMENTO:
DEFINIÇÃO DE MOMENTOS:
Define-se momento de uma distribuição de probabilidade o valor esperado das potências da v.a.que possui a dada distribuição.
Se X é uma v.a., o k-ésimo momento de X, usualmente denotado porµ′k, é definidao por:
µ′k =E[Xk] (Momento Centrado na Origem) Assim µ′1 =E(X)=µx ⇒ a média de X
MOMENTO CENTRADO:
Se X é uma v.a., o r-ésimo momento centrado de X em “a” é definido como:
E [( X - a )k ]
Se a = µx , nós temos o r-ésimo momento centrado na média dado por:
µk = E [(X - µx )k]
Obs: µ1 = E[(X-µx)] = E(X) - E(X) = 0 e
µ2 = E[ X-µx)2] = V(X)
Todos os momentos impares centrados na média são iguais a zero, se a distribuição for simétrica.
CASO DISCRETO:
( )
∑= −µ
=
µ n
1 i
i k x i
rk (x ) .p x
CASO CONTÍNUO:
(x x)k.f(x)dx
k ∫∞
∞
−
µ
−
= µ
Casos especiais:
µ0 =1 µ1 =µx
µ2 µ2 µ
= ′ − 2
µ3 = ′ −µ3 3µ µ2′ +2µ3
µ4 = ′ −µ4 4µ µ3′ +6µ µ2′ 2 −3µ4
FUNÇÃO GERATRIZ DE MOMENTOS:
Seja X uma v.a com função densidade de probabilidade f(x). Então:
ψx(t) = E [ etx ] ∀ t / -h2 < t < h2
CASO DISCRETO:
) x ( p . e ) t
( i
x tx
X =∑
ψ
CASO CONTÍNUO:
∫∞
∞
= ψ
- X tx
X(t) e f (x)dx
PROPRIEDADES:
P1: k X r
k
0 t
) t dt (
lim→ d ψ =µ′
Demo:
p/ k=1
dx ) x ( f e ) e ( E ) t
( tx tx X
X ∫∞
∞
−
=
= ψ
dx ) x ( f xe
= dx ) x ( f dte
= d dx ) x ( f dt e ) d t (
'X ∫ tx X ∫ tx X ∫∞ tx X
∞
−
∞
∞
−
∞
∞
−
= ψ
1 X
X(0) xf (x)dx=E(X)=
' ∫∞ µ′
∞
−
=
ψ //
Ex1:
Seja X uma v.a. com distribuição geométrica dada pela função de probabilidade abaixo. Calcule a V(X) através da f.g.m.
P(X=k) = qk-1. p p/ k= 1, 2, ...
t t
t t 2
t t t
1 k
k t
1 k
1 k tk X
qe 1
pe qe
1 . qe q
= p ...
) qe ( qe 1 [ qqe p
) e . q ( q. ) p p . q ( e ) t (
= − + −
+ +
=
=
=
ψ ∑ ∑∞
=
∞
=
−
( )
( ) ( t)2
t
t 2
t t t t
qe 1
pe qe
1
) qe ( pe pe qe ) 1
t (
' = −
−
−
−
= − ψ
( ) ( t)3
t t
qe 1
qe 1 ) pe t (
"
−
= + ψ
( )
( )
2 2
2
2
2 3 2
2
p q p
1 q 1 p 1 p
q ) 1 X ( V
) X ( p E
q 1 q 1
) q 1 ( ) p 0 (
"
) X ( p E 1 q 1 ) p 0 ( '
− =
= +
−
= +
+ =
− =
= + ψ
=
− =
= ψ
Ex2:
Determine a f.g.m e a variância de uma variável aleatória dada pelo f.d.p. abaixo:
f x e x
( )= ≥
2 −
0
2 x 0 c / c
t 2
2 2
- t
= 2e dx e 2
dx ) e 2 ( e dx ) x ( f . e ) e ( E ) t ( '
0 2)x - (t
0 x ) 2 t (
0
x 2 tx
- tx tx
= −
=
=
=
=
= ψ
∞ ∞
−
∞
−
∞
∞
∫
∫
∫
4 1 2 1 2
=1 V(X) 2
=1 ) E(X
= (0)
"
2 ) 1 X ( E ) 0 ( '
2
2 =
− ψ
=
= ψ
P2. Propriedade Reprodutiva Def.1:
A f.g.m. da soma de v.a. independentes é o produto das f.g.m.
individuais.
Seja X e Y v.a. independentes com f.g.m. ψx (t) e ψy (t) respectivamente. Seja W = X + Y então:
ψw (t) = ψX+Y(t) = E ( et(X+Y)) ψw(t) = E(etX). E(etY)
desde que X e Y são independentes ⇒ ψw(t) = E(etX). E(etY)
ψW(t) = ψX(t) . ψY(t)
Def.2: Propriedade Reprodutiva das Distribuições:
Se duas ou mais v.a. que tenham uma mesma distribuição forem adicionadas, a v.a. resultante terá uma distribuição do mesmo tipo das originais.
Ex1:
Seja X~Poisson (λ1) e Y~Poisson (λ2).
Seja W = X + Y então:
( )
( )
e 1) 1 e ( ) 1 e ( Y
X w
) 1 e ( Y
) 1 e ( X
2 t t 1
t 2 1
t 2 t
1
e e
. e
) t ( ).
t ( )
t (
e ) t ( e e
) t (
− λ + λ
− λ
− λ
− λ
− λ
=
= ψ
ψ
= ψ
= ψ
= ψ
é uma f.g.m. de uma Poisson com parâmetro (λ1 + λ2) W ~ Poisson (λ1 + λ2)
Ex2:
Verifique se a distribuição exponencial possui a propriedade reprodutiva:
Se X ~ Exp(λ) então ψX(t) =
+t λ
λ
Seja W = X1 + X2 ψw(t) =
2
t . t
t
− λ
= λ
− λ
λ
− λ
λ
onde ψZ(t) não é mais da forma exponencial será uma Gama então a distribuição exponencial não cumpre a propriedade reprodutiva.
FUNÇÃO CARACTERÍSTICA:
Seja X uma v.a com função densidade de probabilidade f(x). Então:
ϕX(t) = E [ eitx ] i= −1
Embora a Função Característica assuma valores complexos, isto representa um vantagem, pois pela fórmula de Euler temos:
eix = cos x + i.sen x
Assim, a esperança desta variável é finita, pois as variáveis aleatórias cos x e sen x são limitadas, isto garante que sempre a Função Característica vai existir.
PROPRIEDADES:
P1. A Função Característica é limitada por 1 ou seja ϕX(t) ≤1 ∀ t∈R
P2. ϕX(0)=1
P3. Se X e Y são independentes ⇒ ϕX+Y(t)=ϕX(t).ϕY(t)
P4. A função característica determina a função da distribuição de x através da Fórmula da Inversão, dada por:
∞∫
∞
−
− ϕ
= π e (x)dt 2
) 1 x (
fX itx
Quando conhecemos a função de probabilidade ou função densidade de probabilidade de uma v.a. X podemos calcular facilmente a esperança e variância. No entanto, se conhecemos somente a esperança e variância não podemos reconstruir a distribuição a fim de calcularmos probabilidades.
Podemos, no entanto, estabelecer um limite superior (ou inferior) para estas probabilidades, usando as desigualdades descritas a seguir.
DESIGUALDADE BÁSICA DE TCHEBYCHEV
Se x é uma v.a. e g(x) uma função não negativa em ℜ, então:
0 k
)]
x ( g [ ] E k ) x ( g [
P ≥ ≤ ∀ ε>
Prova:
] k ) x ( g [ k P
E(g(x)]
: que k temos por
dividindo então
] kP[g(x) dx
) x ( f . k
dx ) x ( f ) x ( g
dx ) x ( f ) x ( g dx
) x ( f ) x ( g dx
) x ( f ) x ( g )]
x ( g [ E
) x ( g : x
k ) x ( g : x k
) x ( g : x k
) x ( g : x
≥
≥
ε
≥
=
≥
≥
≥ +
=
=
∫
∫
∫
∫
∫
ε
≥
≥
<
≥ +∞
∞
−
Fazendo g(x) = (x-µ)2 e k = ε2 temos a Desigualdade Clássica de Tchebychev.
DESIGUALDADE CLÁSSICA DE TCHEBYCHEV
] - x P[
] ) x [(
P
) x ( V ] - E[x ] ) x [(
P
2 2
2 2
2 2
2
ε
≥ µ
= ε
≥ µ
−
= ε ε
≤ µ ε
≥ µ
−
2
) x ( ] V -
x
P[ µµµµ ≥≥≥≥εεεε ≤≤≤≤ εεεε
Ex: A probabilidade de X diferir de sua média em mais de dois desvios padrões é inferior ou no máximo igual a 25%, pois
25%
4 1 ] 4
2 x
[
P 2
2 = =
σ
≤ σ σ
≥ µ
−
Obs: Uma aplicação importante desta desigualdade se dá na prova de consistência de um estimador.