O teorema central do limite de distribuições prob- abilísticas
Há um teorema de central importância sobre o limite de distribuições probabilís- ticas: é o chamado teorema central do limite. Esse teorema é realmente curioso, pois estabelece que seNvariáveis reais aleatóriasxi,comi= 1,2, . . . , N,forem identicamente distribuídas na reta real, com densidade de probabilidade dada porp(xi),para cadai= 1,2, . . . , N,e se a densidadepfor arbitrária, mas tal que todos os valores médios das potências dexisejam nitos, então a densidade de probabilidade para a variável soma, isto é,
X = 1 N
∑N i=1
xi,
no limite em que N for muito grande, será gaussiana! :shock: Isso mesmo:
independentemente da distribuiçãop!:shock:
Como exemplo análogo do caso discreto, pensemos em uma série deNlança- mentos de um dado. Cada lançamento pode resultar em uma de seis possíveis faces, com a probabilidade de ocorrência igual a um sexto. Assim, a ocorrência de cada um dos números de face de1a 6é igualmente provável em cada lança- mento. Depois deN lançamentos idênticos e independentes, podemos perguntar qual a média do número de face. Por exemplo, em três lançamentos, obtemos os números de face: x1= 1, x2= 5ex3= 4e a média é dada por
X = 1
3(1 + 5 + 4)
= 10 3 .
Podemos repetir esses três lançamentos muitas e muitas vezes e estimar a dis- tribuição de probabilidades de que um valorX ocorra para a média dos valores de face. Essa distribuição, para três lançamentos, não é gaussiana. Mas se zer- mos esse mesmo experimento com o número de lançamentosN cada vez maior, a distribuição de ocorrência deX será gaussiana, segundo o teorema central do limite. A seguir, segue uma prova do teorema. :cool:
SejaP(X)a densidade de probabilidade de que a variávelX,denida pela soma das variáveis aleatóriasxi,isto é,
X = 1 N
∑N i=1
xi,
assuma um valor entreX eX+dX.SejaQ(K)a transformada de Fourier de P(X) :
Q(K) =
ˆ +∞
−∞
dX P(X) exp (iKX).
A exponencial pode ser escrita como uma série innita:
exp (iKX) =
∑∞ n=0
inKn n! Xn. Logo,
Q(K) =
∑∞ n=0
inKn n!
ˆ +∞
−∞
dX P(X)Xn =
∑∞ n=0
inKn n! ⟨Xn⟩,
onde denotamos o valor esperado deXn por⟨Xn⟩:
⟨Xn⟩ =
ˆ +∞
−∞
dX P(X)Xn.
ParaN = 2,por exemplo, temos a probabilidadep(x1)dx1de que a variável estocástica x1 assuma um valor entre x1 e x1+dx1. Analogamente, temos a probabilidadep(x2)dx2de que a variável estocásticax2assuma um valor entre x2 ex2+dx2.De todos os valores independentes quex1 ex2 possam assumir, qual a probabilidade de que assumam valores tais que (x1+x2)/2 tenha um valor entreX eX+dX?A resposta para essa questão é simples: escrevemos
x2 = 2X−x1 e, para cada valor deX ex1 a probabilidade é
p(x1)p(x2)dx1dx2.
Como agora queremos que as variáveis independentes sejamX ex1,utilizamos a relação
dx1dx2 =
∂x1
∂x1
∂x1
∂X
∂x2
∂x1
∂x2
∂X
dx1dX= 1 0
−1 2
dx1dX = 2dx1dX
e a probabilidade procurada pode ser escrita como P(X)dX = 2
ˆ +∞
−∞
p(x1)p(2X−x1)dx1dX,
já que qualquer valor dex1 poderá ocorrer e ainda assim termos o mesmo valor paraX.Portanto, a densidade de probabilidade é dada por
P(X) = 2 ˆ +∞
−∞
p(x1)p(2X−x1)dx1, que também pode ser expressa como
P(X) = 2 ˆ +∞
−∞
ˆ +∞
−∞
p(x1)p(x2)δ[x2−(2X−x1)]dx1dx2,
ondeδ é a chamada "função delta de Dirac". Se utilizarmos as propriedades:
δ(ay) = 1
|a|δ(y) e
δ(y) = δ(−y), obteremos
P(X) =
ˆ +∞
−∞
ˆ +∞
−∞
p(x1)p(x2)δ (
X−x1+x2
2 )
dx1dx2. ParaN >2, podemos facilmente generalizar a fórmula acima:
P(X) =
ˆ +∞
−∞
ˆ +∞
−∞
. . . ˆ +∞
−∞
p(x1)p(x2). . . p(xN)δ (
X− 1 N
∑N n=1
xi )
dx1dx2. . . dxN.
Usando esse resultado na expressão do valor esperado deXn encontramos
⟨Xn⟩ =
ˆ +∞
−∞
dX P(X)Xn
=
ˆ +∞
−∞
dX Xn ˆ +∞
−∞
. . . ˆ +∞
−∞
p(x1). . . p(xN)δ (
X− 1 N
∑N n=1
xi
)
dx1. . . dxN
=
ˆ +∞
−∞
. . . ˆ +∞
−∞
dx1. . . dxNp(x1). . . p(xN) ˆ +∞
−∞
dX Xnδ (
X− 1 N
∑N n=1
xi
) , isto é,
⟨Xn⟩ = ˆ +∞
−∞
. . . ˆ +∞
−∞
dx1. . . dxNp(x1). . . p(xN) (
1 N
∑N n=1
xi
)n
. Utilizando essa igualdade na equação
Q(K) =
∑∞ n=0
inKn n!
ˆ +∞
−∞
dX P(X)Xn fornece
Q(K) =
∑∞ n=0
inKn n!
ˆ +∞
−∞
. . . ˆ +∞
−∞
dx1. . . dxNp(x1). . . p(xN) (
1 N
∑N n=1
xi
)n
=
ˆ +∞
−∞
. . . ˆ +∞
−∞
dx1. . . dxNp(x1). . . p(xN)
∑∞ n=0
inKn n!
( 1 N
∑N n=1
xi
)n
.
Reconhecemos a série innita acima como uma exponencial:
∑∞ n=0
inKn n!
( 1 N
∑N n=1
xi )n
= exp (
iK N
∑N n=1
xi )
. Logo,
Q(K) =
ˆ +∞
−∞
. . . ˆ +∞
−∞
dx1. . . dxNp(x1). . . p(xN) exp (
iK N
∑N
n=1
xi
)
=
ˆ +∞
−∞
dx1p(x1) exp (iK
N x1
) . . .
ˆ +∞
−∞
dxNp(xN) exp (iK
N xN
)
=
[ˆ +∞
−∞
dxp(x) exp (iK
N x )]N
.
Como estamos supondo queN é muito grande, podemos utilizar a expansão:
exp (iK
N x )
= 1 +iK Nx−1
2 (K
N )2
x2+· · · e, portanto,
ˆ +∞
−∞
dxp(x) exp (iK
N x )
= ˆ +∞
−∞
dxp(x) [
1 +iK Nx−1
2 (K
N )2
x2+· · · ]
= ˆ +∞
−∞
dxp(x) +iK N
ˆ +∞
−∞
dxp(x)x
− 1
2 (K
N
)2ˆ +∞
−∞
dxp(x)x2+· · ·, isto é,
ˆ +∞
−∞
dxp(x) exp (iK
N x )
= 1 +iK
N ⟨x⟩ −1 2
(K N
)2⟨ x2⟩
+· · ·,
onde ˆ +∞
−∞
dxp(x) = 1,
⟨x⟩ =
ˆ +∞
−∞
dxp(x)x e
⟨x2⟩
=
ˆ +∞
−∞
dxp(x)x2.
Com isso, a equação
Q(K) =
[ˆ +∞
−∞
dxp(x) exp (iK
N x )]N
pode ser escrita como Q(K) =
[ 1 +iK
N ⟨x⟩ −1 2
(K N
)2⟨ x2⟩
+· · · ]N
= exp {
Nln [
1 +iK
N⟨x⟩ −1 2
(K N
)2⟨ x2⟩
+· · · ]}
. ParaN muito grande, podemos expandir o logaritmo:
ln [
1 +iK N ⟨x⟩ −
(K N
)2⟨ x2⟩
+· · · ]
= [
iK
N ⟨x⟩ −1 2
(K N
)2⟨ x2⟩
+· · · ]
− 1
2 [
iK
N ⟨x⟩ −1 2
(K N
)2⟨ x2⟩
+· · · ]2
+· · · isto é,
ln [
1 +iK N ⟨x⟩ −
(K N
)2⟨ x2⟩
+· · · ]
= iK
N ⟨x⟩ −1 2
(K N
)2⟨ x2⟩
−1 2
( iK
N ⟨x⟩ )2
+· · ·
= iK
N ⟨x⟩ −1 2
(K N
)2(⟨
x2⟩
− ⟨x⟩2) +· · ·
= iK
N ⟨x⟩ −1 2
(K N
)2
var (x) +· · ·, onde reconhecemos a variância dex,ou seja,
var (x) = ⟨ x2⟩
− ⟨x⟩2. Então,
Q(K) = exp {
N [
iK
N ⟨x⟩ −1 2
(K N
)2
var (x) +· · · ]}
= exp [
iK⟨x⟩ −1 2
K2
N var (x) +· · · ]
.
Essa é a trasformada de Fourier da densidade de probabilidadeP(X)que procu- ramos. Podemos inverter a equação
Q(K) =
ˆ +∞
−∞
dX P(X) exp (iKX)
e obter ˆ +∞
−∞
dK Q(K) exp (−iKX) =
ˆ +∞
−∞
dK [ˆ +∞
−∞
dY P(Y) exp (iKY) ]
exp (−iKX)
=
ˆ +∞
−∞
dY P(Y) ˆ +∞
−∞
dKexp [iK(Y −X)].
Como ˆ +∞
−∞
dKexp [iK(Y −X)] = 2πδ(Y −X), concluímos que podemos obterP(X)a partir deQ(K) :
P(X) = 1 2π
ˆ +∞
−∞
dK Q(K) exp (−iKX). Então, da equação
Q(K) = exp [
iK⟨x⟩ −1 2
K2
N var (x) +· · · ]
segue que
P(X) = 1 2π
ˆ +∞
−∞
dK exp [
−iK(X− ⟨x⟩)−1 2
K2
N var (x) +· · · ]
≈ 1
2π ˆ +∞
−∞
dK exp [
−iK(X− ⟨x⟩)−1 2
K2 N var (x)
]
= 1
2π ˆ +∞
−∞
dK exp {
−1 2
var (x) N
[
K2+ 2i N K
var (x)(X− ⟨x⟩) ]}
e, completanto o quadrado no argumento da exponencial no integrando, vem:
P(X) ≈ 1 2πexp
{ 1 2
var (x) N
(iN(X− ⟨x⟩) var (x)
)2}
×
ˆ +∞
−∞
dK exp {
−1 2
var (x) N
[
K2+ 2i N K
var (x)(X− ⟨x⟩) +
(iN(X− ⟨x⟩) var (x)
)2]}
, isto é,
P(X) ≈ 1 2πexp
{
−1 2
N(X− ⟨x⟩)2 var (x)
}ˆ +∞
−∞
dK exp {
−1 2
var (x) N
(
K+iN(X− ⟨x⟩) var (x)
)2} .
Como ˆ +∞
−∞
dK exp {
−1 2
var (x) N
(
K+iN(X− ⟨x⟩) var (x)
)2}
=
√ 2πN var (x),
escrevemos
P(X) ≈
√ N
2πvar (x)exp {
− N
2var (x)(X− ⟨x⟩)2 }
.
O valor esperado deX é dado por
⟨X⟩ =
⟨ 1 N
∑N n=1
xn
⟩
= 1 N
∑N n=1
⟨xn⟩=⟨x⟩,
já que as variáveisxn são todas independentes e identicamente distribuídas. A variância deX é dada por
var (X) = ⟨ X2⟩
− ⟨X⟩2=
⟨ 1 N
∑N m=1
xm
1 N
∑N n=1
xn
⟩
− ⟨x⟩2, isto é,
var (X) = 1 N2
∑N m=1
∑N n=1
⟨xmxn⟩ − ⟨x⟩2.
Mas, como as variáveisxmsão todas independentes e identicamente distribuídas, temos:
⟨xmxn⟩ = δmn
⟨x2⟩
+ (1−δmn)⟨x⟩2,
onde δmn é a função de dois inteiros, m e n, chamada "delta de Kronecker".
Assim,
var (X) = 1 N2
∑N m=1
∑N n=1
[ δmn⟨
x2⟩
+ (1−δmn)⟨x⟩2]
− ⟨x⟩2
= 1
N2
∑N m=1
⟨x2⟩ + 1
N2
∑N m=1
∑N n=1
(1−δmn)⟨x⟩2− ⟨x⟩2
= 1
N
⟨x2⟩ + 1
N2
∑N m=1
∑N n=1
⟨x⟩2− 1 N2
∑N m=1
∑N n=1
δmn⟨x⟩2− ⟨x⟩2, isto é,
var (X) = 1 N
⟨x2⟩
+⟨x⟩2− 1 N2
∑N m=1
⟨x⟩2− ⟨x⟩2= 1 N
⟨x2⟩
− 1 N ⟨x⟩2, ou seja,
var (X) = var (x) N .
Podemos, então, escrever a densidade de probabilidade para a variável X, quandoN é muito grande, como uma gaussiana:
P(X) ≈ 1
√2πvar (X)exp {
−(X− ⟨X⟩)2 2var (X)
} . Acho isso fantástico! :grin: Você não acha? :cool: