Capítulo II-Teoria da Probabilidade
Os assuntos expostos nos slides 58 a 75 serão estudados apenas na aulas práticas, visto serem assuntos de revisão.
Noções Preliminares Definição
Fenómenos aleatóriossão fenómenos sujeitos à influência do acaso e, como tal, fora do alcance do observador.
Fenómenos aleatórios são caracterizados pela sua:
Experiência aleatória
Definição
Experiência aleatóriaé todo o procedimento que verifica as seguintes propriedades:
– pode repetir-se um grande número de vezes nas mesmas condições ou pelo menos em condições semelhantes;
– a sua realização dá um resultado de entre um conjunto de resultados possíveis;
– cada um dos resultados da experiência é imprevisível mas é possível considerar “estabilidade na frequência da sua ocorrência”.
Exemplos de experiências aleatórias
1 lançamento de dois dados e registo do número de pontos que sai; 2 lançamento de uma moeda e observação da face que fica voltada
para cima;
3 contagem do número mensal de acidentes de automóvel numa autoestrada;
4 registo do tempo de vida de uma pessoa, em anos;
5 registo do tempo de trabalho de uma máquina até à primeira avaria.
Espaço de Resultados. Acontecimento
DefiniçãoEspaço de resultados ou espaço amostra é o conjunto de todos os resultados possíveis associados a uma experiência aleatória – representa-se porΩ.
Para os exemplos anteriores tem-se
1 Ω = {(1, 1), (1, 2), (1, 3), ..., (6, 5), (6, 6)};
2 Ω = {‘face valor’, ‘face país’} = {‘FV’,‘FP’} = {1, 0}; 3 Ω =IN
0; 4 Ω =IN; 5 Ω =IR+. Definição
Acontecimento aleatórioé qualquer subconjunto do espaço de resul-tados.
Álgebra dos acontecimentos
SejaΩo espaço de resultados associado a uma experiência aleatória.
Diz-se queA ⊂ Ω se realizouse o resultado, ω, da experiência é um elemento de A, i.e., ω ∈ A.
A ⊂ B, diz-se Asubacontecimentode B, se e só se a realização de A implica a realização de B;
AcouAdiz-seacontecimento complementaroucontrárioa A, é o conjunto de todos os elementos de Ω que não estão em A;
A ∪ B, diz-seuniãode A com B, é o acontecimento que consiste na realização de pelo menos um dos acontecimentos.
Álgebra dos acontecimentos (cont.)
ABouA ∩ B, diz-seproduto ouintersecção, é o acontecimento que se realiza apenas quando ambos os acontecimentos se realizam.
Os acontecimentos A e B dizem-semutuamente exclusivosou
incompatíveisse e só se a realização de um implica a não realização do outro, i.e.,se e só seAB = ∅.
A − B = A ∩ B diz-sediferençados acontecimentos A e B é o acontecimento que se realiza se e só se A se realiza sem que B se realize.
∅diz-seacontecimento impossível.
Álgebra dos acontecimentos
Vamos recordar algumaspropriedadesdas operações sobre acontecimentos (procure mais algumas...):
Propriedade Interpretação Associatividade (A ∩ B) ∩ C = A ∩ (B ∩ C) (A ∪ B) ∪ C = A ∪ (B ∪ C) Comutatividade A ∩ B = B ∩ A A ∪ B = B ∪ A Distributividade (A ∩ B) ∪ C = (A ∪ C) ∩ (B ∪ C) (A ∪ B) ∩ C = (A ∩ C) ∪ (B ∩ C) Leis de Morgan A ∩ B = A ∪ B A ∪ B = A ∩ B ... ...
Probabilidade de um acontecimento
Definição clássica – Laplace (séc. XIX)
Sob a hipótese de quetodos os casos são igualmente prováveis ou possíveis (princípio da simetria).
Probabilidade de realização de um acontecimento A
P = número de casos favoráveis a A número total de casos possíveis
Definição frequencista
Considere-se n repetições de uma experiência aleatória; nA o n o ¯ de vezes que se verificou A. Paran“grande” tem-se para as frequências relativas
fn(A) = nA/n ≈ P
Probabilidade de um acontecimento
Ω−espaço de resultados associado a uma experiência aleatória.
Definição de Probabilidade
Probabilidade, P, é uma aplicação que a cada acontecimento de Ω
associa um número real satisfazendo o seguinte conjunto de axiomas:
A1) P(A) ≥ 0 ∀A ⊂ Ω;
A2) P(Ω) = 1;
A3) P(A ∪ B) = P(A) + P(B) se A ∩ B = ∅. (Axioma das probabilidades totais).
Se Ω é infinito,
A3∗) P(∪∞i=1Ai) =P∞i=1P(Ai) se Ai∩ Aj = ∅, i 6= j (Axioma completo das probabilidades totais).
Leis básicas das probabilidades
1 P(A) = 1 − P(A). 2 P(∅) = 0.
3 A ⊂ B ⇒ P(A) ≤ P(B). 4 P(A) ≤ 1.
5 P(A − B) = P(A ∩ B) = P(A) − P(A ∩ B). 6 Se B ⊂ A ⇒ P(A − B) = P(A) − P(B). 7 Sejam A
1, ...,Anacontecimentos mutuamente exclusivos então P(∪ni=1Ai) =Pni=1P(Ai)
Leis básicas das probabilidades (cont.)
9 P(A ∪ B ∪ C) = P(A) + P(B) + P(C) − P(A ∩ B) − P(A ∩ C)− P(B ∩ C) + P(A ∩ B ∩ C) 10 Generalização: A 1,A2, ...,An acontecimentos quaisquer P(∪n i=1Ai) = Pn
i=1P(Ai)−P(A1∩A2)−P(A1∩A3)−...−P(An−1∩An) +P(A1∩ A2∩ A3) + ... +P(An−2∩ An−1∩ An)
+... + (−1)n−1P(A1∩ A2∩ ... ∩ An).
Exercício 1
Sejam A, B e C acontecimentos definidos num espaço de resultados Ω tais que
P(A) = P(B) = P(C) = 1
4; P(A ∩ B) = P(B ∩ C) = 0e P(A ∩ C) = 1 8. Calcule, justificando, a probabilidade de se verificar pelo menos um dos acon-tecimentos A, B ou C.
Probabilidade condicional
Definição de Probabilidade Condicional
Chama-seprobabilidade condicional de A dado Bouprobabilidade de A se Be representa-se porP(A|B), com P(B) > 0 a
P(A|B) = P(A ∩ B)
P(B) =
P(AB) P(B)
Podemos enunciar o seguinte teorema:
Teorema das probabilidades compostas Se P(A) > 0 e P(B) > 0,
Independência
Definição
Dois acontecimentos A e B dizem-se mutuamenteindependentesse e só se
P(A ∩ B) = P(A) P(B).
Da definiçãoconclui-seque se A e B são independentes então P(A|B) = P(A) se P(B) > 0 e P(B|A) = P(B) se P(A) > 0.
Independência
Teorema
Se A e B são independentes
A e B, A e B e A e B, também são independentes.
Nota: Independêncianão é equivalente a exclusividade mútua.
Resultado:
Se P(A) > 0 e P(B) > 0 e A e B independentes ⇒ A e B são não mutuamente exclusivos.
Generalização a três acontecimentos
Sejam A, B, C tais que P(A) > 0, P(B) > 0 e P(C) > 0, tem-se,
P(ABC) = P(A)P(B|A)P(C|AB) = P(B)P(C|B)P(A|BC) =
=P(C)P(A|C)P(B|AC).
Definição –Independência de três acontecimentos
Os acontecimentos A, B e C dizem-semutuamente independentesou apenasindependentesse e só se
P(ABC) = P(A) P(B) P(C); P(AB) = P(A)P(B); P(AC) = P(A)P(C); P(BC) = P(B)P(C).
Nota: A independência par a par não assegura independência de um conjunto de acontecimentos.
Exercício 2
Uma empresa produz concentrado de tomate recorrendo a três processos de fabrico e embalamento. Sabe-se que 20% da produção e embalamento de concentrado provém do processo A, 30% do processo B e 50% do processo C.
Nalgumas embalagens daquele concentrado tem-se verificado a ocorrência de deficiências. Sabe-se 1% das embalagens provenientes do processo A, 2% das provenientes do processo B e 8% das
provenientes do processo C, respectivamente, têm deficiência. 1 Qual a percentagem de embalagens, produzidas naquela
empresa, que apresentam deficiências?
2 Verifica-se que uma embalagem escolhida ao acaso apresenta deficiências. Qual a probabilidade de ter sido fabricada e embalada pelo processo A?
Teorema da probabilidade total
A resolução daPergunta 1.baseia-se no seguinte teorema
Teorema da probabilidade total
Sejam A1,A2, ...,Anacontecimentos definindo uma partição sobre Ω,
i.e.,
A1∪ A2∪ .... ∪ An= Ω e Ai∩ Aj = ∅, ∀i, j, i 6= j.
Se P(Ai) >0 , então para qualquer acontecimento B ⊂ Ω tem-se
P(B) =
n
X
i=1
Teorema de Bayes
Relativamente àPergunta 2.do exercício anterior, pretendemos
actualizar a probabilidade de um acontecimentoa priori, à custa da informaçãoa posteriori.
O seguinte teorema formaliza a resposta à questão:
Teorema de Bayes
Sejam A1,A2, ...,An acontecimentos formando uma partição de Ω , onde P(Ai) > 0. Seja B um outro acontecimento de Ω, tal que P(B) > 0. Então para k = 1, ..., n tem-se
P(Ak|B) =
P(Ak).P(B|Ak)
Pn
Variável aleatória
Muitas vezes o resultado de uma experiência aleatória não é numérico ou sendo-o não interessa lidar com os resultados possíveis de Ω, mas pretende-se associar-lhe uma quantidade numérica.
Exemplo - lançamento de dois dados e soma dos pontos das faces.
É então mais cómodo associar a cada acontecimento um número, definido de acordo com o objectivo do estudo.
Variável aleatória
Definição
Chama-sevariável aleatória (v.a.) e costuma representar-se porX, a
uma função com domínio Ω e contradomínio emIR, cujo valor é
deter-minado pelo resultado de uma experiência aleatória, i.e,
X : Ω →IR
Tipos de variáveis aleatórias
Variáveis aleatórias discretasse assumem um conjunto finito ou infi-nito numerável de valores.
Exemplos:
– número de pintas que sai no lançamento de um dado;
– registo, a intervalos regulares, do número de pessoas em fila espera na caixa de um supermercado;
Variáveis aleatórias contínuassão as susceptíveis de tomar qualquer valor real num dado intervalo, que pode ser a recta real
(definição mais rigorosa será dada à frente)
Exemplos:
– o peso de um indivíduo;
Variáveis aleatórias
Mas ... aos valores de uma variável aleatória X pretendemos associar uma probabilidade PX ou, mais simplesmente, P
Isto consegue-se muito facilmente definindo uma função real de variável real do seguinte modo:
Definição
Chama-sefunção de distribuição cumulativa ou apenasfunção de distribuiçãoassociada à variável aleatória X e representa-se porF ou
FX, à aplicação
Propriedades da função de distribuição
1. 0 ≤ F (x ) ≤ 1
2. F (−∞) = limx →−∞F (x ) = 0 F (+∞) = limx →+∞F (x ) = 1.
3. F é uma função monótona não decrescente, i.e., dados dois números reais x1e x2tais que x1<x2, tem-se F (x1) ≤F (x2)
4. F (x ) é contínua à direita, i.e., limx →x+
0F (x ) = F (x0). 5. P(X = a) = F (a) − F (a−)onde
Função de distribuição e Probabilidade
O conhecimento da função de distribuição F (.) é equivalente ao conhecimento da lei de probabilidade PX =P.
ComoF (x) = P[X ≤ x]−→conhecer P ⇒ conhecer F (x ).
Reciprocamente ... conhecer F (x ), permite calcular a probabilidade
dos vários tipos de intervalos.
P(X < x )=P(X ≤ x ) − P(X = x ) =F (x−); P(X ≥ x )=1 − P(X < x ) =1 − F (x−); P(X > x )=1 − P(X ≤ x ) =1 − F (x ); P(a < X ≤ b)=P(X ≤ b) − P(X ≤ a) =F (b) − F (a); P(a < X < b)=P(X < b) − P(X ≤ a) =F (b−) −F (a); P(a ≤ X ≤ b)=P(X ≤ b) − P(X < a) =F (b) − F (a−); P(a ≤ X < b)=P(X < b) − P(X < a) =F (b− ) −F (a− ).
Variáveis aleatórias
Vamos agora ver como calcular a função de distribuição cumulativa e consequentemente a probabilidade para cada um dos tipos de variáveis aleatórias caracterizados atrás:
variáveis aleatórias discretase
variáveis aleatórias contínuas
Relembre-se que:
Uma variável aleatória diz-se discreta se toma um número finito ou uma infinidade numerável de valores.
Variáveis aleatórias discretas
Seja X uma v.a. tomandon valores,x1, ...,xn, cada um deles com probabilidadesp1, ...,pn, respectivamente, i.e.,
pi =P[X = xi],( i = 1, · · · , n).
Definição
Chama-sefunção massa de probabilidadeda v.a. X àaplicaçãoque a cada valorxi −→pi, tal que
pi =P[X = xi] Afunção massa de probabilidade satisfaz:
pi ≥ 0 , i = 1, ..., n Pni=1pi =1.
Nota: Se a v.a. tomar uma infinidade numerável de valores tem-se pi ≥ 0 , ∀i ≥ 1 P∞i=1pi =1.
Variáveis aleatórias discretas
Chama-sedistribuição de probabilidadeda v.a. X ao conjunto de pares(xi,pi)i=1,··· ,n.
Habitualmente alei (distribuição) de probabilidadeda v.a. X dispõe-se na forma:
X =
x1 x2 ... xn p1 p2 ... pn
A distribuição de probabilidade da v.a. discreta permite calcular facilmente afunção de distribuição cumulativa FX
FX(x) = P[X ≤ x] =
X
xi≤x
P[X = xi],
ou seja temos a probabilidade cumulativa associada à variável X calculada em qualquer x ∈IR.
Variáveis aleatórias contínuas
Definição
Uma variável aleatória diz-se contínua se existe uma função real de variável real,f, não negativa, tal que
F (x) = P[X ≤ x] = Z x −∞ f (t) dt − ∞ < x < ∞ Nota: Z b a
Variáveis aleatórias contínuas
Definição
A funçãof diz-sefunção densidade de probabilidadeou apenas fun-ção densidade. Deve verificar as seguintes condições:
f (x) ≥ 0 ∀x ∈IR;
Z +∞
−∞
Exercício 3
O número de esquentadores vendidos diariamente num estabelecimento é uma variável aleatória, X , com a seguinte distribuição de probabilidade
X =
0 1 2 3 4
0.3 0.3 0.2 0.1 0.1
a) Determine a função de distribuição cumulativa de X ; represente-a graficamente.
Exercício 4
Seja X a v.a. que designa o tempo de vida (em anos) de um dado equipamento, cuja função densidade é
f (x ) =
0.2 e−0.2x x > 0
0 x ≤ 0
a) Mostre que f é de facto uma função densidade.
b) Determine a função de distribuição cumulativa de X ; represente-a graficamente.
c) Qual a probabilidade de esse equipamento durar entre 1 e 3 anos?
Variáveis aleatórias
Recordemos que:
– No caso de umavariável aleatória discretaafunção de distribuição cumulativaé umafunção em escada, onde os pontos de salto são os valores onde a v.a. está definida.
– No caso de umavariável aleatória contínuaafunção de distribuição cumulativaé umafunção contínua.
Além de termos interesse em calcular probabilidades associadas a uma variável aleatória,
vamos agora calcular “indicadores” que a caracterizam – são valores reais habitualmente designados porparâmetros.
Valor Médio
DefiniçãoDada uma v.a. X chama-se valor médio, esperança matemática, valor esperadooumédiae representa-se por E[X ], µX ou
simplesmenteµa
E[X ] =
n
X
i=1
xi pi X é v.a. discreta com distribuição(xi,pi)
E[X ] =
Z +∞
−∞
x f (x) dx X é v.a. contínua com f.d.p.f (x )
Observação: Se X for v.a. discreta com uma infinidade numerável de valores tem-se E [X ] =P∞
i=1xi pi. Neste caso só existe valor médio se “aquela soma infinita existir”.
Analogamente, no caso contínuo, só existe valor médio,
Valor Médio
Se X é uma v.a. e Y = ϕ(X ) é uma função real de variável real, define-sevalor médio de ϕ(X )como
E[ϕ(X )] =X
i
ϕ(xi)pi X é v.a. discreta com distribuição(xi,pi)
E[ϕ(X )] =
Z +∞
−∞
ϕ(x)f (x) dx X é v.a. contínua com f.d.p.f (x )
Mais uma vez, para que exista valor médio exige-se que exista aquela “soma infinita” (no caso de se tratar de uma v.a. discreta com uma infinidade de valores) ou a convergência absoluta do integral.
Propriedades do Valor Médio
1. Linearidade E [a] = a. E [a + bX ] = a + b E [X ]. E [ϕ(X ) + ψ(X )] = E [ϕ(X )] + E [ψ(X )] 2. PositividadeSe X ≥ 0, i.e. a variável toma apenas valores ≥ 0, tem-se E [X ] ≥ 0.
Variância e Desvio Padrão
Definição:
Chama-se variância de uma variável aleatória X e representa-se por
Var [X ], σ2X ou apenasσ2a
σX2 =Eh(X − µ)2i
σX = pVar[X ]chama-sedesvio padrão.
Exercício 5:
Variância e Desvio Padrão
Propriedades da variância e do desvio padrão
1. Var [X ] ≥ 0
2. Var [a + b X ] = b2Var [X ].
Voltemos ao Exercício 3
O número de esquentadores vendidos diariamente num estabelecimento é uma variável aleatória, X , com a seguinte distribuição de probabilidade
X =
0 1 2 3 4
0.3 0.3 0.2 0.1 0.1
a) Qual o valor esperado do número de esquentadores vendidos por dia?
b) Se cada esquentador é vendido por 150 Euros qual é a distribuição de probabilidade da receita bruta da venda de esquentadores por dia.
c) Calcule a receita bruta esperada da venda de esquentadores por dia.
Exercício 6
Considere X a v.a. que designa a duração (em minutos) de cada chamada telefónica efectuada num certo local, cuja função densidade é
f (x ) =
x e−x x > 0
0 x ≤ 0
a) Calcule a duração média de uma chamada telefónica.
b) Calcule a variância de X .
c) Se o preço de cada minuto de conversação for 60 cêntimos, qual é, em média, o preço de cada chamada telefónica.
Quantis e Mediana de uma variável aleatória
Definição
Dada uma v.a. X chama-sequantil de probabilidade pe representa-se porχp o menor valor da variável aleatória X tal queFX(χp) ≥p.
Se p = 0.5, chama-se mediana de X , representa-se porχ0.5, e é o
menor valor da variável tal queFX(χ0.5) ≥0.5.
Notas:
Se X é v.a. contínua o quantil de probabilidade p é o valor χptal queFX(χp) = p.
Então se X é uma v.a. contínua a mediana χ0.5, é a solução de FX(x) = 0.5 ⇐⇒
Rχ0.5
Vectores aleatórios
Muitas vezes pretendemos associar a cada resultado de uma
experiência aleatória k ≥ 2 atributos numéricos. Obtemos então um vector (x1, · · · ,xk), realização dovector aleatório(X1, · · · ,Xk).
Iremos referir-nos apenas ao casok = 2.
ExemplosPretendemos registar:
a quantidade de precipitado P e o volume V de gás numa experiência química
para uma árvore seleccionada ao acaso, a altura e o diâmetro do tronco à altura do peito . . .
Pares aleatórios
Definição
Chama-separ aleatório (X , Y )à aplicação
(X , Y ) : Ω →IR2 ω → (x , y )
Tipos de pares aleatóriosque vamos estudar:
Par aleatóriodiscreto⇒ componentes são ambas variáveis aleatórias discretas;
Par aleatóriocontínuo⇒ componentes são ambas variáveis aleatórias contínuas.
Pares aleatórios discretos
(X , Y ) diz-se um par aleatóriodiscretose toma os valores(xi,yj)com probabilidadespij =P[X = xi,Y = yj].
Definição
Chama-se distribuição de probabilidades conjunta do par (X , Y ) aos valores (xi,yj)e respectivas probabilidadespij
pij é chamadafunção massa de probabilidade conjuntae deve
ve-rificar as seguintes condições:
pij ≥ 0 ∀i, j e X i X j pij =1.
Pares aleatórios discretos
Um modo cómodo de representar adistribuição de probabilidades conjuntasde um par aleatório discreto (X , Y ) é na forma de um quadro Y y1 y2 ... yn X x1 p11 p12 ... p1n p1• x2 p21 p22 ... p2n p2• . . . ... . . . . . ... . . . . . ... . . xm pm1 pm2 ... pmn pm• p•1 p•2 ... p•n 1
pi• =Pnj=1pij e p•j =Pmi=1pij chamam-se
Pares aleatórios discretos
Definição
Aprobabilidade condicionalde X dado Y =yj(fixo) com P[Y = yj] > 0 é definida como P(X = xi|Y =yj) = P(X = xi,Y =yj) P(Y =yj) = pij p•j , Definição
Do mesmo modo aprobabilidade condicionalde Y dado X =xi (fixo) com P[X = xi] >0 e xi é definida como
P(Y = yj|X =xi) = P(X =xi,Y = yj) P(X =xi) = pij pi• .
Pares aleatórios contínuos
DefiniçãoUm par aleatório (X , Y ) diz-secontínuose existir uma funçãof (x, y ), chamada função densidade (de probabilidade) conjunta, que veri-fica as seguintes condições:
f (x , y ) ≥ 0 Z ∞ −∞ Z ∞ −∞ f (x , y )dxdy = 1. DadoA ⊂IR2tem-se P[(X , Y ) ∈ A] = Z Z A f (x , y )dxdy . Definição
Adensidade marginal de X é definida como fX(x ) = R+∞
−∞ f (x , y )dy e adensidade marginal de Y como fY(y ) =
R+∞
Pares aleatórios contínuos
Definição
Define-sedensidade condicionalde X dado Y =y,fixo, como
fX |Y =y(x ) =
f (x ,y) fY(y)
, fY(y) >0
Definição
Define-sedensidade condicionalde Y dado X =x,fixo, como
fY |X =x(y ) = f (x,y ) fX(x)
Independência de variáveis aleatórias
Definição
Dado o par aleatório (X , Y ) diz-se que as variáveis X e Y são inde-pendentesse e só se
pij =pi•p•j ∀i, j, no caso de (X , Y ) ser umpar aleatório
discreto
f (x , y ) = fX(x ) fY(y ) ∀(x, y ) ∈IR2 no caso de (X , Y ) ser um
Valor Médio
Definição
Dado o par aleatório (X , Y ), e g :IR2→IR, define-se
E[g(X , Y )] =X i X j g(xi,yj)pij , no caso discreto E[g(X , Y )] = Z Z R2
Propriedades do Valor Médio
1. Aditividade E [X ± Y ] = E [X ] ± E [Y ]
2. Desigualdade de Schwarz Se E [X2]e E [Y2]existem então E2[XY ] ≤ E [X2]E [Y2].Corolário: E2[X ] ≤ E [X2]
Nota: se E [X2]existe =⇒ existe E [X ].
3. SeX e Y variáveis aleatórias independentes
⇓
Valor Médio - propriedades
Nota:
O recíproco da propriedade 3. não é verdadeiro:
Verifique que se X e Y são v. a.’s com a seguinte distribuição de probabilidades
X Y -1 0 1
0 0 1/3 0
1 1/3 0 1/3
tem-seE [XY ] = E [X ]E [Y ] e no entantoX e Y não são
A covariância
Definição:
Dado o par aleatório (X , Y ) chama-secovariância de X e Y a
Cov [X , Y ] ≡ σXY =E[(X − µX)(Y − µY)]
Exercício:
A covariância - propriedades
Propriedades
1. Sejam X e Y variáveis aleatórias.
Var [X ± Y ] = Var [X ] + Var [Y ] ± 2Cov [X , Y ]
2. Se X e Y são variáveis aleatóriasindependentes
Var [X ± Y ] = Var [X ] + Var [Y ]
3. Se X e Y são v. a.’s independentes =⇒ Cov [X , Y ] = 0. Nota:O recíproco não é verdadeiro.
4. Cov [a + bX , c + dY ] = bd Cov [X , Y ].
O coeficiente de correlação; propriedades
Definição:
Chama-secoeficiente de correlaçãode X e Y e representa-se porρ
ouρX ,Y a
ρ ≡ ρX ,Y =
Cov [X , Y ]
σX σY
(σX >0 e σY >0).
Propriedades do coeficiente de correlação
1. −1 ≤ ρX ,Y ≤ 1 2. Se X e Y são v. a. independentes =⇒ ρX ,Y =0. 3. ρa+bX ,c+dY = ρX ,Y se bd > 0 −ρX ,Y se bd < 0
Momentos e função geradora de momentos
O cálculo do valor médio e da variância de uma v.a. X e ainda propriedades de pares aleatórios (ou genericamente vectores aleatórios) podem ser abordados de forma uniformizadora usando uma função adequada (quando ela está definida).
Considere-se uma função associada à v.a. X que vamos representar por
MX :IR −→ IR tal que MX(t) = EetX
Momentos e função geradora de momentos
Exercício:
Para as variáveis a seguir indicadas calculeMX(t), com t ∈IR: X , variável aleatória discreta, associada ao lançamento de uma moeda equilibrada.
X , variável aleatória contínua, com função densidade f (x ) =
e−x x ≥ 0
Função geradora de momentos
Tem-se o seguinte resultado: dMX dt |t=0=E [X ] e d2MX dt2 |t=0=E [X 2] Nota:
Esta função, a que se chama função geradora de momentos, pode ser então usada para determinar E [X ] e Var [X ], calculando a primeira e segunda derivadas em t = 0 (se existirem).
Para as variáveis aleatórias indicadas noexercíciodo slide anterior, calcule E [X ] e Var [X ], com recurso a MX.
Função geradora de momentos
Propriedades da função geradora de momentos de uma v.a. X
1. Ma+b X(t) = eat MX(bt).
2. Teorema da unicidade
Se para duas v.a. X e Y se verifica MX(t) = MY(t) então X e Y têm a mesma função de distribuição.
Reciprocamente, se existir a função geradora de momentos, ela é única.
3. SeXe Y são variáveis aleatórias independentes
MX +Y(t) = MX(t) × MY(t)
Nota:Mais adiante esta propriedade será de grande utilidade.
Principais Modelos (Distribuições) Discretos
Distribuição uniforme discreta Distribuição de Bernoulli e binomial Distribuição geométrica
Distribuição hipergeométrica Distribuição de Poisson
A distribuição uniforme discreta
Definição
Uma v.a. X diz-se terdistribuição uniforme discretase P(X = xi) =1/k , i = 1, ..., k , i.e., se toma os valores
x1, x2, ... ,xk
com probabilidades 1/k , 1/k , ..., 1/k
Valor médio, variância e função geradora de momentos E [X ] = 1kPk
A distribuição uniforme discreta
Caso particular Se X = 1 2 · · · n 1/n 1/n · · · 1/n E [X ] = n+12 ; Var [X ] = n212−1 e MX(t) = e t(1−ent) n(1−et) , t 6= 0A distribuição de Bernoulli
Experiência =
realizaçãode um acontecimento sucesso
não realizaçãodo acontecimento insucesso
Exemplos:
o teste de uma dada droga num rato e o registo da reacção positiva ou negativa;
a inspecção dos items numa linha de fabrico para observar se cada um é defeituoso ou não;
A distribuição de Bernoulli
Cada uma das repetições sucessivas da experiência –prova.
Definição:
Chama-se variável aleatória de Bernoullià variávelX, associada ao resultado de cada prova de Bernoulli e considera-se
X = 1, com probabilidadep,se há sucesso;
A distribuição Binomial
Considere-seuma sucessão deprovas de Bernoulli independentessatisfazendo:
cada prova tem apenas um de dois resultados possíveis:
sucessoouinsucesso.
em cada prova a probabilidade de sucesso, p, permanece constante, sendo q = 1 − p, a probabilidade de insucesso. o resultado de cada prova é independente do resultado das restantes.
Definição:
A v.a. X que conta o número de sucessos em n provas nas condi-ções acima chama-se variável aleatória binomial, diz-se ter distri-buição binomial e representa-se por X _ B(n, p).
A distribuição binomial– exemplo
Numa experiência colocam-se 5 bolbos de junquilho a germinar, de um pacote com uma garantia de germinação de 40% dos bolbos. Qual a probabilidade de, desses 5 bolbos, 3 germinarem?
Como a germinação é independente de bolbo para bolbo, a probabili-dade degerminarem 3 bolbosde entre os 5 é então
5 3 (0.4)
3
(0.6)2
Então sendoX a v.a. que conta o número de sucessos em n provas de Bernoulli independentes, X _ B(n, p), temos a
Caracterização da v.a. X _ B(n, p): x = 0, 1, 2, ..., n −→ no
¯ de “sucessos” nasn provas
P[X = x] = nx px (1 − p)n−x −→ probabilidade de se observaremx “sucessos”
A distribuição binomial–exercício
Para n = 8 e vários valores de p, veja a função massa de probabilidade. 0 2 4 6 8 0.0 0.1 0.2 0.3 0.4 x~B(8,0.1) x prob 0 2 4 6 8 0.00 0.10 0.20 x~B(8,0.4) x prob 0 2 4 6 8 0.00 0.10 0.20 0.30 x~B(8,0.7) x prob
Sugestão: Consulte as folhas de Introdução ao software e use os comandos (por exemplo, para obter o primeiro gráfico):
>x < − 0:8
>plot(x,dbinom(x,size=8,prob=0.1),type="h", col = "red", lwd=4,xlab="x",main="X ∼ B(8, 0.1)",ylab="prob")
A distribuição binomial
Valor médio, variância e função geradora de momentos X _ B(n, p)
E[X ] = np; Var [X ] = npq; MX(t) = p et +q
n
Relação entre a distribuição do número de sucessos e de insucessos
X _ B(n, p) ⇒ (n − X ) _ B(n, 1 − p).
Para valores de n ≤ 20(25), existem tabelas para o cálculo das probabilidades.
As tabelas que temos à disposição apresentam os valores da função de distribuição cumulativa.
A distribuição geométrica
Considere-se de novo que temosprovas de Bernoulli independentes, mas agora . . .
o número de provas não é fixo pois ... pretendemos ir realizando provas até ocorrer pelaprimeira vez o “sucesso”.
Seja entãoX onúmero de provas necessárias até que ocorrapela primeira vez o “sucesso”. Diz-se que X tem distribuição geomé-tricae costuma representar-se porX _ G(p).
Caracterização da v.a. X _ G(p)
A distribuição geométrica
Valor médio, variância e função geradora de momentos
MX(t) = p e
t
1−qet (qet <1); E[X ] = 1/p; Var [X ] = q/p2
Teorema - Propriedade da falta de memória da distribuição geométrica
Se X _ G(p) então sendo m e n inteiros positivos P[X > m + n|X > m] = P[X > n]
A distribuição geométrica
Nota:
Interpretando a distribuição geométrica como o número de provas que
se vão realizando até se observar um “sucesso”:
Se tiverem decorrido mais de m provas sem que se tenha verificado um "sucesso", a probabilidade de se ter de esperar mais de n provas para se observar um "sucesso" é a mesma caso se estivesse no início da experiência.
A distribuição hipergeométrica
Mas ... há experiências nas quais a probabilidade de sucesso não se
mantém constante, não sendo as provas independentes. Exemplo
Num lote de 20 pneus enviados a um fornecedor sabe-se que há 6 defeituosos. Um cliente vai a esse fornecedor comprar 5 pneus. Qual a probabilidade de levar 2 defeituosos?
- O total de modos de seleccionar 5 pneus quaisquer do lote é 205 - Há 62 modos de seleccionar 2 defeituosos e, para cada um destes há 143 modos de escolher 3 bons, para completar os 5.
Portanto ... a probabilidade de, dos 5 pneus escolhidos ao acaso, 2
serem defeituosos (e portanto 3 bons) é: 6 2 14 3 20 5
A distribuição hipergeométrica
Definição
Diz-se que temos umaexperiência hipergeométrica se dada uma população de dimensão
N com
K “sucessos”
N − K “insucessos” → extraímos, sem reposição n
Definição
A v.a. X que conta o número de sucessos numa experiência hiper-geométrica é uma v.a. hipergeométrica de parâmetros N, n e K e costuma representar-se por X _ H(N, n, K )
A distribuição hipergeométrica
Qual a probabilidade de dos K seleccionar x dos N − K seleccionar n − x ? Seja X _ H(N, n, K ) P[X = x] = K x N−K n−x N n , max (0, n − N + K ) ≤ x ≤ min(n, K )Valor médio e variância de X _ H(N, n, K )
A distribuição hipergeométrica
Observação: Quando N >> n, a probabilidade de sucesso em cada tiragem sem reposição varia muito pouco de prova para prova , então . . .
−→ pode considerar-se a distribuição binomial como uma aproximação da distribuição hipergeométrica com p = K /N, i.e.,
Resultado:
Se N bastante maior que n tem-se
H(N, n, K ) ≈ B(n, p), com p = K /N.
Comoregra prática, pode considerar-seboa a aproximaçãopara
A distribuição de Poisson
Considere que pretende contar, por exemplo, o número de:
chamadas telefónicas recebidas numa central telefónica num certo intervalo de tempo;
chegadas de clientes a uma bilheteira durante um certo período; chegadas de sinistrados a um banco de um hospital durante um certo período;
dias que uma dada escola fecha durante o inverno; erros de tipografia por página;
Se a contagem do número de “sucessos” que ocorrem num dado intervalo de tempo ou num domínio específico, satisfaz as seguintes condições:
A distribuição de Poisson
o número de “sucessos´´ que ocorrem num dado intervalo de tempo ou domínio é independente do número que ocorre em qualquer outro intervalo ou domínio disjunto do anterior;
a probabilidade que o “sucesso´´ se verifique uma vez em qualquer intervalo muito curto ( ou região muito pequena ), de amplitude δ, é proporcional a δ , i.e, é igual a λδ e não depende do número de sucessos que ocorrem fora desse intervalo ou região;
a probabilidade de que o “sucesso´´ se verifique mais do que uma vez num intervalo ou domínio de amplitude muito pequena é ≈ 0.
diz-se que estamos peranteexperiências de Poissonouum processo de Poisson
A distribuição de Poisson
Definição
A v.a X que conta o número de sucessos numa experiência de Poisson diz-se ter distribuição de Poisson e depende apenas do parâmetro
λ −→número médio de sucessosque ocorrem no intervalo de tempo ( ou na região especificada).
Representa-se por X _ P(λ) e a lei de probabilidade é:
P[X = x] = e −λλx
x! , x = 0, 1, 2...., λ >0.
Nota:Facilmente se verifica que P[X = x ] ≥ 0 ∀x = 0, 1, 2..., mas para mostrar queP∞
x =0e
−λλx
x ! =1, são necessários conhecimentos sobre séries
A distribuição de Poisson
Valor médio, variância e função geradora de momentos
MX(t) = eλ(e
t−1)
E[X ] = λ Var [X ] = λ.
Teorema da estabilidade da soma
Se as v.a. Xi i = 1, ..., k são independentes e Xi _ P(λi)então k X i=1 Xi _ P k X i=1 λi ! .
Existem tabelas da Poisson para consulta → função de distribuição cumulativa.
A distribuição de Poisson
A distribuição de Poisson surge ainda como o limite da distribuição binomial quando n → ∞ e p → 0.
Teorema
Quando n → ∞ e p → 0, mantendo-se constante o produto np tem-se X _ B(n, p) ⇒ X ∼ P(λ) com λ = np.
Regra práticaEm geral, a distribuição de Poisson fornece umaboa aproximação da distribuição binomial quando n ≥ 20 e p ≤ 0.05
Principais Distribuições Contínuas
Distribuição uniforme contínua Distribuição de Gauss ou normal Distribuição exponencial
A distribuição uniforme contínua
Definição
Uma v.a. contínua diz-se ter distribuição uniforme ou rectangular
no intervalo (a, b) e representa-se por X _ U (a, b)se a função den-sidade de probabilidade (f.d.p.) é da forma:
f (x ) =
1/(b − a) a < x < b
0 x ≤ a ou x ≥ b.
Valor médio, variância e função geradora de momentos
E[X ] = a+b2 ; Var [X ] = (b−a)12 2 e MX(t) = e
tb−eta
A distribuição uniforme contínua
Caso particular:
Considere a distribuição U (0, 1)
Exercício:
Escreva a função densidade, a função distribuição cumulativa, valor médio, variância e função geradora de momentos.
A distribuição normal ou de Gauss
Surge século XVIII → ligada ao estudo dos erros de medições repetidas de uma mesma quantidade.
Papel fulcral nas Probabilidades e Estatística, porque:
muitas variáveis biométricas têm uma distribuição muito próxima da normal;
por vezes uma variável que não é normal pode ser transformada de um modo simples numa outra com distribuição normal;
a parte central de muitos modelos não normais é por vezes razoavelmente bem aproximada por uma distribuição normal.
A distribuição normal ou de Gauss
DefiniçãoUma v.a. contínua X diz-se terdistribuição normaloude Gausscom parâmetrosµeσ e representa-se porX _ N (µ, σ)se a sua f.d.p. é da forma: f (x ) = √1 2π σexp " −1 2 x − µ σ 2# −∞ < x < +∞, −∞ < µ < +∞, 0 < σ < +∞ −5 0 5 0.0 0.2 0.4 f. densidade da N(0,1) x −5 0 5 0.0 0.2 0.4 f. densidade da N(0,2) x −5 0 5 0.0 0.2 0.4 f. densidade da N(2,2) x
A distribuição normal ou de Gauss
Propriedades da curva densidade da variável com distribuição normal
1. É simétrica relativamente a µ.
2. É uma curva unimodal, a moda é µ.
3. Tem pontos de inflexão em µ + σ e µ − σ.
Valor médio, variância e função geradora de momentos
E[X ] = µ; Var [X ] = σ2 e MX(t) = e
µt + σ
2t2
A distribuição normal reduzida
Definição
Seµ =0eσ =1a variável aleatória com distribuiçãoN (0, 1) chama-senormal reduzida.
Notações para a normal reduzida
Z _ N (0, 1); ϕ(z) = √1 2π e −1 2z 2 e Φ(z) = P[Z ≤ z]
Propriedade – consequência da simetria Φ(−z) = 1 − Φ(z)
Tabelas −→ dão o valor da função de distribuição cumulativa da normal reduzida.
A distribuição normal ou de Gauss
Alguns teoremas de grande importância no estudo da normal. Teorema
Seja X _ N (µ, σ) a v.a. Y = a + bX é também normal e tem-se Y _ N (a + bµ, |b|σ).
Corolário - muito importante
Seja X _ N (µ, σ), então a v.a. Z = X − µ
σ tem distribuição normal reduzida, i.e.,Z = X − µ
Exercício
Uma vacaria tem uma produção diária de leite que se admite seguir uma lei normal com µ = 950 l e σ = 50 l
a) Qual a probabilidade de se ter uma produção inferior a 1000 litros?
b) Qual a percentagem de dias em que a produção ultrapassa a produção média em mais de 100 litros?
c) Se na região existe outra vacaria, com uma produção diária que se admite normal com µ = 900 l e σ = 40 l, funcionando
independentemente da primeira, qual a probabilidade de num dado dia a produção total das duas vacarias ser superior a 1800 litros?
A distribuição normal ou de Gauss
Para respondermos à alínea c) necessitamos do seguinteTeorema
Teorema
Sejam X1, ...,Xn, v.a. normais independentes, tais que X1 _ N (µ1, σ1), X2_ N (µ2, σ2), · · · , Xn_ N (µn, σn).
A v.a. X = X1+X2+ ... +Xn tem distribuição normal de parâmetros (µ, σ), com
µ = µ1+ µ2+ ... + µn e σ =
q
σ21+ σ22+ ... + σ2 n
A distribuição normal ou de Gauss
Generalização do teorema anteriorMostre que, sendo X1, ...,Xn v.a. nas condições do teorema, a1 X1+
a2X2+ ... +anXn tem distribuição normal de parâmetros (µ, σ), com
µ =a1µ1+a2µ2+ ... +anµn e σ =
q
a21σ21+a22σ22+ ... +a2nσn2.
Corolário
Sejam Xi n v.a. normais independentes e semelhantes, i.e., tendo to-das o mesmo valor médio µ e a mesma variância σ2.
As variáveis aleatóriassomaemédia, definidas respectivamente como
Sn =Pni=1Xi e Xn = 1nPni=1Xi têm distribuição normal assim definida
Sn _ N (nµ, σ
√
n) e Xn _ N (µ, σ/
√
O Teorema Limite Central
Provámos que a soma de NORMAIS independentes é ainda uma normal. Mas temos mais ...
adistribuição aproximada da SOMA de n variáveis aleatórias com
QUALQUER lei, mas independentes, identicamente distribuídas e
verificando certas condições é tambémnormal.
Teorema limite central
Sejam X1, ...,Xn variáveis aleatórias independentes e identicamente distribuídas, com valor médio µ e variância σ2(finita).
A v.a.Sn =Pni=1Xi verifica quandon é “grande”:
Sn − nµ
Aplicações do Teorema Limite Central
Note que também se tem Xn− µ
σ/√n ∼ N (0, 1).
Teorema de De Moivre
Seja X uma v.a. comdistribuição binomial com valor médioµ = np e variânciaσ2=npq. Então quando n → ∞ ,
X − np √
Aplicações do Teorema Limite Central
Recorde-se quese, na distribuição binomial, n grande e p ≈ 0(ou 1) uma boa aproximação é dada pela distribuição de Poisson.
E agora para valores de p ≈ 1/2 o teorema limite central oferece muito boa aproximação para a normal.
Aplicações do Teorema Limite Central - Exercício
Utilizando o , obtenha os seguintes gráficos da função massa de probabilidade de X _ B(8, 0.2), X _ B(8, 0.5) e X _ B(25, 0.2). 0 2 4 6 8 0.00 0.10 0.20 0.30 x1 dbinom(x1, 8, 0.2) 0 2 4 6 8 0.00 0.05 0.10 0.15 0.20 0.25 x1 dbinom(x1, 8, 0.5) 0 5 10 15 20 25 0.00 0.05 0.10 0.15 0.20 x2 dbinom(x2, 25, 0.2) O que observa? Regra práticaSe nadistribuição binomial np > 5enq > 5 =⇒aaproximação pela distribuição normal é boa.
Aplicações do Teorema Limite Central
TeoremaSeja X _ P(λ). Quando λ → ∞ então X − λ√
λ ∼ N (0, 1).
Regra prática:
A aproximação é considerada boa paraλ ≥20.
Observação: Quando considerámos a aproximação da distribuição binomial pela Poisson, ambas eram distribuições discretas.
Os dois teoremas acabados de enunciar dão-nos uma aproximação de uma v.a. discreta por uma v.a. contínua.
Neste caso é necessário fazer-se o que se designa porcorrecção de continuidadeque consiste em considerar todo ointeiro k
A distribuição exponencial
Uma variável aleatória diz-se ter distribuição exponencial de parâ-metroβe representa-se porX _ Exp(β)se a função densidade é
f (x ) = ( 1
βe−x/β x > 0, β > 0
0 x ≤ 0
Valor médio, variância e função geradora de momentos
A distribuição exponencial: observações
Relação entre a distribuição exponencial e a distribuição de Poisson:
Considere-se contagens de sucessos em intervalos de tempo. O tempo ao fim do qual se verifica o primeiro sucesso é uma variável aleatória contínua.
Teorema
Se X , número de sucessos num intervalo de tempo, é tal que X _ P(λ) então W a v.a. que designa o tempo de espera pelo primeiro sucesso (ou o tempo entre a ocorrência de dois sucessos consecutivos) satisfaz
A distribuição exponencial: observações
Exercício:
Verifique que a distribuição exponencial goza da propriedade dafalta de memória.
Aplicações: