• Nenhum resultado encontrado

Capítulo II-Teoria da Probabilidade

N/A
N/A
Protected

Academic year: 2021

Share "Capítulo II-Teoria da Probabilidade"

Copied!
98
0
0

Texto

(1)

Capítulo II-Teoria da Probabilidade

Os assuntos expostos nos slides 58 a 75 serão estudados apenas na aulas práticas, visto serem assuntos de revisão.

Noções Preliminares Definição

Fenómenos aleatóriossão fenómenos sujeitos à influência do acaso e, como tal, fora do alcance do observador.

Fenómenos aleatórios são caracterizados pela sua:

(2)

Experiência aleatória

Definição

Experiência aleatóriaé todo o procedimento que verifica as seguintes propriedades:

– pode repetir-se um grande número de vezes nas mesmas condições ou pelo menos em condições semelhantes;

– a sua realização dá um resultado de entre um conjunto de resultados possíveis;

– cada um dos resultados da experiência é imprevisível mas é possível considerar “estabilidade na frequência da sua ocorrência”.

(3)

Exemplos de experiências aleatórias

1 lançamento de dois dados e registo do número de pontos que sai; 2 lançamento de uma moeda e observação da face que fica voltada

para cima;

3 contagem do número mensal de acidentes de automóvel numa autoestrada;

4 registo do tempo de vida de uma pessoa, em anos;

5 registo do tempo de trabalho de uma máquina até à primeira avaria.

(4)

Espaço de Resultados. Acontecimento

Definição

Espaço de resultados ou espaço amostra é o conjunto de todos os resultados possíveis associados a uma experiência aleatória – representa-se porΩ.

Para os exemplos anteriores tem-se

1 Ω = {(1, 1), (1, 2), (1, 3), ..., (6, 5), (6, 6)};

2 Ω = {‘face valor’, ‘face país’} = {‘FV’,‘FP’} = {1, 0}; 3 Ω =IN

0; 4 Ω =IN; 5 Ω =IR+. Definição

Acontecimento aleatórioé qualquer subconjunto do espaço de resul-tados.

(5)

Álgebra dos acontecimentos

SejaΩo espaço de resultados associado a uma experiência aleatória.

Diz-se queA ⊂ Ω se realizouse o resultado, ω, da experiência é um elemento de A, i.e., ω ∈ A.

A ⊂ B, diz-se Asubacontecimentode B, se e só se a realização de A implica a realização de B;

AcouAdiz-seacontecimento complementaroucontrárioa A, é o conjunto de todos os elementos de Ω que não estão em A;

A ∪ B, diz-seuniãode A com B, é o acontecimento que consiste na realização de pelo menos um dos acontecimentos.

(6)

Álgebra dos acontecimentos (cont.)

ABouA ∩ B, diz-seproduto ouintersecção, é o acontecimento que se realiza apenas quando ambos os acontecimentos se realizam.

Os acontecimentos A e B dizem-semutuamente exclusivosou

incompatíveisse e só se a realização de um implica a não realização do outro, i.e.,se e só seAB = ∅.

A − B = A ∩ B diz-sediferençados acontecimentos A e B é o acontecimento que se realiza se e só se A se realiza sem que B se realize.

∅diz-seacontecimento impossível.

(7)

Álgebra dos acontecimentos

Vamos recordar algumaspropriedadesdas operações sobre acontecimentos (procure mais algumas...):

Propriedade Interpretação Associatividade (A ∩ B) ∩ C = A ∩ (B ∩ C) (A ∪ B) ∪ C = A ∪ (B ∪ C) Comutatividade A ∩ B = B ∩ A A ∪ B = B ∪ A Distributividade (A ∩ B) ∪ C = (A ∪ C) ∩ (B ∪ C) (A ∪ B) ∩ C = (A ∩ C) ∪ (B ∩ C) Leis de Morgan A ∩ B = A ∪ B A ∪ B = A ∩ B ... ...

(8)

Probabilidade de um acontecimento

Definição clássica – Laplace (séc. XIX)

Sob a hipótese de quetodos os casos são igualmente prováveis ou possíveis (princípio da simetria).

Probabilidade de realização de um acontecimento A

P = número de casos favoráveis a A número total de casos possíveis

Definição frequencista

Considere-se n repetições de uma experiência aleatória; nA o n o ¯ de vezes que se verificou A. Paran“grande” tem-se para as frequências relativas

fn(A) = nA/n ≈ P

(9)

Probabilidade de um acontecimento

Ω−espaço de resultados associado a uma experiência aleatória.

Definição de Probabilidade

Probabilidade, P, é uma aplicação que a cada acontecimento de Ω

associa um número real satisfazendo o seguinte conjunto de axiomas:

A1) P(A) ≥ 0 ∀A ⊂ Ω;

A2) P(Ω) = 1;

A3) P(A ∪ B) = P(A) + P(B) se A ∩ B = ∅. (Axioma das probabilidades totais).

Se Ω é infinito,

A3∗) P(∪∞i=1Ai) =P∞i=1P(Ai) se Ai∩ Aj = ∅, i 6= j (Axioma completo das probabilidades totais).

(10)

Leis básicas das probabilidades

1 P(A) = 1 − P(A). 2 P(∅) = 0.

3 A ⊂ B ⇒ P(A) ≤ P(B). 4 P(A) ≤ 1.

5 P(A − B) = P(A ∩ B) = P(A) − P(A ∩ B). 6 Se B ⊂ A ⇒ P(A − B) = P(A) − P(B). 7 Sejam A

1, ...,Anacontecimentos mutuamente exclusivos então P(∪ni=1Ai) =Pni=1P(Ai)

(11)

Leis básicas das probabilidades (cont.)

9 P(A ∪ B ∪ C) = P(A) + P(B) + P(C) − P(A ∩ B) − P(A ∩ C)− P(B ∩ C) + P(A ∩ B ∩ C) 10 Generalização: A 1,A2, ...,An acontecimentos quaisquer P(∪n i=1Ai) = Pn

i=1P(Ai)−P(A1∩A2)−P(A1∩A3)−...−P(An−1∩An) +P(A1∩ A2∩ A3) + ... +P(An−2∩ An−1∩ An)

+... + (−1)n−1P(A1∩ A2∩ ... ∩ An).

Exercício 1

Sejam A, B e C acontecimentos definidos num espaço de resultados Ω tais que

P(A) = P(B) = P(C) = 1

4; P(A ∩ B) = P(B ∩ C) = 0e P(A ∩ C) = 1 8. Calcule, justificando, a probabilidade de se verificar pelo menos um dos acon-tecimentos A, B ou C.

(12)

Probabilidade condicional

Definição de Probabilidade Condicional

Chama-seprobabilidade condicional de A dado Bouprobabilidade de A se Be representa-se porP(A|B), com P(B) > 0 a

P(A|B) = P(A ∩ B)

P(B) =

P(AB) P(B)

Podemos enunciar o seguinte teorema:

Teorema das probabilidades compostas Se P(A) > 0 e P(B) > 0,

(13)

Independência

Definição

Dois acontecimentos A e B dizem-se mutuamenteindependentesse e só se

P(A ∩ B) = P(A) P(B).

Da definiçãoconclui-seque se A e B são independentes então P(A|B) = P(A) se P(B) > 0 e P(B|A) = P(B) se P(A) > 0.

(14)

Independência

Teorema

Se A e B são independentes

A e B, A e B e A e B, também são independentes.

Nota: Independêncianão é equivalente a exclusividade mútua.

Resultado:

Se P(A) > 0 e P(B) > 0 e A e B independentes ⇒ A e B são não mutuamente exclusivos.

(15)

Generalização a três acontecimentos

Sejam A, B, C tais que P(A) > 0, P(B) > 0 e P(C) > 0, tem-se,

P(ABC) = P(A)P(B|A)P(C|AB) = P(B)P(C|B)P(A|BC) =

=P(C)P(A|C)P(B|AC).

Definição –Independência de três acontecimentos

Os acontecimentos A, B e C dizem-semutuamente independentesou apenasindependentesse e só se

P(ABC) = P(A) P(B) P(C); P(AB) = P(A)P(B); P(AC) = P(A)P(C); P(BC) = P(B)P(C).

Nota: A independência par a par não assegura independência de um conjunto de acontecimentos.

(16)

Exercício 2

Uma empresa produz concentrado de tomate recorrendo a três processos de fabrico e embalamento. Sabe-se que 20% da produção e embalamento de concentrado provém do processo A, 30% do processo B e 50% do processo C.

Nalgumas embalagens daquele concentrado tem-se verificado a ocorrência de deficiências. Sabe-se 1% das embalagens provenientes do processo A, 2% das provenientes do processo B e 8% das

provenientes do processo C, respectivamente, têm deficiência. 1 Qual a percentagem de embalagens, produzidas naquela

empresa, que apresentam deficiências?

2 Verifica-se que uma embalagem escolhida ao acaso apresenta deficiências. Qual a probabilidade de ter sido fabricada e embalada pelo processo A?

(17)

Teorema da probabilidade total

A resolução daPergunta 1.baseia-se no seguinte teorema

Teorema da probabilidade total

Sejam A1,A2, ...,Anacontecimentos definindo uma partição sobre Ω,

i.e.,

A1∪ A2∪ .... ∪ An= Ω e Ai∩ Aj = ∅, ∀i, j, i 6= j.

Se P(Ai) >0 , então para qualquer acontecimento B ⊂ Ω tem-se

P(B) =

n

X

i=1

(18)

Teorema de Bayes

Relativamente àPergunta 2.do exercício anterior, pretendemos

actualizar a probabilidade de um acontecimentoa priori, à custa da informaçãoa posteriori.

O seguinte teorema formaliza a resposta à questão:

Teorema de Bayes

Sejam A1,A2, ...,An acontecimentos formando uma partição de Ω , onde P(Ai) > 0. Seja B um outro acontecimento de Ω, tal que P(B) > 0. Então para k = 1, ..., n tem-se

P(Ak|B) =

P(Ak).P(B|Ak)

Pn

(19)

Variável aleatória

Muitas vezes o resultado de uma experiência aleatória não é numérico ou sendo-o não interessa lidar com os resultados possíveis de Ω, mas pretende-se associar-lhe uma quantidade numérica.

Exemplo - lançamento de dois dados e soma dos pontos das faces.

É então mais cómodo associar a cada acontecimento um número, definido de acordo com o objectivo do estudo.

(20)

Variável aleatória

Definição

Chama-sevariável aleatória (v.a.) e costuma representar-se porX, a

uma função com domínio Ω e contradomínio emIR, cujo valor é

deter-minado pelo resultado de uma experiência aleatória, i.e,

X : Ω →IR

(21)

Tipos de variáveis aleatórias

Variáveis aleatórias discretasse assumem um conjunto finito ou infi-nito numerável de valores.

Exemplos:

– número de pintas que sai no lançamento de um dado;

– registo, a intervalos regulares, do número de pessoas em fila espera na caixa de um supermercado;

Variáveis aleatórias contínuassão as susceptíveis de tomar qualquer valor real num dado intervalo, que pode ser a recta real

(definição mais rigorosa será dada à frente)

Exemplos:

– o peso de um indivíduo;

(22)

Variáveis aleatórias

Mas ... aos valores de uma variável aleatória X pretendemos associar uma probabilidade PX ou, mais simplesmente, P

Isto consegue-se muito facilmente definindo uma função real de variável real do seguinte modo:

Definição

Chama-sefunção de distribuição cumulativa ou apenasfunção de distribuiçãoassociada à variável aleatória X e representa-se porF ou

FX, à aplicação

(23)

Propriedades da função de distribuição

1. 0 ≤ F (x ) ≤ 1

2. F (−∞) = limx →−∞F (x ) = 0 F (+∞) = limx →+∞F (x ) = 1.

3. F é uma função monótona não decrescente, i.e., dados dois números reais x1e x2tais que x1<x2, tem-se F (x1) ≤F (x2)

4. F (x ) é contínua à direita, i.e., limx →x+

0F (x ) = F (x0). 5. P(X = a) = F (a) − F (a−)onde

(24)

Função de distribuição e Probabilidade

O conhecimento da função de distribuição F (.) é equivalente ao conhecimento da lei de probabilidade PX =P.

ComoF (x) = P[X ≤ x]−→conhecer P ⇒ conhecer F (x ).

Reciprocamente ... conhecer F (x ), permite calcular a probabilidade

dos vários tipos de intervalos.

P(X < x )=P(X ≤ x ) − P(X = x ) =F (x−); P(X ≥ x )=1 − P(X < x ) =1 − F (x−); P(X > x )=1 − P(X ≤ x ) =1 − F (x ); P(a < X ≤ b)=P(X ≤ b) − P(X ≤ a) =F (b) − F (a); P(a < X < b)=P(X < b) − P(X ≤ a) =F (b−) −F (a); P(a ≤ X ≤ b)=P(X ≤ b) − P(X < a) =F (b) − F (a−); P(a ≤ X < b)=P(X < b) − P(X < a) =F (b− ) −F (a− ).

(25)

Variáveis aleatórias

Vamos agora ver como calcular a função de distribuição cumulativa e consequentemente a probabilidade para cada um dos tipos de variáveis aleatórias caracterizados atrás:

variáveis aleatórias discretase

variáveis aleatórias contínuas

Relembre-se que:

Uma variável aleatória diz-se discreta se toma um número finito ou uma infinidade numerável de valores.

(26)

Variáveis aleatórias discretas

Seja X uma v.a. tomandon valores,x1, ...,xn, cada um deles com probabilidadesp1, ...,pn, respectivamente, i.e.,

pi =P[X = xi],( i = 1, · · · , n).

Definição

Chama-sefunção massa de probabilidadeda v.a. X àaplicaçãoque a cada valorxi −→pi, tal que

pi =P[X = xi] Afunção massa de probabilidade satisfaz:

pi ≥ 0 , i = 1, ..., n Pni=1pi =1.

Nota: Se a v.a. tomar uma infinidade numerável de valores tem-se pi ≥ 0 , ∀i ≥ 1 P∞i=1pi =1.

(27)

Variáveis aleatórias discretas

Chama-sedistribuição de probabilidadeda v.a. X ao conjunto de pares(xi,pi)i=1,··· ,n.

Habitualmente alei (distribuição) de probabilidadeda v.a. X dispõe-se na forma:

X = 

x1 x2 ... xn p1 p2 ... pn

A distribuição de probabilidade da v.a. discreta permite calcular facilmente afunção de distribuição cumulativa FX

FX(x) = P[X ≤ x] =

X

xi≤x

P[X = xi],

ou seja temos a probabilidade cumulativa associada à variável X calculada em qualquer x ∈IR.

(28)

Variáveis aleatórias contínuas

Definição

Uma variável aleatória diz-se contínua se existe uma função real de variável real,f, não negativa, tal que

F (x) = P[X ≤ x] = Z x −∞ f (t) dt − ∞ < x < ∞ Nota: Z b a

(29)

Variáveis aleatórias contínuas

Definição

A funçãof diz-sefunção densidade de probabilidadeou apenas fun-ção densidade. Deve verificar as seguintes condições:

f (x) ≥ 0 ∀x ∈IR;

Z +∞

−∞

(30)

Exercício 3

O número de esquentadores vendidos diariamente num estabelecimento é uma variável aleatória, X , com a seguinte distribuição de probabilidade

X = 

0 1 2 3 4

0.3 0.3 0.2 0.1 0.1

a) Determine a função de distribuição cumulativa de X ; represente-a graficamente.

(31)

Exercício 4

Seja X a v.a. que designa o tempo de vida (em anos) de um dado equipamento, cuja função densidade é

f (x ) = 

0.2 e−0.2x x > 0

0 x ≤ 0

a) Mostre que f é de facto uma função densidade.

b) Determine a função de distribuição cumulativa de X ; represente-a graficamente.

c) Qual a probabilidade de esse equipamento durar entre 1 e 3 anos?

(32)

Variáveis aleatórias

Recordemos que:

– No caso de umavariável aleatória discretaafunção de distribuição cumulativaé umafunção em escada, onde os pontos de salto são os valores onde a v.a. está definida.

– No caso de umavariável aleatória contínuaafunção de distribuição cumulativaé umafunção contínua.

Além de termos interesse em calcular probabilidades associadas a uma variável aleatória,

vamos agora calcular “indicadores” que a caracterizam – são valores reais habitualmente designados porparâmetros.

(33)

Valor Médio

Definição

Dada uma v.a. X chama-se valor médio, esperança matemática, valor esperadooumédiae representa-se por E[X ], µX ou

simplesmenteµa

E[X ] =

n

X

i=1

xi pi X é v.a. discreta com distribuição(xi,pi)

E[X ] =

Z +∞

−∞

x f (x) dx X é v.a. contínua com f.d.p.f (x )

Observação: Se X for v.a. discreta com uma infinidade numerável de valores tem-se E [X ] =P∞

i=1xi pi. Neste caso só existe valor médio se “aquela soma infinita existir”.

Analogamente, no caso contínuo, só existe valor médio,

(34)

Valor Médio

Se X é uma v.a. e Y = ϕ(X ) é uma função real de variável real, define-sevalor médio de ϕ(X )como

E[ϕ(X )] =X

i

ϕ(xi)pi X é v.a. discreta com distribuição(xi,pi)

E[ϕ(X )] =

Z +∞

−∞

ϕ(x)f (x) dx X é v.a. contínua com f.d.p.f (x )

Mais uma vez, para que exista valor médio exige-se que exista aquela “soma infinita” (no caso de se tratar de uma v.a. discreta com uma infinidade de valores) ou a convergência absoluta do integral.

(35)

Propriedades do Valor Médio

1. Linearidade E [a] = a. E [a + bX ] = a + b E [X ]. E [ϕ(X ) + ψ(X )] = E [ϕ(X )] + E [ψ(X )] 2. Positividade

Se X ≥ 0, i.e. a variável toma apenas valores ≥ 0, tem-se E [X ] ≥ 0.

(36)

Variância e Desvio Padrão

Definição:

Chama-se variância de uma variável aleatória X e representa-se por

Var [X ], σ2X ou apenasσ2a

σX2 =Eh(X − µ)2i

σX = pVar[X ]chama-sedesvio padrão.

Exercício 5:

(37)

Variância e Desvio Padrão

Propriedades da variância e do desvio padrão

1. Var [X ] ≥ 0

2. Var [a + b X ] = b2Var [X ].

(38)

Voltemos ao Exercício 3

O número de esquentadores vendidos diariamente num estabelecimento é uma variável aleatória, X , com a seguinte distribuição de probabilidade

X = 

0 1 2 3 4

0.3 0.3 0.2 0.1 0.1

a) Qual o valor esperado do número de esquentadores vendidos por dia?

b) Se cada esquentador é vendido por 150 Euros qual é a distribuição de probabilidade da receita bruta da venda de esquentadores por dia.

c) Calcule a receita bruta esperada da venda de esquentadores por dia.

(39)

Exercício 6

Considere X a v.a. que designa a duração (em minutos) de cada chamada telefónica efectuada num certo local, cuja função densidade é

f (x ) = 

x e−x x > 0

0 x ≤ 0

a) Calcule a duração média de uma chamada telefónica.

b) Calcule a variância de X .

c) Se o preço de cada minuto de conversação for 60 cêntimos, qual é, em média, o preço de cada chamada telefónica.

(40)

Quantis e Mediana de uma variável aleatória

Definição

Dada uma v.a. X chama-sequantil de probabilidade pe representa-se porχp o menor valor da variável aleatória X tal queFXp) ≥p.

Se p = 0.5, chama-se mediana de X , representa-se porχ0.5, e é o

menor valor da variável tal queFX0.5) ≥0.5.

Notas:

Se X é v.a. contínua o quantil de probabilidade p é o valor χptal queFX(χp) = p.

Então se X é uma v.a. contínua a mediana χ0.5, é a solução de FX(x) = 0.5 ⇐⇒

Rχ0.5

(41)

Vectores aleatórios

Muitas vezes pretendemos associar a cada resultado de uma

experiência aleatória k ≥ 2 atributos numéricos. Obtemos então um vector (x1, · · · ,xk), realização dovector aleatório(X1, · · · ,Xk).

Iremos referir-nos apenas ao casok = 2.

ExemplosPretendemos registar:

a quantidade de precipitado P e o volume V de gás numa experiência química

para uma árvore seleccionada ao acaso, a altura e o diâmetro do tronco à altura do peito . . .

(42)

Pares aleatórios

Definição

Chama-separ aleatório (X , Y )à aplicação

(X , Y ) : Ω →IR2 ω → (x , y )

Tipos de pares aleatóriosque vamos estudar:

Par aleatóriodiscreto⇒ componentes são ambas variáveis aleatórias discretas;

Par aleatóriocontínuo⇒ componentes são ambas variáveis aleatórias contínuas.

(43)

Pares aleatórios discretos

(X , Y ) diz-se um par aleatóriodiscretose toma os valores(xi,yj)com probabilidadespij =P[X = xi,Y = yj].

Definição

Chama-se distribuição de probabilidades conjunta do par (X , Y ) aos valores (xi,yj)e respectivas probabilidadespij

pij é chamadafunção massa de probabilidade conjuntae deve

ve-rificar as seguintes condições:

pij ≥ 0 ∀i, j e X i X j pij =1.

(44)

Pares aleatórios discretos

Um modo cómodo de representar adistribuição de probabilidades conjuntasde um par aleatório discreto (X , Y ) é na forma de um quadro Y y1 y2 ... yn X x1 p11 p12 ... p1n p1• x2 p21 p22 ... p2n p2• . . . ... . . . . . ... . . . . . ... . . xm pm1 pm2 ... pmn pm• p•1 p•2 ... p•n 1

pi• =Pnj=1pij e p•j =Pmi=1pij chamam-se

(45)

Pares aleatórios discretos

Definição

Aprobabilidade condicionalde X dado Y =yj(fixo) com P[Y = yj] > 0 é definida como P(X = xi|Y =yj) = P(X = xi,Y =yj) P(Y =yj) = pij p•j , Definição

Do mesmo modo aprobabilidade condicionalde Y dado X =xi (fixo) com P[X = xi] >0 e xi é definida como

P(Y = yj|X =xi) = P(X =xi,Y = yj) P(X =xi) = pij pi• .

(46)

Pares aleatórios contínuos

Definição

Um par aleatório (X , Y ) diz-secontínuose existir uma funçãof (x, y ), chamada função densidade (de probabilidade) conjunta, que veri-fica as seguintes condições:

f (x , y ) ≥ 0 Z ∞ −∞ Z ∞ −∞ f (x , y )dxdy = 1. DadoA ⊂IR2tem-se P[(X , Y ) ∈ A] = Z Z A f (x , y )dxdy . Definição

Adensidade marginal de X é definida como fX(x ) = R+∞

−∞ f (x , y )dy e adensidade marginal de Y como fY(y ) =

R+∞

(47)

Pares aleatórios contínuos

Definição

Define-sedensidade condicionalde X dado Y =y,fixo, como

fX |Y =y(x ) =

f (x ,y) fY(y)

, fY(y) >0

Definição

Define-sedensidade condicionalde Y dado X =x,fixo, como

fY |X =x(y ) = f (x,y ) fX(x)

(48)

Independência de variáveis aleatórias

Definição

Dado o par aleatório (X , Y ) diz-se que as variáveis X e Y são inde-pendentesse e só se

pij =pi•p•j ∀i, j, no caso de (X , Y ) ser umpar aleatório

discreto

f (x , y ) = fX(x ) fY(y ) ∀(x, y ) ∈IR2 no caso de (X , Y ) ser um

(49)

Valor Médio

Definição

Dado o par aleatório (X , Y ), e g :IR2→IR, define-se

E[g(X , Y )] =X i X j g(xi,yj)pij , no caso discreto E[g(X , Y )] = Z Z R2

(50)

Propriedades do Valor Médio

1. Aditividade E [X ± Y ] = E [X ] ± E [Y ]

2. Desigualdade de Schwarz Se E [X2]e E [Y2]existem então E2[XY ] ≤ E [X2]E [Y2].Corolário: E2[X ] ≤ E [X2]

Nota: se E [X2]existe =⇒ existe E [X ].

3. SeX e Y variáveis aleatórias independentes

(51)

Valor Médio - propriedades

Nota:

O recíproco da propriedade 3. não é verdadeiro:

Verifique que se X e Y são v. a.’s com a seguinte distribuição de probabilidades

X Y -1 0 1

0 0 1/3 0

1 1/3 0 1/3

tem-seE [XY ] = E [X ]E [Y ] e no entantoX e Y não são

(52)

A covariância

Definição:

Dado o par aleatório (X , Y ) chama-secovariância de X e Y a

Cov [X , Y ] ≡ σXY =E[(X − µX)(Y − µY)]

Exercício:

(53)

A covariância - propriedades

Propriedades

1. Sejam X e Y variáveis aleatórias.

Var [X ± Y ] = Var [X ] + Var [Y ] ± 2Cov [X , Y ]

2. Se X e Y são variáveis aleatóriasindependentes

Var [X ± Y ] = Var [X ] + Var [Y ]

3. Se X e Y são v. a.’s independentes =⇒ Cov [X , Y ] = 0. Nota:O recíproco não é verdadeiro.

4. Cov [a + bX , c + dY ] = bd Cov [X , Y ].

(54)

O coeficiente de correlação; propriedades

Definição:

Chama-secoeficiente de correlaçãode X e Y e representa-se porρ

ouρX ,Y a

ρ ≡ ρX ,Y =

Cov [X , Y ]

σX σY

(σX >0 e σY >0).

Propriedades do coeficiente de correlação

1. −1 ≤ ρX ,Y ≤ 1 2. Se X e Y são v. a. independentes =⇒ ρX ,Y =0. 3. ρa+bX ,c+dY =  ρX ,Y se bd > 0 −ρX ,Y se bd < 0

(55)

Momentos e função geradora de momentos

O cálculo do valor médio e da variância de uma v.a. X e ainda propriedades de pares aleatórios (ou genericamente vectores aleatórios) podem ser abordados de forma uniformizadora usando uma função adequada (quando ela está definida).

Considere-se uma função associada à v.a. X que vamos representar por

MX :IR −→ IR tal que MX(t) = EetX



(56)

Momentos e função geradora de momentos

Exercício:

Para as variáveis a seguir indicadas calculeMX(t), com t ∈IR: X , variável aleatória discreta, associada ao lançamento de uma moeda equilibrada.

X , variável aleatória contínua, com função densidade f (x ) =



e−x x ≥ 0

(57)

Função geradora de momentos

Tem-se o seguinte resultado: dMX dt |t=0=E [X ] e d2MX dt2 |t=0=E [X 2] Nota:

Esta função, a que se chama função geradora de momentos, pode ser então usada para determinar E [X ] e Var [X ], calculando a primeira e segunda derivadas em t = 0 (se existirem).

Para as variáveis aleatórias indicadas noexercíciodo slide anterior, calcule E [X ] e Var [X ], com recurso a MX.

(58)

Função geradora de momentos

Propriedades da função geradora de momentos de uma v.a. X

1. Ma+b X(t) = eat MX(bt).

2. Teorema da unicidade

Se para duas v.a. X e Y se verifica MX(t) = MY(t) então X e Y têm a mesma função de distribuição.

Reciprocamente, se existir a função geradora de momentos, ela é única.

3. SeXe Y são variáveis aleatórias independentes

MX +Y(t) = MX(t) × MY(t)

Nota:Mais adiante esta propriedade será de grande utilidade.

(59)

Principais Modelos (Distribuições) Discretos

Distribuição uniforme discreta Distribuição de Bernoulli e binomial Distribuição geométrica

Distribuição hipergeométrica Distribuição de Poisson

(60)

A distribuição uniforme discreta

Definição

Uma v.a. X diz-se terdistribuição uniforme discretase P(X = xi) =1/k , i = 1, ..., k , i.e., se toma os valores

x1, x2, ... ,xk

com probabilidades 1/k , 1/k , ..., 1/k

Valor médio, variância e função geradora de momentos E [X ] = 1kPk

(61)

A distribuição uniforme discreta

Caso particular Se X =  1 2 · · · n 1/n 1/n · · · 1/n E [X ] = n+12 ; Var [X ] = n212−1 e MX(t) = e t(1−ent) n(1−et) , t 6= 0

(62)

A distribuição de Bernoulli

Experiência =



realizaçãode um acontecimento sucesso

não realizaçãodo acontecimento insucesso

Exemplos:

o teste de uma dada droga num rato e o registo da reacção positiva ou negativa;

a inspecção dos items numa linha de fabrico para observar se cada um é defeituoso ou não;

(63)

A distribuição de Bernoulli

Cada uma das repetições sucessivas da experiência –prova.

Definição:

Chama-se variável aleatória de Bernoullià variávelX, associada ao resultado de cada prova de Bernoulli e considera-se

X = 1, com probabilidadep,se há sucesso;

(64)

A distribuição Binomial

Considere-seuma sucessão deprovas de Bernoulli independentessatisfazendo:

cada prova tem apenas um de dois resultados possíveis:

sucessoouinsucesso.

em cada prova a probabilidade de sucesso, p, permanece constante, sendo q = 1 − p, a probabilidade de insucesso. o resultado de cada prova é independente do resultado das restantes.

Definição:

A v.a. X que conta o número de sucessos em n provas nas condi-ções acima chama-se variável aleatória binomial, diz-se ter distri-buição binomial e representa-se por X _ B(n, p).

(65)

A distribuição binomial– exemplo

Numa experiência colocam-se 5 bolbos de junquilho a germinar, de um pacote com uma garantia de germinação de 40% dos bolbos. Qual a probabilidade de, desses 5 bolbos, 3 germinarem?

Como a germinação é independente de bolbo para bolbo, a probabili-dade degerminarem 3 bolbosde entre os 5 é então

5 3 (0.4)

3

(0.6)2

Então sendoX a v.a. que conta o número de sucessos em n provas de Bernoulli independentes, X _ B(n, p), temos a

Caracterização da v.a. X _ B(n, p): x = 0, 1, 2, ..., n −→ no

¯ de “sucessos” nasn provas

P[X = x] = nx px (1 − p)n−x −→ probabilidade de se observaremx “sucessos”

(66)

A distribuição binomial–exercício

Para n = 8 e vários valores de p, veja a função massa de probabilidade. 0 2 4 6 8 0.0 0.1 0.2 0.3 0.4 x~B(8,0.1) x prob 0 2 4 6 8 0.00 0.10 0.20 x~B(8,0.4) x prob 0 2 4 6 8 0.00 0.10 0.20 0.30 x~B(8,0.7) x prob

Sugestão: Consulte as folhas de Introdução ao software e use os comandos (por exemplo, para obter o primeiro gráfico):

>x < − 0:8

>plot(x,dbinom(x,size=8,prob=0.1),type="h", col = "red", lwd=4,xlab="x",main="X ∼ B(8, 0.1)",ylab="prob")

(67)

A distribuição binomial

Valor médio, variância e função geradora de momentos X _ B(n, p)

E[X ] = np; Var [X ] = npq; MX(t) = p et +q

n

Relação entre a distribuição do número de sucessos e de insucessos

X _ B(n, p) ⇒ (n − X ) _ B(n, 1 − p).

Para valores de n ≤ 20(25), existem tabelas para o cálculo das probabilidades.

As tabelas que temos à disposição apresentam os valores da função de distribuição cumulativa.

(68)

A distribuição geométrica

Considere-se de novo que temosprovas de Bernoulli independentes, mas agora . . .

o número de provas não é fixo pois ... pretendemos ir realizando provas até ocorrer pelaprimeira vez o “sucesso”.

Seja entãoX onúmero de provas necessárias até que ocorrapela primeira vez o “sucesso”. Diz-se que X tem distribuição geomé-tricae costuma representar-se porX _ G(p).

Caracterização da v.a. X _ G(p)

(69)

A distribuição geométrica

Valor médio, variância e função geradora de momentos

MX(t) = p e

t

1−qet (qet <1); E[X ] = 1/p; Var [X ] = q/p2

Teorema - Propriedade da falta de memória da distribuição geométrica

Se X _ G(p) então sendo m e n inteiros positivos P[X > m + n|X > m] = P[X > n]

(70)

A distribuição geométrica

Nota:

Interpretando a distribuição geométrica como o número de provas que

se vão realizando até se observar um “sucesso”:

Se tiverem decorrido mais de m provas sem que se tenha verificado um "sucesso", a probabilidade de se ter de esperar mais de n provas para se observar um "sucesso" é a mesma caso se estivesse no início da experiência.

(71)

A distribuição hipergeométrica

Mas ... há experiências nas quais a probabilidade de sucesso não se

mantém constante, não sendo as provas independentes. Exemplo

Num lote de 20 pneus enviados a um fornecedor sabe-se que há 6 defeituosos. Um cliente vai a esse fornecedor comprar 5 pneus. Qual a probabilidade de levar 2 defeituosos?

- O total de modos de seleccionar 5 pneus quaisquer do lote é 205 - Há 62 modos de seleccionar 2 defeituosos e, para cada um destes há 143 modos de escolher 3 bons, para completar os 5.

Portanto ... a probabilidade de, dos 5 pneus escolhidos ao acaso, 2

serem defeituosos (e portanto 3 bons) é: 6 2  14 3  20 5 

(72)

A distribuição hipergeométrica

Definição

Diz-se que temos umaexperiência hipergeométrica se dada uma população de dimensão

N com 

K “sucessos”

N − K “insucessos” → extraímos, sem reposição n

Definição

A v.a. X que conta o número de sucessos numa experiência hiper-geométrica é uma v.a. hipergeométrica de parâmetros N, n e K e costuma representar-se por X _ H(N, n, K )

(73)

A distribuição hipergeométrica

Qual a probabilidade de  dos K seleccionar x dos N − K seleccionar n − x ? Seja X _ H(N, n, K ) P[X = x] = K x  N−K n−x  N n  , max (0, n − N + K ) ≤ x ≤ min(n, K )

Valor médio e variância de X _ H(N, n, K )

(74)

A distribuição hipergeométrica

Observação: Quando N >> n, a probabilidade de sucesso em cada tiragem sem reposição varia muito pouco de prova para prova , então . . .

−→ pode considerar-se a distribuição binomial como uma aproximação da distribuição hipergeométrica com p = K /N, i.e.,

Resultado:

Se N bastante maior que n tem-se

H(N, n, K ) ≈ B(n, p), com p = K /N.

Comoregra prática, pode considerar-seboa a aproximaçãopara

(75)

A distribuição de Poisson

Considere que pretende contar, por exemplo, o número de:

chamadas telefónicas recebidas numa central telefónica num certo intervalo de tempo;

chegadas de clientes a uma bilheteira durante um certo período; chegadas de sinistrados a um banco de um hospital durante um certo período;

dias que uma dada escola fecha durante o inverno; erros de tipografia por página;

Se a contagem do número de “sucessos” que ocorrem num dado intervalo de tempo ou num domínio específico, satisfaz as seguintes condições:

(76)

A distribuição de Poisson

o número de “sucessos´´ que ocorrem num dado intervalo de tempo ou domínio é independente do número que ocorre em qualquer outro intervalo ou domínio disjunto do anterior;

a probabilidade que o “sucesso´´ se verifique uma vez em qualquer intervalo muito curto ( ou região muito pequena ), de amplitude δ, é proporcional a δ , i.e, é igual a λδ e não depende do número de sucessos que ocorrem fora desse intervalo ou região;

a probabilidade de que o “sucesso´´ se verifique mais do que uma vez num intervalo ou domínio de amplitude muito pequena é ≈ 0.

diz-se que estamos peranteexperiências de Poissonouum processo de Poisson

(77)

A distribuição de Poisson

Definição

A v.a X que conta o número de sucessos numa experiência de Poisson diz-se ter distribuição de Poisson e depende apenas do parâmetro

λ −→número médio de sucessosque ocorrem no intervalo de tempo ( ou na região especificada).

Representa-se por X _ P(λ) e a lei de probabilidade é:

P[X = x] = e −λλx

x! , x = 0, 1, 2...., λ >0.

Nota:Facilmente se verifica que P[X = x ] ≥ 0 ∀x = 0, 1, 2..., mas para mostrar queP∞

x =0e

−λλx

x ! =1, são necessários conhecimentos sobre séries

(78)

A distribuição de Poisson

Valor médio, variância e função geradora de momentos

MX(t) = eλ(e

t−1)

E[X ] = λ Var [X ] = λ.

Teorema da estabilidade da soma

Se as v.a. Xi i = 1, ..., k são independentes e Xi _ P(λi)então k X i=1 Xi _ P k X i=1 λi ! .

Existem tabelas da Poisson para consulta → função de distribuição cumulativa.

(79)

A distribuição de Poisson

A distribuição de Poisson surge ainda como o limite da distribuição binomial quando n → ∞ e p → 0.

Teorema

Quando n → ∞ e p → 0, mantendo-se constante o produto np tem-se X _ B(n, p) ⇒ X ∼ P(λ) com λ = np.

Regra práticaEm geral, a distribuição de Poisson fornece umaboa aproximação da distribuição binomial quando n ≥ 20 e p ≤ 0.05

(80)

Principais Distribuições Contínuas

Distribuição uniforme contínua Distribuição de Gauss ou normal Distribuição exponencial

(81)

A distribuição uniforme contínua

Definição

Uma v.a. contínua diz-se ter distribuição uniforme ou rectangular

no intervalo (a, b) e representa-se por X _ U (a, b)se a função den-sidade de probabilidade (f.d.p.) é da forma:

f (x ) = 

1/(b − a) a < x < b

0 x ≤ a ou x ≥ b.

Valor médio, variância e função geradora de momentos

E[X ] = a+b2 ; Var [X ] = (b−a)12 2 e MX(t) = e

tb−eta

(82)

A distribuição uniforme contínua

Caso particular:

Considere a distribuição U (0, 1)

Exercício:

Escreva a função densidade, a função distribuição cumulativa, valor médio, variância e função geradora de momentos.

(83)

A distribuição normal ou de Gauss

Surge século XVIII → ligada ao estudo dos erros de medições repetidas de uma mesma quantidade.

Papel fulcral nas Probabilidades e Estatística, porque:

muitas variáveis biométricas têm uma distribuição muito próxima da normal;

por vezes uma variável que não é normal pode ser transformada de um modo simples numa outra com distribuição normal;

a parte central de muitos modelos não normais é por vezes razoavelmente bem aproximada por uma distribuição normal.

(84)

A distribuição normal ou de Gauss

Definição

Uma v.a. contínua X diz-se terdistribuição normaloude Gausscom parâmetrosµeσ e representa-se porX _ N (µ, σ)se a sua f.d.p. é da forma: f (x ) = √1 2π σexp " −1 2  x − µ σ 2# −∞ < x < +∞, −∞ < µ < +∞, 0 < σ < +∞ −5 0 5 0.0 0.2 0.4 f. densidade da N(0,1) x −5 0 5 0.0 0.2 0.4 f. densidade da N(0,2) x −5 0 5 0.0 0.2 0.4 f. densidade da N(2,2) x

(85)

A distribuição normal ou de Gauss

Propriedades da curva densidade da variável com distribuição normal

1. É simétrica relativamente a µ.

2. É uma curva unimodal, a moda é µ.

3. Tem pontos de inflexão em µ + σ e µ − σ.

Valor médio, variância e função geradora de momentos

E[X ] = µ; Var [X ] = σ2 e MX(t) = e

µt + σ

2t2

(86)

A distribuição normal reduzida

Definição

Seµ =0eσ =1a variável aleatória com distribuiçãoN (0, 1) chama-senormal reduzida.

Notações para a normal reduzida

Z _ N (0, 1); ϕ(z) =1 e1 2z 2 e Φ(z) = P[Z ≤ z]

Propriedade – consequência da simetria Φ(−z) = 1 − Φ(z)

Tabelas −→ dão o valor da função de distribuição cumulativa da normal reduzida.

(87)

A distribuição normal ou de Gauss

Alguns teoremas de grande importância no estudo da normal. Teorema

Seja X _ N (µ, σ) a v.a. Y = a + bX é também normal e tem-se Y _ N (a + bµ, |b|σ).

Corolário - muito importante

Seja X _ N (µ, σ), então a v.a. Z = X − µ

σ tem distribuição normal reduzida, i.e.,Z = X − µ

(88)

Exercício

Uma vacaria tem uma produção diária de leite que se admite seguir uma lei normal com µ = 950 l e σ = 50 l

a) Qual a probabilidade de se ter uma produção inferior a 1000 litros?

b) Qual a percentagem de dias em que a produção ultrapassa a produção média em mais de 100 litros?

c) Se na região existe outra vacaria, com uma produção diária que se admite normal com µ = 900 l e σ = 40 l, funcionando

independentemente da primeira, qual a probabilidade de num dado dia a produção total das duas vacarias ser superior a 1800 litros?

(89)

A distribuição normal ou de Gauss

Para respondermos à alínea c) necessitamos do seguinteTeorema

Teorema

Sejam X1, ...,Xn, v.a. normais independentes, tais que X1 _ N (µ1, σ1), X2_ N (µ2, σ2), · · · , Xn_ N (µn, σn).

A v.a. X = X1+X2+ ... +Xn tem distribuição normal de parâmetros (µ, σ), com

µ = µ1+ µ2+ ... + µn e σ =

q

σ21+ σ22+ ... + σ2 n

(90)

A distribuição normal ou de Gauss

Generalização do teorema anterior

Mostre que, sendo X1, ...,Xn v.a. nas condições do teorema, a1 X1+

a2X2+ ... +anXn tem distribuição normal de parâmetros (µ, σ), com

µ =a1µ1+a2µ2+ ... +anµn e σ =

q

a21σ21+a22σ22+ ... +a2nσn2.

Corolário

Sejam Xi n v.a. normais independentes e semelhantes, i.e., tendo to-das o mesmo valor médio µ e a mesma variância σ2.

As variáveis aleatóriassomaemédia, definidas respectivamente como

Sn =Pni=1Xi e Xn = 1nPni=1Xi têm distribuição normal assim definida

Sn _ N (nµ, σ

n) e Xn _ N (µ, σ/

(91)

O Teorema Limite Central

Provámos que a soma de NORMAIS independentes é ainda uma normal. Mas temos mais ...

adistribuição aproximada da SOMA de n variáveis aleatórias com

QUALQUER lei, mas independentes, identicamente distribuídas e

verificando certas condições é tambémnormal.

Teorema limite central

Sejam X1, ...,Xn variáveis aleatórias independentes e identicamente distribuídas, com valor médio µ e variância σ2(finita).

A v.a.Sn =Pni=1Xi verifica quandon é “grande”:

Sn − nµ

(92)

Aplicações do Teorema Limite Central

Note que também se tem Xn− µ

σ/√n ∼ N (0, 1).

Teorema de De Moivre

Seja X uma v.a. comdistribuição binomial com valor médioµ = np e variânciaσ2=npq. Então quando n → ∞ ,

X − np √

(93)

Aplicações do Teorema Limite Central

Recorde-se quese, na distribuição binomial, n grande e p ≈ 0(ou 1) uma boa aproximação é dada pela distribuição de Poisson.

E agora para valores de p ≈ 1/2 o teorema limite central oferece muito boa aproximação para a normal.

(94)

Aplicações do Teorema Limite Central - Exercício

Utilizando o , obtenha os seguintes gráficos da função massa de probabilidade de X _ B(8, 0.2), X _ B(8, 0.5) e X _ B(25, 0.2). 0 2 4 6 8 0.00 0.10 0.20 0.30 x1 dbinom(x1, 8, 0.2) 0 2 4 6 8 0.00 0.05 0.10 0.15 0.20 0.25 x1 dbinom(x1, 8, 0.5) 0 5 10 15 20 25 0.00 0.05 0.10 0.15 0.20 x2 dbinom(x2, 25, 0.2) O que observa? Regra prática

Se nadistribuição binomial np > 5enq > 5 =⇒aaproximação pela distribuição normal é boa.

(95)

Aplicações do Teorema Limite Central

Teorema

Seja X _ P(λ). Quando λ → ∞ então X − λ√

λ ∼ N (0, 1).

Regra prática:

A aproximação é considerada boa paraλ ≥20.

Observação: Quando considerámos a aproximação da distribuição binomial pela Poisson, ambas eram distribuições discretas.

Os dois teoremas acabados de enunciar dão-nos uma aproximação de uma v.a. discreta por uma v.a. contínua.

Neste caso é necessário fazer-se o que se designa porcorrecção de continuidadeque consiste em considerar todo ointeiro k

(96)

A distribuição exponencial

Uma variável aleatória diz-se ter distribuição exponencial de parâ-metroβe representa-se porX _ Exp(β)se a função densidade é

f (x ) = ( 1

βe−x/β x > 0, β > 0

0 x ≤ 0

Valor médio, variância e função geradora de momentos

(97)

A distribuição exponencial: observações

Relação entre a distribuição exponencial e a distribuição de Poisson:

Considere-se contagens de sucessos em intervalos de tempo. O tempo ao fim do qual se verifica o primeiro sucesso é uma variável aleatória contínua.

Teorema

Se X , número de sucessos num intervalo de tempo, é tal que X _ P(λ) então W a v.a. que designa o tempo de espera pelo primeiro sucesso (ou o tempo entre a ocorrência de dois sucessos consecutivos) satisfaz

(98)

A distribuição exponencial: observações

Exercício:

Verifique que a distribuição exponencial goza da propriedade dafalta de memória.

Aplicações:

Referências

Documentos relacionados

A acrescentar a este conjunto de entraves à prova por parte do paciente, facilmente se constata que este, não possuindo conhecimentos técnico-científicos na área da

Se a probabilidade de a variável assumir valores num subintervalo for a mesma que para qualquer outro subintervalo de mesmo comprimento teremos então uma distribuição

Se o espaço amostral contém um número innito de pontos amostrais igual ao número de pontos em um segmento de linha, isto é, innito e não-contável, então é denominado espaço

Se a probabilidade de a variável assumir valores num subintervalo for a mesma que para qualquer outro subintervalo de mesmo comprimento teremos então uma distribuição

Variáveis Aleatórias Discretas: Distribuição de Probabilidade; Algumas Distribuições Discretas: Uniforme, Binomial, Poisson; Hipergeométrica5. Variáveis Aleatórias

UNIVERSIDADE ESTADUAL DE CAMPINAS FACULDADE DE CIÊNCIAS APLICADAS PROGRAMA E PLANO DE DESENVOLVIMENTO..

Nesse contexto, denote por n 1 o menor tamanho de amostra necessário para garantir tal precisão quando não se tem nenhuma informação sobre p e denote por n 2 o menor tamanho de

Vamos agora ver como calcular a função de distribuição cumulativa e consequentemente a probabilidade para cada um dos tipos de variáveis aleatórias caracterizados atrás:..