• Nenhum resultado encontrado

Notas de Probabilidades e Estatística

N/A
N/A
Protected

Academic year: 2021

Share "Notas de Probabilidades e Estatística"

Copied!
104
0
0

Texto

(1)

Notas de Probabilidades e Estat´ ıstica

Giovani Loiola da Silva

Dep. Matemática - IST Setembro, 2008

—————————

Estas notas visam apoiar as aulas teóricas da disciplina Probabilidades e Estatística.

Agradecimentos:Daniel Paulino pela revisão do texto e colegas e alunos por detectarem gralhas.

NOTAS DE PROBABILIDADES E ESTAT´ISTICA - GS – 1/207

Sumário

1. Introdução ... 3

2. Noções de probabilidade ... 5

3. Variáveis aleatórias e distribuições discretas ... 19

4. Variáveis aleatórias e distribuições contínuas ... 41

5. Distribuições conjuntas de probabilidade e complementos ... 57

6. Amostragem e estimação pontual ... 97

7. Estimação por intervalos ... 125

8. Testes de hipóteses ... 143

9. Introdução à regressão linear simples ... 179

(2)

1. Introdução

A utilização de métodos estatísticos teve início na antiguidade como contagem para avaliar regiões em que se poderiam obter mais impostos.

A estatística é uma área científica que se utiliza da teoria da probabili- dade para explicação de acontecimentos, estudos e experiências.

Estatística: Ciência da análise de dados, formada pelas etapas:

Obtenção de informação de uma população (recolha de dados).

Organização, apresentação e análise dos dados.

Conclusão e interpretação dos resultados da análise estatística.

População: Um conjunto cujos elementos possuem qualquer caracterís- tica em comum.

Amostra: Um subconjunto da população.

NOTAS DE PROBABILIDADES E ESTAT´ISTICA - GS – 3/207

População

Teoria da Probabilidade

Amostra

Inferência Estatística

HHHHHj * HH HH H Y

Métodos de Análise de Dados:

Estatística Descritiva: Organização e apresentação da informação dedutível dos dados.

Inferência Estatística ou Estatística Indutiva: Formulação de mo-

delos teóricos (probabilísticos) para descrever uma população e

estudo da sua adequação aos valores observados da amostra.

(3)

2. Noções de probabilidade

Motivação: Num estudo científico, o objectivo centra-se usualmente na descrição de um fenómeno de interesse através de modelo teórico.

O fenómeno pode ser observável e o processo de recolha das suas observações é uma experiência.

Se a realização da experiência determina previamente qual o seu resultado, o modelo teórico é dito determinístico. Caso contrário, o modelo é não determinístico ou aleatório (estocástico).

Exemplo 2.1: Sob certas condições, a distância (S) percorrida em queda-livre por um objecto é S = −16t

2

+ v

0

t, onde v

0

é a velocidade inicial e t é o tempo gasto na queda.

Exemplo 2.2: O número de partículas alfa emitidas por um fragmento de material radioactivo durante um dado intervalo de tempo.

NOTAS DE PROBABILIDADES E ESTAT´ISTICA - GS – 5/207

Experiências aleatórias. Espaço de resultados.

Definição 2.1: Uma experiência diz-se aleatória se:

todos os seus possíveis resultados são conhecidos à partida.

o resultado em cada realização concreta da experiência não é de facto conhecido a priori.

Frequentemente, acrescenta-se ainda à definição de experiência aleató- ria que ela pode ser repetida muitas vezes, essencialmente sob as mes- mas condições.

Exemplo 2.3: Lançamento de um dado (experiência E1).

Definição 2.2: Espaço de resultados ou espaço amostral de uma ex- periência aleatória é o conjunto de todos os seus possíveis resultados, denotado por Ω.

Exemplo 2.3a: Na experiência E

1

, Ω = {1, 2, 3, 4, 5, 6} com #Ω = 6.

(4)

Acontecimentos.

Definição 2.3: Dada uma experiência aleatória E com espaço de resul- tados Ω, um acontecimento ou evento é um subconjunto de Ω.

Exemplo 2.3b: Na experiência E

1

, tem-se o acontecimento A = {sair face par} = {2, 4, 6}.

Um acontecimento pode ser, por exemplo, elementar ({ω}), certo (Ω) e impossível (∅). Note-se que dois acontecimentos A e B tais que A∩B =

∅ são ditos mutuamente exclusivos ou disjuntos.

Definição 2.4: Dada uma experiência aleatória E com espaço de resul- tados Ω, diz-se que A é o conjunto de todos os acontecimentos possíveis de Ω.

Exemplo 2.3c: Na experiência E1, Ω = {1, 2, 3, 4, 5, 6} e A = {∅, {1}, . . . , Ω} com #A = 2

6

= 64.

NOTAS DE PROBABILIDADES E ESTAT´ISTICA - GS – 7/207

Noção de probabilidade:

Interpretação de Laplace.

Para uma experiência aleatória E com espaço de resultados finito Ω = {1, . . . , N }, assumindo que os N resultados são igualmente prováveis, a probabilidade de qualquer acontecimento A é a proporção de resultados de Ω favoráveis a A.

Exemplo 2.3d: Na experiência E

1

, a probabilidade do acontecimento A = {sair face par} é dada por P (A) = 3/6 = 0.5.

Interpretação frequencista.

A probabilidade de um acontecimento A é o limite da frequência rela-

tiva da ocorrência de A numa longa sucessão de experiências realizadas

sob as mesmas condições.

(5)

Exemplo 2.4: Num lançamento de uma moeda (E

2

), a probabilidade de sair cara (acontecimento A) é dada por

P (A) = lim

n→∞

f

n

(A) ≃ n/2 n = 1

2 .

0 200 400 600 800 1000

0.00.20.40.60.81.0

Interpretação subjectivista.

A probabilidade de um acontecimento A é entendida como uma medida pessoal (entre 0 e 1) do grau de crença sobre a ocorrência de A.

Exemplo 2.5: Um geólogo afirma que uma dada região tem 60% de chance de haver petróleo, baseando-se quer nas características do ter- reno quer na sua semelhança com outras regiões com conhecida pre- sença ou ausência de petróleo nos últimos anos.

NOTAS DE PROBABILIDADES E ESTAT´ISTICA - GS – 9/207

Axiomática de probabilidade.

Definição 2.5: Para cada evento A de uma experiência aleatória com espaço de resultados Ω, é suposto existir um número real, designado por probabilidade de A e denotado por P (A), satisfazendo os axiomas:

A

1

: P (A) ≥ 0, ∀A ∈ A (acontecimentos possíveis de Ω).

A

2

: P (Ω) = 1.

A

3

: Para qualquer sequência de acontecimentos disjuntos 2 a 2 A

1

, . . . , A

n

tem-se P (∪

ni=1

A

i

) = P

n

i=1

P (A

i

), n = 1, 2, . . ..

O conjunto A de Ω é dito ser uma σ-álgebra de acontecimentos se i) Ω ∈ A, ii) A ∈ A ⇒ A ¯ ∈ A e iii) A

1

, A

2

, . . . ∈ A ⇒ ∪

i=1

A

i

∈ A.

Definição 2.6: Sob a validade destes axiomas, (Ω, A, P ) é dito ser um

espaço de probabilidade. Note-se que (Ω, A) é dito ser um espaço de

acontecimentos.

(6)

Teoremas decorrentes.

Sejam A e B acontecimentos de uma experiência aleatória com espaço de resultados Ω. Se P (A) e P (B) satisfazem os axiomas referidos an- teriormente, então tem-se os seguintes teoremas decorrentes:

Teorema 2.1: P ( ¯ A) = 1 − P (A).

Teorema 2.2: P (∅) = 0.

Teorema 2.3: A ⊂ B ⇒ P (A) ≤ P (B).

Teorema 2.4: P (A) ≤ 1.

Teorema 2.5: P (A ∪ B) = P (A) + P (B ) − P (A ∩ B).

Exemplo 2.6: Na experiência E

1

, com Ω = {1, 2, 3, 4, 5, 6}, A

1

= {sair face par} e A

2

= {sair face impar}, tem-se i) P (A

1

) = 0.5; ii) P (Ω) = 1; iii) P (A

1

∪ A

2

) = 1.

NOTAS DE PROBABILIDADES E ESTAT´ISTICA - GS – 11/207

Probabilidade condicional.

Definição 2.7: Sejam A e B acontecimentos de um espaço de proba- bilidade (Ω, A, P ). Se P (B) > 0, a probabilidade do acontecimento A dado a ocorrência do acontecimento B (A dado B ou A se B ou A condicionado a B) é dada por

P (A|B ) = P (A ∩ B) P (B) .

Analogamente, P (B|A) = P (A ∩ B )/P (A), se P (A) > 0.

Em P (A|B), B funciona como um espaço de resultados reduzido sobre o qual está avaliada a probabilidade de A.

Se Ω é finito com resultados equiprováveis, pode-se calcular

P (A|B) directamente como P (A|B) =

#{A∩B}#{B}

.

(7)

No cenário vigente, a probabilidade condicional P (A|B ), com P (B) >

0, é uma probabilidade definida sobre o espaço de acontecimentos as- sociado a B, verificando-se os axiomas:

A

1

: P (A|B) ≥ 0, ∀ acontecimento A.

A

2

: P (Ω|B) = 1.

A

3

: Para acontecimentos disjuntos P

n

A

1

, . . . , A

n

, P (∪

ni=1

A

i

|B) =

i=1

P (A

i

|B), n = 1, 2, . . ..

E os teoremas decorrentes:

1. P ( ¯ A|B) = 1 − P (A|B).

2. P (∅|B) = 0.

3. A

1

⊂ A

2

⇒ P (A

1

|B ) ≤ P (A

2

|B).

4. P (A|B) ≤ 1.

5. P (A

1

∪ A

2

|B) = P (A

1

|B ) + P (A

2

|B ) − P (A

1

∩ A

2

|B).

NOTAS DE PROBABILIDADES E ESTAT´ISTICA - GS – 13/207

Teorema da probabilidade composta.

A partir da definição de probabilidade condicional obtém-se que P (A ∩ B) = P (A)P (B|A) ou P (B)P (A|B),

bem como relações estendidas do tipo

P (A ∩ B ∩ C) = P (A)P (B ∩ C|A) = P (A)P (B|A)P (C |A ∩ B).

Teorema 2.6: Se A

1

, . . . , A

n

são acontecimentos de um espaço de re- sultados Ω, então

P (∩

ni=1

A

i

) = P (A

1

)P (A

2

|A

1

) . . . P (A

n

|A

1

∩ A

2

∩ . . . ∩ A

n−1

).

Exemplo 2.7: Num sorteio de 3 prémios, sem reposição, para 12 ho-

mens e 8 mulheres, a probabilidade de nenhum homem ganhar o sorteio

(A) é P (A) ≃ 0.049.

(8)

Teorema da probabilidade total.

Definição 2.8: Os acontecimentos A

1

, . . . , A

n

formam uma partição do espaço de resultados Ω quando

1. A

i

∩ A

j

= ∅, ∀i 6= j = 1, . . . , n.

2. ∪

ni=1

A

i

= Ω.

Teorema 2.7: Se B é um acontecimento qualquer de um espaço de re- sultados Ω e A

1

, . . . , A

n

uma partição de Ω, então

P (B) = P

n

i=1

P (A

i

)P (B |A

i

).

Exemplo 2.8: Numa caixa com 20 peças do tipo A e 80 do tipo B, sabe- se que 30% e 25% das peças do tipo A e B, respec., são defeituosas. A probabilidade de uma peça, seleccionada ao acaso, ser defeituosa (D) é P (D) = 0.26.

NOTAS DE PROBABILIDADES E ESTAT´ISTICA - GS – 15/207

Teorema de Bayes.

Teorema 2.8: Se os acontecimentos A

1

, . . . , A

n

formam uma partição do espaço de resultados Ω e B é um acontecimento qualquer de Ω com P (B) > 0, então ∀ i = 1, . . . , n,

P (A

i

|B) = P (A

i

∩ B )

P (B) = P (A

i

)P (B|A

i

) P

n

j=1

P (A

j

)P (B |A

j

) .

Exemplo 2.8a: Na caixa com 100 peças dos tipos A e B (Exemplo 2.8), qual a probabilidade de uma peça seleccionada ao acaso ser do tipo A, sabendo que ela é defeituosa?

P (A|D) ≃ 0.231.

(9)

Acontecimentos independentes.

Definição 2.9: Diz-se que dois acontecimentos A e B de um mesmo espaço de resultados Ω são independentes se

P (A ∩ B ) = P (A) × P (B ).

Todo o acontecimento A é independente de ∅ e Ω.

Se A e B são acontecimentos independentes, P (A|B ) = P (A) se P (B ) > 0 e P (B|A) = P (B) se P (A) > 0.

Se A e B são acontecimentos independentes, também o são A ¯ e B, A e B ¯ e A ¯ e B. ¯

Acontecimentos A e B são condicionalmente independentes ao acontecimento C , P (C ) > 0, se P (A ∩ B|C) = P (A|C )P (B|C).

NOTAS DE PROBABILIDADES E ESTAT´ISTICA - GS – 17/207

Os acontecimentos A, B e C são completamente independentes, se P (A∩ B) = P (A)P (B), P (A∩ C) = P (A)P (C ), P (B ∩ C) = P (B )P (C) e P (A ∩ B ∩ C) = P (A)P (B)P (C ).

Note-se que independência 2 a 2 ; independência a 3.

Exemplo 2.9: Considere o espaço de resultados Ω como o quadrado de vértices (0,0), (0,1), (1,0) e (1,1). Suponha que a probabilidade de uma região (acontecimento) contida em Ω seja a área desta região. Os acontecimentos A = {(x, y) : 1/3 ≤ x ≤ 2/3, 0 ≤ y ≤ 1/2, } e B = {(x, y) : 1/2 ≤ x ≤ 1, 1/4 ≤ y ≤ 3/4, } são independentes?

- 6

1 x 0

y 1

A

B P (A ∩ B) = 1/24 = P (A) × P (B)

∴ A e B são independentes.

(10)

3. Variáveis aleatórias e distribuições discretas

Numa experiência aleatória, independentemente de o seu espaço de re- sultados ser expresso numericamente, tem interesse em considerar-se funções reais, conhecidas por variáveis aleatórias.

Exemplo 3.1: Numa urna com 5 peças defeituosas (D) e 4 perfeitas ( D), ¯ retiram-se ao acaso 2 duas peças sem reposição. Seja X o número de peças defeituosas nas duas peças retiradas.

P (X = 0) = P ( ¯ D

1

∩ D ¯

2

) =

49

×

38

=

1272

P (X = 1) = P ( ¯ D

1

∩ D

2

) + P (D

1

∩ D ¯

2

) =

4072

P (X = 2) = P (D

1

∩ D

2

) =

2072

NOTAS DE PROBABILIDADES E ESTAT´ISTICA - GS – 19/208

Variáveis aleatórias. Função de distribuição.

Definição 3.1: Uma variável aleatória (v.a.) é uma função que associa um número real a cada ponto do espaço de resultados de uma experiên- cia aleatória.

Rigorosamente, dado um espaço de probabilidade (Ω, A, P ), uma var- iável aleatória X é uma função com domínio Ω e contradomínio na recta real (X : Ω → IR) tal que o conjunto A

r

≡ {w ∈ Ω : X(ω) ≤ r} ∈ A,

∀ r ∈ IR.

As variáveis aleatórias podem assumir um número finito ou infinito de valores possíveis.

Definição 3.2: Dada uma variável aleatória X , a função de distribuição (cumulativa) de X é dada por

F

X

(x) ≡ P (X ≤ x), ∀ x ∈ IR.

(11)

Variáveis aleatórias discretas.

Definição 3.3: Se o conjunto dos possíveis valores de uma variável aleatória for finito ou infinito enumerável, a v.a. é dita ser discreta.

Função (massa) de probabilidade.

Definição 3.4: Dada uma variável aleatória discreta X com os possíveis valores x

1

, x

2

, . . ., a função

f

X

(x

i

) = P (X = x

i

)

denota a probabilidade de ocorrência de {x

i

}, conhecida por função (massa) de probabilidade (f.m.p.), satisfazendo as seguintes condições:

1. f

X

(x

i

) > 0, ∀ i = 1, 2, . . ..

2. P

i≥1

f

X

(x

i

) = 1.

NOTAS DE PROBABILIDADES E ESTAT´ISTICA - GS – 21/208

Exemplo 3.1a: Na extracção, sem reposição, de 2 peças da urna com 5 peças defeituosas e 4 perfeitas, qual a função massa de probabilidade de X (número de peças defeituosas nas 2 peças retiradas)? E a sua função de distribuição?

f

X

(x) =

 

 

 

 

12

72

, x = 0;

40

72

, x = 1;

20

72

, x = 2;

0, c.c.

-

6

x fX(x)

0 1 2

1

F

X

(x) =

 

 

 

 

0, x < 0;

12

72

, 0 ≤ x < 1;

52

72

, 1 ≤ x < 2;

1, x ≥ 2.

-

6

x FX(x)

0 1 2 · · ·

1

(12)

Exemplo 3.1b: Na urna com 5 peças defeituosas (D) e 4 perfeitas ( D), ¯ retiram-se peças com reposição até à primeira peça defeituosa. Seja Z o número de peças perfeitas até encontrar a primeira peça defeituosa.

Qual a função massa de probabilidade de Z ? P (Z = 0) = P (D

1

) =

59

P (Z = 1) = P ( ¯ D

1

∩ D

2

) =

49

×

59

P (Z = 2) = P ( ¯ D

1

∩ D ¯

2

∩ D

3

) = (

49

)

2

×

59

.. . .. .

P (Z = z) = (

49

)

z

×

59

= f

Z

(z ), z = 0, 1, . . . , que é a função massa de probabilidade de Z , satisfazendo:

f

Z

(z ) > 0, ∀ z = 0, 1, . . ..

X

z=0

f

Z

(z ) = (

59

)

X

z=0

(

49

)

z

= (

59

)

1−(4/9)1

= 1.

NOTAS DE PROBABILIDADES E ESTAT´ISTICA - GS – 23/208

Propriedades da função de distribuição.

Seja X uma v.a. discreta com função de probabilidade f

X

(x). A função de distribuição de X , F

X

(x), satisfaz as seguintes propriedades:

P

1

: Se x ≤ y, então F

X

(x) ≤ F

X

(y). Ou seja, F

X

é uma função não decrescente.

P

2

: Se x

n

↓ x (n → ∞), então F

X

(x

n

) ↓ F

X

(x). Ou seja, F

X

é uma função contínua à direita.

P

3

: Se x

n

↓ −∞ (n → ∞), então F

X

(x

n

) ↓ 0 com F

X

(−∞) = 0.

P

4

: Se x

n

↑ ∞ (n → ∞), então F

X

(x

n

) ↑ 1 com F

X

(∞) = 1.

Note-se ainda que, se F

X

(x) é a função de distribuição de X (v.a. disc- reta com os possíveis valores x

1

, x

2

, . . .), a função massa de probabili- dade é dada

f

X

(x

i

) = P (X = x

i

) = F

X

(x

i

) − F

X

(x

i−1

).

(13)

Valor esperado e variância.

Definição 3.5: Dada uma v.a. discreta X com f.m.p. f

X

(x

i

), i = 1, 2, . . ., o valor esperado (ou valor médio ou esperança) de X é dado por

E(X ) = X

i≥1

x

i

f

X

(x

i

).

Definição 3.6: Dada uma variável aleatória discreta X com função de probabilidade f

X

(x

i

), i = 1, 2, . . ., a variância de X é dada por

V ar(X ) = X

i≥1

(x

i

− E(X))

2

f

X

(x

i

).

Outras medidas de dispersão:

Desvio padrão: DP (X) = + p

V ar(X ).

Coeficiente de variação: CV (X ) = DP (X)/|E(X )|.

NOTAS DE PROBABILIDADES E ESTAT´ISTICA - GS – 25/208

Moda e quantis.

Definição 3.7: Dada uma v.a. discreta X com f.m.p. f

X

(x

i

), i = 1, 2, . . ., a moda e a mediana de X são dadas, respectivamente, por

i) m

o

(X) = x

o

: max

i≥1

f

X

(x

i

) = f

X

(x

o

).

ii) m

d

(X) = x

d

: P (X ≤ x

d

) ≥ 0.5 e P (X ≥ x

d

) ≥ 0.5.

Se x

i

∈ IN , pode-se encontrar x

o

usando as relações

f

X

(x

o

)/f

X

(x

o

− 1) ≥ 1 e f

X

(x

o

)/f

X

(x

o

+1) ≥ 1.

Definição 3.8: Dado qualquer número p, 0 < p < 1, o p-ésimo quantil de uma variável aleatória X, denotado por q

p

, é dado por

P (X ≤ q

p

) ≥ p e P (X ≥ q

p

) ≥ 1 − p.

Note-se que a mediana é o quantil q

0.5

.

(14)

Exemplo 3.2: Num lançamento de um dado, um jogador aposta 5 euros nas seguintes condições: i) Se sair face 6, ele ganha 4 vezes o montante apostado; ii) Se sair face 4 ou 5, ele ganha 5 euros; iii) caso contrário, ele nada ganha. Qual o lucro (X ) esperado do jogador?

X −5 0 15

f

X

(x) 1/2 1/3 1/6

E(X) = X

x

x f

X

(x) = 0 euro.

E o lucro modal e mediano? m

o

(X) = −5 euros. m

d

(X ) = {0, −5}

euros. E a variância de X?

V ar(X) = X

x

x

2

f

X

(x) = 50 euros

2

.

NOTAS DE PROBABILIDADES E ESTAT´ISTICA - GS – 27/208

Algumas das suas propriedades.

Teorema 3.1: Seja X uma variável aleatória discreta com f.m.p. f

X

(x

i

), i = 1, 2, . . ., e g(X ) uma função de X . O valor esperado de g(X ) é

E(g(X )) = X

i≥1

g(x

i

)f

X

(x

i

).

Se g(X) = X

k

(k inteiro positivo), o valor esperado E(X

k

) é con- hecido por momento (ordinário) de ordem k de X .

Se X uma variável aleatória com valor esperado E(X ) e variância V ar(X ), têm-se as seguintes propriedades:

P

1

: E(aX + b) = aE(X ) + b, a 6= 0 e b constantes.

P

2

: V ar(aX + b) = a

2

V ar(X), a 6= 0 constante.

P

3

: V ar(X) = E(X

2

) − E(X)

2

.

(15)

Funções de variáveis aleatórias.

Seja X uma variável aleatória definida no espaço de resultados Ω as- sociado à experiência aleatória E. Se y = g(x) é uma função real (mensurável) de x, com x = X(ω) para algum ω ∈ Ω, então Y = g(X ) é também uma variável aleatória definida no mesmo espaço de proba- bilidade.

Se X é uma variável aleatória discreta com f.m.p. f

X

(x) e con- tradomínio D = {x

1

, x

2

, . . .}, então Y = g(X) é também uma variável aleatória discreta com f.m.p.

f

Y

(y) = P (Y = y) = P (X ∈ A

y

) = X

xi∈Ay

f

X

(x

i

), y ∈ D

onde A

y

= {x ∈ D : g(x) = y} e D

= g(D) é o contradomínio de Y .

NOTAS DE PROBABILIDADES E ESTAT´ISTICA - GS – 29/208

Distribuição uniforme discreta.

Definição 3.9: Diz-se que uma variável aleatória X tem distribuição uniforme discreta se todos os seus valores x

1

, . . . , x

k

são igualmente prováveis, com f.m.p dada por

f

X

(x) =

( 1/k, x = x

1

, . . . , x

k

; 0, c.c.

O valor esperado e a variância de uma variável aleatória X com dis- tribuição uniforme discreta {1, . . . , k} são, respectivamente,

E(X) = 1 k

k

X

i=1

x

i

e V ar(X ) = 1 k

k

X

i=1

x

2i

− 1

k

k

X

i=1

x

i

2

.

(16)

Distribuição hipergeométrica.

Definição 3.10: Considere uma população com N elementos dos quais M possuem uma certa característica (sucesso). Retira-se uma amostra, sem reposição, de dimensão n, anotando-se o número X de elementos com a característica na amostra. A distribuição de probabilidade da v.a.

X é designada distribuição hipergeométrica, cuja f.m.p. é

f

X

(x) =

(

Mx

)(

NnMx

)

(

Nn

) , max(0, n+M − N ) ≤ x ≤ min(n, M );

0, c.c.

O valor esperado e a variância de uma variável aleatória X com dis- tribuição hipergeométrica (N, M, n) são, respectivamente,

E(X) = n M

N e V ar(X) = n M N

N − M N

N − n N − 1 .

NOTAS DE PROBABILIDADES E ESTAT´ISTICA - GS – 31/208

Exemplo 3.3: Seja X uma v.a. com distribuição uniforme discreta {1, . . . , 6}. Qual a variância de X ?

E(X ) =

16

P

6

i=1

i = 3.5 E(X

2

) =

16

P

6

i=1

i

2

≃ 15.167

V ar(X) = E(X

2

) − E(X)

2

≃ 2.917

Exemplo 3.4: Numa turma de 10 estudantes dos quais 3 são mulheres, 2 estudantes foram sorteados para formar uma comissão. Qual a proba- bilidade de haver pelo menos uma mulher na comissão?

Seja X o número de mulheres na comissão de 2 estudantes.

X ∼ Hipergeométrica(N = 10, M = 3, n = 2).

P (X ≥ 1) = 1 − P (X = 0) ≃ 0.533

(17)

Distribuição binomial.

Definição 3.11: Uma experiência aleatória com somente dois resulta- dos possíveis, sucesso (ocorrência de um acontecimento de interesse) e fracasso (caso contrário) é conhecida por ensaio de Bernoulli, cuja v.a.

subjacente é dada por X =

( 1, se ocorrência de sucesso;

0, se ocorrência de fracasso e a sua função massa de probabilidade é dada por

f

X

(x) =

( p

x

(1 − p)

1−x

, x = 0, 1;

0, c.c.,

onde p = P (X = 1) é a probabilidade de sucesso, 0 < p < 1. Conse- quentemente, E(X ) = p e V ar(X) = p(1 − p).

NOTAS DE PROBABILIDADES E ESTAT´ISTICA - GS – 33/208

Definição 3.12: Considere uma experiência aleatória com n ensaios de Bernoulli independentes e todos com probabilidade de sucesso p. A v.a. correspondente ao número X de sucessos na experiência tem dis- tribuição binomial com parâmetros n e p, com f.m.p.

f

X

(x) = (

n

x

p

x

(1 − p)

n−x

, x = 0, 1, . . . , n;

0, c.c.

O valor esperado e a variância de X ∼ Binomial(n, p) são, re- spectivamente,

E(X ) = n p e V ar(X) = n p(1 − p).

Se X

i

∼ Bernoulli(p), i = 1, . . . , n, são v.a. independentes, então X = P

n

i=1

X

i

∼ Binomial(n, p).

Se X ∼ Binomial(n, p), então n −X ∼ Binomial(n, (1 − p)).

(18)

0 2 4 6 8 10

0.00.10.20.30.4

Distribuição Binomial (n=10,p=0.2)

x

f(x)

0 2 4 6 8 10

0.00.10.20.30.4

Distribuição Binomial (n=10,p=0.8)

x

f(x)

0 2 4 6 8 10

0.00.10.20.30.4

Distribuição Binomial (n=10,p=0.5)

x

f(x)

0 5 10 15 20 25 30

0.00.10.20.30.4

Distribuição Binomial (n=30,p=0.5)

x

f(x)

NOTAS DE PROBABILIDADES E ESTAT´ISTICA - GS – 35/208

Exemplo 3.5: Considere um teste de múltipla escolha com 10 questões, onde somente uma das 5 alíneas de cada questão está correcta. Qual a probabilidade de um aluno acertar pelo menos metade das questões fazendo o teste ao acaso?

Seja X o número de questões correctas no teste do aluno. X ∼ Binomial(n = 10, p = 1/5).

P (X ≥ 5) = 1 − F

X

(4) = 1 − 0.9219 = 0.0781

Qual a nota esperada desse aluno, se cada questão correcta vale 1? E a variância de X?

E(X) = 2 valores

V ar(X) = 1.6 valores

2

(19)

Distribuição geométrica.

Definição 3.13: Considere uma experiência aleatória envolvendo a re- alização de ensaios de Bernoulli independentes, com probabilidade de sucesso p, até à ocorrência do primeiro sucesso. A v.a. X número de ensaios realizados até à ocorrência do primeiro sucesso tem distribuição geométrica com parâmetro p, 0 < p < 1, com f.m.p.

f

X

(x) =

( (1 − p)

x−1

p, x = 1, 2, . . . ;

0, c.c.,

O valor esperado e a variância de X ∼ Geométrica(p) são, respectiva- mente,

E(X) = 1

p e V ar(X) = 1 − p p

2

.

NOTAS DE PROBABILIDADES E ESTAT´ISTICA - GS – 37/208

Teorema 3.2: (Propriedade da falta de memória) Se uma v.a. X ∼ Geométrica(p), então

P (X > i + j |X > j ) = P (X > i), ∀ i, j = 1, 2, . . . .

Exemplo 3.6: Seja X o número de lançamentos de um dado até ao surgimento da primeira face 6. Qual o número esperado de lançamentos do dado até sair face 6?

Como X ∼ Geométrica(p =

16

), E(X) = 6 lançamentos.

Qual a probabilidade de haver mais de 7 lançamentos, sabendo que já houve mais de 3 lançamentos do dado?

P (X > 7|X > 3) = P (X > 4) = X

x≥5

5 6

x−1

1

6 ≃ 0.4822

(20)

Distribuição de Poisson.

Definição 3.14: Em algumas experiências aleatórias, anota-se por vezes o número X de ocorrências de um evento de interesse num dado inter- valo de tempo, superfície, volume, etc. A v.a. X tem distribuição de Poisson de parâmetro λ quando a sua f.m.p. é dada por

f

X

(x) =

(

eλλx

x!

, x = 0, 1, 2, . . . ; 0, c.c.,

onde λ é a taxa (esperada) de ocorrência do evento de interesse.

O valor esperado e a variância de X ∼ Poisson(λ) são iguais a E(X) = V ar(X) = λ.

Neste cenário, X poderá representar, e.g., o número de chamadas telefónicas recebidas durante 1 hora num dado escritório.

NOTAS DE PROBABILIDADES E ESTAT´ISTICA - GS – 39/208

Teorema 3.3: Seja X o número de ocorrências de um evento de interesse num dado período de tempo (região). Se X ∼ Poisson(λ), então

X =

t

X

i=1

X

i

,

com X

i

∼ Poisson(

λt

), i = 1, . . . , t (independentes e identicamente distribuídas), sendo X

i

o número de ocorrências do evento em cada uma das t fracções do período de tempo (região).

Exemplo 3.7: Suponha que X é o número de passas de um bolo-rei oriundo de uma padaria que se sabe ter uma distribuição de Poisson com taxa média de 5 passas por bolo. Qual a probabilidade de encontrar pelo menos 1 passa em meio bolo-rei dessa padaria?

Seja X

o número de passas em meio bolo-rei produzido nessa padaria.

X

∼ Poisson(λ

= 2.5).

P (X

≥ 1) = 1 − P (X

= 0) = 1 − e

−2.5

≃ 0.918.

(21)

4. Variáveis aleatórias e distribuições contínuas

Exemplo 4.1: Seja X o momento de paragem do ponteiro dos minutos que avança continuamente num relógio avariado. Qual a probabilidade do ponteiro dos minutos parar nos 15 primeiros segundos?

P (X ≤ 15) = #pontos[0, 15]

#pontos[0, 60] = comprimento[0, 15]

comprimento[0, 60] = 15 60 = 1

4 . Note-se que P (X = 15) = 0 pois há infinitos pontos em [0, 60].

Variáveis aleatórias contínuas.

Definição 4.1: Se o conjunto dos possíveis valores de uma v.a. for infinito não enumerável, a v.a. diz-se contínua, em certas condições.

NOTAS DE PROBABILIDADES E ESTAT´ISTICA - GS – 41/208

Função densidade de probabilidade.

Definição 4.2: Diz-se que X é uma v.a. contínua, se existir uma função f

X

, denominada função densidade de probabilidade (f.d.p.) de X , sat- isfazendo as seguintes condições:

1. f

X

(x) ≥ 0, ∀ x ∈ IR.

2. R

−∞

f

X

(x)dx = 1.

3. Para qualquer conjunto B ∈ IR, P (X ∈ B) = R

B

f

X

(x)dx.

Se X é uma v.a. contínua com f.d.p. f

X

(x) e a e b constantes reais,

P (a ≤ X ≤ b) representa a área sob a função f

X

(x) entre a e b.

Se a = b em i), P (X = a) = R

a

a

f

X

(x)dx = 0.

f

X

(a) pode ser interpretada como a massa de probabilidade, para ǫ pequeno, por unidade de comprimento P (a −

2ǫ

≤ X ≤ a +

2ǫ

) = R

a+2ǫ

f

X

(x)dx ≈ ǫf

X

(a).

(22)

Definição 4.3: Dada uma v.a. contínua X com f.d.p. f

X

(x), a função de distribuição (cumulativa) de X é dada por

F

X

(x) ≡ P (X ≤ x) = Z

x

−∞

f

X

(u)du, ∀ x ∈ IR.

Se X é uma v.a. contínua com função de distribuição F

X

(x),

P (a < X ≤ b) = F

X

(b) − F

X

(a), sendo a e b constantes reais.

A f.d.p. de uma v.a. contínua X pode ser obtida pela derivação da sua função de distribuição, i.e. , f

X

(x) =

dxd

F (x), nos pontos de diferenciabilidade desta.

As propriedades da função de distribuição (Capítulo 3):

P

1

: Se x ≤ y, F

X

(x) ≤ F

X

(y).

P

2

: Se x

n

→ x (n →∞ ), F

X

(x

n

) → F

X

(x) (continuidade).

P

3

: Se x

n

→ −∞ (n →∞ ), F

X

(x

n

) → 0 com F

X

( −∞ ) = 0.

P

4

: Se x

n

→ ∞ (n →∞ ), F

X

(x

n

) → 1 com F

X

( ∞ ) = 1.

NOTAS DE PROBABILIDADES E ESTAT´ISTICA - GS – 43/208

Exemplo 4.2: Seja X o tempo de vida de uma componente electrónica.

Suponha que X é uma v.a. contínua com f.d.p. f

X

(x) = e

x

, se x > 0, e f

X

(x) = 0, caso contrário. Qual a função de distribuição de X ?

F

X

(x) = ( R

x

−∞

e

u

du = 1 − e

x

, x > 0;

0, x ≤ 0.

0 2 4 6 8 10

0.00.20.40.60.81.0

Função Densidade de Probabilidade

x

f(x)

0 2 4 6 8 10

0.00.20.40.60.81.0

Função de Distribuição

x

F(x)

(23)

Valor esperado e variância. Moda e quantis.

Definição 4.4: Dada uma v.a. contínua X com f.d.p. f

X

(x),

i) O valor esperado (ou valor médio ou esperança) de X é dado por E(X ) =

Z

−∞

x f

X

(x)dx.

ii) A variância de X é dada por V ar(X) =

Z

−∞

(x − E(X ))

2

f

X

(x)dx.

iii) A moda de X é m

o

(X ) = x

o

: max

x

f

X

(x) = f

X

(x

o

).

iv) A mediana de X é m

d

(X) = x

d

: P (X ≤ x

d

) = 0.5.

v) O p-ésimo quantil de X é q

p

: P (X ≤ q

p

) = p.

NOTAS DE PROBABILIDADES E ESTAT´ISTICA - GS – 45/208

Algumas das suas propriedades.

Teorema 4.1: Seja X uma v.a. contínua com f.d.p. f

X

(x) e g(X ) uma função de X . O valor esperado de g(X ) é

E(g(X)) = Z

−∞

g(x)f

X

(x)dx.

Note-se que o valor esperado E(X

k

), k inteiro positivo, é o momento (ordinário) de ordem k de X .

Algumas propriedades do valor esperado E(X) e variância V ar(X ) (Capítulo 3):

P

1

: E(aX + b) = aE(X ) + b, a 6 = 0 e b constantes.

P

2

: V ar(aX + b) = a

2

V ar(X), a 6 = 0 constante.

P

3

: V ar(X) = E(X

2

) − E(X)

2

.

(24)

Exemplo 4.3: A percentagem de uma substância (100X) em um certo composto químico é tal que X é uma v.a. descrita pela função

f

X

(x) =

( 20 x

3

(1 − x), 0 ≤ x ≤ 1;

0, c.c.

Será f

X

(x) uma f.d.p.? Sim.

i) f

X

(x) ≥ 0, ∀ x ∈ IR.

ii) R

1

0

20 x

3

(1 − x)dx = 20[

x44

x55

] |

10

= 20(

14

15

) = 1.

Qual a percentagem média da substância no composto?

E(X) = Z

1

0

x 20 x

3

(1 − x)dx = 20 x

5

5 − x

6

6

1

0

= 20 1

5 − 1 6

= 2 3

Aproximadamente 66.67%.

NOTAS DE PROBABILIDADES E ESTAT´ISTICA - GS – 47/208

Funções de variáveis aleatórias.

Seja X uma variável aleatória contínua com f.d.p. f

X

(x), −∞ < x <

∞ , e y = g(x) é uma função real de x diferenciável em todos os pontos do respectivo domínio e estritamente monótona, então Y = g(X) é também uma v.a. contínua com f.d.p.

f

Y

(y) = d

dy F

Y

(y) = d

dx F

X

(g

1

(y))

dx dy

= f

X

(g

1

(y))

dx dy , com g( −∞ ) < y < g( ∞ ).

Exemplo 4.4: Se X é uma v.a. contínua com f.d.p. f

X

(x) = 1, se 0 < x < 1, e 0, caso contrário, qual a f.d.p. de Y = e

X

?

f

Y

(y) = f

X

(log y)

d

dy log y

=

( 1/y, 1 < y < e;

0, c.c.

(25)

Distribuição uniforme contínua.

Definição 4.5: Diz-se que uma variável aleatória X tem distribuição uniforme contínua (ou rectangular) se, para qualquer ponto entre a e b (a < b), a sua f.d.p. é dada por

f

X

(x) = (

1

ba

, a < x < b;

0, c.c.

O valor esperado e a variância de uma v.a. X com distribuição uniforme contínua (a, b) são, respectivamente,

E(X ) = b + a

2 e V ar(X ) = (b − a)

2

12 .

NOTAS DE PROBABILIDADES E ESTAT´ISTICA - GS – 49/208

Exemplo 4.5: Sabe-se que o tempo X gasto por um aluno no trajecto de casa para a Escola pode ser qualquer valor entre 20 a 40 minutos (valores igualmente prováveis). Saindo de casa às 12:30 para assistir a aula das 13:00, qual a probabilidade de ele chegar atrasado?

Seja p a probabilidade de o aluno chegar atrasado à Escola. Se a v.a.

X ∼ Uniforme(20, 40),

p = P (X > 30) = Z

40

30

1

20 dx = 1 20 x

40

30

= 1 2 .

Em 12 dias, qual o número esperado de dias em que ele chega atrasado?

Seja Y o número de dias em que o aluno chega atrasado à Escola.

Supondo independência entre os tempos gastos nos 12 dias e a mesma probabilidade de atraso p, Y ∼ Binomial(n = 12, p = 0.5) e, por conseguinte,

E(Y ) = n p = 12 × 0.5 = 6 dias.

(26)

Distribuição normal.

Definição 4.6: Diz-se que uma v.a. contínua X tem distribuição normal (ou gaussiana) com média µ e variância σ

2

, denotada por N (µ,σ

2

), se a sua f.d.p. é dada por

f

X

(x) = 1

√ 2 π σ exp

− 1

2 σ

2

(x − µ)

2

, −∞ < x < ∞ .

Propriedades da curva gaussiana f

X

(x):

Como a função é simétrica em relação a µ, a mediana de X é µ.

f

X

(x) atinge o ponto máximo em x = µ com valor 1/( √

2 π σ) e portanto a moda de X é µ.

A curva gaussiana tem 2 pontos de inflexão em x = µ ± σ.

NOTAS DE PROBABILIDADES E ESTAT´ISTICA - GS – 51/208

−4 −2 0 2 4 6

0.00.20.40.60.81.0

Função Densidade de Probabilidade − Normal

x

f(x)

N(0,1) N(1,2) N(−1,0.5)

(27)

Teorema 4.2: Se uma v.a. X ∼ N (µ, σ

2

), Y = aX + b ∼ N (aµ + b, a

2

σ

2

), com a e b constantes reais.

Corolário 4.1: Se uma v.a. X ∼ N (µ, σ

2

), então Z = (X − µ)/σ ∼ N (0, 1), conhecida por distribuição normal reduzida (ou padronizada), cujas probabilidades encontram-se em tabelas.

Exemplo 4.6: Suponha que a altura X dos alunos de uma turma de PE tem distribuição normal com média µ = 160cm e desvio padrão σ = 20cm. Qual a probabilidade de um aluno seleccionado ao acaso ter altura ente 150 e 170 cm?

P (150 < X < 170) = P

150160

20

<

Xσµ

<

17020160

= P ( − 0.5 < X < 0.5) = F

Z

(0.5) − F

Z

( − 0.5)

= 0.6915 − 0.3085

= 0.383.

NOTAS DE PROBABILIDADES E ESTAT´ISTICA - GS – 53/208

Distribuição exponencial.

Definição 4.7: Diz-se que uma v.a. contínua X tem distribuição expo- nencial, com parâmetro λ > 0, se a sua f.d.p. é dada por

f

X

(x) =

( λe

λ x

, x ≥ 0;

0, c.c.

Esta distribuição é bastante utilizada para descrever tempos de vida de componentes ou animais em estudos de Análise de Fiabilidade e Sobre- vivência.

O valor esperado e a variância de uma v.a. X com distribuição expo- nencial (λ) são, respectivamente,

E(X ) = 1

λ e V ar(X) = 1

λ

2

.

(28)

Exemplo 4.7: Suponha que o tempo X de falha de duas componentes electrónicas tem distribuição exponencial com média de 5 hs (compo- nente C

1

) e de 10 hs (C

2

). Considere ainda que elas estão ligadas num sistema em paralelo e que o funcionamento de cada uma não depende do da outra. Qual a fiabilidade do sistema após 20 horas?

A fiabilidade do sistema com as duas componentes em pararelo é a prob- abilidade de pelo menos uma componente funcionar, denotada por

P (C

1

∪ C

2

) = P (C

1

) + P (C

2

) − P (C

1

∩ C

2

)

= 0.0183 + 0.1353 − 0.0183 × 0.1353

= 0.1511,

uma vez que elas são independentes e a fiabilidade de cada uma é P (C

1

) = P (X

1

> 20) = R

20 1

5

e

15x1

dx

1

= e

205

= e

4

= 0.0183, P (C

2

) = P (X

2

> 20) = R

20 1

10

e

101 x2

dx

2

= e

2010

= e

2

= 0.1353.

NOTAS DE PROBABILIDADES E ESTAT´ISTICA - GS – 55/208

Teorema 4.3: (Propriedade da falta de memória) Se uma v.a. X ∼ Exponencial(λ), então

P (X > s + t | X > t) = P (X > s), ∀ s, t ≥ 0.

Teorema 4.4: Seja N

t

o número de ocorrências num intervalo de tempo de comprimento t, com N

t

∼ Poisson(λ t). Considere ainda que X

1

é o tempo decorrido até à primeira ocorrência, enquanto X

i

, i > 1, é o tempo decorrido entre as ocorrências i − 1 e i. A sequência X

1

, X

2

, . . . é formada por v.a. independentes e identicamente distribuídas com X

i

∼ Exponencial(λ), i = 1, 2, . . ., onde λ é a taxa média de ocorrências por unidade de tempo. Nomeadamente,

P (X

1

> t) = P (N

t

= 0) = e

λ t

⇔ X

1

∼ Exponencial(λ).

P (X

2

> t) = P (X

2

> t | X

1

= s) = P (N

(s,s+t]

= 0 | X

1

= s) =

P (N

(s,s+t]

= 0) =

P (N

t

= 0) = e

λ t

⇔ X

2

∼ Exponencial(λ).

* pela suposição de independência e estacionaridade das ocorrências.

(29)

5. Distribuições conjuntas de probabilidade e complementos

Por vezes, a observação de uma única variável não é suficiente para explicar um fenómeno aleatório, sendo necessário observar mais do que uma variável aleatória (caso multivariado) e, por conseguinte, definir as funções de probabilidade conjunta.

Duas variáveis aleatórias discretas ou contínuas.

Exemplo 5.1: Sejam X e Y os números de cartas rei/dama e ás em 2 cartas retiradas (sem reposição) de um baralho com 52 cartas, respecti- vamente. Quais as probabilidades conjuntas (não nulas) do par aleatório (X, Y )?

NOTAS DE PROBABILIDADES E ESTAT´ISTICA - GS – 57/207

P (X = 0, Y = 0) =

80

4

0

40

2

/

522

= 780/1326 ≃ 0.589 P (X = 0, Y = 1) =

80

4

1

40

1

/

522

= 160/1326 ≃ 0.121 P (X = 0, Y = 2) =

80

4

2

40

0

/

522

= 6/1326 ≃ 0.004 P (X = 1, Y = 0) =

81

4

0

40

1

/

522

= 320/1326 ≃ 0.241 P (X = 1, Y = 1) =

81

4

1

40

0

/

522

= 32/1326 ≃ 0.024 P (X = 2, Y = 0) =

82

4

0

40

0

/

522

= 28/1326 ≃ 0.021

X \ Y 0 1 2

0 0.589 0.121 0.004 0.714

1 0.241 0.024 0 0.265

2 0.021 0 0 0.021

0.851 0.145 0.004 1

(30)

Distribuições conjuntas.

Definição 5.1: Se X e Y são duas v.a. discretas (contínuas), a sua função massa (densidade) de probabilidade conjunta é uma função f

X,Y

(x, y), satisfazendo as seguintes condições:

1. f

X,Y

(x, y) ≥ 0, ∀ (x, y).

2. P

x

P

y

f

X,Y

(x, y) = 1 (caso discreto), R

IR

R

IR

f

X,Y

(x, y) dxdy = 1 (caso contínuo).

Definição 5.2: Dado um par aleatório (X, Y ), a sua função de dis- tribuição conjunta é dada por

F

X,Y

(x, y) = P (X ≤ x, Y ≤ y)

= ( P

ux

P

vy

f

X,Y

(u, v) (caso discreto), R

x

−∞

R

y

−∞

f

X,Y

(u, v) dvdu (caso contínuo).

NOTAS DE PROBABILIDADES E ESTAT´ISTICA - GS – 59/207

Propriedades da função de distribuição F

X,Y

(x, y) de um par aleatório (X, Y ):

P

1

: F

X,Y

(x, y) é uma função não decrescente em cada uma das var- iáveis, e.g., ∀ x, y

1

≤ y

2

, F

X,Y

(x, y

1

) ≤ F

X,Y

(x, y

2

).

P

2

: F

X,Y

(x, y) é uma função contínua à direita em cada uma das var- iáveis, e.g., se x

n

↓ x (n →∞ ), então F

X,Y

(x

n

, y) ↓ F

X,Y

(x, y).

P

3

: lim

x,y→−∞

F

X,Y

(x, y) = lim

x→−∞

F

X,Y

(x, y) = lim

y→−∞

F

X,Y

(x, y) = 0.

P

4

: lim

x,y→∞

F

X,Y

(x, y) = 1.

Note-se que a função densidade de probabilidade conjunta de (X, Y ) pode ser obtida a partir da respectiva função de distribuição por difer- enciação, nos pontos (x, y) de diferenciabilidade desta, i.e.,

f

X,Y

(x, y) = ∂

2

∂x∂y F

X,Y

(x, y).

(31)

Exemplo 5.2: Num sistema com 2 componentes electrónicas, seja X (Y ) a duração (em horas) da sua primeira (segunda) componente. Será f

X,Y

(x, y) abaixo uma f.d.p. conjunta do par aleatório (X, Y )?

f

X,Y

(x, y) =

( e

xy

, x > 0, y > 0;

0, c.c.

f

X,Y

(x, y) ≥ 0, ∀ (x, y) ∈ IR

2

,

Z

−∞

Z

−∞

f

X,Y

(x, y) dxdy = Z

0

e

y

Z

0

e

x

dxdy

= Z

0

e

y

[ − e

x

]

0

dy

= Z

0

e

y

dy = [ − e

y

]

0

= 1.

Sim, f

X,Y

(x, y) é uma f.d.p. conjunta.

NOTAS DE PROBABILIDADES E ESTAT´ISTICA - GS – 61/207

Qual a probabilidade de as duas componentes durarem no máximo 2 horas?

P (X ≤ 2, Y ≤ 2) = F

X,Y

(2, 2) = R

2 0

R

2

0

e

xy

dxdy

= R

2

0

e

y

( − e

x

) |

20

dy = (1 − e

2

)( − e

y

) |

20

= (1 − e

2

)

2

≃ 0.7477

Qual a probabilidade de a primeira componente durar mais do que a segunda?

- 6

A x

y P (X > Y ) = R R

A

f

X,Y

(x, y) dxdy

= R

0

R

y

e

xy

dxdy

= R

0

e

y

( − e

x

) |

y

dy

= R

0

e

2y

dy = 0.5( − e

z

) |

0

= 0.5

(32)

Distribuições marginais.

Definição 5.3: Dado um par aleatório (X, Y ) de v.a. discretas (contínuas) com função massa (densidade) de probabilidade conjunta f

X,Y

(x, y), as funções massa (densidade) de probabilidade marginais de X e de Y são, respectivamente, dadas por

f

X

(x) = X

y

f

X,Y

(x, y)

Z

IR

f

X,Y

(x, y) dy

, f

Y

(y) = X

x

f

X,Y

(x, y)

Z

IR

f

X,Y

(x, y) dx

.

Note-se que as funções f

X

(x) e f

Y

(y) satisfazem as propriedades de f.m.p (f.d.p.), estando associadas igualmente a funções de distribuição (marginais). Por exemplo, se (X, Y ) é contínuo: i) f

X

(x) ≥ 0, ∀ x ∈ IR; ii) R

−∞

f

X

(x)dx = 1; iii) F

X

(x) = P (X ≤ x) = R

x

−∞

f

X

(u)du.

NOTAS DE PROBABILIDADES E ESTAT´ISTICA - GS – 63/207

Exemplo 5.2a: No sistema com duas componentes electrónicas, qual a função de distribuição conjunta de (X, Y ), sendo X e Y as durações das componentes?

F

X,Y

(x, y) = R

y

−∞

R

x

−∞

f

X,Y

(u, v)dudv

x,y>0

= R

y 0

R

x

0

e

uv

dudv

= R

y

0

e

v

( − e

u

) |

x0

dv = (1 − e

x

) R

y

0

e

v

dv,

=

( (1 − e

x

)(1 − e

y

), x, y > 0;

0, c.c.

E as funções densidade de probabilidade marginais de X e Y ? f

X

(x)

x>0

= R

0

e

xy

dy = e

x

( − e

y

) |

0

= (

e

x

, x > 0;

0, c.c.

f

Y

(y)

y>0

= R

0

e

xy

dx = e

y

( − e

x

) |

0

= (

e

y

, y > 0;

0, c.c.

Referências

Documentos relacionados

Banorte tem.... — Num Estado que tem 90% dos seus 53 mil quilômetros quadrados, encravados na região do semi-árido, não se pode pensar em promover a agricultura usando os

dois gestores, pelo fato deles serem os mais indicados para avaliarem administrativamente a articulação entre o ensino médio e a educação profissional, bem como a estruturação

Para analisar as Componentes de Gestão foram utilizadas questões referentes à forma como o visitante considera as condições da ilha no momento da realização do

A pesquisa pode ser caracterizada como exploratória e experimental em uma primeira etapa (estudo piloto), na qual foram geradas hipóteses e um conjunto de observáveis, variáveis

São considerados custos e despesas ambientais, o valor dos insumos, mão- de-obra, amortização de equipamentos e instalações necessários ao processo de preservação, proteção

Considerando a contabilidade como centro de gestão da informação, os autores defendem o aprimoramento de uma visão sistêmica ao profissional, como também uma maior compreensão

29. Na especificação da receita e da despesa é utilizada a tabela de Medidas que consta do Anexo IV. O Orçamento inscrito em projetos e atividades abrange as despesas

Outro aspecto a ser observado é que, apesar da maioria das enfermeiras referirem ter aprendido e executado as fases do processo na graduação, as dificuldades na prática