Probabilidade 1
José Carlos Fogo
Sumário
1 Conceitos Básicos e Definições 3
1.1 Relações entre conjuntos . . . 3
1.2 Algumas definições em probabilidade: . . . 6
1.3 Medidas de probabilidade. . . 9
1.3.1 Axiomas de Kolmogorov e espaço de probabilidade . . . 9
1.4 Propriedades das probabilidades . . . 11
1.5 Probabilidade condicional e teorema de Bayes . . . 15
1.5.1 Probabilidade condicional . . . 16 1.5.2 Teorema de Bayes . . . 19 1.5.3 Independência de eventos . . . 24 1.6 Contagem . . . 29 1.6.1 Amostras ordenadas . . . 29 1.6.2 Permutações . . . 32 1.6.3 Amostras Desordenadas . . . 33 1.6.4 Partições . . . 36 2 Variáveis Aleatórias 42 2.1 Variáveis Aleatórias Discretas . . . 43
2.2 Principais modelos de discretos . . . 48
2.2.1 Variável Aleatória Constante . . . 48
2.2.2 Distribuição uniforme discreta . . . 49
2.2.3 Distribuição de Bernoulli . . . 51
2.2.4 Distribuição binomial . . . 52
2.2.5 Distribuição geométrica . . . 56
2.2.6 Distribuição binomial negativa . . . 60
2.2.7 Distribuição hipergeométrica. . . 62
2.2.8 Distribuição de Poisson . . . 67
2.2.9 Distribuições discretas no
R
. . . 733 Valor esperado e momentos de uma v.a. discreta 76 3.1 Valor esperado de uma v.a. discreta . . . 76
3.2 Propriedades de Esperança . . . 78
3.3 Variância de uma v.a. discreta . . . 82
3.3.1 Propriedades de Variância . . . 83
1
Conceitos Básicos e Definições
Estudos de fenômenos ou experimentos aleatórios ⇓
Busca-se avaliar a probabilidade de ocorrência desses fenômenos.
APLICAÇÕES:
•teoria dos jogos •evolução de doenças
•controle de defeitos •evolução do crescimento populacional
•teoria da decisão •indústria bélica
1.1
Relações entre conjuntos
i) UNIÃO:NotaçãoA ∪ B,
sejam A e B eventos quaisquer, a união entre A e B é dada pelos elementos que pertencem aAou aB ;
ii) INTERSECCÃO:NotaçãoA ∩ B ouAB,
sejam A e B conjuntos quaisquer, a intersecção entre A e B é dada pelos elementos que pertencem simultaneamente aAe aB ;
iii) COMPLENTAR:NotaçãoAc;
sejam A e B conjuntos tais que A ⊂ B, então, o evento complementarAc de A, em relação àB, é dado pelos elementos deBque não pertencem aA, ou seja,A∪Ac= B;
iv) DIFERENÇA:NotaçãoB − A;
sejamAeB conjuntos quaisquer, então, a diferençaB − Aé dada pelos elementos de
B que não pertencem aA, ou seja,B − A = B ∩ Ac = BAc;
Nota: SeB ⊃ A, então,B − A = Ac;
v) DIFERENÇA SIMÉTRICA:Notação A M B;
é dada pelos elementos que pertencem exclusivamente aAou aB, ou seja,
A M B = (A ∩ Bc) ∪ (Ac∩ B) = (A − B) ∪ (B − A);
vi) CONJUNTOS DISJUNTOS:dois conjuntosAe B são disjuntos, ou mutuamente exclu-sivos, se a intersecção entre eles é vazia, ou seja,A ∩ B = ∅;
vi) PARTIÇÃO:os conjuntosA1, A2, . . . , Ak⊂ Ωformam um partição deΩse são disjuntos
dois-a-dois e se a união entre eles é igual aΩ, ou seja
– Ai∩ Aj = ∅, ∀ i 6= j; – k [ i=1 Ai = Ω.
vi) LEIS DE MORGAN: considere uma sequência qualquer de eventos A1, A2, . . ., então,
segundo as leis de Morgan, valem as relações
∞ [ i=1 Ai !c = ∞ \ i=1 Aci; ∞ \ i=1 Ai !c = ∞ [ i=1 Aci.
DEMONSTRAÇÃO VISUAL DAS LEIS DE MORGAN:
Ω B A C AUBUC (AUBUC)c
Figura 1.1: Diagrama de Venn para a união( A ∪ B ∪ C )c
Ω Ac A Ω B Bc Ω C Cc
Ω
B A
C
Figura 1.3: Diagrama de Venn para a intersecçãoAc ∩ Bc ∩ Cc
DEMONSTRAÇÃO FORMAL DAS LEIS DE MORGAN:1a parte (Magalhães ou Hoel)
IDEIA:mostrar que
i) ∞ [ i=1 Ai !c ⊂ ∞ \ i=1 Aci ; ii) ∞ [ i=1 Ai !c ⊃ ∞ \ i=1 Aci .
RESULTADO:SejamAeB conjuntos quaisquer, então, seA ⊂ BeA ⊃ B=⇒A = B.
Prova da parte (i):
Sejaw ∈ ( ∞ [ i=1 Ai)c=⇒w /∈ ∞ [ i=1 Ai =⇒w /∈ Ai, ∀ i = 1, 2, . . .
Desta forma,w ∈ Aci, ∀i = 1, 2, . . .=⇒w ∈
∞
\
i=1
Aci,
o que prova a parte (i).
Prova da parte (ii):
Sejaw ∈ ∞ \ i=1 Aci =⇒w ∈ Aci =⇒w /∈ Ai, ∀ i = 1, 2, . . . Desta forma,w /∈ ∞ [ Ai, ∀ i = 1, 2, . . . =⇒w ∈ ( ∞ [ Ai)c,
o que prova completa a prova.
1.2
Algumas definições em probabilidade:
a) EXPERIMENTO ALEATÓRIO:é um experimento no qual
– todos os resultados possíveis são conhecidos antecipadamente;
– uma realização do experimento resulta num dos possíveis resultados;
– pode ser repetido em condições idênticas.
Exemplo: Considere uma caixa combbolas numeradas de1a b. Uma bola é retirada e seu número é anotado.
b) ESPAÇO AMOSTRAL:é o conjunto dos resultados possíveis para um experimento ale-atório. É denotado porΩ.
Pode ser:
i) Discreto
Finito: formado por um conjunto finito de pontos; Infinito: conjunto infinito e enumerável de pontos; ii) Contínuo: formado por um conjunto não enumerável de pontos.
Exemplo: No experimento da retirada de uma bola de uma da caixa, Ωé um espaço amostral finito dado pelo conjunto comb pontos, no casoΩ = { 1, 2, . . . , b }.
c) EVENTO: um evento é qualquer subconjunto do espaço amostralΩ, associado a um experimento.
Notas:
1) Os eventos serão identificados por letras de fôrma e maiúsculas do algarismo ará-bico, por exemploA, B, C, . . ..
2) Aos eventos é que serão associadas probabilidades;
Exemplo: Na retirada de uma bola da caixa seja o eventoAdefinido por:
A = {o resultado é um número par}.
i) Evento Complementar: Seja um evento qualquerA ⊂ Ω, então, seu evento com-plementarAcserá definido pelos elementos deΩque não estão emA.
Um eventoAe seu complementarAcsão tais queA ∪ Ac= Ω.
ii) Eventos Disjuntos: Dois eventos quaisquer A e B são disjuntos, ou mutuamente exclusivos seA ∩ B = ∅.
iii) Eventos Elementares: Seja um espaço amostral finito Ω = {ω1, ω2, . . . , ωN}, em
queωi,i = 1, 2, . . . , N são resultados elementares.
Um evento formado por um resultado elementar é chamado evento elementar. Neste caso,
Ai = {ωi}, i = 1, 2, . . . , N,
são eventos elementares.
Notas:
1) Sejam dois eventos elementaresAi eAj,i 6= j, então,Ai∩ Aj = ∅;
2) Qualquer evento pode ser escrito como uniões de eventos elementares. Particularmente,Ω = A1∪ A2∪ . . . ∪ AN.
Como o espaço amostral é finito, será associada uma probabilidadepi = 1/N para
cadaωi, i = 1, 2, . . . , N.
É intuitivo que0 ≤ pi ≤ 1e quep1 + p2+ . . . + pN = 1.
Se, além disso, o espaço amostral for equiprovável (ou homogêneo), então,
pi =
1
N ∀ ωi ∈ Ω, i = 1, 2, . . . , N.
d) σ-ÁLGEBRA:
Seja uma coleção não vazia A de subconjuntos de Ω aos quais desejamos associar probabilidades. EntãoA deve ser tal que, seAeB ∈ A, faz sentido calcular probabi-lidades de que
i) AouB ocorra, ou seja,(A ∪ B);
ii) AeB ocorram, ou seja,(A ∩ B);
iii) não ocorraA, ou seja,Ac.
i) Ω ∈A;
ii) seA ∈A =⇒Ac ∈A;
iii) seA ∈A eB ∈A =⇒(A ∪ B) ∈A.
entãoA é dita ser uma álgebra de subconjuntos (eventos) deΩ.
Além disso, deseja-se queA seja fechada também para um número infinito e enumerável de operações (uniões e intersecções).
Definição:A é uma σ-álgebrade subconjuntos (eventos) deΩse, e só se i) Ω ∈A; ii) seA ∈A =⇒Ac∈A; iii) seA1, A2, . . . ∈ A =⇒ ∞ [ i=1 Ai ∈A. Notas:
1) todaσ-álgebra é uma álgebra, porém, nem toda álgebra é uma σ-álgebra;
2) SejaA umaσ-álgebra deΩ, então, seA1, A2, . . . ∈A =⇒ ∞
\
i=1
Ai ∈A.
Exemplo: 1) Considere o lançamento de uma moeda, entãoΩ = { cara, coroa }
• A1 = { ∅, Ω } →menorσ-álgebra;
• A2 = { ∅, {cara}, {coroa}, Ω } →σ-álgebra, classe de todos os subconjuntos deΩ.
Exemplo: 2) Considere o espaço amostralΩ = { 1, 2, 3 }
• A1 = { ∅, Ω, {1}, {2, 3} } →é umaσ-álgebra
(todos os complementares e uniões estão presentes).
• A2 = { ∅, Ω, {1}, {2}, {1, 3}, {2, 3} } →não éσ-álgebra pois: {1} ∪ {2} /∈A2
1.3
Medidas de probabilidade
a) EM ESPAÇOS FINITOS: número de resultados favoráveis a um evento, dividido pelo número de resultados possíveis, assumindo que todos os resultados seja equiprováveis
P (A) = card(A) card(Ω)
em queΩ é o conjunto de resultados possíveis (espaço amostral).
b) GENERALIZAÇÃO PARA ESPAÇOS INFINITOS: seΩé uma região com uma medida bem definida, então
P (A) = medida deA medida deΩ
Exemplo: Um indivíduo realiza um tiro ao acaso num alvo circular de raioR. Qual a pro-babilidade de que acerte o círculo central de raior (r < R)?
R
Ω r
A
P (A) = área central(A) área do alvo(Ω) P (A) = πr 2 πR2 = r R 2
1.3.1 Axiomas de Kolmogorov e espaço de probabilidade
A definição a seguir é conhecida como Axiomas de Kolmogorov (Kolmogorov, 1933) e define uma medida de probabilidade.
MEDIDA DE PROBABILIDADE:SejaΩum espaço amostral eA umaσ-álbegra de even-tos deΩ. P (.)é uma medida de probabilidade em(Ω,A )se satisfaz
iii) seA1, A2, . . . formam uma seqüência disjunta, entãoP ∞ [ i=1 Ai ! = ∞ X i=1 P (Ai).
A trinca formada por(Ω,A , P )é chamada deESPAÇO DE PROBABILIDADE.
Um espaço de probabilidade é formado por um espaço amostral Ω, uma σ-álgebra de eventos deΩe uma medida de probabilidadeP (A) ∀ A ∈A.
Exemplo: 1) Número de ocorrências de um fenômeno.
Espaço amostral:Ω = { 1, 2, 3, . . . };
σ-álbegra:A = classe dos subconjuntos de Ω; Medida de probabilidade: P (k) = 1
2k,k = 1, 2, . . .
Checar os axiomas:
i) P (A)é dada pela soma de probabilidades de eventos elementaresωi ∈ A, i = 1, 2, . . .
=⇒P (A) ≥ 0, ∀ A; ii) ∞ X i=1 P (k) = 1/2 1 − 1/2 = 1 =⇒P (Ω) = 1;
iii) A união de eventos disjuntos, forma um conjunto ao se aplica o resultado (i), que equi-vale à soma das suas probabilidades individuais.
Exemplo: 2) Tempo de vida de pacientes.
Espaço amostral:Ω = { T ∈ R | 0 ≤ T < ∞ }; σ-álbegra:A = σ-álbegra de Borel;
Medida de probabilidade: P (A) = Z
A
e−xdx, em que A ⊆ Ω são intervalos no conjunto dos reais.
1.4
Propriedades das probabilidades
Considere que os conjuntos abaixo seja, eventos no espaço de probabilidade(Ω,A , P ). Então, tem-se que
a) P (A) = 1 − P (Ac);
Nota: caso especialP (∅) = 1 − P (Ω) = 0.
b) Sejam A e B eventos quaisquer, entãoP (B) = P (B ∩ A) + P (B ∩ Ac).
PROVA:i) para todo conjunto A tem-se queA ∪ Ac= Ω. ii) ComoB = B ∩ Ω = B ∩ (A ∪ Ac) = (B ∩ A) ∪ (B ∩ Ac)
iii) e como(B ∩ A)e(B ∩ Ac)são disjuntos, segue-se que
P (B) = P (B ∩ A) + P (B ∩ Ac).
Nota: SeA ⊂ B, entãoA ∩ B = AeP (B) = P (A) + P (B ∩ Ac).
c) SeA ⊂ B, entãoP (A) ≤ P (B).
PROVA:Sai direto da relação anterior e dos axiomas.
d) Se A e B são eventos quaisquer, entãoP (A ∪ B) = P (A) + P (B) − P (A ∩ B).
Ω A A
∩
Bc B Ac∩
B A∩
BPROVA:
i) Os conjuntos(A ∩ Bc),(A ∩ B)e(Ac∩ B)são disjuntos, logo. →A ∪ B = (A ∩ Bc) ∪ (A ∩ B) ∪ (Ac∩ B),
→P (A ∪ B) = P (A ∩ Bc) + P (A ∩ B) + P (Ac∩ B). ii) Tem-se, ainda, que
→P (A) = P (A ∩ Bc) + P (A ∩ B)e →P (B) = P (Ac∩ B) + P (A ∩ B).
iii) Somando-se as probabilidades em (ii) obtem-se
P (A) + P (B) = P (A ∩ Bc) + P (Ac∩ B) + P (A ∩ B) + P (A ∩ B), e, de (i) tem-se que
P (A) + P (B) = P (A ∪ B) + P (A ∩ B), de onde se conclui que
=⇒P (A ∪ B) = P (A) + P (B) − P (A ∩ B).
Notas: 1) Da relação (d) segue-se queP (B ∪ A) ≤ P (A) + P (B);
2) SeA e B são disjuntos, entãoP (B ∪ A) = P (A) + P (B).
e) Das propriedades (c) e (d) tem-seP (
n [ i=1 Ai) ≤ n X i=1 P (Ai).
PROVA:Por indução.
g) Das leis de Morgan tem-se que
P n [ i=1 Ai ! = 1 − P n \ i=1 Aci ! . g) PARTE 1: SeA1 ⊂ A2 ⊂ . . .e A = ∞ [ i=1 Ai ou PARTE 2: SeA1 ⊃ A2 ⊃ . . .e A = ∞ \ i=1 Ai,
então segue-se que lim
n→∞P (An) = P (A).
PROVA:(PARTE 1) → sejaB1 = A1;
→ para n ≥ 2, seja Bno conjunto de pontos que estão emAnmas não estão emAn−1,
ou sejaBn = An∩ Acn−1;
→ os conjuntos Bn,n = 1, 2, . . . são todos mutuamente exclusivos e, ainda
An = n [ i=1 Bi eA = ∞ [ i=1 Bi; → conseqüentemente: a)P (An) = n X i=1 P (Bi) , b)P (A) = ∞ X i=1 P (Bi) .
Desta forma, aplicando-se o limite paran → ∞ em (a), tem-se
lim n→∞P (An) = n→∞lim n X i=1 P (Bi) = ∞ X i=1 P (Bi) de(b) = P (A) ,
o que completa a prova.
PROVA:(PARTE 2) Exercício.
→ observar queA1 ⊃ A2 ⊃ . . .⇒Ac1 ⊂ A c
2 ⊂ . . ..
Exemplo: 1) Um dado equilibrado é lançadok = 2 vezes e os resultados anotados. O espaço amostral para o experimento é:
Ω =ω = (i, j) ∈ R2 | i = 1, . . . 6 e j = 1, . . . , 6
Sejam:
A = classe de todos os subconjuntos de Ω e
P = probabilidade uniforme para todos os pontos de Ω, ou seja, P ({ω}) = 1 card(Ω).
O número de eventos elementaresw’s é dado por card(Ω) = nk, em que
→ n total de resultados possíveis em uma realização do experimento, no caso n = 6, → k é o número de realizações do experimento, no caso k = 2.
Nesse caso, tem-se: card(Ω) = 36 ⇒ P ({ω}) = 1
36, ∀ ω ∈ Ω.
B = o resaultado do primeiro lançamento é um número ímpar; C = o produto é um número ímpar.
EncontrarP (A ∪ B)eP (A ∪ B ∪ C).
Pontos favoráveis a cada um dos eventos:
A = { (1,2), (1,4), (1,6), (3,2), (3,4), (3,6), (5,2), (5,4), (5,6), (2,1), (4,1), (6,1), (2,3), (4,3), (6,3), (2,5), (4,5), (6,5) }; B = { (1,1), (1,2), (1,3), (1,4), (1,5), (1,6), (3,1), (3,2), (3,3), (3,4), (3,5), (3,6), (5,1), (5,2), (5,3), (5,4), (5,5), (5,6) }; C = { (1,1), (1,3), (1,5), (3,1), (3,3), (3,5), (5,1), (5,3), (5,5) }. Resultados: I card(A) = 18 =⇒ P (A) = 18 36 = 1 2; I card(B) = 18 =⇒ P (B) = 18 36 = 1 2; I card(C) = 9 =⇒ P (C) = 9 36 = 1 4. Intersecções: i) A ∩ B = { (1,2), (1,4), (1,6), (3,2), (3,4), (3,6), (5,2), (5,4), (5,6) } ⇒ P (A ∩ B) = 1 4; ii) A ∩ C = { ∅ } ⇒ P (A ∩ C) = 0;
iii) como C ⊂ B, segue-se que B ∩ C = C, ⇒ P (B ∩ C) = P (C) = 1 4; iv) de (ii), tem-se que A ∩ B ∩ C = { ∅ } ⇒ P (A ∩ B ∩ C) = 0;
Da propriedade (d), tem-se que:
P (A ∪ B) = P (A) + P (B) − P (A ∩ B) = 1 2+ 1 2− 1 4 = 3 4
Para encontrarP (A ∪ B ∪ C) utiliza-se, ainda, a propriedade (d) fazendo:
P (A ∪ B ∪ C) = P [(A ∪ B) ∪ C] = P (A ∪ B) + P (C) − P [(A ∪ B) ∩ C] = P (A) + P (B) − P (A ∩ B) + P (C) − P [(A ∩ B) ∪ (B ∩ C)] = P (A) + P (B) + P (C) − P (A ∩ B) − P (A ∩ C) − P (B ∩ C) + P (A ∩ B ∩ C) = 1 2 + 1 2+ 1 4 − 1 4 − 1 4 = 3 4
Esse problema pode ser resolvido escolhendo-se um outro espaço amostral.
O lançamento de um dado pode ser representado porp se o resultado for par e por i se o resultado for ímpar. Assim sendo, o novo espaço amostral pode ser escrito por:
Ω1 = { (p, p), (p, i), (i, p), (i, i) }
Como o espaço amostral originalΩ é um espaço equiprovável, é fácil verificar que:
P [(p, p)] = P [(p, i)] = P [(i, p)] = P [(i, i)] = 1 4.
Pontos favoráveis a cada um dos eventos:
A = {(p, i), (i, p)} =⇒ P (A) = 2 4 =
1 2;
B = {(p, i), (i, i)} =⇒ P (B) = 2 4 =
1 2;
C = {(i, i)} =⇒ P (C) = 1 4.
1.5
Probabilidade condicional e teorema de Bayes
Em muitas situações, conhecimentos passados podem influenciar as probabilidades dos eventos.
Por exemplo, a probabilidade de chuva num determinado dia pode ser influenciada se choveu no dia anterior.
SejamA e B eventos quaisquer associados ao espaço de probabilidade (Ω,A , P ), então, para todoω ∈ Ω,
→ seω ∈ B, entãoω ∈ A⇐⇒ω ∈ (A ∩ B).
Em outras palavras, sabendo que o eventoB ocorreu, então, o evento A ocorre se, e só se, ocorre a intersecçãoA ∩ B.
Nesse caso, tem-se um novo espaço amostral dado pelo evento B, uma nova σ-álgebra ABe uma nova medida de probabilidadePB, aplicada em subconjuntos deAB, satisfazendo
os axiomas de Kolmogorov
PB =
P (A ∩ B) P (B) .
Esquematicamente:
Ω
A A
∩
B BFigura 1.5: Evento condicional.
1.5.1 Probabilidade condicional
Sejam os eventosA e B tais que P (B) > 0, então, define-se a probabilidade condicional deB dado que ocorreu A por
P (A|B) = P (A ∩ B) P (B) .
Notas: 1) SeP (B) = 0=⇒P (A|B) = P (A)(Magalhães, 2004);
2) Da definição de probabilidade condicional tem-se a relaçãoP (A∩B) = P (A|B)P (B), conhecida como regra do produto das probabilidades.
Exemplo 1)Uma caixa comtémr bolas vermelhas numeradas de 1 a r e b bolas brancas, numeradas de1 a b. Uma bola é extraída, sua cor observada. Sabendo que a bola é vermelha, qual a probabilidade de que seja a de número1?
A caixa contém(r + b)bolas logo, a probabilidade de uma bola qualquer é 1
(r + b).
Censidere os eventos:
A = { a bola extraída é vermelha }, logo,P (A) = r (r + b)
B = { a bola extraída é a de número 1 }, logo,P (B) = 2 (r + b)
ComoP (B ∩ A) = 1 (r + b), então, P (B|A) = P (B ∩ A) P (A) = 1/(r + b) r/(r + b) = 1 r.
Exemplo 2)Duas moedas idênticas são lançadas. Determine:
a) A probabilidade de se obter 2 caras sabendo que se obteve cara na primeira moeda.
Espaço amostral =⇒ Ω = {(c, c); (c, ¯c); (¯c, c); (¯c, ¯c)}, em quec = cara e ¯c = coroa.
Sejam os eventos: C1 = { cara na1amoeda } =⇒ P (C1) = P [(c, c); (c, ¯c)] = 2 4; C2 = { cara na2amoeda } =⇒ P (C2) = P [(c, c); (¯c, c)] = 2 4. ComoP (C2∩ C1) = P [(c, c)] = 1 4, logo, P (C2|C1) = P (C2∩ C1) P (C1) = P [(c, c)] P [(c, c); (c, ¯c)] = 1/4 2/4 = 1 2.
b) A probabilidade de se obter 2 caras sabendo que se obteve pelo menos uma cara.
Neste caso os eventos são definidos por:
=⇒ {sair duas caras} =C1∩ C2;
=⇒ {sair ao menos um cara} =C1∪ C2;
Desta forma: P (C1∩ C2|C1∪ C2) = P (C1∩ C2) P (C1∪ C2) = P [(c, c)] P [(c, c); (c, ¯c); (¯c, c)] = 1/4 3/4 = 1 3.
Exemplo 3) (Urna de Polya)Uma caixa comtémr bolas vermelhas e b bolas brancas. Uma bola é extraída, sua cor observada e, a seguir, a bola é recolocada na caixa com mais c > 0 bolas da mesma cor. Esse procedimento é repetidom vezes.
Sejam:
i) Rj: aj-ésima bola retirada é vermelha;
ii) Bj: aj-ésima bola retirada é branca, 1 ≤ j ≤ m.
Então:
⇒ Rj eBj são disjuntos e
⇒ na j-ésima extração tem-se [b + r + (j − 1) c] bolas na urna.
Paraj = 1: i) P (R1) = r b + r, ii) P (B1) = b b + r. Paraj = 2: i) P (R2|R1) = (r + c) (b + r + c); ii) P (R1R2) = P (R1)P (R2|R1); ⇒ P (R1R2) = r (b + r) (r + c) (b + r + c). De maneira análoga, ⇒ P (B1R2) = b (b + r) r (b + r + c).
Logo, a probabilidade de que se extraia uma bola vermelha na segunda retirada é:
P (R2) = P (R1R2) + P (B1R2) = r b + r r + c b + r + c + b b + r r b + r + c = r b + r r + c b + r + c+ b b + r + c = r b + r r + c + b b + r + c = r b + r Portanto:
i) P (R2) = P (R1) = r b + r, ii) P (B2) = P (B1) = b b + r. Paraj = 3:
Qual a probabilidade de vermelha na3aextração?
Possibilidades:
i) R1R2R3 ⇒ P (R1R2R3) = P (R3|R1R2)P (R2|R1)P (R1);
ii) R1B2R3 ⇒ P (R1B2R3) = P (R3|R1B2)P (B2|R1)P (R1);
iii) B1R2R3 ⇒ P (B1R2R3) = P (R3|B1R2)P (R2|B1)P (B1);
iv) B1B2R3 ⇒ P (B1B2R3) = P (R3|B1B2)P (B2|B1)P (B1).
Com um pouco de esforço algébrico obtêm-se:
i) P (R3) = P (R1) = r b + r, ii) P (B3) = P (B1) = b b + r.
Enfim, pode-se provar por indução que,P (Rj) = P (R1) e P (Bj) = P (B1), ∀ 1 ≤ j ≤ m.
1.5.2 Teorema de Bayes
Sejam os eventosE1, E2, . . . , Emem(Ω,A , P ) formando uma partição em Ω tal que todos
têm probabilidades positivas, ou seja, P (Ei) > 0, ∀ i = 1, 2, . . . , m. Considere, ainda, um
eventoA qualquer, P (A) > 0, ocorrendo sobre a partição de Ω.
O objetivo, nesta situação, consiste em determinar a probabilidade de ocorrência de uma das partes deΩ dado que ocorreu o evento A, ou seja, P (Ek|A), k = 1, 2, . . . , m.
Cmo pode-se observar pela Figura (1.6), o eventoA pode ser escrito como união de partes disjuntas, formadas pela intersecção deA com as partes de Ω, ou seja
A = (A ∩ E1) ∪ (A ∩ E2) ∪ (A ∩ E3) ∪ (A ∩ E4) ∪ (A ∩ E5) ∪ (A ∩ E6) = 6
[
i=1
Figura 1.6: Ocorrência de um evento A sobre uma partição de Ω com m = 6. Para umm qualquer, A = (A ∩ E1) ∪ (A ∩ E2) ∪ . . . ∪ (A ∩ Em) = m [ i=1 (A ∩ Ei),
logo, a probabilidade do eventoA é dada por
P (A) = P " m [ i=1 (A ∩ Ei) # = m X i=1 P (A ∩ Ei).
Pela regra do produto, tem-se que
P (A) = P "m [ i=1 (A ∩ Ei) # = m X i=1 P (A|Ei)P (Ei).
O resultado acima é conhecido como lei da probabilidade total.
Para umEk qualquer, k = 1, 2, . . . , m, pode-se escrever P (A ∩ Ek) = P (A|Ek)P (Ek),
logo, a probabilidade de ocorrência deEkdado que ocorreuA, é dada por:
P (Ek|A) = P (Ek∩ A) P (A) P (Ek|A) = P (A|Ek)P (Ek) m X i=1 P (A|Ei)P (Ei) , k = 1, 2, . . . , m, (1.1)
o resultado em (1.1) é conhecido comoteorema de Bayes. Foi obtido peloReverendo Thomas Bayese publicado em 1763, sendo um dos teoremas mais importantes da teoria estatística.
Exemplo 1) Numa população adulta 40% são homens e 60% mulheres. Sabe-se, ainda, que 50% dos homens e 30% das mulheres são fumantes. Determine:
a) A probabilidade de que uma pessoa escolhida ao acaso nesta população seja fumante.
Partição do espaço amostral =⇒ sexo = {H, M }.
Sejam os eventos:
H = { a pessoa escolhida é do sexo masculino (homem) } =⇒ P (H) = 0.40;
M = { a pessoa escolhida é do sexo feminino (mulher) } =⇒ P (M ) = 0.60;
F = { a pessoa escolhida é fumante };
Fc= { a pessoa escolhida não é fumante }.
ComoP (F |H) = 0.50eP (F |M ) = 0.30, então, pela regra da probabilidade total:
P (F ) = P (F ∩ H) + P (F ∩ M )
P (F ) = P (F |H)P (H) + P (F |M )P (M ) P (F ) = 0.50 · 0.40 + 0.30 · 0.60
P (F ) = 0.38
b) A probabilidade de que seja um homem sabendo que é um fumante. Pelo teorema deBayes, tem-se a relação:
P (H|F ) = P (H ∩ F ) P (F ) P (H|F ) = P (F |H)P (H) P (F ) P (H|F ) = 0.20 0.38 P (H|F ) = 0.5263,
portanto, a probabilidade de ser um homem dado que é fumante é de0.5263.
Uma forma conveniente para se representar as probabilidades acima é através da ”arvore de probabilidades”, nas quais representamos as probabilidades das partes e probabilidades condicionais em ramos, conforme Figura (1.7). Nesse esquema, as probabilidades conjuntas (das intersecções) são obtidas percorrendo-se os ramos e multiplicando-se as probabilidades.
Figura 1.7: Diagrama de árvore para o exemplo (1).
Exemplo 2)Sabe-se que numa população 8% das pessoas são infectadas por um vírus causador de uma doença muito grave. Um teste para detecção do vírus é eficiente em 99% dos casos nos quais os indivíduos são infectados, mas resulta em 2% de resultados positivos para os não infectados (falsos positivos).
Se o teste de uma pessoa dessa população der resultado positivo, qual a probabilidade de que ela seja da fato infectada?
Defindo-se: I ⇒ grupo das pessoas infectadas; Ic⇒ grupo dos não infectados; T+⇒ o resultado do teste é positivo; T−⇒ o resultado do teste é negativo;
tem-se as probabilidades: P (I) = 0.08;P (Ic) = 0.92;P (T+|I) = 0.99e P (T+|Ic) = 0.02. Porém, deseja-se calcular a probabilidade: P (I|T+)
que pela regra da probabilidade condicional é dada porP (I|T+) = P (I ∩ T
+)
P (T+) .
As probabilidades podem ser representadas na seguinte tabela:
Tabela 1.1: Probabilidades
Resultado do teste Totais das
Grupo T+ T− linhas
I P (I ∩ T+) P (I ∩ T−) 0.08
Ic P (Ic∩ T+) P (Ic∩ T−)
0.92
Pela regra do produto e pela lei da probabilidade total, encontra-seP (T+) de: P (T+) = P (I ∩ T+) + P (Ic∩ T+) = P (T+|I)P (I) + P (T+|Ic)P (Ic) = 0.99 · 0.08 + 0.02 · 0.92 = 0.0792 + 0.0184 = 0.0976
e, pelo teorema de Bayes, tem-se
P (I|T+) = P (T
+|I)P (I)
P (T+) =
0.0792
0.0976 = 0.8115.
Qual seria a confiança no teste se o resultado fosse negativo, ou seja, qual a probabilidade de o teste sendo negativo a pessoa de fato não seja infectada?
Deseja-se: P (Ic|T−) = P (I c∩ T−) P (T−) . Como: P (T−) = P (I ∩ T−) + P (Ic∩ T−) = 0.01 · 0.08 + 0.98 · 0.92 = 0.9024, então, P (Ic|T−) = P (T −|Ic)P (Ic) P (T−) = 0.9016 0.9024 = 0.9991,
portanto, se o teste for negativo a pessoa pode se sentir segura.
Na Figura (1.8) é apresentada o diagrama de árvore para o resultado acima.
1.5.3 Independência de eventos
Sejam o espaço de probabilidade (Ω,A , P ) e sejam os eventos A e B ∈ A, tal que
P (B) > 0. Pela regra da multiplicação pode-se escrever
P (A ∩ B) = P (A|B) P (B).
Em alguns casos, no entanto, informações prévias a respeito do eventoB não afetam a probabilidade de ocorrência de A, isto é, a probabilidade concicional deA dadoB é igual à
P (A), ou seja
P (A|B) = P (A).
Definição: Sejam dois eventos Ae B, com probabilidades maiores do que zero, tais que a ocorrência de um deles não altera a probabilidade de ocorrência do segundo, então, esses eventos são ditosindepententes.
Da regra da multiplicação das probabilidades, portanto, se dois eventosA e B são inde-pendentes então a probabilidade de ocorrência conjunta dos dois é dada pelo produto das probabilidades individuais, ou seja,
P (A ∩ B) = P (A) P (B). (1.2)
SejaA1, A2, . . . , Ak,k eventos independentes, então, de (1.2)
P (A1∩ A2∩ . . . ∩ Ak) = P (A1) · P (A2) · . . . · P (Ak)
Exemplo 1)Duas moedas idênticas são lançadas separadamente.
Ω = {(c, c); (c, ¯c); (¯c, c); (¯c, ¯c)}, em quec = carae ¯c = coroa.
Sejam os eventos:
A = { cara no 2º lançamento } =⇒ P (A) = P [(c, c); (¯c, c)] = 1 2; B = { cara no 1º lançamento } =⇒ P (B) = P [(c, c); (c, ¯c)] = 1 2. DetermineP (A|B). P (A|B) = P (A ∩ B) P (B) = 1/4 1/2 = 1 2 = P (A).
Portanto, conclui-se que A e B são independentes, ou seja, a ocorrência de cara no primeiro lançamento não altera a probabilidade de que saia cara no segundo lançamento.
Propriedades de independência:
a) Seja um evento Atal que P (A) = 0, entãoA é independente de todo eventoE ∈ A, em queP (E) > 0;
Prova: SeP (A) = 0
=⇒ P (E ∩ A) = P (E|A)P (A) = 0 = P (E) · P (A), ∀ E ∈A
b) SeA ∈A é um evento qualquer tal queP (A) > 0, entãoAé independente de∅eΩ; Prova:
i)A prova de queAe∅são independentes sai direto de (a), já queP (∅) = 0; ii)Para a prova de queAeΩsão independentes, considere queA = A ∩ Ω, logo
=⇒ P (Ω ∩ A) = P (A) = P (A) · (1) = P (A)P (Ω)
c) Se os eventos deAe B forem independentes, entãoAe Bc;Ace B;Ace Bctambém o são;
Prova: A seguir será apresentada apenas a prova de queAeBctambém são indepen-dentes. As demais ficam como exerício para o leitor.
O eventoApode ser escrito porA = (A ∩ B) ∪ (A ∩ Bc),(A ∩ B)e(A ∩ Bc)disjuntos, logo P (A) = P (A ∩ B) + P (A ∩ Bc) P (A) = P (A)P (B) + P (A ∩ Bc) P (A) − P (A)P (B) = P (A ∩ Bc) P (A)[1 − P (B)] = P (A ∩ Bc) P (A)P (Bc) = P (A ∩ Bc)
Definição: SejaA1, A2, . . . , Ak,k eventos independentes. Se, para qualquer subconjunto
A1, A2, . . . , Ar, tal quer ≤ k, os eventos forem independentes, ou seja,
P (A1∩ A2∩ . . . ∩ Ar) = P (A1) · P (A2) · . . . · P (Ar),
Em outras palavras, os eventosA1, A2, . . . , Ak são mutuamente independentesse forem
independentes dois-a-dois, três-a-três, e assim por diante . . .
Exemplo 2)A probabilidade de que um homem esteja vivo daqui a 10 anos é de3/4 e de sua esposa, é de5/6. Qual é a probabilidade de que, daqui a 10 anos:
a) Ambos estejam vivos?
Considere os eventos:
H = { homem vivo daqui a 10 anos } =⇒ P (H) = 3/4 logo P (Hc) = 1/4;
M = { mulher viva daqui a 10 anos } =⇒ P (M ) = 5/6 logo P (Mc) = 1/6.
Espaço amostralΩ = {HM, HMc, HcM, HcMc}
Assumindo independência entre os eventos H e M, a probabilidade de que ambos estejam vivos daqui a 10 anos é dada por
P (HM ) = P (H)P (M ) = 3 4· 5 6 = 5 8
b) Ao menos um esteja vivo?
Ainda assumindo independência entreH eM, a probabilidade de ao menos um esteja vivo daqui a 10 anos é dada por
P (HM, HMc, HcM ) = P (H)P (M ) + P (H)P (Mc) + P (Hc)P (M ) P (HM, HMc, HcM ) = 3 4· 5 6 + 1 4 · 5 6 + 3 4 · 1 6 P (HM, HMc, HcM ) = 15 24+ 5 24+ 3 24 = 23 24
A solução acima é simplificada com a aplicação do evento complementar
P (HM ) = 1 − P (HcMc) = 1 − 1 4 · 1 6 = 23 24
Um sistema de componentes é determinado por um conjunto de itens associados numa dada configuração. As configrações mais simples são os sistemas em série e em paralelo. A associação de ambas as configurações são chamadas de sistemas série-paralelo.
Neste sentido, a confiabilidade de um sistema num dado instanteté dada pela probabili-dade de que este esteja funcionando normalmente.
Considere um componente tal que a probabilidade de que esteja funcionando num ins-tantet dada por p, 0 ≤ p ≤ 1. Dois destes componentes são colocados em funcionamento segundo as configurações abaixo. Assumindo que os componentes funcionem de maneira independente, determine a confiabilidade do sistema em cada um dos casos.
Sejam os eventos:
S = { o sistema funciona no tempo t } =⇒ confiabilidade do sistema =P (S) Ci = { o componentei funciona no tempo t } =⇒ P (Ci) = p
a) Sistema em série: na configuração em série, o sistema funciona se os dois componen-tes funcionarem simultaneamente, desta forma
P (S) = P (C1∩ C2) = p2
Figura 1.9: Sistema em série
b) Sistema em paralelo: o sistema funciona se pelo menos um dos componentes estiver funcionando, logo
P (S) = P (C1 ∪ C2) = p + p − p2 = 2p − p2
c) Sistema série-paralelo: o sistema série-paralelo, com a configuração dada pela Figura 1.11, funciona seC1 funcionar e, (C2 ouC3 funcionar).
Obd: Fica para o leitor mostrar que a confiabilidade deste sistema é dada por
P (S) = 2p2− p3
Figura 1.11: Sistema série-paralelo
Exemplo 4)Uma moeda equilibrada é lançada tês vezes. Dê o espaço amostral: i) Ω = {(c, c, c); (c, c, ¯c); (c, ¯c, c); (¯c, c, c); (c, ¯c, ¯c); (¯c, c, ¯c); (¯c, ¯c, c); (¯c, ¯c, ¯c)},
em quec = caraec = coroa¯ .
ii) Verifique se os eventos {ocorrem pelo menos duas caras} e {ocorre coroa no 1º lança-mento} são independentes.
A = { ocorrem pelo menos duas caras } =⇒ A = {(c, c, c); (c, c, ¯c); (c, ¯c, c); (¯c, c, c)}
B = { ocorre coroa no 1º lançamento } =⇒ A = {(¯c, c, c); (¯c, c, ¯c); (¯c, ¯c, c); (¯c, ¯c, ¯c)}
No lançamento de uma moeda P (c) = P (¯c) = 1/2, logo, os eventos elementares de Ω têm todos probabilidade 1/8. Desta forma, verifica-se facilmente que
P (A) = P (B) = 1 2. Ainda,A ∩ B = {(¯c, c, ¯c); (¯c, ¯c, c); (¯c, ¯c, ¯c)} =⇒ P (A ∩ B) = 3 8, portanto, P (A|B) = 3/8 1/2 = 3 4 6= P (A)P (B).
1.6
Contagem
Considere um espaço amostral finito e equiprovávelΩ, no qual cada evento elementar tem probabilidade
P ({ωi}) =
1
card(Ω), i = 1, 2, . . . , card(Ω).
Considere um eventoApertencente ao espaço de probabilidade(Ω,A , P ), então, a pro-babilidade do eventoAé definida por
P (A) = card(A) card(Ω)
Assim sendo, a determinação deP (A)resume-se num problema de contagem do número de elementos de A e de Ω, o que é um procedimento simples quando tanto Ω tem poucos pontos, mas pode ser, trabalhoso, ou até mesmo impraticável, quando o número de pontos é grande (ou mesmo moderado).
1.6.1 Amostras ordenadas
Considere dois conjuntosS e U , com m e n elementos, respectivamente. Ao serem sele-cionados um elemento de cada conjunto, podem-se formar(m × n) duplas do tipo (xi, yj), i =
1, 2, . . . , m; j = 1, 2, . . . , n, conforme mostra a Figura 1.12.
Figura 1.12: Seleção alatória em dois conjuntos finitos.
Considere, agora,n conjuntos distintos S1, S2, . . . , Sn, de tamanhoss1, s2, . . . , sn,
respec-tivamente. Se selecionarmos um elemento de cada conjunto teremos (s1 × s2 × . . . × sn)
Se, no entanto, osn conjuntos forem o mesmo conjunto S, com s pontos, então existirão sn n−uplas do tipo (x1, x2, . . . , xn) para as quais xi, i = 1, 2, . . . , n, é um ponto de S.
Esta situação, em que o número de elementos de S permanece constante, caracteriza uma ”amostra aleatória com reposição”. Com a condição inicial de que o espaço amostral é equiprovável, todas as sn n−uplas têm igual probabilidade de serem selecionadas, sendo essa probabilidade igual a
1
sn . (1.3)
Exemplo 1)Uma moeda equilibrada é lançadan vezes. Determine a probabilidade de se obter ao menos uma cara nosn lançamentos.
Nessa situação, o conjuntoS é dado por: S = {c, ¯c}, sendo que P ({c}) = P ({¯c}) = 1/2. Comos = 2, então, o número de n−uplas possíveis é igual a 2n.
Seja o evento de interesseA = { ao menos uma cara nos n lançamentos }. DefinindoAi = { o evento cara noi−ésimo lançamento }, então,
A =
n
[
i=1
Ai,
cuja probabilidade é dada por:
P (A) = 1 − P (Ac) P (A) = 1 − P " n [ i=1 Ai !c #
Das leis de Morgan, tem-se que
P (A) = 1 − P n \ i=1 Aci ! P (A) = 1 − n Y i=1 P (Aci)
Portanto, a probabilidade desejada é dada por:
P (A) = 1 − 1 2
n .
Se, por exemplo,n = 10, P (A) = 1 − 1 1024 =
1023 1024.
Considere, agora, o conjunto S, contendo s elementos distintos, sendo que o elemento escolhido não é recolocado no conjunto após a seleção. Neste caso, a amostra alatória é do tipo ”sem reposição”.
Repetindo o procedimenton vezes, o número de n−uplas possíveis, sem que nenhum xi,
i = 1, 2, . . . , n, seja repetido, é dado por:
As,n = s × (s − 1) × . . . × (s − n + 1), (1.4)
sendo que a quantidadeAs,nrepresenta um arranjo des elementos tomados n-a-n.
Exemplo 2) Seja um conjuntoS com s elementos distintos. Considerendo uma amostra-gem aleatória com reposição, qual a probabilidade de que nenhum elemento de S apareça repetido na amostra.
Seja o eventoE = { nenhum elemento repetido na amostra }, então
P (A) = total de amostras para as quais nenhum elemento apareça repetido total de amostras possíveis .
Desta forma, de (1.3) e (1.4), temos que a probabilidade acima é dada por
P (E) = As,n sn = s(s − 1) . . . (s − n + 1) sn P (E) = s s (s − 1) s . . . (s − n + 1) s P (E) = 1 − 1 s 1 −2 s . . . 1 −n − 1 s P (E) = n−1 Y k=1 1 − k s . (1.5)
Como na maioria das situações práticas o número de elementos do conjuntoS (ou ”popu-lação”) é muito grande, calculando o limite em (1.5), tem-se
lim s→∞P (E) = s→∞lim "n−1 Y k=1 1 −k s # = 1,
reposição se equivalem.
Exemplo 3)Qual a probabilidade de que, num grupo com n pessoas, não existam duas com aniversário na mesma data?
(este problema é muito popular, sendo conhecido como “problema dos aniversários”)
Seja:S = {1, 2, 3, . . . , 365}, então S é definido como sendo os dias do ano e, s = 365.
Considerando que uma data de nascimento é uma seleção aleatória de um elemento de S, então, para E = { nenhuma coincidência de datas de aniversário no grupo }:
P (E) = n−1 Y k=1 1 − k 365 .
Por exemplo, para um grupo den = 4 pessoas
P (E) = 1 − 1 365 1 − 2 365 1 − 3 365 = 0.9836.
Desta forma, a probabilidade de que, num grupo de quatro pessoas, pelo duas delas façam aniversário na mesma data, é de1 − 0.9836 = 0.0164.
1.6.2 Permutações
Consideren caixas e n bolas distintas, numeradas de 1 a n. De quantas meneiras diferen-tes podem-se colocar asn bolas nas n caixas, de modo que cada caixa contenha exatamente 1 bola?
O número de bolas possíveis para se colocar na primeira caixa én, na segunda caixa é (n − 1), na terceira (n − 2), e assim por diante, sendo que, para a n−ésima caixa, só restará uma bola. O número de possibilidade, assim definido, é dado pela permutação dasn bolas
Pn = n (n − 1) (n − 2) . . . 1 = n!
Na permutação, uma número n de objetos ou items são reorganizados em n posições distintas, tal que, cada posição seja ocupada por apenas um item.
Assim sendo, uma compsição específica de bolas nas caixas tem probabilidade de ocor-rência
1 Pn
= 1 n!
Qual é a probabilidade de que a bolai seja colocada na caixa j, i, j = 1, 2, ...n?
Fixando uma bola e uma caixa restam(n − 1) bolas para serem permutadas nas (n − 1) caixas, logo, o número de possibilidade tal que a bola i esteja na caixa j é dado por Pn−1 =
(n − 1)!. Desta forma, a probabilidade do evento A = { a bola i seja colocada na caixa j } é
P (A) = Pn−1 Pn = (n − 1)! n! = 1 n.
Por sua vez, a probabilidade de que, permutando-sen bolas em n caixas, exatamente k bolas caiam emk caixa específicas é dada por:
Pn−k Pn = (n − k)! n! = 1 An,k .
Exemplo 4)Numa festa de final de ano, n = 8 casais concordam em participar de uma brincadeira na qual, todos os casais participantes são separados e novos pares são formados por sorteio para dançarem pelo menos uma música. Qual é a probabilidade de que exata-mento4 casais sejam mantidos, ou seja, 4 garotas fiquem com seus respectivos namorados?
Defindo o eventoA = { 4 casais sejam mantidos }, então, n = 8 e k = 4, logo
P (A) = (8 − 4)! 8! = 1 A8,4 = 0.000595. 1.6.3 Amostras Desordenadas
Considere o conjunto S, com s elementos, logo existem As,n amostras distintas de
ta-manho n, n < s, extraídas sem reposição. Nesta situação, considera-se a ordem das ob-servações na amostra, ou seja, amostras com os elementos em diferentes ordenações são consideradas distintas.
Em muitas situações, no entanto, o interesse recai nos elementos da amostras, indepen-dente da ordem em que são selecionados. É o caso de amostras desordenadas. Neste sentido, uma amostra sem reposição{x1, x2, . . . , xn} pode ser reordenada de n! maneiras
di-ferentes (todas com os mesmos elementos), fato este, que deve ser considerado no momento da contagem.
Portanto, dividindo o número de amostras sem reposição pelo total de reordenações, obtem-se o número de amostras possíveis, sem reposição e sem considerar a ordem dos
elementos, ou seja,
As,n
n!
Multiplicando-se o numerador e denominador por(s − n)!, tem-se
As,n n! = s(s − 1) · · · (s − n + 1) (s − n)! n! (s − n)! = s! n! (s − n)!
O termoAs,n/n! é conhecido como coeficiente binomial ou combinação, podendo ser
re-presentado porCs,n ou
s n
!
. Logo, a combinação des elementos, tomados n-a-n é dada
por s n ! = s! n! (s − n)!, n < s.
ExemploConsidere a amostra{3, 1, 7}. como n = 3, o número de reordenações dos seus elementos é3! = 6: {3, 1, 7}, {3, 7, 1}, {1, 3, 7}, {1, 7, 3}, {7, 3, 1} {7, 1, 3} Notas: a) O coeficiente a x !
é bem definido para a ∈ R e x ∈ N, por exemplo, se a = −π e x = 3, então −π 3 ! = −π(−π − 1)(−π − 2) 3! = − π(π − 1)(π − 2) 6 = −11.1497.
b) Por definição,0! = 1 e Aa,0= 1.
c) Paraa inteiro positivo, se x > a ou x < 0 p.def.=⇒ a x
! = 0;
Exemplo 5)Considere S = {1, 2, . . . , s}, um conjunto finito. Qual a probabilidade de se extrairk < s elementos de S tal que os valores estejam em ordem crescente, ou seja, tal que 1 ≤ x1 < x2 < . . . < xk≤ s?
O número de amostras de tamanhok < n que podem ser retiradas de S tal que não hajam repetições é An,k = n(n − 1) . . . (n − k + 1).
Dessas As,k existem k! reordenações, das quais apenas uma contém os valores em
sequência.
Portanto, a probabilidade desejada é:
P (A) = k! As,k
= 1 Cs,k
Assumindo S = {1, 2, 3, 4, 5}, então s = 5 e k = 3 (amostras de tamamho 3 de um conjunto com 5 elementos).
A seguir são apresentadas todas as amostras possíveis, com destaque em negrito para as amostras nas quais os valores estão em ordem crescente.
1 2 3 1 2 4 1 2 5 1 3 4 1 3 5 1 3 2 1 4 2 1 5 2 1 4 3 1 5 3 2 1 3 2 1 4 2 1 5 3 1 4 3 1 5 2 3 1 2 4 1 2 5 1 3 4 1 3 5 1 3 1 2 4 1 2 5 1 2 4 1 3 5 1 3 3 2 1 4 2 1 5 2 1 4 3 1 5 3 1 1 4 5 2 3 4 2 3 5 2 4 5 3 4 5 1 5 4 2 4 3 2 5 3 2 5 4 3 5 4 4 1 5 3 2 4 3 2 5 4 2 5 4 3 5 4 5 1 3 4 2 3 5 2 4 5 2 4 5 3 5 1 4 4 2 3 5 2 3 5 2 4 5 3 4 5 4 1 4 3 2 5 3 2 5 4 2 5 4 3 . Amostras possíveisA5,3 = 60 . Reordenações3! = 6
. Probabilidade do evento A = { extrair uma amostra de tamanho 3 com os valores em ordem crescente }:
P (A) = 6 60 =
1
10 = 0.10
Exemplo 6)Qual é a probabilidade de se obter um royal straight flush numa mão de pôquer, antes da troca de cartas?
Um royal straight flush é uma sequência com as maiores cartas (A, K, Q, J, 10), sendo todas do mesmo naipe.
. Antes da troca de cartas tem-seA52,5 mãos possíveis.
. Reordenações: 5! = 120 possibilidades de se obter a mesma mão.
. Probabilidade do evento A = { obter a mão (A, K, Q, J, 10) com todas as cartas do mesmo naipe } P (A) = 4 × 5! A52,5 = 4 C5,5 ∼ = 1.54 × 10−6
Fica como exercício para o leitor calcular as probabilidades de se obter as demais mãos no jogo no pôquer (antes da troca das cartas).
.Straight flush (cinco cartas do mesmo naipe, em sequência); .Quadra (quatro cartas do mesmo valor);
.Full house (uma trinca e um par);
.Flush (as cinco cartas do mesmo naipe);
.Straight (cinco cartas em sequência, sem consideração de naipes); .Trinca (três cartas do mesmo valor);
.Dois pares (pares com cartas de valores distintos); .Par (duas cartas do mesmo valor).
Exemplo 7)No jogo damegasenao que mais vantajoso:
A = { escolherd = 10 dezenas e jogar todas as combinações possiveis de 6 dezenas } ou B = { fazer 210 jogos distintos de 6 dezenas }?
Espaço amostralΩ = {1, 2, 3, . . . , 60}
Total de possibilidades com jogos de 6 dezenas:C60,6=
60! 54! 6!.
Total de jogos possíveis de 6 dezenas dentre asd = 10 escolhidas: C10,6 =
10!
4! 6! = 210.
Portanto, as chances de se ganhar na megasena são iguais para os dois casos visto que:
P (A) = P (B) = 210 C60,6
≈ 4.2 × 10−6
1.6.4 Partições
Seja uma população S, de tamanho s, dividida em k subpopulações S1, S2, . . . , Sk com
s1, s2, . . . , skelementos, respectivamente.
Considerando o caso de amostras desordenadas e sem reposição, a probabilidade de que, numa amostra de tamanho n sejam selecionados exatamente n1, n2, . . . , nk elementos
deS1, S2, . . . , Sk, tal queni < si, i = 1, 2, . . . , k, é dada por P (n1, n2, . . . , nk) = s1 n1 ! s2 n2 ! · · · sk nk ! s n ! , em que k X i=1 si = s e k X i=1 ni = n.
Exemplo 7)Num grupo de com 12 professores e 5 alunos do curso de Estatística, devem ser escolhidas n = 5 pessoas para formar uma comissão para falar com o Reitor. Quantas comissões podem ser formadas de tal forma que, dos escolhidos, 3 sejam professores e 2 sejam alunos?
O grupo tem um total deN = 12 + 5 = 17, desta forma, o total de comissões é dado por
17 5
!
= 17!
12! 5! = 6188 comissões.
O número de copmissões com exatamente 3 professores e 2 alunos é dado por
12 3 ! 5 2 !
= 2200 comissões com 3 prof. e 2 alunos.
Desta forma:
P (comissão com 3 professores e 2 alunos) = 12 3 ! 5 2 ! 17 5 ! = 2200 6188 = 0.355,
Exemplo 8 - Captura e recaptura)Num lago há uma população de peixes de tamanhoN . Uma rede é lançada, m peixes são capturados e marcados, após o que, são devolvidos à água.
A rede é lançada uma 2ª vez e um total den peixes são capturados. Qual é a probabilidade do evento:
Após a primeira captura tem-seN peixes no lago, dos quais m são marcados.
Da partição da população desejamos que no segundo lançamento da rede sejam captu-radosx peixes marcados e (n − x) não marcados, logo
P (A) = m x ! N − m n − x ! N n ! (1.6)
Uma situação prática envolvendo o problema da captura e recaptura refere-se à estimação do tamanho da populaçãoN .
Conhecendom da primeira captura e tendo observado n e x do segundo lançamento da rede, como podemos estimar o tamanho da população de peixesN ?
Da inferência estatística tem-se que uma estimativa para o tamanho da população é dada pelo valor deN que maximiza a probabilidade em (1.6).
Assumindo, por exemplo,m = 50 e n = 30, qual é a probabilidade de que exatamente x peixes do segundo lançamento da rede sejam marcados?
P (A) = 50 x ! N − 50 30 − x ! N 30 ! . (1.7)
Portanto, dado o número de peixes marcados na segunda captura, ou seja, dado x, o tamanho da população de peixes no lago é estimado pelo valor deN que maximiza (1.7).
Simplificando ainda mais, considerem = 10 e n = 5. A probabilidade de que x = 1 peixe do segundo lançamento da rede seja marcado é
P (A) = 10 1 ! N − 10 4 ! N 5 ! .
Com um pouco de álgebra, obtem-se
P (A) = 50(N − 10)(N − 11)(N − 12)(N − 13)
N (N − 1)(N − 2)(N − 3)(N − 4) , N > 13.
A seguir são apresentados a tabela com os cálculos para a obtenção deN e a curva com o valor deP (A) versus N . Pelos valores apresentados, verifica-se que valor de N pode ser estimatido emN = 49 ou N = 50. N P (A) 14 0.0050 20 0.1354 30 0.3400 40 0.4165 48 0.4311 49 0.4313 50 0.4313 51 0.4311 60 0.4217 80 0.3814 100 0.3394 120 0.3029
Exemplo 9 - Jogo da Megasena) Retomando o problema da megasena, considere que o apostador escolha um número d de dezenas e aposte todos os jogos possíveis com 6 dezenas. Se o apostador conseguir acertar as 6 dezenas sorteadas, além de ganhar na sena, de quebra, ele consegue algumas quinas e quadras.
Quantas quinas e quadras o apostador consegue ao acertar as seis dezenas sorteadas? De maneira geral, apostando nosCd,6 jogos possíveis e acertando as 6 dezenas
. ou seja, são6 dezenas sorteadas, dentre as d escolhidas e (d − 6) não sorteadas; . Q acertos dentre as 6 dezenas sorteadas e (6 − Q) erros, dentre as dezenas não
sorteadas; 6 Q ! d − 6 6 − Q ! (1.8)
. se o apostador acertar as 6 dezenas, entãoQ = 6 e o número de senas é igual a
6 6 ! d − 6 6 − 6 ! = 6 6 ! d − 6 0 ! = 1
Este resultado é óbvio, uma vez que o procedimento de escolha implica a inexistência de repetições, logo, haverá apenas um jogo de seis dezenas coincidindo com as dezenas sorte-adas. Mas, acertando a sena, quantas quinas e quadras são, também, obtidas?
O raciocínio é o mesmo que no caso anterior, isto é, tendo feito a sena, sendoQ acertos dentre as6 dezenas sorteadas e (6 − Q) erros dentre as não sorteadas, então
. fazendoQ = 5, o número de quinas obtidas é dado por
6 5 ! d − 6 6 − 5 ! = 6 5 ! d − 6 1 ! = 6(d − 6), d > 6
. da mesma forma, paraQ = 4, o número de quadras é
6 4 ! d − 6 6 − 4 ! = 6 4 ! d − 6 2 ! = 15 (d − 6)(d − 7) 2 , d > 6.
. Sed = 10, como no exercício anterior, então, além de ganhar na megasena, o apostador conseguirá 6 5 ! 4 1 ! = 24 quinas e 6 4 ! 4 2 ! = 90 quadras
Pode-se generalizar o resultado em (1.8) para os casos em que o apostador acerte 5 dezenas (faz a quina) ou apenas 4 dezenas (faz a quadra). Desta forma, substituindo-se os
valores 6 na primeira linha de (1.8) por 5 e 4, respectivamente, pode-se calcular o número de quinas e quadras, possíveis, para as duas situações.
i) Se o apostador acertar 5 das dezenas sorteadas:
5 Q ! d − 5 6 − Q !
. comQ = 5, serão (d − 5) quinas, d > 6,
. comQ = 4, o número de quadras é igual a 5(d − 5)(d − 6)
2 ,d > 6.
ii) Acertando-se 4 dezenas:
4 Q ! d − 4 6 − Q ! . comQ = 4, consegue-se (d − 4)(d − 5) 2 , quadrasd > 6.
Na Tabela 1.2 são apresentados os números de senas, quinas e quadras se acertar 6, 5 ou 4 dezenas, dentre asd escolhidas, com todas as Cd,6 apostas possíveis.
Tabela 1.2: Número de senas, quinas e quadras na megasena nos jogos com d dezenas escolhidas e combinadas.
Dezenas Acertos número
apostadas 6 5 4 de
d senas quinas quadras quinas quadras quadras jogos
6 1 0 0 1 0 1 1 7 1 6 0 2 5 3 7 8 1 12 15 3 15 6 28 9 1 18 45 4 30 10 84 10 1 24 90 5 50 15 210 11 1 30 150 6 75 21 462 12 1 36 225 7 105 28 924 13 1 42 315 8 140 36 1716 14 1 48 420 9 180 45 3003 15 1 54 540 10 225 55 5005
2
Variáveis Aleatórias
Dado um fenômeno aleatório, definido num espaço de probabilidade(Ω,A , P ), tem-se o interesse em conhecer a estrutura probabilística de quantidades associadas a esse fenômeno. Para isso, se faz necessário a introdução do conceito de variável aleatória e a especificação de modelos para tais variáveis.
Definição 2.1. Seja o espaço de probabilidade (Ω,A , P ), então, define-se por variável alea-tória, ou simplesmente v.a., qualquer funçãoX : Ω → Rtal que:
X−1(Ω) = n
ω ∈ Ω : X(ω) ∈ I o
∈A ,
para todo intervalo I ⊂ R.
Uma variável aleatória é uma função que leva os elementos do espaço amostralΩ a um subconjunto dos reais R (Figura 2.1).
Figura 2.1: Variável aleatóriaX : Ω → R.
Exemplo 2.1. As variáveis aleatórias são classificadas em dois tipos:
i) VA discreta: é aquela para a qual o conjunto I é um conjunto finito ou infinito enumerável, por exemplo: a) I = n 1, 2, 3, 4, 5, 6 o ;
b) I = N = n
0, 1, 2, 3, 4, ... o
.
ii) VA contínua: é aquela para a qual o conjunto I é um conjunto infinito não enumerável, ou seja, é uma v.a. que assume valores em intervalos de números reais, por exemplo:
a) I = R = (−∞, ∞); b) I = [0, 1] ⊂ R.
Notas:
a) Para v.a.’s contínuas, a função que normalmente associa pontos de Ω ao conjunto I ⊆ R, é a função identidade;
b) Para v.a.’s discretas, a função que normalmente associa pontos de Ω ao conjunto I ⊆ R, é uma contagem ou soma.
2.1
Variáveis Aleatórias Discretas
X é uma v.a. discreta, num espaço de probabilidade (Ω,A , P ), é uma função com do-mínio emΩ e cujo contradomínio é um conjunto finito ou infinito enumerável nx1, x2, x3, . . .
o
dos números reais R, tal que, nω ∈ Ω : X(ω) = xi
o
é um evento para todo i e, portanto, pode-se calcular a sua probabilidade de ocorrência
Ph{ω ∈ Ω : X(ω) = xi}
i
, i = 1, 2, 3, . . . .
Notas:
a) Por simplicidade, representamos o eventonω ∈ Ω : X(ω) = xi
o
pornX = xi
o
e as probabilidades são simplificadas por:
Ph{ω ∈ Ω : X(ω) = xi}
i
= P (X = xi)
b) Sex∗ ∈ I/ , entãonω ∈ Ω : X(ω) = x∗o= ∅, que também é um evento. Nesse caso,
c) Se o conjunto I de possíveis valores de uma v.a. discreta X é formado por valores inteiros, ou inteiros não negativos, então, X é uma v.a. inteira, ou uma v.a. interia não negativa. A maioria das v.a.’s discretas são inteiras não negativas.
Definição 2.2. Função de probabilidade de uma v.a. discreta X é uma função p(x) que atribui probabilidade a cada um dos possíveis valores deX.
SejaX assumindo valoresI =nx1, x2, x3, . . .
o
, então, para todox ∈ I
p(x) = P (X = x).
Propriedades: A funçãop(x)deX em (Ω,A , P ) satisfaz: a) 0 ≤ p(xi) ≤ 1, ∀ xi ∈ I;
b) X
i
p(xi) = 1.
Prova:
a) Comop(x) é uma medida de probabilidade, por definição,0 ≤ p(x) ≤ 1;
b) Como, por definição, os eventos
n
w ∈ Ω : X(ω) = xi
o
, i = 1, 2, . . .são disjuntos, então
X i p(xi) = X i P (X = xi) = P " [ i n w ∈ Ω : X(ω) = xi o # = P (Ω) = 1.
Definição 2.3. Função de distribuição, também chamada de função de distribuição acu-mulada (fda) de uma v.a. discreta X é uma função F (x) que retorna a probabilidade de X assumir valores até o pontox.
SejaX assumindo valoresI =nx1, x2, x3, . . .
o
, então, para todox ∈ I
F (x) = P (X ≤ x).
a) F (x) é uma função do tipo escada, ou seja, para os pontos xi, xi+1 ∈ I e x tal que
xi ≤ x < xi+1,
F (x) = F (xi),
isto é,F (x)é constante no intervalo[xi , xi+1)(ver Figura 2.2).
b) DadaF (x), paraxa exb ∈ I, tal quexa < xb,
P (xa< X ≤ xb) = F (xb) − F (xa).
Desta forma, para um valor qualquerxi ∈ I, tem-se
p(xi) = F (xi) − F (xi−1),
ou seja, a probabilidade num pontoxi é dada pela altura do “degrau” emF (xi).
Exemplo 2.2. Seja a v.a. X discreta, com distribuição de probabilidade dada por: x p(x) F (x) 0 0.15 0.15 1 0.28 0.43 2 0.26 0.69 3 0.18 0.87 4 0.08 0.95 5 0.05 1.00 Assim, temos: a) p(3) = P (X = 3) = 0.18; b) F (2) = P (X ≤ 2) = P (X = 0) + P (X = 1) + P (X = 2) = 0.69; c) P (1 ≤ X < 5) = P (0 < X ≤ 4) = F (4) − F (0) = 0.80, Ainda: P (1 ≤ X < 5) = 4 X x=1 P (X = x) = 0.28 + 0.26 + 0.18 + 0.08 = 0.80; d) P (2 ≤ X ≤ 4) = F (4) − F (1) = 0.52.
Exemplo 2.3. Considere 2 lançamentos independentes de uma moeda equilibrada. Definindo X como sendo o número de caras nos 2 lançamentos, temosΩ = ncc; c¯c; ¯cc; ¯c¯co.
p(0) = P h { ¯c¯c } X( ¯c¯c ) = 0 i = 1/4 p(1) = P h { c¯c } ∪ { ¯cc } X( c¯c ) = X( ¯cc ) = 1 i = 1/2 p(2) = P h { cc } X( cc ) = 2 i = 1/4
Portanto, a função de probabilidade deX, é dada por:
x 0 1 2
p(x) 1/4 1/2 1/4
A função de distribuição da v.a. X, é dada por:
F (x) = 0, x < 0; 1/4, 0 ≤ x < 1; 3/4, 1 ≤ x < 2; 1, x ≥ 2.
Figura 2.2: Função distribuição acumulada da v.a. X
Exemplo 2.4. Seja uma v.a. X assumindo os valores { 3, 4, 5, 6 }. Obter k ∈ R de modo que
p(x)seja uma função de probabilidade:
Das propriedades da função de probabilidade,X x p(x) = 1, portanto: k [(3 − 2)2+ (4 − 2)2+ (5 − 2)2+ (6 − 2)2] =1 k [1 + 22+ 32+ 42] =1 30k =1 k = 1 30.
Desta forma, a função de probabilidade deX é dada porp(x) = (x − 2)
2
30 , x ∈ {3, 4, 5, 6}.
Exemplo 2.5. Considere o jogo no qual um alvo circular de raio 1 é dividido em n regiões anelares concêntricas de raio1/n, 2/n, . . . , 1. Lança-se um dardo ao acaso e, se ele atingir a região Ai, delimitada pelos raios (i − 1)/n e i/n, i = 1, 2, . . . , n, ganha-se (n − i) reais (ver
Figura 2.3) R=1 A1 n−1 A2 n−2 An−1 1 An 0
Figura 2.3: Regiões anelares identificadas em vermelho e ganho obtido em azul.
Seja a v.a. X = importância ganha em um lançamento, obtenha a função de probabilidade deX.
Aqui, o espaço de probabilidade(Ω,A , P ) é o espaço uniforme sobre o disco de raio 1. X é uma v.a. discreta definida neste espaço, assumindo os valores {0, 1, 2, . . . , n − 1}. Ainda, Ai = {X = n − i} é um evento que ocorre se, e só se, o dardo atinge a região
A probabilidade para o eventoAi são dadas por: P (X = n − i) = área deAi área total P (X = n − i) = π i n 2 − π i − 1 n 2 π P (X = n − i) =i 2− (i2− 2i + 1) n2 P (X = n − i) =2i − 1 n2 , i = 1, 2, . . . , n.
Comx = n − i, então, a função de probabilidade de X é:
p(x) = 2(n − x) − 1 n2 , x ∈ {0, 1, 2, . . . , (n − 1)} 0, c.c.
Comp(x) assim definida:
i) Certifique-se de que p(x) é de fato uma função de probabilidade;
ii) Calcule a probabilidade de se acertar a região mais central do alvo (mosca).
2.2
Principais modelos de discretos
2.2.1 Variável Aleatória Constante
Seja uma v.a. X que associa um único valor k ∈ R para todo ω ∈ Ω.
Então{ω ∈ Ω | X(ω) = k} é todo o espaço amostralΩ e,X(ω) = k é uma v.a. discreta com função de probabilidade:
p(x) = (
1, x = k 0, x 6= k.
função de distribuição é dada por
F (x) = (
0, x < k 1, x ≥ k.
Na Figura (2.4) são apresentadas as funções de probabilidadep(x)e de distribuiçãoF (x)
para o modelo degenerado num ponto.
X p(x) k 1 X F(x) k 1 ● ●
Figura 2.4: Funções de probabilidade (esquerda) e de distribuição (direita) do modelo dege-nerado num ponto
2.2.2 Distribuição uniforme discreta
Considere a v.a. X assumindo valores em I = {x1, x2, . . . , xn}. X tem distribuição
uni-forme discreta se cada elemento de I tiver mesma probabilidade, ou seja
p(x) = P (X = x) = 1 n , x ∈ I 0, x /∈ I Notação: X ∼ Ud(I) Notas:
i) O modelo uniforme discreto considera que os elementos x1, x2, . . . , xn de I são
ii) Normalmente I é um subconjunto dos naturais (I ⊂ N) definido por limites [a, b], em que a < b são os parâmetros do modelo. Neste caso
X ∼ Ud(a, b).
A função de distribuição acumulada da v.a. da uniforme discreta é definida por
F (x) = P
iI[xi|xi≤x]
n x ∈ {x1, x2, . . . , xn},
em queI[xi|xi≤x]= 1, se xi ≤ x e I[xi|xi≤x]= 0, caso contrário.
Exemplo 2.6. Considere o lançamento de um dado equilibrado e seja a v.a. X = valor observado, então, I = {1, 2, 3, 4, 5, 6} e X ∼ Ud(1, 6)
p(x) = 1
6 , x = 1, 2, 3, 4, 5, 6;
F (x) = x
6 x = 1, 2, 3, 4, 5, 6.
Na Figura (2.5) são apresentadas as funções de probabilidade e de distribuição acumulada para o exemplo. X p(x) 1 2 3 4 5 6 1/6 X F(x) 1 2 3 4 5 6 1 ● ● ● ● ● ● ● ● ● ● ● ●
2.2.3 Distribuição de Bernoulli
Considere, agora, um eventoA ⊂ Ω, tal que, X(ω) = 1, se ω ∈ A e X(ω) = 0, se ω ∈ Ac, então,A ocorre se, e só se, X(ω) = 1.
A v.a. X é uma variável indicadora de A, pois o valor de X indica a ocorrência de A e,
P (A) = P [{ω ∈ Ω | X(ω) = 1}] = P (X = 1)
Normalmente, o evento A é chamado de sucesso e Ac de fracasso e a v.a. assim de-finida, é chamada de v.a. de Bernoulli, em que p = P (A) é a probabilidade de sucesso e (1 − p) = P (Ac) é a probabilidade de fracasso.
Notas:
i) Uma realização da v.a. de Bernoulli recebe o nome de “ensaio de Bernoulli ”.
ii) Ensaio de Bernoullié todo experimento com apenas dois resultados possíveis, denota-dos por sucesso e fracasso. Esses resultadenota-dos são representadenota-dos pelos valores 1 e 0 da v.a. X, com probabilidades de corrência p e (1 − p), respectivamente. Assim,
X = 1, representa um sucesso, X = 0, representa um fracasso.
iii) A probabilidade de sucessop é o parâmetro do modelo de Bernoulli.
SejaX uma variável de Bernoulli com probabilidade de sucesso p, então, sua função de probabilidade é definida por
p(x) = 1 − p, x = 0 p, x = 1 0, x 6= 1 e x 6= 0.
Notação: para indicar que uma v.a. tem distribuição de Bernoulli, usamos a seguinte notação:
X ∼ Bernoulli(p).
A função de probabilidade para o modelo de Bernoulli pode ser mais elegantemente re-presentada por:
A função de distribuição para o modelo de Bernoulli, por sua vez, é dada por F (x) = 0, x < 0 1 − p, 0 ≤ x < 1 1, x ≥ 1.
A Figura (2.6) apresenta as funções de probabilidade e de distribuição acumulada para o modelo de Bernoulli com parâmetro p.
Nota: Como veremos no restante da seção, a v.a. de Bernoulli serve de base para a definição de grande parte dos modelos discretos de probabilidade.
X p(x) 0 1 p 1−p X F(x) 0 1 1−p 1 ● ● ● ●
Figura 2.6: Funções de probabilidade (esquerda) e de distribuição (direita) do modelo Bernoulli (p)
2.2.4 Distribuição binomial
Exemplo 2.7. Considere o experimento no qual uma moeda honesta é lançada três vezes, sendo que a probabilidade de se obter cara em um lançamento é p e de se obter coroa é (1 − p), 0 ≤ p ≤ 1.
Para este experimento, o espaço amostral é dado por
Ω = {(c, c, c), (c, c, ¯c), (c, ¯c, c), (¯c, c, c), (c, ¯c, ¯c), (¯c, c, ¯c), (¯c, ¯c, c), (¯c, ¯c, ¯c)}
em quec = cara e ¯c = coroa.
Definindo a v.a. X = número de caras obtidos nos três lançamentos, determinar a função de probabilidade deX.
Para cada elemento do espaço amostral, a v.a. X assume os valores: ω = (c, c, c) ⇒ X(c, c, c) = 3 ω = (c, c, ¯c) ω = (c, ¯c, c) ω = (¯c, c, c) ⇒ X(c, c, ¯c) = X(c, ¯c, c) = X(¯c, c, c) = 2 ω = (c, ¯c, ¯c) ω = (¯c, c, ¯c) ω = (¯c, ¯c, c) ⇒ X(c, ¯c, ¯c) = X(¯c, c, ¯c) = X(¯c, ¯c, c) = 1 ω = (¯c, ¯c, ¯c) ⇒ X(¯c, ¯c, ¯c) = 0
Uma vez que os lançamentos da moeda são independentes, a v.a. X tem a seguinte função de probabilidade: x p(x) 0 (1 − p)3 1 3p(1 − p)2 2 3p2(1 − p) 3 p3
Os três elementos deΩ para os quais X = 2, resultam das possíveis combinações nas quais são obtidas duas cara e uma coroa, implicando que a probabilidade individualp2(1 − p) seja multiplicada por 3. Desta forma, a probabilidadeP (X = 2) pode ser escrita como
p(2) =3 2
p2(1 − p).
O mesmo acontece comX = 1, resultado das possíveis combinações nas quais se obtem uma cara nos três lançamentos da moeda, sendo a probabilidadeP (X = 1) escrita por
p(1) =3 1
p(1 − p)2.
Como podemos observar,p(x) é uma função de probabilidade discreta, pois:
i) p(x) ≥ 0 ∀ x = 0, 1, 2, 3, uma vez que 0 ≤ p ≤ 1;
ii)
3
X
Considerando que a moeda é honesta, ou sejap = 1/2, temos
x 0 1 2 3
p(x) 1/8 3/8 3/8 1/8
A distribuição de probabilidade acima, como veremos pela definição (2.4), é a distribuição binomial com parâmetrosn = 3 e p = 0.5.
Definição 2.4. Considere n repetições independentes de um ensaio de Bernoulli cuja proba-bilidade de sucesso éP (sucesso) = p e seja a v.a. X que conta o número de sucesso nas n realizações independentes do ensaio, então, X tem distribuição binomial com parâmetros n e p e a sua função de probabilidade é dada pela expressão
p(x) =n x px(1 − p)n−x, x = 0, 1, . . . , n. Notação: X ∼ binomial(n, p). X p(x) 0 1 2 3 4 0 0.1 0.2 0.3 X F(x) 0 1 2 3 4 0 0.2 0.4 0.6 0.8 1 ● ● ● ● ● ● ● ● ● ●
Figura 2.7: Funções de probabilidade (esquerda) e de distribuição (direita) do modelo binomial(4, 0.6)
Notas:
i) A distribuição de Bernoulli é um caso especial da binomial para o qual n = 1.
ii) A função de distribuição acumuladaF (x) não tem uma forma explicita, sendo definda por
F (x) = X
x≤x
iii) Se a v.a. X conta os sucessos em n ensaios independentes de Bernoulli, X ∼ binomial(n, p). Então, se nos mesmosn ensaios, a v.a. Y contar o número de fracassos:
Y ∼ binomial(n, 1 − p).
Exemplo 2.8. Uma indústria que produz placas para componentes eletrônicos, usadas na fa-bricação de celulares, afirma que no processo de produção dessas placas 1% sai com defeito nas furações. Considerando que na inspeção dessas placas, 10 unidades são selecionadas aleatoriamente e avaliadas:
Defina uma v.a. para esse caso e determine a sua função de probabilidade p(x). Uma vez quep(x) seja definida, qual é a probabilidade de que a inspeção encontre:
a) exatamente uma placa com defeito? b) pelo menos uma placa com defeito? c) no máximo três placas com defeito?
A inspeção de cada uma das placas resulta em um, dentre dois resultados possíveis (placa com defeito ou placa boa), o que caracteriza um ensaio de Bernoulli no qual o resultado de interesse (sucesso) é dado pela placa com defeito. Alé disso, como as inspeções são independentes, a probabilidade de uma placa ser defeituosa (dada pelo índice de defeitos da produção, ou seja,p = 0.01) é comum a todos os ítens produzidos.
Portanto, definindo a v.a. X = número de placas com defeito encontradas na inspeção das n = 10 placas selecionadas, X tem distribuição binomial com parâmetros n = 10 e p = 0.01 e sua função de probabilidade é dada por
p(x) = P (X = x) =10 x
(0.01)x(0.99)10−x, x = 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10.
As probabilidades solicitadas nos itens (a), (b) e (c) são, portanto, calculadas por
a) p(1) = P (X = 1) =10 1
(0.01)1(0.99)9 = 0.09135.
b) Pelo evento complementar temos que:
P (X ≥ 1) = 1 − P (X = 0) = 1 − (0.99)10 = 0.09562
c)
F (3) = P (X ≤ 3) = P (X = 0) + P (X = 1) + P (X = 2) + P (X = 3) = 0.90438 + 0.09135 + 0.00415 + 0.00011 = 0.99999
Exemplo 2.9. Uma indústria vende um produto em embalagens de ½ kg. O processo de empacotamento tem como limite inferior o peso de 495 g, sendo que, os pacotes devem ter peso superior a este limite. Apesar da automação, o processo produz 6% de pacotes abaixo do limite, o que preocupa o dono da indústria numa possível inspeção.
Nas inspeções, os fiscais do órgão competente costumam recolher 20 pacotes do produto das prateleiras dos supermercados e pesar cada um deles. Desta forma, qual é a probabili-dade de que:
a) apenas um pacote esteja abaixo do limite de peso?
b) no máximo dois pacotes estejam abaixo do limite de peso?
Seja a v.a. X = número de pacotes, da amostra, abaixo do limite de peso. Então,X ∼ binomial(20, 0.06). Respostas: a) P (X = 1) = 20 1 (0.06)(0.94)19 = 0.3703; b) F (2) = P (X ≤ 2) = P (X = 0) + P (X = 1) + P (X = 2) = (0.94)20+ 0.3703 +20 2 (0.06)2(0.94)18 = 0.2901 + 0.3703 + 0.2246 = 0.8850. 2.2.5 Distribuição geométrica
Definição 2.5. Considere uma sequência de ensaios independentes de Bernoulli com proba-bilidade de sucesso igual ap e seja a v.a. X que conta o número de fracassos até a ocorrência do primeiro sucesso. Então, X tem distribuição geométrica com parâmetro p e a sua função de probabilidade é dada pela expressão
p(x) = p(1 − p)x, x = 0, 1, 2, . . .
Notação: X ∼ geométrica(p).
Exemplo 2.10. Num jogo de cassino, dois dados são lançados por um jogador que aposta uma certa quantia de dinheiro antes do lançamento. O jogador dobra o valor apostado se obter soma 11 ou 12 nos dados. Para tentar dobrar a posta, porém, o jogador tem até 3 tentativas, após as quais, ele perde o que apostou e precisa apostar novamente para continuar jogando.
Qual é a probabilidade do jogador dobrar a aposta numa rodada de lançamentos?
Seja a v.a. X = número de lançamentos com somas diferentes de 11 ou 12, até que o jogador ganhe.
Então,X ∼ geométrica(p). Mas, qual deve ser o valor dep?
Para isso precisamos do espaço amostral para os lançamentos dos dados:
Ω = {(i, j) ∈ N2| 1 ≤ i ≤ 6 e 1 ≤ j ≤ 6}, (Ω é equiprovável)
Seja o eventoA = { valores favoráveis ao jogador }, então,A = {(6, 5), (5, 6), (6, 6)}. Logo, a probabilidade de sucessop é igual a P (A), isto é:
p = 3 36 =
1 12.
Assim, o jogador dobra o valor apostado se:
I sair soma 11 ou 12 no primeiro lançamento dos dados;
I sair soma 11 ou 12 no segundo lançamento, não tendo saído no primeiro;
I sair soma 11 ou 12 no terceiro lançamento, não tendo saído no primeiro nem no se-gundo lançamentos.
Desta forma, temos que calcular P (X ≤ 2), uma vez que X conta os fracassos até o primeiro sucesso. Portanto:
F (2) = P (X ≤ 2) = P (X = 0) + P (X = 1) + P (X = 2) = 1 12 11 12 0 + 1 12 11 12 1 + 1 12 11 12 2 = 1 12 " 1 + 11 12+ 11 12 2# = 0.2297. Priopriedades:
do resultado P (X ≥ x) = ∞ X k=x P (X = k) = p(1 − p)x+ p(1 − p)x+1+ p(1 − p)x+2+ . . . = p (1 − p) x 1 − (1 − p) = (1 − p)x.
Desta forma, temos que a função distribuição acumuladaF (x) é dada por
F (x) = P (X ≤ x)
F (x) =1 − P (X ≥ x + 1) F (x) = 1 − (1 − p)x+1.
No exemplo acima,p = 1/12 e, portanto:
F (2) = P (X ≤ 2) = 1 − 11 12
3
= 0.2297.
ii) A v.a. geométrica pode, ainda, ser definida como Y = número de ensaios até o primeiro sucesso. Neste caso, Y assume valores a partir do 1, ou seja, y ∈ {1, 2, 3, . . .} e, em função disto, a sua função de probabilidade passa a ser escrita como
p(y) = P (Y = y) = p(1 − p)y−1, y ∈ N∗,
em que N∗ é o conjunto dos naturais, excluindo-se o zero, ou seja, N∗ = N − {0}.
Nota: Se a v.a. X conta o número de fracassos até o primeiro sucesso e a v.a. Y conta o número de ensaios até o primeiro sucesso, então, a relação1 entre elas é dada por: Y = X + 1 e: p(y) = P (Y = y) = P (X + 1 = y) = P (X = y − 1) = p(1 − p)y−1; P (Y ≥ y) = (1 − p)y−1; F (y) = P (Y ≤ y) = 1 − P (Y ≥ y + 1) = 1 − (1 − p)y.